Module:Glossary/data 4

    From Marovi AI

    Documentation for this module may be created at Module:Glossary/data 4/doc

    local data = {}
    
    data["privacy accountant"] = {
        short = "A bookkeeping mechanism in differential privacy that tracks the cumulative privacy loss (epsilon, delta) consumed by a sequence of randomized queries or training steps. Examples include the moments accountant and Rényi differential privacy accountant.",
        article = nil,
        aliases = { "DP accountant", "moments accountant", "RDP accountant", "privacy loss accountant" },
        es = "Mecanismo de contabilidad en privacidad diferencial que registra la pérdida de privacidad acumulada (épsilon, delta) consumida por una secuencia de consultas o pasos de entrenamiento aleatorizados. Ejemplos: moments accountant y contador de privacidad diferencial de Rényi.",
        zh = "差分隐私中的一种记账机制,用于跟踪一系列随机化查询或训练步骤累积消耗的隐私损失(epsilon、delta)。常见实现包括矩会计(moments accountant)和 Rényi 差分隐私会计。",
        term_es = "contador de privacidad",
        term_zh = "隐私会计",
        aliases_es = { "contador de DP", "moments accountant", "contador de Rényi" },
        aliases_zh = { "DP 会计", "矩会计", "Rényi 隐私会计", "隐私损失会计" },
    }
    
    data["privacy amplification by sampling"] = {
        short = "A differential privacy result showing that running a private mechanism on a uniformly random subsample of the dataset yields stronger privacy guarantees than on the full dataset, because each record only participates with some probability.",
        article = nil,
        aliases = { "subsampling amplification", "amplification via subsampling", "privacy amplification via subsampling" },
        es = "Resultado en privacidad diferencial que muestra que ejecutar un mecanismo privado sobre un submuestreo aleatorio uniforme del conjunto de datos proporciona garantías de privacidad más fuertes que sobre el conjunto completo, porque cada registro participa solo con cierta probabilidad.",
        zh = "差分隐私中的一个结果:在数据集的均匀随机子样本上运行隐私机制,可获得比在完整数据集上更强的隐私保证,因为每条记录仅以一定概率参与。",
        term_es = "amplificación de privacidad por muestreo",
        term_zh = "采样隐私放大",
        aliases_es = { "amplificación por submuestreo", "amplificación de privacidad vía submuestreo" },
        aliases_zh = { "子采样隐私放大", "采样放大", "通过子采样的隐私放大" },
    }
    
    data["privacy amplification by shuffling"] = {
        short = "A differential privacy result showing that randomly shuffling the outputs of independent local randomizers strengthens the privacy guarantee of the combined mechanism. Underpins the shuffle model of differential privacy used in federated analytics.",
        article = nil,
        aliases = { "shuffle amplification", "amplification via shuffling", "shuffle model amplification" },
        es = "Resultado en privacidad diferencial que muestra que mezclar aleatoriamente las salidas de aleatorizadores locales independientes refuerza la garantía de privacidad del mecanismo combinado. Sustenta el modelo shuffle de privacidad diferencial utilizado en analíticas federadas.",
        zh = "差分隐私中的一个结果:对独立的本地随机化器输出进行随机洗牌,可增强组合机制的隐私保证。它是联邦分析中所用的 shuffle 模型差分隐私的理论基础。",
        term_es = "amplificación de privacidad por mezcla",
        term_zh = "洗牌隐私放大",
        aliases_es = { "amplificación shuffle", "amplificación por shuffling", "amplificación del modelo shuffle" },
        aliases_zh = { "shuffle 放大", "通过洗牌的隐私放大", "shuffle 模型放大" },
    }
    
    data["privacy budget"] = {
        short = "The total amount of differential-privacy loss (typically expressed as epsilon, optionally with delta) that an analyst is allowed to spend across all queries or training steps on a dataset. Once the budget is exhausted, no further private computations are permitted.",
        article = nil,
        aliases = { "DP budget", "epsilon budget", "differential privacy budget", "privacy loss budget" },
        es = "Cantidad total de pérdida de privacidad diferencial (normalmente expresada como épsilon, opcionalmente con delta) que un analista puede gastar en todas las consultas o pasos de entrenamiento sobre un conjunto de datos. Una vez agotado, no se permiten más cómputos privados.",
        zh = "差分隐私中分析者在某数据集上的所有查询或训练步骤中允许消耗的隐私损失总量(通常以 epsilon 表示,可附带 delta)。预算用尽后,便不再允许进行进一步的隐私计算。",
        term_es = "presupuesto de privacidad",
        term_zh = "隐私预算",
        aliases_es = { "presupuesto de DP", "presupuesto épsilon", "presupuesto de privacidad diferencial" },
        aliases_zh = { "DP 预算", "epsilon 预算", "差分隐私预算" },
    }
    
    data["privacy by design"] = {
        short = "A framework articulated by Ann Cavoukian that requires privacy protections to be embedded into the design of systems, processes, and policies from the outset rather than added afterward; a foundational concept in modern data-protection regulation.",
        article = nil,
        aliases = { "PbD", "privacy-by-design", "Privacy by Design", "privacy-by-default" },
        es = "Marco articulado por Ann Cavoukian que exige incorporar las protecciones de privacidad en el diseño de los sistemas, procesos y políticas desde el inicio, en lugar de añadirlas después; concepto fundacional en la regulación moderna de protección de datos.",
        zh = "由 Ann Cavoukian 提出的框架,要求将隐私保护从一开始就嵌入到系统、流程和政策的设计中,而非事后添加;是现代数据保护法规中的基础性概念。",
        term_es = "privacidad desde el diseño",
        term_zh = "隐私设计",
        aliases_es = { "privacidad por diseño", "PbD", "privacidad desde la concepción", "privacidad por defecto" },
        aliases_zh = { "Privacy by Design", "PbD", "设计中的隐私", "隐私优先设计", "默认隐私" },
    }
    
    data["privacy-fairness tradeoff"] = {
        short = "The empirical and theoretical tension by which adding privacy protections (such as differential privacy) to a learning algorithm can amplify disparities in error rates across demographic groups, especially when groups are unevenly represented.",
        article = nil,
        aliases = { "privacy fairness tradeoff", "DP fairness tradeoff", "privacy vs fairness tradeoff", "differential privacy fairness tradeoff" },
        es = "Tensión empírica y teórica según la cual añadir protecciones de privacidad (como la privacidad diferencial) a un algoritmo de aprendizaje puede amplificar las disparidades en las tasas de error entre grupos demográficos, especialmente cuando los grupos están representados de manera desigual.",
        zh = "在学习算法中加入隐私保护(如差分隐私)可能放大不同人口群体之间错误率差异的实证与理论张力,尤其当各群体代表性不均衡时更为明显。",
        term_es = "compromiso entre privacidad y equidad",
        term_zh = "隐私与公平的权衡",
        aliases_es = { "tradeoff entre privacidad y equidad", "tensión privacidad-equidad", "compromiso DP-equidad" },
        aliases_zh = { "隐私公平权衡", "差分隐私公平性权衡", "DP 公平性权衡" },
    }
    
    data["privacy-utility trade-off"] = {
        short = "The fundamental tension in private data analysis: stronger privacy guarantees (smaller epsilon, more noise) generally degrade the accuracy or utility of the released statistics or models, and vice versa. Quantifying this Pareto frontier is a central goal of differential privacy research.",
        article = nil,
        aliases = { "privacy/utility trade-off", "privacy-accuracy trade-off", "utility-privacy trade-off", "privacy utility tradeoff" },
        es = "Tensión fundamental en el análisis privado de datos: garantías de privacidad más fuertes (épsilon más pequeño, más ruido) suelen degradar la precisión o utilidad de las estadísticas o modelos publicados, y viceversa. Caracterizar esta frontera de Pareto es un objetivo central de la investigación en privacidad diferencial.",
        zh = "隐私数据分析中的根本性权衡:更强的隐私保证(更小的 epsilon、更多噪声)通常会降低所发布统计量或模型的准确性或效用,反之亦然。刻画这一帕累托边界是差分隐私研究的核心目标。",
        term_es = "compromiso privacidad-utilidad",
        term_zh = "隐私-效用权衡",
        aliases_es = { "compromiso privacidad/utilidad", "compromiso privacidad-precisión", "trade-off privacidad-utilidad" },
        aliases_zh = { "隐私与效用权衡", "隐私-准确度权衡", "效用-隐私权衡" },
    }
    
    data["private information retrieval"] = {
        short = "A cryptographic protocol that lets a client retrieve a record from a database held by one or more servers without revealing to the servers which record was requested. Variants include information-theoretic PIR (multi-server) and computational PIR (single-server).",
        article = nil,
        aliases = { "PIR", "information-theoretic PIR", "computational PIR", "single-server PIR", "multi-server PIR" },
        es = "Protocolo criptográfico que permite a un cliente recuperar un registro de una base de datos en poder de uno o varios servidores sin revelar a estos qué registro solicitó. Existen variantes teóricamente informativas (multi-servidor) y computacionales (un solo servidor).",
        zh = "一种密码协议,允许客户端从一个或多个服务器持有的数据库中检索某条记录,而不向服务器透露所请求的是哪一条记录。包括信息论 PIR(多服务器)和计算 PIR(单服务器)等变体。",
        term_es = "recuperación privada de información",
        term_zh = "隐私信息检索",
        aliases_es = { "PIR", "PIR teóricamente informativa", "PIR computacional", "PIR de un servidor", "PIR multi-servidor" },
        aliases_zh = { "PIR", "信息论 PIR", "计算 PIR", "单服务器 PIR", "多服务器 PIR", "私密信息检索" },
    }
    
    data["private record linkage"] = {
        short = "Techniques for matching records that refer to the same entity across two or more databases held by different parties without revealing the underlying records. Combines secure multi-party computation, hashing, and approximate matching.",
        article = nil,
        aliases = { "PRL", "privacy-preserving record linkage", "PPRL", "secure record linkage" },
        es = "Conjunto de técnicas para emparejar registros que se refieren a la misma entidad entre dos o más bases de datos en manos de diferentes partes sin revelar los registros subyacentes. Combina cómputo multi-parte seguro, hashing y emparejamiento aproximado.",
        zh = "在不泄露底层记录的前提下,于不同方持有的两个或多个数据库间匹配指向同一实体的记录的技术,融合安全多方计算、哈希与近似匹配方法。",
        term_es = "vinculación privada de registros",
        term_zh = "隐私记录链接",
        aliases_es = { "PRL", "vinculación de registros con preservación de privacidad", "PPRL" },
        aliases_zh = { "PRL", "PPRL", "保护隐私的记录链接", "安全记录链接" },
    }
    
    data["private set intersection"] = {
        short = "A secure multi-party computation protocol in which two or more parties learn only the intersection of their private input sets, with no party revealing other elements. Used for contact discovery, ad measurement, and federated joins.",
        article = nil,
        aliases = { "PSI", "private intersection", "secure set intersection" },
        es = "Protocolo de cómputo multi-parte seguro en el que dos o más partes aprenden únicamente la intersección de sus conjuntos de entrada privados, sin revelar otros elementos. Se usa para descubrimiento de contactos, medición de anuncios y joins federados.",
        zh = "一种安全多方计算协议:两方或多方仅获得各自私有输入集合的交集,而不泄露其他元素。常用于联系人发现、广告效果度量及联邦连接(join)。",
        term_es = "intersección privada de conjuntos",
        term_zh = "隐私集合求交",
        aliases_es = { "PSI", "intersección privada", "intersección segura de conjuntos" },
        aliases_zh = { "PSI", "私密集合交集", "安全集合交集", "隐私集合交集" },
    }
    
    data["prm800k"] = {
        short = "A dataset released by OpenAI containing 800,000 step-level human annotations of mathematical reasoning solutions, used to train process reward models that score the correctness of each intermediate step.",
        article = nil,
        aliases = { "PRM800K", "PRM-800K", "PRM 800K" },
        es = "Conjunto de datos publicado por OpenAI con 800.000 anotaciones humanas a nivel de paso sobre soluciones de razonamiento matemático, utilizado para entrenar modelos de recompensa de proceso que califican la corrección de cada paso intermedio.",
        zh = "OpenAI 发布的数据集,包含 80 万条数学推理解题过程中按步骤的人工标注,用于训练对每个中间步骤的正确性打分的过程奖励模型。",
        term_es = "PRM800K",
        term_zh = "PRM800K",
        aliases_es = { "PRM-800K", "PRM 800K" },
        aliases_zh = { "PRM-800K", "PRM 800K" },
    }
    
    data["probabilistic backpropagation"] = {
        short = "A scalable training method for Bayesian neural networks that propagates Gaussian distributions over weights and activations through the network analytically using assumed-density filtering and expectation propagation.",
        article = nil,
        aliases = { "PBP", "probabilistic back-propagation" },
        es = "Un método escalable para entrenar redes neuronales bayesianas que propaga distribuciones gaussianas sobre pesos y activaciones a través de la red analíticamente mediante filtrado de densidad asumida y propagación de expectativas.",
        zh = "一种可扩展的贝叶斯神经网络训练方法,通过假设密度滤波和期望传播将权重与激活的高斯分布解析地在网络中前向传播。",
        term_es = "retropropagación probabilística",
        term_zh = "概率反向传播",
        aliases_es = { "PBP", "back-propagation probabilística" },
        aliases_zh = { "PBP", "概率反传" },
    }
    
    data["probabilistic logic"] = {
        short = "A family of formalisms that combine logical inference with probability theory, assigning probabilities to formulas or possible worlds so that uncertainty can be reasoned about in a logically structured way.",
        article = nil,
        aliases = { "probabilistic logics", "probability logic" },
        es = "Una familia de formalismos que combinan la inferencia lógica con la teoría de la probabilidad, asignando probabilidades a fórmulas o mundos posibles para razonar sobre la incertidumbre de forma lógicamente estructurada.",
        zh = "一类将逻辑推理与概率论结合的形式系统,为公式或可能世界赋予概率,从而能够以逻辑结构化的方式对不确定性进行推理。",
        term_es = "lógica probabilística",
        term_zh = "概率逻辑",
        aliases_es = { "lógicas probabilísticas", "lógica de probabilidad" },
        aliases_zh = { "概率逻辑", "概率化逻辑" },
    }
    
    data["probabilistic logic programming"] = {
        short = "A programming paradigm that extends logic programming languages such as Prolog with probabilistic facts and rules, supporting inference and learning over distributions defined by logic programs.",
        article = nil,
        aliases = { "PLP", "probabilistic logic programs", "probabilistic logical programming" },
        es = "Un paradigma de programación que extiende lenguajes de programación lógica como Prolog con hechos y reglas probabilísticos, dando soporte a inferencia y aprendizaje sobre distribuciones definidas por programas lógicos.",
        zh = "一种编程范式,将 Prolog 等逻辑编程语言扩展为支持概率事实和规则,能够对由逻辑程序定义的分布进行推断与学习。",
        term_es = "programación lógica probabilística",
        term_zh = "概率逻辑编程",
        aliases_es = { "PLP", "programación lógica probabilista" },
        aliases_zh = { "PLP", "概率化逻辑编程" },
    }
    
    data["probabilistic neural network"] = {
        short = "A neural network that outputs probability distributions over predictions or whose weights or activations are treated as random variables, enabling principled uncertainty quantification.",
        article = nil,
        aliases = { "PNN", "stochastic neural network" },
        es = "Una red neuronal que produce distribuciones de probabilidad sobre predicciones o cuyos pesos o activaciones se tratan como variables aleatorias, permitiendo una cuantificación principiada de la incertidumbre.",
        zh = "一种输出预测概率分布或将权重或激活视为随机变量的神经网络,可实现原则化的不确定性量化。",
        term_es = "red neuronal probabilística",
        term_zh = "概率神经网络",
        aliases_es = { "PNN", "red neuronal estocástica" },
        aliases_zh = { "PNN", "随机神经网络" },
    }
    
    data["probabilistic soft logic"] = {
        short = "A probabilistic logic framework that uses Łukasiewicz t-norm relaxations to map first-order rules onto continuous-valued hinge-loss Markov random fields, enabling efficient convex inference over large relational domains.",
        article = nil,
        aliases = { "PSL", "Probabilistic Soft Logic", "soft logic" },
        es = "Un marco de lógica probabilística que utiliza relajaciones basadas en la t-norma de Łukasiewicz para mapear reglas de primer orden a campos aleatorios de Markov de pérdida bisagra de valores continuos, permitiendo inferencia convexa eficiente sobre dominios relacionales grandes.",
        zh = "一种概率逻辑框架,利用 Łukasiewicz t-范数松弛将一阶规则映射为连续值的铰链损失马尔可夫随机场,从而在大规模关系领域上实现高效的凸推断。",
        term_es = "lógica suave probabilística",
        term_zh = "概率软逻辑",
        aliases_es = { "PSL", "lógica probabilística suave" },
        aliases_zh = { "PSL", "概率软逻辑" },
    }
    
    data["probability density"] = {
        short = "For a continuous random variable, the non-negative function p(x) such that the probability of falling in any interval is its integral over that interval; values of p(x) are densities, not probabilities, and may exceed 1.",
        article = nil,
        aliases = { "probability density function", "PDF", "density function", "density" },
        es = "Para una variable aleatoria continua, la función no negativa p(x) tal que la probabilidad de caer en cualquier intervalo es su integral sobre dicho intervalo; los valores de p(x) son densidades, no probabilidades, y pueden superar 1.",
        zh = "对于连续随机变量,是满足以下条件的非负函数 p(x):在任意区间上落入该区间的概率等于 p(x) 在该区间上的积分;p(x) 的取值是密度而非概率,可以大于 1。",
        term_es = "densidad de probabilidad",
        term_zh = "概率密度",
        aliases_es = { "función de densidad de probabilidad", "FDP", "función de densidad", "densidad" },
        aliases_zh = { "概率密度函数", "PDF", "密度函数" },
    }
    
    data["probability mass"] = {
        short = "For a discrete random variable, the function p(x) giving the probability that the variable takes the exact value x; the values are non-negative and sum to 1 over the support.",
        article = nil,
        aliases = { "probability mass function", "PMF", "mass function" },
        es = "Para una variable aleatoria discreta, la función p(x) que da la probabilidad de que la variable tome exactamente el valor x; los valores son no negativos y suman 1 sobre el soporte.",
        zh = "对于离散随机变量,是给出变量取得精确值 x 的概率的函数 p(x);其取值为非负且在支撑集上之和为 1。",
        term_es = "masa de probabilidad",
        term_zh = "概率质量",
        aliases_es = { "función de masa de probabilidad", "FMP", "función de masa" },
        aliases_zh = { "概率质量函数", "PMF", "质量函数" },
    }
    
    data["probability of improvement"] = {
        short = "A Bayesian optimization acquisition function that selects the next query point with the highest probability under the surrogate's posterior of producing an objective value better than the current best observation.",
        article = nil,
        aliases = { "PI", "Probability of Improvement" },
        es = "Función de adquisición de optimización bayesiana que selecciona el siguiente punto a evaluar como aquel con mayor probabilidad, bajo la posterior del modelo sustituto, de producir un valor objetivo mejor que la mejor observación actual.",
        zh = "一种贝叶斯优化采集函数,根据代理模型后验,选择最有可能产生比当前最优观测更好目标值的下一个评估点。",
        term_es = "probabilidad de mejora",
        term_zh = "改进概率",
        aliases_es = { "PI", "probabilidad de mejora" },
        aliases_zh = { "PI", "Probability of Improvement" },
    }
    
    data["probability of necessity"] = {
        short = "In Pearl's counterfactual logic, the probability that the outcome would not have occurred had the cause been absent, given that both the cause and the outcome did occur: P(Y_{x'}=0 | X=x, Y=1).",
        article = nil,
        aliases = { "PN", "necessity probability" },
        es = "En la lógica contrafactual de Pearl, probabilidad de que el resultado no se hubiera producido si la causa hubiera estado ausente, dado que tanto la causa como el resultado ocurrieron: P(Y_{x'}=0 | X=x, Y=1).",
        zh = "在 Pearl 反事实逻辑中,在原因和结局均发生的条件下,若该原因不存在则结局也不会发生的概率:P(Y_{x'}=0 | X=x, Y=1)。",
        term_es = "probabilidad de necesidad",
        term_zh = "必要性概率",
        aliases_es = { "PN", "probabilidad de necesariedad" },
        aliases_zh = { "PN", "原因必要性概率" },
    }
    
    data["probability of necessity and sufficiency"] = {
        short = "In Pearl's counterfactual logic, the probability that a cause is both necessary and sufficient for the outcome: P(Y_{x}=1, Y_{x'}=0); combines probability of necessity and probability of sufficiency in one quantity.",
        article = nil,
        aliases = { "PNS", "necessity and sufficiency probability" },
        es = "En la lógica contrafactual de Pearl, probabilidad de que una causa sea a la vez necesaria y suficiente para el resultado: P(Y_{x}=1, Y_{x'}=0); combina la probabilidad de necesidad y la de suficiencia en una sola magnitud.",
        zh = "在 Pearl 反事实逻辑中,某原因对结局既必要又充分的概率:P(Y_{x}=1, Y_{x'}=0);它将必要性概率与充分性概率合而为一。",
        term_es = "probabilidad de necesidad y suficiencia",
        term_zh = "必要且充分性概率",
        aliases_es = { "PNS", "probabilidad de necesariedad y suficiencia" },
        aliases_zh = { "PNS", "必要性与充分性概率" },
    }
    
    data["probability of sufficiency"] = {
        short = "In Pearl's counterfactual logic, the probability that introducing the cause would produce the outcome in a unit where neither was present: P(Y_{x}=1 | X=x', Y=0).",
        article = nil,
        aliases = { "PS", "sufficiency probability" },
        es = "En la lógica contrafactual de Pearl, probabilidad de que introducir la causa produzca el resultado en una unidad donde ni la causa ni el resultado están presentes: P(Y_{x}=1 | X=x', Y=0).",
        zh = "在 Pearl 反事实逻辑中,在原因与结局均未发生的单位上,引入该原因将产生结局的概率:P(Y_{x}=1 | X=x', Y=0)。",
        term_es = "probabilidad de suficiencia",
        term_zh = "充分性概率",
        aliases_es = { "PS", "probabilidad de suficiencia causal" },
        aliases_zh = { "PS", "原因充分性概率" },
    }
    
    data["probe accuracy"] = {
        short = "The classification accuracy of a probing classifier on a diagnostic task, used as a proxy for how much information about a target property is linearly (or otherwise) accessible from a model's internal representations.",
        article = nil,
        aliases = { "probing accuracy", "diagnostic accuracy" },
        es = "Exactitud de clasificación de un probing classifier sobre una tarea diagnóstica; se emplea como aproximación de cuánta información sobre una propiedad objetivo es accesible (de forma lineal u otra) en las representaciones internas de un modelo.",
        zh = "探针分类器在诊断任务上的分类准确率,用作衡量模型内部表示中关于目标属性的信息可以被(线性或其他方式)提取出多少的代理指标。",
        term_es = "exactitud del probe",
        term_zh = "探针准确率",
        aliases_es = { "accuracy del probe", "exactitud de probing", "accuracy diagnóstica" },
        aliases_zh = { "probing准确率", "诊断准确率", "探测准确率" },
    }
    
    data["probe complexity"] = {
        short = "The expressive capacity of a probing classifier — for example its parameter count, depth, or VC dimension — which controls how much of the probe's accuracy can be attributed to the representation versus to the probe itself.",
        article = nil,
        aliases = { "probing complexity", "probe capacity", "probe expressivity" },
        es = "Capacidad expresiva de un probing classifier — por ejemplo número de parámetros, profundidad o dimensión VC — que determina qué parte de la exactitud del probe puede atribuirse a la representación frente a al propio probe.",
        zh = "探针分类器的表达能力——例如参数数量、深度或 VC 维——它决定了探针准确率中有多少应归因于表示本身,而不是归因于探针自身。",
        term_es = "complejidad del probe",
        term_zh = "探针复杂度",
        aliases_es = { "capacidad del probe", "expresividad del probe" },
        aliases_zh = { "探针容量", "探针表达力", "probing复杂度" },
    }
    
    data["probing benchmark"] = {
        short = "A standardized suite of probing tasks and datasets — such as SentEval or edge probing — used to compare what linguistic, factual, or structural properties different representations encode.",
        article = nil,
        aliases = { "probing suite", "probing test suite" },
        es = "Conjunto estandarizado de tareas y datasets de probing — como SentEval o edge probing — utilizado para comparar qué propiedades lingüísticas, factuales o estructurales codifican distintas representaciones.",
        zh = "标准化的探针任务与数据集套件(如 SentEval、edge probing),用于比较不同表示中编码了哪些语言学、事实性或结构性属性。",
        term_es = "benchmark de probing",
        term_zh = "探针基准",
        aliases_es = { "suite de probing", "conjunto de probing" },
        aliases_zh = { "探针基准测试", "probing基准", "探针套件" },
    }
    
    data["probing classifier"] = {
        short = "A small auxiliary classifier — typically linear or shallow — trained on frozen representations from a model to predict a target property, used to diagnose what information those representations contain.",
        article = nil,
        aliases = { "probe", "diagnostic classifier", "probing model", "linear probe" },
        es = "Clasificador auxiliar pequeño — habitualmente lineal o poco profundo — entrenado sobre representaciones congeladas de un modelo para predecir una propiedad objetivo, con el fin de diagnosticar qué información contienen esas representaciones.",
        zh = "在冻结的模型表示之上训练的一个小型辅助分类器(通常为线性或浅层模型),用于预测某一目标属性,从而诊断这些表示中包含哪些信息。",
        term_es = "probing classifier",
        term_zh = "探针分类器",
        aliases_es = { "probe", "clasificador de probing", "clasificador diagnóstico", "probe lineal" },
        aliases_zh = { "探针", "诊断分类器", "线性探针", "probing分类器" },
    }
    
    data["probing dataset"] = {
        short = "A labeled dataset designed so that solving its classification task requires a specific linguistic, semantic, or structural property, used to train and evaluate probing classifiers on representations.",
        article = nil,
        aliases = { "probing data", "diagnostic dataset" },
        es = "Conjunto de datos etiquetado diseñado de forma que resolver su tarea de clasificación requiera una propiedad lingüística, semántica o estructural concreta, utilizado para entrenar y evaluar probing classifiers sobre representaciones.",
        zh = "经过专门设计的标注数据集,其分类任务的求解依赖于某种特定的语言学、语义或结构性属性,用于在表示上训练和评估探针分类器。",
        term_es = "conjunto de datos de probing",
        term_zh = "探针数据集",
        aliases_es = { "dataset de probing", "conjunto diagnóstico" },
        aliases_zh = { "probing数据集", "诊断数据集" },
    }
    
    data["probing task"] = {
        short = "A diagnostic classification task — such as predicting part-of-speech tags or syntactic depth from contextual embeddings — used to test whether a model's representations encode a particular property.",
        article = nil,
        aliases = { "diagnostic task", "probing classification task" },
        es = "Tarea de clasificación diagnóstica — por ejemplo predecir etiquetas morfosintácticas o profundidad sintáctica a partir de embeddings contextuales — utilizada para comprobar si las representaciones de un modelo codifican una propiedad concreta.",
        zh = "用于检验模型表示是否编码了某一特定属性的诊断性分类任务,例如根据上下文嵌入预测词性标签或句法深度。",
        term_es = "tarea de probing",
        term_zh = "探针任务",
        aliases_es = { "tarea diagnóstica", "tarea de probing classifier" },
        aliases_zh = { "probing任务", "诊断任务", "探测任务" },
    }
    
    data["problog"] = {
        short = "A probabilistic logic programming language that extends Prolog by attaching independent probabilities to facts, supporting exact and approximate inference over the resulting distribution of logic programs.",
        article = nil,
        aliases = { "ProbLog", "Problog" },
        es = "Un lenguaje de programación lógica probabilística que extiende Prolog adjuntando probabilidades independientes a los hechos, con soporte para inferencia exacta y aproximada sobre la distribución resultante de programas lógicos.",
        zh = "一种概率逻辑编程语言,通过为事实附加独立概率来扩展 Prolog,并对所得逻辑程序分布支持精确和近似推断。",
        term_es = "ProbLog",
        term_zh = "ProbLog",
        aliases_es = { "ProbLog" },
        aliases_zh = { "ProbLog", "概率Prolog" },
    }
    
    data["procedural fairness"] = {
        short = "A conception of fairness focused on the legitimacy of the decision-making process itself—including transparency, consistency, voice, and the use of appropriate features—rather than only on the distribution of outcomes.",
        article = nil,
        aliases = { "process fairness", "procedural justice", "procedural-justice fairness" },
        es = "Concepción de la equidad centrada en la legitimidad del propio proceso de toma de decisiones —incluida la transparencia, la coherencia, la voz y el uso de características apropiadas— y no solo en la distribución de los resultados.",
        zh = "一种公平观,关注决策过程本身的正当性——包括透明度、一致性、当事人的发言权以及所使用特征的适当性——而不仅仅关注结果的分配。",
        term_es = "equidad procedimental",
        term_zh = "程序公平",
        aliases_es = { "justicia procedimental", "equidad procesal", "equidad del proceso" },
        aliases_zh = { "程序正义", "程序性公平", "过程公平" },
    }
    
    data["process reward model"] = {
        short = "A reward model that scores the correctness or quality of each intermediate step of a model's reasoning trace, rather than only the final answer, enabling fine-grained credit assignment for chain-of-thought training and search.",
        article = nil,
        aliases = { "PRM", "process-supervised reward model", "step-level reward model", "stepwise reward model" },
        es = "Modelo de recompensa que califica la corrección o calidad de cada paso intermedio del razonamiento de un modelo, en lugar de solo la respuesta final, permitiendo una asignación de crédito detallada para entrenamiento y búsqueda con cadena de pensamiento.",
        zh = "对模型推理过程中每一中间步骤的正确性或质量进行打分的奖励模型(而非仅评估最终答案),从而为思维链训练和搜索提供细粒度的信用分配。",
        term_es = "modelo de recompensa de proceso",
        term_zh = "过程奖励模型",
        aliases_es = { "PRM", "modelo de recompensa por pasos", "modelo de recompensa supervisada por proceso" },
        aliases_zh = { "PRM", "过程监督奖励模型", "步骤级奖励模型" },
    }
    
    data["process supervision"] = {
        short = "A training paradigm that provides feedback on each intermediate step of a reasoning trace rather than only on the final outcome, contrasted with outcome supervision and shown to improve mathematical reasoning reliability.",
        article = nil,
        aliases = { "process-based supervision", "stepwise supervision", "step-level supervision" },
        es = "Paradigma de entrenamiento que proporciona retroalimentación sobre cada paso intermedio de un razonamiento en lugar de solo sobre el resultado final, en contraste con la supervisión por resultado y demostrado para mejorar la fiabilidad del razonamiento matemático.",
        zh = "一种训练范式,对推理过程中每个中间步骤提供反馈,而非仅对最终结果反馈,与结果监督相对,已被证明能提升数学推理的可靠性。",
        term_es = "supervisión de proceso",
        term_zh = "过程监督",
        aliases_es = { "supervisión por pasos", "supervisión basada en proceso" },
        aliases_zh = { "process supervision", "基于过程的监督", "步骤级监督" },
    }
    
    data["producer fairness"] = {
        short = "In two-sided platforms and multi-stakeholder recommender systems, a fairness criterion focused on equitable exposure, opportunity, or revenue for content producers (sellers, creators, providers), independent of fairness toward consumers.",
        article = nil,
        aliases = { "provider fairness", "supplier fairness", "creator fairness", "supply-side fairness" },
        es = "En plataformas de dos lados y sistemas de recomendación con múltiples partes interesadas, criterio de equidad centrado en una exposición, oportunidad o ingreso equitativos para los productores de contenido (vendedores, creadores, proveedores), independiente de la equidad respecto a los consumidores.",
        zh = "在双边平台与多方利益相关者推荐系统中,关注内容生产者(卖家、创作者、供应方)在曝光、机会或收益上获得公平对待的公平性准则,独立于对消费者一方的公平性考量。",
        term_es = "equidad para productores",
        term_zh = "生产者公平",
        aliases_es = { "equidad del proveedor", "equidad del lado de la oferta", "equidad para creadores" },
        aliases_zh = { "提供者公平", "供给侧公平", "创作者公平" },
    }
    
    data["profile hmm"] = {
        short = "A hidden Markov model whose states represent positions in a multiple sequence alignment, with match, insert, and delete states capturing position-specific residue preferences and indel patterns; the basis of HMMER and Pfam.",
        article = nil,
        aliases = { "profile HMM", "profile hidden Markov model", "pHMM", "HMM profile" },
        es = "Modelo oculto de Markov cuyos estados representan posiciones en un alineamiento múltiple, con estados de coincidencia, inserción y deleción que capturan preferencias de residuos y patrones de indels específicos de posición; base de HMMER y Pfam.",
        zh = "隐马尔可夫模型,其状态对应于多序列比对中的位置,匹配、插入和删除状态捕捉位置特异的残基偏好和插入缺失模式;为 HMMER 和 Pfam 的基础。",
        term_es = "HMM de perfil",
        term_zh = "Profile HMM",
        aliases_es = { "modelo oculto de Markov de perfil", "pHMM" },
        aliases_zh = { "谱隐马尔可夫模型", "pHMM", "profile 隐马尔可夫模型" },
    }
    
    data["progan"] = {
        short = "Progressive Growing of GANs (Karras et al., 2018), a training scheme that starts both generator and discriminator at very low resolution (e.g. 4×4) and progressively adds higher-resolution layers, smoothly fading them in to stabilize training of high-resolution image GANs.",
        article = nil,
        aliases = { "ProGAN", "Progressive GAN", "Progressive Growing of GANs", "PGGAN" },
        es = "Crecimiento progresivo de GAN (Karras et al., 2018): esquema de entrenamiento que inicia generador y discriminador a muy baja resolución (p. ej. 4×4) y añade progresivamente capas de mayor resolución, integrándolas de manera suave para estabilizar el entrenamiento de GAN de imagen de alta resolución.",
        zh = "Karras 等人于 2018 年提出的渐进式 GAN 训练方案:生成器和判别器从极低分辨率(如 4×4)开始训练,并逐步加入更高分辨率的层并平滑融合,从而稳定高分辨率图像 GAN 的训练。",
        term_es = "ProGAN",
        term_zh = "ProGAN",
        aliases_es = { "GAN progresiva", "crecimiento progresivo de GAN", "PGGAN" },
        aliases_zh = { "渐进式 GAN", "渐进增长 GAN", "PGGAN" },
    }
    
    data["progen"] = {
        short = "An autoregressive language model trained on hundreds of millions of protein sequences that generates novel proteins conditioned on natural-language-like control tags such as protein family or function.",
        article = nil,
        aliases = { "ProGen", "ProGen language model" },
        es = "Modelo de lenguaje autorregresivo entrenado sobre cientos de millones de secuencias de proteínas, capaz de generar proteínas nuevas condicionadas por etiquetas de control similares a lenguaje natural, como la familia o la función proteica.",
        zh = "在数亿条蛋白质序列上训练的自回归语言模型,可在蛋白家族或功能等类自然语言控制标签条件下生成新蛋白质。",
        term_es = "ProGen",
        term_zh = "ProGen",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["progen2"] = {
        short = "A successor to ProGen that scales the autoregressive protein language model to billions of parameters and is trained on broader sequence corpora, improving protein generation, fitness prediction, and zero-shot variant scoring.",
        article = nil,
        aliases = { "ProGen2", "ProGen 2" },
        es = "Sucesor de ProGen que escala el modelo de lenguaje proteico autorregresivo a miles de millones de parámetros y se entrena con corpus de secuencias más amplios, mejorando la generación de proteínas, la predicción de aptitud y la puntuación de variantes en cero disparos.",
        zh = "ProGen 的后续版本,将自回归蛋白质语言模型扩展到数十亿参数,并在更广泛的序列语料上训练,提升了蛋白质生成、适应度预测和零样本变体打分能力。",
        term_es = "ProGen2",
        term_zh = "ProGen2",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["program of thoughts"] = {
        short = "A prompting technique in which a language model expresses its reasoning as executable code rather than natural-language steps, delegating arithmetic and symbolic computation to an external interpreter to improve numerical accuracy.",
        article = nil,
        aliases = { "PoT", "Program-of-Thoughts", "Program of Thoughts prompting", "PoT prompting" },
        es = "Una técnica de prompting en la que un modelo de lenguaje expresa su razonamiento como código ejecutable en lugar de pasos en lenguaje natural, delegando el cálculo aritmético y simbólico a un intérprete externo para mejorar la precisión numérica.",
        zh = "一种提示技术,语言模型以可执行代码而非自然语言步骤来表达推理,将算术和符号计算委托给外部解释器,从而提高数值准确性。",
        term_es = "Program-of-Thoughts",
        term_zh = "思维程序",
        aliases_es = { "PoT", "Program of Thoughts" },
        aliases_zh = { "PoT", "思维程序", "Program-of-Thoughts" },
    }
    
    data["program synthesis"] = {
        short = "The automated generation of executable programs that satisfy a given specification, which may take the form of input-output examples, formal logical constraints, or natural-language descriptions.",
        article = nil,
        aliases = { "automated program synthesis", "program induction", "code synthesis" },
        es = "La generación automatizada de programas ejecutables que satisfacen una especificación dada, la cual puede tomar la forma de ejemplos de entrada-salida, restricciones lógicas formales o descripciones en lenguaje natural.",
        zh = "自动生成满足给定规约的可执行程序,规约可以是输入-输出示例、形式化逻辑约束或自然语言描述。",
        term_es = "síntesis de programas",
        term_zh = "程序合成",
        aliases_es = { "síntesis automática de programas", "inducción de programas" },
        aliases_zh = { "程序合成", "程序综合", "代码合成" },
    }
    
    data["program-aided language model"] = {
        short = "A language model setup where the model offloads computation by emitting code (typically Python) that an external interpreter executes, with the interpreter's output substituted into subsequent reasoning to produce the final answer.",
        article = nil,
        aliases = { "PAL", "Program-Aided Language Model", "program aided language model", "program-aided LMs" },
        es = "Una configuración de modelo de lenguaje en la que el modelo delega cálculos emitiendo código (típicamente Python) que un intérprete externo ejecuta, sustituyendo la salida del intérprete en el razonamiento posterior para producir la respuesta final.",
        zh = "一种语言模型设置,模型通过生成代码(通常是 Python)将计算交给外部解释器执行,并将解释器输出代入后续推理中以得到最终答案。",
        term_es = "modelo de lenguaje asistido por programas",
        term_zh = "程序辅助语言模型",
        aliases_es = { "PAL", "modelos de lenguaje asistidos por programas" },
        aliases_zh = { "PAL", "程序辅助语言模型", "程序协助语言模型" },
    }
    
    data["programmatic supervision"] = {
        short = "An approach to weak supervision in which users write labeling functions or programs that emit noisy labels, which are then aggregated into probabilistic training labels by a label model.",
        article = nil,
        aliases = { "programmatic weak supervision", "data programming" },
        es = "Enfoque de supervisión débil en el que los usuarios escriben funciones o programas de etiquetado que producen etiquetas ruidosas, las cuales son agregadas en etiquetas probabilísticas de entrenamiento por un modelo de etiquetas.",
        zh = "一种弱监督方法,用户编写产生噪声标签的标注函数或程序,再由标签模型将其聚合为概率化的训练标签。",
        term_es = "supervisión programática",
        term_zh = "程序化监督",
        aliases_es = { "supervisión débil programática", "programación de datos" },
        aliases_zh = { "data programming", "程序化弱监督", "数据编程" },
    }
    
    data["programming by example"] = {
        short = "A program synthesis paradigm in which the user supplies input-output examples and the system automatically infers a program consistent with them, widely used in spreadsheet automation and data wrangling tools.",
        article = nil,
        aliases = { "PBE", "programming-by-example", "Programming by Example", "programming by examples" },
        es = "Un paradigma de síntesis de programas en el que el usuario proporciona ejemplos de entrada-salida y el sistema infiere automáticamente un programa consistente con ellos, ampliamente utilizado en herramientas de automatización de hojas de cálculo y de transformación de datos.",
        zh = "一种程序合成范式,用户提供输入-输出示例,系统自动推断出与之一致的程序,被广泛用于电子表格自动化和数据整理工具中。",
        term_es = "programación por ejemplos",
        term_zh = "示例编程",
        aliases_es = { "PBE", "programación por ejemplo" },
        aliases_zh = { "PBE", "示例编程", "样例编程" },
    }
    
    data["progressive shrinking"] = {
        short = "The training procedure used by Once-for-All networks, in which a single supernet is first trained at maximum size and then progressively constrained along kernel size, depth, and width, so that all sub-networks remain accurate.",
        article = nil,
        aliases = { "progressive shrinking", "progressive shrinking algorithm" },
        es = "Procedimiento de entrenamiento de las redes Once-for-All, en el que primero se entrena una supernet a tamaño máximo y luego se restringe progresivamente en tamaño de núcleo, profundidad y anchura, de modo que todas las sub-redes mantengan buena precisión.",
        zh = "Once-for-All 网络使用的训练流程,先以最大规模训练一个超网络,再在卷积核大小、深度和宽度上逐步收缩,使所有子网络都保持良好精度。",
        term_es = "reducción progresiva",
        term_zh = "渐进收缩",
        aliases_es = { "encogimiento progresivo", "contracción progresiva" },
        aliases_zh = { "渐进收缩算法", "progressive shrinking" },
    }
    
    data["projected gradient"] = {
        short = "A method for constrained optimization that performs an unconstrained gradient step and then projects the result back onto the feasible set using the Euclidean projection.",
        article = nil,
        aliases = { "projected gradient descent", "PGD", "projected gradient method" },
        es = "Método para optimización con restricciones que realiza un paso de gradiente sin restricciones y luego proyecta el resultado de vuelta al conjunto factible mediante la proyección euclidiana.",
        zh = "一种用于带约束优化的方法:先沿无约束梯度方向更新,然后通过欧氏投影将结果投回可行集。",
        term_es = "gradiente proyectado",
        term_zh = "投影梯度法",
        aliases_es = { "descenso por gradiente proyectado", "método del gradiente proyectado", "PGD" },
        aliases_zh = { "投影梯度下降", "投影梯度方法", "PGD" },
    }
    
    data["prolific dreamer"] = {
        short = "A text-to-3D generation method that uses Variational Score Distillation (VSD) to optimize a distribution of 3D scenes, producing higher-fidelity and more diverse results than DreamFusion's Score Distillation Sampling.",
        article = nil,
        aliases = { "ProlificDreamer", "Prolific Dreamer", "VSD" },
        es = "Método de generación texto-a-3D que utiliza Variational Score Distillation (VSD) para optimizar una distribución de escenas 3D, produciendo resultados de mayor fidelidad y diversidad que el Score Distillation Sampling de DreamFusion.",
        zh = "一种文本到 3D 生成方法,使用变分分数蒸馏(VSD)优化 3D 场景的分布,相比 DreamFusion 的分数蒸馏采样能产生更高保真度和更具多样性的结果。",
        term_es = "ProlificDreamer",
        term_zh = "ProlificDreamer",
        aliases_es = { "Prolific Dreamer", "VSD" },
        aliases_zh = { "Prolific Dreamer", "VSD", "变分分数蒸馏" },
    }
    
    data["promoter prediction"] = {
        short = "Computational identification of promoter regions—DNA sequences upstream of genes that recruit RNA polymerase—using sequence motifs, chromatin features, or deep learning models.",
        article = nil,
        aliases = { "promoter detection", "promoter identification" },
        es = "Identificación computacional de regiones promotoras—secuencias de ADN aguas arriba de los genes que reclutan ARN polimerasa—mediante motivos de secuencia, características de cromatina o modelos de aprendizaje profundo.",
        zh = "通过序列模体、染色质特征或深度学习模型,对启动子区域(基因上游招募 RNA 聚合酶的 DNA 序列)进行计算识别。",
        term_es = "predicción de promotores",
        term_zh = "启动子预测",
        aliases_es = { "detección de promotores", "identificación de promotores" },
        aliases_zh = { "启动子识别", "启动子检测" },
    }
    
    data["prompt adherence"] = {
        short = "The degree to which a generative model's output reflects the explicit content and constraints of its input prompt; a key axis of quality for text-to-image, text-to-video, and instruction-following models.",
        article = nil,
        aliases = { "prompt adherence", "prompt following", "instruction adherence", "prompt compliance" },
        es = "Grado en que la salida de un modelo generativo refleja el contenido y las restricciones explícitas del prompt de entrada; eje clave de calidad para modelos texto-imagen, texto-vídeo y de seguimiento de instrucciones.",
        zh = "生成模型的输出与输入提示中显式内容及约束的吻合程度;是评价文本到图像、文本到视频以及指令跟随模型质量的关键维度。",
        term_es = "adherencia al prompt",
        term_zh = "提示遵循度",
        aliases_es = { "fidelidad al prompt", "seguimiento de instrucciones" },
        aliases_zh = { "提示词遵循", "指令遵循度" },
    }
    
    data["prompt compression"] = {
        short = "Techniques that shorten an input prompt while preserving the information needed for the task, including token pruning, summarization, and learned soft-prompt distillation, used to reduce inference cost and fit longer contexts.",
        article = nil,
        aliases = { "context compression", "prompt distillation", "LLMLingua" },
        es = "Técnicas que acortan un prompt de entrada conservando la información necesaria para la tarea, incluyendo poda de tokens, resumen y destilación aprendida de soft prompts, utilizadas para reducir el coste de inferencia y acomodar contextos más largos.",
        zh = "在保留任务所需信息的同时缩短输入提示的技术,包括标记剪枝、摘要以及学习得到的软提示蒸馏,用于降低推理成本并容纳更长的上下文。",
        term_es = "compresión de prompts",
        term_zh = "提示压缩",
        aliases_es = { "compresión de contexto", "destilación de prompts" },
        aliases_zh = { "prompt compression", "上下文压缩", "提示蒸馏" },
    }
    
    data["prompt engineering"] = {
        short = "The practice of designing, structuring, and iterating on the textual inputs given to a language model to elicit desired behavior, including instructions, examples, formatting, and decoding constraints.",
        article = nil,
        aliases = { "prompt-engineering", "Prompt Engineering", "prompt design", "prompt crafting" },
        es = "Práctica de diseñar, estructurar e iterar las entradas textuales que se dan a un modelo de lenguaje para obtener el comportamiento deseado, incluyendo instrucciones, ejemplos, formato y restricciones de decodificación.",
        zh = "为引导语言模型产生期望行为,对输入提示进行设计、组织和迭代的实践,包括指令、示例、格式以及解码约束等内容。",
        term_es = "ingeniería de prompts",
        term_zh = "提示工程",
        aliases_es = { "ingeniería de instrucciones", "prompt engineering", "diseño de prompts" },
        aliases_zh = { "Prompt 工程", "提示词工程", "prompt engineering" },
    }
    
    data["prompt enhancement multimodal"] = {
        short = "Automatically rewriting a user's short multimodal prompt into a longer, richer description — typically with an LLM — so that a downstream image, video, or 3D generator can produce more detailed and coherent outputs.",
        article = nil,
        aliases = { "prompt enhancement multimodal", "multimodal prompt enhancement", "prompt rewriting multimodal", "LLM prompt enhancement" },
        es = "Reescritura automática del prompt corto de un usuario en una descripción más larga y rica — habitualmente mediante un LLM — para que un generador de imágenes, vídeo o 3D produzca salidas más detalladas y coherentes.",
        zh = "自动将用户输入的简短多模态提示改写为更长、更丰富的描述(通常借助大语言模型),以便下游的图像、视频或三维生成器产出更细致连贯的结果。",
        term_es = "mejora de prompts multimodal",
        term_zh = "多模态提示增强",
        aliases_es = { "reescritura de prompts multimodal", "prompt enhancement" },
        aliases_zh = { "多模态提示改写", "prompt enhancement" },
    }
    
    data["prompt expansion multimodal"] = {
        short = "A class of techniques that grows a brief multimodal prompt into a more elaborate version by adding stylistic, compositional, or attribute details, in order to improve the quality and diversity of generated images or videos.",
        article = nil,
        aliases = { "prompt expansion multimodal", "multimodal prompt expansion", "prompt augmentation multimodal" },
        es = "Conjunto de técnicas que amplían un prompt multimodal breve en una versión más elaborada añadiendo detalles estilísticos, compositivos o de atributos, con el fin de mejorar la calidad y diversidad de las imágenes o vídeos generados.",
        zh = "一类将简短多模态提示扩展为更详尽版本的方法,通过添加风格、构图或属性等细节,以提升生成图像或视频的质量与多样性。",
        term_es = "expansión de prompts multimodal",
        term_zh = "多模态提示扩展",
        aliases_es = { "ampliación de prompts multimodal" },
        aliases_zh = { "多模态提示扩写" },
    }
    
    data["prompt fidelity"] = {
        short = "A measure of how faithfully a generated image, video, or 3D output reproduces the entities, attributes, and relations specified in its input prompt; closely related to but more semantic than perceptual quality.",
        article = nil,
        aliases = { "prompt fidelity", "prompt faithfulness", "text-to-image fidelity", "text-image fidelity" },
        es = "Medida de la fidelidad con la que una imagen, vídeo o salida 3D generada reproduce las entidades, atributos y relaciones especificados en el prompt de entrada; concepto cercano a la calidad perceptiva pero más semántico.",
        zh = "衡量生成的图像、视频或三维输出在多大程度上忠实再现输入提示中指定的实体、属性与关系的指标;与感知质量相关,但更侧重语义层面。",
        term_es = "fidelidad al prompt",
        term_zh = "提示词保真度",
        aliases_es = { "fidelidad al texto" },
        aliases_zh = { "提示词忠实度", "文本-图像保真度" },
    }
    
    data["prompt injection"] = {
        short = "An attack in which adversarial instructions are embedded in user input or external content (web pages, documents, tool outputs) to override a language model's intended behavior or system prompt.",
        article = nil,
        aliases = { "prompt-injection", "Prompt Injection", "indirect prompt injection", "direct prompt injection" },
        es = "Ataque en el que se introducen instrucciones adversarias en la entrada del usuario o en contenido externo (páginas web, documentos, salidas de herramientas) para anular el comportamiento previsto del modelo de lenguaje o su prompt de sistema.",
        zh = "一种攻击方式,将对抗性指令嵌入用户输入或外部内容(网页、文档、工具输出等)中,以覆盖语言模型的预期行为或系统提示。",
        term_es = "inyección de prompts",
        term_zh = "提示注入",
        aliases_es = { "inyección de instrucciones", "prompt injection", "inyección de prompt" },
        aliases_zh = { "Prompt 注入", "提示词注入", "prompt injection", "间接提示注入" },
    }
    
    data["prompt lookup decoding"] = {
        short = "A simple speculative decoding variant that drafts candidate continuations by looking up n-gram matches inside the input prompt itself, accelerating inference for tasks where the output reuses input phrases such as summarization or code editing.",
        article = nil,
        aliases = { "PLD", "prompt-lookup decoding", "n-gram lookup decoding" },
        es = "Variante simple de decodificación especulativa que propone continuaciones candidatas buscando coincidencias de n-gramas dentro del propio prompt de entrada, acelerando la inferencia en tareas donde la salida reutiliza frases del input, como resumen o edición de código.",
        zh = "一种简单的推测式解码变体,通过在输入提示内部查找 n-gram 匹配来生成候选续写,从而在输出会重复使用输入短语的任务(如摘要或代码编辑)中加速推理。",
        term_es = "prompt lookup decoding",
        term_zh = "提示查找解码",
        aliases_es = { "PLD", "decodificación por búsqueda en el prompt" },
        aliases_zh = { "PLD", "prompt lookup decoding", "n-gram 查找解码" },
    }
    
    data["prompt optimization"] = {
        short = "The automated search for prompts that maximize a downstream metric, using techniques such as gradient-based soft prompt tuning, evolutionary search, RL, or LLM-as-optimizer methods like APE and OPRO.",
        article = nil,
        aliases = { "automatic prompt optimization", "APO", "prompt search", "automated prompt engineering" },
        es = "Búsqueda automatizada de prompts que maximizan una métrica posterior, usando técnicas como ajuste de soft prompts por gradiente, búsqueda evolutiva, RL o métodos LLM-como-optimizador como APE y OPRO.",
        zh = "自动搜索能最大化下游指标的提示,使用基于梯度的软提示微调、进化搜索、强化学习或 APE、OPRO 等以大语言模型为优化器的方法。",
        term_es = "optimización de prompts",
        term_zh = "提示优化",
        aliases_es = { "optimización automática de prompts", "ingeniería automática de prompts", "búsqueda de prompts" },
        aliases_zh = { "prompt optimization", "自动提示优化", "提示搜索", "自动提示工程" },
    }
    
    data["prompt shield"] = {
        short = "A Microsoft Azure AI Content Safety service that detects prompt injection attacks against LLM applications, including direct user prompt attacks and indirect attacks embedded in retrieved or grounded documents.",
        article = nil,
        aliases = { "Prompt Shield", "Prompt Shields", "Azure Prompt Shield" },
        es = "Servicio de Microsoft Azure AI Content Safety que detecta ataques de inyección de prompts contra aplicaciones LLM, incluyendo ataques directos del usuario y ataques indirectos incrustados en documentos recuperados o de contexto.",
        zh = "微软 Azure AI 内容安全的一项服务,用于检测针对大语言模型应用的提示注入攻击,包括用户直接攻击以及嵌入在检索或上下文文档中的间接攻击。",
        term_es = "Prompt Shield",
        term_zh = "Prompt Shield",
        aliases_es = { "Prompt Shields", "Azure Prompt Shield" },
        aliases_zh = { "Prompt Shields", "Azure Prompt Shield", "提示防护" },
    }
    
    data["prompt template"] = {
        short = "A reusable prompt skeleton with named placeholders that are filled at runtime with task inputs, variables, or retrieved context, standardizing how applications query an LLM.",
        article = nil,
        aliases = { "prompt templates", "templated prompt", "parametric prompt" },
        es = "Esqueleto de prompt reutilizable con marcadores nombrados que se rellenan en tiempo de ejecución con entradas de la tarea, variables o contexto recuperado, estandarizando cómo las aplicaciones consultan un LLM.",
        zh = "可复用的提示骨架,带有命名占位符,在运行时填入任务输入、变量或检索到的上下文,从而标准化应用查询大语言模型的方式。",
        term_es = "plantilla de prompt",
        term_zh = "提示模板",
        aliases_es = { "plantillas de prompt", "prompt parametrizado" },
        aliases_zh = { "prompt template", "提示词模板", "参数化提示" },
    }
    
    data["prompt tuning"] = {
        short = "A parameter-efficient fine-tuning method that prepends a small set of trainable continuous embeddings (soft prompts) to the input of a frozen language model, optimizing only those embeddings for a downstream task.",
        article = nil,
        aliases = { "prompt-tuning", "Prompt Tuning", "soft prompt tuning", "soft prompts" },
        es = "Método de ajuste fino eficiente en parámetros que antepone un pequeño conjunto de embeddings continuos entrenables (soft prompts) a la entrada de un modelo de lenguaje congelado, optimizando únicamente esos embeddings para una tarea concreta.",
        zh = "一种参数高效的微调方法,在冻结的语言模型输入前添加少量可训练的连续嵌入(软提示),仅优化这些嵌入以适配下游任务。",
        term_es = "prompt tuning",
        term_zh = "提示微调",
        aliases_es = { "ajuste de prompt", "soft prompts", "ajuste por indicaciones" },
        aliases_zh = { "prompt tuning", "软提示", "Soft Prompt" },
    }
    
    data["prompt weighting"] = {
        short = "A diffusion-model technique, popularized by Stable Diffusion interfaces, that scales the influence of individual tokens or phrases in a prompt using parenthetical or numeric syntax to emphasize or de-emphasize concepts in the generated image.",
        article = nil,
        aliases = { "prompt weights", "token weighting", "attention weighting", "weighted prompts" },
        es = "Técnica de modelos de difusión, popularizada por las interfaces de Stable Diffusion, que escala la influencia de tokens o frases individuales del prompt mediante una sintaxis con paréntesis o numérica para enfatizar o atenuar conceptos en la imagen generada.",
        zh = "扩散模型技术,由 Stable Diffusion 界面推广,使用括号或数值语法对提示中单个标记或短语的影响进行加权,以在生成图像中强调或弱化某些概念。",
        term_es = "ponderación de prompts",
        term_zh = "提示加权",
        aliases_es = { "pesos de prompt", "ponderación de tokens", "prompts ponderados" },
        aliases_zh = { "prompt weighting", "提示词加权", "标记加权", "权重提示" },
    }
    
    data["prompt-based explanation"] = {
        short = "An explanation produced by prompting a large language model — for example with a chain-of-thought or 'explain your answer' instruction — to verbalize the reasoning behind its prediction.",
        article = nil,
        aliases = { "prompted explanation", "LLM-generated explanation", "self-explanation prompt" },
        es = "Explicación obtenida pidiéndole a un modelo de lenguaje grande — por ejemplo mediante una instrucción de chain-of-thought o de \"explica tu respuesta\" — que verbalice el razonamiento detrás de su predicción.",
        zh = "通过对大型语言模型进行提示(例如使用思维链或“解释你的答案”这类指令)让其口头给出预测背后推理过程而得到的解释。",
        term_es = "explicación basada en prompts",
        term_zh = "基于提示的解释",
        aliases_es = { "explicación generada por LLM", "explicación por prompting", "auto-explicación por prompt" },
        aliases_zh = { "提示式解释", "基于prompt的解释", "LLM生成的解释" },
    }
    
    data["prompt-based tts"] = {
        short = "Text-to-speech systems that condition synthesis on natural-language style prompts (e.g., 'a cheerful young woman speaking quickly') in addition to the text content, allowing flexible control over voice, emotion, and speaking style.",
        article = nil,
        aliases = { "prompt-based TTS", "prompt TTS", "natural-language-prompt TTS", "instruction-based TTS" },
        es = "Sistemas de síntesis de voz que condicionan la generación a partir de indicaciones (prompts) en lenguaje natural sobre el estilo (por ejemplo, «una mujer joven hablando alegre y rápido») además del texto, permitiendo un control flexible sobre la voz, la emoción y el estilo de habla.",
        zh = "在文本内容之外,还以自然语言风格提示(例如「一位语速较快、情绪愉悦的年轻女性」)作为条件的语音合成系统,可对音色、情感和说话风格进行灵活控制。",
        term_es = "TTS basado en prompts",
        term_zh = "基于提示的TTS",
        aliases_es = { "TTS guiado por prompts", "TTS por instrucciones", "síntesis de voz por prompts" },
        aliases_zh = { "提示式TTS", "基于自然语言提示的语音合成", "指令式TTS" },
    }
    
    data["prompt-to-prompt"] = {
        short = "A diffusion-based image editing method that manipulates the cross-attention maps tied to specific words in the source prompt to perform localized edits, word swaps, or attribute changes while preserving the rest of the image.",
        article = nil,
        aliases = { "Prompt-to-Prompt", "P2P", "prompt to prompt", "cross-attention editing" },
        es = "Método de edición de imágenes basado en difusión que manipula los mapas de atención cruzada asociados a palabras específicas del prompt original para realizar ediciones localizadas, sustituciones de palabras o cambios de atributos preservando el resto de la imagen.",
        zh = "一种基于扩散的图像编辑方法,通过操纵与源提示中特定词语关联的交叉注意力图,进行局部编辑、词语替换或属性变化,同时保留图像其余部分。",
        term_es = "Prompt-to-Prompt",
        term_zh = "Prompt-to-Prompt",
        aliases_es = { "P2P", "prompt a prompt", "edición por atención cruzada" },
        aliases_zh = { "P2P", "prompt to prompt", "交叉注意力编辑" },
    }
    
    data["prompt2prompt"] = {
        short = "A training-free image-editing technique for text-to-image diffusion models that manipulates cross-attention maps between source and edited prompts, enabling localized changes while preserving overall structure.",
        article = nil,
        aliases = { "Prompt-to-Prompt", "Prompt2Prompt", "prompt-to-prompt editing", "p2p editing" },
        es = "Técnica de edición de imágenes sin entrenamiento adicional para modelos de difusión texto-imagen, que manipula los mapas de atención cruzada entre el prompt original y el editado, permitiendo cambios localizados sin alterar la estructura global.",
        zh = "面向文本到图像扩散模型的免训练图像编辑方法:通过操纵源提示与编辑提示之间的交叉注意力图,实现在保持整体结构的同时进行局部修改。",
        term_es = "Prompt-to-Prompt",
        term_zh = "Prompt-to-Prompt",
        aliases_es = { "Prompt2Prompt", "edición prompt-a-prompt" },
        aliases_zh = { "Prompt2Prompt", "提示到提示编辑" },
    }
    
    data["proof search"] = {
        short = "The process of exploring sequences of inference steps or tactics in order to construct a formal proof of a target conjecture, typically guided by heuristics, search algorithms, or learned policies.",
        article = nil,
        aliases = { "proof searching", "automated proof search", "theorem proof search" },
        es = "El proceso de explorar secuencias de pasos de inferencia o tácticas para construir una demostración formal de una conjetura objetivo, normalmente guiado por heurísticas, algoritmos de búsqueda o políticas aprendidas.",
        zh = "为构造目标猜想的形式化证明而探索推理步骤或证明策略序列的过程,通常由启发式、搜索算法或学习到的策略来引导。",
        term_es = "búsqueda de demostraciones",
        term_zh = "证明搜索",
        aliases_es = { "búsqueda de pruebas", "búsqueda de demostración" },
        aliases_zh = { "证明搜索", "证明搜寻" },
    }
    
    data["proof state"] = {
        short = "In an interactive theorem prover, the structured representation of the current proof obligation, comprising the open goals to be discharged, the available hypotheses, and the local typing context.",
        article = nil,
        aliases = { "proof states", "tactic state", "goal state" },
        es = "En un demostrador interactivo de teoremas, la representación estructurada de la obligación de demostración actual, que incluye las metas abiertas por demostrar, las hipótesis disponibles y el contexto de tipos local.",
        zh = "在交互式定理证明器中,当前证明义务的结构化表示,包括待解决的开放目标、可用假设以及局部类型上下文。",
        term_es = "estado de la demostración",
        term_zh = "证明状态",
        aliases_es = { "estado de prueba", "estado de táctica" },
        aliases_zh = { "证明状态", "策略状态", "目标状态" },
    }
    
    data["proof step generation"] = {
        short = "The task of predicting the next tactic or inference step to apply given the current proof state of an interactive theorem prover, often performed by a neural model trained on human-written proofs.",
        article = nil,
        aliases = { "tactic prediction", "next-tactic prediction", "proof step prediction", "tactic generation" },
        es = "La tarea de predecir la siguiente táctica o paso de inferencia a aplicar dado el estado actual de la demostración en un demostrador interactivo de teoremas, frecuentemente realizada por un modelo neuronal entrenado con demostraciones escritas por humanos.",
        zh = "在交互式定理证明器中,根据当前证明状态预测下一步要应用的策略或推理步骤的任务,通常由在人类编写的证明上训练的神经模型完成。",
        term_es = "generación de pasos de demostración",
        term_zh = "证明步骤生成",
        aliases_es = { "predicción de tácticas", "generación de tácticas" },
        aliases_zh = { "证明步骤生成", "策略生成", "策略预测" },
    }
    
    data["proof tactic"] = {
        short = "In interactive theorem provers such as Coq, Lean, or Isabelle, a high-level command that transforms the current proof state into one or more simpler subgoals, allowing proofs to be built compositionally.",
        article = nil,
        aliases = { "tactic", "proof tactics", "tactics" },
        es = "En demostradores interactivos de teoremas como Coq, Lean o Isabelle, un comando de alto nivel que transforma el estado actual de la demostración en uno o varios subobjetivos más simples, lo que permite construir demostraciones de forma composicional.",
        zh = "在 Coq、Lean 或 Isabelle 等交互式定理证明器中,将当前证明状态转化为一个或多个更简单子目标的高层命令,从而使证明能够以组合方式构建。",
        term_es = "táctica de demostración",
        term_zh = "证明策略",
        aliases_es = { "táctica", "tácticas", "tácticas de demostración" },
        aliases_zh = { "证明策略", "策略", "证明战术" },
    }
    
    data["proof verifier"] = {
        short = "A program that mechanically checks whether a given formal proof is valid by re-applying each inference rule, providing high assurance that the proven theorem follows from the stated axioms.",
        article = nil,
        aliases = { "proof checker", "kernel checker", "proof verifiers" },
        es = "Un programa que verifica mecánicamente si una demostración formal dada es válida reaplicando cada regla de inferencia, proporcionando una alta garantía de que el teorema demostrado se sigue de los axiomas establecidos.",
        zh = "一种程序,通过逐条重新应用每条推理规则来机械地检查给定的形式化证明是否有效,从而高度保证被证明的定理可以从所声明的公理推出。",
        term_es = "verificador de demostraciones",
        term_zh = "证明验证器",
        aliases_es = { "comprobador de demostraciones", "verificador de pruebas" },
        aliases_zh = { "证明验证器", "证明检查器", "证明核查器" },
    }
    
    data["proofnet"] = {
        short = "A benchmark of formalized undergraduate-level mathematics statements paired with natural-language counterparts, used to evaluate autoformalization and theorem-proving capabilities of language models in Lean.",
        article = nil,
        aliases = { "ProofNet", "ProofNet benchmark" },
        es = "Un benchmark de enunciados matemáticos de nivel universitario formalizados emparejados con sus contrapartes en lenguaje natural, utilizado para evaluar las capacidades de autoformalización y demostración de teoremas de los modelos de lenguaje en Lean.",
        zh = "一个将本科数学命题的形式化版本与自然语言版本配对的基准,用于评估语言模型在 Lean 中的自动形式化和定理证明能力。",
        term_es = "ProofNet",
        term_zh = "ProofNet",
        aliases_es = { "ProofNet" },
        aliases_zh = { "ProofNet" },
    }
    
    data["proofwriter"] = {
        short = "A synthetic natural-language dataset of rule-based reasoning problems with closed-world assumptions, designed to test whether language models can perform multi-step deductive inference and produce explicit proofs.",
        article = nil,
        aliases = { "ProofWriter", "ProofWriter dataset" },
        es = "Un conjunto de datos sintético en lenguaje natural de problemas de razonamiento basado en reglas con suposiciones de mundo cerrado, diseñado para evaluar si los modelos de lenguaje pueden realizar inferencia deductiva de varios pasos y producir demostraciones explícitas.",
        zh = "一个合成的自然语言数据集,包含基于规则、采用封闭世界假设的推理问题,用于测试语言模型是否能进行多步演绎推理并生成显式证明。",
        term_es = "ProofWriter",
        term_zh = "ProofWriter",
        aliases_es = { "ProofWriter" },
        aliases_zh = { "ProofWriter" },
    }
    
    data["propbank"] = {
        short = "A linguistic resource that annotates English text with predicate-argument structure, labeling each verb's arguments with semantic roles and serving as a standard training corpus for semantic role labeling.",
        article = nil,
        aliases = { "PropBank", "Proposition Bank" },
        es = "Un recurso lingüístico que anota texto en inglés con estructura predicado-argumento, etiquetando los argumentos de cada verbo con roles semánticos y sirviendo como corpus de entrenamiento estándar para el etiquetado de roles semánticos.",
        zh = "一种语言资源,对英语文本标注谓词-论元结构,为每个动词的论元打上语义角色标签,是语义角色标注的标准训练语料库。",
        term_es = "PropBank",
        term_zh = "PropBank",
        aliases_es = { "PropBank", "Banco de Proposiciones" },
        aliases_zh = { "PropBank", "命题库" },
    }
    
    data["propensity score"] = {
        short = "The conditional probability of receiving treatment given a set of observed covariates. Conditioning on the propensity score balances those covariates between treated and untreated groups under unconfoundedness, so a scalar summary suffices for adjustment.",
        article = nil,
        aliases = { "Propensity Score", "PS", "Rosenbaum-Rubin propensity score", "treatment propensity" },
        es = "Probabilidad condicional de recibir el tratamiento dado un conjunto de covariables observadas. Bajo no confusión, condicionar en el puntaje de propensión equilibra esas covariables entre los grupos tratado y no tratado, por lo que un resumen escalar basta para el ajuste.",
        zh = "在给定一组观测协变量条件下接受处理的条件概率。在无混杂假设下,对倾向得分进行条件化可在处理组与对照组之间平衡这些协变量,因此一个标量摘要即足以用于调整。",
        term_es = "puntaje de propensión",
        term_zh = "倾向得分",
        aliases_es = { "índice de propensión", "score de propensión", "propensión al tratamiento" },
        aliases_zh = { "倾向性评分", "倾向分数", "propensity score" },
    }
    
    data["propensity score matching"] = {
        short = "An observational-study method that pairs treated and control units with similar estimated propensity scores to estimate average treatment effects. It approximates a randomized experiment by removing imbalance in observed covariates summarized by the score.",
        article = nil,
        aliases = { "Propensity Score Matching", "PSM", "propensity-score matching", "matching on the propensity score" },
        es = "Método para estudios observacionales que empareja unidades tratadas y de control con puntajes de propensión estimados similares para estimar efectos promedio del tratamiento. Aproxima un experimento aleatorizado al eliminar el desequilibrio en las covariables observadas resumidas por el puntaje.",
        zh = "一种观察性研究方法,将估计的倾向得分相近的处理单位与对照单位进行配对,以估计平均处理效应。它通过消除由倾向得分概括的观测协变量不平衡来近似随机化实验。",
        term_es = "emparejamiento por puntaje de propensión",
        term_zh = "倾向得分匹配",
        aliases_es = { "matching por propensión", "PSM", "emparejamiento por propensión" },
        aliases_zh = { "PSM", "倾向性评分匹配", "倾向分数匹配" },
    }
    
    data["propensity score model"] = {
        short = "A statistical model—commonly logistic regression or a flexible machine-learning classifier—used to estimate each unit's propensity score from observed covariates. Its specification governs how well subsequent matching, weighting, or stratification balances the data.",
        article = nil,
        aliases = { "Propensity Score Model", "treatment model", "propensity model", "PS model" },
        es = "Modelo estadístico —habitualmente regresión logística o un clasificador flexible de aprendizaje automático— que se utiliza para estimar el puntaje de propensión de cada unidad a partir de las covariables observadas. Su especificación determina la calidad del posterior emparejamiento, ponderación o estratificación.",
        zh = "用于根据观测协变量估计每个单位倾向得分的统计模型,通常为逻辑回归或灵活的机器学习分类器。其设定决定了后续匹配、加权或分层的平衡效果。",
        term_es = "modelo de puntaje de propensión",
        term_zh = "倾向得分模型",
        aliases_es = { "modelo de propensión", "modelo del tratamiento", "modelo PS" },
        aliases_zh = { "倾向性评分模型", "处理模型", "PS 模型" },
    }
    
    data["propensity score stratification"] = {
        short = "An adjustment method that groups units into strata of similar estimated propensity score (often quintiles) and combines within-stratum treatment-effect estimates. It reduces bias from observed confounders without requiring exact matching.",
        article = nil,
        aliases = { "Propensity Score Stratification", "subclassification on the propensity score", "PS subclassification", "stratification on the propensity score" },
        es = "Método de ajuste que agrupa las unidades en estratos con puntajes de propensión estimados similares (a menudo quintiles) y combina las estimaciones del efecto del tratamiento dentro de cada estrato. Reduce el sesgo por confusores observados sin requerir un emparejamiento exacto.",
        zh = "一种调整方法,将各单位按估计的倾向得分(通常按五分位数)分层,并合并各层内的处理效应估计。它在不要求精确匹配的情况下减少由观测混杂引起的偏倚。",
        term_es = "estratificación por puntaje de propensión",
        term_zh = "倾向得分分层",
        aliases_es = { "subclasificación por propensión", "estratificación por propensión" },
        aliases_zh = { "倾向性评分分层", "倾向得分子分类", "PS 分层" },
    }
    
    data["propensity score weighting"] = {
        short = "A family of methods that reweights observations by functions of the estimated propensity score to construct a pseudo-population in which treatment is independent of measured confounders. Inverse-probability and overlap weights are common variants.",
        article = nil,
        aliases = { "Propensity Score Weighting", "PSW", "weighting on the propensity score", "propensity weighting" },
        es = "Familia de métodos que reponderan las observaciones mediante funciones del puntaje de propensión estimado para construir una pseudo-población en la que el tratamiento es independiente de los confusores medidos. Las ponderaciones de probabilidad inversa y de solapamiento son variantes habituales.",
        zh = "一类通过估计倾向得分的函数对观测进行重新加权的方法,构造出一个处理与已测混杂独立的伪总体。逆概率加权和重叠加权是常见的变体。",
        term_es = "ponderación por puntaje de propensión",
        term_zh = "倾向得分加权",
        aliases_es = { "ponderación por propensión", "PSW", "ponderación PS" },
        aliases_zh = { "倾向性评分加权", "倾向分数加权", "PSW" },
    }
    
    data["proper scoring rule"] = {
        short = "A scoring rule whose expectation is uniquely maximized when the predicted distribution equals the true data-generating distribution, ensuring honest probabilistic forecasts; examples include log loss and the Brier score.",
        article = nil,
        aliases = { "strictly proper scoring rule" },
        es = "Una regla de puntuación cuyo valor esperado se maximiza únicamente cuando la distribución predicha coincide con la distribución generadora de datos verdadera, garantizando predicciones probabilísticas honestas; ejemplos son la pérdida logarítmica y el score de Brier.",
        zh = "一种评分规则,其期望值仅在预测分布等于真实数据生成分布时取得唯一最大值,从而激励诚实的概率预测;典型例子包括对数损失和 Brier 分数。",
        term_es = "regla de puntuación propia",
        term_zh = "正常评分规则",
        aliases_es = { "regla de puntuación estrictamente propia", "regla de scoring propia" },
        aliases_zh = { "严格正常评分规则", "适当评分规则" },
    }
    
    data["property inference attack"] = {
        short = "A privacy attack in which an adversary infers global statistical properties of a model's training set (for example, the proportion of training images depicting women) from the model parameters, gradients, or outputs, without targeting any individual record.",
        article = nil,
        aliases = { "property inference", "global property inference", "training set property attack" },
        es = "Ataque de privacidad en el que un adversario infiere propiedades estadísticas globales del conjunto de entrenamiento de un modelo (por ejemplo, la proporción de imágenes de entrenamiento que muestran mujeres) a partir de los parámetros, gradientes o salidas del modelo, sin atacar registros individuales.",
        zh = "一种隐私攻击:攻击者通过模型参数、梯度或输出推断训练集的全局统计属性(例如训练图像中女性的比例),而非针对任何单条记录。",
        term_es = "ataque de inferencia de propiedades",
        term_zh = "属性推断攻击",
        aliases_es = { "inferencia de propiedades", "inferencia de propiedades globales", "ataque de propiedades del conjunto de entrenamiento" },
        aliases_zh = { "属性推理攻击", "全局属性推断", "训练集属性攻击" },
    }
    
    data["proponent-opponent example"] = {
        short = "In influence-function-based interpretability, training examples that most increase (proponents) or most decrease (opponents) the model's confidence in a given test prediction.",
        article = nil,
        aliases = { "proponents and opponents", "supporter-opponent example", "helpful-harmful example" },
        es = "En la interpretabilidad basada en funciones de influencia, los ejemplos de entrenamiento que más aumentan (proponents) o más reducen (opponents) la confianza del modelo en una predicción de prueba dada.",
        zh = "在基于影响函数的可解释性研究中,对模型在某条测试预测上的置信度提升最大(proponents)或下降最大(opponents)的训练样本。",
        term_es = "ejemplo proponente-oponente",
        term_zh = "支持-反对样本",
        aliases_es = { "proponentes y oponentes", "ejemplos de apoyo y oposición", "ejemplos útiles-perjudiciales" },
        aliases_zh = { "支持者-反对者样本", "正负影响样本", "proponent-opponent样本" },
    }
    
    data["proportion mediated"] = {
        short = "In causal mediation analysis, the share of the total effect of a treatment on an outcome that operates through a specified mediator. It equals the natural indirect effect divided by the total effect under standard identification assumptions.",
        article = nil,
        aliases = { "Proportion Mediated", "PM", "mediated proportion", "proportion of effect mediated" },
        es = "En el análisis causal de mediación, fracción del efecto total de un tratamiento sobre un resultado que opera a través de un mediador especificado. Es igual al efecto indirecto natural dividido entre el efecto total bajo los supuestos estándar de identificación.",
        zh = "在因果中介分析中,处理对结果的总效应中通过指定中介变量传递的部分。在标准识别假设下,它等于自然间接效应除以总效应。",
        term_es = "proporción mediada",
        term_zh = "中介比例",
        aliases_es = { "proporción del efecto mediada", "PM", "proporción de mediación" },
        aliases_zh = { "中介占比", "中介效应比例", "PM" },
    }
    
    data["proportional fairness"] = {
        short = "A resource-allocation principle, originating in network scheduling, that maximizes the sum of logarithms of allocations; an allocation is proportionally fair if no alternative allocation increases the proportional gain to one user without a larger proportional loss to others.",
        article = nil,
        aliases = { "proportionally fair allocation", "PF allocation", "log-utility fairness" },
        es = "Principio de asignación de recursos, originado en la planificación de redes, que maximiza la suma de logaritmos de las asignaciones; una asignación es proporcionalmente equitativa si ninguna alternativa aumenta la ganancia proporcional de un usuario sin causar una pérdida proporcional mayor a otros.",
        zh = "一种源自网络调度的资源分配原则,最大化各用户分配量对数之和;若不存在另一种分配能在使某用户比例收益增加时不会让其他用户付出更大比例代价,则该分配被称为按比例公平。",
        term_es = "equidad proporcional",
        term_zh = "比例公平",
        aliases_es = { "asignación proporcionalmente equitativa", "asignación PF", "equidad logarítmica" },
        aliases_zh = { "比例公平分配", "PF 分配", "对数效用公平" },
    }
    
    data["proportional representation"] = {
        short = "A fairness target in selection, ranking, or recommendation requiring that demographic groups appear in outputs in proportions matching a chosen reference distribution—typically population shares or applicant pool shares.",
        article = nil,
        aliases = { "demographic representation", "proportional representation in ranking", "representation parity" },
        es = "Objetivo de equidad en la selección, el ranking o la recomendación que exige que los grupos demográficos aparezcan en los resultados en proporciones que coincidan con una distribución de referencia elegida —típicamente las cuotas poblacionales o las del grupo de candidatos.",
        zh = "在选拔、排序或推荐中的一种公平目标,要求各人口群体在输出中出现的比例与选定的参考分布相匹配——通常是人口构成或申请者群体的比例。",
        term_es = "representación proporcional",
        term_zh = "比例代表性",
        aliases_es = { "representación demográfica", "representación proporcional en ranking", "paridad de representación" },
        aliases_zh = { "人口比例代表", "排序中的比例代表性", "代表性平价" },
    }
    
    data["propositional logic"] = {
        short = "A formal logic of declarative propositions combined by truth-functional connectives such as and, or, not, and implication, with no quantifiers or internal structure to atomic propositions.",
        article = nil,
        aliases = { "propositional calculus", "sentential logic", "zeroth-order logic", "boolean logic" },
        es = "Una lógica formal de proposiciones declarativas combinadas mediante conectivas funcionales de verdad como conjunción, disyunción, negación e implicación, sin cuantificadores ni estructura interna en las proposiciones atómicas.",
        zh = "一种形式逻辑,其陈述命题通过与、或、非、蕴含等真值函数联结词组合而成,不含量词,原子命题也不具有内部结构。",
        term_es = "lógica proposicional",
        term_zh = "命题逻辑",
        aliases_es = { "cálculo proposicional", "lógica sentencial", "lógica de orden cero" },
        aliases_zh = { "命题演算", "句子逻辑", "零阶逻辑", "布尔逻辑" },
    }
    
    data["prosody embedding"] = {
        short = "A learned latent vector that captures prosodic attributes of speech such as pitch contour, energy, rhythm, and speaking style, used in expressive TTS to control or transfer prosody independently of textual content.",
        article = nil,
        aliases = { "prosody vector", "prosodic embedding", "style embedding" },
        es = "Vector latente aprendido que captura atributos prosódicos del habla como el contorno de pitch, la energía, el ritmo y el estilo de locución, utilizado en TTS expresivo para controlar o transferir la prosodia con independencia del contenido textual.",
        zh = "学习得到的潜在向量,用于刻画语音的韵律属性(如音高轮廓、能量、节奏和说话风格),在表现力 TTS 中用于独立于文本内容地控制或迁移韵律。",
        term_es = "embedding de prosodia",
        term_zh = "韵律嵌入",
        aliases_es = { "embedding prosódico", "vector de prosodia", "embedding de estilo prosódico" },
        aliases_zh = { "韵律向量", "韵律embedding", "风格嵌入" },
    }
    
    data["prosody transfer"] = {
        short = "The task of generating speech that preserves the prosody (pitch, rhythm, emphasis) of a reference utterance while replacing its textual content or speaker identity, typically using prosody embeddings extracted by a reference encoder.",
        article = nil,
        aliases = { "prosodic transfer", "style transfer (prosody)" },
        es = "Tarea de generar habla que preserva la prosodia (pitch, ritmo, énfasis) de una emisión de referencia mientras se sustituye su contenido textual o la identidad del locutor, típicamente mediante embeddings de prosodia extraídos por un codificador de referencia.",
        zh = "生成语音的任务,需保留参考语音的韵律(音高、节奏、重音)同时替换其文本内容或说话人身份,通常通过参考编码器提取的韵律嵌入实现。",
        term_es = "transferencia de prosodia",
        term_zh = "韵律迁移",
        aliases_es = { "transferencia prosódica", "transferencia de estilo prosódico" },
        aliases_zh = { "韵律转移", "韵律风格迁移" },
    }
    
    data["prosst"] = {
        short = "A protein language model that integrates amino-acid sequence with quantized local structure tokens, producing structure-aware sequence representations for variant-effect prediction and protein design.",
        article = nil,
        aliases = { "ProSST", "ProSST model" },
        es = "Modelo de lenguaje proteico que integra la secuencia de aminoácidos con tokens cuantizados de estructura local, produciendo representaciones de secuencia conscientes de la estructura para la predicción del efecto de variantes y el diseño de proteínas.",
        zh = "将氨基酸序列与量化的局部结构 token 相结合的蛋白质语言模型,提供具有结构感知的序列表示,用于变体效应预测和蛋白质设计。",
        term_es = "ProSST",
        term_zh = "ProSST",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["protac"] = {
        short = "Proteolysis-Targeting Chimera, a heterobifunctional small molecule that links a target protein to an E3 ubiquitin ligase, recruiting the ubiquitin–proteasome system to degrade the target rather than merely inhibiting it.",
        article = nil,
        aliases = { "PROTAC", "PROTACs", "proteolysis-targeting chimera", "proteolysis targeting chimera" },
        es = "Quimera dirigida a la proteólisis: molécula pequeña heterobifuncional que une una proteína blanco a una ubiquitina ligasa E3, reclutando el sistema ubiquitina–proteasoma para degradar el blanco en lugar de simplemente inhibirlo.",
        zh = "一类异双功能小分子,将靶蛋白与 E3 泛素连接酶连接起来,募集泛素–蛋白酶体系统降解靶蛋白,而不仅仅是对其进行抑制。",
        term_es = "PROTAC",
        term_zh = "PROTAC",
        aliases_es = { "PROTACs", "quimera dirigida a la proteólisis" },
        aliases_zh = { "PROTACs", "蛋白水解靶向嵌合体", "靶向蛋白降解嵌合体" },
    }
    
    data["protected attribute"] = {
        short = "A demographic attribute (such as race, sex, age, religion, or disability) that anti-discrimination law or organizational policy designates as a basis on which decisions must not unjustifiably differ; the central object of group-fairness analyses.",
        article = nil,
        aliases = { "sensitive attribute", "protected characteristic", "protected class attribute", "sensitive feature", "protected feature" },
        es = "Atributo demográfico (como raza, sexo, edad, religión o discapacidad) que la legislación antidiscriminatoria o la política organizacional designa como una base sobre la cual las decisiones no deben diferir injustificadamente; objeto central de los análisis de equidad grupal.",
        zh = "受反歧视法律或组织政策认定为不得据其作出无正当理由差别决策的人口学属性(如种族、性别、年龄、宗教或残障状况),是群体公平性分析的核心对象。",
        term_es = "atributo protegido",
        term_zh = "受保护属性",
        aliases_es = { "atributo sensible", "característica protegida", "rasgo protegido", "característica sensible" },
        aliases_zh = { "敏感属性", "受保护特征", "受保护类别属性", "敏感特征" },
    }
    
    data["protected class"] = {
        short = "A demographic category (such as race, gender, age, religion, disability, or national origin) that anti-discrimination law shields from biased treatment. Used in fairness analysis to delimit the groups for which equal treatment is required.",
        article = nil,
        aliases = { "protected category", "protected classes", "legally protected class", "protected group" },
        es = "Categoría demográfica (raza, género, edad, religión, discapacidad u origen nacional, entre otras) que la legislación antidiscriminatoria protege frente a tratos sesgados. Se utiliza en el análisis de equidad para delimitar los grupos a los que debe garantizarse igualdad de trato.",
        zh = "受反歧视法律保护、不应遭受偏见对待的人口学类别(如种族、性别、年龄、宗教、残疾、国籍等)。在公平性分析中,用于界定必须保障平等对待的群体。",
        term_es = "clase protegida",
        term_zh = "受保护类别",
        aliases_es = { "categoría protegida", "clase legalmente protegida", "grupo protegido" },
        aliases_zh = { "受保护群体", "法律保护类别", "受保护类" },
    }
    
    data["protected group"] = {
        short = "A subset of a population defined by a protected attribute (e.g., race, gender, religion) for which discrimination is legally or ethically prohibited. Central concept in group fairness criteria such as demographic parity and equalized odds.",
        article = nil,
        aliases = { "protected groups", "protected demographic", "protected class", "sensitive group" },
        es = "Subconjunto de una población definido por un atributo protegido (raza, género, religión, etc.) frente al cual se prohíbe la discriminación por motivos legales o éticos. Es el concepto central en criterios de equidad de grupo como la paridad demográfica y las probabilidades igualadas.",
        zh = "由受保护属性(如种族、性别、宗教等)所界定的人口子集,对其的歧视在法律或伦理上被禁止。是群体公平性指标(如人口统计平价、机会均等)的核心概念。",
        term_es = "grupo protegido",
        term_zh = "受保护群体",
        aliases_es = { "grupo demográfico protegido", "clase protegida", "grupo sensible" },
        aliases_zh = { "受保护类别", "敏感群体", "受保护人群" },
    }
    
    data["protein binding site prediction"] = {
        short = "Computational identification of regions on a protein surface that bind ligands, peptides, nucleic acids, or other proteins, using geometry, evolutionary conservation, or deep learning.",
        article = nil,
        aliases = { "binding site prediction", "ligand binding site prediction", "protein pocket prediction" },
        es = "Identificación computacional de regiones en la superficie de una proteína que unen ligandos, péptidos, ácidos nucleicos u otras proteínas, mediante geometría, conservación evolutiva o aprendizaje profundo.",
        zh = "通过几何特征、进化保守性或深度学习,计算识别蛋白质表面与配体、多肽、核酸或其他蛋白质结合的区域。",
        term_es = "predicción de sitios de unión proteicos",
        term_zh = "蛋白质结合位点预测",
        aliases_es = { "predicción de sitios de unión", "predicción de bolsillos proteicos" },
        aliases_zh = { "结合位点预测", "配体结合位点预测", "蛋白质口袋预测" },
    }
    
    data["protein data bank"] = {
        short = "The worldwide repository of experimentally determined three-dimensional structures of proteins, nucleic acids, and complexes, distributed in the standard PDB and mmCIF formats and hosted by the wwPDB consortium.",
        article = nil,
        aliases = { "PDB", "Protein Data Bank", "wwPDB", "RCSB PDB" },
        es = "Repositorio mundial de estructuras tridimensionales determinadas experimentalmente de proteínas, ácidos nucleicos y complejos, distribuido en los formatos estándar PDB y mmCIF y mantenido por el consorcio wwPDB.",
        zh = "全球收录实验测定的蛋白质、核酸及其复合物三维结构的资源库,由 wwPDB 联盟维护,并以标准 PDB 和 mmCIF 格式分发。",
        term_es = "Banco de Datos de Proteínas",
        term_zh = "蛋白质数据库",
        aliases_es = { "PDB", "wwPDB", "RCSB PDB" },
        aliases_zh = { "PDB", "wwPDB", "RCSB PDB" },
    }
    
    data["protein degrader"] = {
        short = "A small molecule or biologic that induces selective degradation of a target protein, typically by hijacking the ubiquitin–proteasome or autophagy systems; the class includes PROTACs, molecular glues, LYTACs, and AUTACs.",
        article = nil,
        aliases = { "targeted protein degrader", "TPD", "targeted protein degradation", "induced protein degrader" },
        es = "Molécula pequeña o biológica que induce la degradación selectiva de una proteína blanco, normalmente secuestrando los sistemas ubiquitina–proteasoma o de autofagia; la clase incluye PROTACs, pegamentos moleculares, LYTACs y AUTACs.",
        zh = "通过劫持泛素–蛋白酶体或自噬系统等机制诱导靶蛋白选择性降解的小分子或生物大分子;该类别包括 PROTAC、分子胶、LYTAC 和 AUTAC 等。",
        term_es = "degradador de proteínas",
        term_zh = "蛋白降解剂",
        aliases_es = { "degradador dirigido de proteínas", "degradación dirigida de proteínas", "TPD" },
        aliases_zh = { "靶向蛋白降解剂", "靶向蛋白降解", "TPD" },
    }
    
    data["protein design"] = {
        short = "The computational task of generating amino acid sequences (and optionally backbones) that fold into a desired structure or perform a target function, encompassing both fixed-backbone design and de novo design.",
        article = nil,
        aliases = { "computational protein design", "de novo protein design", "protein engineering by design" },
        es = "Tarea computacional de generar secuencias de aminoácidos (y opcionalmente estructuras de cadena principal) que se plieguen en una estructura deseada o desempeñen una función objetivo, incluyendo el diseño con cadena principal fija y el diseño de novo.",
        zh = "通过计算生成能折叠成期望结构或执行目标功能的氨基酸序列(可选择性地包含主链)的任务,涵盖固定主链设计和从头设计。",
        term_es = "diseño de proteínas",
        term_zh = "蛋白质设计",
        aliases_es = { "diseño computacional de proteínas", "diseño de novo de proteínas" },
        aliases_zh = { "计算蛋白质设计", "从头蛋白质设计", "蛋白质从头设计" },
    }
    
    data["protein embedding"] = {
        short = "A dense vector representation of a protein sequence or residue learned by language models such as ESM or ProtTrans, capturing structural and functional properties for downstream tasks.",
        article = nil,
        aliases = { "protein embeddings", "protein language model embedding", "PLM embedding", "residue embedding" },
        es = "Representación vectorial densa de una secuencia de proteína o de un residuo, aprendida por modelos de lenguaje como ESM o ProtTrans, que captura propiedades estructurales y funcionales para tareas posteriores.",
        zh = "由 ESM、ProtTrans 等蛋白质语言模型学习得到的蛋白质序列或残基的稠密向量表征,捕捉用于下游任务的结构和功能信息。",
        term_es = "embedding de proteínas",
        term_zh = "蛋白质嵌入",
        aliases_es = { "embeddings de proteínas", "embedding de modelo de lenguaje de proteínas" },
        aliases_zh = { "蛋白质嵌入向量", "蛋白质语言模型嵌入", "PLM 嵌入" },
    }
    
    data["protein function prediction"] = {
        short = "Computational assignment of functional annotations (e.g. GO terms, EC numbers) to proteins from sequence, structure, or network features, often using deep learning trained on UniProt and CAFA benchmarks.",
        article = nil,
        aliases = { "function prediction", "GO term prediction", "functional annotation" },
        es = "Asignación computacional de anotaciones funcionales (por ejemplo, términos GO, números EC) a proteínas a partir de secuencia, estructura o redes, a menudo mediante aprendizaje profundo entrenado con UniProt y benchmarks CAFA.",
        zh = "基于序列、结构或网络特征对蛋白质进行功能注释(如 GO 术语、EC 编号)的计算方法,通常使用在 UniProt 和 CAFA 基准上训练的深度学习模型。",
        term_es = "predicción de función proteica",
        term_zh = "蛋白质功能预测",
        aliases_es = { "predicción de funciones de proteínas", "predicción de términos GO", "anotación funcional" },
        aliases_zh = { "蛋白质功能注释", "GO 术语预测", "功能预测" },
    }
    
    data["protein interface prediction"] = {
        short = "Computational identification of residues that constitute protein-protein interaction interfaces, useful for understanding complex assembly, docking, and rational mutagenesis.",
        article = nil,
        aliases = { "protein-protein interface prediction", "interface residue prediction", "PPI interface prediction" },
        es = "Identificación computacional de residuos que constituyen interfaces de interacción proteína-proteína, útil para entender el ensamblaje de complejos, el acoplamiento y la mutagénesis racional.",
        zh = "对构成蛋白质-蛋白质相互作用界面的残基进行计算识别,有助于理解复合物组装、对接和理性诱变。",
        term_es = "predicción de interfaces proteicas",
        term_zh = "蛋白质界面预测",
        aliases_es = { "predicción de interfaces proteína-proteína", "predicción de residuos de interfaz" },
        aliases_zh = { "蛋白质-蛋白质界面预测", "界面残基预测", "PPI 界面预测" },
    }
    
    data["protein language model"] = {
        short = "A neural sequence model, typically a transformer, trained on large databases of protein sequences with masked or autoregressive language modeling objectives to learn evolutionary and structural representations transferable to downstream tasks.",
        article = nil,
        aliases = { "PLM", "protein LM", "protein sequence language model" },
        es = "Modelo neuronal de secuencias, típicamente un transformer, entrenado sobre grandes bases de datos de secuencias proteicas con objetivos de modelado de lenguaje enmascarado o autorregresivo para aprender representaciones evolutivas y estructurales transferibles a tareas posteriores.",
        zh = "一种神经序列模型(通常为Transformer),在大规模蛋白质序列数据库上以掩码或自回归语言建模目标进行训练,以学习可迁移到下游任务的进化与结构表示。",
        term_es = "modelo de lenguaje de proteínas",
        term_zh = "蛋白质语言模型",
        aliases_es = { "PLM", "modelo de lenguaje proteico", "modelo de lenguaje para proteínas" },
        aliases_zh = { "PLM", "蛋白质序列语言模型", "蛋白质LM" },
    }
    
    data["protein quantification"] = {
        short = "The measurement of protein abundance in a sample, typically via mass spectrometry intensities, spectral counts, or labeling techniques such as TMT, iTRAQ, or SILAC.",
        article = nil,
        aliases = { "protein quantitation", "quantitative proteomics" },
        es = "Medición de la abundancia de proteínas en una muestra, normalmente mediante intensidades de espectrometría de masas, conteo espectral o técnicas de marcaje como TMT, iTRAQ o SILAC.",
        zh = "对样本中蛋白质丰度的测定,通常通过质谱强度、谱图计数或 TMT、iTRAQ、SILAC 等标记技术实现。",
        term_es = "cuantificación de proteínas",
        term_zh = "蛋白质定量",
        aliases_es = { "cuantificación proteómica", "proteómica cuantitativa" },
        aliases_zh = { "蛋白质定量分析", "定量蛋白质组学" },
    }
    
    data["protein representation learning"] = {
        short = "Methods that learn dense vector embeddings of protein sequences or structures from large unlabeled corpora, often via self-supervised pretraining, for use in property prediction, function annotation, and design tasks.",
        article = nil,
        aliases = { "protein embedding learning", "learned protein representations", "self-supervised protein representation learning" },
        es = "Métodos que aprenden incrustaciones vectoriales densas de secuencias o estructuras proteicas a partir de grandes corpus no etiquetados, a menudo mediante preentrenamiento autosupervisado, para tareas de predicción de propiedades, anotación de función y diseño.",
        zh = "从大规模无标注语料中(通常通过自监督预训练)学习蛋白质序列或结构的密集向量嵌入的方法,用于性质预测、功能注释和设计等任务。",
        term_es = "aprendizaje de representaciones de proteínas",
        term_zh = "蛋白质表示学习",
        aliases_es = { "aprendizaje de representaciones proteicas", "aprendizaje autosupervisado de representaciones de proteínas" },
        aliases_zh = { "蛋白质嵌入学习", "蛋白质自监督表示学习" },
    }
    
    data["protein structure prediction"] = {
        short = "The computational problem of predicting the three-dimensional structure of a protein from its amino acid sequence, addressed by methods such as homology modeling, coevolutionary analysis, and deep learning systems like AlphaFold and RoseTTAFold.",
        article = nil,
        aliases = { "PSP", "3D protein structure prediction", "protein folding prediction" },
        es = "Problema computacional de predecir la estructura tridimensional de una proteína a partir de su secuencia de aminoácidos, abordado mediante modelado por homología, análisis coevolutivo y sistemas de aprendizaje profundo como AlphaFold y RoseTTAFold.",
        zh = "根据氨基酸序列预测蛋白质三维结构的计算问题,可通过同源建模、共进化分析以及AlphaFold、RoseTTAFold等深度学习系统解决。",
        term_es = "predicción de estructura de proteínas",
        term_zh = "蛋白质结构预测",
        aliases_es = { "PSP", "predicción de la estructura 3D de proteínas", "predicción del plegamiento de proteínas" },
        aliases_zh = { "PSP", "蛋白质三维结构预测", "蛋白质折叠预测" },
    }
    
    data["protein-ligand docking"] = {
        short = "A computational technique that predicts the preferred binding pose and affinity of a small-molecule ligand within a protein binding site, central to structure-based virtual screening and drug discovery.",
        article = nil,
        aliases = { "protein ligand docking", "ligand docking", "small-molecule docking", "molecular docking" },
        es = "Técnica computacional que predice la pose de unión preferida y la afinidad de un ligando de molécula pequeña dentro del sitio de unión de una proteína, fundamental para el cribado virtual basado en estructura y el descubrimiento de fármacos.",
        zh = "一种计算技术,用于预测小分子配体在蛋白质结合位点中的优选结合姿态和亲和力,是基于结构的虚拟筛选和药物发现的核心方法。",
        term_es = "acoplamiento proteína-ligando",
        term_zh = "蛋白质-配体对接",
        aliases_es = { "docking proteína-ligando", "acoplamiento de ligandos", "acoplamiento molecular" },
        aliases_zh = { "蛋白配体对接", "配体对接", "小分子对接", "分子对接" },
    }
    
    data["protein-protein docking"] = {
        short = "Computational prediction of the three-dimensional complex formed by two or more interacting proteins given their individual structures, used to study interactions, design binders, and inform drug discovery.",
        article = nil,
        aliases = { "protein protein docking", "PPI docking", "protein complex docking" },
        es = "Predicción computacional del complejo tridimensional formado por dos o más proteínas interactuantes a partir de sus estructuras individuales, usada para estudiar interacciones, diseñar aglutinantes e informar el descubrimiento de fármacos.",
        zh = "在已知各蛋白质结构的情况下,对两种或多种相互作用蛋白质形成的三维复合物进行计算预测,用于研究相互作用、设计结合分子和指导药物发现。",
        term_es = "acoplamiento proteína-proteína",
        term_zh = "蛋白质-蛋白质对接",
        aliases_es = { "docking proteína-proteína", "acoplamiento de complejos proteicos" },
        aliases_zh = { "蛋白蛋白对接", "PPI对接", "蛋白质复合物对接" },
    }
    
    data["protein-protein interaction"] = {
        short = "A physical or functional contact between two or more proteins, central to most cellular processes and commonly catalogued in databases such as STRING, BioGRID, and IntAct.",
        article = nil,
        aliases = { "PPI", "PPIs", "protein interaction" },
        es = "Contacto físico o funcional entre dos o más proteínas, central en la mayoría de los procesos celulares y catalogado en bases de datos como STRING, BioGRID e IntAct.",
        zh = "两种或多种蛋白质之间的物理或功能性相互作用,是大多数细胞过程的核心,常收录于 STRING、BioGRID、IntAct 等数据库。",
        term_es = "interacción proteína-proteína",
        term_zh = "蛋白质-蛋白质相互作用",
        aliases_es = { "PPI", "interacciones proteína-proteína" },
        aliases_zh = { "PPI", "蛋白互作", "蛋白质相互作用" },
    }
    
    data["proteinbert"] = {
        short = "A protein language model that combines local masked language modeling with a global functional annotation prediction task, producing sequence representations useful for downstream property prediction.",
        article = nil,
        aliases = { "ProteinBERT", "Protein BERT" },
        es = "Modelo de lenguaje de proteínas que combina el modelado de lenguaje enmascarado local con una tarea global de predicción de anotaciones funcionales, generando representaciones de secuencia útiles para la predicción posterior de propiedades.",
        zh = "一种蛋白质语言模型,将局部掩码语言建模与全局功能注释预测任务相结合,生成可用于下游性质预测的序列表示。",
        term_es = "ProteinBERT",
        term_zh = "ProteinBERT",
        aliases_es = { "ProteinBERT", "Protein BERT" },
        aliases_zh = { "ProteinBERT", "蛋白质BERT" },
    }
    
    data["proteinmpnn"] = {
        short = "A graph neural network for fixed-backbone protein sequence design that predicts amino acid identities conditioned on backbone coordinates, achieving high in silico and experimental success rates for de novo designs.",
        article = nil,
        aliases = { "ProteinMPNN", "Protein MPNN", "protein message passing neural network" },
        es = "Red neuronal de grafos para el diseño de secuencias de proteínas con cadena principal fija que predice las identidades de aminoácidos condicionadas a las coordenadas de la cadena principal, logrando altas tasas de éxito in silico y experimentales en diseños de novo.",
        zh = "用于固定主链蛋白质序列设计的图神经网络,根据主链坐标预测氨基酸身份,在从头设计中取得了较高的计算和实验成功率。",
        term_es = "ProteinMPNN",
        term_zh = "ProteinMPNN",
        aliases_es = { "ProteinMPNN", "Protein MPNN" },
        aliases_zh = { "ProteinMPNN", "蛋白质MPNN", "蛋白质消息传递神经网络" },
    }
    
    data["proteoform"] = {
        short = "A specific molecular form of a protein arising from a single gene, including all sources of variation such as alternative splicing, sequence variants, and post-translational modifications.",
        article = nil,
        aliases = { "proteoforms" },
        es = "Forma molecular específica de una proteína derivada de un único gen, incluyendo todas las fuentes de variación como empalme alternativo, variantes de secuencia y modificaciones postraduccionales.",
        zh = "源自单一基因的某一特定蛋白质分子形式,涵盖剪接变体、序列变异和翻译后修饰等所有变异来源。",
        term_es = "proteoforma",
        term_zh = "蛋白质形式",
        aliases_es = { "proteoformas" },
        aliases_zh = { "蛋白型", "proteoform" },
    }
    
    data["proteomics"] = {
        short = "The large-scale study of the proteome — the full complement of proteins expressed by a cell, tissue, or organism — typically using mass spectrometry to identify and quantify proteins and their modifications.",
        article = nil,
        aliases = { "proteomic analysis", "shotgun proteomics" },
        es = "Estudio a gran escala del proteoma — el conjunto completo de proteínas expresadas por una célula, tejido u organismo — generalmente mediante espectrometría de masas para identificar y cuantificar proteínas y sus modificaciones.",
        zh = "对蛋白质组的大规模研究,即细胞、组织或生物体所表达的全部蛋白质集合,通常借助质谱技术对蛋白质及其修饰进行鉴定与定量。",
        term_es = "proteómica",
        term_zh = "蛋白质组学",
        aliases_es = { "análisis proteómico" },
        aliases_zh = { "鸟枪法蛋白质组学", "蛋白组学" },
    }
    
    data["protgpt2"] = {
        short = "An autoregressive transformer language model trained on protein sequences in the UniRef database that can generate plausible novel protein sequences sampled from the learned distribution of natural proteins.",
        article = nil,
        aliases = { "ProtGPT2", "Prot GPT2", "protein GPT-2" },
        es = "Modelo de lenguaje transformer autorregresivo entrenado sobre secuencias de proteínas de la base de datos UniRef capaz de generar nuevas secuencias proteicas plausibles muestreadas de la distribución aprendida de proteínas naturales.",
        zh = "在UniRef蛋白质序列数据库上训练的自回归Transformer语言模型,能够从学到的天然蛋白质分布中采样生成合理的新蛋白质序列。",
        term_es = "ProtGPT2",
        term_zh = "ProtGPT2",
        aliases_es = { "ProtGPT2", "GPT-2 de proteínas" },
        aliases_zh = { "ProtGPT2", "蛋白质GPT-2" },
    }
    
    data["protnlm"] = {
        short = "A protein-naming language model from Google that generates human-readable names for unannotated UniProt proteins by treating naming as a sequence-to-sequence task over residue sequences.",
        article = nil,
        aliases = { "ProtNLM", "Protein Natural Language Model" },
        es = "Modelo de lenguaje de Google para nombrado de proteínas que genera nombres legibles para proteínas no anotadas de UniProt, tratando el nombrado como una tarea seq2seq sobre secuencias de residuos.",
        zh = "Google 提出的蛋白质命名语言模型,将命名视为基于残基序列的序列到序列任务,为 UniProt 中未注释的蛋白质生成可读名称。",
        term_es = "ProtNLM",
        term_zh = "ProtNLM",
        aliases_es = { "ProtNLM" },
        aliases_zh = { "蛋白质自然语言模型" },
    }
    
    data["protomaml"] = {
        short = "A meta-learning algorithm that initializes the final classifier of MAML with prototypical-network class prototypes, combining MAML's gradient-based adaptation with the strong inductive bias of prototypical networks for few-shot classification.",
        article = nil,
        aliases = { "ProtoMAML", "Proto-MAML", "Prototypical MAML" },
        es = "Algoritmo de meta-aprendizaje que inicializa la última capa clasificadora de MAML con prototipos de clase a la manera de las redes prototípicas, combinando la adaptación por gradiente de MAML con el sesgo inductivo de las redes prototípicas para clasificación con pocas muestras.",
        zh = "一种元学习算法,用原型网络的类别原型初始化 MAML 的最后一层分类器,将 MAML 的梯度自适应与原型网络的归纳偏置结合用于少样本分类。",
        term_es = "ProtoMAML",
        term_zh = "ProtoMAML",
        aliases_es = { "Proto-MAML", "MAML prototípico" },
        aliases_zh = { "Proto-MAML", "原型 MAML" },
    }
    
    data["protopnet"] = {
        short = "An interpretable image classifier that learns a fixed set of class-specific prototypical image patches and predicts a label by comparing latent patches of the input to these learned prototypes.",
        article = nil,
        aliases = { "ProtoPNet", "Prototypical Part Network", "prototypical part network" },
        es = "Un clasificador de imágenes interpretable que aprende un conjunto fijo de fragmentos prototípicos específicos de cada clase y predice una etiqueta comparando los fragmentos latentes de la entrada con estos prototipos aprendidos.",
        zh = "一种可解释的图像分类器,为每个类别学习一组固定的原型图像块,通过将输入的潜在图像块与这些学习到的原型进行比较来预测标签。",
        term_es = "ProtoPNet",
        term_zh = "ProtoPNet",
        aliases_es = { "ProtoPNet", "red de partes prototípicas" },
        aliases_zh = { "ProtoPNet", "原型部件网络" },
    }
    
    data["prototype-based counterfactual"] = {
        short = "A counterfactual explanation generated by guiding the search toward a learned class prototype, so that the produced example is both close to the original input and prototypical of the desired class.",
        article = nil,
        aliases = { "prototype counterfactual", "prototype-guided counterfactual" },
        es = "Explicación contrafactual generada guiando la búsqueda hacia un prototipo aprendido de la clase objetivo, de modo que el ejemplo resultante sea cercano a la entrada original y a la vez prototípico de la clase deseada.",
        zh = "通过将搜索引导至已学习的类别原型而生成的反事实解释,使所生成的样本既接近原始输入,又是目标类别的典型代表。",
        term_es = "contrafactual basado en prototipos",
        term_zh = "基于原型的反事实",
        aliases_es = { "contrafactual guiado por prototipos", "contrafactual con prototipo" },
        aliases_zh = { "原型引导的反事实", "原型反事实", "基于原型的反事实解释" },
    }
    
    data["prototype-based explanation"] = {
        short = "An explanation paradigm in which a model's prediction is justified by comparing the input to a small set of learned or selected representative examples (prototypes) of each class.",
        article = nil,
        aliases = { "prototype explanation", "prototypical explanation", "prototype-based interpretability" },
        es = "Paradigma de explicación en el que la predicción de un modelo se justifica comparando la entrada con un conjunto reducido de ejemplos representativos (prototipos) de cada clase, aprendidos o seleccionados.",
        zh = "一种解释范式:通过将输入与每个类别中一小组学习得到或挑选出来的代表性样本(原型)进行比较,来为模型的预测提供依据。",
        term_es = "explicación basada en prototipos",
        term_zh = "基于原型的解释",
        aliases_es = { "explicación por prototipos", "explicación prototípica", "interpretabilidad por prototipos" },
        aliases_zh = { "原型解释", "原型化解释", "基于原型的可解释性" },
    }
    
    data["prototypical networks"] = {
        short = "A few-shot learning model that represents each class by the mean (prototype) of its support-set embeddings and classifies query points by nearest-prototype distance in the embedding space.",
        article = nil,
        aliases = { "ProtoNet", "ProtoNets", "prototypical network", "Prototypical Networks" },
        es = "Modelo de aprendizaje con pocas muestras que representa cada clase por la media (prototipo) de las incrustaciones de su conjunto de soporte y clasifica los puntos de consulta según la distancia al prototipo más cercano en el espacio de incrustaciones.",
        zh = "一种少样本学习模型,用支持集嵌入的均值(原型)表示每个类别,并根据查询点在嵌入空间中到最近原型的距离进行分类。",
        term_es = "redes prototípicas",
        term_zh = "原型网络",
        aliases_es = { "red prototípica", "ProtoNet" },
        aliases_zh = { "ProtoNet", "原型神经网络", "Prototypical Networks" },
    }
    
    data["prototypical part network"] = {
        short = "A class of interpretable deep models, of which ProtoPNet is the canonical example, that explain predictions by matching learned prototypical parts to regions of the input image.",
        article = nil,
        aliases = { "ProtoPNet", "protopnet", "prototypical part networks", "Prototypical Part Network" },
        es = "Una familia de modelos profundos interpretables, de los cuales ProtoPNet es el ejemplo canónico, que explican las predicciones emparejando partes prototípicas aprendidas con regiones de la imagen de entrada.",
        zh = "一类可解释的深度模型,ProtoPNet 是其代表,通过将学习到的原型部件与输入图像中的区域进行匹配来解释预测。",
        term_es = "red de partes prototípicas",
        term_zh = "原型部件网络",
        aliases_es = { "ProtoPNet", "redes de partes prototípicas" },
        aliases_zh = { "ProtoPNet", "原型部件网络", "原型局部网络" },
    }
    
    data["prottrans"] = {
        short = "A family of large protein language models (including ProtBERT, ProtT5, ProtAlbert, ProtXLNet) pretrained on hundreds of millions of protein sequences to produce general-purpose embeddings for downstream biological tasks.",
        article = nil,
        aliases = { "ProtTrans", "Prot Trans", "ProtBERT", "ProtT5" },
        es = "Familia de grandes modelos de lenguaje de proteínas (entre ellos ProtBERT, ProtT5, ProtAlbert y ProtXLNet) preentrenados sobre cientos de millones de secuencias proteicas para producir incrustaciones de propósito general para tareas biológicas posteriores.",
        zh = "一系列大型蛋白质语言模型(包括ProtBERT、ProtT5、ProtAlbert、ProtXLNet等),在数亿条蛋白质序列上进行预训练,为下游生物学任务提供通用嵌入。",
        term_es = "ProtTrans",
        term_zh = "ProtTrans",
        aliases_es = { "ProtTrans", "ProtBERT", "ProtT5" },
        aliases_zh = { "ProtTrans", "ProtBERT", "ProtT5" },
    }
    
    data["prover-verifier game"] = {
        short = "A training scheme that pits a strong prover model that produces solutions against a weaker verifier model that must judge their correctness, with the prover rewarded for outputs that are both correct and convincing to the verifier, encouraging legible reasoning.",
        article = nil,
        aliases = { "Prover-Verifier Game", "prover verifier game", "prover-verifier games", "PVG" },
        es = "Un esquema de entrenamiento que enfrenta a un modelo demostrador fuerte que produce soluciones contra un modelo verificador más débil que debe juzgar su corrección, recompensando al demostrador por producir salidas que sean a la vez correctas y convincentes para el verificador, fomentando un razonamiento legible.",
        zh = "一种训练方案,让较强的证明者模型生成解答,由较弱的验证者模型判断其正确性,并对既正确又能说服验证者的证明者输出进行奖励,从而鼓励可读、易验证的推理。",
        term_es = "juego demostrador-verificador",
        term_zh = "证明者-验证者博弈",
        aliases_es = { "juego prover-verifier", "PVG", "juego demostrador y verificador" },
        aliases_zh = { "证明者-验证者博弈", "证明者验证者游戏", "PVG" },
    }
    
    data["proximal causal inference"] = {
        short = "A framework that identifies causal effects in the presence of unmeasured confounding by combining two complementary proxies of the hidden confounder via integral-equation–based bridge functions. It generalizes negative controls and the front-door criterion.",
        article = nil,
        aliases = { "Proximal Causal Inference", "PCI", "proximal g-computation", "proximal identification" },
        es = "Marco que identifica efectos causales en presencia de confusión no medida combinando dos proxies complementarios del confusor oculto mediante funciones puente basadas en ecuaciones integrales. Generaliza los controles negativos y el criterio de la puerta delantera.",
        zh = "一种识别框架,通过基于积分方程的桥函数组合隐藏混杂的两个互补代理变量,从而在存在未测混杂时识别因果效应。它推广了阴性对照和前门准则。",
        term_es = "inferencia causal proximal",
        term_zh = "近端因果推断",
        aliases_es = { "PCI", "inferencia proximal", "identificación proximal" },
        aliases_zh = { "PCI", "近邻因果推断", "近端因果识别" },
    }
    
    data["proximal gradient method"] = {
        short = "An optimization method for composite objectives of the form f + g, where f is smooth and g is possibly nonsmooth, that alternates a gradient step on f with the proximal operator of g.",
        article = nil,
        aliases = { "proximal gradient", "proximal gradient descent", "forward-backward splitting" },
        es = "Método de optimización para objetivos compuestos de la forma f + g, con f suave y g posiblemente no suave, que alterna un paso de gradiente sobre f con el operador proximal de g.",
        zh = "适用于复合目标f+g(其中f光滑、g可能不光滑)的优化方法,交替对f执行梯度步并对g应用近端算子。",
        term_es = "método del gradiente proximal",
        term_zh = "近端梯度法",
        aliases_es = { "gradiente proximal", "descenso por gradiente proximal", "método de división forward-backward" },
        aliases_zh = { "近端梯度方法", "前向后向分裂", "proximal gradient" },
    }
    
    data["proxy dataset"] = {
        short = "A smaller or simpler dataset (e.g. CIFAR-10) used during NAS or hyperparameter search as a stand-in for the target dataset (e.g. ImageNet) so that candidate configurations can be evaluated cheaply.",
        article = nil,
        aliases = { "proxy data", "surrogate dataset" },
        es = "Conjunto de datos más pequeño o sencillo (por ejemplo CIFAR-10) que se utiliza durante NAS o búsqueda de hiperparámetros como sustituto del conjunto de datos objetivo (por ejemplo ImageNet) para evaluar configuraciones candidatas con bajo coste.",
        zh = "在神经架构搜索或超参数搜索中使用的更小或更简单的数据集(如 CIFAR-10),用作目标数据集(如 ImageNet)的替身,以低成本评估候选配置。",
        term_es = "conjunto de datos sustituto",
        term_zh = "代理数据集",
        aliases_es = { "dataset proxy", "conjunto de datos proxy" },
        aliases_zh = { "替代数据集", "proxy 数据集" },
    }
    
    data["proxy discrimination"] = {
        short = "Indirect discrimination that arises when a model relies on features highly correlated with a protected attribute (e.g., ZIP code as a proxy for race) and produces disparate outcomes even though the protected attribute itself is not used.",
        article = nil,
        aliases = { "indirect discrimination", "disparate impact via proxy", "proxy bias", "proxy-based discrimination" },
        es = "Discriminación indirecta que surge cuando un modelo se apoya en características altamente correlacionadas con un atributo protegido (por ejemplo, el código postal como proxy de la raza) y produce resultados desiguales aunque el atributo protegido no se use de forma explícita.",
        zh = "间接歧视的一种形式:模型使用与受保护属性高度相关的特征(例如以邮政编码作为种族的代理变量),即便未直接使用受保护属性,仍产生不平等结果。",
        term_es = "discriminación por proxy",
        term_zh = "代理歧视",
        aliases_es = { "discriminación indirecta", "discriminación mediante variables proxy", "sesgo por proxy" },
        aliases_zh = { "间接歧视", "代理变量歧视", "通过代理变量的差别影响" },
    }
    
    data["proxy ensemble"] = {
        short = "A method that approximates the predictive uncertainty of a deep ensemble using a single model or a much smaller computational footprint, trading exactness for efficiency.",
        article = nil,
        aliases = { "surrogate ensemble", "ensemble proxy" },
        es = "Un método que aproxima la incertidumbre predictiva de un ensemble profundo usando un solo modelo o una huella computacional mucho menor, intercambiando exactitud por eficiencia.",
        zh = "一种用单个模型或更小的计算开销来近似深度集成预测不确定性的方法,以精确度换取效率。",
        term_es = "ensemble sustituto",
        term_zh = "代理集成",
        aliases_es = { "proxy de ensemble", "ensemble proxy" },
        aliases_zh = { "替代集成", "近似集成" },
    }
    
    data["proxy fairness"] = {
        short = "An approach to algorithmic fairness that targets bias transmitted through proxy variables correlated with protected attributes, rather than through direct use of those attributes.",
        article = nil,
        aliases = { "proxy-based fairness", "fairness through proxies", "proxy variable fairness" },
        es = "Enfoque de equidad algorítmica que se centra en el sesgo transmitido a través de variables proxy correlacionadas con atributos protegidos, en lugar del uso directo de dichos atributos.",
        zh = "算法公平性的一种方法,关注通过与受保护属性相关的代理变量所传递的偏差,而非直接使用这些属性所造成的偏差。",
        term_es = "equidad respecto a proxies",
        term_zh = "代理变量公平性",
        aliases_es = { "equidad basada en proxies", "equidad frente a variables proxy" },
        aliases_zh = { "基于代理变量的公平性", "代理公平性" },
    }
    
    data["proxy feature"] = {
        short = "An input feature that is statistically correlated with a protected or sensitive attribute and can therefore transmit bias to model outputs even when the protected attribute is excluded.",
        article = nil,
        aliases = { "proxy variable", "proxy attribute", "proxy input", "surrogate feature" },
        es = "Característica de entrada estadísticamente correlacionada con un atributo protegido o sensible que, en consecuencia, puede transmitir sesgo a las salidas del modelo aunque el atributo protegido se haya excluido.",
        zh = "与受保护或敏感属性在统计上相关的输入特征;即便剔除了受保护属性本身,这类特征仍可能将偏差传递到模型输出。",
        term_es = "característica proxy",
        term_zh = "代理特征",
        aliases_es = { "variable proxy", "atributo proxy", "característica sustituta" },
        aliases_zh = { "代理变量", "代理属性", "替代特征" },
    }
    
    data["proxy task"] = {
        short = "A simpler or cheaper task used during NAS or meta-learning to evaluate candidate models or hyperparameters, for example training fewer epochs, using lower resolution, or a smaller subset of classes.",
        article = nil,
        aliases = { "proxy task", "surrogate task" },
        es = "Tarea más sencilla o económica empleada durante NAS o meta-aprendizaje para evaluar modelos o hiperparámetros candidatos, por ejemplo entrenando menos épocas, con menor resolución o con un subconjunto reducido de clases.",
        zh = "神经架构搜索或元学习中使用的更简单或更便宜的任务,用于评估候选模型或超参数,例如训练更少轮次、使用更低分辨率或更少的类别子集。",
        term_es = "tarea sustituta",
        term_zh = "代理任务",
        aliases_es = { "tarea proxy" },
        aliases_zh = { "替代任务", "proxy 任务" },
    }
    
    data["proxy variable"] = {
        short = "A variable that stands in for a protected, latent, or unobserved attribute due to high correlation with it. In fairness, proxies are a common channel through which indirect discrimination occurs.",
        article = nil,
        aliases = { "proxy feature", "proxy attribute", "surrogate variable", "stand-in variable" },
        es = "Variable que actúa como sustituta de un atributo protegido, latente o no observado debido a su alta correlación con él. En equidad, los proxies son un canal habitual por el que se produce la discriminación indirecta.",
        zh = "由于与受保护、潜在或未观测属性高度相关而充当其替代的变量。在公平性研究中,代理变量是产生间接歧视的常见途径。",
        term_es = "variable proxy",
        term_zh = "代理变量",
        aliases_es = { "característica proxy", "atributo proxy", "variable sustituta" },
        aliases_zh = { "代理特征", "代理属性", "替代变量" },
    }
    
    data["proxylessnas"] = {
        short = "A neural architecture search method that directly searches on the target task and target hardware without using a proxy task, by binarizing path weights and incorporating a differentiable latency loss.",
        article = nil,
        aliases = { "ProxylessNAS", "Proxyless NAS", "proxyless-nas" },
        es = "Método de búsqueda de arquitecturas neuronales que busca directamente sobre la tarea y el hardware objetivo, sin tarea sustituta, binarizando los pesos de los caminos e incorporando una pérdida diferenciable de latencia.",
        zh = "一种神经架构搜索方法,直接在目标任务和目标硬件上进行搜索,无需代理任务,做法是对路径权重进行二值化并加入可微的延迟损失。",
        term_es = "ProxylessNAS",
        term_zh = "ProxylessNAS",
        aliases_es = { "NAS sin proxy", "Proxyless NAS" },
        aliases_zh = { "Proxyless NAS", "无代理 NAS" },
    }
    
    data["pseudo-labeling"] = {
        short = "A semi-supervised technique that assigns hard predicted labels (pseudo-labels) to unlabeled examples and treats them as ground truth for further supervised training of the model.",
        article = nil,
        aliases = { "pseudo labeling", "pseudolabeling", "pseudo-labelling", "pseudo labels", "pseudo-labels" },
        es = "Técnica semisupervisada que asigna etiquetas predichas duras (pseudo-etiquetas) a ejemplos no etiquetados y las trata como verdad base para continuar el entrenamiento supervisado del modelo.",
        zh = "一种半监督技术,为未标注样本分配硬预测标签(伪标签),并将其视为真实标签用于模型的进一步监督训练。",
        term_es = "pseudoetiquetado",
        term_zh = "伪标签",
        aliases_es = { "pseudo-etiquetado", "etiquetado pseudo", "pseudo-etiquetas" },
        aliases_zh = { "伪标注", "pseudo-labeling", "伪标签法" },
    }
    
    data["pseudoalignment"] = {
        short = "A fast RNA-seq quantification strategy, popularized by kallisto, that maps reads to compatible transcripts via a transcriptome de Bruijn graph without computing exact base-level alignments.",
        article = nil,
        aliases = { "pseudo-alignment", "pseudo alignment" },
        es = "Estrategia rápida de cuantificación de RNA-seq, popularizada por kallisto, que asigna lecturas a transcritos compatibles mediante un grafo de De Bruijn del transcriptoma sin calcular alineamientos exactos a nivel de base.",
        zh = "由 kallisto 推广的一种快速 RNA-seq 定量策略,借助转录组 de Bruijn 图将 reads 映射到相容的转录本,而无需计算逐碱基的精确比对。",
        term_es = "pseudoalineamiento",
        term_zh = "伪比对",
        aliases_es = { "pseudo-alineamiento" },
        aliases_zh = { "伪对齐", "pseudoalignment" },
    }
    
    data["pseudobulk"] = {
        short = "An analysis approach for single-cell data in which counts from cells of the same type and sample are summed to produce sample-level expression profiles, enabling robust differential-expression testing with bulk RNA-seq tools.",
        article = nil,
        aliases = { "pseudo-bulk", "pseudobulk analysis" },
        es = "Enfoque de análisis de datos de célula única en el que se suman los conteos de células del mismo tipo y muestra para obtener perfiles de expresión a nivel de muestra, permitiendo pruebas robustas de expresión diferencial con herramientas de RNA-seq en bulk.",
        zh = "用于单细胞数据的一种分析方法,将同一样本中相同细胞类型的计数相加,得到样本水平的表达谱,从而可使用 bulk RNA-seq 工具进行稳健的差异表达检验。",
        term_es = "pseudobulk",
        term_zh = "拟bulk",
        aliases_es = { "pseudo-bulk", "análisis pseudobulk" },
        aliases_zh = { "伪bulk", "pseudobulk", "拟散装" },
    }
    
    data["pseudoinverse"] = {
        short = "A generalization of the matrix inverse to non-square or singular matrices, most commonly the Moore-Penrose pseudoinverse A⁺ satisfying A·A⁺·A = A. Provides the minimum-norm least-squares solution to linear systems.",
        article = nil,
        aliases = { "Moore-Penrose pseudoinverse", "Moore-Penrose inverse", "generalized inverse", "A+", "A⁺" },
        es = "Generalización de la inversa de una matriz a matrices no cuadradas o singulares, comúnmente la pseudoinversa de Moore-Penrose A⁺ que satisface A·A⁺·A = A. Proporciona la solución de mínimos cuadrados de norma mínima a sistemas lineales.",
        zh = "矩阵逆在非方阵或奇异矩阵上的推广,最常用的是 Moore-Penrose 伪逆 A⁺,满足 A·A⁺·A = A。它给出线性系统的最小范数最小二乘解。",
        term_es = "pseudoinversa",
        term_zh = "伪逆",
        aliases_es = { "pseudoinversa de Moore-Penrose", "inversa generalizada" },
        aliases_zh = { "Moore-Penrose 伪逆", "广义逆", "穆尔-彭罗斯伪逆" },
    }
    
    data["pseudotime"] = {
        short = "A latent ordering of single cells along an inferred biological trajectory (such as differentiation), produced by trajectory-inference methods like Monocle, Slingshot, or PAGA.",
        article = nil,
        aliases = { "pseudo-time", "pseudotime ordering", "pseudotemporal ordering" },
        es = "Ordenamiento latente de células individuales a lo largo de una trayectoria biológica inferida (por ejemplo, diferenciación), generado por métodos de inferencia de trayectorias como Monocle, Slingshot o PAGA.",
        zh = "由 Monocle、Slingshot、PAGA 等轨迹推断方法生成的、对单细胞沿推断的生物学轨迹(如分化过程)的潜在排序。",
        term_es = "pseudotiempo",
        term_zh = "拟时间",
        aliases_es = { "pseudo-tiempo", "ordenamiento pseudotemporal" },
        aliases_zh = { "伪时间", "拟时序" },
    }
    
    data["psi-blast"] = {
        short = "Position-Specific Iterated BLAST, a sensitive sequence-search method that iteratively builds a position-specific scoring matrix from significant hits to detect distant homologs.",
        article = nil,
        aliases = { "PSI-BLAST", "Position-Specific Iterated BLAST", "psiblast" },
        es = "Position-Specific Iterated BLAST, un método sensible de búsqueda de secuencias que construye iterativamente una matriz de puntuación específica de posición a partir de los aciertos significativos para detectar homólogos lejanos.",
        zh = "Position-Specific Iterated BLAST,一种灵敏的序列搜索方法,通过迭代地由显著命中构建位置特异性打分矩阵来检测远缘同源物。",
        term_es = "PSI-BLAST",
        term_zh = "PSI-BLAST",
        aliases_es = { "BLAST iterativo posición-específico" },
        aliases_zh = { "位置特异性迭代 BLAST" },
    }
    
    data["pssm"] = {
        short = "A position-specific scoring matrix giving log-odds scores for each residue at each position of a sequence motif or alignment; used in profile-based searches such as PSI-BLAST and motif scanning.",
        article = nil,
        aliases = { "PSSM", "position-specific scoring matrix", "position weight matrix log-odds" },
        es = "Matriz de puntuación específica de posición que asigna puntuaciones log-odds a cada residuo en cada posición de un motivo o alineamiento de secuencias; se usa en búsquedas basadas en perfiles como PSI-BLAST y en escaneo de motivos.",
        zh = "位置特异性打分矩阵,为序列基序或比对中每一位置的每个残基赋予对数似然比分数,用于 PSI-BLAST 等基于概型的搜索及基序扫描。",
        term_es = "matriz de puntuación específica de posición",
        term_zh = "位置特异性打分矩阵",
        aliases_es = { "PSSM" },
        aliases_zh = { "PSSM", "位置特异性评分矩阵" },
    }
    
    data["pubchem"] = {
        short = "A public chemical database maintained by the U.S. National Center for Biotechnology Information that contains millions of small molecules with structure, bioactivity, and bioassay records.",
        article = nil,
        aliases = { "PubChem", "Pub Chem" },
        es = "Base de datos química pública mantenida por el Centro Nacional de Información Biotecnológica de los EE. UU. que contiene millones de moléculas pequeñas con registros de estructura, bioactividad y bioensayos.",
        zh = "由美国国家生物技术信息中心维护的公共化学数据库,包含数百万个小分子的结构、生物活性和生物测定记录。",
        term_es = "PubChem",
        term_zh = "PubChem",
        aliases_es = { "PubChem", "base de datos PubChem" },
        aliases_zh = { "PubChem", "PubChem数据库" },
    }
    
    data["pubchem fingerprint"] = {
        short = "An 881-bit substructure-based binary fingerprint defined by the PubChem database that encodes the presence of predefined chemical features and is widely used for similarity search and machine learning baselines.",
        article = nil,
        aliases = { "PubChem fingerprint", "PubChem FP", "PubChem substructure fingerprint" },
        es = "Huella binaria de 881 bits basada en subestructuras definida por la base de datos PubChem que codifica la presencia de características químicas predefinidas y se usa ampliamente para búsqueda por similitud y como referencia en aprendizaje automático.",
        zh = "由PubChem数据库定义的基于子结构的881位二进制指纹,用于编码预定义化学特征的存在与否,广泛用于相似性搜索和机器学习基线。",
        term_es = "huella PubChem",
        term_zh = "PubChem指纹",
        aliases_es = { "fingerprint de PubChem", "huella digital PubChem", "huella de subestructuras PubChem" },
        aliases_zh = { "PubChem fingerprint", "PubChem子结构指纹" },
    }
    
    data["publication bias"] = {
        short = "A systematic distortion in published research arising when studies with statistically significant or favorable results are more likely to be published than null or negative ones. In machine learning, it can inflate apparent benchmark performance.",
        article = nil,
        aliases = { "file-drawer effect", "selective publication bias", "reporting bias in publication" },
        es = "Distorsión sistemática del cuerpo de investigación publicada que se produce cuando los estudios con resultados estadísticamente significativos o favorables tienen más probabilidades de ser publicados que los nulos o negativos. En aprendizaje automático puede inflar el rendimiento aparente en los benchmarks.",
        zh = "已发表研究中的系统性偏差,源于统计上显著或结果有利的研究更易被发表,而无效或负面结果较少被发表。在机器学习中,会导致基准测试中的表观性能被高估。",
        term_es = "sesgo de publicación",
        term_zh = "发表偏倚",
        aliases_es = { "efecto del cajón", "sesgo de publicación selectiva" },
        aliases_zh = { "出版偏倚", "发表偏差", "抽屉效应" },
    }
    
    data["pubmedbert"] = {
        short = "A BERT model pretrained from scratch on PubMed abstracts and full texts, designed for biomedical NLP tasks such as named-entity recognition and relation extraction.",
        article = nil,
        aliases = { "PubMedBERT" },
        es = "Modelo BERT preentrenado desde cero sobre resúmenes y textos completos de PubMed, diseñado para tareas de PLN biomédico como el reconocimiento de entidades nombradas y la extracción de relaciones.",
        zh = "在 PubMed 摘要和全文上从头预训练的 BERT 模型,面向命名实体识别、关系抽取等生物医学 NLP 任务。",
        term_es = "PubMedBERT",
        term_zh = "PubMedBERT",
        aliases_es = { "PubMedBERT" },
        aliases_zh = { "PubMedBERT" },
    }
    
    data["pulid"] = {
        short = "An identity-preserving text-to-image generation method that injects a face embedding into a diffusion model alongside Lightning T2I training, achieving high identity fidelity without disrupting the base model's prompt-following behavior.",
        article = nil,
        aliases = { "PuLID", "Pure and Lightning ID Customization" },
        es = "Método de generación texto-a-imagen que preserva la identidad inyectando una embedding facial en un modelo de difusión junto con entrenamiento Lightning T2I, logrando alta fidelidad de identidad sin alterar el comportamiento base de seguimiento del prompt.",
        zh = "一种保持身份的文本到图像生成方法,将面部嵌入与 Lightning T2I 训练一起注入扩散模型,在不破坏基础模型提示跟随能力的情况下获得高身份保真度。",
        term_es = "PuLID",
        term_zh = "PuLID",
        aliases_es = { "Pure and Lightning ID Customization" },
        aliases_zh = { "Pure and Lightning ID Customization" },
    }
    
    data["pyannote"] = {
        short = "An open-source Python toolkit, developed by Hervé Bredin and collaborators, for speaker diarization and related speech processing tasks, providing pretrained pipelines for voice activity detection, speaker embedding, segmentation, and clustering.",
        article = nil,
        aliases = { "pyannote.audio", "pyannote toolkit", "pyannote-audio" },
        es = "Herramienta de código abierto en Python, desarrollada por Hervé Bredin y colaboradores, para la diarización de locutores y tareas relacionadas de procesamiento del habla, que ofrece pipelines preentrenados para detección de actividad de voz, embeddings de locutor, segmentación y agrupamiento.",
        zh = "由 Hervé Bredin 等人开发的开源 Python 工具包,用于说话人日志(diarization)及相关语音处理任务,提供语音活动检测、说话人嵌入、分段和聚类的预训练流水线。",
        term_es = "pyannote",
        term_zh = "pyannote",
        aliases_es = { "pyannote.audio", "kit pyannote" },
        aliases_zh = { "pyannote.audio", "pyannote工具包" },
    }
    
    data["pyannote audio"] = {
        short = "The flagship Python package of the pyannote ecosystem (`pyannote.audio`) implementing neural speaker diarization with PyTorch, including end-to-end speaker segmentation models and the speaker-diarization-3.x pipelines hosted on Hugging Face.",
        article = nil,
        aliases = { "pyannote.audio", "pyannote-audio", "pyannote audio toolkit" },
        es = "Paquete principal del ecosistema pyannote (`pyannote.audio`) que implementa diarización neuronal de locutores con PyTorch, incluyendo modelos de segmentación de locutores end-to-end y los pipelines speaker-diarization-3.x alojados en Hugging Face.",
        zh = "pyannote 生态系统的核心 Python 包(`pyannote.audio`),基于 PyTorch 实现神经说话人日志,包含端到端说话人分段模型以及托管于 Hugging Face 的 speaker-diarization-3.x 流水线。",
        term_es = "pyannote.audio",
        term_zh = "pyannote.audio",
        aliases_es = { "pyannote-audio", "kit pyannote.audio" },
        aliases_zh = { "pyannote audio", "pyannote-audio" },
    }
    
    data["pyclone"] = {
        short = "A Bayesian hierarchical model for inferring the cellular prevalence of somatic mutations and reconstructing tumor subclonal populations from bulk sequencing data.",
        article = nil,
        aliases = { "PyClone", "PyClone-VI" },
        es = "Modelo bayesiano jerárquico para inferir la prevalencia celular de mutaciones somáticas y reconstruir las poblaciones subclonales tumorales a partir de datos de secuenciación en bulk.",
        zh = "一种贝叶斯分层模型,用于由 bulk 测序数据推断体细胞突变的细胞流行率并重建肿瘤亚克隆群体结构。",
        term_es = "PyClone",
        term_zh = "PyClone",
        aliases_es = { "PyClone", "PyClone-VI" },
        aliases_zh = { "PyClone", "PyClone-VI" },
    }
    
    data["pysyft"] = {
        short = "An open-source Python library by OpenMined for privacy-preserving machine learning, providing primitives for federated learning, secure multi-party computation, and differential privacy on top of PyTorch and TensorFlow.",
        article = nil,
        aliases = { "PySyft", "Syft", "OpenMined PySyft" },
        es = "Biblioteca de Python de código abierto de OpenMined para aprendizaje automático con preservación de la privacidad, que ofrece primitivas de aprendizaje federado, cómputo multi-parte seguro y privacidad diferencial sobre PyTorch y TensorFlow.",
        zh = "由 OpenMined 开源的 Python 库,用于隐私保护机器学习,在 PyTorch 与 TensorFlow 之上提供联邦学习、安全多方计算与差分隐私的原语。",
        term_es = "PySyft",
        term_zh = "PySyft",
        aliases_es = { "PySyft", "Syft", "OpenMined PySyft" },
        aliases_zh = { "PySyft", "Syft", "OpenMined PySyft" },
    }
    
    data["pythia"] = {
        short = "A suite of decoder-only language models released by EleutherAI in sizes from 70M to 12B parameters, all trained on the Pile with publicly released checkpoints across training to support interpretability and learning-dynamics research.",
        article = nil,
        aliases = { "Pythia", "Pythia suite", "EleutherAI Pythia" },
        es = "Suite de modelos de lenguaje solo decodificador publicada por EleutherAI con tamaños de 70M a 12B parámetros, entrenados en The Pile con puntos de control públicos a lo largo del entrenamiento para apoyar la investigación de interpretabilidad y dinámicas de aprendizaje.",
        zh = "EleutherAI 发布的仅解码器语言模型套件,参数规模从 7000 万到 120 亿不等,全部在 The Pile 上训练,并公开发布训练过程中的检查点,以支持可解释性和学习动力学研究。",
        term_es = "Pythia",
        term_zh = "Pythia",
        aliases_es = { "suite Pythia", "EleutherAI Pythia" },
        aliases_zh = { "Pythia 套件", "EleutherAI Pythia" },
    }
    
    data["pytorch distributed"] = {
        short = "The torch.distributed package providing primitives for distributed training in PyTorch, including process groups, collective communication backends (NCCL, Gloo, MPI), and high-level wrappers such as DistributedDataParallel and FullyShardedDataParallel.",
        article = nil,
        aliases = { "torch.distributed", "PyTorch Distributed", "DDP", "PyTorch distributed package" },
        es = "Paquete torch.distributed que proporciona primitivas para entrenamiento distribuido en PyTorch, incluyendo grupos de procesos, backends de comunicación colectiva (NCCL, Gloo, MPI) y envoltorios de alto nivel como DistributedDataParallel y FullyShardedDataParallel.",
        zh = "PyTorch 中的 torch.distributed 包,为分布式训练提供进程组、集合通信后端(NCCL、Gloo、MPI)以及 DistributedDataParallel、FullyShardedDataParallel 等高层封装等原语。",
        term_es = "PyTorch Distributed",
        term_zh = "PyTorch Distributed",
        aliases_es = { "torch.distributed", "PyTorch distribuido", "paquete distribuido de PyTorch", "DDP" },
        aliases_zh = { "torch.distributed", "PyTorch 分布式", "DDP" },
    }
    
    data["q-fair federated learning"] = {
        short = "A family of federated learning objectives parameterized by an exponent q that re-weights client losses by their q-th power, smoothly interpolating between the average loss (q=0) and the maximum loss (q→∞) to encourage more uniform performance across clients.",
        article = nil,
        aliases = { "q-FFL", "q-fair FL", "q-fair federated optimization" },
        es = "Familia de objetivos de aprendizaje federado parametrizados por un exponente q que repondera las pérdidas de los clientes por su q-ésima potencia, interpolando suavemente entre la pérdida media (q=0) y la pérdida máxima (q→∞) para promover un rendimiento más uniforme entre clientes.",
        zh = "一类由指数 q 参数化的联邦学习目标,将各客户端损失按其 q 次幂重新加权,从而在平均损失(q=0)与最大损失(q→∞)之间平滑插值,促使各客户端的性能更加均衡。",
        term_es = "aprendizaje federado q-justo",
        term_zh = "q-公平联邦学习",
        aliases_es = { "q-FFL", "FL q-justo", "optimización federada q-justa" },
        aliases_zh = { "q-FFL", "q 公平联邦学习", "q 公平联邦优化" },
    }
    
    data["q-fedavg"] = {
        short = "A federated averaging variant that minimizes the q-fair federated learning objective: client updates are re-weighted by an estimate of their loss raised to the q-th power before aggregation, biasing the global model toward clients with higher loss.",
        article = nil,
        aliases = { "q-FedAvg", "q-FedAvg algorithm", "q-fair FedAvg" },
        es = "Variante de federated averaging que minimiza el objetivo de aprendizaje federado q-justo: las actualizaciones de los clientes se reponderan por una estimación de su pérdida elevada a la q-ésima potencia antes de la agregación, sesgando el modelo global hacia los clientes con mayor pérdida.",
        zh = "一种联邦平均的变体,用于最小化 q-公平联邦学习目标:在聚合前,按各客户端损失的 q 次幂的估计值对其更新进行重新加权,使全局模型向损失较高的客户端倾斜。",
        term_es = "q-FedAvg",
        term_zh = "q-FedAvg",
        aliases_es = { "q-FedAvg", "FedAvg q-justo", "algoritmo q-FedAvg" },
        aliases_zh = { "q-FedAvg", "q 公平 FedAvg", "q-FedAvg 算法" },
    }
    
    data["q-former"] = {
        short = "The Querying Transformer introduced in BLIP-2: a lightweight transformer that uses a small set of learned query tokens to extract a fixed-size visual representation from a frozen image encoder for consumption by a language model.",
        article = nil,
        aliases = { "Q-Former", "QFormer", "Q Former", "Querying Transformer", "BLIP-2 Q-Former" },
        es = "Querying Transformer introducido en BLIP-2: un transformador ligero que utiliza un pequeño conjunto de tokens de consulta aprendidos para extraer una representación visual de tamaño fijo desde un codificador de imágenes congelado, que luego consume un modelo de lenguaje.",
        zh = "BLIP-2 中提出的 Querying Transformer:一种轻量级 Transformer,通过少量可学习的查询 token,从冻结的图像编码器中抽取固定长度的视觉表示,供语言模型使用。",
        term_es = "Q-Former",
        term_zh = "Q-Former",
        aliases_es = { "QFormer", "Querying Transformer" },
        aliases_zh = { "QFormer", "Querying Transformer", "查询 Transformer" },
    }
    
    data["q-function"] = {
        short = "Another name for the action-value function Q^π(s,a), giving the expected return of taking action a in state s and following policy π thereafter. Learned directly by Q-learning, DQN, and related off-policy algorithms.",
        article = nil,
        aliases = { "Q function", "Q-function", "Q value function", "action-value function" },
        es = "Otro nombre para la función de valor de acción Q^π(s,a), que indica el retorno esperado de tomar la acción a en el estado s y seguir después la política π. Es aprendida directamente por Q-learning, DQN y otros algoritmos off-policy relacionados.",
        zh = "动作价值函数 Q^π(s,a) 的另一名称,表示在状态 s 下采取动作 a 并随后遵循策略 π 所能获得的期望回报。Q-learning、DQN 及其相关的离策略算法直接学习该函数。",
        term_es = "función Q",
        term_zh = "Q函数",
        aliases_es = { "función de valor de acción", "función Q^π" },
        aliases_zh = { "Q-function", "动作价值函数" },
    }
    
    data["q-learning"] = {
        short = "An off-policy temporal-difference reinforcement learning algorithm that learns the optimal action-value function by updating Q-values toward the reward plus the discounted maximum Q-value of the next state.",
        article = nil,
        aliases = { "Q-learning", "Q learning", "Watkins Q-learning" },
        es = "Algoritmo de aprendizaje por refuerzo de diferencias temporales fuera de política que aprende la función óptima de valor-acción actualizando los valores Q hacia la recompensa más el valor Q máximo descontado del siguiente estado.",
        zh = "一种离策略的时序差分强化学习算法,通过将 Q 值朝向奖励加上下一状态折扣后最大 Q 值的方向进行更新,来学习最优动作-值函数。",
        term_es = "Q-learning",
        term_zh = "Q 学习",
        aliases_es = { "aprendizaje Q" },
        aliases_zh = { "Q-learning", "Q学习" },
    }
    
    data["qed"] = {
        short = "A heuristic score between 0 and 1 that estimates the drug-likeness of a molecule by combining desirability functions over molecular weight, logP, hydrogen bond donors and acceptors, polar surface area, rotatable bonds, aromatic rings, and structural alerts.",
        article = nil,
        aliases = { "QED", "quantitative estimate of drug-likeness", "drug-likeness QED score" },
        es = "Puntuación heurística entre 0 y 1 que estima la similitud a fármaco de una molécula combinando funciones de deseabilidad sobre el peso molecular, logP, donadores y aceptores de enlaces de hidrógeno, área de superficie polar, enlaces rotables, anillos aromáticos y alertas estructurales.",
        zh = "介于0到1之间的启发式评分,通过对分子量、logP、氢键供体与受体、极性表面积、可旋转键、芳香环以及结构警示的可取性函数进行综合,估计分子的类药性。",
        term_es = "QED",
        term_zh = "QED",
        aliases_es = { "QED", "estimación cuantitativa de similitud a fármaco", "puntuación QED de similitud a fármaco" },
        aliases_zh = { "QED", "类药性定量估计", "类药性QED评分" },
    }
    
    data["qiime2"] = {
        short = "An open-source bioinformatics platform for end-to-end analysis of microbiome amplicon and metagenomic data, providing reproducible workflows via a plugin and provenance-tracking architecture.",
        article = nil,
        aliases = { "QIIME 2", "QIIME2", "qiime", "QIIME" },
        es = "Plataforma bioinformática de código abierto para el análisis integral de datos de microbioma de amplicones y metagenómicos, que ofrece flujos de trabajo reproducibles mediante una arquitectura de complementos con seguimiento de procedencia.",
        zh = "一个开源生物信息学平台,用于微生物组扩增子和宏基因组数据的端到端分析,通过插件式架构和数据溯源机制提供可重复的工作流程。",
        term_es = "QIIME 2",
        term_zh = "QIIME 2",
        aliases_es = { "QIIME2", "QIIME" },
        aliases_zh = { "QIIME2", "QIIME" },
    }
    
    data["qlora"] = {
        short = "A memory-efficient fine-tuning method that combines 4-bit NF4 quantization of the frozen base model with LoRA adapters trained in higher precision, enabling fine-tuning of large language models on a single consumer GPU.",
        article = nil,
        aliases = { "QLoRA", "Q-LoRA", "quantized LoRA", "4-bit LoRA" },
        es = "Método de ajuste fino eficiente en memoria que combina la cuantización NF4 de 4 bits del modelo base congelado con adaptadores LoRA entrenados en mayor precisión, permitiendo afinar modelos de lenguaje grandes en una sola GPU de consumo.",
        zh = "一种节省显存的微调方法,将冻结基模型的 4 位 NF4 量化与以更高精度训练的 LoRA 适配器相结合,使大型语言模型能够在单张消费级 GPU 上完成微调。",
        term_es = "QLoRA",
        term_zh = "QLoRA",
        aliases_es = { "QLoRA", "LoRA cuantizado", "LoRA de 4 bits" },
        aliases_zh = { "QLoRA", "量化 LoRA", "4 位 LoRA" },
    }
    
    data["qm7"] = {
        short = "A quantum-chemistry benchmark dataset of 7,165 small organic molecules with up to seven heavy atoms (C, N, O, S) and DFT-computed atomization energies, widely used to evaluate molecular property prediction models.",
        article = nil,
        aliases = { "QM7", "QM7 dataset" },
        es = "Conjunto de datos de referencia en química cuántica con 7165 moléculas orgánicas pequeñas de hasta siete átomos pesados (C, N, O, S) y energías de atomización calculadas por DFT, usado ampliamente para evaluar modelos de predicción de propiedades moleculares.",
        zh = "一个量子化学基准数据集,包含7165个最多含7个重原子(C、N、O、S)的小型有机分子及其DFT计算的原子化能,广泛用于评估分子性质预测模型。",
        term_es = "QM7",
        term_zh = "QM7",
        aliases_es = { "QM7", "conjunto de datos QM7" },
        aliases_zh = { "QM7", "QM7数据集" },
    }
    
    data["qm8"] = {
        short = "A quantum-chemistry dataset of low-lying electronic excitation energies and oscillator strengths for ~22,000 small organic molecules, derived from time-dependent DFT and used to benchmark electronic-property prediction models.",
        article = nil,
        aliases = { "QM8", "QM8 dataset" },
        es = "Conjunto de datos de química cuántica con energías de excitación electrónica de baja energía y fuerzas de oscilador para unas 22 000 moléculas orgánicas pequeñas, calculadas mediante DFT dependiente del tiempo y utilizadas para evaluar modelos de predicción de propiedades electrónicas.",
        zh = "一个量子化学数据集,包含约22000个小型有机分子的低能电子激发能和振子强度,由含时DFT计算得到,用于评估电子性质预测模型。",
        term_es = "QM8",
        term_zh = "QM8",
        aliases_es = { "QM8", "conjunto de datos QM8" },
        aliases_zh = { "QM8", "QM8数据集" },
    }
    
    data["qm9"] = {
        short = "A widely used quantum-chemistry benchmark of about 134,000 small organic molecules with up to nine heavy atoms (C, N, O, F), each labeled with DFT-computed geometric, energetic, electronic, and thermodynamic properties.",
        article = nil,
        aliases = { "QM9", "QM9 dataset" },
        es = "Banco de pruebas de química cuántica ampliamente utilizado con cerca de 134 000 moléculas orgánicas pequeñas de hasta nueve átomos pesados (C, N, O, F), cada una etiquetada con propiedades geométricas, energéticas, electrónicas y termodinámicas calculadas por DFT.",
        zh = "广泛使用的量子化学基准数据集,包含约134000个最多含9个重原子(C、N、O、F)的小型有机分子,每个分子均标注由DFT计算得到的几何、能量、电子和热力学性质。",
        term_es = "QM9",
        term_zh = "QM9",
        aliases_es = { "QM9", "conjunto de datos QM9" },
        aliases_zh = { "QM9", "QM9数据集" },
    }
    
    data["qmugs dataset"] = {
        short = "A quantum-chemistry dataset of about 665,000 drug-like molecules from ChEMBL with three conformers each and DFT-computed properties, intended to bridge small-molecule QM datasets and pharmaceutically relevant chemical space.",
        article = nil,
        aliases = { "QMugs", "QMugs dataset", "QMugs database" },
        es = "Conjunto de datos de química cuántica con aproximadamente 665 000 moléculas tipo fármaco extraídas de ChEMBL, con tres confórmeros por molécula y propiedades calculadas por DFT, destinado a conectar los conjuntos QM de moléculas pequeñas con el espacio químico de interés farmacéutico.",
        zh = "一个量子化学数据集,包含约665000个来自ChEMBL的类药分子,每个分子有3个构象及其DFT计算性质,旨在连接小分子QM数据集与药学相关的化学空间。",
        term_es = "conjunto de datos QMugs",
        term_zh = "QMugs数据集",
        aliases_es = { "QMugs", "base de datos QMugs" },
        aliases_zh = { "QMugs", "QMugs数据库" },
    }
    
    data["qr decomposition"] = {
        short = "The factorization of a matrix A as A = QR, where Q has orthonormal columns and R is upper triangular. Used to solve linear systems, compute least-squares fits, and as a building block for eigenvalue algorithms.",
        article = nil,
        aliases = { "QR factorization", "QR decomposition", "QR" },
        es = "Factorización de una matriz A como A = QR, donde Q tiene columnas ortonormales y R es triangular superior. Se usa para resolver sistemas lineales, calcular ajustes por mínimos cuadrados y como bloque básico para algoritmos de cálculo de valores propios.",
        zh = "矩阵 A 的分解 A = QR,其中 Q 的各列正交归一,R 为上三角矩阵。用于求解线性方程组、最小二乘拟合,以及作为特征值算法的构件。",
        term_es = "descomposición QR",
        term_zh = "QR 分解",
        aliases_es = { "factorización QR", "QR" },
        aliases_zh = { "QR 因子分解", "QR" },
    }
    
    data["qr-dqn"] = {
        short = "A distributional RL algorithm that represents the return distribution by a fixed number of quantiles and trains them with quantile regression on the Bellman target, avoiding the projection step required by C51.",
        article = nil,
        aliases = { "QR-DQN", "Quantile Regression DQN", "quantile DQN" },
        es = "Algoritmo de RL distribucional que representa la distribución de retornos mediante un número fijo de cuantiles y los entrena con regresión cuantílica sobre el objetivo de Bellman, evitando el paso de proyección que requiere C51.",
        zh = "一种分布式强化学习算法,用固定数量的分位数表示回报分布,并通过对 Bellman 目标进行分位数回归来训练,从而避免 C51 所需的投影步骤。",
        term_es = "QR-DQN",
        term_zh = "QR-DQN",
        aliases_es = { "DQN de regresión cuantílica" },
        aliases_zh = { "分位数回归 DQN", "Quantile Regression DQN" },
    }
    
    data["qsar"] = {
        short = "A modeling approach that relates molecular descriptors of chemical structure to a measured biological activity, used to predict the activity of new compounds and prioritize them for synthesis and screening.",
        article = nil,
        aliases = { "QSAR", "quantitative structure-activity relationship", "structure-activity relationship modeling" },
        es = "Enfoque de modelado que relaciona descriptores moleculares de la estructura química con una actividad biológica medida, empleado para predecir la actividad de compuestos nuevos y priorizarlos para síntesis y cribado.",
        zh = "一种建模方法,将化学结构的分子描述符与测得的生物活性相关联,用于预测新化合物的活性并对其进行合成和筛选优先级排序。",
        term_es = "QSAR",
        term_zh = "QSAR",
        aliases_es = { "QSAR", "relación cuantitativa estructura-actividad", "modelado QSAR" },
        aliases_zh = { "QSAR", "定量构效关系", "定量结构-活性关系" },
    }
    
    data["qsgd"] = {
        short = "Quantized stochastic gradient descent: a communication-efficient variant of SGD for distributed training in which gradients are stochastically quantized to a small number of bits before being sent, with provable convergence under unbiased quantization.",
        article = nil,
        aliases = { "QSGD", "quantized SGD", "stochastic gradient quantization" },
        es = "Descenso por gradiente estocástico cuantizado: variante eficiente en comunicación de SGD para entrenamiento distribuido en la que los gradientes se cuantizan estocásticamente a unos pocos bits antes de transmitirse, con convergencia demostrable bajo cuantización no sesgada.",
        zh = "量化随机梯度下降:一种通信高效的分布式 SGD 变体,在传输前将梯度随机量化为少量比特,在无偏量化下具有可证的收敛性。",
        term_es = "QSGD",
        term_zh = "QSGD",
        aliases_es = { "QSGD", "SGD cuantizado", "cuantización estocástica de gradientes" },
        aliases_zh = { "QSGD", "量化 SGD", "随机梯度量化" },
    }
    
    data["quality filtering"] = {
        short = "A data-curation step in LLM pretraining that removes low-quality documents from a web-scale corpus using heuristics, classifiers, or perplexity thresholds, shown to improve sample efficiency and downstream performance.",
        article = nil,
        aliases = { "data quality filtering", "quality filter", "corpus filtering", "document filtering" },
        es = "Paso de curación de datos en el preentrenamiento de LLM que elimina documentos de baja calidad de un corpus web mediante heurísticas, clasificadores o umbrales de perplejidad, demostrado para mejorar la eficiencia de muestreo y el rendimiento posterior.",
        zh = "大语言模型预训练中的数据筛选步骤,通过启发式规则、分类器或困惑度阈值从大规模网络语料中剔除低质量文档,被证明能提升样本效率与下游性能。",
        term_es = "filtrado de calidad",
        term_zh = "质量过滤",
        aliases_es = { "filtrado de calidad de datos", "filtrado de corpus", "filtro de calidad" },
        aliases_zh = { "quality filtering", "数据质量过滤", "语料过滤" },
    }
    
    data["quality of service harm"] = {
        short = "A category of fairness-related harm in which an AI system performs noticeably worse for certain demographic groups (e.g., higher speech-recognition error rates for some accents, lower face-recognition accuracy for darker skin tones).",
        article = nil,
        aliases = { "QoS harm", "service quality disparity", "performance disparity harm", "differential performance harm" },
        es = "Categoría de daño en términos de equidad en la que un sistema de IA tiene un desempeño notablemente peor para ciertos grupos demográficos (por ejemplo, mayores tasas de error de reconocimiento de voz para algunos acentos o menor precisión de reconocimiento facial en pieles oscuras).",
        zh = "公平性相关危害的一类,指人工智能系统在特定人群上表现明显较差(例如对某些口音的语音识别错误率更高、对深肤色面孔的识别准确率更低)。",
        term_es = "daño en la calidad de servicio",
        term_zh = "服务质量损害",
        aliases_es = { "daño de QoS", "disparidad en la calidad del servicio", "daño por desempeño diferencial" },
        aliases_zh = { "服务质量差异", "性能差异损害", "QoS 损害" },
    }
    
    data["quantile calibration"] = {
        short = "The property that the predicted quantiles of a probabilistic forecaster match empirical frequencies, e.g., 90% prediction intervals contain the true outcome on roughly 90% of test cases.",
        article = nil,
        aliases = { "quantile calibrated", "calibration of quantiles" },
        es = "La propiedad de que los cuantiles predichos por un pronosticador probabilístico coinciden con las frecuencias empíricas; por ejemplo, los intervalos de predicción al 90% contienen el resultado real en aproximadamente el 90% de los casos.",
        zh = "概率预测器的预测分位数与经验频率一致的性质;例如,90% 预测区间在大约 90% 的测试样本上覆盖真实结果。",
        term_es = "calibración por cuantiles",
        term_zh = "分位数校准",
        aliases_es = { "calibración de cuantiles" },
        aliases_zh = { "分位数标定", "分位校准" },
    }
    
    data["quantile normalization"] = {
        short = "A normalization method that forces the empirical distributions of multiple samples to be identical by mapping each ranked value to the average across samples at the same rank; widely used for microarray and RNA-seq data.",
        article = nil,
        aliases = { "quantile-normalize", "QN", "quantile normalisation" },
        es = "Método de normalización que fuerza a que las distribuciones empíricas de múltiples muestras sean idénticas asignando a cada valor ordenado el promedio entre muestras en el mismo rango; muy utilizado en datos de microarrays y RNA-seq.",
        zh = "一种归一化方法,通过将各样本中相同秩位的值替换为跨样本的平均值,使多个样本的经验分布完全一致,广泛用于微阵列和 RNA-seq 数据。",
        term_es = "normalización por cuantiles",
        term_zh = "分位数归一化",
        aliases_es = { "normalización cuantil" },
        aliases_zh = { "分位数标准化", "分位归一化" },
    }
    
    data["quantile treatment effect"] = {
        short = "The difference between the treated and untreated potential-outcome distributions at a specified quantile, capturing how treatment affects the distribution of outcomes rather than only its mean. It generalizes the average treatment effect to distributional contrasts.",
        article = nil,
        aliases = { "Quantile Treatment Effect", "QTE", "quantile treatment effects", "distributional treatment effect at a quantile" },
        es = "Diferencia entre las distribuciones potenciales de resultados tratado y no tratado en un cuantil especificado, que captura cómo el tratamiento afecta la distribución de los resultados y no solo su media. Generaliza el efecto promedio del tratamiento a contrastes distribucionales.",
        zh = "处理与未处理潜在结果分布在某一指定分位数上的差异,刻画处理对结果分布的影响而不仅是均值。它将平均处理效应推广到分布层面的对比。",
        term_es = "efecto cuantílico del tratamiento",
        term_zh = "分位数处理效应",
        aliases_es = { "ETQ", "efecto del tratamiento sobre los cuantiles", "QTE" },
        aliases_zh = { "QTE", "分位处理效应", "分位数处置效应" },
    }
    
    data["quantitative estimate of drug-likeness"] = {
        short = "A 0-to-1 score introduced by Bickerton et al. that combines desirability functions over multiple physicochemical properties to provide a single, interpretable measure of how drug-like a molecule appears.",
        article = nil,
        aliases = { "QED", "quantitative estimate of drug likeness", "drug-likeness score" },
        es = "Puntuación entre 0 y 1 introducida por Bickerton y colaboradores que combina funciones de deseabilidad sobre varias propiedades fisicoquímicas para proporcionar una medida única e interpretable de cuán similar a un fármaco aparenta ser una molécula.",
        zh = "Bickerton等人提出的0到1之间的评分,通过对多个理化性质的可取性函数进行组合,给出一个单一且可解释的分子类药性指标。",
        term_es = "estimación cuantitativa de similitud a fármaco",
        term_zh = "类药性定量估计",
        aliases_es = { "QED", "estimación cuantitativa de aspecto farmacológico", "puntuación de similitud a fármaco" },
        aliases_zh = { "QED", "药物相似性定量估计", "类药性评分" },
    }
    
    data["quantitative structure-activity relationship"] = {
        short = "A statistical or machine-learning relationship between numerical descriptors of molecular structure and a quantitative biological response, used to predict potency, selectivity, ADMET, or toxicity of new compounds.",
        article = nil,
        aliases = { "QSAR", "quantitative structure activity relationship", "structure-activity modeling" },
        es = "Relación estadística o de aprendizaje automático entre descriptores numéricos de la estructura molecular y una respuesta biológica cuantitativa, utilizada para predecir potencia, selectividad, ADMET o toxicidad de compuestos nuevos.",
        zh = "分子结构的数值描述符与定量生物响应之间的统计或机器学习关系,用于预测新化合物的效力、选择性、ADMET或毒性。",
        term_es = "relación cuantitativa estructura-actividad",
        term_zh = "定量构效关系",
        aliases_es = { "QSAR", "relación cuantitativa estructura actividad", "modelado estructura-actividad" },
        aliases_zh = { "QSAR", "定量结构-活性关系", "构效关系建模" },
    }
    
    data["quantity skew"] = {
        short = "A form of statistical heterogeneity in federated learning where clients hold very different numbers of training examples, complicating fair aggregation and convergence analysis. Distinct from label or feature skew, which concern distributional rather than count differences.",
        article = nil,
        aliases = { "data quantity skew", "sample size skew", "client size heterogeneity" },
        es = "Forma de heterogeneidad estadística en aprendizaje federado en la que los clientes poseen un número muy distinto de ejemplos de entrenamiento, lo que complica la agregación justa y el análisis de convergencia. Se distingue de la asimetría de etiquetas o características, que se refieren a diferencias distribucionales en lugar de de conteo.",
        zh = "联邦学习中的一种统计异质性,指各客户端持有的训练样本数量差异很大,给公平聚合与收敛分析带来挑战。它不同于关注分布差异的标签或特征偏斜。",
        term_es = "asimetría de cantidad",
        term_zh = "数量偏斜",
        aliases_es = { "asimetría en cantidad de datos", "asimetría de tamaño de muestra", "heterogeneidad de tamaño de cliente" },
        aliases_zh = { "数据量偏斜", "样本量偏斜", "客户端规模异质性" },
    }
    
    data["quantization-aware training"] = {
        short = "A training procedure that simulates low-precision quantization in the forward pass while keeping master weights in full precision during backpropagation, producing models that retain accuracy when deployed at int8 or lower precision.",
        article = nil,
        aliases = { "QAT", "quantization aware training", "quantisation-aware training" },
        es = "Procedimiento de entrenamiento que simula cuantización de baja precisión en la pasada directa manteniendo los pesos maestros en precisión completa durante la retropropagación, produciendo modelos que conservan su precisión al desplegarse en int8 o menor.",
        zh = "一种训练方法,在前向传播中模拟低精度量化,同时在反向传播时以全精度维护主权重,使模型在部署到 int8 或更低精度时仍能保持精度。",
        term_es = "entrenamiento consciente de la cuantización",
        term_zh = "量化感知训练",
        aliases_es = { "QAT", "entrenamiento con cuantización", "quantization-aware training" },
        aliases_zh = { "QAT", "quantization-aware training", "量化感知训练" },
    }
    
    data["quantized gossip"] = {
        short = "A decentralized averaging protocol in which neighboring nodes exchange quantized (low-bit) versions of their local values rather than full-precision messages, trading some additional iteration noise for substantially lower communication cost.",
        article = nil,
        aliases = { "quantized gossip protocol", "compressed gossip", "low-precision gossip" },
        es = "Protocolo de promediado descentralizado en el que nodos vecinos intercambian versiones cuantizadas (de pocos bits) de sus valores locales en lugar de mensajes de precisión completa, a costa de algo más de ruido por iteración pero con un coste de comunicación mucho menor.",
        zh = "一种去中心化平均协议,相邻节点交换其本地值的量化(低比特)版本而非全精度消息,以略增的迭代噪声换取显著更低的通信成本。",
        term_es = "gossip cuantizado",
        term_zh = "量化 gossip",
        aliases_es = { "protocolo gossip cuantizado", "gossip comprimido", "gossip de baja precisión" },
        aliases_zh = { "量化 gossip 协议", "压缩 gossip", "低精度 gossip" },
    }
    
    data["quartznet"] = {
        short = "An end-to-end ASR architecture from NVIDIA (Kriman et al., 2020) based on 1D time-channel separable convolutions, derived from Jasper but with roughly 10× fewer parameters while maintaining competitive word error rates.",
        article = nil,
        aliases = { "QuartzNet", "QuartzNet ASR" },
        es = "Arquitectura de ASR de extremo a extremo de NVIDIA (Kriman et al., 2020) basada en convoluciones 1D separables en tiempo y canal, derivada de Jasper pero con aproximadamente 10 veces menos parámetros, manteniendo tasas de error de palabra competitivas.",
        zh = "NVIDIA 提出的端到端语音识别架构(Kriman 等,2020),基于一维时间-通道可分离卷积,由 Jasper 衍生而来但参数量约减少 10 倍,同时保持具有竞争力的词错误率。",
        term_es = "QuartzNet",
        term_zh = "QuartzNet",
        aliases_es = { "QuartzNet ASR" },
        aliases_zh = { "QuartzNet ASR模型" },
    }
    
    data["quasi-experiment"] = {
        short = "An empirical study that exploits naturally occurring or policy-induced variation resembling random assignment to estimate causal effects without a controlled experiment. Common designs include difference-in-differences, regression discontinuity, and instrumental variables.",
        article = nil,
        aliases = { "Quasi-Experiment", "quasi experiment", "quasi-experimental design", "natural experiment" },
        es = "Estudio empírico que aprovecha variación natural o inducida por políticas, parecida a una asignación aleatoria, para estimar efectos causales sin un experimento controlado. Diseños habituales incluyen diferencias en diferencias, regresión discontinua y variables instrumentales.",
        zh = "一类利用自然产生或政策引致的、类似随机分配的变异来估计因果效应的实证研究,无需开展受控实验。常见设计包括双重差分、断点回归和工具变量。",
        term_es = "cuasi-experimento",
        term_zh = "准实验",
        aliases_es = { "diseño cuasiexperimental", "experimento natural", "cuasi experimento" },
        aliases_zh = { "准实验设计", "自然实验", "类实验" },
    }
    
    data["quaternary structure"] = {
        short = "The arrangement of multiple folded protein subunits into a functional multi-subunit complex, stabilized by non-covalent interactions and, in some cases, disulfide bonds.",
        article = nil,
        aliases = { "4° structure", "protein quaternary structure" },
        es = "Disposición de varias subunidades proteicas plegadas formando un complejo multisubunidad funcional, estabilizado por interacciones no covalentes y, en algunos casos, puentes disulfuro.",
        zh = "多个已折叠的蛋白质亚基组装为具有功能的多亚基复合物的排列方式,依靠非共价相互作用以及在某些情况下的二硫键加以稳定。",
        term_es = "estructura cuaternaria",
        term_zh = "四级结构",
        aliases_es = { "estructura cuaternaria de proteínas" },
        aliases_zh = { "蛋白质四级结构", "四级构象" },
    }
    
    data["quaternion embedding"] = {
        short = "A knowledge-graph embedding family (notably QuatE) that represents entities and relations as quaternions in a four-dimensional hypercomplex space. Hamilton-product rotations capture richer relational patterns such as symmetry, anti-symmetry, inversion, and composition than complex-valued models like ComplEx.",
        article = nil,
        aliases = { "QuatE", "quaternion knowledge graph embedding", "quaternion KGE", "quaternion-valued embedding" },
        es = "Familia de incrustaciones de grafos de conocimiento (notablemente QuatE) que representa entidades y relaciones como cuaterniones en un espacio hipercomplejo de cuatro dimensiones. Las rotaciones por producto de Hamilton capturan patrones relacionales más ricos —simetría, antisimetría, inversión y composición— que modelos de valores complejos como ComplEx.",
        zh = "一类知识图谱嵌入方法(代表性的有 QuatE),将实体和关系表示为四维超复空间中的四元数。利用 Hamilton 积旋转,可以比 ComplEx 等复数值模型更丰富地捕捉对称性、反对称性、逆和复合等关系模式。",
        term_es = "incrustación cuaterniónica",
        term_zh = "四元数嵌入",
        aliases_es = { "QuatE", "embedding cuaterniónico", "incrustación de cuaterniones" },
        aliases_zh = { "QuatE", "四元数知识图谱嵌入" },
    }
    
    data["query by committee"] = {
        short = "An active learning strategy in which several hypotheses (the committee) are trained on the labeled data and unlabeled points are queried where the committee members disagree most.",
        article = nil,
        aliases = { "QBC", "query-by-committee" },
        es = "Una estrategia de aprendizaje activo en la que se entrenan varias hipótesis (el comité) sobre los datos etiquetados y se consultan los puntos no etiquetados donde los miembros del comité muestran mayor desacuerdo.",
        zh = "一种主动学习策略:在已标注数据上训练多个假设(委员会),并对委员会成员之间分歧最大的未标注样本请求标签。",
        term_es = "consulta por comité",
        term_zh = "委员会查询",
        aliases_es = { "QBC", "muestreo por comité" },
        aliases_zh = { "QBC", "委员会询问", "委员会投票查询" },
    }
    
    data["query decomposition"] = {
        short = "A retrieval-augmented generation technique that breaks a complex multi-hop question into simpler sub-queries, retrieves evidence for each, and composes the partial answers into a final response.",
        article = nil,
        aliases = { "sub-query decomposition", "question decomposition", "multi-hop decomposition" },
        es = "Técnica de generación aumentada por recuperación que descompone una pregunta compleja multi-salto en subconsultas más simples, recupera evidencia para cada una y compone las respuestas parciales en una respuesta final.",
        zh = "一种检索增强生成技术,将复杂的多跳问题分解为更简单的子查询,分别检索证据,并将部分答案组合成最终回答。",
        term_es = "descomposición de consultas",
        term_zh = "查询分解",
        aliases_es = { "descomposición de subconsultas", "descomposición de preguntas", "descomposición multi-salto" },
        aliases_zh = { "query decomposition", "子查询分解", "问题分解", "多跳分解" },
    }
    
    data["query expansion"] = {
        short = "An information-retrieval technique that augments the original query with related terms, synonyms, or model-generated paraphrases, broadening recall for sparse and dense retrieval systems.",
        article = nil,
        aliases = { "QE", "query augmentation", "automatic query expansion" },
        es = "Técnica de recuperación de información que amplía la consulta original con términos relacionados, sinónimos o paráfrasis generadas por un modelo, ampliando la cobertura en sistemas de recuperación dispersa y densa.",
        zh = "一种信息检索技术,使用相关词、同义词或模型生成的释义对原始查询进行扩展,从而提升稀疏和稠密检索系统的召回率。",
        term_es = "expansión de consultas",
        term_zh = "查询扩展",
        aliases_es = { "expansión de la consulta", "ampliación de consulta", "expansión automática de consultas" },
        aliases_zh = { "query expansion", "查询扩充", "自动查询扩展" },
    }
    
    data["query rewriting"] = {
        short = "A retrieval step that reformulates a user's original query into one or more better-formed search queries—often using an LLM—to improve retrieval recall and resolve ambiguity, conversational references, or missing context.",
        article = nil,
        aliases = { "query reformulation", "rewrite-retrieve-read", "LLM query rewriting" },
        es = "Paso de recuperación que reformula la consulta original del usuario en una o más consultas de búsqueda mejor formadas —a menudo usando un LLM— para mejorar la cobertura de recuperación y resolver ambigüedad, referencias conversacionales o contexto faltante.",
        zh = "检索步骤,将用户的原始查询改写为一个或多个表述更佳的搜索查询,常借助大语言模型完成,以提升检索召回并消除歧义、会话指代或缺失的上下文。",
        term_es = "reescritura de consultas",
        term_zh = "查询改写",
        aliases_es = { "reformulación de consultas", "reescritura de la consulta" },
        aliases_zh = { "query rewriting", "查询重写", "查询重新表述" },
    }
    
    data["query set"] = {
        short = "In few-shot learning, the held-out examples within an episode whose labels must be predicted using only the support set; performance on the query set is the meta-learner's task-level reward.",
        article = nil,
        aliases = { "query set", "query examples", "query batch" },
        es = "En aprendizaje con pocas muestras, los ejemplos retenidos dentro de un episodio cuyas etiquetas deben predecirse usando solo el conjunto de soporte; el rendimiento en el conjunto de consulta constituye la recompensa de tarea del meta-aprendiz.",
        zh = "在少样本学习中,每个回合内被保留的样本集合,其标签必须仅依据支持集进行预测;查询集上的表现构成元学习器的任务级奖励。",
        term_es = "conjunto de consulta",
        term_zh = "查询集",
        aliases_es = { "query set", "ejemplos de consulta" },
        aliases_zh = { "查询样本集", "Query Set" },
    }
    
    data["querying transformer"] = {
        short = "Another name for the Q-Former from BLIP-2: a small transformer that learns query tokens to bridge a frozen vision encoder with a frozen large language model in a multimodal pipeline.",
        article = nil,
        aliases = { "Querying Transformer", "Q-Former", "QFormer", "BLIP-2 Querying Transformer" },
        es = "Otro nombre del Q-Former de BLIP-2: un pequeño transformador que aprende tokens de consulta para conectar un codificador visual congelado con un modelo de lenguaje grande también congelado dentro de una arquitectura multimodal.",
        zh = "BLIP-2 中 Q-Former 的另一种称呼:一种小型 Transformer,通过学习查询 token,将冻结的视觉编码器与冻结的大语言模型连接成多模态流水线。",
        term_es = "Querying Transformer",
        term_zh = "Querying Transformer",
        aliases_es = { "Q-Former" },
        aliases_zh = { "Q-Former", "查询 Transformer" },
    }
    
    data["quiet-star"] = {
        short = "A self-teaching method that trains a language model to generate internal rationales (thoughts) before each token of regular text and to integrate them via a learned mixing head, generalizing STaR from question-answering to arbitrary text.",
        article = nil,
        aliases = { "Quiet-STaR", "Quiet STaR", "quiet star", "Quiet Self-Taught Reasoner" },
        es = "Método de auto-enseñanza que entrena a un modelo de lenguaje para generar razonamientos internos (pensamientos) antes de cada token de texto ordinario e integrarlos mediante una cabeza de mezcla aprendida, generalizando STaR desde preguntas-respuestas a texto arbitrario.",
        zh = "一种自我教学方法,训练语言模型在每个普通文本标记之前生成内部推理(思考),并通过学习得到的混合头进行整合,将 STaR 从问答推广到任意文本。",
        term_es = "Quiet-STaR",
        term_zh = "Quiet-STaR",
        aliases_es = { "Quiet STaR", "Quiet Self-Taught Reasoner" },
        aliases_zh = { "Quiet STaR", "Quiet Self-Taught Reasoner" },
    }
    
    data["qwen"] = {
        short = "A family of open-weight large language models developed by Alibaba Cloud, with strong multilingual capability (especially in Chinese and English) and variants for chat, coding, vision, and audio.",
        article = nil,
        aliases = { "Qwen", "Tongyi Qianwen", "Alibaba Qwen", "Qwen model", "Qwen family" },
        es = "Familia de grandes modelos de lenguaje de pesos abiertos desarrollada por Alibaba Cloud, con fuerte capacidad multilingüe (especialmente en chino e inglés) y variantes para chat, código, visión y audio.",
        zh = "由阿里云开发的开放权重大型语言模型系列(通义千问),具有出色的多语言能力(尤其是中英文),并提供对话、代码、视觉和音频等多种变体。",
        term_es = "Qwen",
        term_zh = "Qwen",
        aliases_es = { "Tongyi Qianwen", "modelo Qwen" },
        aliases_zh = { "通义千问", "Qwen 模型", "千问" },
    }
    
    data["qwen 2"] = {
        short = "The second-generation open-weight LLM family released by Alibaba in mid-2024, with dense models from 0.5B to 72B parameters and a 57B-A14B mixture-of-experts variant, supporting multilingual chat and long context.",
        article = nil,
        aliases = { "Qwen2", "Qwen-2", "Qwen 2", "Alibaba Qwen2" },
        es = "Segunda generación de la familia de LLM de pesos abiertos publicada por Alibaba a mediados de 2024, con modelos densos de 0,5B a 72B parámetros y una variante mixture-of-experts 57B-A14B, con soporte multilingüe para chat y contexto largo.",
        zh = "阿里巴巴于 2024 年中发布的第二代开放权重大语言模型系列,包含从 5 亿到 720 亿参数的稠密模型以及 57B-A14B 混合专家变体,支持多语言对话和长上下文。",
        term_es = "Qwen2",
        term_zh = "Qwen2",
        aliases_es = { "Qwen-2", "Qwen 2", "Alibaba Qwen2" },
        aliases_zh = { "Qwen-2", "Qwen 2", "通义千问 2" },
    }
    
    data["qwen 2.5"] = {
        short = "An open-weight LLM family released by Alibaba in late 2024 with dense models from 0.5B to 72B parameters, expanded 18T-token pretraining, 128K context, and improved coding, math, and structured-output performance over Qwen2.",
        article = nil,
        aliases = { "Qwen2.5", "Qwen-2.5", "Qwen 2.5", "Alibaba Qwen2.5" },
        es = "Familia de LLM de pesos abiertos publicada por Alibaba a finales de 2024 con modelos densos de 0,5B a 72B parámetros, preentrenamiento ampliado a 18T tokens, contexto de 128K y mejor desempeño en código, matemáticas y salidas estructuradas frente a Qwen2.",
        zh = "阿里巴巴于 2024 年末发布的开放权重大语言模型系列,包含从 5 亿到 720 亿参数的稠密模型,预训练扩展至 18 万亿标记,支持 128K 上下文,并在代码、数学和结构化输出方面相较 Qwen2 有所提升。",
        term_es = "Qwen2.5",
        term_zh = "Qwen2.5",
        aliases_es = { "Qwen-2.5", "Qwen 2.5", "Alibaba Qwen2.5" },
        aliases_zh = { "Qwen-2.5", "Qwen 2.5", "通义千问 2.5" },
    }
    
    data["qwen 3"] = {
        short = "The third-generation open-weight LLM family released by Alibaba in 2025, including dense and mixture-of-experts variants with hybrid thinking modes that let the model toggle between fast non-thinking responses and deliberate chain-of-thought reasoning.",
        article = nil,
        aliases = { "Qwen3", "Qwen-3", "Qwen 3", "Alibaba Qwen3" },
        es = "Tercera generación de la familia de LLM de pesos abiertos publicada por Alibaba en 2025, con variantes densas y mixture-of-experts y modos híbridos de pensamiento que permiten al modelo alternar entre respuestas rápidas sin razonar y razonamiento deliberado en cadena de pensamiento.",
        zh = "阿里巴巴于 2025 年发布的第三代开放权重大语言模型系列,包含稠密与混合专家变体,并提供混合思考模式,可让模型在快速非思考回复与慎思的思维链推理之间切换。",
        term_es = "Qwen3",
        term_zh = "Qwen3",
        aliases_es = { "Qwen-3", "Qwen 3", "Alibaba Qwen3" },
        aliases_zh = { "Qwen-3", "Qwen 3", "通义千问 3" },
    }
    
    data["qwen-audio"] = {
        short = "Alibaba's audio-language large model that pairs an audio encoder with the Qwen language model to support speech recognition, translation, sound understanding, and audio-grounded chat across many languages.",
        article = nil,
        aliases = { "Qwen-Audio", "Qwen Audio", "QwenAudio", "Qwen2-Audio" },
        es = "Modelo audio-lenguaje a gran escala de Alibaba que combina un codificador de audio con el modelo de lenguaje Qwen, dando soporte a reconocimiento del habla, traducción, comprensión de sonidos y conversación basada en audio en numerosos idiomas.",
        zh = "阿里巴巴推出的音频-语言大模型,将音频编码器与 Qwen 语言模型结合,支持多语言的语音识别、翻译、声音理解以及基于音频的对话。",
        term_es = "Qwen-Audio",
        term_zh = "Qwen-Audio",
        aliases_es = { "Qwen Audio", "Qwen2-Audio" },
        aliases_zh = { "Qwen Audio", "Qwen2-Audio" },
    }
    
    data["qwen-vl"] = {
        short = "Alibaba's first vision-language model, released in 2023, combining a Qwen-7B language model with a ViT visual encoder and a cross-attention adapter to support image captioning, visual question answering, and multilingual OCR.",
        article = nil,
        aliases = { "Qwen-VL", "QwenVL", "Qwen VL", "Qwen-VL-Chat" },
        es = "Primer modelo de visión-lenguaje de Alibaba, publicado en 2023, que combina el modelo de lenguaje Qwen-7B con un codificador visual ViT y un adaptador de atención cruzada para apoyar pie de foto, preguntas y respuestas visuales y OCR multilingüe.",
        zh = "阿里巴巴于 2023 年发布的首个视觉-语言模型,将 Qwen-7B 语言模型与 ViT 视觉编码器及交叉注意力适配器结合,支持图像描述、视觉问答和多语言 OCR。",
        term_es = "Qwen-VL",
        term_zh = "Qwen-VL",
        aliases_es = { "QwenVL", "Qwen VL", "Qwen-VL-Chat" },
        aliases_zh = { "QwenVL", "Qwen VL", "Qwen-VL-Chat", "通义千问-VL" },
    }
    
    data["qwen2-vl"] = {
        short = "Alibaba's second-generation vision-language model, released in 2024, introducing dynamic-resolution visual encoding via Naive Dynamic Resolution and M-RoPE for native handling of varying-resolution images and long videos.",
        article = nil,
        aliases = { "Qwen2-VL", "Qwen2 VL", "Qwen 2 VL" },
        es = "Modelo de visión-lenguaje de segunda generación de Alibaba, publicado en 2024, que introduce codificación visual de resolución dinámica mediante Naive Dynamic Resolution y M-RoPE para manejar de forma nativa imágenes de resolución variable y vídeos largos.",
        zh = "阿里巴巴于 2024 年发布的第二代视觉-语言模型,通过 Naive Dynamic Resolution 引入动态分辨率视觉编码,并使用 M-RoPE 原生处理不同分辨率的图像和长视频。",
        term_es = "Qwen2-VL",
        term_zh = "Qwen2-VL",
        aliases_es = { "Qwen2 VL", "Qwen 2 VL" },
        aliases_zh = { "Qwen2 VL", "Qwen 2 VL", "通义千问 2-VL" },
    }
    
    data["qwen2.5 coder"] = {
        short = "A code-specialized variant of Qwen2.5 released by Alibaba in 2024, continued-pretrained on 5.5T tokens of source code and code-related data, with sizes from 0.5B to 32B parameters and strong performance on code generation, completion, and repair benchmarks.",
        article = nil,
        aliases = { "Qwen2.5-Coder", "Qwen2.5 Coder", "Qwen 2.5 Coder", "Qwen-Coder 2.5" },
        es = "Variante de Qwen2.5 especializada en código publicada por Alibaba en 2024, con preentrenamiento continuo sobre 5,5T tokens de código fuente y datos relacionados, en tamaños de 0,5B a 32B parámetros y con buen desempeño en generación, completado y reparación de código.",
        zh = "阿里巴巴于 2024 年发布的 Qwen2.5 代码专用变体,在 5.5 万亿源代码及相关数据标记上继续预训练,参数规模从 5 亿到 320 亿不等,在代码生成、补全和修复基准上表现优异。",
        term_es = "Qwen2.5-Coder",
        term_zh = "Qwen2.5-Coder",
        aliases_es = { "Qwen2.5 Coder", "Qwen 2.5 Coder" },
        aliases_zh = { "Qwen2.5 Coder", "Qwen 2.5 Coder", "通义千问 2.5 Coder" },
    }
    
    data["qwen2.5-vl"] = {
        short = "Alibaba's vision-language model based on Qwen2.5, released in early 2025, with improved native dynamic-resolution visual encoding, document understanding, GUI agent grounding, and long-video temporal localization compared to Qwen2-VL.",
        article = nil,
        aliases = { "Qwen2.5-VL", "Qwen2.5 VL", "Qwen 2.5 VL" },
        es = "Modelo de visión-lenguaje de Alibaba basado en Qwen2.5, publicado a principios de 2025, con codificación visual de resolución dinámica nativa mejorada, comprensión de documentos, anclaje para agentes de GUI y localización temporal en vídeos largos respecto a Qwen2-VL.",
        zh = "阿里巴巴基于 Qwen2.5 的视觉-语言模型,于 2025 年初发布,相较于 Qwen2-VL 改进了原生动态分辨率视觉编码、文档理解、GUI 智能体定位以及长视频时间定位能力。",
        term_es = "Qwen2.5-VL",
        term_zh = "Qwen2.5-VL",
        aliases_es = { "Qwen2.5 VL", "Qwen 2.5 VL" },
        aliases_zh = { "Qwen2.5 VL", "Qwen 2.5 VL", "通义千问 2.5-VL" },
    }
    
    data["r-gcn"] = {
        short = "Relational Graph Convolutional Network: an extension of GCNs that learns separate transformation matrices per edge type and direction, enabling message passing on multi-relational graphs such as RDF knowledge bases. Used for entity classification and link prediction.",
        article = nil,
        aliases = { "R-GCN", "RGCN", "relational graph convolutional network", "relational GCN" },
        es = "Red Convolucional de Grafos Relacional: extensión de las GCN que aprende matrices de transformación separadas por tipo de arista y dirección, permitiendo el paso de mensajes en grafos multirrelacionales como bases de conocimiento RDF. Se utiliza para clasificación de entidades y predicción de enlaces.",
        zh = "关系图卷积网络:在 GCN 基础上为每种边类型与方向学习独立的变换矩阵,使消息传递可在 RDF 知识库等多关系图上进行,常用于实体分类和链接预测。",
        term_es = "R-GCN",
        term_zh = "R-GCN",
        aliases_es = { "GCN relacional", "red convolucional de grafos relacional" },
        aliases_zh = { "关系图卷积网络", "关系型 GCN" },
    }
    
    data["r-learner"] = {
        short = "A meta-learner for conditional average treatment effects that fits an outcome and propensity model, then estimates the CATE by minimizing the squared residual-on-residual loss derived from Robinson's transformation. It achieves quasi-oracle rates under cross-fitting.",
        article = nil,
        aliases = { "R-learner", "R learner", "Robinson learner", "Nie–Wager R-learner", "Robinson-style learner" },
        es = "Meta-aprendiz para efectos del tratamiento promedios condicionales que ajusta un modelo de resultado y otro de propensión y estima el CATE minimizando la pérdida residual contra residual derivada de la transformación de Robinson. Alcanza tasas cuasi-oráculo con validación cruzada.",
        zh = "一种用于条件平均处理效应的元学习器:先拟合结果模型和倾向模型,再通过最小化由 Robinson 变换得到的残差对残差损失来估计 CATE。在交叉拟合下可达到准 oracle 收敛速率。",
        term_es = "R-learner",
        term_zh = "R-learner",
        aliases_es = { "aprendiz R", "meta-aprendiz R", "R learner" },
        aliases_zh = { "R 学习器", "R 元学习器", "Robinson 学习器" },
    }
    
    data["r1 penalty"] = {
        short = "A GAN regularizer that penalizes the squared L2 norm of the discriminator's gradient with respect to real inputs only. Stabilizes training and is the default regularizer in StyleGAN2.",
        article = nil,
        aliases = { "R1 regularization", "R1 regularizer", "R1 gradient penalty" },
        es = "Regularizador de GAN que penaliza la norma L2 al cuadrado del gradiente del discriminador respecto a las entradas reales únicamente. Estabiliza el entrenamiento y es el regularizador por defecto en StyleGAN2.",
        zh = "一种 GAN 正则化方法,仅对判别器关于真实输入的梯度 L2 范数平方进行惩罚。可稳定训练,是 StyleGAN2 的默认正则项。",
        term_es = "penalización R1",
        term_zh = "R1 惩罚",
        aliases_es = { "regularización R1", "penalización de gradiente R1" },
        aliases_zh = { "R1 正则化", "R1 梯度惩罚" },
    }
    
    data["racemic mixture"] = {
        short = "An equimolar mixture of the two enantiomers of a chiral compound, which is optically inactive overall because the rotations of polarized light by the enantiomers cancel.",
        article = nil,
        aliases = { "racemate", "racemic compound", "racemic blend", "(±)-mixture" },
        es = "Mezcla equimolar de los dos enantiómeros de un compuesto quiral, que es ópticamente inactiva en conjunto porque las rotaciones de la luz polarizada por los enantiómeros se cancelan.",
        zh = "手性化合物两种对映异构体的等摩尔混合物,由于两种对映体对偏振光的旋光相互抵消,整体上呈光学非活性。",
        term_es = "mezcla racémica",
        term_zh = "外消旋混合物",
        aliases_es = { "racemato", "compuesto racémico", "mezcla (±)" },
        aliases_zh = { "外消旋体", "消旋混合物", "外消旋化合物" },
    }
    
    data["racial bias"] = {
        short = "Systematic differences in treatment, accuracy, or outcomes produced by a model that disadvantage individuals based on their racial group, often arising from non-representative training data, biased labels, or design choices.",
        article = nil,
        aliases = { "race bias", "racial discrimination in ML", "racial bias in algorithms" },
        es = "Diferencias sistemáticas en el tratamiento, la precisión o los resultados que produce un modelo y que perjudican a las personas según su grupo racial; suelen originarse en datos de entrenamiento poco representativos, etiquetas sesgadas o decisiones de diseño.",
        zh = "模型在处理、准确率或结果上对不同种族群体存在的系统性差异,导致对某些种族不利;通常源于训练数据缺乏代表性、标签存在偏差或设计选择不当。",
        term_es = "sesgo racial",
        term_zh = "种族偏见",
        aliases_es = { "sesgo de raza", "discriminación racial algorítmica" },
        aliases_zh = { "种族偏差", "算法中的种族歧视" },
    }
    
    data["racial bias in face recognition"] = {
        short = "The well-documented phenomenon in which face-recognition systems exhibit substantially higher error rates for certain racial groups, particularly people with darker skin tones, often due to underrepresentation in training data.",
        article = nil,
        aliases = { "face recognition racial bias", "racial disparity in face recognition", "skin-tone bias in face recognition" },
        es = "Fenómeno bien documentado en el que los sistemas de reconocimiento facial presentan tasas de error sustancialmente mayores para ciertos grupos raciales, en particular personas de piel oscura, frecuentemente debido a su subrepresentación en los datos de entrenamiento.",
        zh = "已被充分记录的现象:人脸识别系统对某些种族群体(尤其是深肤色人群)的错误率显著更高,主要原因在于训练数据中相关人群代表性不足。",
        term_es = "sesgo racial en reconocimiento facial",
        term_zh = "人脸识别中的种族偏见",
        aliases_es = { "disparidad racial en reconocimiento facial", "sesgo por tono de piel en reconocimiento facial" },
        aliases_zh = { "人脸识别种族偏差", "人脸识别中的肤色偏见", "人脸识别种族差异" },
    }
    
    data["racon polishing"] = {
        short = "A consensus-polishing step that improves the accuracy of long-read genome assemblies by aligning raw reads back to the draft assembly with the Racon tool and recomputing per-base consensus.",
        article = nil,
        aliases = { "Racon", "racon", "racon polish" },
        es = "Paso de pulido por consenso que mejora la precisión de ensamblados genómicos de lecturas largas alineando las lecturas crudas contra el ensamblado borrador con la herramienta Racon y recomputando el consenso por base.",
        zh = "一种共识纠错步骤,使用 Racon 工具将原始 reads 重新比对到草图组装上并重新计算每碱基共识,从而提升长读长基因组组装的准确性。",
        term_es = "pulido con Racon",
        term_zh = "Racon 抛光",
        aliases_es = { "Racon", "pulido Racon" },
        aliases_zh = { "Racon 校正", "Racon polishing", "Racon 修饰" },
    }
    
    data["radial bayesian neural network"] = {
        short = "A Bayesian neural network whose variational posterior factorizes the weight perturbation into a direction and a scalar radius, producing better-behaved high-dimensional posteriors than mean-field Gaussians.",
        article = nil,
        aliases = { "radial BNN", "radial bnn" },
        es = "Una red neuronal bayesiana cuya posterior variacional factoriza la perturbación de los pesos en una dirección y un radio escalar, produciendo posteriores en alta dimensión mejor comportadas que las gaussianas de campo medio.",
        zh = "一种贝叶斯神经网络,其变分后验将权重扰动分解为方向和标量半径,在高维情形下比均场高斯后验表现更稳定。",
        term_es = "red neuronal bayesiana radial",
        term_zh = "径向贝叶斯神经网络",
        aliases_es = { "BNN radial", "radial BNN" },
        aliases_zh = { "径向 BNN", "径向贝叶斯网络" },
    }
    
    data["radial flow posterior"] = {
        short = "An approximate posterior built from radial normalizing flows, which expand or contract probability mass around a reference point to flexibly transform a simple base distribution.",
        article = nil,
        aliases = { "radial flow", "radial normalizing flow posterior" },
        es = "Una posterior aproximada construida con flujos normalizadores radiales, que expanden o contraen la masa de probabilidad alrededor de un punto de referencia para transformar de forma flexible una distribución base simple.",
        zh = "由径向归一化流构成的近似后验,通过围绕参考点扩展或收缩概率质量来灵活地变换简单的基分布。",
        term_es = "posterior con flujo radial",
        term_zh = "径向流后验",
        aliases_es = { "flujo radial", "posterior de flujo radial" },
        aliases_zh = { "径向流", "径向归一化流后验" },
    }
    
    data["radiology vlm"] = {
        short = "A vision-language model fine-tuned or pretrained on radiological images (X-ray, CT, MRI) and paired clinical reports, used for report generation, diagnosis assistance, and visual question answering on medical scans.",
        article = nil,
        aliases = { "radiology VLM", "medical imaging VLM", "radiology vision-language model", "medical VLM", "RadVLM" },
        es = "Modelo visión-lenguaje preentrenado o ajustado con imágenes radiológicas (rayos X, TC, RM) y sus informes clínicos asociados, utilizado para generar informes, asistir el diagnóstico y responder preguntas visuales sobre estudios médicos.",
        zh = "在放射影像(X 光、CT、MRI)及其配对临床报告上预训练或微调的视觉-语言模型,用于报告生成、辅助诊断以及医学影像的视觉问答。",
        term_es = "VLM de radiología",
        term_zh = "放射学视觉-语言模型",
        aliases_es = { "modelo visión-lenguaje para radiología", "VLM médico", "VLM de imagen médica" },
        aliases_zh = { "放射学 VLM", "医学影像 VLM", "放射 VLM" },
    }
    
    data["rag fusion"] = {
        short = "A retrieval-augmented generation variant that uses an LLM to expand a user query into several related sub-queries, retrieves documents for each, and combines the results with reciprocal rank fusion.",
        article = nil,
        aliases = { "RAG-Fusion", "RAG Fusion", "rag-fusion" },
        es = "Variante de generación aumentada por recuperación que utiliza un LLM para expandir la consulta del usuario en varias subconsultas relacionadas, recupera documentos para cada una y combina los resultados mediante reciprocal rank fusion.",
        zh = "一种检索增强生成的变体,利用大语言模型将用户查询扩展为多个相关子查询,对每个子查询进行检索,并通过倒数排名融合(reciprocal rank fusion)合并结果。",
        term_es = "RAG-Fusion",
        term_zh = "RAG Fusion",
        aliases_es = { "fusión RAG" },
        aliases_zh = { "RAG 融合", "检索融合" },
    }
    
    data["rainbow dqn"] = {
        short = "A deep reinforcement learning agent that integrates six independent improvements to DQN — double Q-learning, prioritized replay, dueling networks, multi-step targets, distributional value learning, and noisy nets — into a single Atari-state-of-the-art system.",
        article = nil,
        aliases = { "Rainbow", "Rainbow DQN", "rainbow agent" },
        es = "Un agente de aprendizaje por refuerzo profundo que integra seis mejoras independientes de DQN —double Q-learning, replay priorizado, redes dueling, objetivos multi-paso, aprendizaje distribucional de valor y noisy nets— en un único sistema que alcanzó el estado del arte en Atari.",
        zh = "一种深度强化学习智能体,将 DQN 的六项独立改进——双 Q 学习、优先经验回放、对偶网络、多步目标、分布式价值学习以及 noisy nets——整合到单一系统中,在 Atari 上达到当时最先进水平。",
        term_es = "Rainbow DQN",
        term_zh = "Rainbow DQN",
        aliases_es = { "Rainbow", "agente Rainbow" },
        aliases_zh = { "Rainbow", "彩虹 DQN" },
    }
    
    data["ramachandran plot"] = {
        short = "A two-dimensional scatter plot of the backbone dihedral angles phi and psi for residues in a protein, used to assess stereochemical quality and identify allowed and disallowed conformational regions.",
        article = nil,
        aliases = { "Ramachandran plot", "Ramachandran diagram", "phi-psi plot" },
        es = "Diagrama de dispersión bidimensional de los ángulos diedros de la cadena principal phi y psi para los residuos de una proteína, utilizado para evaluar la calidad estereoquímica e identificar regiones conformacionales permitidas y no permitidas.",
        zh = "蛋白质中各残基主链二面角phi与psi的二维散点图,用于评估立体化学质量并识别允许和不允许的构象区域。",
        term_es = "diagrama de Ramachandran",
        term_zh = "拉氏图",
        aliases_es = { "gráfico de Ramachandran", "diagrama phi-psi" },
        aliases_zh = { "Ramachandran图", "拉马钱德兰图", "phi-psi图" },
    }
    
    data["randaugment"] = {
        short = "A simplified automated data-augmentation method that randomly samples N augmentation operations from a fixed set and applies each at a single global magnitude M, eliminating the costly policy search of AutoAugment.",
        article = nil,
        aliases = { "RandAugment", "rand-augment", "Rand-Augment" },
        es = "Método automatizado de aumento de datos simplificado que muestrea aleatoriamente N operaciones de aumento de un conjunto fijo y aplica cada una con una única magnitud global M, eliminando la costosa búsqueda de políticas de AutoAugment.",
        zh = "一种简化的自动化数据增强方法,从固定的操作集合中随机采样 N 个增强操作,并以一个全局幅度 M 应用,无需 AutoAugment 那样昂贵的策略搜索。",
        term_es = "RandAugment",
        term_zh = "RandAugment",
        aliases_es = { "aumento aleatorio", "RandAugment" },
        aliases_zh = { "随机增强", "RandAugment 策略", "randaugment" },
    }
    
    data["random erasing"] = {
        short = "An image data-augmentation technique that, with some probability, selects a random rectangular region of the input and replaces its pixels with random values, encouraging robustness to occlusion.",
        article = nil,
        aliases = { "Random Erasing", "random-erasing", "random erase", "RE augmentation" },
        es = "Técnica de aumento de datos para imágenes que, con cierta probabilidad, selecciona una región rectangular aleatoria de la entrada y reemplaza sus píxeles por valores aleatorios, favoreciendo la robustez frente a oclusiones.",
        zh = "一种图像数据增强技术,以一定概率在输入中随机选取一个矩形区域,并将其像素替换为随机值,从而提升模型对遮挡的鲁棒性。",
        term_es = "borrado aleatorio",
        term_zh = "随机擦除",
        aliases_es = { "random erasing", "borrado-aleatorio", "Random Erasing" },
        aliases_zh = { "Random Erasing", "随机抹除", "random erasing" },
    }
    
    data["random feature gp"] = {
        short = "A scalable Gaussian process approximation that maps inputs through random Fourier features so that the kernel becomes a linear inner product, allowing GP inference in time linear in the dataset size.",
        article = nil,
        aliases = { "RFF GP", "random feature Gaussian process", "RFGP" },
        es = "Una aproximación escalable de procesos gaussianos que proyecta las entradas mediante características aleatorias de Fourier de modo que el kernel se convierte en un producto interior lineal, permitiendo inferencia GP con coste lineal en el tamaño del dataset.",
        zh = "一种可扩展的高斯过程近似方法,通过随机傅里叶特征将输入映射到使核函数变为线性内积的特征空间,从而以与数据规模成线性的代价完成 GP 推断。",
        term_es = "GP con características aleatorias",
        term_zh = "随机特征高斯过程",
        aliases_es = { "RFF GP", "proceso gaussiano de características aleatorias" },
        aliases_zh = { "随机特征 GP", "RFF 高斯过程", "RFGP" },
    }
    
    data["random forest surrogate"] = {
        short = "A surrogate model based on random forests used in sequential model-based optimization (notably SMAC) to predict the performance of algorithm configurations from their hyperparameters and instance features.",
        article = nil,
        aliases = { "random forest surrogate", "RF surrogate", "random-forest surrogate model" },
        es = "Modelo sustituto basado en bosques aleatorios usado en optimización secuencial basada en modelos (en particular SMAC) para predecir el rendimiento de configuraciones de algoritmo a partir de sus hiperparámetros y características de instancia.",
        zh = "一种基于随机森林的代理模型,用于基于顺序模型的优化(尤其是 SMAC),根据超参数和实例特征预测算法配置的性能。",
        term_es = "modelo sustituto de bosque aleatorio",
        term_zh = "随机森林代理模型",
        aliases_es = { "sustituto de bosque aleatorio", "modelo sustituto basado en random forest" },
        aliases_zh = { "随机森林替代模型", "RF 代理模型" },
    }
    
    data["random fourier features"] = {
        short = "A randomized projection technique that approximates a shift-invariant kernel by sampling its spectral density and using sinusoidal feature maps, enabling linear-time evaluation of kernel methods.",
        article = nil,
        aliases = { "RFF", "Rahimi-Recht features", "random Fourier feature" },
        es = "Una técnica de proyección aleatorizada que aproxima un kernel invariante por traslación muestreando su densidad espectral y usando mapas de características sinusoidales, lo que permite evaluar métodos de kernel en tiempo lineal.",
        zh = "一种随机投影技术,通过对平移不变核的谱密度采样并使用正弦特征映射来近似该核,使核方法可以在线性时间内计算。",
        term_es = "características aleatorias de Fourier",
        term_zh = "随机傅里叶特征",
        aliases_es = { "RFF", "rasgos aleatorios de Fourier" },
        aliases_zh = { "RFF", "随机 Fourier 特征" },
    }
    
    data["random gossip"] = {
        short = "A decentralized averaging algorithm in which, at each step, a randomly chosen pair of neighboring nodes replaces their local values with the pair's average. Converges asymptotically to the global mean and underpins gossip-based federated learning.",
        article = nil,
        aliases = { "random gossip algorithm", "randomized gossip", "pairwise gossip", "random pairwise averaging" },
        es = "Algoritmo de promediado descentralizado en el que, en cada paso, un par de nodos vecinos elegido al azar sustituye sus valores locales por el promedio del par. Converge asintóticamente a la media global y es la base del aprendizaje federado basado en gossip.",
        zh = "一种去中心化平均算法:每一步随机选择一对相邻节点,将其本地值替换为该对节点的平均值。最终渐近收敛于全局均值,是基于 gossip 的联邦学习的基础。",
        term_es = "gossip aleatorio",
        term_zh = "随机 gossip",
        aliases_es = { "algoritmo de gossip aleatorio", "gossip aleatorizado", "gossip por pares", "promediado aleatorio por pares" },
        aliases_zh = { "随机 gossip 算法", "随机化 gossip", "成对 gossip", "随机成对平均" },
    }
    
    data["random search"] = {
        short = "A hyperparameter optimization strategy that draws configurations independently at random from defined distributions, often more sample-efficient than grid search when only a few hyperparameters matter.",
        article = nil,
        aliases = { "random-search", "randomized search" },
        es = "Estrategia de optimización de hiperparámetros que muestrea configuraciones de forma independiente a partir de distribuciones definidas; suele ser más eficiente en número de muestras que la búsqueda en rejilla cuando pocos hiperparámetros son relevantes.",
        zh = "一种超参数优化策略,从给定分布独立随机采样配置;当仅有少数超参数起决定性作用时,通常比网格搜索更具样本效率。",
        term_es = "búsqueda aleatoria",
        term_zh = "随机搜索",
        aliases_es = { "random search", "muestreo aleatorio de hiperparámetros" },
        aliases_zh = { "random search", "随机抽样搜索" },
    }
    
    data["random subspace inference"] = {
        short = "A scalable approximate Bayesian inference method for deep networks that performs posterior inference over a low-dimensional random subspace of the high-dimensional weight space.",
        article = nil,
        aliases = { "subspace inference", "RSI" },
        es = "Un método escalable de inferencia bayesiana aproximada para redes profundas que realiza inferencia posterior sobre un subespacio aleatorio de baja dimensión del espacio de pesos de alta dimensión.",
        zh = "一种适用于深度网络的可扩展近似贝叶斯推断方法,在高维权重空间的低维随机子空间上进行后验推断。",
        term_es = "inferencia en subespacio aleatorio",
        term_zh = "随机子空间推断",
        aliases_es = { "inferencia en subespacios", "RSI" },
        aliases_zh = { "子空间推断", "RSI" },
    }
    
    data["random-k sparsification"] = {
        short = "A gradient compression scheme that randomly selects k coordinates of each gradient vector to transmit and zeros out the rest, typically combined with error feedback to ensure convergence. Trades unbiasedness for simplicity compared to top-k sparsification.",
        article = nil,
        aliases = { "rand-k sparsification", "random-k sparsifier", "random sparsification", "rand-k compressor" },
        es = "Esquema de compresión de gradientes que selecciona aleatoriamente k coordenadas de cada vector de gradiente para transmitir y pone a cero las restantes, normalmente combinado con realimentación de errores para garantizar la convergencia. Sacrifica el carácter no sesgado por simplicidad frente a la dispersión top-k.",
        zh = "一种梯度压缩方案:随机选取每个梯度向量的 k 个坐标进行传输,其余置零,通常配合误差反馈以保证收敛。相比 top-k 稀疏化,它以非无偏换取实现简洁。",
        term_es = "esparsificación random-k",
        term_zh = "随机-k 稀疏化",
        aliases_es = { "esparsificación rand-k", "compresor rand-k", "esparsificación aleatoria" },
        aliases_zh = { "rand-k 稀疏化", "随机 k 稀疏化", "随机稀疏化", "rand-k 压缩器" },
    }
    
    data["randomization inference"] = {
        short = "A nonparametric inference framework that derives p-values and confidence intervals from the known distribution of treatment assignments under randomization, holding potential outcomes fixed. It avoids modeling assumptions about the outcome distribution.",
        article = nil,
        aliases = { "Randomization Inference", "Fisher randomization test", "permutation inference", "design-based inference" },
        es = "Marco de inferencia no paramétrico que obtiene valores-p e intervalos de confianza a partir de la distribución conocida de las asignaciones de tratamiento bajo aleatorización, manteniendo fijos los resultados potenciales. Evita supuestos modelísticos sobre la distribución del resultado.",
        zh = "一种非参数推断框架,在保持潜在结果固定的情况下,依据随机化下处理分配的已知分布得到 p 值与置信区间,无需对结果分布做模型假设。",
        term_es = "inferencia por aleatorización",
        term_zh = "随机化推断",
        aliases_es = { "prueba de aleatorización de Fisher", "inferencia basada en el diseño", "inferencia por permutaciones" },
        aliases_zh = { "Fisher 随机化检验", "基于设计的推断", "置换推断" },
    }
    
    data["randomization sanity check"] = {
        short = "A diagnostic for saliency methods (Adebayo et al., 2018) that randomizes model parameters or labels: an explanation that does not change after randomization is failing to depend on what the model has learned.",
        article = nil,
        aliases = { "sanity check for saliency maps", "model parameter randomization test", "cascading randomization test" },
        es = "Diagnóstico para métodos de saliencia (Adebayo et al., 2018) que aleatoriza los parámetros del modelo o las etiquetas: una explicación que no cambia tras la aleatorización está fallando en depender de lo que el modelo ha aprendido.",
        zh = "用于显著性图方法的诊断检验(Adebayo 等,2018):通过随机化模型参数或标签进行测试,若解释在随机化之后基本不变,则说明它并未真正依赖于模型所学到的内容。",
        term_es = "prueba de aleatorización (sanity check)",
        term_zh = "随机化健全性检验",
        aliases_es = { "sanity check de saliencia", "prueba de aleatorización de parámetros", "test de aleatorización en cascada" },
        aliases_zh = { "随机化合理性检验", "显著性图sanity check", "参数随机化测试", "级联随机化测试" },
    }
    
    data["randomized controlled trial"] = {
        short = "An experimental study in which participants are randomly assigned to treatment or control conditions, ensuring that, on average, observed and unobserved baseline characteristics are balanced across arms. It is the canonical design for unbiased estimation of average treatment effects.",
        article = nil,
        aliases = { "Randomized Controlled Trial", "RCT", "randomised controlled trial", "randomized clinical trial", "controlled randomized trial" },
        es = "Estudio experimental en el que los participantes se asignan aleatoriamente a las condiciones de tratamiento o control, lo que garantiza, en promedio, el equilibrio de las características basales observadas y no observadas entre los brazos. Es el diseño canónico para estimar de manera insesgada los efectos promedio del tratamiento.",
        zh = "一种实验研究,将参与者随机分配到处理组或对照组,从而平均而言在各组之间平衡可观测和不可观测的基线特征。它是无偏估计平均处理效应的经典设计。",
        term_es = "ensayo controlado aleatorizado",
        term_zh = "随机对照试验",
        aliases_es = { "ECA", "estudio aleatorizado controlado", "ensayo clínico aleatorizado", "RCT" },
        aliases_zh = { "RCT", "随机对照实验", "随机临床试验" },
    }
    
    data["randomized interventional analogue"] = {
        short = "Mediation estimands defined using a hypothetical random draw from the mediator distribution under a fixed treatment, rather than each individual's natural mediator value. They identify path-specific effects without cross-world counterfactual assumptions.",
        article = nil,
        aliases = { "Randomized Interventional Analogue", "RIA", "interventional mediation effect", "randomized interventional effect", "VanderWeele interventional analogue" },
        es = "Estimandos de mediación definidos mediante un sorteo aleatorio hipotético de la distribución del mediador bajo un tratamiento fijo, en lugar del valor natural del mediador de cada individuo. Identifican efectos específicos de trayectoria sin supuestos contrafácticos entre mundos.",
        zh = "在固定处理下,用从中介变量分布中假想地抽样替代每个个体自然的中介取值,由此定义的中介估计量。它能在不引入跨世界反事实假设的情况下识别特定路径效应。",
        term_es = "análogo intervencional aleatorizado",
        term_zh = "随机干预类比",
        aliases_es = { "efecto intervencional aleatorizado", "análogo de intervención aleatorizada", "RIA" },
        aliases_zh = { "RIA", "随机化干预类比效应", "干预性中介效应" },
    }
    
    data["randomized smoothing"] = {
        short = "A technique for obtaining certified robustness by averaging a base classifier's predictions over inputs perturbed with random noise (typically Gaussian), yielding a smoothed classifier with provable robustness radii.",
        article = nil,
        aliases = { "smoothing classifier", "Gaussian smoothing for robustness", "randomised smoothing" },
        es = "Técnica para obtener robustez certificada que promedia las predicciones de un clasificador base sobre entradas perturbadas con ruido aleatorio (normalmente gaussiano), produciendo un clasificador suavizado con radios de robustez demostrables.",
        zh = "一种获得认证鲁棒性的技术:对基础分类器在被随机噪声(通常为高斯噪声)扰动的输入上的预测取平均,得到具有可证鲁棒半径的平滑分类器。",
        term_es = "suavizado aleatorio",
        term_zh = "随机平滑",
        aliases_es = { "smoothing aleatorio", "suavizado gaussiano para robustez", "clasificador suavizado" },
        aliases_zh = { "随机化平滑", "高斯平滑鲁棒化", "平滑分类器" },
    }
    
    data["rank-1 bayesian neural network"] = {
        short = "A Bayesian neural network parameterization in which each weight matrix is a deterministic mean plus a rank-1 random perturbation, giving uncertainty estimates at a small overhead over a deterministic network.",
        article = nil,
        aliases = { "rank-1 BNN", "rank one BNN", "rank-1 bnn" },
        es = "Una parametrización de red neuronal bayesiana en la que cada matriz de pesos es una media determinista más una perturbación aleatoria de rango 1, proporcionando estimaciones de incertidumbre con un coste pequeño sobre una red determinista.",
        zh = "一种贝叶斯神经网络参数化方式:每个权重矩阵由确定性均值加上一个秩 1 的随机扰动构成,在确定性网络之上以很小的额外开销提供不确定性估计。",
        term_es = "red neuronal bayesiana rango-1",
        term_zh = "秩 1 贝叶斯神经网络",
        aliases_es = { "BNN rango-1", "BNN rango uno" },
        aliases_zh = { "rank-1 BNN", "秩一贝叶斯神经网络" },
    }
    
    data["rank-1 ensemble"] = {
        short = "An ensemble (e.g., BatchEnsemble) in which all members share a base weight matrix and differ only by a rank-1 multiplicative perturbation, enabling many ensemble members at low memory cost.",
        article = nil,
        aliases = { "rank-1 BatchEnsemble", "BatchEnsemble", "rank one ensemble" },
        es = "Un ensemble (por ejemplo, BatchEnsemble) en el que todos los miembros comparten una matriz de pesos base y difieren solo por una perturbación multiplicativa de rango 1, permitiendo muchos miembros con bajo coste de memoria.",
        zh = "一种集成方法(如 BatchEnsemble),所有成员共享同一基础权重矩阵,仅通过秩 1 的乘法扰动相互区分,从而以很低的内存代价实现多成员集成。",
        term_es = "ensemble rango-1",
        term_zh = "秩 1 集成",
        aliases_es = { "BatchEnsemble", "ensemble rango uno" },
        aliases_zh = { "BatchEnsemble", "秩一集成", "rank-1 集成" },
    }
    
    data["ranked group fairness"] = {
        short = "A fairness criterion for ranked outputs requiring that, at every prefix length k, the proportion of items from each protected group meets a target distribution (e.g., satisfies a minimum representation constraint).",
        article = nil,
        aliases = { "ranked fairness", "rank-aware group fairness", "FA*IR", "prefix fairness in ranking" },
        es = "Criterio de equidad para salidas en forma de ranking que exige que, en cada prefijo de longitud k, la proporción de elementos de cada grupo protegido cumpla una distribución objetivo (por ejemplo, una restricción mínima de representación).",
        zh = "针对排序输出的公平性标准,要求在每个长度为 k 的前缀中,各受保护群体所占比例都达到目标分布(例如满足最低代表性约束)。",
        term_es = "equidad de grupo en rankings",
        term_zh = "排序群体公平性",
        aliases_es = { "equidad ranqueada de grupo", "equidad por prefijos en rankings", "FA*IR" },
        aliases_zh = { "排名群体公平性", "前缀公平性", "FA*IR" },
    }
    
    data["ranking correlation"] = {
        short = "A correlation between two orderings of items, typically Spearman's rho or Kendall's tau, used in NAS to evaluate how well a performance predictor or low-fidelity proxy ranks architectures relative to ground-truth.",
        article = nil,
        aliases = { "rank correlation", "ranking correlation", "Spearman correlation", "Kendall tau" },
        es = "Correlación entre dos ordenaciones de elementos, típicamente la rho de Spearman o la tau de Kendall, usada en NAS para evaluar cuán bien un predictor de rendimiento o proxy de baja fidelidad ordena las arquitecturas respecto a la realidad.",
        zh = "两组项目排序之间的相关性度量,通常使用 Spearman ρ 或 Kendall τ,在神经架构搜索中用于衡量性能预测器或低保真代理对架构的排序与真实结果的吻合程度。",
        term_es = "correlación de rango",
        term_zh = "排序相关性",
        aliases_es = { "correlación de Spearman", "correlación de rangos", "tau de Kendall" },
        aliases_zh = { "秩相关", "排名相关性", "Spearman 相关", "Kendall τ" },
    }
    
    data["ranking fairness"] = {
        short = "The study and design of ranking algorithms (search, recommendation, hiring) that satisfy fairness criteria across protected groups, addressing disparities in exposure, top-k representation, or position-weighted utility.",
        article = nil,
        aliases = { "fair ranking", "fairness in ranking", "fairness-aware ranking", "fair-ranking algorithms" },
        es = "Estudio y diseño de algoritmos de ranking (búsqueda, recomendación, contratación) que satisfacen criterios de equidad entre grupos protegidos, abordando disparidades en exposición, representación en el top-k o utilidad ponderada por la posición.",
        zh = "针对排序算法(如搜索、推荐、招聘)满足受保护群体之间公平性标准的研究与设计,处理曝光、前 k 名代表性或按位置加权效用上的差异。",
        term_es = "equidad en rankings",
        term_zh = "排序公平性",
        aliases_es = { "ranking justo", "equidad en el ordenamiento", "rankings con conciencia de equidad" },
        aliases_zh = { "公平排序", "排名公平性", "公平感知排序" },
    }
    
    data["rao-blackwellization"] = {
        short = "A variance-reduction technique that replaces a Monte Carlo estimator with its conditional expectation given a sufficient statistic, yielding a new unbiased estimator with variance no greater than the original.",
        article = nil,
        aliases = { "Rao-Blackwellisation", "Rao-Blackwellization", "Rao-Blackwellized estimator" },
        es = "Una técnica de reducción de varianza que reemplaza un estimador de Monte Carlo por su esperanza condicional dado un estadístico suficiente, produciendo un nuevo estimador insesgado con varianza no mayor que la del original.",
        zh = "一种方差缩减技术,将蒙特卡罗估计量替换为给定充分统计量条件下的条件期望,得到方差不超过原估计量的新的无偏估计量。",
        term_es = "Rao-Blackwellización",
        term_zh = "Rao-Blackwell 化",
        aliases_es = { "Rao-Blackwellización", "estimador de Rao-Blackwell" },
        aliases_zh = { "Rao-Blackwell 化", "Rao-Blackwell 方法" },
    }
    
    data["raptor retrieval"] = {
        short = "A retrieval method that recursively clusters and summarizes text chunks into a hierarchical tree, enabling retrieval at multiple levels of abstraction over long documents.",
        article = nil,
        aliases = { "RAPTOR", "Recursive Abstractive Processing for Tree-Organized Retrieval", "RAPTOR retrieval" },
        es = "Método de recuperación que agrupa y resume recursivamente fragmentos de texto en un árbol jerárquico, permitiendo recuperar información en múltiples niveles de abstracción sobre documentos largos.",
        zh = "一种检索方法,对文本块进行递归聚类与摘要,构建分层树结构,从而在长文档上实现多层次抽象的检索。",
        term_es = "RAPTOR",
        term_zh = "RAPTOR 检索",
        aliases_es = { "recuperación RAPTOR" },
        aliases_zh = { "RAPTOR", "树状检索" },
    }
    
    data["rare variant analysis"] = {
        short = "Statistical analysis of low-frequency or rare genetic variants for association with phenotypes, typically using burden tests, SKAT, or related aggregation methods due to limited single-variant power.",
        article = nil,
        aliases = { "rare variant association", "rare variant testing", "RVAS" },
        es = "Análisis estadístico de variantes genéticas raras o de baja frecuencia para detectar asociación con fenotipos, normalmente con pruebas de carga, SKAT u otros métodos de agregación debido a la limitada potencia por variante individual.",
        zh = "对低频或罕见遗传变异进行表型关联的统计分析,因单变异检验功效有限,通常采用负荷检验、SKAT 等聚合方法。",
        term_es = "análisis de variantes raras",
        term_zh = "罕见变异分析",
        aliases_es = { "asociación de variantes raras", "RVAS" },
        aliases_zh = { "稀有变异分析", "罕见变异关联分析" },
    }
    
    data["rate-distortion"] = {
        short = "The branch of information theory that studies the tradeoff between compression rate and reconstruction distortion. The rate-distortion function R(D) is the minimum bit rate at which a source can be encoded with expected distortion at most D.",
        article = nil,
        aliases = { "rate distortion", "rate-distortion theory", "rate-distortion function", "R(D)", "rate distortion theory" },
        es = "Rama de la teoría de la información que estudia el compromiso entre la tasa de compresión y la distorsión de reconstrucción. La función tasa-distorsión R(D) es la tasa mínima a la que puede codificarse una fuente con distorsión esperada como máximo D.",
        zh = "信息论中研究压缩速率与重建失真之间权衡的分支。率失真函数 R(D) 表示在期望失真不超过 D 的条件下对信源进行编码所需的最小比特率。",
        term_es = "tasa-distorsión",
        term_zh = "率失真",
        aliases_es = { "teoría tasa-distorsión", "función tasa-distorsión", "R(D)" },
        aliases_zh = { "率失真理论", "率失真函数", "R(D)" },
    }
    
    data["rationale evaluation"] = {
        short = "The assessment of extracted or generated rationales along axes such as faithfulness to model behavior, plausibility to humans, sufficiency, and comprehensiveness.",
        article = nil,
        aliases = { "rationale assessment", "rationale quality evaluation" },
        es = "Evaluación de las racionales extraídas o generadas a lo largo de ejes como la fidelidad al comportamiento del modelo, la plausibilidad para humanos, la suficiencia y la exhaustividad.",
        zh = "对所抽取或生成的理由(rationale)进行评估,关注的维度包括:对模型行为的忠实度、对人类的可信度、充分性以及全面性。",
        term_es = "evaluación de racionales",
        term_zh = "理由评估",
        aliases_es = { "evaluación de rationales", "evaluación de la calidad de los rationales" },
        aliases_zh = { "rationale评估", "解释依据评估", "理由质量评估" },
    }
    
    data["rationale extraction"] = {
        short = "The process of selecting a short subset of the input — typically tokens, phrases, or spans — that is intended to justify or be sufficient for a model's prediction.",
        article = nil,
        aliases = { "rationale selection", "rationale generation", "extractive rationalization" },
        es = "Proceso de seleccionar un subconjunto reducido de la entrada — típicamente tokens, frases o spans — que se pretende justifique o sea suficiente para la predicción de un modelo.",
        zh = "从输入中选取一小部分内容(通常是词元、短语或片段)的过程,这些内容旨在为模型的预测提供依据或对其足以充分。",
        term_es = "extracción de racionales",
        term_zh = "理由抽取",
        aliases_es = { "selección de rationales", "racionalización extractiva", "extracción de rationales" },
        aliases_zh = { "理由提取", "rationale抽取", "抽取式理由生成" },
    }
    
    data["rationalize-then-predict"] = {
        short = "A two-stage interpretable architecture in which a generator first selects a rationale (a subset of the input) and a separate predictor classifies using only that rationale, encouraging predictions to depend solely on the highlighted evidence.",
        article = nil,
        aliases = { "rationalize then predict", "select-then-predict", "extract-then-predict", "Lei et al. rationale model" },
        es = "Arquitectura interpretable en dos etapas en la que un generador selecciona primero una racional (un subconjunto de la entrada) y un predictor independiente clasifica utilizando únicamente esa racional, forzando que las predicciones dependan sólo de la evidencia resaltada.",
        zh = "一种两阶段可解释架构:先由生成器选出一段理由(输入的子集),再由独立的预测器仅基于该理由进行分类,从而迫使预测只依赖于被高亮的证据。",
        term_es = "racionalizar-luego-predecir",
        term_zh = "先理由后预测",
        aliases_es = { "rationalize-then-predict", "select-then-predict", "extract-then-predict", "modelo de Lei et al." },
        aliases_zh = { "rationalize-then-predict", "select-then-predict", "先选择后预测", "Lei等人的理由模型" },
    }
    
    data["raven progressive matrices"] = {
        short = "A non-verbal visual reasoning test consisting of 3×3 panels of geometric shapes with one cell missing; the task is to select the figure that completes the pattern. Synthetic variants such as RAVEN and PGM serve as benchmarks for abstract visual reasoning in neural and neuro-symbolic systems.",
        article = nil,
        aliases = { "RPM", "Raven's Progressive Matrices", "Raven matrices", "RAVEN", "PGM", "Progressive Matrices" },
        es = "Prueba de razonamiento visual no verbal consistente en paneles 3×3 de figuras geométricas con una celda faltante; la tarea consiste en elegir la figura que completa el patrón. Variantes sintéticas como RAVEN y PGM se emplean como benchmarks de razonamiento visual abstracto en sistemas neuronales y neurosimbólicos.",
        zh = "一种非语言视觉推理测试,由 3×3 几何图形面板组成,缺一格,要求选出补全规律的图形。RAVEN 和 PGM 等合成变体被用作神经及神经符号系统抽象视觉推理的基准。",
        term_es = "matrices progresivas de Raven",
        term_zh = "瑞文渐进矩阵",
        aliases_es = { "RPM", "matrices de Raven", "RAVEN", "PGM" },
        aliases_zh = { "RPM", "Raven 矩阵", "RAVEN", "PGM" },
    }
    
    data["raw attention"] = {
        short = "Using a transformer's attention weights directly as a feature-importance signal, without further processing such as gradient correction or rollout — known to be only loosely correlated with input attribution.",
        article = nil,
        aliases = { "raw attention weights", "attention weights as explanation", "vanilla attention" },
        es = "Uso directo de los pesos de atención de un transformer como señal de importancia de características, sin procesamiento adicional como corrección por gradientes o rollout; se sabe que está solo débilmente correlacionado con la atribución real.",
        zh = "直接将 Transformer 的注意力权重作为特征重要性信号使用,不进行梯度修正或 rollout 等额外处理;这种做法已知与真实的输入归因仅存在较弱的相关性。",
        term_es = "atención cruda",
        term_zh = "原始注意力",
        aliases_es = { "pesos de atención crudos", "atención sin procesar", "atención vanilla" },
        aliases_zh = { "原始注意力权重", "raw attention", "未处理的注意力" },
    }
    
    data["raxml"] = {
        short = "A widely used software package for maximum-likelihood phylogenetic inference and bootstrapping on large multiple-sequence alignments.",
        article = nil,
        aliases = { "RAxML", "RAxML-NG" },
        es = "Paquete de software ampliamente utilizado para la inferencia filogenética por máxima verosimilitud y el bootstrap sobre grandes alineamientos múltiples de secuencias.",
        zh = "广泛使用的系统发育推断软件,基于最大似然法对大型多重序列比对进行建树及自举分析。",
        term_es = "RAxML",
        term_zh = "RAxML",
        aliases_es = { "RAxML-NG" },
        aliases_zh = { "RAxML-NG" },
    }
    
    data["ray tune"] = {
        short = "An open-source Python library, part of the Ray project, that provides distributed hyperparameter tuning with support for population-based training, ASHA, BOHB, Bayesian optimization, and other state-of-the-art schedulers.",
        article = nil,
        aliases = { "Ray Tune", "ray.tune", "Tune" },
        es = "Biblioteca de Python de código abierto, parte del proyecto Ray, que ofrece ajuste distribuido de hiperparámetros con soporte para entrenamiento basado en poblaciones, ASHA, BOHB, optimización bayesiana y otros planificadores de última generación.",
        zh = "一个开源 Python 库,属于 Ray 项目的一部分,提供分布式超参数调优,支持基于种群的训练、ASHA、BOHB、贝叶斯优化等多种前沿调度器。",
        term_es = "Ray Tune",
        term_zh = "Ray Tune",
        aliases_es = { "ray.tune", "Tune" },
        aliases_zh = { "ray.tune", "Tune" },
    }
    
    data["rdf"] = {
        short = "Resource Description Framework: a W3C standard for representing information about resources on the web as subject–predicate–object triples. Forms the foundational data model for the Semantic Web, linked data, and many knowledge graphs.",
        article = nil,
        aliases = { "RDF", "Resource Description Framework", "RDF triples", "RDF data model" },
        es = "Marco de Descripción de Recursos: estándar del W3C para representar información sobre recursos web mediante tripletas sujeto–predicado–objeto. Constituye el modelo de datos base de la web semántica, los datos enlazados y muchos grafos de conocimiento.",
        zh = "资源描述框架:W3C 标准,用主语–谓语–宾语三元组表示网络资源的信息,是语义网、链接数据和众多知识图谱的基础数据模型。",
        term_es = "RDF",
        term_zh = "RDF",
        aliases_es = { "Resource Description Framework", "marco de descripción de recursos", "tripletas RDF" },
        aliases_zh = { "资源描述框架", "RDF 三元组" },
    }
    
    data["rdf schema"] = {
        short = "RDFS: a W3C vocabulary extension to RDF that defines classes, subclasses, properties, and domain/range constraints, enabling lightweight ontological modelling and basic inference over RDF data.",
        article = nil,
        aliases = { "RDFS", "RDF Schema", "RDF-S", "RDF schema vocabulary" },
        es = "RDFS: vocabulario del W3C que extiende RDF con clases, subclases, propiedades y restricciones de dominio y rango, permitiendo un modelado ontológico ligero e inferencia básica sobre datos RDF.",
        zh = "RDFS:W3C 制定的 RDF 词汇扩展,引入类、子类、属性以及定义域和值域约束,可在 RDF 数据上实现轻量级本体建模和基础推理。",
        term_es = "esquema RDF",
        term_zh = "RDF Schema",
        aliases_es = { "RDFS", "vocabulario RDFS", "RDF-S" },
        aliases_zh = { "RDFS", "RDF 模式", "RDF-S" },
    }
    
    data["rdkit"] = {
        short = "An open-source cheminformatics toolkit written in C++ with Python bindings that provides functionality for molecular parsing, descriptors, fingerprints, substructure search, conformer generation, and reaction handling.",
        article = nil,
        aliases = { "RDKit", "RDKit toolkit", "rdkit library" },
        es = "Conjunto de herramientas de quimioinformática de código abierto escrito en C++ con enlaces a Python que ofrece funciones para análisis molecular, descriptores, huellas digitales, búsqueda de subestructuras, generación de confórmeros y manejo de reacciones.",
        zh = "一个开源化学信息学工具包,使用C++编写并提供Python接口,支持分子解析、描述符、指纹、子结构搜索、构象生成和反应处理等功能。",
        term_es = "RDKit",
        term_zh = "RDKit",
        aliases_es = { "RDKit", "biblioteca RDKit" },
        aliases_zh = { "RDKit", "RDKit工具包", "RDKit库" },
    }
    
    data["rdkit descriptors"] = {
        short = "The collection of physicochemical and topological molecular descriptors implemented in the RDKit library (such as molecular weight, logP, TPSA, and Lipinski-style features) commonly used as input features for QSAR and ADMET models.",
        article = nil,
        aliases = { "RDKit descriptors", "RDKit molecular descriptors", "rdkit features" },
        es = "Conjunto de descriptores moleculares fisicoquímicos y topológicos implementados en la biblioteca RDKit (como el peso molecular, logP, TPSA y características de tipo Lipinski) que se utilizan habitualmente como variables de entrada para modelos QSAR y ADMET.",
        zh = "RDKit库中实现的一组物化和拓扑分子描述符(如分子量、logP、TPSA以及Lipinski类特征),常用作QSAR和ADMET模型的输入特征。",
        term_es = "descriptores RDKit",
        term_zh = "RDKit描述符",
        aliases_es = { "descriptores moleculares de RDKit", "características RDKit" },
        aliases_zh = { "RDKit描述符", "RDKit分子描述符", "RDKit特征" },
    }
    
    data["rdma networking"] = {
        short = "Remote direct memory access: a networking technology that allows a host's network adapter to read from or write to remote memory without involving the CPU, lowering latency and freeing compute. Widely used in data-center training clusters via InfiniBand or RoCE.",
        article = nil,
        aliases = { "RDMA", "remote direct memory access", "RDMA fabric", "InfiniBand RDMA" },
        es = "Acceso directo a memoria remota: tecnología de red que permite que el adaptador de red de un host lea o escriba en memoria remota sin intervención de la CPU, reduciendo la latencia y liberando cómputo. Muy utilizada en clústeres de entrenamiento de centros de datos mediante InfiniBand o RoCE.",
        zh = "远程直接内存访问:一种网络技术,允许主机的网卡在不经过 CPU 的情况下读写远端内存,从而降低延迟并释放计算资源。在数据中心训练集群中广泛通过 InfiniBand 或 RoCE 部署。",
        term_es = "redes RDMA",
        term_zh = "RDMA 网络",
        aliases_es = { "RDMA", "acceso directo a memoria remota", "RDMA InfiniBand" },
        aliases_zh = { "RDMA", "远程直接内存访问", "RDMA 网络互连", "InfiniBand RDMA" },
    }
    
    data["react agent"] = {
        short = "A prompting pattern that interleaves reasoning traces and actions in a language model agent, alternating Thought, Action, and Observation steps so the model can use tools and update its plan iteratively.",
        article = nil,
        aliases = { "ReAct", "ReAct agent", "ReAct prompting", "Reasoning and Acting", "reasoning and acting agent" },
        es = "Patrón de prompting que intercala trazas de razonamiento y acciones en un agente basado en modelos de lenguaje, alternando pasos de Pensamiento, Acción y Observación para que el modelo use herramientas y actualice su plan de forma iterativa.",
        zh = "一种提示模式,在语言模型智能体中交替输出推理过程与动作,按思考-行动-观察的顺序循环,使模型能够调用工具并迭代更新计划。",
        term_es = "agente ReAct",
        term_zh = "ReAct 智能体",
        aliases_es = { "ReAct", "ReAct agent", "razonamiento y acción", "agente de razonamiento y acción" },
        aliases_zh = { "ReAct", "ReAct agent", "推理与行动智能体", "ReAct 提示" },
    }
    
    data["reactant"] = {
        short = "A chemical species that is consumed during a chemical reaction; in cheminformatics datasets, the molecules appearing on the left-hand side of a reaction SMILES string.",
        article = nil,
        aliases = { "reactants", "starting material", "starting materials" },
        es = "Especie química que se consume durante una reacción química; en los conjuntos de datos de quimioinformática, las moléculas que aparecen en el lado izquierdo de una cadena reaction SMILES.",
        zh = "在化学反应中被消耗的化学物质;在化学信息学数据集中,对应反应SMILES字符串左侧出现的分子。",
        term_es = "reactivo",
        term_zh = "反应物",
        aliases_es = { "reactivos", "material de partida", "materiales de partida" },
        aliases_zh = { "反应物", "起始物", "起始原料" },
    }
    
    data["reaction condition prediction"] = {
        short = "A computational task that predicts suitable reagents, catalysts, solvents, and temperatures for a given chemical transformation, typically as a multi-output classification or sequence-generation problem trained on reaction databases.",
        article = nil,
        aliases = { "reaction conditions prediction", "condition recommendation", "predicting reaction conditions" },
        es = "Tarea computacional que predice reactivos, catalizadores, disolventes y temperaturas adecuados para una transformación química dada, formulada habitualmente como un problema de clasificación multi-salida o de generación de secuencias entrenado sobre bases de datos de reacciones.",
        zh = "预测给定化学转化的适宜试剂、催化剂、溶剂和温度的计算任务,通常构造为在反应数据库上训练的多输出分类或序列生成问题。",
        term_es = "predicción de condiciones de reacción",
        term_zh = "反应条件预测",
        aliases_es = { "recomendación de condiciones de reacción", "predicción de las condiciones de una reacción" },
        aliases_zh = { "反应条件预测", "反应条件推荐", "预测反应条件" },
    }
    
    data["reaction prediction"] = {
        short = "The forward-synthesis task of predicting the products of a chemical reaction given a set of reactants and reagents, often modeled with seq2seq transformers operating on reaction SMILES.",
        article = nil,
        aliases = { "forward reaction prediction", "product prediction", "forward synthesis prediction" },
        es = "Tarea de síntesis directa que consiste en predecir los productos de una reacción química a partir de un conjunto de reactivos y reactantes, modelada con frecuencia mediante transformadores seq2seq que operan sobre reaction SMILES.",
        zh = "正向合成任务:在给定反应物和试剂的情况下预测化学反应的产物,通常使用作用于反应SMILES的seq2seq Transformer进行建模。",
        term_es = "predicción de reacciones",
        term_zh = "反应预测",
        aliases_es = { "predicción directa de reacciones", "predicción de productos", "predicción de síntesis directa" },
        aliases_zh = { "正向反应预测", "产物预测", "正向合成预测" },
    }
    
    data["reaction smiles"] = {
        short = "An extension of SMILES notation that represents a chemical reaction as 'reactants>reagents>products', with each component encoded as a SMILES string and the parts separated by '>' characters.",
        article = nil,
        aliases = { "reaction SMILES", "rSMILES", "SMILES reaction string" },
        es = "Extensión de la notación SMILES que representa una reacción química como 'reactivos>reactantes>productos', codificando cada componente como una cadena SMILES y separando las partes con caracteres '>'.",
        zh = "SMILES表示法的扩展,将化学反应表示为“反应物>试剂>产物”,其中每个组分编码为SMILES字符串,各部分之间用“>”分隔。",
        term_es = "reaction SMILES",
        term_zh = "反应SMILES",
        aliases_es = { "reaction SMILES", "SMILES de reacción", "rSMILES" },
        aliases_zh = { "反应SMILES", "reaction SMILES", "rSMILES" },
    }
    
    data["reaction template"] = {
        short = "A generalized SMARTS-like rule that captures the bond changes of a class of chemical reactions, used in template-based retrosynthesis and reaction prediction systems to enumerate plausible transformations.",
        article = nil,
        aliases = { "reaction templates", "reaction rule", "retrosynthesis template" },
        es = "Regla generalizada de tipo SMARTS que captura los cambios de enlace de una clase de reacciones químicas, utilizada en sistemas de retrosíntesis y predicción de reacciones basados en plantillas para enumerar transformaciones plausibles.",
        zh = "一种类SMARTS的通用规则,用于刻画一类化学反应的键变化,在基于模板的逆合成和反应预测系统中用于枚举可能的转化。",
        term_es = "plantilla de reacción",
        term_zh = "反应模板",
        aliases_es = { "plantillas de reacción", "regla de reacción", "plantilla de retrosíntesis" },
        aliases_zh = { "反应模板", "反应规则", "逆合成模板" },
    }
    
    data["reaction yield prediction"] = {
        short = "A regression task that predicts the experimental yield of a chemical reaction from descriptors of its reactants, reagents, and conditions, often used to prioritize candidate reactions for high-throughput experimentation.",
        article = nil,
        aliases = { "yield prediction", "chemical yield prediction", "predicting reaction yields" },
        es = "Tarea de regresión que predice el rendimiento experimental de una reacción química a partir de descriptores de sus reactivos, reactantes y condiciones, utilizada con frecuencia para priorizar reacciones candidatas en experimentación de alto rendimiento.",
        zh = "一种回归任务,根据反应物、试剂和条件的描述符预测化学反应的实验产率,常用于高通量实验中对候选反应进行优先级排序。",
        term_es = "predicción del rendimiento de reacción",
        term_zh = "反应产率预测",
        aliases_es = { "predicción de rendimiento", "predicción del rendimiento químico", "predicción de rendimientos de reacción" },
        aliases_zh = { "产率预测", "化学产率预测", "反应收率预测" },
    }
    
    data["reactome"] = {
        short = "A curated, peer-reviewed pathway database covering human biological pathways and reactions, widely used for pathway enrichment analysis of omics data.",
        article = nil,
        aliases = { "Reactome", "Reactome pathway database" },
        es = "Base de datos de rutas biológicas curada y revisada por pares que cubre rutas y reacciones humanas, ampliamente usada para análisis de enriquecimiento de rutas con datos ómicos.",
        zh = "经人工策展并同行评审的通路数据库,涵盖人类生物学通路与反应,广泛用于组学数据的通路富集分析。",
        term_es = "Reactome",
        term_zh = "Reactome",
        aliases_es = { "base de datos Reactome" },
        aliases_zh = { "Reactome 通路数据库" },
    }
    
    data["read alignment"] = {
        short = "The process of mapping sequencing reads to a reference genome or transcriptome, producing per-base correspondences typically stored as SAM/BAM files; performed by tools such as BWA, Bowtie2, STAR, and minimap2.",
        article = nil,
        aliases = { "read mapping", "sequence alignment of reads", "short-read alignment" },
        es = "Proceso de mapear lecturas de secuenciación contra un genoma o transcriptoma de referencia, produciendo correspondencias por base que normalmente se almacenan en archivos SAM/BAM; lo realizan herramientas como BWA, Bowtie2, STAR y minimap2.",
        zh = "将测序 reads 映射到参考基因组或转录组的过程,产生通常以 SAM/BAM 文件保存的逐碱基对应关系,由 BWA、Bowtie2、STAR、minimap2 等工具完成。",
        term_es = "alineamiento de lecturas",
        term_zh = "序列比对",
        aliases_es = { "mapeo de lecturas", "alineamiento de reads" },
        aliases_zh = { "reads 比对", "短读长比对", "测序reads比对" },
    }
    
    data["real logic"] = {
        short = "The first-order fuzzy-logic semantics underlying Logic Tensor Networks: predicates are interpreted as real-valued functions in [0,1] over learned embeddings, and connectives are realized via t-norms and t-conorms, yielding a fully differentiable language for neuro-symbolic learning.",
        article = nil,
        aliases = { "Real Logic", "real-valued logic", "LTN logic", "Logic Tensor Network logic" },
        es = "Semántica de lógica difusa de primer orden subyacente a las Logic Tensor Networks: los predicados se interpretan como funciones reales en [0,1] sobre incrustaciones aprendidas y los conectivos se realizan mediante t-normas y t-conormas, dando un lenguaje totalmente diferenciable para el aprendizaje neurosimbólico.",
        zh = "Logic Tensor Networks 所基于的一阶模糊逻辑语义:谓词被解释为定义在学习到的嵌入上的 [0,1] 实值函数,连接词通过 t-范数和 t-余范实现,从而构成可完全微分的神经符号学习语言。",
        term_es = "Real Logic",
        term_zh = "Real Logic",
        aliases_es = { "lógica real", "lógica de LTN" },
        aliases_zh = { "实数逻辑", "实值逻辑", "LTN 逻辑" },
    }
    
    data["real nvp"] = {
        short = "A normalizing-flow generative model (Dinh et al., 2017) built from affine coupling layers: half the input dimensions are passed through unchanged while the other half are scaled and shifted by functions of the first half, giving a triangular Jacobian with cheap log-determinant.",
        article = nil,
        aliases = { "RealNVP", "Real NVP", "real-valued non-volume preserving" },
        es = "Modelo generativo de flujo normalizador (Dinh et al., 2017) construido con capas de acoplamiento afín: la mitad de las dimensiones de entrada pasa sin cambios mientras la otra mitad se escala y desplaza con funciones de la primera, produciendo un jacobiano triangular con log-determinante barato.",
        zh = "Dinh 等人于 2017 年提出的归一化流生成模型:由仿射耦合层构成——一半维度直接透传,另一半由前者的函数进行缩放与平移,从而得到三角形雅可比矩阵和廉价的对数行列式。",
        term_es = "Real NVP",
        term_zh = "Real NVP",
        aliases_es = { "RealNVP" },
        aliases_zh = { "RealNVP", "实值非体积保持流" },
    }
    
    data["real-esrgan"] = {
        short = "A practical image super-resolution model that extends ESRGAN to handle real-world degradations by training on a pipeline of synthetic blur, noise, JPEG compression, and downsampling artifacts.",
        article = nil,
        aliases = { "Real-ESRGAN", "RealESRGAN", "real esrgan" },
        es = "Modelo práctico de superresolución de imágenes que amplía ESRGAN para tratar degradaciones del mundo real, entrenándose con un pipeline sintético de desenfoque, ruido, compresión JPEG y submuestreo.",
        zh = "一种实用的图像超分辨率模型,扩展自 ESRGAN,通过合成的模糊、噪声、JPEG 压缩与下采样退化流程进行训练,以处理真实世界中的图像退化。",
        term_es = "Real-ESRGAN",
        term_zh = "Real-ESRGAN",
        aliases_es = { "RealESRGAN" },
        aliases_zh = { "RealESRGAN", "真实 ESRGAN" },
    }
    
    data["real-time factor"] = {
        short = "A latency metric for speech systems defined as the ratio of processing time to the duration of the audio processed; values below 1.0 indicate faster-than-real-time operation, essential for streaming ASR and TTS.",
        article = nil,
        aliases = { "RTF", "real time factor", "realtime factor" },
        es = "Métrica de latencia para sistemas de habla definida como la razón entre el tiempo de procesamiento y la duración del audio procesado; los valores por debajo de 1,0 indican operación más rápida que en tiempo real, esencial para ASR y TTS en streaming.",
        zh = "语音系统的延迟指标,定义为处理时间与所处理音频时长之比;小于 1.0 表示快于实时运行,对流式 ASR 和 TTS 至关重要。",
        term_es = "factor de tiempo real",
        term_zh = "实时率",
        aliases_es = { "RTF", "real-time factor" },
        aliases_zh = { "RTF", "实时因子", "real-time factor" },
    }
    
    data["realistic counterfactual"] = {
        short = "A counterfactual explanation that lies on or near the data manifold — i.e., resembles a plausible real example — instead of being an arbitrary point in input space that merely flips the prediction.",
        article = nil,
        aliases = { "plausible counterfactual", "in-distribution counterfactual", "data-manifold counterfactual" },
        es = "Explicación contrafactual que se sitúa sobre o cerca de la variedad de los datos — es decir, que se asemeja a un ejemplo real plausible — en lugar de ser un punto arbitrario en el espacio de entrada que simplemente invierte la predicción.",
        zh = "位于或接近数据流形上的反事实解释——即与某个真实可信的样本相似——而非仅仅在输入空间中翻转预测的任意一点。",
        term_es = "contrafactual realista",
        term_zh = "真实化反事实",
        aliases_es = { "contrafactual plausible", "contrafactual en distribución", "contrafactual sobre la variedad de datos" },
        aliases_zh = { "可信反事实", "分布内反事实", "数据流形反事实" },
    }
    
    data["realworldqa"] = {
        short = "A visual question-answering benchmark released by xAI in 2024 that probes spatial understanding and physical-world reasoning of multimodal models using approximately 700 real-world photos with multiple-choice questions.",
        article = nil,
        aliases = { "RealWorldQA", "Real World QA", "RWQA" },
        es = "Benchmark de preguntas y respuestas visuales publicado por xAI en 2024 que evalúa la comprensión espacial y el razonamiento sobre el mundo físico en modelos multimodales usando unas 700 fotografías reales con preguntas de opción múltiple.",
        zh = "由 xAI 于 2024 年发布的视觉问答基准,使用约 700 张真实场景照片配以多项选择题,用于测评多模态模型的空间理解与物理世界推理能力。",
        term_es = "RealWorldQA",
        term_zh = "RealWorldQA",
        aliases_es = { "Real World QA" },
        aliases_zh = { "真实世界问答", "RWQA" },
    }
    
    data["reaxys"] = {
        short = "A commercial chemistry database from Elsevier covering substances, reactions, and physicochemical properties drawn from journal and patent literature, widely used for synthesis planning and chemical information retrieval.",
        article = nil,
        aliases = { "Reaxys", "Reaxys database" },
        es = "Base de datos química comercial de Elsevier que cubre sustancias, reacciones y propiedades fisicoquímicas extraídas de la literatura de revistas y patentes, ampliamente usada para la planificación de síntesis y la recuperación de información química.",
        zh = "由爱思唯尔提供的商业化学数据库,涵盖来自期刊和专利文献的物质、反应及物理化学性质,广泛用于合成规划与化学信息检索。",
        term_es = "Reaxys",
        term_zh = "Reaxys",
        aliases_es = { "base de datos Reaxys" },
        aliases_zh = { "Reaxys 数据库" },
    }
    
    data["recalibration"] = {
        short = "Post-hoc adjustment of a probabilistic model's outputs — for example via temperature scaling, Platt scaling, or isotonic regression — so that predicted probabilities match empirical frequencies on held-out data.",
        article = nil,
        aliases = { "post-hoc calibration", "probability recalibration" },
        es = "Ajuste posterior de las salidas de un modelo probabilístico — por ejemplo, mediante temperature scaling, escalado de Platt o regresión isotónica — para que las probabilidades predichas coincidan con las frecuencias empíricas en datos de validación.",
        zh = "对概率模型输出的事后调整,例如温度缩放、Platt 缩放或等距回归,使预测概率在留出数据上与经验频率相匹配。",
        term_es = "recalibración",
        term_zh = "重校准",
        aliases_es = { "calibración posterior", "calibración post-hoc" },
        aliases_zh = { "再校准", "事后校准", "概率重校准" },
    }
    
    data["recall"] = {
        short = "Fraction of actual positives correctly identified by a classifier, TP/(TP+FN). Equivalent to sensitivity and the true positive rate. Measures coverage of the positive class.",
        article = nil,
        aliases = { "sensitivity", "true positive rate", "TPR", "hit rate" },
        es = "Fracción de positivos reales correctamente identificados por un clasificador, TP/(TP+FN). Equivale a la sensibilidad y a la tasa de verdaderos positivos. Mide la cobertura de la clase positiva.",
        zh = "分类器正确识别的真实正样本所占比例,TP/(TP+FN)。等价于敏感度和真阳性率,衡量对正类的覆盖能力。",
        term_es = "exhaustividad",
        term_zh = "召回率",
        aliases_es = { "sensibilidad", "tasa de verdaderos positivos", "recall", "TPR" },
        aliases_zh = { "查全率", "敏感度", "真阳性率", "recall" },
    }
    
    data["recall bias"] = {
        short = "A systematic error arising when annotators or survey respondents misremember or selectively recall events, producing label noise that may correlate with group membership and bias downstream models.",
        article = nil,
        aliases = { "memory bias", "recall error", "retrospective recall bias" },
        es = "Error sistemático que surge cuando anotadores o encuestados recuerdan los eventos de forma incorrecta o selectiva, produciendo ruido en las etiquetas que puede correlacionarse con la pertenencia a un grupo y sesgar los modelos posteriores.",
        zh = "系统性误差,源于标注者或调查对象对事件的回忆错误或选择性回忆,导致标签噪声,并可能与群体身份相关,从而使下游模型产生偏差。",
        term_es = "sesgo de recuerdo",
        term_zh = "回忆偏倚",
        aliases_es = { "sesgo de memoria", "error de recuerdo", "sesgo de recuerdo retrospectivo" },
        aliases_zh = { "回忆偏差", "记忆偏倚", "回顾性回忆偏倚" },
    }
    
    data["recall@k multimodal"] = {
        short = "A retrieval metric used in cross-modal retrieval (e.g., image-text matching) that measures the fraction of queries for which the correct match is among the top K retrieved items. Standard for evaluating image-text retrieval on COCO and Flickr30K.",
        article = nil,
        aliases = { "Recall@K multimodal", "R@K", "recall at k", "cross-modal recall@K", "image-text recall@K" },
        es = "Métrica de recuperación usada en recuperación cruzada de modalidades (por ejemplo, emparejamiento imagen-texto) que mide la fracción de consultas para las que el resultado correcto aparece entre los K elementos mejor clasificados. Es estándar para evaluar recuperación imagen-texto en COCO y Flickr30K.",
        zh = "在跨模态检索(如图文匹配)中使用的检索指标,衡量正确匹配出现在前 K 个检索结果中的查询比例,是 COCO、Flickr30K 等图文检索任务的标准评估指标。",
        term_es = "Recall@K multimodal",
        term_zh = "多模态 Recall@K",
        aliases_es = { "R@K", "recall en K", "recall@K cruzado" },
        aliases_zh = { "R@K", "Recall@K", "图文检索 Recall@K" },
    }
    
    data["receptive field"] = {
        short = "The region of the input image that contributes to a particular activation in a deeper layer of a convolutional network. Determined by the kernel sizes, strides, and dilations of preceding layers.",
        article = nil,
        aliases = { "RF", "theoretical receptive field" },
        es = "Región de la imagen de entrada que contribuye a una activación particular en una capa más profunda de una red convolucional. Está determinada por los tamaños de núcleo, los strides y las dilataciones de las capas precedentes.",
        zh = "卷积神经网络深层中某个激活所对应的输入图像区域。由前面各层的核大小、步长和膨胀率决定。",
        term_es = "campo receptivo",
        term_zh = "感受野",
        aliases_es = { "RF", "campo de recepción" },
        aliases_zh = { "receptive field", "理论感受野" },
    }
    
    data["recidivism risk assessment"] = {
        short = "Use of statistical or machine-learning models to predict the likelihood that a previously convicted individual will reoffend. A high-profile fairness application due to documented racial disparities in tools such as COMPAS.",
        article = nil,
        aliases = { "recidivism prediction", "criminal risk assessment", "reoffense risk scoring", "COMPAS-style risk assessment" },
        es = "Uso de modelos estadísticos o de aprendizaje automático para predecir la probabilidad de que una persona previamente condenada vuelva a delinquir. Es una aplicación destacada en debates de equidad debido a las disparidades raciales documentadas en herramientas como COMPAS.",
        zh = "利用统计或机器学习模型预测曾被定罪者再次犯罪的可能性。由于 COMPAS 等工具中已记录的种族差异,该应用在公平性讨论中颇受关注。",
        term_es = "evaluación del riesgo de reincidencia",
        term_zh = "再犯风险评估",
        aliases_es = { "predicción de reincidencia", "evaluación de riesgo penal", "puntuación de riesgo de reincidencia" },
        aliases_zh = { "再犯预测", "刑事风险评估", "类 COMPAS 风险评估" },
    }
    
    data["reclor"] = {
        short = "ReClor: a reading-comprehension dataset of logical-reasoning questions drawn from standardized graduate admission tests (GMAT, LSAT). Splits include an easy and a held-out hard subset designed to defeat surface-pattern shortcuts.",
        article = nil,
        aliases = { "ReClor", "ReClor dataset", "ReClor benchmark", "Reading Comprehension Logical Reasoning" },
        es = "ReClor: conjunto de datos de comprensión lectora con preguntas de razonamiento lógico extraídas de exámenes estandarizados de admisión a posgrado (GMAT, LSAT). Incluye un subconjunto fácil y otro difícil diseñado para frustrar atajos basados en patrones superficiales.",
        zh = "ReClor:一个阅读理解数据集,问题取自 GMAT、LSAT 等标准化研究生入学考试中的逻辑推理题,分为易子集和精心设计的难子集,以避免模型利用表层模式作弊。",
        term_es = "ReClor",
        term_zh = "ReClor",
        aliases_es = { "conjunto ReClor", "benchmark ReClor" },
        aliases_zh = { "ReClor 数据集", "ReClor 基准" },
    }
    
    data["recombination rate"] = {
        short = "The frequency of meiotic crossover events per unit physical or genetic distance along a chromosome, typically measured in centimorgans per megabase.",
        article = nil,
        aliases = { "recombination frequency", "crossover rate" },
        es = "Frecuencia de eventos de entrecruzamiento meiótico por unidad de distancia física o genética a lo largo de un cromosoma, normalmente medida en centimorgans por megabase.",
        zh = "染色体上单位物理或遗传距离内减数分裂交叉事件发生的频率,通常以 cM/Mb 为单位度量。",
        term_es = "tasa de recombinación",
        term_zh = "重组率",
        aliases_es = { "frecuencia de recombinación", "tasa de entrecruzamiento" },
        aliases_zh = { "重组频率", "交换率" },
    }
    
    data["recommendation fairness"] = {
        short = "Fairness goals and metrics applied to recommender systems, addressing disparities in exposure, utility, or representation between user demographic groups, content creators, or item providers.",
        article = nil,
        aliases = { "fair recommendation", "fairness in recommender systems", "fairness in recommendation", "fair recommender systems" },
        es = "Objetivos y métricas de equidad aplicadas a los sistemas de recomendación, que abordan disparidades en exposición, utilidad o representación entre grupos demográficos de usuarios, creadores de contenido o proveedores de ítems.",
        zh = "应用于推荐系统的公平性目标与指标,处理用户人口群体、内容创作者或物品提供方之间在曝光、效用或代表性上的差异。",
        term_es = "equidad en recomendaciones",
        term_zh = "推荐公平性",
        aliases_es = { "recomendación justa", "equidad en sistemas de recomendación" },
        aliases_zh = { "公平推荐", "推荐系统公平性", "公平推荐系统" },
    }
    
    data["recommender system"] = {
        short = "A system that predicts user preferences over items, typically via collaborative filtering, content-based methods, or hybrid deep models.",
        article = "Wide & Deep Learning for Recommender Systems",
        aliases = { "recommender systems", "recommendation system", "recommendation systems" },
        es = "Sistema que predice las preferencias del usuario sobre elementos, típicamente mediante filtrado colaborativo, métodos basados en contenido o modelos híbridos profundos.",
        zh = "预测用户对项目偏好的系统,通常通过协同过滤、基于内容的方法或混合深度模型实现。",
        term_es = "sistema de recomendación",
        term_zh = "推荐系统",
        aliases_es = { "sistemas de recomendación" },
        aliases_zh = {},
    }
    
    data["reconstruction attack federated"] = {
        short = "A privacy attack against federated learning in which an adversary, given access to client gradients or model updates, reconstructs raw training inputs (such as images or text) by inverting the gradient computation. Mitigated by secure aggregation or differential privacy.",
        article = nil,
        aliases = { "gradient reconstruction attack", "input reconstruction attack", "deep leakage from gradients", "DLG attack" },
        es = "Ataque de privacidad contra el aprendizaje federado en el que un adversario, con acceso a los gradientes o actualizaciones de los clientes, reconstruye las entradas de entrenamiento brutas (imágenes, texto) invirtiendo el cálculo del gradiente. Se mitiga mediante agregación segura o privacidad diferencial.",
        zh = "一种针对联邦学习的隐私攻击:攻击者获取客户端的梯度或模型更新后,通过反推梯度计算重建原始训练输入(如图像、文本)。可通过安全聚合或差分隐私进行缓解。",
        term_es = "ataque de reconstrucción en aprendizaje federado",
        term_zh = "联邦学习重构攻击",
        aliases_es = { "ataque de reconstrucción de gradientes", "ataque de reconstrucción de entradas", "ataque DLG" },
        aliases_zh = { "梯度重构攻击", "输入重构攻击", "DLG 攻击", "梯度深度泄露" },
    }
    
    data["reconstruction loss"] = {
        short = "A loss measuring the discrepancy between an input signal and a model's reconstruction of it, typically using L1, L2, or cross-entropy. Central to autoencoders, VAEs, and image inpainting models.",
        article = nil,
        aliases = { "reconstruction error", "reconstruction objective", "recon loss" },
        es = "Pérdida que mide la discrepancia entre una señal de entrada y la reconstrucción producida por el modelo, normalmente con L1, L2 o entropía cruzada. Central en autocodificadores, VAEs y modelos de inpainting.",
        zh = "衡量输入信号与模型重建结果之间差异的损失,通常使用 L1、L2 或交叉熵。是自编码器、VAE 和图像修复模型的核心组件。",
        term_es = "pérdida de reconstrucción",
        term_zh = "重建损失",
        aliases_es = { "error de reconstrucción", "objetivo de reconstrucción" },
        aliases_zh = { "重构损失", "重建误差" },
    }
    
    data["record-level differential privacy"] = {
        short = "A standard granularity of differential privacy in which neighboring datasets differ in a single record (one row), so the guarantee bounds the influence of any one record on the released output. Contrasts with user-level DP, which bounds the influence of all records belonging to the same user.",
        article = nil,
        aliases = { "example-level differential privacy", "example-level DP", "record-level DP", "row-level DP" },
        es = "Granularidad estándar de la privacidad diferencial en la que dos conjuntos de datos vecinos se diferencian en un único registro (una fila), de modo que la garantía limita la influencia de cualquier registro sobre la salida publicada. Se contrasta con la DP a nivel de usuario, que limita la influencia de todos los registros de un mismo usuario.",
        zh = "差分隐私的一种标准粒度:相邻数据集仅相差一条记录(一行),保证限制任意单条记录对发布结果的影响。它与用户级 DP 相对,后者限制同一用户所有记录的总体影响。",
        term_es = "privacidad diferencial a nivel de registro",
        term_zh = "记录级差分隐私",
        aliases_es = { "DP a nivel de registro", "DP a nivel de ejemplo", "privacidad diferencial a nivel de fila" },
        aliases_zh = { "记录级 DP", "样本级差分隐私", "样本级 DP", "行级差分隐私" },
    }
    
    data["recourse cost"] = {
        short = "In algorithmic recourse, the effort or expense — measured under a feature-wise distance or domain-specific cost function — required for an individual to change input features so that a model's adverse decision flips.",
        article = nil,
        aliases = { "cost of recourse", "recourse effort", "actionable recourse cost" },
        es = "En el recurso algorítmico, el esfuerzo o coste — medido mediante una distancia por característica o una función de coste específica del dominio — que un individuo debe asumir para modificar atributos de entrada y revertir una decisión adversa del modelo.",
        zh = "在算法补救(algorithmic recourse)中,个体为修改输入特征以推翻模型不利决策所需付出的代价,通常通过逐特征的距离或特定领域的成本函数来度量。",
        term_es = "coste de recurso",
        term_zh = "补救成本",
        aliases_es = { "costo de recurso", "esfuerzo de recurso", "coste de recourse" },
        aliases_zh = { "recourse成本", "可行补救成本", "recourse代价" },
    }
    
    data["recourse feasibility"] = {
        short = "Whether the changes prescribed by an algorithmic recourse explanation are actually achievable for the affected individual, given immutable attributes (e.g., age, race) and real-world constraints on actionable features.",
        article = nil,
        aliases = { "feasibility of recourse", "actionability of recourse", "feasible recourse" },
        es = "Indica si los cambios prescritos por una explicación de recurso algorítmico son realmente alcanzables para la persona afectada, considerando atributos inmutables (por ejemplo, edad o raza) y las restricciones reales sobre las características accionables.",
        zh = "考虑到不可改变的属性(如年龄、种族)以及现实中对可行特征的约束,由算法补救解释所提出的改动是否对相关个体在实际中可达成。",
        term_es = "factibilidad de recurso",
        term_zh = "补救可行性",
        aliases_es = { "viabilidad de recurso", "accionabilidad de recurso", "recurso factible" },
        aliases_zh = { "recourse可行性", "可达成补救", "recourse可达性" },
    }
    
    data["recourse robustness"] = {
        short = "The property that prescribed algorithmic recourse remains valid — i.e., still flips the model's decision — under perturbations such as model retraining, distribution shift, or small implementation errors by the user.",
        article = nil,
        aliases = { "robust recourse", "robustness of recourse", "recourse stability" },
        es = "Propiedad por la cual el recurso algorítmico prescrito sigue siendo válido — es decir, sigue invirtiendo la decisión del modelo — frente a perturbaciones como el reentrenamiento del modelo, cambios de distribución o pequeños errores de implementación por parte del usuario.",
        zh = "指算法补救方案在面对模型重训练、分布偏移或用户在执行时的小幅误差等扰动后,仍然有效(即仍能翻转模型决策)的性质。",
        term_es = "robustez del recurso",
        term_zh = "补救鲁棒性",
        aliases_es = { "recurso robusto", "estabilidad del recurso", "robustez de recourse" },
        aliases_zh = { "鲁棒补救", "recourse鲁棒性", "补救稳定性" },
    }
    
    data["recraft v3"] = {
        short = "A 2024 text-to-image model from Recraft optimized for design workflows, with controllable styles, accurate typography rendering, and native vector (SVG) output support.",
        article = nil,
        aliases = { "Recraft V3", "Recraft v3", "Recraft-V3" },
        es = "Modelo de texto a imagen de Recraft lanzado en 2024, optimizado para flujos de trabajo de diseño, con estilos controlables, renderizado preciso de tipografía y soporte nativo para salida vectorial (SVG).",
        zh = "Recraft 于 2024 年推出的文生图模型,面向设计工作流进行优化,支持可控风格、精确的排版文字渲染以及原生矢量(SVG)输出。",
        term_es = "Recraft V3",
        term_zh = "Recraft V3",
        aliases_es = { "Recraft v3" },
        aliases_zh = { "Recraft v3" },
    }
    
    data["rectified flow"] = {
        short = "A generative modeling framework that learns a vector field producing straight-line probability flow between a noise distribution and the data distribution, allowing fast ODE-based sampling and iterative reflow procedures to further straighten trajectories.",
        article = nil,
        aliases = { "Rectified Flow", "RF", "reflow", "rectified flows" },
        es = "Marco de modelado generativo que aprende un campo vectorial que produce un flujo de probabilidad rectilíneo entre una distribución de ruido y la distribución de datos, permitiendo muestreo rápido basado en EDO y procedimientos iterativos de reflow para enderezar aún más las trayectorias.",
        zh = "一种生成建模框架,学习在噪声分布和数据分布之间产生直线概率流的向量场,支持基于 ODE 的快速采样以及通过迭代 reflow 过程进一步拉直轨迹。",
        term_es = "flujo rectificado",
        term_zh = "整流流",
        aliases_es = { "Rectified Flow", "RF", "flujos rectificados", "reflow" },
        aliases_zh = { "Rectified Flow", "RF", "reflow", "整流流模型" },
    }
    
    data["recurrent nas controller"] = {
        short = "An RNN-based controller that sequentially samples architectural decisions (operations, connections) and is trained with reinforcement learning to maximize child-model accuracy, as introduced by Zoph and Le (2017).",
        article = nil,
        aliases = { "RNN controller", "recurrent controller", "LSTM controller", "NAS controller" },
        es = "Controlador basado en una RNN que muestrea secuencialmente decisiones arquitectónicas y se entrena con aprendizaje por refuerzo para maximizar la precisión del modelo hijo, propuesto por Zoph y Le (2017).",
        zh = "基于循环神经网络的控制器,顺序采样架构决策(操作、连接),并通过强化学习训练以最大化子模型精度,由 Zoph 和 Le(2017)提出。",
        term_es = "controlador NAS recurrente",
        term_zh = "循环 NAS 控制器",
        aliases_es = { "controlador RNN", "controlador LSTM", "controlador recurrente" },
        aliases_zh = { "RNN 控制器", "LSTM 控制器", "递归控制器" },
    }
    
    data["recurrent neural network"] = {
        short = "A neural network with feedback connections that processes sequences by maintaining a hidden state updated at each time step, enabling modeling of temporal dependencies.",
        article = "Recurrent Neural Networks",
        aliases = { "RNN", "recurrent network", "recurrent net" },
        es = "Red neuronal con conexiones de realimentación que procesa secuencias manteniendo un estado oculto actualizado en cada paso temporal, permitiendo modelar dependencias temporales.",
        zh = "一种具有反馈连接的神经网络,通过在每个时间步更新隐藏状态来处理序列,从而建模时间依赖关系。",
        term_es = "red neuronal recurrente",
        term_zh = "循环神经网络",
        aliases_es = { "RNN", "red recurrente" },
        aliases_zh = { "RNN", "递归神经网络", "循环网络" },
    }
    
    data["recurrent state space model"] = {
        short = "A latent dynamics model that combines deterministic recurrent and stochastic latent components to model sequential observations, used in model-based reinforcement learning agents such as Dreamer.",
        article = nil,
        aliases = { "RSSM", "Recurrent State Space Model", "recurrent state-space model" },
        es = "Modelo de dinámica latente que combina componentes recurrentes determinísticos con componentes latentes estocásticos para modelar observaciones secuenciales, utilizado en agentes de aprendizaje por refuerzo basados en modelo como Dreamer.",
        zh = "一种潜动力学模型,将确定性循环组件与随机潜在组件相结合以建模序列观测,常用于 Dreamer 等基于模型的强化学习智能体。",
        term_es = "RSSM",
        term_zh = "循环状态空间模型",
        aliases_es = { "RSSM", "modelo de espacio de estados recurrente" },
        aliases_zh = { "RSSM", "循环状态空间模型", "递归状态空间模型" },
    }
    
    data["recursive chunking"] = {
        short = "A text chunking strategy that recursively splits a document along a prioritized list of separators (e.g., paragraph, sentence, word) until each chunk satisfies a target size limit.",
        article = nil,
        aliases = { "recursive text splitting", "recursive character splitting", "recursive splitter" },
        es = "Estrategia de segmentación de texto que divide recursivamente un documento siguiendo una lista priorizada de separadores (por ejemplo, párrafo, oración, palabra) hasta que cada fragmento cumple un límite de tamaño objetivo.",
        zh = "一种文本分块策略,按优先级使用一组分隔符(如段落、句子、词)递归地切分文档,直到每个分块满足目标大小限制。",
        term_es = "fragmentación recursiva",
        term_zh = "递归分块",
        aliases_es = { "división recursiva de texto", "splitter recursivo" },
        aliases_zh = { "递归切分", "递归文本切分" },
    }
    
    data["recursive halving and doubling"] = {
        short = "A pair of bandwidth-optimal collective communication algorithms used inside all-reduce: in the recursive halving phase nodes split and exchange halves of their vectors with progressively distant partners, then in the recursive doubling phase they reassemble the full reduced vector.",
        article = nil,
        aliases = { "recursive halving-doubling", "Rabenseifner algorithm", "halving-doubling all-reduce" },
        es = "Par de algoritmos de comunicación colectiva con ancho de banda óptimo usados dentro de all-reduce: en la fase de halving recursivo los nodos dividen e intercambian mitades de sus vectores con compañeros progresivamente más lejanos, y en la fase de doubling recursivo ensamblan el vector reducido completo.",
        zh = "用于 all-reduce 的一对带宽最优集合通信算法:在递归减半阶段,各节点将向量切分并与逐渐更远的伙伴交换一半数据;在递归加倍阶段,再将完整的归约向量重新组装。",
        term_es = "halving y doubling recursivos",
        term_zh = "递归减半与加倍",
        aliases_es = { "halving-doubling recursivo", "algoritmo de Rabenseifner", "all-reduce halving-doubling" },
        aliases_zh = { "递归减半-加倍", "Rabenseifner 算法", "halving-doubling all-reduce" },
    }
    
    data["recursive neural network"] = {
        short = "A neural network that recursively applies the same composition function over a tree-structured input, producing a vector representation at the root. Distinct from recurrent networks; widely used for syntactic parsing and compositional sentiment analysis.",
        article = nil,
        aliases = { "RecNN", "RvNN", "recursive neural net", "tree recursive neural network", "tree-structured neural network" },
        es = "Red neuronal que aplica recursivamente la misma función de composición sobre una entrada con estructura de árbol, produciendo una representación vectorial en la raíz. Es distinta de las redes recurrentes y se emplea ampliamente para análisis sintáctico y análisis composicional de sentimiento.",
        zh = "一种神经网络,对具有树结构的输入递归地应用同一组合函数,并在根节点生成向量表示。与循环神经网络不同,广泛用于句法分析和组合式情感分析。",
        term_es = "red neuronal recursiva",
        term_zh = "递归神经网络",
        aliases_es = { "RecNN", "red recursiva", "red neuronal con estructura de árbol" },
        aliases_zh = { "递归神经网", "树形递归神经网络", "RecNN" },
    }
    
    data["recursive structural equation model"] = {
        short = "A structural equation model whose causal directed graph is acyclic, so each variable depends only on previously determined variables and an exogenous error. Recursivity allows likelihoods to factorize and ordinary least squares to deliver consistent equation-by-equation estimates.",
        article = nil,
        aliases = { "Recursive Structural Equation Model", "recursive SEM", "recursive system of equations", "triangular SEM", "acyclic SEM" },
        es = "Modelo de ecuaciones estructurales cuyo grafo causal dirigido es acíclico, de modo que cada variable depende solo de variables previamente determinadas y de un error exógeno. La recursividad permite factorizar la verosimilitud y que mínimos cuadrados ordinarios arroje estimaciones consistentes ecuación por ecuación.",
        zh = "因果有向图为无环的结构方程模型,每个变量仅依赖于已确定的前驱变量和一个外生误差。递归性使似然能够分解,并使最小二乘逐方程地给出一致估计。",
        term_es = "modelo recursivo de ecuaciones estructurales",
        term_zh = "递归结构方程模型",
        aliases_es = { "SEM recursivo", "sistema recursivo de ecuaciones", "modelo triangular de ecuaciones" },
        aliases_zh = { "递归 SEM", "无环 SEM", "三角结构方程模型" },
    }
    
    data["red teaming"] = {
        short = "Adversarial probing of an AI system to elicit harmful, unsafe, or policy-violating outputs and to discover failure modes before deployment, performed by humans, automated attackers, or both.",
        article = nil,
        aliases = { "red-teaming", "AI red teaming", "red team" },
        es = "Sondeo adversarial de un sistema de IA con el objetivo de provocar respuestas dañinas, inseguras o que violen las políticas, y descubrir modos de fallo antes del despliegue, realizado por humanos, atacantes automatizados o ambos.",
        zh = "对人工智能系统进行对抗性探测,以诱发有害、不安全或违反政策的输出,并在部署前发现故障模式;可由人工、自动攻击者或两者结合执行。",
        term_es = "red teaming",
        term_zh = "红队测试",
        aliases_es = { "equipo rojo", "pruebas de equipo rojo" },
        aliases_zh = { "红队", "AI 红队", "红队演练" },
    }
    
    data["red teaming for fairness"] = {
        short = "An adversarial evaluation practice in which testers actively probe an AI system for biased or discriminatory behavior, failure modes, and harms affecting protected groups, by analogy with security red teaming.",
        article = nil,
        aliases = { "fairness red teaming", "bias red teaming", "fairness adversarial testing", "red-teaming for bias" },
        es = "Práctica de evaluación adversarial en la que los evaluadores sondean activamente un sistema de IA en busca de comportamientos sesgados o discriminatorios, modos de fallo y daños que afecten a grupos protegidos, por analogía con el red teaming de seguridad.",
        zh = "一种对抗性评估方法,类比于安全红队,测试者主动探查人工智能系统是否存在偏见或歧视性行为、失效模式以及对受保护群体的危害。",
        term_es = "red teaming para equidad",
        term_zh = "公平性红队测试",
        aliases_es = { "red teaming de equidad", "red teaming de sesgo", "pruebas adversariales de equidad" },
        aliases_zh = { "偏见红队", "公平性对抗测试", "针对偏见的红队测试" },
    }
    
    data["redcaps"] = {
        short = "A web-scale image-text dataset of 12 million Reddit image-caption pairs released by University of Michigan researchers in 2021, sourced from manually curated subreddits and used for vision-language pretraining.",
        article = nil,
        aliases = { "RedCaps", "Red Caps", "RedCaps12M" },
        es = "Conjunto de datos imagen-texto a gran escala compuesto por 12 millones de pares de Reddit, publicado por investigadores de la Universidad de Michigan en 2021, extraído de subreddits seleccionados manualmente y utilizado para preentrenamiento visión-lenguaje.",
        zh = "由密歇根大学研究人员于 2021 年发布的网络规模图文数据集,包含从人工筛选的 subreddit 中收集的 1200 万对 Reddit 图像-描述,用于视觉-语言预训练。",
        term_es = "RedCaps",
        term_zh = "RedCaps",
        aliases_es = { "Red Caps" },
        aliases_zh = { "Red Caps", "RedCaps12M" },
    }
    
    data["redlining"] = {
        short = "Originally, the discriminatory practice of denying loans, insurance, or services to residents of certain neighborhoods based on racial or ethnic composition. In machine learning, it refers to algorithms that replicate this pattern via geographic or correlated features.",
        article = nil,
        aliases = { "algorithmic redlining", "digital redlining", "geographic redlining" },
        es = "En su origen, la práctica discriminatoria de denegar préstamos, seguros o servicios a residentes de ciertos vecindarios según su composición racial o étnica. En aprendizaje automático, designa algoritmos que reproducen este patrón mediante características geográficas o correlacionadas.",
        zh = "本指根据居住区族裔构成而拒绝向特定社区居民提供贷款、保险或服务的歧视行为。在机器学习中,指算法通过地理或相关特征重现这一模式的现象。",
        term_es = "redlining",
        term_zh = "红线划定",
        aliases_es = { "redlining algorítmico", "redlining digital", "redlining geográfico" },
        aliases_zh = { "算法红线", "数字红线", "地理红线划定" },
    }
    
    data["redpajama"] = {
        short = "An open reproduction of the LLaMA pre-training corpus released by Together AI, comprising over 1.2 trillion tokens drawn from CommonCrawl, C4, GitHub, Books, ArXiv, Wikipedia, and StackExchange.",
        article = nil,
        aliases = { "RedPajama", "RedPajama-Data", "RedPajama dataset" },
        es = "Reproducción abierta del corpus de preentrenamiento de LLaMA publicada por Together AI, que comprende más de 1,2 billones de tokens procedentes de CommonCrawl, C4, GitHub, Books, ArXiv, Wikipedia y StackExchange.",
        zh = "由 Together AI 发布的 LLaMA 预训练语料的开源复现,包含超过 1.2 万亿 token,来源涵盖 CommonCrawl、C4、GitHub、书籍、ArXiv、维基百科和 StackExchange。",
        term_es = "RedPajama",
        term_zh = "RedPajama",
        aliases_es = { "RedPajama-Data", "conjunto de datos RedPajama" },
        aliases_zh = { "RedPajama 数据集", "RedPajama-Data" },
    }
    
    data["reduce-scatter operation"] = {
        short = "A collective communication primitive in which each process contributes a vector, and the elementwise reduction (typically sum) is split into equal chunks distributed across processes — equivalent to an all-reduce followed by a scatter, but implementable more efficiently.",
        article = nil,
        aliases = { "reduce-scatter", "MPI_Reduce_scatter", "reduce_scatter collective" },
        es = "Primitiva de comunicación colectiva en la que cada proceso aporta un vector y la reducción por elementos (normalmente suma) se divide en fragmentos iguales repartidos entre los procesos: equivale a un all-reduce seguido de un scatter, pero puede implementarse de forma más eficiente.",
        zh = "一种集合通信原语:每个进程贡献一个向量,按元素归约(通常为求和)的结果被切分成等长块并分发到各进程;等价于 all-reduce 后接 scatter,但可更高效地实现。",
        term_es = "operación reduce-scatter",
        term_zh = "reduce-scatter 操作",
        aliases_es = { "reduce-scatter", "MPI_Reduce_scatter", "colectiva reduce_scatter" },
        aliases_zh = { "reduce-scatter", "MPI_Reduce_scatter", "归约-分发", "reduce_scatter 集合" },
    }
    
    data["reduction cell"] = {
        short = "In cell-based neural architecture search (NASNet, DARTS), a cell that applies stride-2 operations to halve spatial resolution and typically double the channel count, alternating with normal cells in the macro-architecture.",
        article = nil,
        aliases = { "reduction cells", "downsampling cell" },
        es = "En búsqueda de arquitecturas neuronales basada en celdas (NASNet, DARTS), celda que aplica operaciones con paso 2 para reducir a la mitad la resolución espacial y típicamente duplicar los canales, alternándose con celdas normales en la macro-arquitectura.",
        zh = "在基于单元的神经架构搜索(NASNet、DARTS)中,使用步幅为 2 的操作将空间分辨率减半并通常将通道数翻倍的单元,在宏观架构中与正常单元交替排列。",
        term_es = "celda de reducción",
        term_zh = "降采样单元",
        aliases_es = { "celdas de reducción", "celda de submuestreo" },
        aliases_zh = { "缩减单元", "下采样单元", "reduction cell" },
    }
    
    data["reduction factor"] = {
        short = "In successive halving and Hyperband, the integer factor (commonly denoted η) by which the number of surviving configurations is divided and the per-configuration budget is multiplied at each elimination round.",
        article = nil,
        aliases = { "eta", "η", "halving factor", "elimination factor" },
        es = "En halving sucesivo y Hyperband, factor entero (habitualmente denotado η) por el que se divide el número de configuraciones supervivientes y se multiplica el presupuesto por configuración en cada ronda de eliminación.",
        zh = "在逐次减半和 Hyperband 中,每轮淘汰时用于划分存活配置数量并乘以每配置预算的整数因子(通常记作 η)。",
        term_es = "factor de reducción",
        term_zh = "缩减因子",
        aliases_es = { "eta", "η", "factor de halving" },
        aliases_zh = { "η", "减半因子", "淘汰因子" },
    }
    
    data["redundant gradient coding"] = {
        short = "A coded-computing scheme for distributed training that assigns each gradient computation to several workers using an erasure code, so the parameter server can recover the exact aggregate gradient even when some workers are slow (stragglers) or fail.",
        article = nil,
        aliases = { "gradient coding", "coded gradient computation", "redundant gradient computation", "straggler-resilient gradient coding" },
        es = "Esquema de cómputo codificado para entrenamiento distribuido que asigna cada cómputo de gradiente a varios trabajadores mediante un código de borrado, de modo que el servidor de parámetros puede recuperar el gradiente agregado exacto incluso cuando algunos trabajadores son lentos (rezagados) o fallan.",
        zh = "一种面向分布式训练的编码计算方案:通过擦除码将每个梯度计算分配给多个工作节点,使参数服务器即使在部分节点缓慢(落后者)或失效时仍能恢复精确的聚合梯度。",
        term_es = "codificación redundante de gradientes",
        term_zh = "冗余梯度编码",
        aliases_es = { "codificación de gradientes", "cómputo de gradientes codificado", "cómputo redundante de gradientes", "codificación de gradientes resistente a rezagados" },
        aliases_zh = { "梯度编码", "编码梯度计算", "冗余梯度计算", "抗落后者梯度编码" },
    }
    
    data["refcoco"] = {
        short = "A referring expression dataset built on MS-COCO images that contains short, often spatial natural-language phrases identifying a single object in each image. Standard benchmark for referring expression comprehension and segmentation.",
        article = nil,
        aliases = { "RefCOCO", "Ref-COCO", "refcoco dataset" },
        es = "Conjunto de datos de expresiones referenciales construido sobre las imágenes de MS-COCO que contiene frases cortas, a menudo espaciales, en lenguaje natural que identifican un único objeto en cada imagen. Benchmark estándar para la comprensión y segmentación referenciales.",
        zh = "基于 MS-COCO 图像构建的指代表达数据集,每张图配有简短、常含空间信息的自然语言短语以指明特定物体,是指代表达理解和分割的标准基准。",
        term_es = "RefCOCO",
        term_zh = "RefCOCO",
        aliases_es = { "Ref-COCO" },
        aliases_zh = { "Ref-COCO", "RefCOCO 数据集" },
    }
    
    data["refcoco+"] = {
        short = "A variant of RefCOCO in which referring expressions are restricted to exclude absolute spatial words (e.g., 'left', 'right'), forcing models to rely on appearance-based attributes for object grounding.",
        article = nil,
        aliases = { "RefCOCO+", "RefCOCOplus", "Ref-COCO+", "refcoco plus" },
        es = "Variante de RefCOCO en la que las expresiones referenciales no pueden contener palabras espaciales absolutas (por ejemplo, 'izquierda', 'derecha'), obligando al modelo a basarse en atributos de apariencia para localizar el objeto.",
        zh = "RefCOCO 的变体,禁止指代表达中出现绝对空间词(如 'left'、'right'),迫使模型依靠外观属性来完成物体定位。",
        term_es = "RefCOCO+",
        term_zh = "RefCOCO+",
        aliases_es = { "RefCOCO plus", "Ref-COCO+" },
        aliases_zh = { "RefCOCO Plus", "RefCOCO+ 数据集" },
    }
    
    data["refcocog"] = {
        short = "A referring-expression dataset over MS-COCO images, also called RefCOCO-Google, with longer and more descriptive sentences (averaging ~8 words) collected via a non-interactive game-style interface.",
        article = nil,
        aliases = { "RefCOCOg", "Ref-COCOg", "RefCOCO-Google", "Google RefCOCO" },
        es = "Conjunto de datos de expresiones referenciales sobre imágenes de MS-COCO, también llamado RefCOCO-Google, con frases más largas y descriptivas (alrededor de 8 palabras en promedio) recopiladas mediante una interfaz no interactiva tipo juego.",
        zh = "基于 MS-COCO 图像的指代表达数据集,又称 RefCOCO-Google,其表达更长、更具描述性(平均约 8 词),通过非交互式游戏界面收集。",
        term_es = "RefCOCOg",
        term_zh = "RefCOCOg",
        aliases_es = { "Ref-COCOg", "RefCOCO-Google" },
        aliases_zh = { "Ref-COCOg", "RefCOCO-Google" },
    }
    
    data["reference encoder tts"] = {
        short = "A TTS architecture component, popularized by Skerry-Ryan et al. (2018), that encodes a reference audio clip into a fixed-length embedding capturing prosody or style, which then conditions the TTS decoder for prosody/style transfer.",
        article = nil,
        aliases = { "reference encoder", "reference encoder for TTS", "prosody reference encoder" },
        es = "Componente de arquitectura TTS, popularizado por Skerry-Ryan et al. (2018), que codifica un fragmento de audio de referencia en un embedding de longitud fija que captura prosodia o estilo, condicionando luego al decodificador TTS para la transferencia de prosodia/estilo.",
        zh = "由 Skerry-Ryan 等(2018)推广的 TTS 架构组件,将参考音频片段编码为捕获韵律或风格的定长嵌入,并以此对 TTS 解码器进行条件化以实现韵律/风格迁移。",
        term_es = "codificador de referencia para TTS",
        term_zh = "参考编码器TTS",
        aliases_es = { "reference encoder", "codificador de referencia de prosodia" },
        aliases_zh = { "参考编码器", "TTS参考编码器", "韵律参考编码器" },
    }
    
    data["reference model"] = {
        short = "In RLHF and preference optimization (e.g., DPO, PPO), the frozen pre-alignment policy used as a baseline; the trained policy is constrained to remain close to it via a KL penalty.",
        article = nil,
        aliases = { "ref model", "frozen reference model", "reference policy", "ref policy" },
        es = "En RLHF y métodos de optimización por preferencias (por ejemplo, DPO, PPO), la política previa al alineamiento, congelada y usada como referencia; la política entrenada se restringe a mantenerse cerca de ella mediante una penalización KL.",
        zh = "在 RLHF 与偏好优化方法(如 DPO、PPO)中作为基线的、对齐前被冻结的策略;训练得到的新策略通过 KL 惩罚被约束在其附近。",
        term_es = "modelo de referencia",
        term_zh = "参考模型",
        aliases_es = { "política de referencia", "modelo de referencia congelado" },
        aliases_zh = { "参考策略", "冻结参考模型", "ref 模型" },
    }
    
    data["referit"] = {
        short = "An early referring-expression dataset (also called ReferItGame) of around 130,000 phrases over 20,000 ImageCLEF photographs, collected via a two-player game where one annotator describes a region for another to localize.",
        article = nil,
        aliases = { "ReferIt", "ReferItGame", "Refer-It", "ReferIt Game" },
        es = "Uno de los primeros conjuntos de datos de expresiones referenciales (también llamado ReferItGame) con unas 130 000 frases sobre 20 000 fotografías de ImageCLEF, recopilado mediante un juego de dos personas en el que un anotador describe una región para que otro la localice.",
        zh = "早期的指代表达数据集(又名 ReferItGame),包含针对 20 000 张 ImageCLEF 照片的约 13 万条表达,通过两人游戏方式收集:一名标注者描述区域,另一名根据描述定位。",
        term_es = "ReferIt",
        term_zh = "ReferIt",
        aliases_es = { "ReferItGame" },
        aliases_zh = { "ReferItGame", "Refer-It" },
    }
    
    data["referring expression comprehension"] = {
        short = "The task of localizing the specific object or region in an image that a natural-language phrase refers to, typically by predicting a bounding box. A core benchmark for grounded vision-language understanding.",
        article = nil,
        aliases = { "REC", "referring expression grounding", "phrase grounding", "referring object localization", "language-driven object grounding" },
        es = "Tarea consistente en localizar el objeto o región específica de una imagen a la que se refiere una frase en lenguaje natural, normalmente prediciendo una caja delimitadora. Es un benchmark central para la comprensión visión-lenguaje con anclaje.",
        zh = "根据自然语言短语在图像中定位其所指对象或区域的任务,通常通过预测边界框完成,是有锚定的视觉-语言理解的核心基准任务。",
        term_es = "comprensión de expresiones referenciales",
        term_zh = "指代表达理解",
        aliases_es = { "REC", "anclaje de frases", "localización referencial" },
        aliases_zh = { "REC", "短语定位", "指代理解", "指代物体定位" },
    }
    
    data["referring expression generation"] = {
        short = "The task of producing a natural-language phrase that uniquely identifies a target object in an image, given the image and the target region. The inverse of referring expression comprehension.",
        article = nil,
        aliases = { "REG", "referring expression production", "expression generation for grounding" },
        es = "Tarea consistente en producir una frase en lenguaje natural que identifique de forma única un objeto objetivo en una imagen, dadas la imagen y la región objetivo. Es el problema inverso a la comprensión de expresiones referenciales.",
        zh = "在给定图像和目标区域的条件下,生成能唯一指代该目标物体的自然语言短语的任务,是指代表达理解的逆问题。",
        term_es = "generación de expresiones referenciales",
        term_zh = "指代表达生成",
        aliases_es = { "REG", "producción de expresiones referenciales" },
        aliases_zh = { "REG", "指代生成" },
    }
    
    data["referring expression segmentation"] = {
        short = "The task of producing a pixel-level mask for the object or region in an image referred to by a natural-language phrase. Combines referring expression comprehension with semantic segmentation.",
        article = nil,
        aliases = { "RES", "language-guided segmentation", "referring image segmentation", "phrase-based segmentation", "referring segmentation" },
        es = "Tarea consistente en producir una máscara a nivel de píxel para el objeto o región de una imagen al que hace referencia una frase en lenguaje natural. Combina la comprensión referencial con la segmentación semántica.",
        zh = "根据自然语言短语为图像中所指对象或区域生成像素级掩码的任务,将指代表达理解与语义分割相结合。",
        term_es = "segmentación por expresión referencial",
        term_zh = "指代表达分割",
        aliases_es = { "RES", "segmentación guiada por lenguaje", "segmentación referencial" },
        aliases_zh = { "RES", "语言引导分割", "指代图像分割", "指代分割" },
    }
    
    data["refinedweb"] = {
        short = "A high-quality English web corpus released with the Falcon LLMs, derived from CommonCrawl through aggressive URL filtering, language identification, and exact and fuzzy deduplication, totaling roughly 5 trillion tokens.",
        article = nil,
        aliases = { "RefinedWeb", "Falcon RefinedWeb" },
        es = "Corpus web en inglés de alta calidad publicado junto con los LLM Falcon, derivado de CommonCrawl mediante filtrado agresivo de URL, identificación de idioma y deduplicación exacta y aproximada, con un total aproximado de 5 billones de tokens.",
        zh = "随 Falcon 系列大模型发布的高质量英文网页语料,基于 CommonCrawl 经过严格的 URL 过滤、语言识别以及精确与模糊去重处理,规模约为 5 万亿 token。",
        term_es = "RefinedWeb",
        term_zh = "RefinedWeb",
        aliases_es = { "Falcon RefinedWeb" },
        aliases_zh = { "Falcon RefinedWeb", "RefinedWeb 语料" },
    }
    
    data["reflexion"] = {
        short = "An LLM agent framework in which the model generates verbal self-reflections on failed attempts and stores them in an episodic memory buffer, conditioning subsequent trials to improve task success.",
        article = nil,
        aliases = { "Reflexion", "Reflexion agent", "verbal reinforcement learning" },
        es = "Marco de agentes basado en LLM en el que el modelo genera autorreflexiones verbales sobre intentos fallidos y las almacena en una memoria episódica, condicionando los siguientes intentos para mejorar el éxito en la tarea.",
        zh = "一种基于大语言模型的智能体框架:模型对失败的尝试生成口头化的自我反思,存入情节记忆缓冲区,并据此条件化后续尝试以提升任务成功率。",
        term_es = "Reflexion",
        term_zh = "Reflexion",
        aliases_es = { "agente Reflexion", "aprendizaje por refuerzo verbal" },
        aliases_zh = { "Reflexion 智能体", "口头强化学习", "言语反思" },
    }
    
    data["reformer"] = {
        short = "An efficient Transformer that uses locality-sensitive hashing to approximate attention and reversible residual layers to reduce memory, scaling to very long sequences.",
        article = nil,
        aliases = { "Reformer", "LSH attention", "Reformer Transformer" },
        es = "Transformer eficiente que emplea hashing sensible a la localidad para aproximar la atención y capas residuales reversibles para reducir la memoria, escalando a secuencias muy largas.",
        zh = "一种高效 Transformer,使用局部敏感哈希近似注意力,并采用可逆残差层降低内存,从而扩展到非常长的序列。",
        term_es = "Reformer",
        term_zh = "Reformer",
        aliases_es = { "Reformer", "atención LSH", "Transformer Reformer" },
        aliases_zh = { "Reformer", "LSH 注意力", "Reformer Transformer" },
    }
    
    data["refusal training"] = {
        short = "Fine-tuning, typically via supervised learning or RLHF, that teaches a language model to decline unsafe, harmful, or out-of-policy requests with appropriate refusal responses.",
        article = nil,
        aliases = { "refusal fine-tuning", "safety refusal training", "refusal alignment" },
        es = "Ajuste fino, normalmente mediante aprendizaje supervisado o RLHF, que enseña a un modelo de lenguaje a rechazar solicitudes inseguras, dañinas o que violen las políticas mediante respuestas de rechazo adecuadas.",
        zh = "通常通过有监督微调或 RLHF 进行的训练,教会语言模型以适当的拒绝回复来拒答不安全、有害或违反策略的请求。",
        term_es = "entrenamiento de rechazo",
        term_zh = "拒答训练",
        aliases_es = { "ajuste fino de rechazo", "alineamiento por rechazo" },
        aliases_zh = { "拒绝训练", "安全拒答训练", "拒绝微调" },
    }
    
    data["region-based explanation"] = {
        short = "A feature-attribution explanation that scores contiguous regions of the input — such as image superpixels, text spans, or tabular feature groups — rather than individual pixels, tokens, or features.",
        article = nil,
        aliases = { "region attribution", "regional explanation", "patch-based explanation", "superpixel explanation" },
        es = "Explicación de atribución de características que asigna puntuaciones a regiones contiguas de la entrada — como superpíxeles de imágenes, spans de texto o grupos de características tabulares — en lugar de a píxeles, tokens o características individuales.",
        zh = "对输入的连续区域(例如图像中的超像素、文本片段或表格中的特征组)打分的特征归因解释,而不是对单个像素、词元或特征打分。",
        term_es = "explicación basada en regiones",
        term_zh = "基于区域的解释",
        aliases_es = { "atribución por regiones", "explicación regional", "explicación por parches", "explicación por superpíxeles" },
        aliases_zh = { "区域归因", "基于超像素的解释", "基于patch的解释", "区域级解释" },
    }
    
    data["region-level grounding"] = {
        short = "Aligning natural-language tokens or phrases with bounded image regions (typically boxes or masks) rather than the whole image. Provides finer-grained supervision than image-level alignment for vision-language models.",
        article = nil,
        aliases = { "regional grounding", "region grounding", "box-level grounding", "region-level alignment", "fine-grained visual grounding" },
        es = "Alineación de tokens o frases en lenguaje natural con regiones acotadas de la imagen (cajas o máscaras) en lugar de con la imagen completa. Proporciona una supervisión más fina que la alineación a nivel de imagen en modelos visión-lenguaje.",
        zh = "将自然语言 token 或短语与图像中的有界区域(通常为边界框或掩码)对齐,而非与整幅图像对齐,可为视觉-语言模型提供比图像级对齐更细粒度的监督。",
        term_es = "anclaje a nivel de región",
        term_zh = "区域级定位",
        aliases_es = { "anclaje regional", "alineación a nivel de región" },
        aliases_zh = { "区域定位", "区域级对齐", "细粒度视觉定位" },
    }
    
    data["region-word alignment"] = {
        short = "A vision-language training objective that learns dense correspondences between individual words in a caption and bounded image regions. Used in models such as GLIP and FILIP to enable open-vocabulary detection and fine-grained grounding.",
        article = nil,
        aliases = { "region-token alignment", "word-region alignment", "token-region alignment", "fine-grained alignment" },
        es = "Objetivo de entrenamiento visión-lenguaje que aprende correspondencias densas entre palabras individuales de un texto y regiones acotadas de la imagen. Se usa en modelos como GLIP y FILIP para permitir detección con vocabulario abierto y anclaje de grano fino.",
        zh = "一种视觉-语言训练目标,学习文本中单个词与图像有界区域之间的密集对应关系,被 GLIP、FILIP 等模型用于开放词汇检测与细粒度定位。",
        term_es = "alineación región-palabra",
        term_zh = "区域-词对齐",
        aliases_es = { "alineación palabra-región", "alineación token-región", "alineación de grano fino" },
        aliases_zh = { "词-区域对齐", "token-区域对齐", "细粒度对齐" },
    }
    
    data["register tokens"] = {
        short = "Auxiliary learnable tokens prepended to a Vision Transformer's input sequence that absorb high-norm artifacts and produce cleaner attention maps and feature representations.",
        article = nil,
        aliases = { "Register Tokens", "register token", "ViT registers", "registers" },
        es = "Tokens auxiliares aprendibles añadidos al inicio de la secuencia de entrada de un Vision Transformer que absorben artefactos de norma alta y producen mapas de atención y representaciones de características más limpios.",
        zh = "在视觉 Transformer 输入序列前添加的可学习辅助 token,用于吸收高范数伪影,从而获得更干净的注意力图和特征表示。",
        term_es = "tokens registro",
        term_zh = "寄存器 token",
        aliases_es = { "register tokens", "token registro", "registros ViT", "registros" },
        aliases_zh = { "register tokens", "寄存器令牌", "ViT 寄存器", "registers" },
    }
    
    data["regnet"] = {
        short = "A family of convolutional networks introduced by Radosavovic et al. in 2020, derived from a parameterized design space whose width and depth follow a quantized linear function of block index, yielding simple yet competitive models.",
        article = nil,
        aliases = { "RegNet", "RegNetX", "RegNetY" },
        es = "Familia de redes convolucionales presentada por Radosavovic et al. en 2020, derivada de un espacio de diseño parametrizado cuyo ancho y profundidad siguen una función lineal cuantizada del índice de bloque, produciendo modelos simples pero competitivos.",
        zh = "由 Radosavovic 等人于 2020 年提出的卷积网络家族,源自一个参数化的设计空间,其宽度和深度遵循关于块索引的量化线性函数,产生简洁而具有竞争力的模型。",
        term_es = "RegNet",
        term_zh = "RegNet",
        aliases_es = { "RegNetX", "RegNetY" },
        aliases_zh = { "RegNetX", "RegNetY" },
    }
    
    data["regnet design space"] = {
        short = "A parametric family of CNN architectures defined by Radosavovic et al. (2020) using a quantized linear function to determine per-stage widths and depths, designed to be searched as a population rather than as individual networks.",
        article = nil,
        aliases = { "RegNet", "RegNet design space", "RegNet family" },
        es = "Familia paramétrica de arquitecturas convolucionales definida por Radosavovic et al. (2020) mediante una función lineal cuantizada que determina anchos y profundidades por etapa, diseñada para buscarse como población en vez de redes individuales.",
        zh = "由 Radosavovic 等(2020)定义的卷积架构参数族,使用量化的线性函数确定每阶段的宽度和深度,设计为以种群而非单个网络进行搜索。",
        term_es = "espacio de diseño RegNet",
        term_zh = "RegNet 设计空间",
        aliases_es = { "RegNet", "familia RegNet" },
        aliases_zh = { "RegNet", "RegNet 族" },
    }
    
    data["regnet-x"] = {
        short = "The base RegNet variant from Radosavovic et al. (2020): a ResNeXt-style bottleneck design parameterized by depth, initial width, slope, and group width, without squeeze-and-excitation.",
        article = nil,
        aliases = { "RegNetX" },
        es = "Variante base de RegNet de Radosavovic et al. (2020): diseño con cuello de botella estilo ResNeXt parametrizado por profundidad, ancho inicial, pendiente y ancho de grupo, sin squeeze-and-excitation.",
        zh = "Radosavovic 等(2020)提出的 RegNet 基础变体:由深度、初始宽度、斜率和组宽参数化的 ResNeXt 风格瓶颈设计,不含 squeeze-and-excitation。",
        term_es = "RegNet-X",
        term_zh = "RegNet-X",
        aliases_es = { "RegNetX" },
        aliases_zh = { "RegNetX" },
    }
    
    data["regnet-y"] = {
        short = "The RegNet variant that augments RegNet-X with squeeze-and-excitation modules in each bottleneck block, generally yielding higher accuracy at comparable FLOPs.",
        article = nil,
        aliases = { "RegNetY" },
        es = "Variante de RegNet que añade módulos squeeze-and-excitation en cada bloque de cuello de botella respecto a RegNet-X, ofreciendo en general mayor precisión a FLOPs comparables.",
        zh = "在 RegNet-X 基础上,在每个瓶颈块中加入 squeeze-and-excitation 模块的 RegNet 变体,在相近 FLOPs 下通常获得更高精度。",
        term_es = "RegNet-Y",
        term_zh = "RegNet-Y",
        aliases_es = { "RegNetY" },
        aliases_zh = { "RegNetY" },
    }
    
    data["regression adjustment"] = {
        short = "A method for estimating treatment effects that fits separate outcome regressions on covariates within treatment arms and averages predicted potential outcomes over the target population. It is consistent under no unmeasured confounding and a correctly specified outcome model.",
        article = nil,
        aliases = { "Regression Adjustment", "outcome regression adjustment", "g-computation regression", "regression-based adjustment", "RA" },
        es = "Método para estimar efectos del tratamiento que ajusta regresiones del resultado sobre covariables por separado dentro de cada brazo y promedia los resultados potenciales predichos sobre la población objetivo. Es consistente bajo ausencia de confusión no medida y un modelo de resultado correctamente especificado.",
        zh = "一种估计处理效应的方法:在每个处理组内分别将结果对协变量做回归,并将预测的潜在结果在目标人群上取平均。在无未测混杂且结果模型设定正确时它是一致的。",
        term_es = "ajuste por regresión",
        term_zh = "回归调整",
        aliases_es = { "ajuste mediante regresión del resultado", "RA", "ajuste de regresión" },
        aliases_zh = { "回归校正", "结果回归调整", "RA" },
    }
    
    data["regression discontinuity design"] = {
        short = "A quasi-experimental design that estimates causal effects at a known threshold of an assignment variable by comparing outcomes just above and just below the cutoff. Identification rests on the continuity of potential outcomes in the running variable at the threshold.",
        article = nil,
        aliases = { "Regression Discontinuity Design", "RDD", "RD design", "regression discontinuity", "RD" },
        es = "Diseño cuasi-experimental que estima efectos causales en un umbral conocido de una variable de asignación comparando resultados justo por encima y justo por debajo del corte. La identificación descansa en la continuidad de los resultados potenciales en la variable de control en el umbral.",
        zh = "一种准实验设计,通过比较位于已知分配变量阈值两侧的结果来估计因果效应。其识别依赖于潜在结果作为运行变量函数在阈值处的连续性。",
        term_es = "diseño de regresión discontinua",
        term_zh = "断点回归设计",
        aliases_es = { "diseño de discontinuidad de regresión", "regresión discontinua", "RDD" },
        aliases_zh = { "RDD", "回归断点设计", "断点回归" },
    }
    
    data["regression kink design"] = {
        short = "A quasi-experimental design that identifies causal effects from a known break in the slope—rather than the level—of a deterministic policy rule mapping a running variable to treatment intensity. Identification compares the change in slope of the outcome to the change in slope of the rule at the kink.",
        article = nil,
        aliases = { "Regression Kink Design", "RKD", "RK design", "regression kink", "kink design" },
        es = "Diseño cuasi-experimental que identifica efectos causales a partir de un quiebre conocido en la pendiente —no en el nivel— de una regla determinista que vincula una variable de control con la intensidad del tratamiento. La identificación compara el cambio en la pendiente del resultado con el cambio en la pendiente de la regla en el codo.",
        zh = "一种准实验设计,依据将运行变量映射到处理强度的确定性政策规则在斜率(而非水平)处的已知拐点来识别因果效应。识别比较结果在拐点处的斜率变化与规则斜率变化之比。",
        term_es = "diseño de regresión con codo",
        term_zh = "断点斜率回归设计",
        aliases_es = { "diseño de regresión por kink", "regresión con kink", "RKD" },
        aliases_zh = { "RKD", "拐点回归设计", "斜率断点回归" },
    }
    
    data["regularization"] = {
        short = "Any technique that constrains a learning algorithm to reduce overfitting and improve generalization, such as L2 weight decay, dropout, early stopping, data augmentation, or noise injection.",
        article = "Overfitting and Regularization",
        aliases = { "regularisation", "regularizer", "regulariser", "regularization technique" },
        es = "Cualquier técnica que restringe un algoritmo de aprendizaje para reducir el sobreajuste y mejorar la generalización, como decaimiento de pesos L2, dropout, parada temprana, aumento de datos o inyección de ruido.",
        zh = "任何用于约束学习算法以降低过拟合并提升泛化能力的技术,例如 L2 权重衰减、Dropout、早停、数据增强或噪声注入。",
        term_es = "regularización",
        term_zh = "正则化",
        aliases_es = { "regularizador", "técnica de regularización" },
        aliases_zh = { "正规化", "regularization", "正则项", "正则化技术" },
    }
    
    data["regularization search"] = {
        short = "Hyperparameter search restricted to regularization-related settings — weight decay, dropout rate, label smoothing, augmentation strength — typically run after architecture and learning-rate choices have been fixed.",
        article = nil,
        aliases = { "regularisation search", "regularization tuning", "regularizer search" },
        es = "Búsqueda de hiperparámetros restringida a ajustes de regularización — decaimiento de pesos, tasa de dropout, suavizado de etiquetas, intensidad de aumentación — normalmente ejecutada tras fijar arquitectura y tasa de aprendizaje.",
        zh = "限定于正则化相关设置的超参数搜索——权重衰减、dropout 比率、标签平滑、增强强度——通常在固定架构和学习率后进行。",
        term_es = "búsqueda de regularización",
        term_zh = "正则化搜索",
        aliases_es = { "ajuste de regularización", "búsqueda de regularizadores" },
        aliases_zh = { "正则化调优", "正则化器搜索" },
    }
    
    data["regularized evolution"] = {
        short = "An evolutionary NAS algorithm by Real et al. (2019, AmoebaNet) that uses tournament selection on a fixed-size population and removes the oldest individual at each step, biasing the search toward architectures that retrain well rather than those that won by chance.",
        article = nil,
        aliases = { "aging evolution", "AmoebaNet", "regularised evolution" },
        es = "Algoritmo evolutivo de NAS de Real et al. (2019, AmoebaNet) que aplica selección por torneo sobre una población de tamaño fijo y elimina al individuo más antiguo en cada paso, sesgando la búsqueda hacia arquitecturas que reentrenan bien y no las que ganaron por azar.",
        zh = "Real 等(2019,AmoebaNet)提出的进化型 NAS 算法,在固定规模种群上进行锦标赛选择,每步移除最年长个体,使搜索偏向于能够重新训练成功的架构而非偶然获胜者。",
        term_es = "evolución regularizada",
        term_zh = "正则化进化",
        aliases_es = { "evolución por edad", "AmoebaNet" },
        aliases_zh = { "老化进化", "AmoebaNet", "aging evolution" },
    }
    
    data["regulatory genomics"] = {
        short = "The study of non-coding genomic elements — promoters, enhancers, silencers, and insulators — and the transcription factors and chromatin states that govern gene expression.",
        article = nil,
        aliases = { "gene regulatory genomics", "cis-regulatory genomics" },
        es = "Estudio de los elementos genómicos no codificantes —promotores, potenciadores, silenciadores e insuladores— y de los factores de transcripción y estados de cromatina que regulan la expresión génica.",
        zh = "对启动子、增强子、沉默子、绝缘子等非编码基因组元件以及调控基因表达的转录因子和染色质状态的研究。",
        term_es = "genómica reguladora",
        term_zh = "调控基因组学",
        aliases_es = { "genómica regulatoria", "genómica cis-reguladora" },
        aliases_zh = { "调控基因组", "顺式调控基因组学" },
    }
    
    data["reinforce"] = {
        short = "A Monte Carlo policy-gradient algorithm that updates a parameterized policy by ascending an unbiased estimate of the expected return's gradient, computed as the log-probability of each action weighted by the observed return.",
        article = nil,
        aliases = { "REINFORCE", "Monte Carlo policy gradient", "Williams' REINFORCE" },
        es = "Algoritmo de gradiente de política de tipo Monte Carlo que actualiza una política parametrizada ascendiendo por un estimador insesgado del gradiente del retorno esperado, calculado como la log-probabilidad de cada acción ponderada por el retorno observado.",
        zh = "一种蒙特卡洛策略梯度算法,通过沿期望回报梯度的无偏估计方向上升来更新参数化策略;该梯度估计将每个动作的对数概率按观察到的回报加权。",
        term_es = "REINFORCE",
        term_zh = "REINFORCE",
        aliases_es = { "gradiente de política Monte Carlo" },
        aliases_zh = { "蒙特卡洛策略梯度" },
    }
    
    data["reinforcement learning"] = {
        short = "A learning paradigm in which an agent interacts with an environment by taking actions and observing states and rewards, learning a policy that maximizes expected cumulative reward over time.",
        article = nil,
        aliases = { "RL", "reinforcement-learning", "reinforcement training" },
        es = "Paradigma de aprendizaje en el que un agente interactúa con un entorno tomando acciones y observando estados y recompensas, aprendiendo una política que maximiza la recompensa acumulada esperada a lo largo del tiempo.",
        zh = "一种学习范式,智能体通过执行动作并观察环境的状态和奖励与环境交互,学习一种最大化长期期望累积奖励的策略。",
        term_es = "aprendizaje por refuerzo",
        term_zh = "强化学习",
        aliases_es = { "RL", "aprendizaje reforzado" },
        aliases_zh = { "RL", "reinforcement learning", "增强学习" },
    }
    
    data["reinforcement learning from human feedback"] = {
        short = "A training procedure that fine-tunes a language model with reinforcement learning against a reward model trained on human preference comparisons, used to align model outputs with human intent.",
        article = nil,
        aliases = { "RLHF", "Reinforcement Learning from Human Feedback", "RL from human feedback", "RLHF training" },
        es = "Procedimiento de entrenamiento que ajusta un modelo de lenguaje mediante aprendizaje por refuerzo contra un modelo de recompensa entrenado con comparaciones de preferencias humanas, usado para alinear las salidas con la intención humana.",
        zh = "一种训练流程,使用基于人类偏好对比训练得到的奖励模型,通过强化学习微调语言模型,以使输出对齐人类意图。",
        term_es = "aprendizaje por refuerzo a partir de retroalimentación humana",
        term_zh = "基于人类反馈的强化学习",
        aliases_es = { "RLHF", "aprendizaje por refuerzo con retroalimentación humana", "RL con retroalimentación humana" },
        aliases_zh = { "RLHF", "人类反馈强化学习", "基于人类反馈的强化学习训练" },
    }
    
    data["reinforcement learning nas"] = {
        short = "A family of neural architecture search methods in which a controller (typically an RNN) samples architectures, child models are trained, and validation accuracy is fed back as a reward to update the controller via policy gradients.",
        article = nil,
        aliases = { "RL-NAS", "RL NAS", "reinforcement-learning NAS", "policy-gradient NAS" },
        es = "Familia de métodos de búsqueda de arquitecturas en los que un controlador (normalmente una RNN) muestrea arquitecturas, los modelos hijo se entrenan y la precisión de validación se devuelve como recompensa para actualizar el controlador mediante gradientes de política.",
        zh = "一类神经架构搜索方法,由控制器(通常为 RNN)采样架构,训练子模型,并将验证精度作为奖励反馈,以策略梯度更新控制器。",
        term_es = "NAS por aprendizaje por refuerzo",
        term_zh = "强化学习 NAS",
        aliases_es = { "RL-NAS", "NAS con RL", "NAS por gradiente de política" },
        aliases_zh = { "RL-NAS", "强化学习神经架构搜索", "策略梯度 NAS" },
    }
    
    data["reinvent"] = {
        short = "A generative model for de novo molecular design that uses a recurrent neural network over SMILES strings combined with reinforcement learning to optimize molecules toward user-defined scoring functions.",
        article = nil,
        aliases = { "REINVENT", "REINVENT 2.0", "REINVENT 4" },
        es = "Modelo generativo para diseño molecular de novo que combina una red neuronal recurrente sobre cadenas SMILES con aprendizaje por refuerzo para optimizar moléculas según funciones de puntuación definidas por el usuario.",
        zh = "一种从头分子设计的生成模型,结合作用于 SMILES 字符串的循环神经网络和强化学习,以根据用户定义的评分函数优化分子。",
        term_es = "REINVENT",
        term_zh = "REINVENT",
        aliases_es = { "REINVENT 2.0", "REINVENT 4" },
        aliases_zh = { "REINVENT 2.0", "REINVENT 4" },
    }
    
    data["reject option classification"] = {
        short = "A post-processing fairness technique in which predictions near the decision boundary are deferred or relabeled in favor of the disadvantaged group, equalizing outcomes without retraining the underlying classifier.",
        article = nil,
        aliases = { "ROC fairness", "reject-option-based classification", "reject option fairness", "boundary deferral fairness" },
        es = "Técnica de equidad de postprocesamiento en la que las predicciones cercanas a la frontera de decisión se difieren o reetiquetan en favor del grupo desfavorecido, igualando los resultados sin reentrenar el clasificador subyacente.",
        zh = "一种后处理公平性方法:将位于决策边界附近的预测延后判定或改判为有利于弱势群体的标签,在不重新训练底层分类器的情况下使结果均衡化。",
        term_es = "clasificación con opción de rechazo",
        term_zh = "拒绝选项分类",
        aliases_es = { "equidad por opción de rechazo", "clasificación basada en opción de rechazo" },
        aliases_zh = { "拒绝选项公平性", "基于拒绝选项的分类", "边界延迟公平性" },
    }
    
    data["rejection sampling"] = {
        short = "A Monte Carlo method that draws samples from a target distribution by sampling from a proposal that envelopes it and accepting each sample with a probability equal to the ratio of target to scaled proposal density.",
        article = nil,
        aliases = { "accept-reject sampling", "acceptance-rejection method", "rejection method" },
        es = "Método de Monte Carlo que genera muestras de una distribución objetivo extrayéndolas de una distribución de propuesta que la envuelve y aceptando cada muestra con una probabilidad igual al cociente entre la densidad objetivo y la propuesta escalada.",
        zh = "一种蒙特卡洛方法,从包络目标分布的提议分布中抽样,并以目标密度与缩放后提议密度之比为概率接受每个样本,从而获得目标分布的样本。",
        term_es = "muestreo por rechazo",
        term_zh = "拒绝采样",
        aliases_es = { "método de aceptación-rechazo", "muestreo de aceptación-rechazo" },
        aliases_zh = { "接受-拒绝采样", "舍选抽样", "拒绝抽样" },
    }
    
    data["relation extraction"] = {
        short = "The task of identifying semantic relations between entity mentions in text and mapping them to a target schema (e.g., works_for, born_in). A core component of information extraction and knowledge-base construction.",
        article = nil,
        aliases = { "RE", "relational extraction", "relation classification", "open relation extraction" },
        es = "Tarea de identificar relaciones semánticas entre menciones de entidades en un texto y asignarlas a un esquema objetivo (por ejemplo, trabaja_en, nacido_en). Componente central de la extracción de información y la construcción de bases de conocimiento.",
        zh = "在文本中识别实体提及之间的语义关系,并将其映射到目标模式(如 works_for、born_in)的任务,是信息抽取和知识库构建的核心组成部分。",
        term_es = "extracción de relaciones",
        term_zh = "关系抽取",
        aliases_es = { "RE", "extracción relacional", "clasificación de relaciones" },
        aliases_zh = { "关系提取", "关系分类", "RE" },
    }
    
    data["relation networks"] = {
        short = "A few-shot meta-learning architecture by Sung et al. (2018) in which an embedding module produces feature representations for support and query examples, and a learned relation module compares them to predict similarity scores.",
        article = nil,
        aliases = { "RelationNet", "relation network" },
        es = "Arquitectura de meta-aprendizaje few-shot de Sung et al. (2018) en la que un módulo de embedding produce representaciones de los ejemplos de soporte y consulta, y un módulo de relación aprendido los compara para predecir puntuaciones de similitud.",
        zh = "Sung 等(2018)提出的少样本元学习架构,通过嵌入模块为支持和查询样本生成特征表示,再用学习到的关系模块对其比较以预测相似度分数。",
        term_es = "redes de relación",
        term_zh = "关系网络",
        aliases_es = { "RelationNet", "red de relación" },
        aliases_zh = { "RelationNet", "关系网" },
    }
    
    data["relation prediction"] = {
        short = "A knowledge-graph completion task that, given two entities, predicts the most likely relation linking them. Often evaluated together with link prediction (head/tail prediction) on benchmarks such as FB15k and WN18RR.",
        article = nil,
        aliases = { "relation classification", "relationship prediction", "predicate prediction", "KG relation prediction" },
        es = "Tarea de completado de grafos de conocimiento que, dadas dos entidades, predice la relación más probable que las une. Suele evaluarse junto con la predicción de enlaces (predicción de cabeza/cola) en benchmarks como FB15k y WN18RR.",
        zh = "一种知识图谱补全任务:给定两个实体,预测它们之间最可能的关系,通常与链接预测(头/尾预测)一起在 FB15k、WN18RR 等基准上评测。",
        term_es = "predicción de relaciones",
        term_zh = "关系预测",
        aliases_es = { "predicción de la relación", "predicción de predicado" },
        aliases_zh = { "关系预测任务", "谓词预测" },
    }
    
    data["relational distillation"] = {
        short = "A family of knowledge-distillation methods that transfer the teacher's relational structure between samples (pairwise distances, angles, or similarity matrices) rather than per-sample outputs or features.",
        article = nil,
        aliases = { "relational knowledge distillation", "RKD", "relation-based distillation", "structural distillation" },
        es = "Familia de métodos de destilación de conocimiento que transfieren la estructura relacional entre muestras del maestro (distancias por pares, ángulos o matrices de similitud) en lugar de las salidas o características por muestra.",
        zh = "一类知识蒸馏方法,传递教师在样本之间的关系结构(成对距离、夹角或相似度矩阵),而非逐样本的输出或特征。",
        term_es = "destilación relacional",
        term_zh = "关系蒸馏",
        aliases_es = { "destilación relacional de conocimiento", "RKD", "destilación basada en relaciones" },
        aliases_zh = { "关系知识蒸馏", "RKD", "基于关系的蒸馏", "结构蒸馏" },
    }
    
    data["relational embedding"] = {
        short = "A vector representation that encodes entities and the relations between them so that algebraic operations on the embeddings approximate relational facts. Encompasses translation-based (TransE), bilinear (DistMult, RESCAL), and rotation-based (RotatE) models.",
        article = nil,
        aliases = { "relational embeddings", "knowledge graph embedding", "KG embedding", "KGE" },
        es = "Representación vectorial que codifica entidades y las relaciones entre ellas de modo que las operaciones algebraicas sobre las incrustaciones aproximen los hechos relacionales. Incluye modelos basados en traslación (TransE), bilineales (DistMult, RESCAL) y de rotación (RotatE).",
        zh = "对实体及其相互关系进行编码的向量表示,使得在嵌入上的代数运算能近似表达关系事实,包括基于平移的 TransE、双线性的 DistMult、RESCAL 以及基于旋转的 RotatE 等模型。",
        term_es = "incrustación relacional",
        term_zh = "关系嵌入",
        aliases_es = { "embedding relacional", "incrustación de grafos de conocimiento", "KGE" },
        aliases_zh = { "关系型嵌入", "知识图谱嵌入", "KGE" },
    }
    
    data["relational network"] = {
        short = "A neural module proposed by DeepMind (Santoro et al., 2017) that computes a function over all pairs of object representations and aggregates the results, providing a strong inductive bias for relational reasoning on tasks such as CLEVR visual question answering.",
        article = nil,
        aliases = { "RN", "Relation Network", "DeepMind Relation Network", "Relation Net" },
        es = "Módulo neuronal propuesto por DeepMind (Santoro et al., 2017) que calcula una función sobre todos los pares de representaciones de objetos y agrega los resultados, aportando un fuerte sesgo inductivo para razonamiento relacional en tareas como la respuesta a preguntas visuales en CLEVR.",
        zh = "DeepMind 提出的神经模块(Santoro 等,2017),对所有对象表示的两两组合计算同一函数并聚合结果,为 CLEVR 视觉问答等关系推理任务提供了强归纳偏置。",
        term_es = "Relation Network",
        term_zh = "Relation Network",
        aliases_es = { "RN", "red de relaciones", "red relacional de DeepMind" },
        aliases_zh = { "RN", "关系网络", "Relation Net" },
    }
    
    data["relational neural network"] = {
        short = "An umbrella term for neural architectures that explicitly model relations among inputs, including Relation Networks, graph neural networks, and message-passing models. The inductive bias makes them well-suited to relational reasoning and knowledge-graph tasks.",
        article = nil,
        aliases = { "relational NN", "relational deep network", "relation-aware neural network" },
        es = "Término general para arquitecturas neuronales que modelan explícitamente las relaciones entre las entradas, incluyendo Relation Networks, redes neuronales de grafos y modelos de paso de mensajes. Su sesgo inductivo las hace adecuadas para razonamiento relacional y tareas de grafos de conocimiento.",
        zh = "对显式建模输入之间关系的神经网络的统称,涵盖 Relation Network、图神经网络和消息传递模型等。其归纳偏置使其适用于关系推理和知识图谱任务。",
        term_es = "red neuronal relacional",
        term_zh = "关系型神经网络",
        aliases_es = { "red neural relacional", "red relacional", "RNN relacional" },
        aliases_zh = { "关系神经网络", "关系感知神经网络" },
    }
    
    data["relational reinforcement learning"] = {
        short = "A reinforcement-learning paradigm where states, actions, and policies are described in a relational language (e.g., first-order logic), enabling generalization across objects and tasks. Modern variants combine deep learning with relational inductive biases such as graph neural networks and self-attention.",
        article = nil,
        aliases = { "RRL", "relational RL", "relational reinforcement-learning" },
        es = "Paradigma de aprendizaje por refuerzo en el que estados, acciones y políticas se describen en un lenguaje relacional (p. ej., lógica de primer orden), permitiendo la generalización entre objetos y tareas. Las variantes modernas combinan aprendizaje profundo con sesgos inductivos relacionales como las redes neuronales de grafos y la autoatención.",
        zh = "一种强化学习范式,将状态、动作和策略用关系语言(如一阶逻辑)描述,从而在对象和任务之间实现泛化。现代方法结合深度学习与图神经网络、自注意力等关系性归纳偏置。",
        term_es = "aprendizaje por refuerzo relacional",
        term_zh = "关系强化学习",
        aliases_es = { "RRL", "RL relacional" },
        aliases_zh = { "RRL", "关系型强化学习" },
    }
    
    data["relative binding free energy"] = {
        short = "The difference in binding free energy between two related ligands binding the same target, typically computed by alchemical free energy perturbation or thermodynamic integration in molecular dynamics simulations.",
        article = nil,
        aliases = { "RBFE", "relative free energy of binding", "relative binding affinity calculation" },
        es = "Diferencia de energía libre de unión entre dos ligandos relacionados que se unen al mismo blanco, calculada típicamente mediante perturbación alquímica de energía libre o integración termodinámica en simulaciones de dinámica molecular.",
        zh = "两种相关配体与同一靶点结合时的结合自由能之差,通常通过分子动力学模拟中的炼金术自由能微扰或热力学积分计算获得。",
        term_es = "energía libre relativa de unión",
        term_zh = "相对结合自由能",
        aliases_es = { "RBFE", "energía libre relativa de enlace" },
        aliases_zh = { "RBFE", "相对结合自由能计算" },
    }
    
    data["relative influence"] = {
        short = "The influence of a training example on a prediction expressed relative to other training examples — typically as a rank or a normalized score — rather than as an absolute change in loss.",
        article = nil,
        aliases = { "relative influence score", "ranked influence", "normalized influence" },
        es = "Influencia de un ejemplo de entrenamiento sobre una predicción expresada en términos relativos al resto de los ejemplos — habitualmente como un ranking o una puntuación normalizada — en lugar de como un cambio absoluto en la pérdida.",
        zh = "将单个训练样本对某条预测的影响以相对于其他训练样本的方式表示——通常以排名或归一化得分的形式——而不是以损失的绝对变化来表达。",
        term_es = "influencia relativa",
        term_zh = "相对影响",
        aliases_es = { "puntuación de influencia relativa", "influencia ordenada", "influencia normalizada" },
        aliases_zh = { "相对影响得分", "影响排名", "归一化影响" },
    }
    
    data["relative mahalanobis distance"] = {
        short = "An out-of-distribution detection score that subtracts the Mahalanobis distance to a single background Gaussian from the class-conditional Mahalanobis distance, improving robustness for far-OOD inputs.",
        article = nil,
        aliases = { "RMD", "relative Mahalanobis score" },
        es = "Una puntuación de detección de fuera-de-distribución que resta la distancia de Mahalanobis a una única gaussiana de fondo de la distancia de Mahalanobis condicional a la clase, mejorando la robustez para entradas lejos de la distribución.",
        zh = "一种分布外检测分数,用类别条件下的马氏距离减去对单一背景高斯分布的马氏距离,从而对远离分布的输入更稳健。",
        term_es = "distancia de Mahalanobis relativa",
        term_zh = "相对马氏距离",
        aliases_es = { "RMD", "score de Mahalanobis relativo" },
        aliases_zh = { "RMD", "相对 Mahalanobis 距离" },
    }
    
    data["relative position embedding"] = {
        short = "A position encoding strategy in which attention scores depend on the relative offset between query and key tokens rather than their absolute positions, typically implemented as learned biases or shifted vectors.",
        article = nil,
        aliases = { "relative position embeddings", "relative positional embedding", "relative positional encoding", "relative position encoding", "RPE" },
        es = "Estrategia de codificación posicional en la que las puntuaciones de atención dependen del desplazamiento relativo entre los tokens de consulta y clave en lugar de sus posiciones absolutas, implementada típicamente como sesgos aprendidos o vectores desplazados.",
        zh = "一种位置编码策略,注意力分数取决于查询和键 token 之间的相对偏移而非绝对位置,通常实现为可学习的偏置或位移向量。",
        term_es = "embedding posicional relativo",
        term_zh = "相对位置编码",
        aliases_es = { "incrustación posicional relativa", "codificación posicional relativa", "RPE" },
        aliases_zh = { "相对位置嵌入", "相对位置表示", "RPE" },
    }
    
    data["relative risk"] = {
        short = "The ratio of the probability of an event in a treated group to the probability in a comparison group. It quantifies how much treatment multiplies the event risk and equals one under no effect.",
        article = nil,
        aliases = { "Relative Risk", "RR", "risk ratio", "rate ratio", "Risk Ratio" },
        es = "Cociente entre la probabilidad de un evento en un grupo tratado y la probabilidad en un grupo de comparación. Cuantifica en qué medida el tratamiento multiplica el riesgo del evento y es igual a uno cuando no hay efecto.",
        zh = "处理组事件概率与对照组事件概率之比。它衡量处理使事件风险放大的倍数,在无效应时等于 1。",
        term_es = "riesgo relativo",
        term_zh = "相对风险",
        aliases_es = { "RR", "razón de riesgos", "cociente de riesgos" },
        aliases_zh = { "RR", "风险比", "相对危险度" },
    }
    
    data["relaxed bernoulli"] = {
        short = "A continuous relaxation of the Bernoulli distribution (also called binary concrete) that replaces discrete samples with smooth sigmoid-of-Gumbel samples so reparameterization gradients can flow through.",
        article = nil,
        aliases = { "binary concrete", "Concrete Bernoulli", "relaxed Bernoulli distribution" },
        es = "Una relajación continua de la distribución de Bernoulli (también llamada binary concrete) que reemplaza las muestras discretas por muestras sigmoidales de Gumbel suaves para que los gradientes de reparametrización puedan propagarse.",
        zh = "伯努利分布的连续松弛(亦称二元 Concrete 分布),将离散样本替换为对 Gumbel 噪声取 sigmoid 的光滑样本,从而使重参数化梯度可以反向传播。",
        term_es = "Bernoulli relajada",
        term_zh = "松弛伯努利",
        aliases_es = { "binary concrete", "Bernoulli concreta" },
        aliases_zh = { "二元 Concrete", "松弛 Bernoulli", "Concrete 伯努利" },
    }
    
    data["relevance condition"] = {
        short = "An identification requirement for instrumental variables stating that the instrument is correlated with the endogenous treatment after partialing out other covariates. Violations produce weak-instrument bias and erratic IV estimates.",
        article = nil,
        aliases = { "Relevance Condition", "instrument relevance", "relevance assumption", "first-stage relevance" },
        es = "Requisito de identificación para variables instrumentales que exige que el instrumento esté correlacionado con el tratamiento endógeno tras descontar las demás covariables. Las violaciones generan sesgo por instrumentos débiles y estimaciones erráticas de IV.",
        zh = "工具变量识别所要求的相关性条件:在剔除其他协变量后,工具变量与内生处理变量相关。违反该条件会带来弱工具偏倚以及不稳定的工具变量估计。",
        term_es = "condición de relevancia",
        term_zh = "相关性条件",
        aliases_es = { "supuesto de relevancia", "relevancia del instrumento", "relevancia de primera etapa" },
        aliases_zh = { "相关性假设", "工具变量相关性", "第一阶段相关性" },
    }
    
    data["relevance heatmap"] = {
        short = "A visualization of per-input-element importance scores — most often produced by Layer-wise Relevance Propagation or similar methods — overlaid on the input as a color-coded map.",
        article = nil,
        aliases = { "relevance map", "LRP heatmap", "relevance visualization" },
        es = "Visualización de las puntuaciones de importancia para cada elemento de la entrada — habitualmente generadas mediante Layer-wise Relevance Propagation o métodos similares — superpuestas sobre la entrada en forma de mapa de colores.",
        zh = "对每个输入元素的重要性得分进行可视化(通常由 Layer-wise Relevance Propagation 等方法产生),以彩色图的形式叠加在输入之上。",
        term_es = "mapa de calor de relevancia",
        term_zh = "相关性热力图",
        aliases_es = { "mapa de relevancia", "heatmap de LRP", "visualización de relevancia" },
        aliases_zh = { "相关性热图", "LRP热力图", "相关度热力图", "相关性可视化" },
    }
    
    data["relevance propagation"] = {
        short = "An attribution technique — most prominently Layer-wise Relevance Propagation (LRP) — that distributes a model's output score backward through the network using local propagation rules to assign relevance to each input feature.",
        article = nil,
        aliases = { "LRP", "Layer-wise Relevance Propagation", "layer-wise relevance propagation", "relevance backpropagation" },
        es = "Técnica de atribución — principalmente Layer-wise Relevance Propagation (LRP) — que distribuye hacia atrás la puntuación de salida de un modelo a través de la red mediante reglas de propagación locales, asignando una relevancia a cada característica de la entrada.",
        zh = "一类归因方法——最具代表性的是分层相关性传播(LRP)——通过局部传播规则将模型的输出得分逐层反向分配回网络,从而为每个输入特征赋予一个相关性值。",
        term_es = "propagación de relevancia",
        term_zh = "相关性传播",
        aliases_es = { "LRP", "propagación de relevancia capa por capa", "Layer-wise Relevance Propagation" },
        aliases_zh = { "LRP", "分层相关性传播", "逐层相关性传播", "Layer-wise Relevance Propagation" },
    }
    
    data["relevance-cam"] = {
        short = "A class activation mapping method (Lee et al., 2021) that combines Layer-wise Relevance Propagation with CAM to produce class-discriminative saliency maps that satisfy LRP's relevance conservation property.",
        article = nil,
        aliases = { "Relevance-CAM", "Relevance CAM", "RelevanceCAM" },
        es = "Método de mapeo de activación de clase (Lee et al., 2021) que combina Layer-wise Relevance Propagation con CAM para producir mapas de saliencia discriminativos por clase que cumplen la propiedad de conservación de relevancia de LRP.",
        zh = "一种类激活映射方法(Lee 等,2021),将分层相关性传播(LRP)与 CAM 相结合,生成具有类别判别性的显著性图,并满足 LRP 的相关性守恒性质。",
        term_es = "Relevance-CAM",
        term_zh = "Relevance-CAM",
        aliases_es = { "Relevance CAM", "RelevanceCAM" },
        aliases_zh = { "Relevance CAM", "RelevanceCAM", "相关性CAM" },
    }
    
    data["reliability diagram"] = {
        short = "A plot showing empirical accuracy versus predicted confidence within confidence bins, used to visualize calibration. A perfectly calibrated classifier traces the diagonal; deviations indicate over- or underconfidence.",
        article = nil,
        aliases = { "reliability plot", "calibration plot", "calibration diagram" },
        es = "Gráfica que muestra la exactitud empírica frente a la confianza predicha por bins de confianza, usada para visualizar la calibración. Un clasificador perfectamente calibrado sigue la diagonal; las desviaciones indican exceso o falta de confianza.",
        zh = "在置信度分箱中将经验准确率对预测置信度作图,用于直观展示校准情况。完美校准的分类器其曲线与对角线重合;偏离对角线则表示过度或不足的置信度。",
        term_es = "diagrama de fiabilidad",
        term_zh = "可靠性图",
        aliases_es = { "diagrama de calibración", "gráfico de calibración" },
        aliases_zh = { "校准图", "可靠性曲线", "calibration plot" },
    }
    
    data["religion bias"] = {
        short = "Systematic disparities in model outputs, predictions, or content moderation that disadvantage individuals or content based on religious affiliation, often surfacing in language models and content classifiers.",
        article = nil,
        aliases = { "religious bias", "faith bias", "anti-religious bias", "bias on religion" },
        es = "Disparidades sistemáticas en las salidas del modelo, las predicciones o la moderación de contenido que perjudican a individuos o contenidos según la afiliación religiosa; suelen aparecer en modelos de lenguaje y clasificadores de contenido.",
        zh = "模型输出、预测或内容审核中针对宗教信仰的系统性差异,导致对特定个人或内容产生不利影响;常见于语言模型与内容分类器中。",
        term_es = "sesgo religioso",
        term_zh = "宗教偏见",
        aliases_es = { "sesgo de religión", "sesgo por afiliación religiosa", "sesgo antirreligioso" },
        aliases_zh = { "宗教偏差", "信仰偏见", "反宗教偏见" },
    }
    
    data["relion"] = {
        short = "A software package for cryo-electron microscopy image processing that uses an empirical Bayesian framework for 2D classification, 3D classification, and high-resolution refinement of macromolecular structures.",
        article = nil,
        aliases = { "RELION", "REgularised LIkelihood OptimisatioN" },
        es = "Paquete de software para procesamiento de imágenes de criomicroscopía electrónica que emplea un marco bayesiano empírico para clasificación 2D y 3D y refinamiento de alta resolución de estructuras macromoleculares.",
        zh = "用于冷冻电子显微镜图像处理的软件包,采用经验贝叶斯框架进行二维/三维分类以及大分子结构的高分辨率精修。",
        term_es = "RELION",
        term_zh = "RELION",
        aliases_es = { "RELION" },
        aliases_zh = { "RELION" },
    }
    
    data["relu"] = {
        short = "The Rectified Linear Unit activation, defined as f(x) = max(0, x). Introduces sparsity, mitigates vanishing gradients for positive inputs, and is the most widely used activation in deep neural networks.",
        article = nil,
        aliases = { "ReLU", "rectified linear unit", "rectifier", "rectified linear activation" },
        es = "Activación Unidad Lineal Rectificada, definida como f(x) = max(0, x). Induce dispersión, mitiga el desvanecimiento de gradientes para entradas positivas y es la activación más utilizada en redes neuronales profundas.",
        zh = "整流线性单元(ReLU)激活函数,定义为 f(x) = max(0, x)。能引入稀疏性,对正输入缓解梯度消失,是深度神经网络中最常用的激活函数。",
        term_es = "ReLU",
        term_zh = "ReLU",
        aliases_es = { "unidad lineal rectificada", "rectificador", "activación lineal rectificada" },
        aliases_zh = { "整流线性单元", "线性整流单元", "修正线性单元" },
    }
    
    data["remi tokenization"] = {
        short = "A symbolic music tokenization scheme (Huang and Yang, 2020) that represents MIDI as a sequence of beat-aware events including Bar, Position, Tempo, Chord, Note-On, Note-Velocity, and Note-Duration tokens, designed to expose metrical structure to Transformers.",
        article = nil,
        aliases = { "REMI", "REMI tokens", "REMI representation", "REvamped MIDI-derived events" },
        es = "Esquema de tokenización de música simbólica (Huang y Yang, 2020) que representa MIDI como una secuencia de eventos conscientes del compás —tokens Bar, Position, Tempo, Chord, Note-On, Note-Velocity y Note-Duration— diseñado para exponer la estructura métrica a los Transformers.",
        zh = "Huang 和 Yang(2020)提出的符号音乐词元化方案,将 MIDI 表示为感知节拍的事件序列(Bar、Position、Tempo、Chord、Note-On、Note-Velocity、Note-Duration),便于 Transformer 学习节拍结构。",
        term_es = "tokenización REMI",
        term_zh = "REMI词元化",
        aliases_es = { "REMI", "tokens REMI", "representación REMI" },
        aliases_zh = { "REMI", "REMI表示", "REMI tokens" },
    }
    
    data["remote sensing vlm"] = {
        short = "A vision-language model pretrained or fine-tuned on satellite or aerial imagery and associated text annotations, used for tasks such as scene classification, object detection, captioning, and VQA over Earth-observation data.",
        article = nil,
        aliases = { "remote sensing VLM", "satellite VLM", "Earth observation VLM", "aerial VLM", "RS VLM", "remote-sensing vision-language model" },
        es = "Modelo visión-lenguaje preentrenado o ajustado con imágenes satelitales o aéreas y sus anotaciones textuales, utilizado para tareas como clasificación de escenas, detección de objetos, descripción y respuesta a preguntas visuales sobre datos de observación de la Tierra.",
        zh = "在卫星或航空影像及其文本标注上预训练或微调的视觉-语言模型,用于场景分类、目标检测、图像描述以及对地观测数据的视觉问答等任务。",
        term_es = "VLM de teledetección",
        term_zh = "遥感视觉-语言模型",
        aliases_es = { "VLM satelital", "VLM de observación de la Tierra", "modelo visión-lenguaje de teledetección" },
        aliases_zh = { "遥感 VLM", "卫星 VLM", "对地观测 VLM" },
    }
    
    data["removal-based explanation"] = {
        short = "A unifying family of attribution methods (Covert et al., 2021) that explain a prediction by measuring how the model's output changes when subsets of input features are removed, including occlusion, LIME, SHAP, and permutation importance.",
        article = nil,
        aliases = { "removal-based attribution", "feature removal explanation", "removal-based interpretability" },
        es = "Familia unificadora de métodos de atribución (Covert et al., 2021) que explican una predicción midiendo cómo cambia la salida del modelo cuando se eliminan subconjuntos de características de la entrada; incluye oclusión, LIME, SHAP e importancia por permutación.",
        zh = "一类统一的归因方法框架(Covert 等,2021):通过观察去除输入特征的某些子集后模型输出如何变化来解释预测,涵盖 occlusion、LIME、SHAP 与置换重要性等方法。",
        term_es = "explicación basada en eliminación",
        term_zh = "基于移除的解释",
        aliases_es = { "atribución basada en eliminación", "explicación por remoción de características", "interpretabilidad basada en eliminación" },
        aliases_zh = { "基于移除的归因", "基于特征移除的解释", "基于删除的可解释性" },
    }
    
    data["renyi divergence elbo"] = {
        short = "A variational lower bound based on the alpha-Rényi divergence rather than the KL divergence, recovering the standard ELBO at alpha=1 and yielding tighter or looser bounds at other alpha values.",
        article = nil,
        aliases = { "Renyi ELBO", "Rényi divergence variational bound", "VR bound", "Rényi ELBO" },
        es = "Una cota inferior variacional basada en la divergencia alfa de Rényi en lugar de la divergencia KL, que recupera el ELBO estándar en alfa=1 y produce cotas más estrechas o más laxas para otros valores de alfa.",
        zh = "基于 α-Rényi 散度而非 KL 散度的变分下界:在 α=1 时退化为标准 ELBO,而在其他 α 值下给出更紧或更松的界。",
        term_es = "ELBO de Rényi",
        term_zh = "Rényi 散度 ELBO",
        aliases_es = { "VR bound", "cota variacional de Rényi" },
        aliases_zh = { "Rényi ELBO", "VR 界", "Rényi 变分下界" },
    }
    
    data["renyi entropy"] = {
        short = "A parametric family of entropy measures H_α(p) = (1/(1-α)) log Σ p_i^α, indexed by order α ≥ 0, that generalizes Shannon entropy (α→1) and includes min-entropy (α→∞), collision entropy (α=2), and max-entropy (α=0).",
        article = nil,
        aliases = { "Renyi entropy", "Rényi entropy", "alpha-entropy", "α-entropy", "Renyi divergence" },
        es = "Familia paramétrica de medidas de entropía H_α(p) = (1/(1-α)) log Σ p_i^α, indexada por un orden α ≥ 0, que generaliza la entropía de Shannon (α→1) e incluye la min-entropía (α→∞), la entropía de colisión (α=2) y la max-entropía (α=0).",
        zh = "由阶数 α ≥ 0 参数化的熵的一族广义度量 H_α(p) = (1/(1-α)) log Σ p_i^α,它推广了 Shannon 熵(α→1),并涵盖 min-熵(α→∞)、碰撞熵(α=2)和 max-熵(α=0)。",
        term_es = "entropía de Rényi",
        term_zh = "Rényi 熵",
        aliases_es = { "entropía de Renyi", "entropía α", "alfa-entropía" },
        aliases_zh = { "瑞丽熵", "Renyi 熵", "α 熵" },
    }
    
    data["reparameterization trick"] = {
        short = "A technique that expresses a sample from a parametric distribution as a deterministic, differentiable transformation of the parameters and an auxiliary noise variable, enabling low-variance pathwise gradient estimates through stochastic nodes.",
        article = nil,
        aliases = { "reparam trick", "reparameterisation trick", "pathwise gradient estimator", "reparameterization", "location-scale trick" },
        es = "Técnica que expresa una muestra de una distribución paramétrica como una transformación determinista y diferenciable de los parámetros y de una variable auxiliar de ruido, permitiendo estimadores de gradiente por la ruta (pathwise) de baja varianza a través de nodos estocásticos.",
        zh = "一种技巧,将参数化分布的样本表示为参数与辅助噪声变量的确定性可微变换,从而通过随机节点获得低方差的路径式梯度估计。",
        term_es = "truco de reparametrización",
        term_zh = "重参数化技巧",
        aliases_es = { "reparametrización", "estimador de gradiente por ruta", "truco de reparametrizacion" },
        aliases_zh = { "重参数化", "reparameterization trick", "路径梯度估计" },
    }
    
    data["repertoire diversity"] = {
        short = "A measure of the variety of B- or T-cell receptor sequences in an immune repertoire, quantified with diversity indices such as Shannon entropy, clonality, and richness from AIRR-seq data.",
        article = nil,
        aliases = { "immune repertoire diversity", "BCR/TCR repertoire diversity", "TCR diversity", "BCR diversity" },
        es = "Medida de la variedad de secuencias de receptores de células B o T en un repertorio inmunitario, cuantificada con índices de diversidad como la entropía de Shannon, la clonalidad y la riqueza a partir de datos AIRR-seq.",
        zh = "衡量免疫库中 B 细胞或 T 细胞受体序列多样性的指标,依据 AIRR-seq 数据,用 Shannon 熵、克隆性、丰富度等多样性指数加以量化。",
        term_es = "diversidad del repertorio",
        term_zh = "免疫库多样性",
        aliases_es = { "diversidad del repertorio inmunitario", "diversidad TCR", "diversidad BCR" },
        aliases_zh = { "免疫受体库多样性", "TCR 多样性", "BCR 多样性" },
    }
    
    data["repetition penalty"] = {
        short = "A decoding-time adjustment that down-weights logits of tokens already present in the context, discouraging the model from repeating phrases. Typically implemented by dividing or subtracting a constant from each repeated token's logit.",
        article = nil,
        aliases = { "Repetition Penalty", "repetition-penalty", "rep penalty", "repeat penalty", "repetition_penalty" },
        es = "Ajuste en tiempo de decodificación que reduce los logits de los tokens ya presentes en el contexto, desincentivando que el modelo repita frases. Suele implementarse dividiendo o restando una constante al logit de cada token repetido.",
        zh = "一种解码阶段的调整,降低已出现在上下文中的 token 的 logit,从而抑制模型重复短语。通常通过对每个已重复 token 的 logit 进行除法或减法来实现。",
        term_es = "penalización por repetición",
        term_zh = "重复惩罚",
        aliases_es = { "repetition penalty", "penalización de repetición", "penalty de repetición" },
        aliases_zh = { "repetition penalty", "重复罚分", "repetition_penalty", "重复抑制" },
    }
    
    data["replay buffer"] = {
        short = "A finite-capacity memory that stores recent transitions (state, action, reward, next state) collected by an off-policy reinforcement learning agent and from which mini-batches are sampled for training, decorrelating updates and improving sample efficiency.",
        article = nil,
        aliases = { "experience replay", "replay memory", "experience replay buffer", "replay" },
        es = "Memoria de capacidad finita que almacena transiciones recientes (estado, acción, recompensa, estado siguiente) recogidas por un agente de aprendizaje por refuerzo off-policy y desde la cual se muestrean mini-lotes para el entrenamiento, descorrelacionando las actualizaciones y mejorando la eficiencia de muestreo.",
        zh = "一种容量有限的记忆,存储离策略强化学习智能体收集的最近转移样本(状态、动作、奖励、下一状态),并从中采样小批量进行训练,从而打破样本相关性并提升样本利用效率。",
        term_es = "replay buffer",
        term_zh = "经验回放缓冲区",
        aliases_es = { "búfer de repetición", "memoria de repetición", "repetición de experiencia" },
        aliases_zh = { "回放缓冲区", "经验回放", "replay buffer" },
    }
    
    data["replica exchange"] = {
        short = "An enhanced sampling molecular dynamics technique in which multiple replicas of a system are simulated at different temperatures or Hamiltonians and periodically swapped according to a Metropolis criterion to escape kinetic traps.",
        article = nil,
        aliases = { "replica exchange molecular dynamics", "REMD", "parallel tempering", "T-REMD" },
        es = "Técnica de muestreo mejorado en dinámica molecular en la que se simulan varias réplicas del sistema a distintas temperaturas o hamiltonianos y se intercambian periódicamente mediante un criterio de Metropolis para escapar de trampas cinéticas.",
        zh = "一种增强采样的分子动力学技术,在不同温度或哈密顿量下并行模拟多个系统副本,并按 Metropolis 准则定期交换,以摆脱动力学陷阱。",
        term_es = "intercambio de réplicas",
        term_zh = "副本交换",
        aliases_es = { "REMD", "templado paralelo", "dinámica molecular con intercambio de réplicas" },
        aliases_zh = { "REMD", "并行回火", "副本交换分子动力学" },
    }
    
    data["representation alignment multimodal"] = {
        short = "Training objectives and techniques that bring embeddings of paired multimodal inputs (e.g., image and caption) close together in a shared latent space while pushing unpaired examples apart. Foundational to contrastive multimodal models like CLIP.",
        article = nil,
        aliases = { "multimodal representation alignment", "cross-modal alignment", "modality alignment", "shared-space alignment", "embedding alignment multimodal" },
        es = "Objetivos y técnicas de entrenamiento que acercan en un espacio latente compartido las representaciones de entradas multimodales emparejadas (por ejemplo, imagen y texto) mientras separan las no emparejadas. Es la base de modelos multimodales contrastivos como CLIP.",
        zh = "通过训练目标与技术,使配对多模态输入(如图像与描述)的表征在共享潜空间中相互靠近,并将未配对样本推开,是 CLIP 等对比式多模态模型的基础。",
        term_es = "alineación de representaciones multimodal",
        term_zh = "多模态表征对齐",
        aliases_es = { "alineación cruzada de representaciones", "alineación entre modalidades", "alineación en espacio compartido" },
        aliases_zh = { "跨模态对齐", "模态对齐", "共享空间对齐", "多模态嵌入对齐" },
    }
    
    data["representation bias"] = {
        short = "Bias arising when certain groups are under- or over-represented in training data relative to the deployment population, leading to unequal model performance across those groups.",
        article = nil,
        aliases = { "representational bias", "data representation bias", "sample representation bias", "underrepresentation bias" },
        es = "Sesgo que surge cuando ciertos grupos están sub- o sobrerrepresentados en los datos de entrenamiento respecto a la población de despliegue, lo que provoca un desempeño desigual del modelo entre esos grupos.",
        zh = "当训练数据中某些群体相对部署人群被低估或高估时所产生的偏差,导致模型在这些群体上的表现存在差异。",
        term_es = "sesgo de representación",
        term_zh = "代表性偏差",
        aliases_es = { "sesgo representacional", "sesgo de representación de datos", "sesgo por subrepresentación" },
        aliases_zh = { "表示偏差", "样本代表性偏差", "代表不足偏差" },
    }
    
    data["representation engineering"] = {
        short = "A top-down framework for understanding and steering large language models by reading and manipulating high-level concept directions in their internal representations.",
        article = nil,
        aliases = { "RepE", "representation engineering (RepE)" },
        es = "Marco descendente para comprender y controlar grandes modelos de lenguaje mediante la lectura y manipulación de direcciones conceptuales en sus representaciones internas.",
        zh = "一种自上而下的框架,通过读取和操控大语言模型内部表示中的高层概念方向,来理解和控制其行为。",
        term_es = "ingeniería de representaciones",
        term_zh = "表示工程",
        aliases_es = { "RepE", "representation engineering" },
        aliases_zh = { "RepE", "representation engineering" },
    }
    
    data["representation learning"] = {
        short = "A subfield of machine learning concerned with automatically learning useful, often low-dimensional, vector representations of data from raw inputs, such that downstream tasks become easier to solve.",
        article = nil,
        aliases = { "representation-learning", "learned representations" },
        es = "Subcampo del aprendizaje automático que se ocupa de aprender automáticamente representaciones vectoriales útiles, a menudo de baja dimensión, a partir de entradas en bruto, de modo que las tareas subsiguientes resulten más fáciles de resolver.",
        zh = "机器学习的一个子领域,致力于从原始输入中自动学习有用的、通常是低维的向量表示,以使下游任务更易求解。",
        term_es = "aprendizaje de representaciones",
        term_zh = "表示学习",
        aliases_es = { "aprendizaje de representación" },
        aliases_zh = { "表征学习", "representation learning" },
    }
    
    data["representation reading"] = {
        short = "A class of techniques that extract human-interpretable concepts (e.g., truthfulness, harmfulness) from a neural network's hidden activations, typically by training linear probes on contrastive prompts.",
        article = nil,
        aliases = { "reading representations", "concept reading" },
        es = "Conjunto de técnicas que extraen conceptos interpretables (como veracidad o nocividad) de las activaciones ocultas de una red neuronal, generalmente entrenando sondas lineales sobre prompts contrastivos.",
        zh = "一类从神经网络隐藏激活中提取可解释概念(如真实性、有害性)的技术,通常在对比提示上训练线性探针。",
        term_es = "lectura de representaciones",
        term_zh = "表示读取",
        aliases_es = { "lectura de conceptos" },
        aliases_zh = { "概念读取" },
    }
    
    data["representational harm"] = {
        short = "Harm caused by an AI system that demeans, stereotypes, denigrates, or erases social groups in its outputs, distinct from allocational harm in which resources or opportunities are unequally distributed.",
        article = nil,
        aliases = { "representation harm", "stereotyping harm", "denigration harm", "symbolic harm" },
        es = "Daño causado por un sistema de IA que rebaja, estereotipa, denigra o invisibiliza a grupos sociales en sus salidas, en contraste con los daños asignativos, en los que se distribuyen de forma desigual recursos u oportunidades.",
        zh = "人工智能系统在输出中贬低、刻板化、诋毁或抹除特定社会群体所造成的伤害;与之相对的是分配性损害(资源或机会分配不均)。",
        term_es = "daño representacional",
        term_zh = "表征性损害",
        aliases_es = { "daño de representación", "daño por estereotipos", "daño simbólico" },
        aliases_zh = { "代表性损害", "刻板印象损害", "象征性损害" },
    }
    
    data["representational similarity probe"] = {
        short = "A probing method that compares pairwise similarity matrices of internal representations to those of a target structure (such as syntactic distance) using Representational Similarity Analysis.",
        article = nil,
        aliases = { "RSA probe", "representational similarity analysis probe" },
        es = "Método de sondeo que compara matrices de similitud por pares de las representaciones internas con las de una estructura objetivo (como la distancia sintáctica) mediante el Análisis de Similitud Representacional.",
        zh = "一种探针方法,使用表示相似性分析(RSA)将内部表示的成对相似性矩阵与目标结构(如句法距离)的相似性矩阵进行比较。",
        term_es = "sonda de similitud representacional",
        term_zh = "表示相似性探针",
        aliases_es = { "sonda RSA", "probe de similitud representacional" },
        aliases_zh = { "RSA 探针", "表征相似性探针" },
    }
    
    data["representer point selection"] = {
        short = "An instance attribution method that decomposes a deep model's prediction as a weighted sum over training points using the representer theorem, exposing which training examples most support or oppose a given prediction.",
        article = nil,
        aliases = { "representer points", "representer theorem attribution" },
        es = "Método de atribución por instancias que descompone la predicción de un modelo profundo como una suma ponderada sobre los puntos de entrenamiento mediante el teorema del representante, revelando qué ejemplos apoyan o contradicen una predicción dada.",
        zh = "一种实例归因方法,利用表示定理将深度模型的预测分解为训练点上的加权和,揭示哪些训练样本最支持或反对某一预测。",
        term_es = "selección de puntos representantes",
        term_zh = "代表点选择",
        aliases_es = { "puntos representantes", "atribución por teorema del representante" },
        aliases_zh = { "代表点", "表示定理归因" },
    }
    
    data["reptile"] = {
        short = "A first-order meta-learning algorithm by Nichol et al. (2018) that trains on each task for several SGD steps and then moves the meta-parameters toward the task-adapted parameters, approximating MAML without computing second derivatives.",
        article = nil,
        aliases = { "Reptile", "Reptile meta-learning" },
        es = "Algoritmo de meta-aprendizaje de primer orden de Nichol et al. (2018) que entrena varias iteraciones de SGD por tarea y luego mueve los meta-parámetros hacia los parámetros adaptados, aproximando MAML sin calcular segundas derivadas.",
        zh = "Nichol 等(2018)提出的一阶元学习算法,对每个任务执行若干 SGD 步,然后将元参数朝任务适应后的参数移动,在不计算二阶导的情况下近似 MAML。",
        term_es = "Reptile",
        term_zh = "Reptile",
        aliases_es = { "Reptile" },
        aliases_zh = { "Reptile", "Reptile 元学习" },
    }
    
    data["reranking"] = {
        short = "A second-stage retrieval step that re-scores a small candidate set returned by a fast first-stage retriever, typically with a more expressive model such as a cross-encoder, to improve top-k precision.",
        article = nil,
        aliases = { "Reranking", "re-ranking", "rerank", "re-rank", "second-stage ranking", "neural reranking" },
        es = "Etapa secundaria de recuperación que vuelve a puntuar un conjunto pequeño de candidatos devuelto por un recuperador rápido de primera etapa, normalmente con un modelo más expresivo como un cross-encoder, para mejorar la precisión en el top-k.",
        zh = "一种二阶段检索步骤,对一阶段快速检索器返回的少量候选集重新打分,通常使用 cross-encoder 等更具表达力的模型,以提升 top-k 精度。",
        term_es = "reordenamiento",
        term_zh = "重排序",
        aliases_es = { "reranking", "rerank", "re-ranking", "rerankear", "reordenación", "ranking de segunda etapa" },
        aliases_zh = { "reranking", "rerank", "再排序", "二阶段排序", "神经重排序" },
    }
    
    data["resampling for fairness"] = {
        short = "Pre-processing techniques (oversampling, undersampling, synthetic-data generation) that adjust the training distribution across protected groups so that the model is less likely to learn biased decision rules.",
        article = nil,
        aliases = { "fairness resampling", "fair resampling", "rebalancing for fairness", "fairness-aware resampling" },
        es = "Técnicas de preprocesamiento (sobremuestreo, submuestreo, generación de datos sintéticos) que ajustan la distribución de entrenamiento entre grupos protegidos, de modo que el modelo tenga menos probabilidad de aprender reglas de decisión sesgadas.",
        zh = "预处理技术(过采样、欠采样、合成数据生成等),用于调整训练数据在受保护群体间的分布,从而降低模型学到带偏见决策规则的可能性。",
        term_es = "remuestreo para equidad",
        term_zh = "公平性重采样",
        aliases_es = { "remuestreo equitativo", "rebalanceo para equidad", "remuestreo con conciencia de equidad" },
        aliases_zh = { "公平重采样", "面向公平的重采样", "公平再平衡" },
    }
    
    data["rescal"] = {
        short = "A three-way tensor factorization model for knowledge graphs that represents each relation as a full matrix and entities as vectors, scoring a triple (h, r, t) by hᵀ Mᵣ t. One of the earliest bilinear knowledge-graph embeddings.",
        article = nil,
        aliases = { "RESCAL", "RESCAL embedding", "RESCAL model", "RESCAL tensor factorization" },
        es = "Modelo de factorización tensorial de tres vías para grafos de conocimiento que representa cada relación como una matriz completa y las entidades como vectores, puntuando una tripleta (h, r, t) mediante hᵀ Mᵣ t. Una de las primeras incrustaciones bilineales para grafos de conocimiento.",
        zh = "一种用于知识图谱的三阶张量分解模型,将每个关系表示为一个完整矩阵、实体表示为向量,三元组 (h, r, t) 的得分为 hᵀ Mᵣ t,是最早的双线性知识图谱嵌入之一。",
        term_es = "RESCAL",
        term_zh = "RESCAL",
        aliases_es = { "modelo RESCAL", "factorización RESCAL" },
        aliases_zh = { "RESCAL 模型", "RESCAL 张量分解" },
    }
    
    data["residual based defense"] = {
        short = "A class of robust aggregation defenses against poisoning in federated learning that flags or down-weights client updates whose residuals from a robust estimator (such as the geometric median or trimmed mean) are anomalously large.",
        article = nil,
        aliases = { "residual-based defense", "residual-based robust aggregation", "residual filtering defense" },
        es = "Clase de defensas de agregación robusta contra envenenamiento en aprendizaje federado que marca o reduce el peso de las actualizaciones de clientes cuyos residuos respecto a un estimador robusto (como la mediana geométrica o la media recortada) son anómalamente grandes.",
        zh = "一类针对联邦学习投毒的鲁棒聚合防御:根据客户端更新与鲁棒估计器(如几何中位数或截尾均值)之间残差的异常程度,对其进行标记或降权。",
        term_es = "defensa basada en residuos",
        term_zh = "基于残差的防御",
        aliases_es = { "defensa basada en residuos", "agregación robusta basada en residuos", "defensa por filtrado de residuos" },
        aliases_zh = { "残差防御", "基于残差的鲁棒聚合", "残差过滤防御" },
    }
    
    data["residual connection"] = {
        short = "A connection that adds the input of a layer or block directly to its output, allowing gradients to flow through identity paths and easing optimization of deep networks.",
        article = nil,
        aliases = { "residual link", "residual shortcut", "residual path", "shortcut connection", "skip connection" },
        es = "Conexión que suma directamente la entrada de una capa o bloque a su salida, permitiendo que los gradientes fluyan por rutas identidad y facilitando la optimización de redes profundas.",
        zh = "一种将层或模块的输入直接加到其输出的连接,使梯度可沿恒等路径传播,简化深层网络的优化。",
        term_es = "conexión residual",
        term_zh = "残差连接",
        aliases_es = { "atajo residual", "conexión de salto" },
        aliases_zh = { "残差链接", "捷径连接", "跳跃连接" },
    }
    
    data["residual error compensation"] = {
        short = "A technique used with biased gradient compressors (top-k sparsification, sign SGD, etc.) in which the compression error from each step is accumulated locally and added back to the next step's gradient before compressing, preserving convergence rates.",
        article = nil,
        aliases = { "error feedback", "error compensation", "memory SGD", "EF-SGD" },
        es = "Técnica utilizada con compresores de gradiente sesgados (esparsificación top-k, signSGD, etc.) en la que el error de compresión de cada paso se acumula localmente y se suma al gradiente del paso siguiente antes de comprimir, preservando las tasas de convergencia.",
        zh = "一种与有偏梯度压缩器(top-k 稀疏化、signSGD 等)配合使用的技术:每一步的压缩误差在本地累积,并在下一步压缩前加回到梯度上,从而保持收敛速率。",
        term_es = "compensación de error residual",
        term_zh = "残差误差补偿",
        aliases_es = { "realimentación de error", "compensación de error", "memoria SGD", "EF-SGD" },
        aliases_zh = { "误差反馈", "误差补偿", "记忆 SGD", "EF-SGD" },
    }
    
    data["residual learning"] = {
        short = "A training principle introduced by ResNets in which network layers learn a residual function F(x) added to a skip-connection identity, easing optimization and enabling training of very deep networks.",
        article = nil,
        aliases = { "residual-learning", "residual mapping", "ResNet learning" },
        es = "Principio de entrenamiento introducido por las ResNets según el cual las capas de la red aprenden una función residual F(x) sumada a una conexión de salto identidad, facilitando la optimización y permitiendo entrenar redes muy profundas.",
        zh = "由 ResNet 引入的训练原理,让网络层学习与恒等跳跃连接相加的残差函数 F(x),从而简化优化并使训练非常深的网络成为可能。",
        term_es = "aprendizaje residual",
        term_zh = "残差学习",
        aliases_es = { "residual learning", "asignación residual", "aprendizaje de residuales" },
        aliases_zh = { "residual learning", "残差映射", "残差网络学习" },
    }
    
    data["residual network"] = {
        short = "A deep convolutional network architecture in which each block computes a residual function added to its input via skip connections, enabling training of very deep networks.",
        article = nil,
        aliases = { "ResNet", "residual net", "residual neural network", "ResNets" },
        es = "Arquitectura profunda de red convolucional en la que cada bloque calcula una función residual que se suma a su entrada mediante conexiones de salto, permitiendo entrenar redes muy profundas.",
        zh = "一种深层卷积网络架构,其每个模块计算一个残差函数并通过跳跃连接加到输入上,使得训练非常深的网络成为可能。",
        term_es = "red residual",
        term_zh = "残差网络",
        aliases_es = { "ResNet", "red neuronal residual" },
        aliases_zh = { "ResNet", "残差神经网络" },
    }
    
    data["residual stream"] = {
        short = "In a transformer, the additive activation vector that passes through every layer; each attention and MLP sublayer reads from and writes to this stream, making it the primary channel for inter-layer communication.",
        article = nil,
        aliases = { "residual streams" },
        es = "En un transformer, el vector de activación aditivo que atraviesa cada capa; cada subcapa de atención y MLP lee y escribe sobre este flujo, convirtiéndolo en el principal canal de comunicación entre capas.",
        zh = "在 Transformer 中贯穿每一层的加性激活向量;每个注意力和 MLP 子层都从该流读取并写入,使其成为层间通信的主要通道。",
        term_es = "flujo residual",
        term_zh = "残差流",
        aliases_es = { "stream residual", "residual stream" },
        aliases_zh = { "residual stream" },
    }
    
    data["residual stream analysis"] = {
        short = "An interpretability technique that decomposes the transformer residual stream into the contributions of individual attention heads and MLP layers, used to localize where specific computations occur within a model.",
        article = nil,
        aliases = { "residual stream decomposition" },
        es = "Técnica de interpretabilidad que descompone el flujo residual del transformer en las contribuciones de cabezas de atención y capas MLP individuales, utilizada para localizar dónde ocurren cálculos específicos dentro del modelo.",
        zh = "一种可解释性技术,将 Transformer 的残差流分解为各个注意力头和 MLP 层的贡献,用于定位特定计算在模型中发生的位置。",
        term_es = "análisis del flujo residual",
        term_zh = "残差流分析",
        aliases_es = { "descomposición del flujo residual" },
        aliases_zh = { "残差流分解" },
    }
    
    data["residual vector quantization"] = {
        short = "A multi-stage vector quantization scheme that quantizes the residual error from each codebook with the next codebook, achieving high-fidelity discrete representations at low bitrates; central to neural audio codecs like SoundStream and EnCodec.",
        article = nil,
        aliases = { "RVQ", "residual VQ", "residual vector quantizer" },
        es = "Esquema de cuantización vectorial multi-etapa que cuantiza el error residual de cada libro de códigos con el siguiente libro, logrando representaciones discretas de alta fidelidad a baja tasa de bits; central en codecs de audio neuronales como SoundStream y EnCodec.",
        zh = "一种多级向量量化方案,用下一个码本对前一个码本的残差进行量化,从而以较低比特率获得高保真离散表示;是 SoundStream 和 EnCodec 等神经音频编解码器的核心模块。",
        term_es = "cuantización vectorial residual",
        term_zh = "残差向量量化",
        aliases_es = { "RVQ", "VQ residual", "cuantizador vectorial residual" },
        aliases_zh = { "RVQ", "残差VQ", "残差矢量量化" },
    }
    
    data["residual-on-residual regression"] = {
        short = "A two-step estimator in which both the outcome and a regressor are first regressed on the remaining covariates and then the residuals are regressed on each other. By the Frisch–Waugh–Lovell theorem, the resulting slope equals the coefficient from the full multiple regression.",
        article = nil,
        aliases = { "Residual-on-Residual Regression", "Frisch-Waugh-Lovell", "Frisch–Waugh–Lovell theorem", "FWL", "partialling-out regression", "residual regression" },
        es = "Estimador en dos pasos en el que tanto el resultado como un regresor se ajustan primero contra el resto de covariables y luego se hace una regresión de los residuos entre sí. Por el teorema de Frisch–Waugh–Lovell, la pendiente resultante es igual al coeficiente de la regresión múltiple completa.",
        zh = "一种两步估计:先将结果和某个回归变量分别对其他协变量作回归,再用所得残差互作回归。根据 Frisch–Waugh–Lovell 定理,所得斜率等于完整多元回归中的系数。",
        term_es = "regresión de residuos sobre residuos",
        term_zh = "残差对残差回归",
        aliases_es = { "teorema de Frisch–Waugh–Lovell", "FWL", "regresión por descontado de covariables" },
        aliases_zh = { "Frisch–Waugh–Lovell 定理", "FWL", "剔除回归" },
    }
    
    data["residuated implication"] = {
        short = "In fuzzy logic, the residuum of a left-continuous t-norm: the unique connective I such that T(a, c) ≤ b iff c ≤ I(a, b). It generalizes Boolean implication and underpins many neuro-symbolic systems that train under fuzzy semantics.",
        article = nil,
        aliases = { "residuum", "fuzzy implication", "residuum operator", "R-implication" },
        es = "En lógica difusa, el residuo de una t-norma continua por la izquierda: el único conectivo I tal que T(a, c) ≤ b si y solo si c ≤ I(a, b). Generaliza la implicación booleana y sustenta muchos sistemas neurosimbólicos entrenados bajo semánticas difusas.",
        zh = "在模糊逻辑中,左连续 t-范数的剩余算子:唯一满足 T(a, c) ≤ b 当且仅当 c ≤ I(a, b) 的连接词 I。它推广了布尔蕴含,是许多在模糊语义下训练的神经符号系统的基础。",
        term_es = "implicación residuada",
        term_zh = "剩余蕴含",
        aliases_es = { "residuo", "implicación difusa", "R-implicación" },
        aliases_zh = { "剩余算子", "模糊蕴含", "R-蕴含" },
    }
    
    data["residue conservation"] = {
        short = "The degree to which a given position in a protein or nucleic-acid alignment retains the same residue across homologs, used as evidence of functional or structural importance.",
        article = nil,
        aliases = { "sequence conservation", "position conservation", "conservation score" },
        es = "Grado en que una posición dada de un alineamiento de proteína o ácido nucleico mantiene el mismo residuo entre homólogos, empleado como indicio de importancia funcional o estructural.",
        zh = "在蛋白质或核酸比对中某一位置在不同同源序列间保留相同残基的程度,用作功能或结构重要性的证据。",
        term_es = "conservación de residuos",
        term_zh = "残基保守性",
        aliases_es = { "conservación de secuencia", "conservación de posición" },
        aliases_zh = { "序列保守性", "位点保守性", "保守性打分" },
    }
    
    data["resnet"] = {
        short = "A family of very deep convolutional networks introduced by He et al. in 2015 that uses residual (skip) connections to ease optimization, enabling training of networks with hundreds of layers. Variants include ResNet-50, ResNet-101, and ResNet-152.",
        article = nil,
        aliases = { "ResNet", "residual network", "deep residual network", "ResNet-50", "ResNet50", "ResNet-101", "ResNet101", "ResNet-152", "ResNet152" },
        es = "Familia de redes convolucionales muy profundas presentada por He et al. en 2015 que utiliza conexiones residuales (skip connections) para facilitar la optimización, permitiendo entrenar redes con cientos de capas. Las variantes incluyen ResNet-50, ResNet-101 y ResNet-152.",
        zh = "由 He 等人于 2015 年提出的非常深的卷积网络家族,通过残差(跳跃)连接简化优化,使训练数百层的网络成为可能。变体包括 ResNet-50、ResNet-101 和 ResNet-152。",
        term_es = "ResNet",
        term_zh = "ResNet",
        aliases_es = { "red residual", "red residual profunda", "ResNet-50", "ResNet-101", "ResNet-152" },
        aliases_zh = { "残差网络", "深度残差网络", "ResNet-50", "ResNet-101", "ResNet-152" },
    }
    
    data["resnet speaker model"] = {
        short = "A speaker embedding model based on a ResNet (typically ResNet-34) backbone applied to log-mel spectrograms, trained with classification or metric-learning losses to produce fixed-length speaker representations for verification and diarization.",
        article = nil,
        aliases = { "ResNet speaker embedding", "ResNet34 speaker model", "ResNet-based speaker model" },
        es = "Modelo de embedding de locutor basado en una red troncal ResNet (típicamente ResNet-34) aplicada sobre log-mel espectrogramas, entrenado con pérdidas de clasificación o de aprendizaje métrico para producir representaciones de locutor de longitud fija destinadas a verificación y diarización.",
        zh = "以 ResNet 主干(通常为 ResNet-34)作用于对数梅尔频谱、并以分类或度量学习损失训练的说话人嵌入模型,输出用于说话人验证与日志的定长说话人表示。",
        term_es = "modelo de locutor ResNet",
        term_zh = "ResNet说话人模型",
        aliases_es = { "embedding de locutor ResNet", "modelo ResNet-34 de locutor" },
        aliases_zh = { "ResNet说话人嵌入", "基于ResNet的说话人模型", "ResNet34说话人模型" },
    }
    
    data["resolution proof"] = {
        short = "A proof produced by the resolution rule, which infers the resolvent of two clauses by removing complementary literals. Refutation-based resolution is the backbone of many automated theorem provers and SAT solvers.",
        article = nil,
        aliases = { "resolution proof", "resolution refutation", "resolution-based proof", "resolution derivation" },
        es = "Demostración generada mediante la regla de resolución, que infiere el resolvente de dos cláusulas eliminando literales complementarios. La resolución por refutación es la columna vertebral de muchos demostradores automáticos de teoremas y resolutores SAT.",
        zh = "基于归结规则得到的证明:通过消去两个子句中的互补文字,推出归结子句。基于反驳的归结是许多自动定理证明器和 SAT 求解器的核心方法。",
        term_es = "demostración por resolución",
        term_zh = "归结证明",
        aliases_es = { "prueba por resolución", "refutación por resolución", "derivación por resolución" },
        aliases_zh = { "归结反驳", "消解证明", "归结推导" },
    }
    
    data["resolution scaling"] = {
        short = "A model-scaling axis, popularized by EfficientNet, in which the input image resolution is increased alongside depth and width to produce larger but more accurate networks under a compound scaling rule.",
        article = nil,
        aliases = { "input resolution scaling", "resolution dimension scaling" },
        es = "Eje de escalado de modelos, popularizado por EfficientNet, en el que se aumenta la resolución de imagen de entrada junto con la profundidad y el ancho para producir redes mayores y más precisas bajo una regla de escalado compuesto.",
        zh = "由 EfficientNet 推广的模型缩放维度,在复合缩放规则下与深度和宽度一起增大输入图像分辨率,以获得更大且更精确的网络。",
        term_es = "escalado de resolución",
        term_zh = "分辨率缩放",
        aliases_es = { "escalado de resolución de entrada" },
        aliases_zh = { "输入分辨率缩放", "图像分辨率缩放" },
    }
    
    data["response bias"] = {
        short = "Systematic distortion in survey, feedback, or annotation data caused by participants' tendency to answer in particular ways (e.g., social desirability, acquiescence), affecting the labels and signals used to train models.",
        article = nil,
        aliases = { "responding bias", "respondent bias", "survey response bias" },
        es = "Distorsión sistemática en datos de encuestas, retroalimentación o anotaciones provocada por la tendencia de los participantes a responder de determinadas maneras (por ejemplo, deseabilidad social o aquiescencia), lo que afecta a las etiquetas y señales empleadas para entrenar modelos.",
        zh = "调查、反馈或标注数据中的系统性扭曲,源于受访者倾向以特定方式作答(如社会期望偏差、同意倾向),从而影响用于训练模型的标签与信号。",
        term_es = "sesgo de respuesta",
        term_zh = "应答偏倚",
        aliases_es = { "sesgo del encuestado", "sesgo de respuesta en encuestas" },
        aliases_zh = { "回答偏倚", "受访者偏倚", "调查应答偏倚" },
    }
    
    data["response distillation"] = {
        short = "A form of knowledge distillation in which the student is trained only on the teacher's output predictions (e.g., softmax logits or generated sequences), without matching internal layers.",
        article = nil,
        aliases = { "response-based distillation", "logit distillation", "output distillation", "soft-label distillation" },
        es = "Forma de destilación de conocimiento en la que el estudiante se entrena únicamente con las predicciones de salida del maestro (por ejemplo, logits softmax o secuencias generadas), sin imitar las capas internas.",
        zh = "知识蒸馏的一种形式,学生模型仅基于教师的输出预测(如 softmax logits 或生成的序列)进行训练,而不匹配内部层。",
        term_es = "destilación basada en respuestas",
        term_zh = "响应蒸馏",
        aliases_es = { "destilación de respuestas", "destilación de logits", "destilación de salidas" },
        aliases_zh = { "基于响应的蒸馏", "logit 蒸馏", "输出蒸馏", "软标签蒸馏" },
    }
    
    data["responsible ai"] = {
        short = "An umbrella framework for designing, developing, and deploying AI systems that are fair, accountable, transparent, safe, privacy-preserving, and aligned with ethical and legal norms.",
        article = nil,
        aliases = { "RAI", "responsible AI", "responsible artificial intelligence", "ethical AI" },
        es = "Marco general para diseñar, desarrollar y desplegar sistemas de IA que sean justos, responsables, transparentes, seguros, respetuosos con la privacidad y alineados con normas éticas y legales.",
        zh = "用于设计、开发和部署人工智能系统的综合框架,强调公平性、可问责性、透明度、安全性、隐私保护以及与伦理和法律规范的一致。",
        term_es = "IA responsable",
        term_zh = "负责任的人工智能",
        aliases_es = { "RAI", "inteligencia artificial responsable", "IA ética" },
        aliases_zh = { "负责任 AI", "RAI", "伦理人工智能" },
    }
    
    data["restricted boltzmann machine"] = {
        short = "A Boltzmann machine restricted to a bipartite graph between visible and hidden units with no intra-layer connections, enabling efficient training via contrastive divergence.",
        article = nil,
        aliases = { "RBM", "RBMs", "Restricted Boltzmann Machine", "restricted Boltzmann machines" },
        es = "Máquina de Boltzmann restringida a un grafo bipartito entre unidades visibles y ocultas sin conexiones dentro de la misma capa, lo que permite un entrenamiento eficiente mediante divergencia contrastiva.",
        zh = "一种受限的玻尔兹曼机,限制为可见单元与隐藏单元之间的二部图结构,层内无连接,可通过对比散度进行高效训练。",
        term_es = "máquina de Boltzmann restringida",
        term_zh = "受限玻尔兹曼机",
        aliases_es = { "RBM", "RBMs", "máquinas de Boltzmann restringidas" },
        aliases_zh = { "RBM", "受限波尔兹曼机" },
    }
    
    data["resume screening bias"] = {
        short = "Bias in algorithmic hiring tools that screen resumes, often penalizing candidates based on gendered names, demographic signals, or non-job-relevant features. The Amazon recruiting tool case is a canonical example.",
        article = nil,
        aliases = { "CV screening bias", "hiring algorithm bias", "automated resume screening bias", "resume parser bias" },
        es = "Sesgo en herramientas algorítmicas de contratación que filtran currículums y suelen penalizar a candidatos por nombres con marcas de género, señales demográficas o características no relevantes para el puesto. El caso del sistema de contratación de Amazon es un ejemplo canónico.",
        zh = "用于筛选简历的算法招聘工具中的偏差,常因带有性别色彩的姓名、人口学信号或与工作无关的特征而对候选人不利。亚马逊招聘工具的案例是经典例证。",
        term_es = "sesgo en la criba de currículums",
        term_zh = "简历筛选偏见",
        aliases_es = { "sesgo en el cribado de CV", "sesgo en algoritmos de contratación", "sesgo en el análisis automático de currículums" },
        aliases_zh = { "简历筛查偏见", "招聘算法偏见", "自动简历筛选偏差" },
    }
    
    data["retinanet"] = {
        short = "A single-stage object detector introduced by Lin et al. in 2017 that uses a Feature Pyramid Network backbone and is trained with focal loss to address the extreme foreground-background class imbalance encountered with dense anchors.",
        article = nil,
        aliases = { "RetinaNet" },
        es = "Detector de objetos de una sola etapa presentado por Lin et al. en 2017 que utiliza una Feature Pyramid Network como troncal y se entrena con focal loss para abordar el extremo desequilibrio de clases primer plano-fondo que aparece con anclas densas.",
        zh = "由 Lin 等人于 2017 年提出的单阶段目标检测器,以特征金字塔网络为主干,使用焦点损失(focal loss)训练,以解决密集锚框带来的前景-背景类别极端不平衡问题。",
        term_es = "RetinaNet",
        term_zh = "RetinaNet",
        aliases_es = { "RetinaNet" },
        aliases_zh = { "RetinaNet" },
    }
    
    data["retnet"] = {
        short = "Retentive Network, a transformer alternative from Microsoft Research that replaces self-attention with a retention mechanism supporting parallel, recurrent, and chunkwise computation modes for efficient long-sequence modeling.",
        article = nil,
        aliases = { "RetNet", "Retentive Network", "retentive networks" },
        es = "Retentive Network, una alternativa al transformer de Microsoft Research que sustituye la autoatención por un mecanismo de retención que admite modos de cómputo paralelo, recurrente y por bloques para un modelado eficiente de secuencias largas.",
        zh = "Retentive Network,由微软研究院提出的 Transformer 替代架构,用支持并行、循环和分块三种计算模式的保留(retention)机制取代自注意力,以高效建模长序列。",
        term_es = "RetNet",
        term_zh = "RetNet",
        aliases_es = { "Retentive Network", "red retentiva" },
        aliases_zh = { "Retentive Network", "保留网络" },
    }
    
    data["retrieval augmented generation"] = {
        short = "A generation framework in which a language model is conditioned on text retrieved from an external corpus at inference time, allowing it to cite up-to-date or domain-specific information without parameter updates.",
        article = nil,
        aliases = { "RAG", "Retrieval-Augmented Generation", "retrieval-augmented generation", "retrieval augmented LLM" },
        es = "Marco de generación en el que un modelo de lenguaje se condiciona en tiempo de inferencia sobre texto recuperado de un corpus externo, lo que le permite citar información actualizada o de dominio específico sin actualizar parámetros.",
        zh = "一种生成框架,在推理时将语言模型条件化于从外部语料检索得到的文本,使其无需更新参数即可引用最新或领域专属信息。",
        term_es = "generación aumentada por recuperación",
        term_zh = "检索增强生成",
        aliases_es = { "RAG", "generación con recuperación aumentada", "retrieval augmented generation" },
        aliases_zh = { "RAG", "检索增强生成式模型", "retrieval augmented generation" },
    }
    
    data["retrieval window"] = {
        short = "In retrieval-augmented generation, the portion of the model's context allocated to retrieved passages, balancing the number and length of retrieved chunks against space for the user query and generation.",
        article = nil,
        aliases = { "retrieval-window", "retrieval context", "retrieval context window", "retrieved context window" },
        es = "En la generación aumentada por recuperación, la parte del contexto del modelo dedicada a los pasajes recuperados, equilibrando el número y la longitud de los fragmentos recuperados frente al espacio para la consulta y la generación.",
        zh = "在检索增强生成中,模型上下文中用于存放检索到的段落的部分,需要在检索片段的数量与长度,以及用户查询和生成所需空间之间进行权衡。",
        term_es = "ventana de recuperación",
        term_zh = "检索窗口",
        aliases_es = { "ventana de contexto de recuperación", "contexto de recuperación" },
        aliases_zh = { "检索上下文窗口", "retrieval window" },
    }
    
    data["retrieval-based voice conversion"] = {
        short = "A voice conversion approach (popularized by the open-source RVC project) that, after extracting content features from a source utterance, retrieves the nearest target-voice features from a reference index and uses them to condition a vocoder, yielding high-similarity conversions with limited training data.",
        article = nil,
        aliases = { "RVC", "retrieval based voice conversion", "Retrieval-based Voice Conversion" },
        es = "Enfoque de conversión de voz (popularizado por el proyecto de código abierto RVC) que, tras extraer características de contenido del habla de origen, recupera las características de voz objetivo más cercanas desde un índice de referencia y las utiliza para condicionar un vocoder, logrando conversiones de alta similitud con pocos datos de entrenamiento.",
        zh = "由开源项目 RVC 推广的语音转换方法:先从源语音提取内容特征,再从参考索引中检索最接近的目标说话人特征,并以此对声码器进行条件化,可在少量训练数据下实现高相似度的语音转换。",
        term_es = "conversión de voz basada en recuperación",
        term_zh = "基于检索的语音转换",
        aliases_es = { "RVC", "voice conversion basada en retrieval" },
        aliases_zh = { "RVC", "检索式语音转换", "基于检索的声音转换" },
    }
    
    data["retrosim"] = {
        short = "A similarity-based retrosynthesis prediction method that ranks candidate disconnections by retrieving precedent reactions whose products resemble the query molecule, introduced by Coley and coworkers.",
        article = nil,
        aliases = { "RetroSim", "retrosim model", "similarity-based retrosynthesis" },
        es = "Método de predicción retrosintética basado en similitud que clasifica desconexiones candidatas recuperando reacciones precedentes cuyos productos se asemejan a la molécula consulta, propuesto por Coley y colaboradores.",
        zh = "一种基于相似度的逆合成预测方法,通过检索与查询分子产物相似的先例反应来对候选断键进行排序,由 Coley 等人提出。",
        term_es = "RetroSim",
        term_zh = "RetroSim",
        aliases_es = { "retrosíntesis basada en similitud" },
        aliases_zh = { "基于相似度的逆合成", "RetroSim 模型" },
    }
    
    data["retrosynthesis"] = {
        short = "A problem-solving strategy in synthetic chemistry that analyzes a target molecule by recursively applying disconnections to simpler precursors, yielding candidate routes to commercially available starting materials.",
        article = nil,
        aliases = { "retrosynthetic analysis", "retrosynthetic planning", "synthesis route planning", "retro-synthesis" },
        es = "Estrategia de resolución de problemas en química sintética que analiza una molécula diana aplicando recursivamente desconexiones a precursores más simples, generando rutas candidatas hasta materiales de partida disponibles comercialmente.",
        zh = "合成化学中的一种问题求解策略,通过对目标分子递归应用断键得到更简单的前体,从而生成通向市售起始原料的候选合成路线。",
        term_es = "retrosíntesis",
        term_zh = "逆合成",
        aliases_es = { "análisis retrosintético", "planificación retrosintética", "planificación de rutas de síntesis" },
        aliases_zh = { "逆合成分析", "反向合成", "逆合成规划" },
    }
    
    data["retroxpert"] = {
        short = "A two-stage retrosynthesis prediction model that first identifies the reaction center via a graph neural network and then generates reactant SMILES with a transformer, combining template-free and template-aware ideas.",
        article = nil,
        aliases = { "RetroXpert", "RetroXpert model" },
        es = "Modelo de predicción retrosintética en dos etapas que primero identifica el centro de reacción mediante una red neuronal de grafos y luego genera los SMILES de los reactivos con un transformador, combinando ideas libres de plantilla y basadas en plantilla.",
        zh = "一种两阶段逆合成预测模型,先通过图神经网络识别反应中心,再使用 Transformer 生成反应物的 SMILES,结合了无模板与基于模板的思想。",
        term_es = "RetroXpert",
        term_zh = "RetroXpert",
        aliases_es = { "modelo RetroXpert" },
        aliases_zh = { "RetroXpert 模型" },
    }
    
    data["return"] = {
        short = "In reinforcement learning, the cumulative (typically discounted) sum of rewards received from a given time step onward along a trajectory. The expected return is the quantity that policy and value-based methods seek to maximize.",
        article = nil,
        aliases = { "discounted return", "cumulative reward", "return G_t" },
        es = "En aprendizaje por refuerzo, la suma acumulada (típicamente descontada) de recompensas recibidas desde un instante dado en adelante a lo largo de una trayectoria. El retorno esperado es la cantidad que los métodos basados en política y en valor buscan maximizar.",
        zh = "在强化学习中,从给定时刻开始沿轨迹获得的累积(通常为折扣)奖励之和。期望回报是基于策略和基于价值的方法所要最大化的目标量。",
        term_es = "retorno",
        term_zh = "回报",
        aliases_es = { "retorno descontado", "recompensa acumulada" },
        aliases_zh = { "折扣回报", "累积奖励", "return" },
    }
    
    data["reverse diffusion"] = {
        short = "The denoising direction of a diffusion model: starting from Gaussian noise and iteratively removing noise via a learned score or noise-prediction network to recover a sample from the data distribution.",
        article = nil,
        aliases = { "reverse process", "denoising process", "reverse diffusion process", "backward diffusion" },
        es = "Dirección de denoising de un modelo de difusión: parte de ruido gaussiano y elimina ruido iterativamente mediante una red que predice el ruido o el score aprendido, para recuperar una muestra de la distribución de datos.",
        zh = "扩散模型的去噪方向:从高斯噪声出发,借助学习到的得分(score)或噪声预测网络逐步去噪,从而从数据分布中采样。",
        term_es = "difusión inversa",
        term_zh = "反向扩散",
        aliases_es = { "proceso inverso", "proceso de denoising", "proceso de difusión inverso" },
        aliases_zh = { "反向过程", "去噪过程", "逆扩散" },
    }
    
    data["reward"] = {
        short = "In reinforcement learning, the scalar feedback signal emitted by the environment after each action, encoding the immediate desirability of the resulting transition. The agent's objective is to maximize cumulative (discounted) reward over time.",
        article = nil,
        aliases = { "reward signal", "rewards" },
        es = "En aprendizaje por refuerzo, la señal escalar de retroalimentación emitida por el entorno tras cada acción, que codifica la deseabilidad inmediata de la transición resultante. El objetivo del agente es maximizar la recompensa acumulada (descontada) a lo largo del tiempo.",
        zh = "在强化学习中,环境在每个动作之后发出的标量反馈信号,编码所产生转移的即时期望度。智能体的目标是最大化随时间累积的(折扣)奖励。",
        term_es = "recompensa",
        term_zh = "奖励",
        aliases_es = { "señal de recompensa" },
        aliases_zh = { "奖赏", "reward", "回报信号" },
    }
    
    data["reward hacking"] = {
        short = "A failure mode in which an agent or language model maximizes a learned reward function by exploiting unintended shortcuts or specification flaws, rather than achieving the goal the reward was meant to capture.",
        article = nil,
        aliases = { "Reward Hacking", "reward gaming", "reward exploitation", "specification gaming" },
        es = "Modo de fallo en el que un agente o modelo de lenguaje maximiza una función de recompensa aprendida explotando atajos no previstos o defectos de especificación, en lugar de alcanzar el objetivo que la recompensa pretendía capturar.",
        zh = "一种失败模式,智能体或语言模型通过利用意料之外的捷径或奖励规范的缺陷来最大化已学习的奖励函数,而非真正实现奖励所要表达的目标。",
        term_es = "reward hacking",
        term_zh = "奖励黑客",
        aliases_es = { "reward hacking", "explotación de la recompensa", "gaming de la recompensa", "manipulación de la recompensa" },
        aliases_zh = { "reward hacking", "奖励作弊", "奖励钻空子", "规范钻空子" },
    }
    
    data["reward model"] = {
        short = "A model trained to predict a scalar reward for a candidate output, typically from human preference comparisons, and used to provide a learning signal during reinforcement-learning-based alignment.",
        article = nil,
        aliases = { "Reward Model", "RM", "preference model", "reward modeling", "reward modelling" },
        es = "Modelo entrenado para predecir una recompensa escalar para una salida candidata, normalmente a partir de comparaciones de preferencias humanas, y utilizado como señal de aprendizaje durante el alineamiento basado en aprendizaje por refuerzo.",
        zh = "一种被训练用于预测候选输出标量奖励的模型,通常基于人类偏好对比训练得到,用作基于强化学习的对齐过程中的学习信号。",
        term_es = "modelo de recompensa",
        term_zh = "奖励模型",
        aliases_es = { "RM", "modelo de preferencias", "reward model" },
        aliases_zh = { "RM", "偏好模型", "reward model" },
    }
    
    data["reward modeling"] = {
        short = "Training a model to predict scalar rewards over candidate outputs, typically from human preference comparisons, providing a learned reward signal that downstream RL algorithms can optimize against.",
        article = nil,
        aliases = { "reward model", "RM", "preference reward modeling", "reward model training" },
        es = "Entrenamiento de un modelo para predecir recompensas escalares sobre salidas candidatas, normalmente a partir de comparaciones de preferencias humanas, proporcionando una señal de recompensa aprendida que los algoritmos de RL posteriores pueden optimizar.",
        zh = "训练一个模型对候选输出预测标量奖励的过程,通常基于人类偏好比较数据,从而为下游强化学习算法提供可优化的学习奖励信号。",
        term_es = "modelado de recompensa",
        term_zh = "奖励建模",
        aliases_es = { "modelo de recompensa", "entrenamiento de modelo de recompensa" },
        aliases_zh = { "奖励模型", "奖励模型训练", "RM" },
    }
    
    data["reward over-optimization"] = {
        short = "A failure mode of RLHF in which optimizing too aggressively against a learned reward model causes the policy's true quality (under the underlying human preference) to degrade even as the proxy reward keeps rising, an instance of Goodhart's law.",
        article = nil,
        aliases = { "reward overoptimization", "reward hacking via overoptimization", "reward model overoptimization", "reward over optimization" },
        es = "Modo de fallo de RLHF en el que optimizar de forma demasiado agresiva contra un modelo de recompensa aprendido degrada la calidad real de la política (según la preferencia humana subyacente) aunque la recompensa sustituta siga aumentando, una manifestación de la ley de Goodhart.",
        zh = "RLHF 的一种失效模式:对学习到的奖励模型过度优化时,代理奖励持续上升,但策略在真实人类偏好下的质量反而下降,是古德哈特定律(Goodhart's law)的一种表现。",
        term_es = "sobreoptimización de la recompensa",
        term_zh = "奖励过度优化",
        aliases_es = { "sobreoptimización de la recompensa aprendida", "sobreoptimización del modelo de recompensa" },
        aliases_zh = { "奖励过优化", "奖励模型过度优化" },
    }
    
    data["reward shaping"] = {
        short = "The practice of augmenting the environment's reward signal with additional, often dense, reward terms designed to guide learning. Potential-based shaping preserves the optimal policy.",
        article = nil,
        aliases = { "shaped reward", "potential-based reward shaping", "reward engineering" },
        es = "Práctica de aumentar la señal de recompensa del entorno con términos de recompensa adicionales, a menudo densos, diseñados para guiar el aprendizaje. El shaping basado en potenciales preserva la política óptima.",
        zh = "在环境奖励信号上附加额外(通常更密集)的奖励项以引导学习的做法;基于势函数的奖励塑形可保持最优策略不变。",
        term_es = "reward shaping",
        term_zh = "奖励塑形",
        aliases_es = { "modelado de la recompensa", "shaping de recompensa", "ingeniería de recompensa" },
        aliases_zh = { "奖励整形", "奖励工程", "reward shaping" },
    }
    
    data["rewardbench"] = {
        short = "A benchmark from the Allen Institute for AI for evaluating reward models on chat, reasoning, safety, and code preference pairs, reporting accuracy at preferring the chosen response over the rejected one across categories.",
        article = nil,
        aliases = { "RewardBench", "Reward Bench", "reward bench" },
        es = "Benchmark del Allen Institute for AI para evaluar modelos de recompensa sobre pares de preferencia de chat, razonamiento, seguridad y código, reportando la precisión al preferir la respuesta elegida frente a la rechazada en cada categoría.",
        zh = "由 Allen Institute for AI 提出的奖励模型评测基准,覆盖对话、推理、安全和代码等类别的偏好对,按类别报告模型选中“被偏好”回答而非“被拒绝”回答的准确率。",
        term_es = "RewardBench",
        term_zh = "RewardBench",
        aliases_es = { "Reward Bench" },
        aliases_zh = { "Reward Bench", "奖励模型基准" },
    }
    
    data["reweighing"] = {
        short = "A pre-processing fairness technique that assigns instance weights based on the joint distribution of protected attribute and label, so that, in the weighted training set, the protected attribute and the label are statistically independent.",
        article = nil,
        aliases = { "reweighting", "instance reweighing", "Kamiran-Calders reweighing", "reweighting for fairness" },
        es = "Técnica de equidad de preprocesamiento que asigna pesos a las instancias en función de la distribución conjunta del atributo protegido y la etiqueta, de modo que, en el conjunto de entrenamiento ponderado, el atributo protegido y la etiqueta sean estadísticamente independientes.",
        zh = "一种预处理公平性方法:依据受保护属性与标签的联合分布为样本赋予权重,使加权后的训练集中受保护属性与标签在统计上相互独立。",
        term_es = "reponderación",
        term_zh = "重加权",
        aliases_es = { "reponderación de instancias", "reweighing de Kamiran-Calders", "reponderación para equidad" },
        aliases_zh = { "样本重加权", "Kamiran-Calders 重加权", "面向公平的重加权" },
    }
    
    data["rfam database"] = {
        short = "A curated database of non-coding RNA families represented as multiple-sequence alignments, consensus secondary structures, and covariance models used for homology search.",
        article = nil,
        aliases = { "Rfam", "Rfam database" },
        es = "Base de datos curada de familias de ARN no codificante representadas mediante alineamientos múltiples de secuencias, estructuras secundarias consenso y modelos de covarianza usados para la búsqueda de homología.",
        zh = "经人工策展的非编码 RNA 家族数据库,以多序列比对、共识二级结构以及用于同源性搜索的协方差模型形式表示。",
        term_es = "Rfam",
        term_zh = "Rfam 数据库",
        aliases_es = { "base de datos Rfam" },
        aliases_zh = { "Rfam", "Rfam database" },
    }
    
    data["rfdiffusion"] = {
        short = "A diffusion-based generative model for protein backbone design that fine-tunes the RoseTTAFold structure prediction network to denoise random coordinates into novel functional protein structures, developed by the Baker lab.",
        article = nil,
        aliases = { "RFdiffusion", "RoseTTAFold diffusion", "RF diffusion" },
        es = "Modelo generativo basado en difusión para el diseño de esqueletos proteicos que ajusta la red de predicción de estructura RoseTTAFold para denoiser coordenadas aleatorias y producir nuevas estructuras de proteínas funcionales, desarrollado por el laboratorio Baker.",
        zh = "一种基于扩散的蛋白质骨架设计生成模型,通过微调 RoseTTAFold 结构预测网络,对随机坐标进行去噪以生成具有功能的新型蛋白质结构,由 Baker 实验室开发。",
        term_es = "RFdiffusion",
        term_zh = "RFdiffusion",
        aliases_es = { "difusión RoseTTAFold", "modelo RFdiffusion" },
        aliases_zh = { "RoseTTAFold 扩散", "RFdiffusion 模型" },
    }
    
    data["rfdiffusion all-atom"] = {
        short = "An extension of RFdiffusion that jointly diffuses protein backbones, side chains, and bound small molecules at all-atom resolution, enabling de novo design of protein binders for arbitrary ligands.",
        article = nil,
        aliases = { "RFdiffusion all-atom", "RFdiffusionAA", "RFdiffusion-AA", "all-atom RFdiffusion" },
        es = "Extensión de RFdiffusion que difunde conjuntamente los esqueletos proteicos, las cadenas laterales y los ligandos pequeños unidos con resolución de todos los átomos, permitiendo el diseño de novo de proteínas que se unen a ligandos arbitrarios.",
        zh = "RFdiffusion 的扩展版本,以全原子分辨率联合扩散蛋白质骨架、侧链以及结合的小分子配体,可针对任意配体进行从头蛋白质结合物设计。",
        term_es = "RFdiffusion all-atom",
        term_zh = "RFdiffusion all-atom",
        aliases_es = { "RFdiffusionAA", "RFdiffusion de todos los átomos" },
        aliases_zh = { "RFdiffusionAA", "全原子 RFdiffusion" },
    }
    
    data["rho-1"] = {
        short = "A 2024 language model and training recipe that uses Selective Language Modeling (SLM) to focus the loss on tokens scored as useful by a small reference model, improving sample efficiency on math and reasoning data.",
        article = nil,
        aliases = { "Rho-1", "Rho1", "RHO-1", "rho 1", "Selective Language Modeling" },
        es = "Modelo de lenguaje y receta de entrenamiento de 2024 que utiliza Selective Language Modeling (SLM) para concentrar la pérdida en los tokens calificados como útiles por un modelo de referencia pequeño, mejorando la eficiencia en datos de matemáticas y razonamiento.",
        zh = "2024 年提出的语言模型与训练方案,采用选择性语言建模(Selective Language Modeling, SLM),仅在小型参考模型判定为有用的 token 上计算损失,从而在数学和推理数据上提升样本效率。",
        term_es = "Rho-1",
        term_zh = "Rho-1",
        aliases_es = { "Rho1", "modelado selectivo de lenguaje" },
        aliases_zh = { "Rho1", "选择性语言建模", "SLM" },
    }
    
    data["ribo-seq"] = {
        short = "A high-throughput sequencing technique that captures ribosome-protected mRNA fragments to map ribosome occupancy genome-wide and quantify translation at codon resolution.",
        article = nil,
        aliases = { "Ribo-seq", "ribosome profiling", "ribosome footprinting" },
        es = "Técnica de secuenciación de alto rendimiento que captura fragmentos de ARNm protegidos por ribosomas para mapear la ocupación ribosómica en todo el genoma y cuantificar la traducción a resolución de codón.",
        zh = "一种高通量测序技术,通过捕获被核糖体保护的 mRNA 片段,在全基因组范围内绘制核糖体占据情况并以密码子分辨率定量翻译活性。",
        term_es = "Ribo-seq",
        term_zh = "Ribo-seq",
        aliases_es = { "perfilado ribosómico", "huella ribosómica" },
        aliases_zh = { "核糖体图谱测序", "核糖体足迹测序", "Ribosome profiling" },
    }
    
    data["ribosomal depletion"] = {
        short = "A library-preparation strategy for RNA-seq that removes abundant ribosomal RNA before sequencing — for example with Ribo-Zero or RNase H-based kits — preserving non-polyadenylated transcripts.",
        article = nil,
        aliases = { "rRNA depletion", "ribo-depletion", "ribosomal RNA depletion" },
        es = "Estrategia de preparación de bibliotecas para RNA-seq que elimina el ARN ribosómico abundante antes de secuenciar —por ejemplo con kits Ribo-Zero o basados en RNasa H— preservando los transcritos no poliadenilados.",
        zh = "RNA-seq 文库制备中的一种策略,在测序前去除丰度极高的核糖体 RNA(例如使用 Ribo-Zero 或基于 RNase H 的试剂盒),以保留非多聚腺苷酸化的转录本。",
        term_es = "depleción ribosómica",
        term_zh = "核糖体RNA去除",
        aliases_es = { "depleción de ARNr", "eliminación de ARN ribosómico" },
        aliases_zh = { "rRNA 去除", "核糖体 RNA 去除", "rRNA depletion" },
    }
    
    data["ribosome profiling"] = {
        short = "A sequencing technique that captures ribosome-protected mRNA fragments to map the precise positions of translating ribosomes across the transcriptome. It enables genome-wide measurement of translation rates and identification of actively translated open reading frames.",
        article = nil,
        aliases = { "Ribo-seq", "ribo-seq", "ribosome footprinting", "Ribosome profiling" },
        es = "Técnica de secuenciación que captura fragmentos de ARNm protegidos por ribosomas para mapear con precisión las posiciones de los ribosomas en traducción a lo largo del transcriptoma. Permite medir tasas de traducción a escala genómica.",
        zh = "一种测序技术,通过捕获被核糖体保护的mRNA片段,在全转录组水平精确定位正在翻译的核糖体位置,从而测量翻译速率并识别活跃翻译的开放阅读框。",
        term_es = "perfilado de ribosomas",
        term_zh = "核糖体图谱分析",
        aliases_es = { "Ribo-seq", "ribo-seq", "perfil ribosómico", "huella ribosómica" },
        aliases_zh = { "Ribo-seq", "ribo-seq", "核糖体测序", "核糖体足迹分析" },
    }
    
    data["riffusion"] = {
        short = "An open-source system (Forsgren and Martiros, 2022) that fine-tunes Stable Diffusion to generate spectrogram images from text prompts and converts them to audio, enabling text-to-music generation through image-domain diffusion.",
        article = nil,
        aliases = { "Riffusion", "Riffusion model" },
        es = "Sistema de código abierto (Forsgren y Martiros, 2022) que afina Stable Diffusion para generar imágenes de espectrogramas a partir de prompts de texto y las convierte en audio, permitiendo la generación de música a partir de texto mediante difusión en el dominio de la imagen.",
        zh = "Forsgren 和 Martiros(2022)发布的开源系统,对 Stable Diffusion 进行微调以从文本提示生成频谱图图像并转换为音频,从而通过图像域扩散实现文本到音乐的生成。",
        term_es = "Riffusion",
        term_zh = "Riffusion",
        aliases_es = { "modelo Riffusion" },
        aliases_zh = { "Riffusion模型" },
    }
    
    data["right to be forgotten"] = {
        short = "A legal right (notably under EU GDPR Article 17) allowing individuals to request the deletion of their personal data from a data controller's systems. In ML, it motivates research on machine unlearning and dataset reconstruction.",
        article = nil,
        aliases = { "RTBF", "right to erasure", "GDPR Article 17", "data deletion right" },
        es = "Derecho legal (en particular bajo el artículo 17 del RGPD de la UE) que permite a las personas solicitar la eliminación de sus datos personales de los sistemas de un responsable del tratamiento. En aprendizaje automático motiva la investigación en olvido máquina (machine unlearning) y reconstrucción de conjuntos de datos.",
        zh = "一项法律权利(尤其见于欧盟《通用数据保护条例》第 17 条),允许个人要求数据控制者从其系统中删除自身的个人数据。在机器学习领域,该权利推动了机器遗忘与数据集重构等研究。",
        term_es = "derecho al olvido",
        term_zh = "被遗忘权",
        aliases_es = { "RTBF", "derecho de supresión", "artículo 17 del RGPD", "derecho a la eliminación de datos" },
        aliases_zh = { "RTBF", "删除权", "GDPR 第 17 条", "数据删除权" },
    }
    
    data["right to erasure"] = {
        short = "The formal designation, under GDPR Article 17, of the right enabling data subjects to require deletion of their personal data when specified conditions are met. Commonly known in public discourse as the right to be forgotten.",
        article = nil,
        aliases = { "GDPR Article 17", "Article 17 GDPR", "right to be forgotten", "erasure right", "data erasure right" },
        es = "Designación formal, en virtud del artículo 17 del RGPD, del derecho que permite a los interesados exigir la supresión de sus datos personales cuando se cumplen ciertas condiciones. Coloquialmente se le conoce como derecho al olvido.",
        zh = "依据 GDPR 第 17 条对该权利的正式表述:在符合特定条件时,数据主体可要求删除其个人数据。在公众讨论中通常称为被遗忘权。",
        term_es = "derecho de supresión",
        term_zh = "删除权",
        aliases_es = { "artículo 17 del RGPD", "derecho al olvido", "derecho a la eliminación" },
        aliases_zh = { "GDPR 第 17 条", "被遗忘权", "数据删除权" },
    }
    
    data["right to explanation"] = {
        short = "A legal or normative principle, debated under EU GDPR, that individuals subject to automated decision-making should receive meaningful information about the logic, significance, and envisaged consequences of those decisions.",
        article = nil,
        aliases = { "right to an explanation", "right of explanation", "GDPR right to explanation", "explanation right" },
        es = "Principio jurídico o normativo, debatido en torno al RGPD de la UE, según el cual las personas sometidas a decisiones automatizadas deben recibir información significativa sobre la lógica, la importancia y las consecuencias previstas de dichas decisiones.",
        zh = "在欧盟《通用数据保护条例》框架下争议中的法律或规范性原则:受到自动化决策影响的个人应获得有关该决策的逻辑、意义及预期后果的有效说明。",
        term_es = "derecho a explicación",
        term_zh = "解释权",
        aliases_es = { "derecho a una explicación", "derecho de explicación", "derecho a explicación bajo el RGPD" },
        aliases_zh = { "获得解释权", "GDPR 解释权", "算法解释权" },
    }
    
    data["ring all-reduce"] = {
        short = "A bandwidth-optimal all-reduce algorithm in which N processes are arranged in a logical ring and exchange chunks across N−1 reduce-scatter steps followed by N−1 all-gather steps, achieving communication volume independent of N per device.",
        article = nil,
        aliases = { "Ring AllReduce", "ring allreduce", "Baidu ring all-reduce" },
        es = "Algoritmo de all-reduce óptimo en ancho de banda en el que N procesos se organizan en un anillo lógico e intercambian fragmentos a lo largo de N−1 pasos de reduce-scatter seguidos de N−1 pasos de all-gather, logrando un volumen de comunicación por dispositivo independiente de N.",
        zh = "一种带宽最优的 all-reduce 算法:将 N 个进程组织成逻辑环,先经过 N−1 次 reduce-scatter,再经过 N−1 次 all-gather 进行分块交换,使每张设备的通信量不随 N 增长。",
        term_es = "ring all-reduce",
        term_zh = "环形 All-Reduce",
        aliases_es = { "all-reduce en anillo", "AllReduce en anillo" },
        aliases_zh = { "Ring AllReduce", "环形全规约", "环形归约" },
    }
    
    data["ring attention"] = {
        short = "A distributed attention algorithm that partitions queries, keys, and values across devices arranged in a ring and rotates KV blocks between them, enabling near-linear scaling of context length with the number of devices.",
        article = nil,
        aliases = { "Ring Attention", "ring-attention", "ring self-attention" },
        es = "Algoritmo de atención distribuida que reparte queries, keys y values entre dispositivos dispuestos en anillo y rota los bloques KV entre ellos, permitiendo un escalado casi lineal de la longitud de contexto con el número de dispositivos.",
        zh = "一种分布式注意力算法,将 query、key、value 划分到呈环形拓扑排列的多设备上,并在设备间循环传递 KV 块,从而使上下文长度几乎随设备数线性扩展。",
        term_es = "atención en anillo",
        term_zh = "环形注意力",
        aliases_es = { "Ring Attention", "atención ring" },
        aliases_zh = { "Ring Attention", "环注意力" },
    }
    
    data["ring count"] = {
        short = "A molecular descriptor that counts the number of rings in a chemical structure, often distinguished by the smallest set of smallest rings (SSSR), used in drug-likeness assessment and chemical filtering.",
        article = nil,
        aliases = { "number of rings", "ring number", "SSSR count", "ring count descriptor" },
        es = "Descriptor molecular que cuenta el número de anillos en una estructura química, a menudo distinguido por el conjunto más pequeño de anillos más pequeños (SSSR), usado en la evaluación de la similitud a fármaco y en filtros químicos.",
        zh = "一种分子描述符,用于统计化学结构中的环数,通常以最小的最小环集合(SSSR)来定义,常用于类药性评估与化学筛选。",
        term_es = "número de anillos",
        term_zh = "环数",
        aliases_es = { "recuento de anillos", "descriptor de número de anillos" },
        aliases_zh = { "环计数", "环的数量", "SSSR 环数" },
    }
    
    data["ring-allreduce algorithm"] = {
        short = "A bandwidth-optimal all-reduce algorithm in which N processes are arranged in a logical ring; vectors are split into N chunks and circulated through reduce-scatter and all-gather phases, so every process exchanges only 2(N-1)/N of the data per worker.",
        article = nil,
        aliases = { "ring all-reduce", "ring-allreduce", "ring AllReduce", "Baidu ring-allreduce" },
        es = "Algoritmo de all-reduce con ancho de banda óptimo en el que N procesos se organizan en un anillo lógico; los vectores se dividen en N fragmentos que circulan a través de fases de reduce-scatter y all-gather, de modo que cada proceso intercambia solo 2(N-1)/N de los datos por trabajador.",
        zh = "一种带宽最优的 all-reduce 算法:将 N 个进程组织成逻辑环,将向量切分为 N 块,依次经过 reduce-scatter 与 all-gather 阶段流转,使每个进程在每个工作节点上仅交换 2(N-1)/N 的数据量。",
        term_es = "algoritmo ring-allreduce",
        term_zh = "环形 all-reduce 算法",
        aliases_es = { "ring all-reduce", "ring-allreduce", "all-reduce en anillo", "ring-allreduce de Baidu" },
        aliases_zh = { "ring all-reduce", "环 all-reduce", "环形 AllReduce", "百度 ring-allreduce" },
    }
    
    data["rise"] = {
        short = "Randomized Input Sampling for Explanation; a black-box saliency method that estimates feature importance by repeatedly masking the input with random masks and weighting them by the resulting prediction scores.",
        article = nil,
        aliases = { "RISE", "Randomized Input Sampling for Explanation" },
        es = "Randomized Input Sampling for Explanation; método de saliencia de caja negra que estima la importancia de las características enmascarando repetidamente la entrada con máscaras aleatorias y ponderándolas por las puntuaciones de predicción resultantes.",
        zh = "RISE(用于解释的随机输入采样),一种黑盒显著性方法,通过对输入反复施加随机掩码并以预测得分加权来估计特征重要性。",
        term_es = "RISE",
        term_zh = "RISE",
        aliases_es = { "Randomized Input Sampling for Explanation" },
        aliases_zh = { "随机输入采样解释", "Randomized Input Sampling for Explanation" },
    }
    
    data["risk assessment fairness"] = {
        short = "Fairness considerations in algorithmic risk assessment tools used in domains like criminal justice, credit scoring, and child welfare, where predictions about individuals carry high-stakes consequences. Encompasses calibration, equalized odds, and disparate impact analyses across protected groups.",
        article = nil,
        aliases = { "fairness in risk assessment", "algorithmic risk assessment fairness" },
        es = "Consideraciones de equidad en herramientas algorítmicas de evaluación de riesgo usadas en justicia penal, calificación crediticia y bienestar infantil, donde las predicciones sobre individuos tienen consecuencias graves. Incluye análisis de calibración, igualdad de probabilidades e impacto dispar entre grupos protegidos.",
        zh = "风险评估算法工具中的公平性考量,适用于刑事司法、信用评分、儿童福利等高风险预测场景。涵盖校准、机会均等和不同群体间的差异性影响分析。",
        term_es = "equidad en evaluación de riesgo",
        term_zh = "风险评估公平性",
        aliases_es = { "equidad en la evaluación de riesgo", "equidad en evaluaciones de riesgo algorítmicas" },
        aliases_zh = { "风险评估的公平性", "算法风险评估公平性" },
    }
    
    data["risk difference"] = {
        short = "The arithmetic difference between the probability of an event in the treated group and that in a comparison group. It is zero under no effect and is interpreted on the same scale as the outcome's probability.",
        article = nil,
        aliases = { "Risk Difference", "RD", "absolute risk difference", "absolute risk reduction", "ARR" },
        es = "Diferencia aritmética entre la probabilidad de un evento en el grupo tratado y la del grupo de comparación. Es cero cuando no hay efecto y se interpreta en la misma escala que la probabilidad del resultado.",
        zh = "处理组事件概率与对照组事件概率之间的算术差。无效应时为零,与结果概率处于同一尺度。",
        term_es = "diferencia de riesgos",
        term_zh = "风险差",
        aliases_es = { "RD", "diferencia absoluta de riesgo", "reducción absoluta del riesgo" },
        aliases_zh = { "RD", "绝对风险差", "风险差异" },
    }
    
    data["risk-controlling prediction set"] = {
        short = "A prediction set, generalizing conformal prediction, whose expected loss is guaranteed to fall below a user-specified threshold with high probability over a calibration set.",
        article = nil,
        aliases = { "RCPS", "risk controlling prediction set" },
        es = "Un conjunto de predicción que generaliza la predicción conformal y cuyo riesgo esperado está garantizado, con alta probabilidad sobre un conjunto de calibración, por debajo de un umbral fijado por el usuario.",
        zh = "一种推广共形预测的预测集,其期望损失在校准集上以高概率被保证低于用户指定的阈值。",
        term_es = "conjunto de predicción con riesgo controlado",
        term_zh = "风险控制预测集",
        aliases_es = { "RCPS", "predicción con riesgo controlado" },
        aliases_zh = { "RCPS", "风险可控预测集" },
    }
    
    data["risk-coverage curve"] = {
        short = "A plot of selective-prediction risk versus coverage that shows how error decreases as the model abstains on its least-confident inputs; the area under it summarizes selective performance.",
        article = nil,
        aliases = { "RC curve", "risk coverage curve", "selective risk curve" },
        es = "Una gráfica del riesgo de predicción selectiva frente a la cobertura, que muestra cómo el error disminuye a medida que el modelo se abstiene en sus entradas con menor confianza; el área bajo la curva resume el desempeño selectivo.",
        zh = "选择性预测风险随覆盖率变化的曲线,显示模型在最不自信的输入上弃权时误差如何下降;曲线下面积概括其选择性性能。",
        term_es = "curva riesgo-cobertura",
        term_zh = "风险-覆盖率曲线",
        aliases_es = { "curva RC", "curva de riesgo y cobertura" },
        aliases_zh = { "RC 曲线", "风险覆盖曲线" },
    }
    
    data["rlaif"] = {
        short = "Reinforcement Learning from AI Feedback: an alignment method that replaces human preference annotators with a strong LLM that produces preference labels, which are then used to train a reward model and policy as in RLHF.",
        article = nil,
        aliases = { "RLAIF", "Reinforcement Learning from AI Feedback", "AI feedback RL" },
        es = "Aprendizaje por Refuerzo a partir de Retroalimentación de IA: método de alineamiento que reemplaza a los anotadores humanos por un LLM potente que produce etiquetas de preferencia, usadas luego para entrenar un modelo de recompensa y una política como en RLHF.",
        zh = "AI 反馈强化学习(RLAIF):一种对齐方法,用强大的大语言模型代替人工标注者生成偏好标签,再据此训练奖励模型和策略,流程与 RLHF 类似。",
        term_es = "RLAIF",
        term_zh = "RLAIF",
        aliases_es = { "aprendizaje por refuerzo a partir de retroalimentación de IA" },
        aliases_zh = { "AI 反馈强化学习", "基于 AI 反馈的强化学习" },
    }
    
    data["rlaif multimodal"] = {
        short = "Reinforcement Learning from AI Feedback applied to multimodal models, where preferences over model outputs (typically responses about images) are generated by another AI model rather than humans. Used to scale alignment of vision-language models.",
        article = nil,
        aliases = { "multimodal RLAIF", "RLAIF for VLMs", "AI-feedback alignment multimodal", "multimodal AI feedback RL" },
        es = "Aprendizaje por refuerzo a partir de retroalimentación de IA aplicado a modelos multimodales, donde las preferencias entre respuestas del modelo (normalmente respuestas sobre imágenes) las genera otro modelo de IA en lugar de personas. Se usa para escalar la alineación de modelos visión-lenguaje.",
        zh = "将基于 AI 反馈的强化学习(RLAIF)应用于多模态模型的方法,由另一 AI 模型而非人类对模型输出(通常是关于图像的回答)进行偏好标注,用于规模化对齐视觉-语言模型。",
        term_es = "RLAIF multimodal",
        term_zh = "多模态 RLAIF",
        aliases_es = { "RLAIF para VLMs", "alineación multimodal con retroalimentación de IA" },
        aliases_zh = { "多模态 AI 反馈强化学习", "面向 VLM 的 RLAIF" },
    }
    
    data["rloo"] = {
        short = "REINFORCE Leave-One-Out: an RLHF algorithm that draws several samples per prompt and uses the average reward of the other samples as the baseline in a REINFORCE update, simpler and often more stable than PPO.",
        article = nil,
        aliases = { "RLOO", "REINFORCE Leave-One-Out", "REINFORCE leave one out" },
        es = "REINFORCE Leave-One-Out: algoritmo de RLHF que toma varias muestras por prompt y usa la recompensa media de las demás muestras como línea base en una actualización REINFORCE, más sencillo y a menudo más estable que PPO.",
        zh = "REINFORCE Leave-One-Out(RLOO):一种 RLHF 算法,对每个 prompt 采样多次,使用其余样本的平均奖励作为 REINFORCE 更新中的基线,相比 PPO 更简单且通常更稳定。",
        term_es = "RLOO",
        term_zh = "RLOO",
        aliases_es = { "REINFORCE leave-one-out" },
        aliases_zh = { "REINFORCE 留一法", "Leave-One-Out REINFORCE" },
    }
    
    data["rmats"] = {
        short = "A computational tool for detecting and quantifying differential alternative splicing events from replicate RNA-seq data. It uses a statistical model based on the percent-spliced-in (PSI) metric to identify exon skipping, alternative 5'/3' splice sites, and intron retention.",
        article = nil,
        aliases = { "rMATS", "Multivariate Analysis of Transcript Splicing", "rmats-turbo" },
        es = "Herramienta computacional para detectar y cuantificar eventos de splicing alternativo diferencial a partir de datos RNA-seq con réplicas. Utiliza un modelo estadístico basado en la métrica PSI para identificar omisión de exones, sitios de splicing 5'/3' alternativos y retención de intrones.",
        zh = "一种计算工具,用于从带重复的RNA-seq数据中检测和定量差异可变剪接事件。基于剪接百分比(PSI)指标的统计模型,识别外显子跳跃、5'/3'可变剪接位点以及内含子保留等事件。",
        term_es = "rMATS",
        term_zh = "rMATS",
        aliases_es = { "rMATS", "rmats-turbo" },
        aliases_zh = { "rMATS", "rmats-turbo" },
    }
    
    data["rmsd"] = {
        short = "A scalar measure of the average distance between corresponding atoms of two superposed structures, used to quantify pose accuracy in docking, structural similarity, and convergence of molecular dynamics trajectories.",
        article = nil,
        aliases = { "RMSD", "root-mean-square deviation", "root mean square deviation", "structural RMSD" },
        es = "Medida escalar de la distancia promedio entre átomos correspondientes de dos estructuras superpuestas, utilizada para cuantificar la precisión de poses en docking, la similitud estructural y la convergencia de trayectorias de dinámica molecular.",
        zh = "用于度量两个叠合结构对应原子之间平均距离的标量指标,常用于评估对接姿势精度、结构相似性以及分子动力学轨迹的收敛性。",
        term_es = "RMSD",
        term_zh = "RMSD",
        aliases_es = { "desviación cuadrática media", "raíz de la desviación cuadrática media" },
        aliases_zh = { "均方根偏差", "结构 RMSD" },
    }
    
    data["rmsf"] = {
        short = "The per-atom or per-residue root-mean-square fluctuation around an average structure over a molecular dynamics trajectory, indicating local flexibility and dynamic regions of a biomolecule.",
        article = nil,
        aliases = { "RMSF", "root-mean-square fluctuation", "root mean square fluctuation", "per-residue RMSF" },
        es = "Fluctuación cuadrática media por átomo o por residuo respecto a una estructura promedio a lo largo de una trayectoria de dinámica molecular, que indica la flexibilidad local y las regiones dinámicas de una biomolécula.",
        zh = "在分子动力学轨迹上,每个原子或每个残基相对于平均结构的均方根涨落,反映生物大分子的局部柔性与动态区域。",
        term_es = "RMSF",
        term_zh = "RMSF",
        aliases_es = { "fluctuación cuadrática media", "RMSF por residuo" },
        aliases_zh = { "均方根涨落", "残基 RMSF" },
    }
    
    data["rmsnorm"] = {
        short = "Root-mean-square normalization that rescales activations by their RMS instead of the mean and variance used by LayerNorm. Cheaper than LayerNorm and used in models such as Llama and T5.",
        article = nil,
        aliases = { "RMSNorm", "RMS Norm", "root mean square layer normalization", "Root Mean Square Normalization" },
        es = "Normalización por la raíz cuadrática media que reescala las activaciones por su RMS en lugar de usar media y varianza como LayerNorm. Más barata que LayerNorm y empleada en modelos como Llama y T5.",
        zh = "用激活的均方根(RMS)进行重新缩放的归一化方法,不计算 LayerNorm 中的均值与方差。比 LayerNorm 更轻量,被 Llama、T5 等模型采用。",
        term_es = "RMSNorm",
        term_zh = "RMSNorm",
        aliases_es = { "RMSNorm", "normalización RMS", "normalización por raíz cuadrática media" },
        aliases_zh = { "RMSNorm", "均方根归一化", "RMS 归一化" },
    }
    
    data["rmsprop"] = {
        short = "An adaptive learning rate optimizer that divides each parameter's gradient by an exponentially decaying average of squared past gradients, normalizing step sizes per parameter. Proposed by Hinton in lecture notes.",
        article = nil,
        aliases = { "RMSProp", "RMSprop", "root mean square propagation" },
        es = "Optimizador con tasa de aprendizaje adaptativa que divide el gradiente de cada parámetro por un promedio con decaimiento exponencial de los gradientes pasados al cuadrado, normalizando el tamaño de paso por parámetro.",
        zh = "一种自适应学习率优化器,将每个参数的梯度除以过去梯度平方的指数衰减平均值,从而对每个参数进行步长归一化。由 Hinton 在课程讲义中提出。",
        term_es = "RMSProp",
        term_zh = "RMSProp",
        aliases_es = { "propagación de raíz cuadrática media" },
        aliases_zh = { "均方根传播" },
    }
    
    data["rna editing"] = {
        short = "Post-transcriptional modification of RNA sequence by enzymes such as ADAR (A-to-I editing) and APOBEC (C-to-U editing) that alters individual nucleotides without changing the underlying DNA. RNA editing can change codons, modify splicing, or regulate transcript stability.",
        article = nil,
        aliases = { "RNA editing", "post-transcriptional editing", "ADAR editing", "A-to-I editing", "C-to-U editing" },
        es = "Modificación postranscripcional de la secuencia de ARN por enzimas como ADAR (edición A→I) y APOBEC (edición C→U) que altera nucleótidos individuales sin cambiar el ADN subyacente. Puede modificar codones, alterar el splicing o regular la estabilidad del transcrito.",
        zh = "由ADAR(A→I编辑)和APOBEC(C→U编辑)等酶介导的RNA序列转录后修饰,在不改变DNA序列的情况下改变单个核苷酸。RNA编辑可改变密码子、调节剪接或影响转录本稳定性。",
        term_es = "edición de ARN",
        term_zh = "RNA编辑",
        aliases_es = { "RNA editing", "edición A→I", "edición C→U", "edición postranscripcional" },
        aliases_zh = { "RNA editing", "RNA 编辑", "A→I编辑", "C→U编辑" },
    }
    
    data["rna secondary structure"] = {
        short = "The two-dimensional pattern of base-pairing interactions within an RNA molecule, including stems, loops, hairpins, bulges, and pseudoknots. It is typically predicted by minimizing free energy and is essential to RNA function in catalysis, regulation, and ligand binding.",
        article = nil,
        aliases = { "RNA secondary structure", "secondary structure of RNA", "RNA 2D structure" },
        es = "Patrón bidimensional de interacciones de apareamiento de bases dentro de una molécula de ARN, que incluye tallos, bucles, horquillas, abultamientos y pseudonudos. Suele predecirse minimizando la energía libre y es esencial para la función catalítica, reguladora y de unión a ligandos del ARN.",
        zh = "RNA分子内碱基配对相互作用形成的二维结构模式,包括茎、环、发夹、凸起和假结等。通常通过自由能最小化进行预测,对RNA的催化、调控和配体结合功能至关重要。",
        term_es = "estructura secundaria del ARN",
        term_zh = "RNA二级结构",
        aliases_es = { "RNA secondary structure", "estructura 2D del ARN" },
        aliases_zh = { "RNA secondary structure", "RNA 二级结构" },
    }
    
    data["rna velocity"] = {
        short = "A computational method that infers the future state of single cells by comparing the relative abundance of unspliced (nascent) and spliced (mature) mRNA reads. It estimates a velocity vector in transcriptional space that predicts short-term changes in cell state.",
        article = nil,
        aliases = { "RNA velocity", "RNA-velocity", "velocyto" },
        es = "Método computacional que infiere el estado futuro de células individuales comparando la abundancia relativa de lecturas de ARNm sin empalmar (nacientes) y empalmadas (maduras). Estima un vector de velocidad en el espacio transcripcional que predice cambios a corto plazo en el estado celular.",
        zh = "一种计算方法,通过比较未剪接(新生)和已剪接(成熟)mRNA读段的相对丰度来推断单细胞的未来状态。它在转录空间中估计一个速度向量,从而预测细胞状态的短期变化。",
        term_es = "velocidad de ARN",
        term_zh = "RNA速度",
        aliases_es = { "RNA velocity", "velocidad del ARN", "velocyto" },
        aliases_zh = { "RNA velocity", "RNA 速度", "velocyto" },
    }
    
    data["rna-protein interaction"] = {
        short = "A physical association between an RNA molecule and a protein that mediates processes such as splicing, translation, RNA stability, and localization. RNA–protein interactions are mapped experimentally by methods like CLIP-seq and predicted computationally from sequence and structure.",
        article = nil,
        aliases = { "RNA-protein interaction", "RNA–protein interaction", "RPI", "protein-RNA interaction", "RNA binding protein interaction" },
        es = "Asociación física entre una molécula de ARN y una proteína que media procesos como el splicing, la traducción, la estabilidad y la localización del ARN. Se mapea experimentalmente con métodos como CLIP-seq y se predice computacionalmente a partir de secuencia y estructura.",
        zh = "RNA分子与蛋白质之间的物理相互作用,介导剪接、翻译、RNA稳定性和定位等过程。可通过CLIP-seq等实验方法进行作图,也可基于序列和结构进行计算预测。",
        term_es = "interacción ARN-proteína",
        term_zh = "RNA-蛋白质相互作用",
        aliases_es = { "RNA-protein interaction", "interacción proteína-ARN", "interacción RNA-proteína" },
        aliases_zh = { "RNA-protein interaction", "蛋白质-RNA相互作用", "RNA 蛋白相互作用" },
    }
    
    data["rna-seq"] = {
        short = "A high-throughput sequencing technique that quantifies the abundance and diversity of RNA transcripts in a sample by sequencing cDNA derived from RNA. It is the standard method for measuring gene expression, detecting alternative splicing, and discovering novel transcripts.",
        article = nil,
        aliases = { "RNA-seq", "RNA sequencing", "RNAseq", "transcriptome sequencing", "whole transcriptome sequencing", "WTSS" },
        es = "Técnica de secuenciación de alto rendimiento que cuantifica la abundancia y diversidad de transcritos de ARN en una muestra mediante la secuenciación del ADNc derivado del ARN. Es el método estándar para medir expresión génica, detectar splicing alternativo y descubrir transcritos nuevos.",
        zh = "一种高通量测序技术,通过对RNA衍生的cDNA进行测序来定量样本中RNA转录本的丰度和多样性。它是测量基因表达、检测可变剪接和发现新转录本的标准方法。",
        term_es = "RNA-seq",
        term_zh = "RNA-seq",
        aliases_es = { "RNA-seq", "secuenciación de ARN", "secuenciación del transcriptoma", "RNAseq" },
        aliases_zh = { "RNA-seq", "RNA 测序", "转录组测序", "RNAseq" },
    }
    
    data["rnafm"] = {
        short = "A foundation model for RNA pretrained on millions of non-coding RNA sequences using masked language modeling. RNA-FM produces sequence embeddings that improve downstream tasks such as secondary structure prediction, RNA-protein interaction, and functional classification.",
        article = nil,
        aliases = { "RNA-FM", "RNAFM", "RNA foundation model", "RNA-FM model" },
        es = "Modelo fundacional para ARN preentrenado sobre millones de secuencias de ARN no codificante usando modelado de lenguaje enmascarado. RNA-FM produce embeddings de secuencia que mejoran tareas posteriores como predicción de estructura secundaria, interacción ARN-proteína y clasificación funcional.",
        zh = "一个RNA基础模型,使用掩码语言建模在数百万条非编码RNA序列上预训练。RNA-FM生成序列嵌入,可提升二级结构预测、RNA-蛋白质相互作用和功能分类等下游任务的性能。",
        term_es = "RNA-FM",
        term_zh = "RNA-FM",
        aliases_es = { "RNA-FM", "RNAFM", "modelo fundacional de ARN" },
        aliases_zh = { "RNA-FM", "RNAFM", "RNA 基础模型" },
    }
    
    data["rnafold"] = {
        short = "A program from the ViennaRNA package that predicts the minimum free energy secondary structure of a single RNA sequence using dynamic programming over the Turner thermodynamic model. It also computes partition functions and base-pairing probabilities.",
        article = nil,
        aliases = { "RNAfold", "RNAFold", "ViennaRNA RNAfold" },
        es = "Programa del paquete ViennaRNA que predice la estructura secundaria de mínima energía libre de una secuencia de ARN única usando programación dinámica sobre el modelo termodinámico de Turner. También calcula funciones de partición y probabilidades de apareamiento de bases.",
        zh = "ViennaRNA软件包中的程序,使用动态规划在Turner热力学模型上预测单条RNA序列的最小自由能二级结构,同时计算配分函数和碱基配对概率。",
        term_es = "RNAfold",
        term_zh = "RNAfold",
        aliases_es = { "RNAfold", "ViennaRNA RNAfold" },
        aliases_zh = { "RNAfold", "ViennaRNA RNAfold" },
    }
    
    data["rnn transducer"] = {
        short = "An end-to-end ASR model proposed by Graves (2012) that combines an acoustic encoder, a label predictor, and a joint network to define a probability distribution over output sequences without requiring frame-level alignment, suitable for streaming recognition.",
        article = nil,
        aliases = { "RNN-T", "RNN transducer", "recurrent neural network transducer", "RNN-Transducer" },
        es = "Modelo de ASR de extremo a extremo propuesto por Graves (2012) que combina un codificador acústico, un predictor de etiquetas y una red conjunta para definir una distribución de probabilidad sobre secuencias de salida sin requerir alineamiento a nivel de trama, adecuado para reconocimiento en streaming.",
        zh = "Graves(2012)提出的端到端语音识别模型,由声学编码器、标签预测器和联合网络组成,无需逐帧对齐即可对输出序列定义概率分布,适合流式识别。",
        term_es = "transductor RNN",
        term_zh = "RNN转录器",
        aliases_es = { "RNN-T", "transductor de red neuronal recurrente", "RNN transducer" },
        aliases_zh = { "RNN-T", "循环神经网络转录器", "递归神经网络Transducer" },
    }
    
    data["rnn-t"] = {
        short = "Abbreviation of RNN Transducer: an end-to-end ASR architecture (Graves, 2012) using an encoder, predictor, and joint network to model output sequences without frame-level alignment, widely deployed for on-device streaming speech recognition.",
        article = nil,
        aliases = { "RNN-T", "RNN-Transducer", "RNN transducer", "recurrent neural network transducer" },
        es = "Abreviatura de RNN Transducer: arquitectura de ASR de extremo a extremo (Graves, 2012) que utiliza un codificador, un predictor y una red conjunta para modelar secuencias de salida sin alineamiento a nivel de trama, ampliamente desplegada para reconocimiento de habla en streaming en dispositivo.",
        zh = "RNN Transducer 的缩写:Graves(2012)提出的端到端语音识别架构,由编码器、预测器和联合网络组成,可在不依赖逐帧对齐的情况下建模输出序列,广泛用于设备端流式语音识别。",
        term_es = "RNN-T",
        term_zh = "RNN-T",
        aliases_es = { "transductor RNN", "RNN-Transducer", "RNN transducer" },
        aliases_zh = { "RNN转录器", "RNN-Transducer", "循环神经网络转录器" },
    }
    
    data["rnnoise"] = {
        short = "A real-time speech noise suppression library (Valin, 2018) that combines DSP (band-energy features, spectral subtraction) with a small recurrent neural network to estimate per-band gains, designed for low-CPU streaming applications and used in Mozilla projects.",
        article = nil,
        aliases = { "RNNoise", "RNNoise denoiser", "rnnoise library" },
        es = "Biblioteca de supresión de ruido en habla en tiempo real (Valin, 2018) que combina DSP (características de energía por banda, sustracción espectral) con una pequeña red neuronal recurrente para estimar ganancias por banda, diseñada para aplicaciones de streaming de bajo coste de CPU y utilizada en proyectos de Mozilla.",
        zh = "Valin(2018)开发的实时语音降噪库,将 DSP(子带能量特征、谱减法)与一个小型循环神经网络相结合以估计各子带增益,面向低 CPU 占用的流式应用,曾在 Mozilla 项目中使用。",
        term_es = "RNNoise",
        term_zh = "RNNoise",
        aliases_es = { "biblioteca RNNoise", "denoiser RNNoise" },
        aliases_zh = { "RNNoise降噪", "RNNoise库" },
    }
    
    data["roadmap epigenomics"] = {
        short = "A NIH-funded consortium project that produced reference epigenomic maps across 111 human tissues and cell types, integrating histone modifications, DNA methylation, chromatin accessibility, and RNA-seq. Its data underpin many regulatory annotation and disease-association studies.",
        article = nil,
        aliases = { "Roadmap Epigenomics Project", "Roadmap Epigenomics Consortium", "REMC", "NIH Roadmap Epigenomics" },
        es = "Proyecto consorcial financiado por los NIH que generó mapas epigenómicos de referencia en 111 tejidos y tipos celulares humanos, integrando modificaciones de histonas, metilación del ADN, accesibilidad de la cromatina y RNA-seq. Sus datos sustentan numerosos estudios de anotación regulatoria y asociación con enfermedades.",
        zh = "由美国NIH资助的联盟项目,在111种人类组织和细胞类型中生成参考表观基因组图谱,整合了组蛋白修饰、DNA甲基化、染色质可及性和RNA-seq数据。其数据支撑了大量调控注释和疾病关联研究。",
        term_es = "Roadmap Epigenomics",
        term_zh = "Roadmap Epigenomics 计划",
        aliases_es = { "Roadmap Epigenomics", "Proyecto Roadmap Epigenomics", "Consorcio Roadmap Epigenomics", "REMC" },
        aliases_zh = { "Roadmap Epigenomics", "Roadmap Epigenomics 项目", "REMC", "NIH 表观基因组路线图" },
    }
    
    data["robbins-monro conditions"] = {
        short = "Conditions on the learning-rate sequence in stochastic approximation, requiring that the step sizes sum to infinity but their squares sum to a finite value, which guarantee almost-sure convergence.",
        article = nil,
        aliases = { "Robbins-Monro conditions", "Robbins-Monro algorithm", "Robbins-Monro" },
        es = "Condiciones sobre la sucesión de tasas de aprendizaje en la aproximación estocástica que exigen que la suma de los pasos sea infinita y la suma de sus cuadrados sea finita, garantizando convergencia casi segura.",
        zh = "随机逼近中对学习率序列的条件,要求步长之和发散而其平方和收敛,由此保证算法几乎必然收敛。",
        term_es = "condiciones de Robbins-Monro",
        term_zh = "Robbins-Monro 条件",
        aliases_es = { "algoritmo de Robbins-Monro" },
        aliases_zh = { "罗宾斯-门罗条件", "Robbins-Monro 算法" },
    }
    
    data["roberta"] = {
        short = "A retrained variant of BERT that drops next-sentence prediction, uses dynamic masking, larger batches, longer training, and more data, achieving stronger performance on standard NLP benchmarks.",
        article = nil,
        aliases = { "RoBERTa", "Robustly Optimized BERT Pretraining Approach", "robustly optimized BERT pretraining approach" },
        es = "Variante reentrenada de BERT que elimina la predicción de la siguiente oración, utiliza enmascaramiento dinámico, lotes más grandes, entrenamiento más prolongado y más datos, logrando un mejor rendimiento en los benchmarks estándar de PLN.",
        zh = "BERT 的重训练变体,去除了下一句预测,使用动态掩码、更大批量、更长训练和更多数据,在标准自然语言处理基准上取得了更强的性能。",
        term_es = "RoBERTa",
        term_zh = "RoBERTa",
        aliases_es = { "RoBERTa", "enfoque de preentrenamiento BERT robustamente optimizado" },
        aliases_zh = { "RoBERTa", "鲁棒优化的 BERT 预训练方法" },
    }
    
    data["robins g-method"] = {
        short = "A family of methods developed by James Robins for estimating causal effects of time-varying treatments in the presence of time-varying confounders affected by prior treatment. The family includes the parametric g-formula, g-estimation of structural nested models, and inverse-probability-of-treatment weighting of marginal structural models.",
        article = nil,
        aliases = { "Robins G-Method", "g-methods", "G-methods", "Robins g-methods", "Robins methods", "g-method" },
        es = "Familia de métodos desarrollada por James Robins para estimar efectos causales de tratamientos variables en el tiempo en presencia de confusores también variables en el tiempo afectados por tratamientos previos. Incluye la fórmula g paramétrica, la g-estimación de modelos estructurales anidados y la ponderación por probabilidad inversa de tratamiento en modelos estructurales marginales.",
        zh = "由 James Robins 提出的一类方法,用于在存在受先前处理影响的时变混杂时估计时变处理的因果效应。该族包含参数化 g 公式、结构嵌套模型的 g 估计以及边际结构模型的处理逆概率加权。",
        term_es = "métodos g de Robins",
        term_zh = "Robins g 方法",
        aliases_es = { "métodos g", "métodos de Robins", "g-métodos" },
        aliases_zh = { "g 方法", "Robins g 方法族", "Robins 方法" },
    }
    
    data["robust counterfactual"] = {
        short = "A counterfactual explanation designed to remain valid under perturbations of the model, the data, or the explanation itself, so that the suggested change of input still flips the prediction in nearby scenarios.",
        article = nil,
        aliases = { "robust counterfactuals", "robust counterfactual explanation" },
        es = "Explicación contrafactual diseñada para seguir siendo válida ante perturbaciones del modelo, los datos o la propia explicación, de modo que el cambio sugerido en la entrada siga invirtiendo la predicción en escenarios cercanos.",
        zh = "一种鲁棒反事实解释,被设计为在模型、数据或解释自身发生扰动时仍然成立,使所建议的输入变化在相近情景下仍能翻转预测。",
        term_es = "contrafactual robusto",
        term_zh = "鲁棒反事实",
        aliases_es = { "explicación contrafactual robusta", "contrafactuales robustos" },
        aliases_zh = { "鲁棒反事实解释" },
    }
    
    data["robust explanation"] = {
        short = "An explanation whose attributions or contents do not change substantially under small, semantically meaningless perturbations of the input or the model, used as a stability requirement for trustworthy XAI.",
        article = nil,
        aliases = { "explanation robustness", "stable explanation" },
        es = "Explicación cuyas atribuciones o contenido no cambian sustancialmente ante pequeñas perturbaciones semánticamente irrelevantes de la entrada o del modelo, considerada un requisito de estabilidad para una XAI confiable.",
        zh = "一种解释,在输入或模型受到微小且语义无关的扰动时,其归因或内容不会发生显著变化,是可信 XAI 的稳定性要求。",
        term_es = "explicación robusta",
        term_zh = "鲁棒解释",
        aliases_es = { "robustez de la explicación", "explicación estable" },
        aliases_zh = { "解释鲁棒性", "稳定解释" },
    }
    
    data["robust federated averaging"] = {
        short = "A family of FedAvg variants that replace the standard mean aggregation with Byzantine-robust rules (e.g., coordinate-wise median, trimmed mean, geometric median) to limit the influence of malicious or anomalous client updates.",
        article = nil,
        aliases = { "Robust Federated Averaging", "robust FedAvg", "RFA", "Byzantine-robust FedAvg", "robust aggregation FedAvg" },
        es = "Familia de variantes de FedAvg que reemplazan la agregación por media estándar con reglas robustas frente a fallos bizantinos (por ejemplo, mediana por coordenada, media recortada, mediana geométrica) para limitar la influencia de actualizaciones de clientes maliciosos o anómalos.",
        zh = "FedAvg的一类变体,将标准均值聚合替换为对拜占庭鲁棒的规则(如逐坐标中位数、修剪均值、几何中位数),以限制恶意或异常客户端更新的影响。",
        term_es = "promedio federado robusto",
        term_zh = "鲁棒联邦平均",
        aliases_es = { "FedAvg robusto", "RFA", "agregación federada robusta" },
        aliases_zh = { "鲁棒FedAvg", "RFA", "拜占庭鲁棒FedAvg" },
    }
    
    data["robust-darts"] = {
        short = "A variant of differentiable architecture search by Zela et al. (2020) that adds early stopping based on the dominant Hessian eigenvalue of the validation loss, preventing the collapse to skip-connection-heavy architectures.",
        article = nil,
        aliases = { "RobustDARTS", "R-DARTS", "Robust DARTS" },
        es = "Variante de búsqueda de arquitectura diferenciable de Zela et al. (2020) que añade parada temprana basada en el mayor autovalor de la Hessiana de la pérdida de validación, evitando el colapso hacia arquitecturas dominadas por conexiones de salto.",
        zh = "Zela 等(2020)提出的可微分架构搜索变体,基于验证损失 Hessian 的最大特征值进行早停,避免架构坍缩为以跳跃连接为主的结构。",
        term_es = "Robust-DARTS",
        term_zh = "Robust-DARTS",
        aliases_es = { "RobustDARTS", "R-DARTS" },
        aliases_zh = { "RobustDARTS", "R-DARTS", "鲁棒 DARTS" },
    }
    
    data["robustness"] = {
        short = "The property of a model to maintain performance under perturbations to its inputs, distribution shifts, or noisy or adversarial conditions.",
        article = nil,
        aliases = { "model robustness", "robust generalization" },
        es = "Propiedad de un modelo de mantener su desempeño ante perturbaciones en las entradas, desplazamientos de distribución o condiciones ruidosas o adversariales.",
        zh = "模型在输入扰动、分布偏移或噪声及对抗条件下仍保持性能的特性。",
        term_es = "robustez",
        term_zh = "鲁棒性",
        aliases_es = { "robustez del modelo", "robustez frente a perturbaciones" },
        aliases_zh = { "稳健性", "模型鲁棒性" },
    }
    
    data["roc curve"] = {
        short = "A plot of true positive rate against false positive rate as the decision threshold of a binary classifier varies, summarizing the trade-off between sensitivity and specificity across all operating points.",
        article = nil,
        aliases = { "ROC", "ROC curve", "receiver operating characteristic", "receiver operating characteristic curve" },
        es = "Gráfica de la tasa de verdaderos positivos frente a la tasa de falsos positivos al variar el umbral de decisión de un clasificador binario, que resume el compromiso entre sensibilidad y especificidad en todos los puntos de operación.",
        zh = "随着二分类器决策阈值变化,将真阳性率对假阳性率作图所得的曲线,刻画了敏感度与特异度在所有工作点上的权衡。",
        term_es = "curva ROC",
        term_zh = "ROC 曲线",
        aliases_es = { "ROC", "característica operativa del receptor" },
        aliases_zh = { "ROC", "受试者工作特征曲线", "接收者操作特征曲线" },
    }
    
    data["rocs"] = {
        short = "A shape-based virtual screening tool from OpenEye that aligns molecules by maximizing 3D Gaussian shape and color overlap to identify ligands with similar steric and pharmacophoric features to a query.",
        article = nil,
        aliases = { "ROCS", "Rapid Overlay of Chemical Structures", "shape-based screening", "OpenEye ROCS" },
        es = "Herramienta de cribado virtual basada en forma de OpenEye que alinea moléculas maximizando el solapamiento gaussiano 3D de forma y color para identificar ligandos con características estéricas y farmacofóricas similares a una consulta.",
        zh = "OpenEye 提供的基于形状的虚拟筛选工具,通过最大化三维高斯形状与颜色重叠对分子进行叠合,从而识别与查询分子在立体和药效团特征上相似的配体。",
        term_es = "ROCS",
        term_zh = "ROCS",
        aliases_es = { "Rapid Overlay of Chemical Structures", "cribado basado en forma" },
        aliases_zh = { "Rapid Overlay of Chemical Structures", "基于形状的虚拟筛选" },
    }
    
    data["rome"] = {
        short = "Rank-One Model Editing; a method that locates and modifies factual associations stored in the MLP layers of a transformer language model by applying a rank-one update to a single layer's weight matrix.",
        article = nil,
        aliases = { "ROME", "Rank-One Model Editing" },
        es = "Rank-One Model Editing; método que localiza y modifica asociaciones factuales almacenadas en las capas MLP de un modelo de lenguaje basado en transformer aplicando una actualización de rango uno a la matriz de pesos de una sola capa.",
        zh = "ROME(秩一模型编辑),一种定位并修改 Transformer 语言模型中 MLP 层所存储事实关联的方法,通过对单层权重矩阵进行秩一更新来实现编辑。",
        term_es = "ROME",
        term_zh = "ROME",
        aliases_es = { "Rank-One Model Editing", "edición de modelo de rango uno" },
        aliases_zh = { "秩一模型编辑", "Rank-One Model Editing" },
    }
    
    data["rome editing"] = {
        short = "Rank-One Model Editing: a method that surgically modifies factual associations in a transformer language model by computing a rank-one update to the MLP weights at a specific localized layer identified via causal tracing.",
        article = nil,
        aliases = { "ROME", "Rank-One Model Editing", "ROME editing", "rank-one editing" },
        es = "Rank-One Model Editing: método que modifica de forma quirúrgica asociaciones factuales en un modelo de lenguaje basado en transformer mediante una actualización de rango uno sobre los pesos de la MLP en una capa específica localizada por causal tracing.",
        zh = "Rank-One Model Editing(ROME):一种模型编辑方法,通过对 Transformer 语言模型中由因果追踪定位到的某一层 MLP 权重做秩一更新,精准修改其中的事实性关联。",
        term_es = "ROME",
        term_zh = "ROME 编辑",
        aliases_es = { "edición ROME", "edición de rango uno" },
        aliases_zh = { "ROME", "秩一模型编辑" },
    }
    
    data["room impulse response"] = {
        short = "The acoustic impulse response of a room measured between a source and a receiver, characterizing direct sound, early reflections, and late reverberation; convolved with clean speech to simulate reverberant data for ASR/TTS robustness training.",
        article = nil,
        aliases = { "RIR", "room IR", "acoustic impulse response", "room transfer function" },
        es = "Respuesta acústica al impulso de una sala medida entre una fuente y un receptor, que caracteriza el sonido directo, las primeras reflexiones y la reverberación tardía; se convoluciona con habla limpia para simular datos reverberantes en el entrenamiento de robustez de ASR/TTS.",
        zh = "在声源与接收点之间测得的房间声学冲激响应,刻画直达声、早期反射和后期混响;与干净语音卷积可生成混响数据,用于 ASR/TTS 的鲁棒性训练。",
        term_es = "respuesta al impulso de la sala",
        term_zh = "房间冲激响应",
        aliases_es = { "RIR", "respuesta acústica al impulso", "función de transferencia de sala" },
        aliases_zh = { "RIR", "房间脉冲响应", "声学冲激响应", "房间传递函数" },
    }
    
    data["root mean squared error"] = {
        short = "Square root of the mean squared error. Common regression metric expressed in the same units as the target variable.",
        article = nil,
        aliases = { "RMSE", "root-mean-square error", "root mean square error" },
        es = "Raíz cuadrada del error cuadrático medio. Métrica de regresión común expresada en las mismas unidades que la variable objetivo.",
        zh = "均方误差的平方根。常用回归指标,单位与目标变量相同。",
        term_es = "raíz del error cuadrático medio",
        term_zh = "均方根误差",
        aliases_es = { "RMSE", "RECM" },
        aliases_zh = { "RMSE" },
    }
    
    data["rosenbaum bounds"] = {
        short = "A sensitivity-analysis technique that quantifies how strong an unmeasured confounder would have to be, relative to observed covariates, to overturn a study's conclusions. The bounds are expressed as a multiplicative factor on the odds of treatment for matched pairs.",
        article = nil,
        aliases = { "Rosenbaum Bounds", "Rosenbaum sensitivity bounds", "Rosenbaum sensitivity analysis", "Rosenbaum's bounds" },
        es = "Técnica de análisis de sensibilidad que cuantifica cuán fuerte tendría que ser un confusor no medido, en relación con las covariables observadas, para invalidar las conclusiones de un estudio. Las cotas se expresan como un factor multiplicativo sobre la razón de momios del tratamiento en pares emparejados.",
        zh = "一种敏感性分析技术,量化未测混杂相对于已观测协变量必须多强才能推翻研究结论。其界限以匹配对中处理几率的乘性因子形式表达。",
        term_es = "cotas de Rosenbaum",
        term_zh = "Rosenbaum 界",
        aliases_es = { "análisis de sensibilidad de Rosenbaum", "límites de Rosenbaum", "cotas de sensibilidad de Rosenbaum" },
        aliases_zh = { "Rosenbaum 敏感性界", "Rosenbaum 敏感性分析", "Rosenbaum 边界" },
    }
    
    data["rosetta neuron"] = {
        short = "A neuron that consistently activates on the same human-recognizable concept across multiple independently trained models, indicating that some representations recur across architectures and training runs.",
        article = nil,
        aliases = { "Rosetta neurons" },
        es = "Neurona que se activa de forma consistente sobre el mismo concepto reconocible para humanos en varios modelos entrenados de forma independiente, lo que indica que ciertas representaciones reaparecen entre arquitecturas y entrenamientos.",
        zh = "一种在多个独立训练的模型中对同一可识别概念持续激活的神经元,表明某些表示会跨架构和训练过程重复出现。",
        term_es = "neurona Rosetta",
        term_zh = "Rosetta 神经元",
        aliases_es = { "neuronas Rosetta" },
        aliases_zh = { "罗塞塔神经元", "Rosetta neuron" },
    }
    
    data["rosettafold"] = {
        short = "A deep learning model for protein structure prediction that combines sequence, residue-pair, and 3D coordinate tracks in a three-track architecture, achieving accuracy comparable to early AlphaFold releases.",
        article = nil,
        aliases = { "RoseTTAFold", "RF", "RoseTTAFold model" },
        es = "Modelo de aprendizaje profundo para la predicción de estructuras de proteínas que combina pistas de secuencia, pares de residuos y coordenadas 3D en una arquitectura de tres pistas, alcanzando una precisión comparable a las primeras versiones de AlphaFold.",
        zh = "一种用于蛋白质结构预测的深度学习模型,采用三轨架构联合处理序列、残基对和三维坐标信息,其精度可与早期 AlphaFold 相媲美。",
        term_es = "RoseTTAFold",
        term_zh = "RoseTTAFold",
        aliases_es = { "modelo RoseTTAFold" },
        aliases_zh = { "RoseTTAFold 模型" },
    }
    
    data["rosettafold all-atom"] = {
        short = "An extension of RoseTTAFold that predicts structures of biomolecular assemblies including proteins, nucleic acids, small molecules, metals, and post-translational modifications at all-atom resolution.",
        article = nil,
        aliases = { "RoseTTAFold All-Atom", "RFAA", "RF all-atom", "all-atom RoseTTAFold" },
        es = "Extensión de RoseTTAFold que predice estructuras de ensamblajes biomoleculares, incluyendo proteínas, ácidos nucleicos, moléculas pequeñas, metales y modificaciones postraduccionales con resolución de todos los átomos.",
        zh = "RoseTTAFold 的扩展,可在全原子分辨率下预测包括蛋白质、核酸、小分子、金属离子以及翻译后修饰在内的生物分子复合物的结构。",
        term_es = "RoseTTAFold All-Atom",
        term_zh = "RoseTTAFold All-Atom",
        aliases_es = { "RFAA", "RoseTTAFold de todos los átomos" },
        aliases_zh = { "RFAA", "全原子 RoseTTAFold" },
    }
    
    data["rosettafold2"] = {
        short = "A successor to RoseTTAFold with refined three-track architecture and improved training that enhances accuracy on monomers and protein complexes, including better handling of multimeric assemblies.",
        article = nil,
        aliases = { "RoseTTAFold2", "RF2", "RoseTTAFold 2" },
        es = "Sucesor de RoseTTAFold con una arquitectura de tres pistas refinada y un entrenamiento mejorado que aumenta la precisión en monómeros y complejos proteicos, incluyendo un mejor manejo de ensamblajes multiméricos.",
        zh = "RoseTTAFold 的后续版本,采用改进的三轨架构和训练方案,在单体和蛋白质复合物上的精度均有提升,对多聚体组装的处理也更为有效。",
        term_es = "RoseTTAFold2",
        term_zh = "RoseTTAFold2",
        aliases_es = { "RF2", "RoseTTAFold 2" },
        aliases_zh = { "RF2", "RoseTTAFold 2" },
    }
    
    data["rosettaligand"] = {
        short = "A protein-ligand docking and design protocol within the Rosetta software suite that combines small-molecule placement with side-chain repacking and gradient-based minimization to predict binding poses.",
        article = nil,
        aliases = { "RosettaLigand", "Rosetta Ligand", "Rosetta ligand docking" },
        es = "Protocolo de docking y diseño proteína-ligando dentro de la suite de software Rosetta que combina la colocación de moléculas pequeñas con el reempaquetado de cadenas laterales y la minimización basada en gradiente para predecir poses de unión.",
        zh = "Rosetta 软件套件中的蛋白-配体对接与设计流程,结合小分子放置、侧链重排以及基于梯度的能量最小化来预测结合姿势。",
        term_es = "RosettaLigand",
        term_zh = "RosettaLigand",
        aliases_es = { "Rosetta Ligand", "docking RosettaLigand" },
        aliases_zh = { "Rosetta Ligand", "RosettaLigand 对接" },
    }
    
    data["rotary position embedding"] = {
        short = "A method of injecting positional information into transformer attention by rotating query and key vectors in two-dimensional subspaces by an angle proportional to the token position, encoding relative positions through inner products.",
        article = nil,
        aliases = { "RoPE", "rotary positional embedding", "rotary position embeddings", "rotary embedding", "Rotary Position Embedding" },
        es = "Método para introducir información posicional en la atención de los transformers rotando los vectores de consulta y clave en subespacios bidimensionales en un ángulo proporcional a la posición del token, codificando posiciones relativas mediante productos internos.",
        zh = "一种向 Transformer 注意力中注入位置信息的方法,通过在二维子空间中按与 token 位置成比例的角度旋转查询和键向量,借助内积编码相对位置。",
        term_es = "RoPE",
        term_zh = "旋转位置编码",
        aliases_es = { "RoPE", "embedding posicional rotatorio", "incrustación posicional rotatoria" },
        aliases_zh = { "RoPE", "旋转位置嵌入", "Rotary Position Embedding" },
    }
    
    data["rotatable bonds"] = {
        short = "Single, non-ring, non-terminal bonds around which free rotation is possible, excluding amide C–N bonds; their count is a standard descriptor of molecular flexibility used in drug-likeness rules.",
        article = nil,
        aliases = { "rotatable bond count", "number of rotatable bonds", "NumRotatableBonds", "RotB", "rotatable bond descriptor" },
        es = "Enlaces simples, no anulares y no terminales en torno a los cuales es posible la rotación libre, excluyendo los enlaces amida C–N; su recuento es un descriptor estándar de flexibilidad molecular usado en reglas de similitud a fármaco.",
        zh = "可自由旋转的单键,不包括环内键、末端键以及酰胺 C–N 键;其数量是衡量分子柔性的标准描述符,常用于类药性规则。",
        term_es = "enlaces rotables",
        term_zh = "可旋转键",
        aliases_es = { "número de enlaces rotables", "recuento de enlaces rotables", "RotB" },
        aliases_zh = { "可旋转键数", "可旋转键数量", "RotB" },
    }
    
    data["rotate embedding"] = {
        short = "RotatE: a knowledge-graph embedding that models each relation as a rotation in a complex vector space, scoring a triple by the modulus of (h ∘ r − t). Captures symmetry, anti-symmetry, inversion, and composition with a single relational pattern.",
        article = nil,
        aliases = { "RotatE", "RotatE embedding", "RotatE model", "rotation embedding", "rotational knowledge graph embedding" },
        es = "RotatE: incrustación de grafos de conocimiento que modela cada relación como una rotación en un espacio vectorial complejo, puntuando una tripleta por el módulo de (h ∘ r − t). Captura simetría, antisimetría, inversión y composición con un único patrón relacional.",
        zh = "RotatE:一种知识图谱嵌入,将每个关系建模为复向量空间中的旋转,三元组得分为 |h ∘ r − t|,可用单一关系模式同时刻画对称性、反对称性、逆和复合。",
        term_es = "incrustación RotatE",
        term_zh = "RotatE 嵌入",
        aliases_es = { "RotatE", "embedding RotatE", "incrustación por rotación" },
        aliases_zh = { "RotatE", "RotatE 模型", "旋转嵌入" },
    }
    
    data["rouge"] = {
        short = "A family of recall-oriented metrics (ROUGE-N, ROUGE-L, ROUGE-W, ROUGE-S) for evaluating automatic summarization and machine translation by measuring n-gram and longest-common-subsequence overlap between system output and reference texts.",
        article = nil,
        aliases = { "ROUGE", "Recall-Oriented Understudy for Gisting Evaluation", "ROUGE-N", "ROUGE-L", "ROUGE-1", "ROUGE-2" },
        es = "Familia de métricas orientadas al recall (ROUGE-N, ROUGE-L) para evaluar resúmenes automáticos y traducción, midiendo la superposición de n-gramas y subsecuencias comunes más largas entre la salida del sistema y los textos de referencia.",
        zh = "一类面向召回率的评价指标(ROUGE-N、ROUGE-L 等),通过测量系统输出与参考文本之间的 n 元语法和最长公共子序列重合度,用于评估自动摘要与机器翻译质量。",
        term_es = "ROUGE",
        term_zh = "ROUGE",
        aliases_es = { "ROUGE", "ROUGE-N", "ROUGE-L" },
        aliases_zh = { "ROUGE", "ROUGE-N", "ROUGE-L", "ROUGE 指标" },
    }
    
    data["router network"] = {
        short = "In a mixture-of-experts model, the small gating network that scores each input token and routes it to a sparse subset of experts, typically via a top-k softmax selection.",
        article = nil,
        aliases = { "router", "gating network", "MoE router", "expert router" },
        es = "En un modelo mixture-of-experts, la pequeña red de compuerta que puntúa cada token de entrada y lo enruta a un subconjunto disperso de expertos, normalmente mediante una selección top-k con softmax.",
        zh = "在 mixture-of-experts 模型中,对每个输入 token 进行打分并将其路由到一小部分专家的小型门控网络,通常通过 top-k softmax 完成选择。",
        term_es = "red de enrutamiento",
        term_zh = "路由网络",
        aliases_es = { "router", "red de compuerta", "router de MoE" },
        aliases_zh = { "路由器", "门控网络", "MoE 路由", "专家路由" },
    }
    
    data["rrhf"] = {
        short = "Rank Responses to align Human Feedback: an RLHF alternative that scores multiple candidate responses with a reward model and trains the language model so its log-likelihood ranking of the responses matches the reward ranking, via a pairwise ranking loss.",
        article = nil,
        aliases = { "RRHF", "Rank Responses to align Human Feedback", "Rank Responses from Human Feedback" },
        es = "Rank Responses to align Human Feedback: alternativa a RLHF que puntúa varias respuestas candidatas con un modelo de recompensa y entrena el modelo de lenguaje para que su ranking por log-verosimilitud coincida con el ranking de recompensa, mediante una pérdida de ranking por pares.",
        zh = "Rank Responses to align Human Feedback(RRHF):一种 RLHF 的替代方法,使用奖励模型对多个候选回答打分,并通过成对排名损失训练语言模型,使其对各回答的对数似然排序与奖励排序一致。",
        term_es = "RRHF",
        term_zh = "RRHF",
        aliases_es = { "alineamiento por ranking de respuestas" },
        aliases_zh = { "回答排序对齐", "排序对齐人类反馈" },
    }
    
    data["rsem"] = {
        short = "A software tool that estimates gene and isoform expression levels from RNA-seq data by mapping reads to a reference transcriptome and resolving multi-mapping reads with an expectation-maximization algorithm. It outputs TPM and FPKM values per transcript.",
        article = nil,
        aliases = { "RSEM", "RNA-Seq by Expectation-Maximization" },
        es = "Herramienta de software que estima niveles de expresión de genes e isoformas a partir de datos RNA-seq alineando lecturas a un transcriptoma de referencia y resolviendo lecturas multi-mapeadas con un algoritmo de maximización de la esperanza. Genera valores TPM y FPKM por transcrito.",
        zh = "一种软件工具,通过将读段比对到参考转录组并使用期望最大化算法解析多重比对读段,从RNA-seq数据估计基因和异构体的表达水平,输出每个转录本的TPM和FPKM值。",
        term_es = "RSEM",
        term_zh = "RSEM",
        aliases_es = { "RSEM" },
        aliases_zh = { "RSEM" },
    }
    
    data["rtf"] = {
        short = "Abbreviation of Real-Time Factor: the ratio of system processing time to audio duration; RTF < 1 means faster-than-real-time, a key requirement for streaming speech recognition and synthesis.",
        article = nil,
        aliases = { "RTF", "real-time factor", "real time factor" },
        es = "Abreviatura de Real-Time Factor (factor de tiempo real): razón entre el tiempo de procesamiento del sistema y la duración del audio; un RTF < 1 indica operación más rápida que en tiempo real, requisito clave para el reconocimiento y la síntesis de habla en streaming.",
        zh = "Real-Time Factor(实时率)的缩写:系统处理时间与音频时长之比;RTF < 1 表示快于实时运行,是流式语音识别与合成的关键要求。",
        term_es = "RTF",
        term_zh = "RTF",
        aliases_es = { "factor de tiempo real", "real-time factor" },
        aliases_zh = { "实时率", "实时因子", "real-time factor" },
    }
    
    data["rubin causal model"] = {
        short = "A formal framework, developed primarily by Donald Rubin, that defines causal effects as comparisons of potential outcomes for the same units under different treatments. It underpins modern designs and estimators for both experimental and observational causal inference.",
        article = nil,
        aliases = { "Rubin Causal Model", "RCM", "potential outcomes framework", "Neyman–Rubin causal model", "Neyman-Rubin model", "potential-outcomes framework" },
        es = "Marco formal, desarrollado principalmente por Donald Rubin, que define los efectos causales como comparaciones de resultados potenciales de las mismas unidades bajo distintos tratamientos. Sustenta los diseños y estimadores modernos de inferencia causal experimental y observacional.",
        zh = "由 Donald Rubin 主要发展的形式化框架,将因果效应定义为同一单位在不同处理下潜在结果之间的比较。它是现代实验性和观察性因果推断设计与估计量的理论基础。",
        term_es = "modelo causal de Rubin",
        term_zh = "Rubin 因果模型",
        aliases_es = { "modelo de resultados potenciales", "modelo causal de Neyman–Rubin", "RCM" },
        aliases_zh = { "RCM", "潜在结果框架", "Neyman–Rubin 模型" },
    }
    
    data["rule extraction"] = {
        short = "The process of approximating a trained black-box model with a set of human-readable symbolic rules, typically if-then statements, in order to provide interpretable surrogates of the model's decisions.",
        article = nil,
        aliases = { "rule extraction from neural networks", "model rule extraction" },
        es = "Proceso de aproximar un modelo entrenado de caja negra mediante un conjunto de reglas simbólicas legibles para humanos, normalmente sentencias si-entonces, con el fin de obtener sustitutos interpretables de las decisiones del modelo.",
        zh = "用一组人类可读的符号规则(通常为 if-then 语句)近似已训练黑盒模型的过程,以提供模型决策的可解释替代。",
        term_es = "extracción de reglas",
        term_zh = "规则抽取",
        aliases_es = { "extracción de reglas de redes neuronales" },
        aliases_zh = { "规则提取", "从神经网络抽取规则" },
    }
    
    data["rule mining"] = {
        short = "The task of automatically discovering symbolic rules (often Horn clauses or association rules) from data such as knowledge graphs or transactional databases. Classical systems include AMIE for KGs and FP-growth for itemsets.",
        article = nil,
        aliases = { "rule discovery", "rule learning", "association rule mining", "Horn rule mining", "knowledge graph rule mining" },
        es = "Tarea de descubrir automáticamente reglas simbólicas (a menudo cláusulas de Horn o reglas de asociación) a partir de datos como grafos de conocimiento o bases de datos transaccionales. Sistemas clásicos incluyen AMIE para grafos de conocimiento y FP-growth para conjuntos de ítems.",
        zh = "从数据(如知识图谱或交易数据库)中自动发现符号规则(常为 Horn 子句或关联规则)的任务。经典系统包括用于知识图谱的 AMIE 与用于项集的 FP-growth。",
        term_es = "minería de reglas",
        term_zh = "规则挖掘",
        aliases_es = { "descubrimiento de reglas", "aprendizaje de reglas", "minería de reglas de asociación" },
        aliases_zh = { "规则发现", "规则学习", "关联规则挖掘" },
    }
    
    data["rule-based explanation"] = {
        short = "An explanation expressed as one or more if-then rules over input features that approximate the model's behavior in a region of input space, used in interpretable surrogates such as anchors and decision lists.",
        article = nil,
        aliases = { "rule based explanation", "if-then explanation" },
        es = "Explicación expresada mediante una o más reglas si-entonces sobre las características de entrada que aproximan el comportamiento del modelo en una región del espacio de entrada, utilizada en sustitutos interpretables como anchors y listas de decisión.",
        zh = "以一条或多条针对输入特征的 if-then 规则形式给出的解释,在输入空间的某一区域近似模型行为,常用于 anchors、决策列表等可解释替代模型。",
        term_es = "explicación basada en reglas",
        term_zh = "基于规则的解释",
        aliases_es = { "explicación si-entonces" },
        aliases_zh = { "if-then 解释", "规则解释" },
    }
    
    data["rulefit"] = {
        short = "An interpretable model that combines decision rules extracted from a tree ensemble with linear terms over the original features, fit jointly with a sparse linear regression to yield a small additive rule-and-linear predictor.",
        article = nil,
        aliases = { "RuleFit" },
        es = "Modelo interpretable que combina reglas de decisión extraídas de un ensamble de árboles con términos lineales sobre las características originales, ajustados conjuntamente mediante regresión lineal dispersa para obtener un predictor aditivo compacto basado en reglas y términos lineales.",
        zh = "一种可解释模型,将从树集成中抽取的决策规则与原始特征上的线性项结合,通过稀疏线性回归联合拟合,得到一个小型的加性规则—线性预测器。",
        term_es = "RuleFit",
        term_zh = "RuleFit",
        aliases_es = { "rulefit" },
        aliases_zh = { "rulefit", "规则拟合" },
    }
    
    data["ruler benchmark"] = {
        short = "A synthetic long-context evaluation benchmark for language models that combines needle-in-a-haystack retrieval, multi-key tracking, variable aggregation, and question answering tasks to probe a model's effective context length.",
        article = nil,
        aliases = { "RULER", "RULER benchmark", "ruler" },
        es = "Benchmark sintético de evaluación de contexto largo para modelos de lenguaje que combina tareas de aguja en un pajar, seguimiento de múltiples claves, agregación variable y respuesta a preguntas para medir la longitud efectiva de contexto del modelo.",
        zh = "面向大语言模型长上下文能力的合成评测基准,包含“大海捞针”检索、多关键值追踪、变量聚合和问答等任务,用以测量模型的有效上下文长度。",
        term_es = "benchmark RULER",
        term_zh = "RULER 基准",
        aliases_es = { "RULER" },
        aliases_zh = { "RULER", "RULER 评测" },
    }
    
    data["ruletaker"] = {
        short = "A synthetic dataset and benchmark in which a transformer is asked to perform soft theorem proving over short rule bases expressed in controlled English. Demonstrated that transformers can emulate deductive reasoning when trained on rule-conclusion pairs.",
        article = nil,
        aliases = { "RuleTaker", "RuleTaker dataset", "RuleTakers", "RuleTaker benchmark" },
        es = "Conjunto de datos y benchmark sintético en el que un transformer debe realizar demostración suave de teoremas sobre bases de reglas cortas expresadas en inglés controlado. Mostró que los transformers pueden emular razonamiento deductivo cuando se entrenan con pares regla-conclusión.",
        zh = "一个合成数据集与基准:要求 Transformer 在以受控英语描述的小型规则库上进行软定理证明,证明经过规则-结论训练后 Transformer 能够模拟演绎推理。",
        term_es = "RuleTaker",
        term_zh = "RuleTaker",
        aliases_es = { "conjunto RuleTaker", "benchmark RuleTaker" },
        aliases_zh = { "RuleTaker 数据集", "RuleTaker 基准" },
    }
    
    data["runaway feedback loop"] = {
        short = "A self-reinforcing cycle in which a deployed model's predictions shape the data it is later trained or evaluated on, amplifying initial biases over time. Common in predictive policing, recommender systems, and lending, where decisions cause selective observation of outcomes.",
        article = nil,
        aliases = { "feedback loop bias", "self-reinforcing feedback loop", "runaway feedback" },
        es = "Ciclo autorreforzante en el que las predicciones de un modelo desplegado influyen en los datos con los que luego se entrena o evalúa, amplificando sesgos iniciales con el tiempo. Frecuente en vigilancia predictiva, sistemas de recomendación y crédito, donde las decisiones provocan observación selectiva de resultados.",
        zh = "一种自我强化循环,部署的模型预测会影响其后续训练或评估所用的数据,从而随时间放大初始偏差。常见于预测性警务、推荐系统和信贷领域,因决策导致结果被选择性地观察。",
        term_es = "bucle de retroalimentación descontrolado",
        term_zh = "失控反馈循环",
        aliases_es = { "ciclo de retroalimentación descontrolado", "bucle de retroalimentación autorreforzante", "sesgo por retroalimentación" },
        aliases_zh = { "反馈循环偏差", "自我强化反馈循环", "失控的反馈回路" },
    }
    
    data["running variable"] = {
        short = "The continuous assignment variable in a regression discontinuity design that determines treatment status through a known cutoff. Identification uses local comparisons of units whose values lie on either side of the threshold.",
        article = nil,
        aliases = { "Running Variable", "forcing variable", "assignment variable", "score variable", "RD running variable" },
        es = "Variable continua de asignación en un diseño de regresión discontinua que determina el estado de tratamiento a través de un corte conocido. La identificación utiliza comparaciones locales entre unidades cuyos valores quedan a uno u otro lado del umbral.",
        zh = "断点回归设计中的连续分配变量,通过已知的临界值决定处理状态。识别依赖于将值位于阈值两侧的单位进行局部比较。",
        term_es = "variable de asignación",
        term_zh = "运行变量",
        aliases_es = { "variable forzadora", "variable de corte", "variable de score" },
        aliases_zh = { "驱动变量", "分配变量", "断点回归运行变量" },
    }
    
    data["runway gen-2"] = {
        short = "A 2023 text-to-video and image-to-video diffusion model from Runway that generates short video clips from text prompts, source images, or both, with optional driving video for motion guidance.",
        article = nil,
        aliases = { "Runway Gen-2", "Gen-2", "Runway Gen2", "Gen2" },
        es = "Modelo de difusión de texto a video e imagen a video lanzado por Runway en 2023, capaz de generar clips de video cortos a partir de prompts de texto, imágenes de origen o ambos, con un video guía opcional para el movimiento.",
        zh = "Runway 于 2023 年发布的文生视频与图生视频扩散模型,可根据文本提示、源图像或两者结合生成短视频,并支持以可选的驱动视频提供运动指引。",
        term_es = "Runway Gen-2",
        term_zh = "Runway Gen-2",
        aliases_es = { "Gen-2", "Runway Gen2" },
        aliases_zh = { "Gen-2", "Runway Gen2" },
    }
    
    data["runway gen-3"] = {
        short = "A 2024 successor to Runway Gen-2 (Gen-3 Alpha) offering substantially improved fidelity, motion coherence, and prompt adherence, with longer clip generation and a higher-quality Turbo variant.",
        article = nil,
        aliases = { "Runway Gen-3", "Gen-3", "Gen-3 Alpha", "Runway Gen3", "Gen3" },
        es = "Sucesor de Runway Gen-2 lanzado en 2024 (Gen-3 Alpha), con una fidelidad, coherencia de movimiento y adherencia al prompt sustancialmente mejoradas, generación de clips más largos y una variante Turbo de mayor calidad.",
        zh = "Runway Gen-2 在 2024 年的后继版本(Gen-3 Alpha),在画面保真度、运动连贯性和提示词遵循方面有显著提升,可生成更长的片段,并提供更高效的 Turbo 变体。",
        term_es = "Runway Gen-3",
        term_zh = "Runway Gen-3",
        aliases_es = { "Gen-3", "Gen-3 Alpha", "Runway Gen3" },
        aliases_zh = { "Gen-3", "Gen-3 Alpha", "Runway Gen3" },
    }
    
    data["rvc"] = {
        short = "Abbreviation of Retrieval-based Voice Conversion: an open-source voice-conversion framework that uses a feature index of the target voice and retrieves the nearest neighbors of source content features to drive a neural vocoder, popular for low-data hobbyist voice cloning.",
        article = nil,
        aliases = { "RVC", "Retrieval-based Voice Conversion", "retrieval-based voice conversion" },
        es = "Abreviatura de Retrieval-based Voice Conversion: marco de conversión de voz de código abierto que utiliza un índice de características de la voz objetivo y recupera los vecinos más cercanos de las características de contenido del habla fuente para alimentar un vocoder neuronal, popular para clonación de voz aficionada con pocos datos.",
        zh = "Retrieval-based Voice Conversion 的缩写:一个开源语音转换框架,利用目标说话人的特征索引,对源语音的内容特征进行最近邻检索并驱动神经声码器,在少量数据的爱好者级语音克隆中广为流行。",
        term_es = "RVC",
        term_zh = "RVC",
        aliases_es = { "conversión de voz basada en recuperación" },
        aliases_zh = { "基于检索的语音转换", "检索式语音转换" },
    }
    
    data["rvq"] = {
        short = "Abbreviation of Residual Vector Quantization: a multi-stage VQ scheme where each codebook quantizes the residual of the previous stage, used to compress audio embeddings into discrete tokens in neural codecs like SoundStream and EnCodec.",
        article = nil,
        aliases = { "RVQ", "residual vector quantization", "residual VQ" },
        es = "Abreviatura de Residual Vector Quantization: esquema de cuantización vectorial multi-etapa en el que cada libro de códigos cuantiza el residuo de la etapa anterior, utilizado para comprimir embeddings de audio en tokens discretos en codecs neuronales como SoundStream y EnCodec.",
        zh = "Residual Vector Quantization 的缩写:一种多级向量量化方案,每个码本对前一级的残差进行量化,用于在 SoundStream 和 EnCodec 等神经编解码器中将音频嵌入压缩为离散词元。",
        term_es = "RVQ",
        term_zh = "RVQ",
        aliases_es = { "cuantización vectorial residual", "VQ residual" },
        aliases_zh = { "残差向量量化", "残差VQ", "残差矢量量化" },
    }
    
    data["rwkv"] = {
        short = "Receptance Weighted Key Value: a hybrid RNN/Transformer architecture with a time-mixing mechanism that supports parallel training like a Transformer and constant-time, constant-memory inference like an RNN.",
        article = nil,
        aliases = { "RWKV", "Receptance Weighted Key Value", "RWKV-LM" },
        es = "Receptance Weighted Key Value: arquitectura híbrida RNN/Transformer con un mecanismo de time-mixing que permite entrenamiento paralelo como un Transformer e inferencia con tiempo y memoria constantes como una RNN.",
        zh = "Receptance Weighted Key Value(RWKV):一种 RNN 与 Transformer 的混合架构,采用时间混合(time-mixing)机制,既能像 Transformer 一样并行训练,又能像 RNN 一样以常数时间和常数内存进行推理。",
        term_es = "RWKV",
        term_zh = "RWKV",
        aliases_es = { "Receptance Weighted Key Value" },
        aliases_zh = { "Receptance Weighted Key Value", "RWKV 模型" },
    }
    
    data["rxnfp"] = {
        short = "Continuous, learned reaction fingerprints derived from a transformer language model trained on reaction SMILES, used to embed chemical reactions for similarity search, classification, and yield prediction.",
        article = nil,
        aliases = { "RXNFP", "rxnfp fingerprint", "reaction fingerprint", "reaction fingerprints" },
        es = "Huellas digitales continuas y aprendidas de reacciones químicas, derivadas de un modelo de lenguaje tipo transformador entrenado sobre SMILES de reacciones, empleadas para incrustar reacciones para búsqueda por similitud, clasificación y predicción de rendimiento.",
        zh = "由在反应 SMILES 上训练的 Transformer 语言模型得到的连续学习型反应指纹,用于将化学反应嵌入向量空间,以便进行相似性检索、分类和收率预测。",
        term_es = "rxnfp",
        term_zh = "rxnfp",
        aliases_es = { "huella digital de reacción", "huellas digitales de reacciones", "RXNFP" },
        aliases_zh = { "反应指纹", "RXNFP", "化学反应指纹" },
    }
    
    data["rényi differential privacy"] = {
        short = "A relaxation of differential privacy defined via the Rényi divergence between the output distributions on neighboring datasets, providing tight composition theorems that make it well-suited for analyzing iterative algorithms such as DP-SGD.",
        article = nil,
        aliases = { "Rényi Differential Privacy", "RDP", "Renyi differential privacy", "Renyi DP", "Rényi DP" },
        es = "Relajación de la privacidad diferencial definida mediante la divergencia de Rényi entre las distribuciones de salida sobre conjuntos de datos vecinos, que proporciona teoremas de composición ajustados y resulta especialmente útil para analizar algoritmos iterativos como DP-SGD.",
        zh = "基于相邻数据集输出分布之间的Rényi散度定义的差分隐私放松形式,提供紧致的组合定理,特别适用于分析DP-SGD等迭代算法。",
        term_es = "privacidad diferencial de Rényi",
        term_zh = "Rényi差分隐私",
        aliases_es = { "RDP", "DP de Rényi" },
        aliases_zh = { "RDP", "Renyi差分隐私", "Rényi DP" },
    }
    
    data["s-learner"] = {
        short = "A meta-learner that fits a single outcome model on the combined treated and control samples, including the treatment indicator as a covariate, and obtains the conditional average treatment effect by differencing predictions with treatment set to one and zero. It is simple but biased when the model regularizes the treatment indicator away.",
        article = nil,
        aliases = { "S-learner", "S learner", "single learner", "single-learner", "single-model meta-learner" },
        es = "Meta-aprendiz que ajusta un único modelo del resultado sobre la muestra combinada de tratados y controles, incluyendo el indicador de tratamiento como covariable, y obtiene el efecto promedio condicional del tratamiento como diferencia entre predicciones con el tratamiento fijado en uno y en cero. Es sencillo pero sesgado cuando el modelo regulariza demasiado el indicador.",
        zh = "一种元学习器:在合并的处理组和对照组样本上拟合单一结果模型,将处理指示变量作为协变量;通过将处理设为 1 和 0 时预测值之差得到条件平均处理效应。它实现简单,但当模型对处理指示变量过度正则化时会有偏。",
        term_es = "S-learner",
        term_zh = "S-learner",
        aliases_es = { "aprendiz S", "meta-aprendiz S", "S learner" },
        aliases_zh = { "S 学习器", "单模型元学习器", "S 元学习器" },
    }
    
    data["s-norm"] = {
        short = "Symmetric Normalization: a score-normalization technique for speaker verification that subtracts cohort-derived means and divides by cohort standard deviations from both the enrollment and test sides, combining z-norm and t-norm to reduce trial-dependent score bias.",
        article = nil,
        aliases = { "S-norm", "symmetric normalization", "symmetric norm" },
        es = "Symmetric Normalization: técnica de normalización de puntuaciones para verificación de locutor que resta medias y divide por desviaciones típicas estimadas a partir de una cohorte, aplicadas tanto al lado de inscripción como al de prueba, combinando z-norm y t-norm para reducir el sesgo dependiente del ensayo.",
        zh = "Symmetric Normalization(对称归一化):一种用于说话人验证的分数归一化技术,对注册端和测试端均使用基于队列估计的均值和标准差进行归一化,融合 z-norm 与 t-norm 以减小因测试条件不同造成的分数偏差。",
        term_es = "S-norm",
        term_zh = "S-norm",
        aliases_es = { "normalización simétrica" },
        aliases_zh = { "对称归一化", "对称分数归一化" },
    }
    
    data["s2orc"] = {
        short = "Semantic Scholar Open Research Corpus: a large dataset of English scientific papers from Semantic Scholar with full text, structured metadata, and inline citation links across roughly 80 million papers.",
        article = nil,
        aliases = { "S2ORC", "Semantic Scholar Open Research Corpus" },
        es = "Semantic Scholar Open Research Corpus: gran conjunto de datos de artículos científicos en inglés de Semantic Scholar, con texto completo, metadatos estructurados y enlaces de citación en línea para alrededor de 80 millones de artículos.",
        zh = "Semantic Scholar Open Research Corpus(S2ORC):源自 Semantic Scholar 的大规模英文科学论文数据集,约 8000 万篇论文,提供全文、结构化元数据和行内引用链接。",
        term_es = "S2ORC",
        term_zh = "S2ORC",
        aliases_es = { "Semantic Scholar Open Research Corpus" },
        aliases_zh = { "Semantic Scholar Open Research Corpus", "S2ORC 语料" },
    }
    
    data["sa score"] = {
        short = "The synthetic accessibility score of Ertl and Schuffenhauer, a heuristic combining fragment contribution scores from a corpus of feasible reactions with a complexity penalty to estimate how easy a molecule is to synthesize.",
        article = nil,
        aliases = { "SA score", "SAscore", "synthetic accessibility score", "Ertl SA score", "synthetic accessibility" },
        es = "Puntuación de accesibilidad sintética de Ertl y Schuffenhauer, una heurística que combina las contribuciones por fragmentos derivadas de un corpus de reacciones factibles con una penalización por complejidad para estimar lo fácil que es sintetizar una molécula.",
        zh = "由 Ertl 和 Schuffenhauer 提出的合成可及性评分,将来自可行反应语料的片段贡献分数与复杂度惩罚相结合,用于估计分子的合成难易程度。",
        term_es = "puntuación SA",
        term_zh = "SA 评分",
        aliases_es = { "SA score", "puntuación de accesibilidad sintética", "SAscore" },
        aliases_zh = { "SA score", "合成可及性评分", "SAscore" },
    }
    
    data["sa-1b"] = {
        short = "Segment Anything 1-Billion: the dataset released with the Segment Anything Model (SAM), comprising about 11 million licensed images and 1.1 billion high-quality segmentation masks generated by a model-in-the-loop pipeline.",
        article = nil,
        aliases = { "SA-1B", "Segment Anything 1-Billion", "Segment Anything 1B", "SA1B" },
        es = "Segment Anything 1-Billion: conjunto de datos publicado junto con el Segment Anything Model (SAM), que comprende unos 11 millones de imágenes con licencia y 1100 millones de máscaras de segmentación de alta calidad generadas mediante un pipeline con modelo en el lazo.",
        zh = "Segment Anything 1-Billion(SA-1B):与 Segment Anything Model(SAM)一同发布的数据集,包含约 1100 万张获授权图像和约 11 亿条高质量分割掩码,由模型在环(model-in-the-loop)流程生成。",
        term_es = "SA-1B",
        term_zh = "SA-1B",
        aliases_es = { "Segment Anything 1B", "SA1B" },
        aliases_zh = { "Segment Anything 1B", "SA1B", "SA-1B 数据集" },
    }
    
    data["sabdab"] = {
        short = "The Structural Antibody Database, a curated and annotated collection of antibody structures from the Protein Data Bank with consistent numbering and metadata, widely used for antibody modeling and machine learning.",
        article = nil,
        aliases = { "SAbDab", "Structural Antibody Database", "sabdab database" },
        es = "La Structural Antibody Database, una colección curada y anotada de estructuras de anticuerpos del Protein Data Bank con numeración y metadatos consistentes, ampliamente utilizada para el modelado de anticuerpos y el aprendizaje automático.",
        zh = "结构抗体数据库(SAbDab),对来自蛋白质数据银行的抗体结构进行整理和注释,提供一致的编号和元数据,广泛用于抗体建模和机器学习。",
        term_es = "SAbDab",
        term_zh = "SAbDab",
        aliases_es = { "base de datos estructural de anticuerpos", "Structural Antibody Database" },
        aliases_zh = { "结构抗体数据库", "Structural Antibody Database" },
    }
    
    data["sac"] = {
        short = "An off-policy actor-critic algorithm for continuous control that maximizes a maximum-entropy objective, encouraging exploration by adding the policy entropy to the standard reward, with automatic temperature tuning.",
        article = nil,
        aliases = { "SAC", "Soft Actor-Critic", "soft actor critic" },
        es = "Algoritmo actor-crítico off-policy para control continuo que maximiza un objetivo de máxima entropía, fomentando la exploración al añadir la entropía de la política a la recompensa estándar, con ajuste automático de la temperatura.",
        zh = "一种用于连续控制的离策略 actor-critic 算法,最大化最大熵目标,通过将策略熵加入标准奖励来鼓励探索,并自动调整温度系数。",
        term_es = "SAC",
        term_zh = "SAC",
        aliases_es = { "actor-crítico suave" },
        aliases_zh = { "软 actor-critic", "Soft Actor-Critic" },
    }
    
    data["sacrebleu"] = {
        short = "A standardized implementation of BLEU for machine translation evaluation that fixes tokenization and reference handling, producing reproducible scores across systems and papers.",
        article = nil,
        aliases = { "SacreBLEU", "sacreBLEU", "Sacre BLEU" },
        es = "Implementación estandarizada de BLEU para evaluación de traducción automática que fija la tokenización y el manejo de referencias, produciendo puntuaciones reproducibles entre sistemas y artículos.",
        zh = "一种标准化的 BLEU 实现,固定了分词与参考处理方式,使机器翻译评价分数在不同系统与论文之间具有可复现性。",
        term_es = "SacreBLEU",
        term_zh = "SacreBLEU",
        aliases_es = { "SacreBLEU" },
        aliases_zh = { "SacreBLEU" },
    }
    
    data["saddle point"] = {
        short = "A critical point of a function where the gradient vanishes but the Hessian has both positive and negative eigenvalues, so the point is neither a local minimum nor a local maximum.",
        article = nil,
        aliases = { "saddle points" },
        es = "Punto crítico de una función donde el gradiente se anula pero el Hessiano tiene autovalores positivos y negativos, por lo que no es ni mínimo ni máximo local.",
        zh = "函数的临界点之一,在该点梯度为零但 Hessian 矩阵同时具有正负特征值,因此既不是局部极小值也不是局部极大值。",
        term_es = "punto de silla",
        term_zh = "鞍点",
        aliases_es = { "puntos de silla" },
        aliases_zh = { "saddle point" },
    }
    
    data["safa algorithm"] = {
        short = "Semi-Asynchronous Federated Averaging, a federated learning protocol that combines lag-tolerant model distribution with post-training client selection and a cache for stale updates to handle stragglers and dropouts without forcing strict synchronization.",
        article = nil,
        aliases = { "SAFA", "Semi-Asynchronous Federated Averaging", "SAFA protocol", "SAFA federated learning" },
        es = "Promediado federado semiasíncrono, un protocolo de aprendizaje federado que combina distribución de modelo tolerante a retrasos, selección de clientes posterior al entrenamiento y un caché para actualizaciones rezagadas, gestionando rezagados y desconexiones sin imponer sincronización estricta.",
        zh = "半异步联邦平均算法,一种联邦学习协议,结合容忍延迟的模型分发、训练后客户端选择和陈旧更新缓存,无需严格同步即可处理掉队者和断连。",
        term_es = "algoritmo SAFA",
        term_zh = "SAFA算法",
        aliases_es = { "SAFA", "promediado federado semiasíncrono" },
        aliases_zh = { "SAFA", "半异步联邦平均" },
    }
    
    data["safe bayes"] = {
        short = "A modification of Bayesian updating that raises the likelihood to a learning-rate power η ≤ 1, restoring posterior consistency and well-calibrated uncertainty under model misspecification.",
        article = nil,
        aliases = { "SafeBayes", "Safe-Bayes", "tempered posterior", "generalized Bayes" },
        es = "Una modificación de la actualización bayesiana que eleva la verosimilitud a una potencia de learning rate η ≤ 1, restaurando la consistencia posterior y una incertidumbre bien calibrada bajo mala especificación del modelo.",
        zh = "对贝叶斯更新的一种修改:将似然提升到学习率 η ≤ 1 次方,从而在模型错误指定的情况下恢复后验一致性和良好校准的不确定性。",
        term_es = "Safe Bayes",
        term_zh = "Safe Bayes",
        aliases_es = { "SafeBayes", "posterior temperada", "Bayes generalizado" },
        aliases_zh = { "SafeBayes", "温和后验", "广义贝叶斯", "tempered posterior" },
    }
    
    data["safety classifier"] = {
        short = "A classifier, typically binary or multi-label, trained to detect unsafe content categories such as hate, harassment, self-harm, sexual content, or illegal activity, used to moderate model inputs and outputs.",
        article = nil,
        aliases = { "safety filter", "content safety classifier", "moderation classifier", "harm classifier" },
        es = "Clasificador, normalmente binario o multietiqueta, entrenado para detectar categorías de contenido inseguro como odio, acoso, autolesión, contenido sexual o actividades ilegales, y utilizado para moderar las entradas y salidas del modelo.",
        zh = "一种通常为二分类或多标签的分类器,经训练用于识别仇恨、骚扰、自残、性内容或违法行为等不安全内容类别,用于对模型的输入和输出进行内容审核。",
        term_es = "clasificador de seguridad",
        term_zh = "安全分类器",
        aliases_es = { "filtro de seguridad", "clasificador de moderación", "clasificador de daño" },
        aliases_zh = { "安全过滤器", "内容安全分类器", "内容审核分类器" },
    }
    
    data["safety-fairness tradeoff"] = {
        short = "The tension that arises when constraints imposed for model safety (e.g., refusing certain outputs, conservative predictions) interact unevenly with demographic groups, producing fairness costs. Studied in content moderation, medical decision support, and autonomous systems.",
        article = nil,
        aliases = { "safety vs fairness tradeoff", "fairness-safety tradeoff" },
        es = "Tensión que surge cuando las restricciones impuestas por seguridad del modelo (p. ej., rechazar ciertas salidas, predicciones conservadoras) interactúan de forma desigual con grupos demográficos, generando costos de equidad. Se estudia en moderación de contenido, soporte a la decisión médica y sistemas autónomos.",
        zh = "为模型安全所施加的约束(如拒绝某些输出、保守预测)与不同人群产生不均匀互动,从而引发公平性代价的紧张关系。常见于内容审核、医疗决策支持和自主系统等场景。",
        term_es = "compromiso entre seguridad y equidad",
        term_zh = "安全性与公平性权衡",
        aliases_es = { "compensación seguridad-equidad", "trade-off entre seguridad y equidad" },
        aliases_zh = { "安全-公平权衡", "公平性与安全性权衡" },
    }
    
    data["sag"] = {
        short = "Stochastic Average Gradient, a variance-reduced stochastic optimization method that maintains the most recent gradient computed for each training sample and updates parameters using their running average.",
        article = nil,
        aliases = { "SAG", "Stochastic Average Gradient", "stochastic average gradient method" },
        es = "Gradiente promedio estocástico (SAG), método estocástico con reducción de varianza que conserva el último gradiente calculado para cada muestra y actualiza los parámetros usando su promedio acumulado.",
        zh = "随机平均梯度(SAG),一种方差缩减的随机优化方法:保存每个样本最近一次计算的梯度,并使用其累计平均进行参数更新。",
        term_es = "SAG",
        term_zh = "SAG",
        aliases_es = { "gradiente promedio estocástico", "Stochastic Average Gradient" },
        aliases_zh = { "随机平均梯度", "Stochastic Average Gradient" },
    }
    
    data["saliency benchmark"] = {
        short = "A standardized dataset and evaluation protocol used to compare saliency or attribution methods, typically scoring them on faithfulness, localization, or alignment with ground-truth importance.",
        article = nil,
        aliases = { "saliency benchmarks", "attribution benchmark" },
        es = "Conjunto de datos y protocolo de evaluación estandarizados para comparar métodos de saliencia o atribución, que suelen puntuarse según fidelidad, localización o alineación con la importancia de referencia.",
        zh = "用于比较显著性或归因方法的标准化数据集和评估协议,通常从忠实性、定位能力或与真实重要性的一致性等方面打分。",
        term_es = "benchmark de saliencia",
        term_zh = "显著性基准",
        aliases_es = { "benchmarks de saliencia", "benchmark de atribución" },
        aliases_zh = { "归因基准", "saliency 基准" },
    }
    
    data["saliency for nlp"] = {
        short = "Adaptations of saliency and attribution methods to text models, where importance is assigned to tokens, subwords, or spans rather than continuous pixels and where input perturbations must respect linguistic structure.",
        article = nil,
        aliases = { "NLP saliency", "text saliency" },
        es = "Adaptaciones de los métodos de saliencia y atribución a modelos de texto, donde la importancia se asigna a tokens, subpalabras o tramos en lugar de píxeles continuos y las perturbaciones de la entrada deben respetar la estructura lingüística.",
        zh = "将显著性与归因方法适配到文本模型的方式,将重要性分配给词元、子词或片段,而非连续像素,且输入扰动必须遵循语言结构。",
        term_es = "saliencia para PLN",
        term_zh = "面向 NLP 的显著性",
        aliases_es = { "saliencia para NLP", "saliencia en texto" },
        aliases_zh = { "NLP 显著性", "文本显著性" },
    }
    
    data["saliency for time series"] = {
        short = "Saliency and attribution techniques specialized for time-series models, which must allocate importance jointly across time steps and features and account for temporal dependencies between inputs.",
        article = nil,
        aliases = { "time series saliency", "temporal saliency" },
        es = "Técnicas de saliencia y atribución especializadas para modelos de series temporales, que deben asignar importancia conjuntamente entre pasos de tiempo y variables, y tener en cuenta las dependencias temporales entre entradas.",
        zh = "面向时间序列模型的显著性与归因技术,需要在时间步与特征之间联合分配重要性,并考虑输入之间的时间依赖关系。",
        term_es = "saliencia para series temporales",
        term_zh = "面向时间序列的显著性",
        aliases_es = { "saliencia temporal" },
        aliases_zh = { "时间序列显著性", "时序显著性" },
    }
    
    data["saliency map"] = {
        short = "A visualization that assigns an importance score to each input feature (often each pixel) reflecting its contribution to a model's prediction, used to localize what parts of the input drove the decision.",
        article = nil,
        aliases = { "saliency", "input attribution map", "importance map", "saliency visualization" },
        es = "Visualización que asigna una puntuación de importancia a cada característica de entrada (a menudo cada píxel) reflejando su contribución a la predicción de un modelo; se utiliza para localizar qué partes de la entrada motivaron la decisión.",
        zh = "为每个输入特征(通常为每个像素)分配重要性分数的可视化方法,反映其对模型预测的贡献,用于定位输入的哪些部分驱动了决策。",
        term_es = "mapa de saliencia",
        term_zh = "显著性图",
        aliases_es = { "mapa de prominencia", "mapa de importancia", "mapa de atribución" },
        aliases_zh = { "saliency map", "重要性图", "显著图" },
    }
    
    data["saliency map evaluation"] = {
        short = "The set of metrics and procedures, including deletion, insertion, and pointing-game scores, used to quantify how faithful and useful a saliency map is for explaining a model's predictions.",
        article = nil,
        aliases = { "saliency evaluation", "saliency map metrics" },
        es = "Conjunto de métricas y procedimientos, incluidos deletion, insertion y pointing game, utilizados para cuantificar cuán fiel y útil es un mapa de saliencia al explicar las predicciones de un modelo.",
        zh = "用于量化显著性图在解释模型预测时的忠实性与有用性的指标与流程,包括删除、插入和定位游戏等评分。",
        term_es = "evaluación de mapas de saliencia",
        term_zh = "显著性图评估",
        aliases_es = { "evaluación de saliencia", "métricas de saliencia" },
        aliases_zh = { "显著性评估", "显著性图度量" },
    }
    
    data["salmon quantification"] = {
        short = "Transcript abundance estimation performed by the Salmon tool, which uses quasi-mapping or selective alignment together with a probabilistic model that accounts for sample-specific biases. It produces fast and accurate per-transcript estimates without full read alignment.",
        article = nil,
        aliases = { "Salmon", "salmon", "Salmon quant", "salmon quant", "transcript quantification with Salmon" },
        es = "Estimación de abundancia de transcritos realizada por la herramienta Salmon, que usa quasi-mapping o alineamiento selectivo junto con un modelo probabilístico que tiene en cuenta sesgos específicos de la muestra. Produce estimaciones rápidas y precisas por transcrito sin alineamiento completo.",
        zh = "由Salmon工具执行的转录本丰度估计,使用quasi-mapping或选择性比对,结合考虑样本特异偏差的概率模型,无需完整读段比对即可快速、准确地估算每个转录本的表达量。",
        term_es = "cuantificación con Salmon",
        term_zh = "Salmon 定量",
        aliases_es = { "Salmon", "salmon", "Salmon quant", "cuantificación Salmon" },
        aliases_zh = { "Salmon", "salmon", "Salmon quant", "Salmon 转录本定量" },
    }
    
    data["sam format"] = {
        short = "A tab-delimited text format for storing sequence alignments to a reference, defined by the SAM/BAM/CRAM specification. Each record encodes read name, flags, mapping position, CIGAR string, sequence, base qualities, and optional tags.",
        article = nil,
        aliases = { "SAM format", "SAM", "Sequence Alignment Map", "Sequence Alignment/Map format" },
        es = "Formato de texto delimitado por tabuladores para almacenar alineamientos de secuencia con una referencia, definido por la especificación SAM/BAM/CRAM. Cada registro codifica nombre de la lectura, banderas, posición de mapeo, cadena CIGAR, secuencia, calidades de bases y etiquetas opcionales.",
        zh = "由SAM/BAM/CRAM规范定义的制表符分隔文本格式,用于存储序列与参考序列的比对结果。每条记录包含读段名、标志位、比对位置、CIGAR字符串、序列、碱基质量和可选标签。",
        term_es = "formato SAM",
        term_zh = "SAM 格式",
        aliases_es = { "SAM", "formato SAM", "Sequence Alignment Map" },
        aliases_zh = { "SAM", "SAM 格式", "Sequence Alignment Map", "序列比对/图谱格式" },
    }
    
    data["sample bias"] = {
        short = "Bias arising when the training sample is not representative of the target population, so the learned model systematically misrepresents some segments. A subtype of selection bias rooted in how observations are drawn rather than analyzed.",
        article = nil,
        aliases = { "sampling bias", "biased sampling" },
        es = "Sesgo que surge cuando la muestra de entrenamiento no es representativa de la población objetivo, de modo que el modelo aprendido representa sistemáticamente mal a ciertos segmentos. Subtipo del sesgo de selección originado en cómo se obtienen las observaciones, no en cómo se analizan.",
        zh = "训练样本未能代表目标总体而产生的偏差,导致所学模型对某些子群体存在系统性失真。属于选择偏差的子类,根源在于观测的抽取方式而非分析过程。",
        term_es = "sesgo de muestreo",
        term_zh = "样本偏差",
        aliases_es = { "sesgo de la muestra", "muestreo sesgado" },
        aliases_zh = { "抽样偏差", "样本选择偏差", "取样偏差" },
    }
    
    data["sample splitting"] = {
        short = "An inference technique that partitions the data so that nuisance functions are estimated on one fold and the parameter of interest is evaluated on a held-out fold. It removes own-observation bias and underlies cross-fitting in debiased machine learning.",
        article = nil,
        aliases = { "Sample Splitting", "sample-splitting", "data splitting", "cross-fitting", "cross fitting" },
        es = "Técnica de inferencia que particiona los datos de modo que las funciones de molestia se estiman en un pliegue y el parámetro de interés se evalúa en otro pliegue retenido. Elimina el sesgo de propia observación y sustenta la validación cruzada en aprendizaje automático des-sesgado.",
        zh = "一种推断技术,将数据划分为多折,在一折上估计冗余函数,在另一独立折上评估目标参数。它消除了同观测偏差,是去偏机器学习中交叉拟合的基础。",
        term_es = "partición muestral",
        term_zh = "样本分割",
        aliases_es = { "división de muestra", "partición de la muestra", "validación cruzada por partición" },
        aliases_zh = { "数据分割", "样本拆分", "交叉拟合" },
    }
    
    data["sample-efficient nas"] = {
        short = "Neural architecture search methods that minimize the number of fully trained child models required, typically by using performance predictors, weight sharing, low-fidelity proxies, or Bayesian optimization over architectures.",
        article = nil,
        aliases = { "sample efficient NAS", "data-efficient NAS", "query-efficient NAS" },
        es = "Métodos de búsqueda de arquitecturas que minimizan el número de modelos hijo completamente entrenados, normalmente usando predictores de desempeño, compartición de pesos, proxies de baja fidelidad u optimización bayesiana sobre arquitecturas.",
        zh = "通过性能预测器、权重共享、低保真代理或对架构的贝叶斯优化等手段,尽量减少需完整训练的子模型数量的神经架构搜索方法。",
        term_es = "NAS eficiente en muestras",
        term_zh = "样本高效 NAS",
        aliases_es = { "NAS eficiente en datos", "NAS eficiente en consultas" },
        aliases_zh = { "数据高效 NAS", "查询高效 NAS" },
    }
    
    data["sample-level explanation"] = {
        short = "An explanation that targets the prediction for one specific input instance, in contrast to global explanations that summarize behavior across an entire dataset.",
        article = nil,
        aliases = { "instance-level explanation", "local explanation", "per-sample explanation" },
        es = "Explicación dirigida a la predicción de una instancia de entrada específica, en contraste con las explicaciones globales que resumen el comportamiento en todo un conjunto de datos.",
        zh = "针对单个输入实例的预测给出的解释,与对整个数据集行为进行总结的全局解释相对。",
        term_es = "explicación a nivel de muestra",
        term_zh = "样本级解释",
        aliases_es = { "explicación a nivel de instancia", "explicación local", "explicación por muestra" },
        aliases_zh = { "实例级解释", "局部解释", "逐样本解释" },
    }
    
    data["samplernn"] = {
        short = "A hierarchical autoregressive RNN model for raw audio (Mehri et al., 2017) that generates samples one at a time using multiple recurrent tiers operating at different temporal resolutions, capturing both long-range structure and fine-grained waveform detail.",
        article = nil,
        aliases = { "SampleRNN", "Sample RNN" },
        es = "Modelo autorregresivo jerárquico basado en RNN para audio en bruto (Mehri et al., 2017) que genera muestras una a una usando varios niveles recurrentes que operan a distintas resoluciones temporales, capturando tanto la estructura de largo alcance como el detalle fino de la forma de onda.",
        zh = "Mehri 等人于 2017 年提出的分层自回归 RNN 原始音频生成模型:以多个不同时间分辨率的循环层逐样本生成,兼顾长程结构与波形细节。",
        term_es = "SampleRNN",
        term_zh = "SampleRNN",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["sampling"] = {
        short = "A decoding family that draws each token at random from the model's predicted distribution, optionally reshaped by temperature or truncation. Produces more diverse outputs than greedy or beam search.",
        article = nil,
        aliases = { "Sampling", "stochastic decoding", "random sampling", "probabilistic decoding" },
        es = "Familia de métodos de decodificación que muestrea cada token al azar a partir de la distribución predicha por el modelo, opcionalmente reescalada por temperatura o truncamiento. Produce salidas más diversas que la decodificación voraz o por haz.",
        zh = "一类解码方法,按模型预测的分布随机抽取每个 token,并可结合温度或截断对分布进行重塑。其输出比贪婪或束搜索更具多样性。",
        term_es = "muestreo",
        term_zh = "采样",
        aliases_es = { "sampling", "muestreo estocástico", "decodificación por muestreo", "muestreo aleatorio" },
        aliases_zh = { "sampling", "随机采样", "概率采样", "采样解码" },
    }
    
    data["sampling shap"] = {
        short = "A model-agnostic SHAP estimator that approximates Shapley values by sampling random feature permutations and averaging the marginal contributions, trading exactness for tractable computation.",
        article = nil,
        aliases = { "SamplingSHAP", "sampling-based SHAP", "permutation SHAP" },
        es = "Estimador de SHAP independiente del modelo que aproxima los valores de Shapley muestreando permutaciones aleatorias de características y promediando las contribuciones marginales, sacrificando exactitud por un cómputo tratable.",
        zh = "一种模型无关的 SHAP 估计方法,通过采样随机特征排列并对边际贡献求平均来近似 Shapley 值,以可计算性换取精确性。",
        term_es = "SHAP por muestreo",
        term_zh = "采样 SHAP",
        aliases_es = { "SHAP basado en muestreo", "SHAP de permutación" },
        aliases_zh = { "基于采样的 SHAP", "排列 SHAP" },
    }
    
    data["samtools"] = {
        short = "A widely used suite of command-line utilities for manipulating SAM, BAM, and CRAM alignment files, including sorting, indexing, filtering, variant calling, and statistics computation. It is a foundational tool in nearly every short-read sequencing analysis pipeline.",
        article = nil,
        aliases = { "SAMtools", "samtools", "Sequence Alignment Map tools" },
        es = "Conjunto de utilidades de línea de comandos ampliamente usado para manipular archivos de alineamiento SAM, BAM y CRAM, incluyendo ordenamiento, indexación, filtrado, llamada de variantes y cálculo de estadísticas. Es una herramienta fundamental en casi todos los flujos de análisis de lecturas cortas.",
        zh = "广泛使用的命令行工具套件,用于操作SAM、BAM和CRAM比对文件,包括排序、索引、过滤、变异检测和统计计算。它是几乎所有短读长测序分析流程的基础工具。",
        term_es = "samtools",
        term_zh = "samtools",
        aliases_es = { "samtools", "SAMtools" },
        aliases_zh = { "samtools", "SAMtools" },
    }
    
    data["sandwich rule"] = {
        short = "A training scheme used in BigNAS and once-for-all networks: at each step, jointly optimize the smallest sub-network, the largest sub-network, and a few randomly sampled intermediate sub-networks within a weight-sharing supernet.",
        article = nil,
        aliases = { "sandwich training", "sandwich sampling", "sandwich rule training" },
        es = "Esquema de entrenamiento usado en BigNAS y once-for-all: en cada paso se optimizan conjuntamente la sub-red más pequeña, la más grande y algunas sub-redes intermedias muestreadas al azar dentro de una super-red con pesos compartidos.",
        zh = "BigNAS 和 once-for-all 网络中的训练策略:在每一步中,在权重共享的超网内同时优化最小子网、最大子网以及若干随机采样的中间子网。",
        term_es = "regla sandwich",
        term_zh = "三明治法则",
        aliases_es = { "entrenamiento sandwich", "muestreo sandwich" },
        aliases_zh = { "三明治训练", "三明治采样", "sandwich rule" },
    }
    
    data["sanity check for saliency"] = {
        short = "A diagnostic procedure that perturbs a model's parameters or training labels and checks whether saliency maps change accordingly; methods that produce similar maps before and after perturbation fail the test.",
        article = nil,
        aliases = { "sanity checks for saliency maps", "saliency sanity check" },
        es = "Procedimiento de diagnóstico que perturba los parámetros o las etiquetas de entrenamiento del modelo y comprueba si los mapas de saliencia cambian en consecuencia; los métodos que producen mapas similares antes y después de la perturbación no superan la prueba.",
        zh = "一种诊断程序,对模型参数或训练标签施加扰动并检查显著性图是否随之变化;若方法在扰动前后给出相似的显著性图,则未通过该测试。",
        term_es = "prueba de cordura para saliencia",
        term_zh = "显著性合理性检查",
        aliases_es = { "sanity check de saliencia", "pruebas de cordura para mapas de saliencia" },
        aliases_zh = { "显著性 sanity check", "显著性图的合理性检查" },
    }
    
    data["saprot"] = {
        short = "A protein language model that augments amino acid tokens with structural tokens derived from the Foldseek 3Di alphabet, allowing simultaneous reasoning over sequence and local backbone geometry.",
        article = nil,
        aliases = { "SaProt", "SaProt model", "structure-aware protein language model" },
        es = "Modelo de lenguaje de proteínas que enriquece los tokens de aminoácidos con tokens estructurales derivados del alfabeto 3Di de Foldseek, permitiendo razonar simultáneamente sobre la secuencia y la geometría local del esqueleto.",
        zh = "一种蛋白质语言模型,将氨基酸标记与来自 Foldseek 3Di 字母表的结构标记相结合,从而同时建模序列与局部骨架几何信息。",
        term_es = "SaProt",
        term_zh = "SaProt",
        aliases_es = { "modelo SaProt", "modelo de lenguaje de proteínas con estructura" },
        aliases_zh = { "SaProt 模型", "结构感知蛋白质语言模型" },
    }
    
    data["sar"] = {
        short = "Sources-to-artifacts ratio: a metric used in audio source separation that quantifies the level of separation artifacts in the estimated source relative to the desired signal energy.",
        article = nil,
        aliases = { "SAR", "sources-to-artifacts ratio", "source-to-artifacts ratio" },
        es = "Sources-to-artifacts ratio: métrica de separación de fuentes de audio que cuantifica los artefactos de separación en la fuente estimada en relación con la energía de la señal deseada.",
        zh = "源到伪影比:用于音频源分离的评价指标,量化估计源中的分离伪影相对于目标信号能量的水平。",
        term_es = "SAR",
        term_zh = "SAR",
        aliases_es = { "razón fuentes a artefactos", "relación señal a artefactos" },
        aliases_zh = { "源与伪影比", "信号与伪影比" },
    }
    
    data["sarah"] = {
        short = "StochAstic Recursive grAdient algoritHm, a variance-reduced stochastic optimization method that updates the gradient estimate recursively from successive sample gradients, achieving optimal complexity for smooth nonconvex problems.",
        article = nil,
        aliases = { "SARAH", "StochAstic Recursive grAdient algoritHm" },
        es = "Algoritmo de gradiente recursivo estocástico (SARAH), método de optimización con reducción de varianza que actualiza la estimación del gradiente de forma recursiva a partir de gradientes muestrales sucesivos, alcanzando complejidad óptima en problemas no convexos suaves.",
        zh = "随机递归梯度算法(SARAH),一种方差缩减的随机优化方法:通过相邻样本梯度递归更新梯度估计,在光滑非凸问题上可达最优复杂度。",
        term_es = "SARAH",
        term_zh = "SARAH",
        aliases_es = { "algoritmo de gradiente recursivo estocástico", "StochAstic Recursive grAdient algoritHm" },
        aliases_zh = { "随机递归梯度算法", "StochAstic Recursive grAdient algoritHm" },
    }
    
    data["sargan test"] = {
        short = "An overidentification test in instrumental-variables and generalized method of moments estimation that checks whether the moment conditions implied by the instruments are jointly consistent with the data. Rejection suggests that some instruments are invalid or the model is misspecified.",
        article = nil,
        aliases = { "Sargan Test", "Sargan-Hansen test", "Hansen J test", "J-statistic test", "Sargan–Hansen overidentification test", "overidentification test" },
        es = "Prueba de sobreidentificación en estimación por variables instrumentales y método generalizado de momentos que verifica si las condiciones de momentos implicadas por los instrumentos son conjuntamente compatibles con los datos. El rechazo sugiere que algunos instrumentos no son válidos o que el modelo está mal especificado.",
        zh = "工具变量与广义矩估计中的过度识别检验,用于检查工具所蕴含的矩条件是否与数据共同相容。拒绝原假设表明某些工具变量无效或模型设定有误。",
        term_es = "prueba de Sargan",
        term_zh = "Sargan 检验",
        aliases_es = { "test de Sargan", "prueba de Sargan–Hansen", "estadístico J", "prueba de sobreidentificación" },
        aliases_zh = { "Sargan 检验", "Sargan–Hansen 检验", "Hansen J 检验", "过度识别检验" },
    }
    
    data["sarsa"] = {
        short = "An on-policy temporal-difference reinforcement learning algorithm that updates the action-value function using the tuple (state, action, reward, next state, next action), from which it takes its name.",
        article = nil,
        aliases = { "SARSA", "Sarsa", "state-action-reward-state-action" },
        es = "Algoritmo de aprendizaje por refuerzo de diferencias temporales en política que actualiza la función de valor-acción usando la tupla (estado, acción, recompensa, siguiente estado, siguiente acción), de la cual toma su nombre.",
        zh = "一种在策略的时序差分强化学习算法,使用元组(状态、动作、奖励、下一状态、下一动作)更新动作-值函数,其名称即源于此。",
        term_es = "SARSA",
        term_zh = "SARSA",
        aliases_es = { "estado-acción-recompensa-estado-acción" },
        aliases_zh = { "状态-动作-奖励-状态-动作算法" },
    }
    
    data["sat solver"] = {
        short = "A program that decides the satisfiability of Boolean formulas in conjunctive normal form. Modern conflict-driven clause-learning (CDCL) solvers handle millions of variables and underpin verification, planning, and many neuro-symbolic systems.",
        article = nil,
        aliases = { "SAT solver", "Boolean satisfiability solver", "CDCL solver", "satisfiability solver" },
        es = "Programa que decide la satisfacibilidad de fórmulas booleanas en forma normal conjuntiva. Los resolutores modernos basados en aprendizaje de cláusulas dirigido por conflictos (CDCL) manejan millones de variables y son la base de la verificación, la planificación y muchos sistemas neurosimbólicos.",
        zh = "用于判定合取范式布尔公式可满足性的程序。基于冲突驱动子句学习(CDCL)的现代求解器可处理上百万变量,是形式化验证、规划及许多神经符号系统的基础。",
        term_es = "resolutor SAT",
        term_zh = "SAT 求解器",
        aliases_es = { "solver SAT", "resolutor de satisfacibilidad", "resolutor CDCL" },
        aliases_zh = { "可满足性求解器", "布尔可满足性求解器", "CDCL 求解器" },
    }
    
    data["satnet"] = {
        short = "A differentiable MaxSAT layer that embeds a smoothed semidefinite-programming relaxation of MaxSAT inside a neural network, allowing logical constraints to be learned end-to-end from examples (e.g., learning to solve Sudoku from data).",
        article = nil,
        aliases = { "SATNet", "SATNet layer", "differentiable MaxSAT", "SATNet model" },
        es = "Capa MaxSAT diferenciable que incorpora una relajación suavizada por programación semidefinida de MaxSAT dentro de una red neuronal, permitiendo aprender restricciones lógicas de extremo a extremo a partir de ejemplos (p. ej., aprender a resolver Sudoku desde datos).",
        zh = "一种可微分的 MaxSAT 层,将 MaxSAT 的平滑半定规划松弛嵌入神经网络,使其可端到端地从样本中学习逻辑约束(例如仅凭数据学会解数独)。",
        term_es = "SATNet",
        term_zh = "SATNet",
        aliases_es = { "capa SATNet", "MaxSAT diferenciable" },
        aliases_zh = { "SATNet 层", "可微分 MaxSAT" },
    }
    
    data["scaffold"] = {
        short = "Stochastic Controlled Averaging for Federated Learning, an algorithm that augments FedAvg with per-client and global control variates to correct for client drift caused by heterogeneous local data, reducing the number of communication rounds to convergence.",
        article = nil,
        aliases = { "SCAFFOLD", "Stochastic Controlled Averaging for Federated Learning", "SCAFFOLD algorithm", "SCAFFOLD federated learning" },
        es = "Promediado controlado estocástico para aprendizaje federado, algoritmo que añade a FedAvg variables de control por cliente y globales para corregir la deriva del cliente causada por datos locales heterogéneos, reduciendo el número de rondas de comunicación hasta la convergencia.",
        zh = "用于联邦学习的随机控制平均算法,通过为FedAvg引入每客户端和全局控制变量来校正由异构本地数据引起的客户端漂移,从而减少收敛所需的通信轮数。",
        term_es = "SCAFFOLD",
        term_zh = "SCAFFOLD",
        aliases_es = { "algoritmo SCAFFOLD", "promediado controlado estocástico para FL" },
        aliases_zh = { "SCAFFOLD算法", "随机控制联邦平均" },
    }
    
    data["scaffold hopping"] = {
        short = "A medicinal chemistry strategy that seeks new chemical scaffolds with similar biological activity to a known active compound, used to navigate around intellectual property, improve properties, or escape liabilities.",
        article = nil,
        aliases = { "scaffold-hopping", "scaffold replacement", "core hopping", "lead hopping" },
        es = "Estrategia de química medicinal que busca nuevos esqueletos químicos con actividad biológica similar a la de un compuesto activo conocido, utilizada para sortear propiedad intelectual, mejorar propiedades o evitar pasivos.",
        zh = "一种药物化学策略,旨在寻找与已知活性化合物具有相似生物活性的新化学骨架,用以规避知识产权、改善性质或摆脱副作用风险。",
        term_es = "salto de esqueleto",
        term_zh = "骨架跃迁",
        aliases_es = { "scaffold hopping", "salto de núcleo", "reemplazo de esqueleto" },
        aliases_zh = { "scaffold hopping", "骨架跳跃", "核心跃迁" },
    }
    
    data["scalable bayesian rule list"] = {
        short = "A Bayesian rule list with a scalable inference procedure that searches the space of ordered if-then-else rules to produce sparse, accurate, and probabilistically calibrated interpretable classifiers.",
        article = nil,
        aliases = { "SBRL", "scalable Bayesian rule lists" },
        es = "Lista de reglas bayesianas con un procedimiento de inferencia escalable que explora el espacio de reglas si-entonces-si-no ordenadas para producir clasificadores interpretables, dispersos, precisos y calibrados probabilísticamente.",
        zh = "具有可扩展推断流程的贝叶斯规则列表,在有序 if-then-else 规则空间中搜索,得到稀疏、准确且概率校准的可解释分类器。",
        term_es = "lista de reglas bayesianas escalables",
        term_zh = "可扩展贝叶斯规则列表",
        aliases_es = { "SBRL", "listas de reglas bayesianas escalables" },
        aliases_zh = { "SBRL", "可扩展贝叶斯规则表" },
    }
    
    data["scalable oversight"] = {
        short = "An AI alignment problem and research area concerned with training, evaluating, and supervising models on tasks where humans cannot reliably judge correctness, often by leveraging AI assistants, debate, or recursive decomposition.",
        article = nil,
        aliases = { "scalable supervision", "scalable AI oversight" },
        es = "Problema y área de investigación en alineación de IA centrada en entrenar, evaluar y supervisar modelos en tareas donde los humanos no pueden juzgar la corrección con fiabilidad, a menudo recurriendo a asistentes de IA, debate o descomposición recursiva.",
        zh = "AI对齐研究中的一个问题领域,旨在对人类难以可靠判断正确性的任务进行模型的训练、评估和监督,通常借助AI助手、辩论或递归分解等方法。",
        term_es = "supervisión escalable",
        term_zh = "可扩展监督",
        aliases_es = { "supervisión escalable de IA", "oversight escalable" },
        aliases_zh = { "可扩展的监督", "可扩展AI监督" },
    }
    
    data["scalar"] = {
        short = "A single numerical value with no directional component, equivalent to a rank-0 tensor. Contrasts with vectors, matrices, and higher-order tensors that have one or more indexed dimensions.",
        article = nil,
        aliases = { "scalar value", "rank-0 tensor", "0-dimensional tensor" },
        es = "Valor numérico único sin componente direccional, equivalente a un tensor de rango 0. Se contrasta con vectores, matrices y tensores de orden superior que poseen una o más dimensiones indexadas.",
        zh = "单个数值,没有方向分量,等价于 0 阶张量。与具有一个或多个索引维度的向量、矩阵和高阶张量形成对照。",
        term_es = "escalar",
        term_zh = "标量",
        aliases_es = { "valor escalar", "tensor de rango 0" },
        aliases_zh = { "标量值", "0 阶张量" },
    }
    
    data["scaled dot-product attention"] = {
        short = "The attention operation that computes weights as a softmax over query-key dot products scaled by the inverse square root of the key dimension, then applies them to values.",
        article = "Attention Mechanisms",
        aliases = { "Scaled Dot-Product Attention", "scaled dot product attention", "dot-product attention" },
        es = "Operación de atención que calcula los pesos como un softmax sobre productos punto entre consultas y claves escalados por el inverso de la raíz cuadrada de la dimensión de las claves, y luego los aplica a los valores.",
        zh = "一种注意力操作,将查询与键的点积按键维度平方根的倒数进行缩放后取 softmax 作为权重,再将其应用到值上。",
        term_es = "atención por producto punto escalado",
        term_zh = "缩放点积注意力",
        aliases_es = { "scaled dot-product attention", "atención producto punto escalada" },
        aliases_zh = { "scaled dot-product attention", "缩放点乘注意力" },
    }
    
    data["scalenorm"] = {
        short = "Lightweight normalization that rescales each activation vector to a learned global norm, replacing LayerNorm's per-feature affine with a single learnable scale. Used in some transformer variants.",
        article = nil,
        aliases = { "ScaleNorm", "scale norm" },
        es = "Normalización ligera que reescala cada vector de activación a una norma global aprendida, reemplazando la transformación afín por característica de LayerNorm con un único escalar aprendible. Usada en algunas variantes de transformador.",
        zh = "一种轻量归一化方法,将每个激活向量缩放到一个可学习的全局范数,用单一可学习标量代替 LayerNorm 的逐特征仿射变换。被部分 Transformer 变体采用。",
        term_es = "ScaleNorm",
        term_zh = "ScaleNorm",
        aliases_es = { "ScaleNorm", "normalización por escala" },
        aliases_zh = { "ScaleNorm", "尺度归一化" },
    }
    
    data["scaling laws"] = {
        short = "Empirical power-law relationships describing how the loss of a neural network changes as a function of model size, dataset size, and training compute. Used to predict and plan the performance of larger models.",
        article = nil,
        aliases = { "neural scaling laws", "Chinchilla scaling laws", "Kaplan scaling laws" },
        es = "Relaciones empíricas de tipo ley de potencia que describen cómo varía la pérdida de una red neuronal en función del tamaño del modelo, el tamaño del conjunto de datos y el cómputo de entrenamiento. Se utilizan para predecir y planificar el rendimiento de modelos más grandes.",
        zh = "描述神经网络损失随模型规模、数据集规模和训练算力变化的经验幂律关系,用于预测和规划更大规模模型的性能。",
        term_es = "leyes de escalado",
        term_zh = "扩展定律",
        aliases_es = { "leyes de escala", "leyes de escalado neuronal", "scaling laws" },
        aliases_zh = { "缩放定律", "神经网络扩展定律", "Chinchilla 扩展定律" },
    }
    
    data["scan benchmark"] = {
        short = "SCAN: a synthetic dataset of natural-language commands paired with action sequences, designed to test compositional generalization in sequence-to-sequence models. Splits such as add-jump and length expose systematic generalization failures of standard neural networks.",
        article = nil,
        aliases = { "SCAN", "SCAN dataset", "SCAN compositional benchmark", "SCAN tasks" },
        es = "SCAN: conjunto de datos sintético de comandos en lenguaje natural emparejados con secuencias de acciones, diseñado para evaluar la generalización composicional en modelos seq2seq. Divisiones como add-jump y length revelan fallos sistemáticos de generalización en redes neuronales estándar.",
        zh = "SCAN:一个合成数据集,由自然语言指令与动作序列配对组成,用于评估序列到序列模型的组合泛化能力。add-jump、length 等划分揭示了标准神经网络系统性泛化方面的不足。",
        term_es = "benchmark SCAN",
        term_zh = "SCAN 基准",
        aliases_es = { "conjunto SCAN", "SCAN", "benchmark composicional SCAN" },
        aliases_zh = { "SCAN 数据集", "SCAN", "SCAN 组合泛化基准" },
    }
    
    data["scanpy"] = {
        short = "A Python toolkit for single-cell RNA-seq analysis built on AnnData, providing scalable preprocessing, dimensionality reduction, clustering, trajectory inference, and visualization. It is widely adopted as the Python counterpart to Seurat.",
        article = nil,
        aliases = { "Scanpy", "scanpy", "SCANPY" },
        es = "Conjunto de herramientas en Python para análisis de RNA-seq de célula única basado en AnnData, que ofrece preprocesamiento escalable, reducción de dimensionalidad, agrupamiento, inferencia de trayectorias y visualización. Es ampliamente adoptado como contraparte en Python de Seurat.",
        zh = "基于AnnData构建的单细胞RNA-seq分析Python工具包,提供可扩展的预处理、降维、聚类、轨迹推断和可视化功能。它被广泛视为Seurat在Python中的对应工具。",
        term_es = "Scanpy",
        term_zh = "Scanpy",
        aliases_es = { "Scanpy", "scanpy" },
        aliases_zh = { "Scanpy", "scanpy" },
    }
    
    data["scatter operation"] = {
        short = "A collective communication primitive in distributed computing in which a single root process partitions a buffer into chunks and sends a different chunk to each participating process; the inverse of a gather operation.",
        article = nil,
        aliases = { "scatter", "Scatter operation", "MPI_Scatter", "scatter collective", "scatter primitive" },
        es = "Primitiva de comunicación colectiva en computación distribuida en la que un único proceso raíz divide un búfer en bloques y envía un bloque distinto a cada proceso participante; es la operación inversa de gather.",
        zh = "分布式计算中的一种集体通信原语:由单一根进程将缓冲区切分为多个块,并向每个参与进程发送不同的块;为gather操作的逆运算。",
        term_es = "operación scatter",
        term_zh = "scatter操作",
        aliases_es = { "scatter", "primitiva scatter", "MPI_Scatter" },
        aliases_zh = { "scatter", "分散操作", "MPI_Scatter" },
    }
    
    data["scbert"] = {
        short = "A BERT-style transformer model pretrained on large-scale single-cell RNA-seq data that represents each cell as a sequence of gene expression tokens. scBERT enables transfer learning for cell type annotation and other downstream single-cell tasks.",
        article = nil,
        aliases = { "scBERT", "single-cell BERT" },
        es = "Modelo transformer al estilo BERT preentrenado con datos masivos de RNA-seq de célula única que representa cada célula como una secuencia de tokens de expresión génica. scBERT permite transferencia de aprendizaje para anotación de tipos celulares y otras tareas posteriores de célula única.",
        zh = "一种类BERT的Transformer模型,在大规模单细胞RNA-seq数据上预训练,将每个细胞表示为基因表达令牌序列。scBERT支持单细胞细胞类型注释和其他下游任务的迁移学习。",
        term_es = "scBERT",
        term_zh = "scBERT",
        aliases_es = { "scBERT", "BERT de célula única" },
        aliases_zh = { "scBERT", "单细胞 BERT" },
    }
    
    data["scenic"] = {
        short = "A computational pipeline that infers gene regulatory networks from single-cell RNA-seq data by combining co-expression analysis with transcription factor motif enrichment. It produces regulons—sets of genes co-regulated by the same TF—and scores their activity in each cell.",
        article = nil,
        aliases = { "SCENIC", "Single-Cell rEgulatory Network Inference and Clustering", "pySCENIC" },
        es = "Pipeline computacional que infiere redes regulatorias génicas a partir de datos RNA-seq de célula única combinando análisis de co-expresión con enriquecimiento de motivos de factores de transcripción. Produce regulones —conjuntos de genes co-regulados por el mismo FT— y puntúa su actividad en cada célula.",
        zh = "一种计算流程,结合共表达分析和转录因子基序富集,从单细胞RNA-seq数据推断基因调控网络。它生成调控子(regulon)——由同一转录因子共同调控的基因集合——并对每个细胞中的调控子活性打分。",
        term_es = "SCENIC",
        term_zh = "SCENIC",
        aliases_es = { "SCENIC", "pySCENIC" },
        aliases_zh = { "SCENIC", "pySCENIC", "单细胞调控网络推断" },
    }
    
    data["scfoundation"] = {
        short = "A large foundation model pretrained on tens of millions of single-cell RNA-seq profiles that produces general-purpose cell embeddings. scFoundation supports zero-shot and fine-tuned applications including cell type annotation, perturbation prediction, and drug response.",
        article = nil,
        aliases = { "scFoundation", "single-cell foundation model" },
        es = "Gran modelo fundacional preentrenado sobre decenas de millones de perfiles de RNA-seq de célula única que produce embeddings celulares de propósito general. scFoundation admite aplicaciones zero-shot y con ajuste fino, incluyendo anotación de tipos celulares, predicción de perturbaciones y respuesta a fármacos.",
        zh = "在数千万单细胞RNA-seq数据上预训练的大型基础模型,生成通用细胞嵌入。scFoundation支持零样本和微调应用,包括细胞类型注释、扰动预测和药物响应预测。",
        term_es = "scFoundation",
        term_zh = "scFoundation",
        aliases_es = { "scFoundation", "modelo fundacional de célula única" },
        aliases_zh = { "scFoundation", "单细胞基础模型" },
    }
    
    data["scgen"] = {
        short = "A deep generative model based on variational autoencoders that predicts single-cell gene expression responses to perturbations such as drug treatment, infection, or genetic modification. scGen generalizes across cell types via latent space arithmetic.",
        article = nil,
        aliases = { "scGen", "single-cell generator" },
        es = "Modelo generativo profundo basado en autoencoders variacionales que predice respuestas de expresión génica de células individuales ante perturbaciones como tratamiento farmacológico, infección o modificación genética. scGen generaliza entre tipos celulares mediante aritmética en el espacio latente.",
        zh = "一种基于变分自编码器的深度生成模型,用于预测单细胞基因表达对扰动(如药物处理、感染或基因修饰)的响应。scGen通过潜空间算术在不同细胞类型之间进行泛化。",
        term_es = "scGen",
        term_zh = "scGen",
        aliases_es = { "scGen" },
        aliases_zh = { "scGen" },
    }
    
    data["scgpt"] = {
        short = "A generative pretrained transformer for single-cell biology trained on tens of millions of cells that learns joint representations of genes and cells. scGPT supports cell type annotation, multi-omics integration, perturbation prediction, and gene network inference.",
        article = nil,
        aliases = { "scGPT", "single-cell GPT" },
        es = "Transformer generativo preentrenado para biología de célula única, entrenado con decenas de millones de células, que aprende representaciones conjuntas de genes y células. scGPT admite anotación de tipos celulares, integración multi-ómica, predicción de perturbaciones e inferencia de redes génicas.",
        zh = "面向单细胞生物学的生成式预训练Transformer,在数千万细胞上训练,学习基因和细胞的联合表示。scGPT支持细胞类型注释、多组学整合、扰动预测和基因网络推断。",
        term_es = "scGPT",
        term_zh = "scGPT",
        aliases_es = { "scGPT", "GPT de célula única" },
        aliases_zh = { "scGPT", "单细胞 GPT" },
    }
    
    data["schnet"] = {
        short = "A continuous-filter convolutional neural network for molecules and materials that operates directly on atomic positions and types, using interatomic distances to model quantum-mechanical properties such as energies and forces.",
        article = nil,
        aliases = { "SchNet", "SchNet model", "continuous-filter convolutional network" },
        es = "Red neuronal convolucional de filtros continuos para moléculas y materiales que opera directamente sobre posiciones y tipos atómicos, usando distancias interatómicas para modelar propiedades mecánico-cuánticas como energías y fuerzas.",
        zh = "一种用于分子和材料的连续滤波卷积神经网络,直接作用于原子位置和原子类型,利用原子间距离对能量、力等量子力学性质进行建模。",
        term_es = "SchNet",
        term_zh = "SchNet",
        aliases_es = { "modelo SchNet", "red convolucional de filtros continuos" },
        aliases_zh = { "SchNet 模型", "连续滤波卷积网络" },
    }
    
    data["sci-plex"] = {
        short = "A high-throughput single-cell screening platform that uses nuclear hashing oligonucleotides to multiplex thousands of chemical perturbations into a single sci-RNA-seq experiment. It enables cost-effective profiling of dose responses and drug mechanisms at single-cell resolution.",
        article = nil,
        aliases = { "sci-Plex", "Sci-Plex", "sciPlex" },
        es = "Plataforma de cribado de célula única de alto rendimiento que usa oligonucleótidos de hashing nuclear para multiplexar miles de perturbaciones químicas en un único experimento sci-RNA-seq. Permite perfilar respuestas a dosis y mecanismos farmacológicos a resolución de célula única de forma rentable.",
        zh = "一种高通量单细胞筛选平台,利用核哈希寡核苷酸将数千种化学扰动多重化到一次sci-RNA-seq实验中,能够在单细胞分辨率上经济高效地刻画剂量响应和药物作用机制。",
        term_es = "sci-Plex",
        term_zh = "sci-Plex",
        aliases_es = { "sci-Plex", "Sci-Plex", "sciPlex" },
        aliases_zh = { "sci-Plex", "Sci-Plex", "sciPlex" },
    }
    
    data["scibert"] = {
        short = "A BERT model pretrained on a large corpus of scientific publications, primarily from biomedical and computer science domains, using a vocabulary tailored to scientific text. SciBERT outperforms general-domain BERT on tasks such as named entity recognition and relation extraction in scientific literature.",
        article = nil,
        aliases = { "SciBERT", "Scientific BERT" },
        es = "Modelo BERT preentrenado sobre un gran corpus de publicaciones científicas, principalmente de los dominios biomédico y de informática, usando un vocabulario adaptado al texto científico. SciBERT supera al BERT de dominio general en tareas como reconocimiento de entidades nombradas y extracción de relaciones en literatura científica.",
        zh = "在大规模科学文献语料(主要来自生物医学和计算机科学领域)上预训练的BERT模型,使用针对科学文本的词表。在科学文献的命名实体识别和关系抽取等任务上优于通用领域的BERT。",
        term_es = "SciBERT",
        term_zh = "SciBERT",
        aliases_es = { "SciBERT", "BERT científico" },
        aliases_zh = { "SciBERT", "科学 BERT" },
    }
    
    data["scikit-optimize"] = {
        short = "An open-source Python library implementing sequential model-based optimization with Gaussian processes, random forests, and gradient-boosted trees as surrogates, providing a scikit-learn-compatible API for hyperparameter tuning.",
        article = nil,
        aliases = { "skopt", "scikit-optimize library" },
        es = "Biblioteca Python de código abierto que implementa optimización secuencial basada en modelos con procesos gaussianos, bosques aleatorios y árboles potenciados por gradiente como sustitutos, ofreciendo una API compatible con scikit-learn para ajuste de hiperparámetros.",
        zh = "开源 Python 库,使用高斯过程、随机森林和梯度提升树作为代理模型实现序列模型优化,提供与 scikit-learn 兼容的超参数调优接口。",
        term_es = "scikit-optimize",
        term_zh = "scikit-optimize",
        aliases_es = { "skopt" },
        aliases_zh = { "skopt" },
    }
    
    data["sciqa"] = {
        short = "A multimodal science question-answering benchmark whose items combine textual questions with diagrams, charts, or figures from K-12 and college-level science. Tests scientific reasoning grounded in visual evidence.",
        article = nil,
        aliases = { "ScienceQA", "Science QA", "SciQA", "Sci-QA" },
        es = "Benchmark multimodal de preguntas y respuestas científicas cuyos ítems combinan preguntas textuales con diagramas, gráficos o figuras de ciencia escolar y universitaria. Evalúa el razonamiento científico anclado en evidencia visual.",
        zh = "多模态科学问答基准,题目将文本问题与中小学及大学科学领域的示意图、图表或插图相结合,用于测评基于视觉证据的科学推理能力。",
        term_es = "ScienceQA",
        term_zh = "ScienceQA",
        aliases_es = { "Science QA", "SciQA" },
        aliases_zh = { "科学问答", "SciQA", "ScienceQA 数据集" },
    }
    
    data["score distillation sampling"] = {
        short = "A technique introduced in DreamFusion that optimizes a parametric scene representation (e.g. NeRF) by using the predicted score from a pretrained 2D diffusion model as a gradient signal, enabling text-to-3D generation without 3D training data.",
        article = nil,
        aliases = { "SDS", "score distillation", "score-distillation sampling" },
        es = "Técnica introducida en DreamFusion que optimiza una representación paramétrica de la escena (por ejemplo, NeRF) utilizando la puntuación predicha por un modelo de difusión 2D preentrenado como señal de gradiente, lo que permite la generación de texto a 3D sin datos de entrenamiento 3D.",
        zh = "DreamFusion引入的技术,使用预训练的二维扩散模型预测的分数作为梯度信号来优化参数化场景表示(例如NeRF),从而在无需3D训练数据的情况下实现文本到3D生成。",
        term_es = "muestreo por destilación de puntuaciones",
        term_zh = "分数蒸馏采样",
        aliases_es = { "SDS", "destilación de score", "score distillation sampling" },
        aliases_zh = { "SDS", "得分蒸馏采样", "分数蒸馏" },
    }
    
    data["score function"] = {
        short = "The gradient of the log-density of a probability distribution with respect to its argument or parameters: s(x) = ∇_x log p(x), or s(θ) = ∇_θ log p(x;θ). Central to maximum-likelihood estimation, score-based generative models, and natural gradients.",
        article = nil,
        aliases = { "score", "Stein score", "log-density gradient", "score function (statistics)" },
        es = "Gradiente del logaritmo de la densidad de una distribución de probabilidad respecto a su argumento o sus parámetros: s(x) = ∇_x log p(x), o s(θ) = ∇_θ log p(x;θ). Central en la estimación por máxima verosimilitud, los modelos generativos basados en score y los gradientes naturales.",
        zh = "概率分布对数密度关于其变量或参数的梯度:s(x) = ∇_x log p(x) 或 s(θ) = ∇_θ log p(x;θ)。它在极大似然估计、基于得分的生成模型和自然梯度中处于核心位置。",
        term_es = "función de puntuación",
        term_zh = "得分函数",
        aliases_es = { "score", "puntuación", "score de Stein" },
        aliases_zh = { "score 函数", "Stein 得分", "对数密度梯度" },
    }
    
    data["score function estimator"] = {
        short = "A gradient estimator for expectations of nondifferentiable or discrete functions that uses the identity ∇E[f(x)] = E[f(x) ∇log p(x)], yielding an unbiased but typically high-variance estimate; also known as the REINFORCE estimator or likelihood-ratio gradient.",
        article = nil,
        aliases = { "REINFORCE estimator", "likelihood-ratio estimator", "likelihood ratio gradient", "log-derivative trick", "score-function gradient" },
        es = "Estimador de gradientes para esperanzas de funciones no diferenciables o discretas que utiliza la identidad ∇E[f(x)] = E[f(x) ∇log p(x)], dando un estimador insesgado pero típicamente de alta varianza; también conocido como estimador REINFORCE o gradiente del cociente de verosimilitudes.",
        zh = "一种用于不可微或离散函数期望的梯度估计器,利用恒等式 ∇E[f(x)] = E[f(x) ∇log p(x)],得到无偏但通常方差较大的估计;也称为 REINFORCE 估计器或似然比梯度。",
        term_es = "estimador de la función score",
        term_zh = "得分函数估计器",
        aliases_es = { "estimador REINFORCE", "estimador del cociente de verosimilitudes", "truco del log-derivado" },
        aliases_zh = { "REINFORCE 估计器", "似然比梯度", "对数导数技巧", "score function 估计器" },
    }
    
    data["score function gradient"] = {
        short = "An unbiased gradient estimator for the expected value of a function under a parameterized distribution that uses the log-derivative trick; also known as the REINFORCE or likelihood-ratio estimator.",
        article = nil,
        aliases = { "REINFORCE", "likelihood ratio estimator", "log-derivative trick", "score-function estimator" },
        es = "Un estimador de gradiente insesgado para el valor esperado de una función bajo una distribución parametrizada que usa el truco del log-derivada; también conocido como estimador REINFORCE o de razón de verosimilitud.",
        zh = "用于参数化分布下函数期望的无偏梯度估计量,基于对数导数技巧;亦称 REINFORCE 估计或似然比估计。",
        term_es = "gradiente de la función score",
        term_zh = "得分函数梯度",
        aliases_es = { "REINFORCE", "estimador de razón de verosimilitud", "truco del log-derivada" },
        aliases_zh = { "REINFORCE", "似然比估计", "对数导数技巧", "score 函数梯度" },
    }
    
    data["score matching"] = {
        short = "A method for estimating unnormalized probability density models by matching the gradient of the model's log-density to that of the data, avoiding computation of the partition function. Foundational for score-based generative models and diffusion models.",
        article = nil,
        aliases = { "Hyvärinen score matching", "denoising score matching", "DSM", "sliced score matching", "SSM" },
        es = "Método para estimar modelos de densidad de probabilidad no normalizados ajustando el gradiente del logaritmo de la densidad del modelo al de los datos, evitando el cálculo de la función de partición. Es la base de los modelos generativos basados en score y los modelos de difusión.",
        zh = "一种估计未归一化概率密度模型的方法,通过匹配模型对数密度的梯度与数据的对应梯度,从而避免计算配分函数。它是基于得分的生成模型与扩散模型的基础。",
        term_es = "ajuste de score",
        term_zh = "得分匹配",
        aliases_es = { "score matching", "ajuste por puntuación", "denoising score matching" },
        aliases_zh = { "score matching", "去噪得分匹配 DSM", "切片得分匹配 SSM" },
    }
    
    data["score matching loss"] = {
        short = "An objective for fitting an unnormalized density model by matching the model's score (gradient of log density) to the data score, avoiding computation of the partition function.",
        article = nil,
        aliases = { "score matching", "Hyvärinen score matching", "implicit score matching" },
        es = "Objetivo para ajustar un modelo de densidad no normalizado igualando el score del modelo (gradiente del log de la densidad) al score de los datos, evitando el cálculo de la función de partición.",
        zh = "用于拟合未归一化密度模型的目标函数,通过匹配模型的 score(对数密度的梯度)与数据的 score,从而避免计算配分函数。",
        term_es = "pérdida de score matching",
        term_zh = "score matching 损失",
        aliases_es = { "score matching", "score matching de Hyvärinen" },
        aliases_zh = { "得分匹配损失", "得分匹配", "Hyvärinen 得分匹配" },
    }
    
    data["score-based bayesian inference"] = {
        short = "A class of posterior approximation methods that estimate the score (gradient of log-density) of the posterior, often via denoising score matching or diffusion-style training, instead of evaluating the density directly.",
        article = nil,
        aliases = { "score based Bayesian inference", "score-matching posterior inference" },
        es = "Una clase de métodos de aproximación de la posterior que estiman el score (gradiente del log-densidad) de la posterior, a menudo mediante score matching denoising o entrenamiento tipo difusión, en lugar de evaluar directamente la densidad.",
        zh = "一类后验近似方法,通过去噪得分匹配或扩散式训练等方式估计后验的得分(对数密度的梯度),而非直接计算密度本身。",
        term_es = "inferencia bayesiana basada en score",
        term_zh = "基于得分的贝叶斯推断",
        aliases_es = { "inferencia posterior por score matching" },
        aliases_zh = { "score-based 贝叶斯推断", "得分匹配后验推断" },
    }
    
    data["score-based causal discovery"] = {
        short = "A class of structure-learning methods that searches over directed acyclic graphs by optimizing a goodness-of-fit score, such as BIC or a regularized likelihood, against the observed data. It contrasts with constraint-based discovery that relies on conditional independence tests.",
        article = nil,
        aliases = { "Score-based Causal Discovery", "score based causal discovery", "score-based structure learning", "score-based DAG learning", "scoring-based causal discovery" },
        es = "Clase de métodos de aprendizaje de estructura que recorre grafos acíclicos dirigidos optimizando una puntuación de bondad de ajuste, como BIC o una verosimilitud regularizada, frente a los datos observados. Se contrapone al descubrimiento basado en restricciones, que se apoya en pruebas de independencia condicional.",
        zh = "一类结构学习方法,通过对有向无环图搜索并最大化某种拟合优度评分(如 BIC 或正则化似然)来与观测数据相符。它与依赖条件独立性检验的基于约束的因果发现形成对比。",
        term_es = "descubrimiento causal basado en puntuaciones",
        term_zh = "基于评分的因果发现",
        aliases_es = { "aprendizaje de estructura basado en score", "descubrimiento basado en score", "descubrimiento causal por puntuación" },
        aliases_zh = { "评分式因果发现", "基于打分的结构学习", "score-based 因果发现" },
    }
    
    data["score-based generative model"] = {
        short = "A class of generative models (Song & Ermon, 2019) that learn the score function ∇_x log p(x) of a data distribution — typically across multiple noise scales — and generate samples via Langevin dynamics or related score-following procedures, closely related to diffusion models.",
        article = nil,
        aliases = { "score-based model", "score matching generative model", "noise-conditional score network", "NCSN" },
        es = "Clase de modelos generativos (Song & Ermon, 2019) que aprenden la función de puntaje ∇_x log p(x) de una distribución de datos —típicamente a varias escalas de ruido— y generan muestras mediante dinámica de Langevin o procedimientos relacionados, estrechamente vinculados a los modelos de difusión.",
        zh = "Song 与 Ermon 于 2019 年提出的一类生成模型:学习数据分布的分数函数 ∇_x log p(x)(通常跨多个噪声尺度),通过 Langevin 动力学等沿分数方向的采样过程生成样本,与扩散模型密切相关。",
        term_es = "modelo generativo basado en puntajes",
        term_zh = "基于分数的生成模型",
        aliases_es = { "modelo basado en puntajes", "red de puntaje condicional al ruido", "NCSN" },
        aliases_zh = { "分数模型", "噪声条件分数网络", "NCSN", "得分生成模型" },
    }
    
    data["score-based model"] = {
        short = "A generative model that learns the gradient of the log-density (the score) of the data distribution and generates samples by following the learned scores via Langevin dynamics or related SDE solvers.",
        article = nil,
        aliases = { "score-based generative model", "Score-Based Model", "score matching model", "SBM" },
        es = "Modelo generativo que aprende el gradiente de la log-densidad (la puntuación) de la distribución de datos y genera muestras siguiendo las puntuaciones aprendidas mediante dinámica de Langevin o solvers de EDE relacionados.",
        zh = "一种生成模型,学习数据分布对数密度的梯度(即得分),并通过 Langevin 动力学或相关随机微分方程求解器沿学到的得分生成样本。",
        term_es = "modelo basado en puntuación",
        term_zh = "基于得分的模型",
        aliases_es = { "modelo generativo basado en score", "modelo basado en score", "modelo score-based" },
        aliases_zh = { "得分模型", "基于分数的生成模型", "Score-based 模型" },
    }
    
    data["score-based molecule generation"] = {
        short = "A class of generative models for molecular structures that learns the score, or gradient of the log probability density, of an atomic distribution and samples molecules by reversing a noise-perturbing diffusion process.",
        article = nil,
        aliases = { "score-based generative model for molecules", "score-based molecular generation", "score matching molecule generation", "score-based molecular diffusion" },
        es = "Clase de modelos generativos para estructuras moleculares que aprenden la puntuación, es decir, el gradiente de la densidad de probabilidad logarítmica, de una distribución atómica y muestrean moléculas invirtiendo un proceso de difusión que añade ruido.",
        zh = "一类用于分子结构的生成模型,通过学习原子分布的对数概率密度的梯度(即得分),并反向运行加噪扩散过程来采样分子。",
        term_es = "generación de moléculas basada en score",
        term_zh = "基于得分的分子生成",
        aliases_es = { "modelos generativos basados en score para moléculas", "generación molecular basada en score matching" },
        aliases_zh = { "基于分数的分子生成", "得分匹配分子生成", "基于得分的分子扩散" },
    }
    
    data["score-based stochastic differential equation"] = {
        short = "A continuous-time formulation of diffusion / score-based generative models (Song et al., 2021) in which the forward noising process is described by an SDE and sampling solves the corresponding reverse-time SDE or its probability-flow ODE, using a learned score network as drift.",
        article = nil,
        aliases = { "Score SDE", "score-based SDE", "score SDE", "score-based generative modeling through SDEs" },
        es = "Formulación en tiempo continuo de los modelos generativos basados en puntajes / difusión (Song et al., 2021) en la que el proceso de adición de ruido se describe mediante una SDE y el muestreo resuelve la SDE inversa correspondiente o su ODE de flujo de probabilidad, usando una red de puntajes aprendida como deriva.",
        zh = "Song 等人于 2021 年提出的扩散 / 分数生成模型连续时间表述:前向加噪过程由随机微分方程描述,采样则求解对应的反向时间 SDE 或其概率流 ODE,由学习到的分数网络充当漂移项。",
        term_es = "SDE basada en puntajes",
        term_zh = "基于分数的随机微分方程",
        aliases_es = { "Score SDE", "modelado generativo mediante SDE basadas en puntajes" },
        aliases_zh = { "Score SDE", "基于分数的 SDE", "分数 SDE" },
    }
    
    data["score-cam"] = {
        short = "A class activation mapping method that weights each feature map by the increase in target-class score obtained when masking the input with that map, removing the gradient dependence of Grad-CAM.",
        article = nil,
        aliases = { "Score-CAM", "Score CAM" },
        es = "Método de class activation mapping que pondera cada mapa de características por el aumento en la puntuación de la clase objetivo al enmascarar la entrada con ese mapa, eliminando la dependencia del gradiente que tiene Grad-CAM.",
        zh = "一种类激活映射方法,用各特征图作为掩码作用于输入时目标类别分数的增量来加权该特征图,从而去除 Grad-CAM 对梯度的依赖。",
        term_es = "Score-CAM",
        term_zh = "Score-CAM",
        aliases_es = { "Score CAM" },
        aliases_zh = { "Score CAM", "得分 CAM" },
    }
    
    data["score-informed source separation"] = {
        short = "Music source separation that exploits a synchronized musical score (notes, onsets, instrumentation) as side information to guide the separation of individual instrument or vocal stems.",
        article = nil,
        aliases = { "score informed source separation", "score-guided source separation", "score-based source separation" },
        es = "Separación de fuentes musicales que aprovecha una partitura sincronizada (notas, onsets, instrumentación) como información auxiliar para guiar la separación de pistas instrumentales o vocales.",
        zh = "利用同步乐谱(音符、起始时间、乐器编制)作为辅助信息来引导分离各乐器或人声音轨的音乐源分离方法。",
        term_es = "separación de fuentes informada por partitura",
        term_zh = "乐谱引导的源分离",
        aliases_es = { "separación de fuentes guiada por partitura" },
        aliases_zh = { "基于乐谱的源分离", "乐谱辅助源分离" },
    }
    
    data["scoring rule"] = {
        short = "A function that assigns a numerical score to a probabilistic forecast given the realized outcome, used to evaluate and compare forecast quality.",
        article = nil,
        aliases = { "score function (forecasting)", "probabilistic scoring rule" },
        es = "Una función que asigna una puntuación numérica a un pronóstico probabilístico dado el resultado realizado, utilizada para evaluar y comparar la calidad de los pronósticos.",
        zh = "一种为给定真实结果的概率预测赋予数值分数的函数,用于评估和比较预测质量。",
        term_es = "regla de puntuación",
        term_zh = "评分规则",
        aliases_es = { "regla de scoring", "función de puntuación probabilística" },
        aliases_zh = { "得分规则", "评分函数(预测)" },
    }
    
    data["screenai"] = {
        short = "A Google vision-language model specialized in understanding user interfaces and infographics, supporting tasks like screen question answering, summarization, and UI element annotation.",
        article = nil,
        aliases = { "ScreenAI", "Screen AI" },
        es = "Modelo de visión y lenguaje de Google especializado en comprender interfaces de usuario e infografías, con soporte para tareas como respuesta a preguntas sobre pantallas, resumen y anotación de elementos de interfaz.",
        zh = "Google推出的视觉语言模型,专门用于理解用户界面和信息图,支持屏幕问答、摘要和UI元素标注等任务。",
        term_es = "ScreenAI",
        term_zh = "ScreenAI",
        aliases_es = { "Screen AI" },
        aliases_zh = { "Screen AI" },
    }
    
    data["scrna-seq"] = {
        short = "Single-cell RNA sequencing — a family of techniques that profile the transcriptome of individual cells, typically using droplet-based barcoding (e.g., 10x Genomics) or plate-based protocols (e.g., Smart-seq2). It reveals cell-type heterogeneity invisible to bulk RNA-seq.",
        article = nil,
        aliases = { "scRNA-seq", "single-cell RNA-seq", "single-cell RNA sequencing", "scRNAseq", "single cell RNA-seq", "sc-RNA-seq" },
        es = "Secuenciación de ARN de célula única: familia de técnicas que perfilan el transcriptoma de células individuales, típicamente mediante código de barras basado en gotas (p. ej., 10x Genomics) o protocolos basados en placas (p. ej., Smart-seq2). Revela heterogeneidad de tipos celulares invisible al RNA-seq de masa.",
        zh = "单细胞RNA测序——一类对单个细胞转录组进行刻画的技术,通常采用基于液滴的条形码方法(如10x Genomics)或基于板的方法(如Smart-seq2)。它能够揭示批量RNA-seq无法识别的细胞类型异质性。",
        term_es = "scRNA-seq",
        term_zh = "scRNA-seq",
        aliases_es = { "scRNA-seq", "secuenciación de ARN de célula única", "RNA-seq de célula única", "scRNAseq" },
        aliases_zh = { "scRNA-seq", "单细胞 RNA 测序", "scRNAseq", "单细胞转录组测序" },
    }
    
    data["scrublet"] = {
        short = "A computational tool for detecting doublets in single-cell RNA-seq data by simulating synthetic doublets from observed cells and training a k-nearest-neighbors classifier in expression space. It outputs per-cell doublet scores used to filter artifacts.",
        article = nil,
        aliases = { "Scrublet", "scrublet" },
        es = "Herramienta computacional para detectar dobletes en datos RNA-seq de célula única simulando dobletes sintéticos a partir de células observadas y entrenando un clasificador de k-vecinos más cercanos en el espacio de expresión. Produce puntajes de doblete por célula que se usan para filtrar artefactos.",
        zh = "一种用于检测单细胞RNA-seq数据中双联体(doublet)的计算工具,从观测细胞模拟合成双联体并在表达空间中训练k近邻分类器,输出每个细胞的双联体得分以过滤伪信号。",
        term_es = "Scrublet",
        term_zh = "Scrublet",
        aliases_es = { "Scrublet", "scrublet" },
        aliases_zh = { "Scrublet", "scrublet" },
    }
    
    data["sctransform"] = {
        short = "A normalization method for single-cell RNA-seq data that models gene counts with a regularized negative binomial regression on sequencing depth, returning Pearson residuals as variance-stabilized expression values. It is implemented in Seurat as the default replacement for log-normalization.",
        article = nil,
        aliases = { "SCTransform", "sctransform", "Seurat SCTransform" },
        es = "Método de normalización para datos RNA-seq de célula única que modela los conteos génicos con una regresión binomial negativa regularizada sobre la profundidad de secuenciación, devolviendo residuos de Pearson como valores de expresión con varianza estabilizada. Implementado en Seurat como reemplazo por defecto de la log-normalización.",
        zh = "一种单细胞RNA-seq数据归一化方法,使用对测序深度的正则化负二项回归对基因计数建模,并返回Pearson残差作为方差稳定后的表达值。它在Seurat中作为对数归一化的默认替代方案实现。",
        term_es = "SCTransform",
        term_zh = "SCTransform",
        aliases_es = { "SCTransform", "sctransform" },
        aliases_zh = { "SCTransform", "sctransform" },
    }
    
    data["scvelo"] = {
        short = "A Python package implementing generalized RNA velocity for single-cell data using a likelihood-based dynamical model rather than steady-state assumptions. scVelo extends velocyto by handling transient cell populations and providing latent time inference.",
        article = nil,
        aliases = { "scVelo", "scvelo" },
        es = "Paquete de Python que implementa una velocidad de ARN generalizada para datos de célula única mediante un modelo dinámico basado en verosimilitud, en lugar de suposiciones de estado estacionario. scVelo extiende a velocyto al manejar poblaciones celulares transitorias y proporcionar inferencia de tiempo latente.",
        zh = "一个Python包,使用基于似然的动力学模型实现广义RNA速度分析,而不依赖稳态假设。scVelo相比velocyto能处理瞬态细胞群体,并提供潜在时间推断。",
        term_es = "scVelo",
        term_zh = "scVelo",
        aliases_es = { "scVelo", "scvelo" },
        aliases_zh = { "scVelo", "scvelo" },
    }
    
    data["scvi"] = {
        short = "A probabilistic deep generative framework for single-cell omics that uses a variational autoencoder with a negative binomial likelihood to model gene counts. scVI supports normalization, batch correction, differential expression, imputation, and integration of multimodal data.",
        article = nil,
        aliases = { "scVI", "single-cell Variational Inference", "scvi-tools", "scvi" },
        es = "Marco generativo probabilístico profundo para ómicas de célula única que usa un autoencoder variacional con verosimilitud binomial negativa para modelar conteos génicos. scVI admite normalización, corrección de lotes, expresión diferencial, imputación e integración de datos multimodales.",
        zh = "面向单细胞组学的概率深度生成框架,使用带负二项似然的变分自编码器对基因计数建模。scVI支持归一化、批次校正、差异表达分析、缺失值补全以及多模态数据整合。",
        term_es = "scVI",
        term_zh = "scVI",
        aliases_es = { "scVI", "scvi-tools", "inferencia variacional de célula única" },
        aliases_zh = { "scVI", "scvi-tools", "单细胞变分推断" },
    }
    
    data["sd-turbo"] = {
        short = "A distilled, fast variant of Stable Diffusion released by Stability AI that produces high-quality images in 1-4 sampling steps using adversarial diffusion distillation.",
        article = nil,
        aliases = { "SD-Turbo", "Stable Diffusion Turbo", "SD Turbo" },
        es = "Variante destilada y rápida de Stable Diffusion publicada por Stability AI que genera imágenes de alta calidad en 1 a 4 pasos de muestreo mediante destilación adversarial de difusión.",
        zh = "Stability AI发布的Stable Diffusion蒸馏快速变体,采用对抗式扩散蒸馏,可在1至4个采样步内生成高质量图像。",
        term_es = "SD-Turbo",
        term_zh = "SD-Turbo",
        aliases_es = { "Stable Diffusion Turbo" },
        aliases_zh = { "Stable Diffusion Turbo", "SD Turbo" },
    }
    
    data["sd3"] = {
        short = "Stable Diffusion 3, a text-to-image diffusion model from Stability AI released in 2024 that uses a Multimodal Diffusion Transformer (MMDiT) and rectified flow training, improving text rendering and prompt fidelity over earlier Stable Diffusion versions.",
        article = nil,
        aliases = { "Stable Diffusion 3", "SD3", "Stable Diffusion v3", "stable diffusion 3" },
        es = "Stable Diffusion 3, modelo de difusión texto-a-imagen lanzado por Stability AI en 2024 que emplea un Multimodal Diffusion Transformer (MMDiT) y entrenamiento por flujo rectificado, mejorando la representación de texto y la fidelidad al prompt respecto a versiones previas.",
        zh = "Stable Diffusion 3,由 Stability AI 于 2024 年发布的文本到图像扩散模型,采用多模态扩散 Transformer(MMDiT)和整流流训练,相较此前版本在文字渲染和提示词遵从性上有显著提升。",
        term_es = "SD3",
        term_zh = "SD3",
        aliases_es = { "Stable Diffusion 3" },
        aliases_zh = { "Stable Diffusion 3", "稳定扩散 3" },
    }
    
    data["sd3 medium"] = {
        short = "The mid-sized variant (~2B parameters) of Stable Diffusion 3, a multimodal diffusion transformer text-to-image model from Stability AI using rectified-flow training.",
        article = nil,
        aliases = { "SD3 Medium", "Stable Diffusion 3 Medium", "SD3-Medium" },
        es = "Variante de tamaño medio (~2B parámetros) de Stable Diffusion 3, un modelo de difusión multimodal basado en transformers para texto a imagen de Stability AI entrenado con rectified flow.",
        zh = "Stable Diffusion 3的中等规模变体(约20亿参数),是Stability AI推出的基于多模态扩散Transformer的文本到图像模型,采用整流流(rectified flow)训练。",
        term_es = "SD3 Medium",
        term_zh = "SD3 Medium",
        aliases_es = { "Stable Diffusion 3 Medium" },
        aliases_zh = { "Stable Diffusion 3 Medium", "SD3-Medium" },
    }
    
    data["sdedit"] = {
        short = "A diffusion-based image editing method that adds noise to a guide image (such as a stroke painting or low-quality edit) and then denoises it conditionally, producing realistic edits without retraining.",
        article = nil,
        aliases = { "SDEdit", "Stochastic Differential Editing", "SDEdit (Guided Image Synthesis and Editing with Stochastic Differential Equations)" },
        es = "Método de edición de imágenes basado en difusión que añade ruido a una imagen guía (como un boceto o una edición de baja calidad) y luego la elimina mediante denoising condicional, produciendo ediciones realistas sin reentrenamiento.",
        zh = "一种基于扩散的图像编辑方法,对引导图像(如笔触绘画或低质量编辑)添加噪声后再进行条件去噪,无需重新训练即可生成逼真的编辑结果。",
        term_es = "SDEdit",
        term_zh = "SDEdit",
        aliases_es = { "edición SDE", "SDEdit" },
        aliases_zh = { "SDEdit" },
    }
    
    data["sdr"] = {
        short = "Signal-to-distortion ratio: a standard objective metric for audio source separation, expressed in decibels, that measures the energy of the target source relative to all distortion components in the estimate.",
        article = nil,
        aliases = { "SDR", "signal-to-distortion ratio", "signal to distortion ratio" },
        es = "Signal-to-distortion ratio: métrica objetiva estándar para la separación de fuentes de audio, expresada en decibelios, que mide la energía de la fuente objetivo frente a todas las componentes de distorsión en la estimación.",
        zh = "信号失真比:音频源分离的标准客观指标,以分贝为单位,衡量目标源能量相对于估计信号中所有失真分量的比值。",
        term_es = "SDR",
        term_zh = "SDR",
        aliases_es = { "relación señal a distorsión", "razón señal-distorsión" },
        aliases_zh = { "信号与失真比", "信号失真比" },
    }
    
    data["sdxl"] = {
        short = "Stable Diffusion XL, a latent diffusion text-to-image model by Stability AI featuring a larger UNet, dual text encoders (CLIP ViT-L and OpenCLIP ViT-bigG), and a separate refiner model for higher-resolution image synthesis.",
        article = nil,
        aliases = { "SDXL", "Stable Diffusion XL", "SD-XL" },
        es = "Stable Diffusion XL, un modelo de difusión latente de texto a imagen de Stability AI con una UNet más grande, dos codificadores de texto (CLIP ViT-L y OpenCLIP ViT-bigG) y un modelo refinador independiente para la síntesis de imágenes de mayor resolución.",
        zh = "Stable Diffusion XL,由Stability AI推出的潜空间扩散文本到图像模型,采用更大的UNet、两个文本编码器(CLIP ViT-L和OpenCLIP ViT-bigG)以及独立的精炼模型,可生成更高分辨率的图像。",
        term_es = "SDXL",
        term_zh = "SDXL",
        aliases_es = { "Stable Diffusion XL" },
        aliases_zh = { "Stable Diffusion XL", "SD-XL" },
    }
    
    data["sdxl lightning"] = {
        short = "A distilled version of SDXL by ByteDance that produces high-quality images in 1, 2, 4, or 8 steps using progressive adversarial diffusion distillation.",
        article = nil,
        aliases = { "SDXL Lightning", "SDXL-Lightning", "Lightning SDXL" },
        es = "Versión destilada de SDXL desarrollada por ByteDance que genera imágenes de alta calidad en 1, 2, 4 u 8 pasos mediante destilación adversarial progresiva de difusión.",
        zh = "字节跳动推出的SDXL蒸馏版本,采用渐进式对抗扩散蒸馏,可在1、2、4或8步内生成高质量图像。",
        term_es = "SDXL Lightning",
        term_zh = "SDXL Lightning",
        aliases_es = { "SDXL-Lightning" },
        aliases_zh = { "SDXL-Lightning", "闪电 SDXL" },
    }
    
    data["sdxl turbo"] = {
        short = "A distilled, single-step variant of SDXL by Stability AI that uses adversarial diffusion distillation to enable real-time text-to-image generation.",
        article = nil,
        aliases = { "SDXL Turbo", "SDXL-Turbo" },
        es = "Variante destilada de un solo paso de SDXL desarrollada por Stability AI que utiliza destilación adversarial de difusión para permitir la generación de texto a imagen en tiempo real.",
        zh = "Stability AI推出的SDXL单步蒸馏变体,采用对抗式扩散蒸馏,可实现实时文本到图像生成。",
        term_es = "SDXL Turbo",
        term_zh = "SDXL Turbo",
        aliases_es = { "SDXL-Turbo" },
        aliases_zh = { "SDXL-Turbo" },
    }
    
    data["se(3)-transformer"] = {
        short = "A self-attention architecture that is equivariant to 3D rotations and translations, processing sets of points in space such that learned features transform consistently under rigid motions.",
        article = nil,
        aliases = { "SE(3)-Transformer", "SE(3) transformer", "SE3-Transformer", "SE(3) equivariant transformer" },
        es = "Arquitectura de autoatención equivariante respecto a rotaciones y traslaciones 3D, que procesa conjuntos de puntos en el espacio de forma que las características aprendidas se transforman de manera consistente bajo movimientos rígidos.",
        zh = "一种对三维旋转和平移等变的自注意力架构,处理空间中的点集,使所学特征在刚体变换下保持一致变换。",
        term_es = "SE(3)-Transformer",
        term_zh = "SE(3)-Transformer",
        aliases_es = { "transformador SE(3)", "transformador equivariante SE(3)" },
        aliases_zh = { "SE(3) 变换器", "SE(3) 等变 Transformer" },
    }
    
    data["seamless m4t"] = {
        short = "Meta's massively multilingual and multimodal machine translation model that supports speech-to-speech, speech-to-text, text-to-speech, and text-to-text translation across roughly 100 languages within a single unified architecture.",
        article = nil,
        aliases = { "SeamlessM4T", "Seamless M4T", "Massively Multilingual & Multimodal Machine Translation" },
        es = "Modelo de traducción automática masivamente multilingüe y multimodal de Meta que admite traducción de voz a voz, voz a texto, texto a voz y texto a texto en cerca de 100 idiomas dentro de una única arquitectura unificada.",
        zh = "Meta 提出的大规模多语言、多模态机器翻译模型,在统一架构内支持约100种语言的语音到语音、语音到文本、文本到语音以及文本到文本翻译。",
        term_es = "SeamlessM4T",
        term_zh = "SeamlessM4T",
        aliases_es = { "Seamless M4T" },
        aliases_zh = { "Seamless M4T", "无缝M4T" },
    }
    
    data["search budget"] = {
        short = "The total amount of compute, time, or model evaluations allotted to a hyperparameter or architecture search run; a primary axis along which search algorithms are compared at iso-budget.",
        article = nil,
        aliases = { "compute budget", "search compute budget", "evaluation budget" },
        es = "Cantidad total de cómputo, tiempo o evaluaciones de modelos asignada a una corrida de búsqueda de hiperparámetros o arquitecturas; eje principal de comparación entre algoritmos a iso-presupuesto.",
        zh = "分配给一次超参数或架构搜索运行的总计算量、时间或模型评估次数;搜索算法在同等预算下比较的主要维度。",
        term_es = "presupuesto de búsqueda",
        term_zh = "搜索预算",
        aliases_es = { "presupuesto de cómputo", "presupuesto de evaluación" },
        aliases_zh = { "计算预算", "评估预算" },
    }
    
    data["secagg"] = {
        short = "Common shorthand for Secure Aggregation, a cryptographic protocol used in federated learning that lets a server compute the sum of clients' model updates while learning nothing about any individual client's contribution beyond the aggregate.",
        article = nil,
        aliases = { "SecAgg", "secure aggregation", "secure aggregation protocol", "SecAgg protocol", "Secure Aggregation" },
        es = "Forma abreviada común de Secure Aggregation (Agregación Segura), protocolo criptográfico usado en aprendizaje federado que permite al servidor calcular la suma de las actualizaciones del modelo de los clientes sin aprender nada sobre la contribución individual de ningún cliente más allá del agregado.",
        zh = "Secure Aggregation(安全聚合)的常用简称,是一种用于联邦学习的密码学协议,使服务器能够计算客户端模型更新的总和,而无法获知超出聚合结果的任何单个客户端贡献。",
        term_es = "SecAgg",
        term_zh = "SecAgg",
        aliases_es = { "agregación segura", "protocolo SecAgg" },
        aliases_zh = { "安全聚合", "SecAgg协议" },
    }
    
    data["second-order logic"] = {
        short = "A logic that extends first-order logic by allowing quantification over predicates, functions, or sets in addition to individuals. More expressive than first-order logic but lacks a complete proof system; widely studied in mathematical logic and inductive logic programming.",
        article = nil,
        aliases = { "SOL", "second order logic", "2nd-order logic", "higher-order logic (in part)" },
        es = "Lógica que extiende la lógica de primer orden permitiendo cuantificar sobre predicados, funciones o conjuntos además de sobre individuos. Es más expresiva que la lógica de primer orden, pero carece de un sistema de demostración completo; se estudia ampliamente en lógica matemática y programación lógica inductiva.",
        zh = "在一阶逻辑基础上,允许除个体外还可对谓词、函数或集合进行量化的逻辑。其表达能力强于一阶逻辑,但不存在完备的证明系统,在数理逻辑和归纳逻辑程序设计中被广泛研究。",
        term_es = "lógica de segundo orden",
        term_zh = "二阶逻辑",
        aliases_es = { "SOL", "lógica de 2.º orden" },
        aliases_zh = { "二阶谓词逻辑", "SOL" },
    }
    
    data["second-order optimization"] = {
        short = "Optimization methods that exploit second-derivative information of the objective, typically the Hessian or its approximations, to obtain faster local convergence than first-order methods.",
        article = nil,
        aliases = { "second order optimization", "second-order methods", "second-order method" },
        es = "Métodos de optimización que aprovechan información de las segundas derivadas del objetivo, normalmente la Hessiana o sus aproximaciones, para obtener una convergencia local más rápida que los métodos de primer orden.",
        zh = "利用目标函数二阶导数信息(通常为海森矩阵或其近似)的优化方法,相较一阶方法可获得更快的局部收敛。",
        term_es = "optimización de segundo orden",
        term_zh = "二阶优化",
        aliases_es = { "métodos de segundo orden" },
        aliases_zh = { "二阶优化方法", "二阶方法" },
    }
    
    data["secondary structure prediction"] = {
        short = "The computational task of predicting the local folding pattern of a biological sequence — typically alpha helices, beta strands, and coils for proteins, or stems and loops for RNA — from primary sequence. Modern methods use deep learning trained on databases of resolved structures.",
        article = nil,
        aliases = { "secondary structure prediction", "protein secondary structure prediction", "RNA secondary structure prediction", "SS prediction" },
        es = "Tarea computacional de predecir el patrón de plegamiento local de una secuencia biológica —típicamente hélices alfa, hebras beta y bucles en proteínas, o tallos y bucles en ARN— a partir de la secuencia primaria. Los métodos modernos usan aprendizaje profundo entrenado en bases de datos de estructuras resueltas.",
        zh = "从初级序列预测生物序列局部折叠模式的计算任务——蛋白质中通常为α螺旋、β折叠和无规卷曲,RNA中通常为茎和环。现代方法使用在已解析结构数据库上训练的深度学习模型。",
        term_es = "predicción de estructura secundaria",
        term_zh = "二级结构预测",
        aliases_es = { "predicción de estructura secundaria", "predicción de estructura secundaria de proteínas", "predicción de estructura secundaria de ARN" },
        aliases_zh = { "二级结构预测", "蛋白质二级结构预测", "RNA 二级结构预测" },
    }
    
    data["secret sharing"] = {
        short = "A class of cryptographic schemes that splits a secret into multiple shares such that any subset of at least a threshold size can reconstruct the secret, while smaller subsets reveal nothing; foundational to secure multi-party computation and secure aggregation.",
        article = nil,
        aliases = { "Secret Sharing", "threshold secret sharing", "secret-sharing scheme", "secret sharing scheme", "(t,n)-threshold secret sharing" },
        es = "Clase de esquemas criptográficos que divide un secreto en varias participaciones de modo que cualquier subconjunto de al menos un umbral pueda reconstruir el secreto, mientras que subconjuntos menores no revelan nada; es fundamento de la computación multipartita segura y de la agregación segura.",
        zh = "一类将秘密拆分为多个份额的密码学方案,要求至少达到阈值数量的份额子集才能重构秘密,少于阈值的子集不泄露任何信息;是安全多方计算和安全聚合的基础。",
        term_es = "compartición de secretos",
        term_zh = "秘密共享",
        aliases_es = { "esquema de compartición de secretos", "secret sharing", "compartición umbral de secretos" },
        aliases_zh = { "secret sharing", "门限秘密共享", "秘密分享" },
    }
    
    data["secure aggregation"] = {
        short = "A cryptographic protocol that allows a central server to compute the sum (or average) of client-held vectors—typically model updates in federated learning—without learning any individual vector, usually via pairwise masks plus secret sharing for dropout robustness.",
        article = nil,
        aliases = { "Secure Aggregation", "SecAgg", "secure aggregation protocol", "secure summation", "private aggregation" },
        es = "Protocolo criptográfico que permite a un servidor central calcular la suma (o promedio) de vectores que poseen los clientes —normalmente actualizaciones del modelo en aprendizaje federado— sin aprender ningún vector individual, habitualmente mediante máscaras por pares y compartición de secretos para tolerar caídas.",
        zh = "一种密码学协议,使中心服务器能够计算客户端持有向量(通常是联邦学习中的模型更新)的总和或平均值,而无法获知任何单个向量;通常通过成对掩码加秘密共享实现,以容忍掉线。",
        term_es = "agregación segura",
        term_zh = "安全聚合",
        aliases_es = { "SecAgg", "protocolo de agregación segura", "suma segura" },
        aliases_zh = { "SecAgg", "安全聚合协议", "私密聚合" },
    }
    
    data["secure aggregation protocol"] = {
        short = "The specific cryptographic construction—introduced by Bonawitz et al. (2017) and refined in subsequent works—that implements secure aggregation in federated learning using Diffie-Hellman key exchange, pairwise masks, and Shamir secret sharing for dropout tolerance.",
        article = nil,
        aliases = { "Secure Aggregation Protocol", "SecAgg protocol", "Bonawitz secure aggregation", "secure aggregation scheme", "SAP" },
        es = "Construcción criptográfica específica —introducida por Bonawitz et al. (2017) y refinada en trabajos posteriores— que implementa la agregación segura en aprendizaje federado usando intercambio de claves Diffie-Hellman, máscaras por pares y compartición de secretos de Shamir para tolerar caídas.",
        zh = "由Bonawitz等人(2017年)提出并在后续工作中改进的具体密码学构造,使用Diffie-Hellman密钥交换、成对掩码和Shamir秘密共享在联邦学习中实现安全聚合,并具备掉线容忍能力。",
        term_es = "protocolo de agregación segura",
        term_zh = "安全聚合协议",
        aliases_es = { "protocolo SecAgg", "esquema de agregación segura", "agregación segura de Bonawitz" },
        aliases_zh = { "SecAgg协议", "安全聚合方案", "Bonawitz安全聚合" },
    }
    
    data["secure enclave"] = {
        short = "A hardware-isolated execution environment such as Intel SGX, AMD SEV, or ARM TrustZone that provides confidentiality and integrity for code and data even against a privileged operating system; used in federated learning to host trusted aggregation or inference logic.",
        article = nil,
        aliases = { "Secure Enclave", "trusted execution environment", "TEE", "hardware enclave", "trusted enclave", "Intel SGX enclave" },
        es = "Entorno de ejecución aislado por hardware como Intel SGX, AMD SEV o ARM TrustZone, que proporciona confidencialidad e integridad de código y datos incluso frente a un sistema operativo privilegiado; en aprendizaje federado se usa para alojar lógica de agregación o inferencia confiable.",
        zh = "由硬件隔离的执行环境,如Intel SGX、AMD SEV或ARM TrustZone,即使面对特权操作系统也可为代码和数据提供机密性和完整性保护;在联邦学习中用于承载可信聚合或推理逻辑。",
        term_es = "enclave seguro",
        term_zh = "安全飞地",
        aliases_es = { "entorno de ejecución confiable", "TEE", "enclave de hardware" },
        aliases_zh = { "可信执行环境", "TEE", "硬件飞地", "安全Enclave" },
    }
    
    data["secure multi-party computation"] = {
        short = "A class of cryptographic protocols enabling multiple parties to jointly compute a function over their private inputs while revealing nothing beyond the function's output, supporting privacy-preserving aggregation, training, and inference in federated and collaborative learning.",
        article = nil,
        aliases = { "Secure Multi-Party Computation", "SMPC", "MPC", "secure multiparty computation", "multi-party computation", "secure MPC" },
        es = "Clase de protocolos criptográficos que permite a varias partes calcular conjuntamente una función sobre sus entradas privadas sin revelar nada más allá de la salida de la función, dando soporte a agregación, entrenamiento e inferencia que preservan la privacidad en aprendizaje federado y colaborativo.",
        zh = "一类密码学协议,使多方能够在不泄露除函数输出之外任何信息的前提下,对各自的私有输入共同计算某个函数;支持联邦与协作学习中保护隐私的聚合、训练和推理。",
        term_es = "computación multipartita segura",
        term_zh = "安全多方计算",
        aliases_es = { "SMPC", "MPC", "computación segura multipartita" },
        aliases_zh = { "SMPC", "MPC", "多方安全计算" },
    }
    
    data["secureboost"] = {
        short = "A federated gradient boosting framework that trains XGBoost-style decision trees across vertically partitioned data among multiple parties, using additively homomorphic encryption to protect intermediate gradients and Hessians shared with the active party.",
        article = nil,
        aliases = { "SecureBoost", "Secure Boost", "secure boost", "SecureBoost framework", "federated XGBoost" },
        es = "Marco de gradient boosting federado que entrena árboles de decisión al estilo XGBoost sobre datos particionados verticalmente entre varias partes, utilizando cifrado homomórfico aditivo para proteger los gradientes y hessianos intermedios compartidos con la parte activa.",
        zh = "一种联邦梯度提升框架,对纵向划分数据上的多方训练XGBoost风格的决策树,使用加法同态加密保护与主动方共享的中间梯度和海森量。",
        term_es = "SecureBoost",
        term_zh = "SecureBoost",
        aliases_es = { "marco SecureBoost", "XGBoost federado" },
        aliases_zh = { "SecureBoost框架", "联邦XGBoost", "安全Boost" },
    }
    
    data["seed-bench"] = {
        short = "A multimodal evaluation benchmark with around 19,000 multiple-choice questions across 12 dimensions of spatial and temporal vision-language understanding, designed to probe LMM capabilities at scale with objective metrics.",
        article = nil,
        aliases = { "SEED-Bench", "SEEDBench", "Seed-Bench", "SEED Bench" },
        es = "Benchmark de evaluación multimodal con cerca de 19 000 preguntas de opción múltiple repartidas en 12 dimensiones de comprensión visual y temporal, diseñado para evaluar a gran escala las capacidades de los LMM con métricas objetivas.",
        zh = "包含约 19 000 道多项选择题、覆盖 12 个空间与时间视觉-语言理解维度的多模态评测基准,旨在以客观指标大规模评估大模型 LMM 的能力。",
        term_es = "SEED-Bench",
        term_zh = "SEED-Bench",
        aliases_es = { "SEED Bench", "SEEDBench" },
        aliases_zh = { "SEED Bench", "SEEDBench" },
    }
    
    data["seed-bench 2"] = {
        short = "The second iteration of SEED-Bench, expanding to 24,000+ multiple-choice questions across 27 evaluation dimensions, including image generation and interleaved image-text comprehension for multimodal LLMs.",
        article = nil,
        aliases = { "SEED-Bench 2", "SEED-Bench-2", "SEED Bench 2", "SEEDBench 2", "SEED-Bench v2" },
        es = "Segunda versión de SEED-Bench, ampliada a más de 24 000 preguntas de opción múltiple a lo largo de 27 dimensiones de evaluación, incluyendo generación de imágenes y comprensión intercalada de texto e imagen para LLMs multimodales.",
        zh = "SEED-Bench 的第二代,扩展到 24 000 余道多项选择题、覆盖 27 个评测维度,包含图像生成与图文交错理解,用于评测多模态大语言模型。",
        term_es = "SEED-Bench 2",
        term_zh = "SEED-Bench 2",
        aliases_es = { "SEED-Bench-2", "SEED Bench 2" },
        aliases_zh = { "SEED-Bench-2", "SEED Bench 2", "SEED-Bench v2" },
    }
    
    data["segmentation nas"] = {
        short = "Neural architecture search applied to dense-prediction tasks like semantic segmentation, jointly searching over cell structure and the network-level downsample/upsample pattern, as in Auto-DeepLab.",
        article = nil,
        aliases = { "NAS for segmentation", "Auto-DeepLab", "dense prediction NAS" },
        es = "Búsqueda de arquitecturas aplicada a tareas de predicción densa como la segmentación semántica, buscando conjuntamente la estructura de celda y el patrón de submuestreo/sobre-muestreo a nivel de red, como en Auto-DeepLab.",
        zh = "应用于语义分割等密集预测任务的神经架构搜索,联合搜索单元结构与网络级的下采样/上采样模式,如 Auto-DeepLab。",
        term_es = "NAS para segmentación",
        term_zh = "分割 NAS",
        aliases_es = { "Auto-DeepLab", "NAS de predicción densa" },
        aliases_zh = { "Auto-DeepLab", "语义分割 NAS", "密集预测 NAS" },
    }
    
    data["selection bias"] = {
        short = "Systematic error introduced when the process by which individuals or observations enter a study or training set is correlated with the variable of interest. Distorts estimated relationships and harms generalization to the broader population.",
        article = nil,
        aliases = { "selection effect" },
        es = "Error sistemático que aparece cuando el proceso por el que individuos u observaciones ingresan a un estudio o conjunto de entrenamiento está correlacionado con la variable de interés. Distorsiona las relaciones estimadas y perjudica la generalización a la población más amplia.",
        zh = "当个体或观测进入研究或训练集的过程与所关心的变量相关时,所引入的系统性误差。它会扭曲估计的关系,并损害对更广泛总体的泛化能力。",
        term_es = "sesgo de selección",
        term_zh = "选择偏差",
        aliases_es = { "efecto de selección" },
        aliases_zh = { "选择性偏差", "选样偏差" },
    }
    
    data["selection diagram"] = {
        short = "An augmented causal diagram, due to Pearl and Bareinboim, that adds selection nodes marking variables whose distributions differ across populations, used to formalize transportability of causal effects.",
        article = nil,
        aliases = { "selection diagrams" },
        es = "Diagrama causal aumentado, propuesto por Pearl y Bareinboim, que añade nodos de selección para marcar las variables cuyas distribuciones difieren entre poblaciones y formalizar la transportabilidad de los efectos causales.",
        zh = "由 Pearl 和 Bareinboim 提出的增广因果图,通过添加选择节点标记不同总体间分布存在差异的变量,用于形式化因果效应的可迁移性。",
        term_es = "diagrama de selección",
        term_zh = "选择图",
        aliases_es = { "diagramas de selección" },
        aliases_zh = { "选择性图", "selection diagram" },
    }
    
    data["selection on observables"] = {
        short = "An identification strategy assuming that conditioning on a set of measured covariates renders treatment assignment independent of potential outcomes, equivalent to no unmeasured confounding.",
        article = nil,
        aliases = { "unconfoundedness", "conditional ignorability", "ignorability", "no unmeasured confounders assumption" },
        es = "Estrategia de identificación que supone que, condicionando en un conjunto de covariables observadas, la asignación al tratamiento es independiente de los resultados potenciales, equivalente a la ausencia de confusión no observada.",
        zh = "一种识别策略,假设在给定一组可观测协变量的条件下,处理分配与潜在结果独立,等价于不存在未测量的混杂因素。",
        term_es = "selección por observables",
        term_zh = "可观测变量上的选择",
        aliases_es = { "selección sobre observables", "no confusión condicional", "ignorabilidad condicional" },
        aliases_zh = { "无未观测混杂", "条件可忽略性", "条件无混杂" },
    }
    
    data["selection pressure"] = {
        short = "In evolutionary algorithms, the strength with which fitter individuals are favored for reproduction; high pressure accelerates convergence but reduces diversity, while low pressure preserves exploration at the cost of slower progress.",
        article = nil,
        aliases = { "selective pressure", "selection intensity" },
        es = "En algoritmos evolutivos, intensidad con la que se favorece a los individuos más aptos para reproducirse; una presión alta acelera la convergencia pero reduce la diversidad, mientras que una presión baja preserva la exploración a costa de un progreso más lento.",
        zh = "在进化算法中,适应度更高的个体被选作繁殖的强度;高压力加速收敛但降低多样性,低压力保留探索性但进展较慢。",
        term_es = "presión de selección",
        term_zh = "选择压力",
        aliases_es = { "presión selectiva", "intensidad de selección" },
        aliases_zh = { "选择强度", "选择性压力" },
    }
    
    data["selection-inference"] = {
        short = "A modular reasoning framework (Creswell et al., 2022) in which a language model alternates between a Selection step that picks relevant facts and an Inference step that derives a single new conclusion, producing a faithful, interpretable proof chain.",
        article = nil,
        aliases = { "Selection-Inference", "SI", "Selection and Inference", "Selection–Inference" },
        es = "Marco de razonamiento modular (Creswell et al., 2022) en el que un modelo de lenguaje alterna un paso de Selección que escoge hechos relevantes y un paso de Inferencia que deriva una única nueva conclusión, produciendo una cadena de demostración fiel e interpretable.",
        zh = "一种模块化推理框架(Creswell 等,2022),让语言模型在“选择”步骤挑选相关事实与“推理”步骤推出单条新结论之间交替进行,从而生成忠实可解释的证明链。",
        term_es = "Selection-Inference",
        term_zh = "Selection-Inference",
        aliases_es = { "SI", "selección-inferencia", "selección e inferencia" },
        aliases_zh = { "SI", "选择-推理", "选择与推理框架" },
    }
    
    data["selective classification"] = {
        short = "A classification setting in which the model may abstain on uncertain inputs, accepting reduced coverage in exchange for lower error on the inputs it does classify.",
        article = nil,
        aliases = { "classification with rejection", "classification with abstention", "selective classifier" },
        es = "Un escenario de clasificación en el que el modelo puede abstenerse en entradas inciertas, aceptando una cobertura reducida a cambio de un menor error en las entradas que sí clasifica.",
        zh = "一种分类设定:模型可以在不确定的输入上弃权,以降低覆盖率为代价换取在所做出的预测上更低的错误率。",
        term_es = "clasificación selectiva",
        term_zh = "选择性分类",
        aliases_es = { "clasificación con rechazo", "clasificación con abstención" },
        aliases_zh = { "带拒识的分类", "选择分类", "可弃权分类" },
    }
    
    data["selective prediction"] = {
        short = "A general framework where a model makes predictions only when sufficiently confident and abstains otherwise; encompasses selective classification and selective regression and is evaluated via risk-coverage trade-offs.",
        article = nil,
        aliases = { "prediction with abstention", "prediction with rejection", "selective predictor" },
        es = "Un marco general en el que un modelo realiza predicciones solo cuando tiene confianza suficiente y se abstiene en caso contrario; engloba la clasificación selectiva y la regresión selectiva y se evalúa mediante el compromiso riesgo-cobertura.",
        zh = "一种通用框架,模型仅在足够自信时给出预测,否则弃权;涵盖选择性分类和选择性回归,通常通过风险-覆盖率权衡进行评估。",
        term_es = "predicción selectiva",
        term_zh = "选择性预测",
        aliases_es = { "predicción con abstención", "predicción con rechazo" },
        aliases_zh = { "带拒识的预测", "选择预测", "可弃权预测" },
    }
    
    data["selectivity profiling"] = {
        short = "The systematic assessment of a compound's activity against a panel of related and unrelated targets to characterize its selectivity for the intended target and identify potential off-target liabilities.",
        article = nil,
        aliases = { "target selectivity profiling", "off-target profiling", "selectivity panel screening" },
        es = "Evaluación sistemática de la actividad de un compuesto frente a un panel de blancos relacionados y no relacionados para caracterizar su selectividad por el blanco deseado e identificar posibles pasivos fuera de blanco.",
        zh = "对化合物在一组相关与无关靶点上的活性进行系统评估,以表征其对预期靶点的选择性,并识别潜在的脱靶风险。",
        term_es = "perfil de selectividad",
        term_zh = "选择性谱分析",
        aliases_es = { "perfilado de selectividad", "perfilado fuera de blanco", "cribado de panel de selectividad" },
        aliases_zh = { "选择性分析", "脱靶谱分析", "选择性面板筛选" },
    }
    
    data["self-adversarial negative sampling"] = {
        short = "A negative-sampling technique introduced with RotatE that weights corrupted triples by the model's current scores, focusing learning on hard negatives. Improves training of knowledge-graph embeddings without requiring an external generator.",
        article = nil,
        aliases = { "self-adversarial sampling", "self-adversarial negatives", "RotatE negative sampling", "self-adversarial loss" },
        es = "Técnica de muestreo negativo introducida con RotatE que pondera las tripletas corruptas según las puntuaciones actuales del modelo, concentrando el aprendizaje en negativos difíciles. Mejora el entrenamiento de incrustaciones de grafos de conocimiento sin necesidad de un generador externo.",
        zh = "随 RotatE 提出的一种负采样技术,根据模型当前对损坏三元组的打分对其加权,使学习集中于困难负例,无需外部生成器即可提升知识图谱嵌入的训练效果。",
        term_es = "muestreo negativo autoadversarial",
        term_zh = "自对抗负采样",
        aliases_es = { "muestreo autoadversarial", "negativos autoadversariales" },
        aliases_zh = { "自对抗负样本采样", "自对抗采样" },
    }
    
    data["self-ask"] = {
        short = "A prompting strategy in which a language model explicitly asks itself follow-up questions, optionally answered by a search tool, and then composes the final answer. Improves multi-hop question answering by exposing intermediate sub-questions.",
        article = nil,
        aliases = { "Self-Ask", "self-ask prompting", "Self-Ask with Search", "self ask" },
        es = "Estrategia de prompting en la que el modelo de lenguaje se hace preguntas de seguimiento explícitas, posiblemente respondidas por una herramienta de búsqueda, y luego compone la respuesta final. Mejora la respuesta a preguntas multisalto al exponer las subpreguntas intermedias.",
        zh = "一种提示策略:让语言模型显式地向自己提出后续问题(可由搜索工具回答),再据此组合出最终答案,通过暴露中间子问题来提升多跳问答性能。",
        term_es = "Self-Ask",
        term_zh = "Self-Ask",
        aliases_es = { "prompting Self-Ask", "Self-Ask con búsqueda", "auto-pregunta" },
        aliases_zh = { "Self-Ask 提示", "自问自答提示", "Self-Ask with Search" },
    }
    
    data["self-attention"] = {
        short = "An attention mechanism in which queries, keys, and values are all derived from the same input sequence, allowing each token to attend to every other token within the sequence.",
        article = "Attention Mechanisms",
        aliases = { "self attention", "Self-Attention", "intra-attention", "self-attention mechanism" },
        es = "Mecanismo de atención en el que las consultas, claves y valores provienen todos de la misma secuencia de entrada, permitiendo que cada token atienda al resto de tokens de la secuencia.",
        zh = "一种注意力机制,其中查询、键和值均来自同一输入序列,允许每个 token 关注序列中的所有其他 token。",
        term_es = "auto-atención",
        term_zh = "自注意力",
        aliases_es = { "autoatención", "self-attention", "atención propia", "intra-atención" },
        aliases_zh = { "self-attention", "自注意力机制", "内部注意力" },
    }
    
    data["self-attentive speaker embedding"] = {
        short = "A speaker embedding extracted from a neural network that uses self-attention pooling over frame-level features to produce a fixed-dimensional, utterance-level representation of speaker identity.",
        article = nil,
        aliases = { "self-attentive speaker embeddings", "self-attention speaker embedding", "attentive speaker embedding" },
        es = "Embedding de hablante extraído por una red neuronal que utiliza pooling con autoatención sobre características a nivel de trama para producir una representación de identidad del hablante de dimensión fija a nivel de enunciado.",
        zh = "由神经网络提取的说话人嵌入,使用对帧级特征的自注意力池化生成固定维度的语句级说话人身份表示。",
        term_es = "embedding de hablante self-attentive",
        term_zh = "自注意力说话人嵌入",
        aliases_es = { "embedding de hablante con autoatención", "representación de hablante con autoatención" },
        aliases_zh = { "自注意力说话人表示", "基于自注意力的说话人嵌入" },
    }
    
    data["self-consistency"] = {
        short = "A decoding strategy that samples multiple chain-of-thought reasoning paths from a language model for the same prompt and selects the final answer that occurs most frequently across them.",
        article = nil,
        aliases = { "Self-Consistency", "self consistency", "self-consistency decoding", "self-consistency CoT", "self-consistency sampling" },
        es = "Estrategia de decodificación que muestrea múltiples cadenas de razonamiento de un modelo de lenguaje para el mismo prompt y selecciona la respuesta final que aparece con mayor frecuencia entre ellas.",
        zh = "一种解码策略,对同一提示从语言模型采样多条思维链推理路径,并选择其中出现频率最高的最终答案。",
        term_es = "autoconsistencia",
        term_zh = "自一致性",
        aliases_es = { "self-consistency", "decodificación por autoconsistencia", "muestreo por autoconsistencia", "autoconsistencia con CoT" },
        aliases_zh = { "self-consistency", "自洽性", "自一致性解码", "自一致性思维链" },
    }
    
    data["self-correction"] = {
        short = "A class of inference-time techniques in which a language model reviews and revises its own outputs—often via critique-then-rewrite prompts or iterative refinement—to reduce errors without external feedback.",
        article = nil,
        aliases = { "self-correct", "self correction", "LLM self-correction" },
        es = "Conjunto de técnicas en tiempo de inferencia en las que un modelo de lenguaje revisa y corrige sus propias salidas, a menudo mediante prompts de crítica-luego-reescritura o refinamiento iterativo, para reducir errores sin retroalimentación externa.",
        zh = "一类推理时技术,让语言模型对自身输出进行审查和修订(通常通过先批评后改写或迭代精炼的提示),以在没有外部反馈的情况下减少错误。",
        term_es = "autocorrección",
        term_zh = "自我纠错",
        aliases_es = { "auto-corrección", "self-correction" },
        aliases_zh = { "自纠错", "自我修正", "self-correction" },
    }
    
    data["self-critical sequence training"] = {
        short = "A reinforcement-learning training method for sequence generation, originally proposed for image captioning, that uses the model's own greedy-decoded output as a baseline to reduce variance when optimizing non-differentiable metrics like CIDEr.",
        article = nil,
        aliases = { "SCST", "self-critical training", "self-critical RL", "Self-Critical Sequence Training" },
        es = "Método de entrenamiento por refuerzo para generación de secuencias, propuesto originalmente para descripción de imágenes, que utiliza la salida greedy del propio modelo como línea base para reducir la varianza al optimizar métricas no diferenciables como CIDEr.",
        zh = "面向序列生成的强化学习训练方法,最初用于图像描述任务,将模型自身贪心解码的输出作为基线以降低方差,从而优化 CIDEr 等不可微分的评测指标。",
        term_es = "Self-Critical Sequence Training",
        term_zh = "自批评序列训练",
        aliases_es = { "SCST", "entrenamiento autocrítico de secuencias" },
        aliases_zh = { "SCST", "自我批评序列训练", "self-critical 训练" },
    }
    
    data["self-debugging"] = {
        short = "A prompting strategy in which a code-generating language model executes its own output, inspects the results or error messages, and iteratively rewrites the program until it passes tests.",
        article = nil,
        aliases = { "self-debug", "self debugging", "Self-Debugging" },
        es = "Estrategia de prompting en la que un modelo de lenguaje generador de código ejecuta sus propias salidas, inspecciona los resultados o mensajes de error y reescribe iterativamente el programa hasta que pasa las pruebas.",
        zh = "一种提示策略,让代码生成语言模型执行自己的输出,检查结果或错误信息,并迭代地重写程序直到通过测试。",
        term_es = "autodepuración",
        term_zh = "自我调试",
        aliases_es = { "auto-depuración", "self-debugging" },
        aliases_zh = { "自调试", "自我除错", "self-debugging" },
    }
    
    data["self-discover"] = {
        short = "A reasoning framework introduced by Google in which a language model first composes a task-specific reasoning structure from a library of atomic reasoning modules and then follows that structure to solve problem instances.",
        article = nil,
        aliases = { "Self-Discover", "SELF-DISCOVER" },
        es = "Marco de razonamiento presentado por Google en el que un modelo de lenguaje primero compone una estructura de razonamiento específica para la tarea a partir de una biblioteca de módulos de razonamiento atómicos y luego sigue esa estructura para resolver instancias del problema.",
        zh = "Google提出的推理框架,让语言模型先从原子推理模块库中组合出针对特定任务的推理结构,然后按该结构求解具体问题实例。",
        term_es = "Self-Discover",
        term_zh = "Self-Discover",
        aliases_es = { "SELF-DISCOVER" },
        aliases_zh = { "SELF-DISCOVER", "自发现推理" },
    }
    
    data["self-driving lab"] = {
        short = "An autonomous laboratory in which closed-loop machine learning algorithms design experiments, robotic platforms execute them, and analytical instruments feed results back, iteratively optimizing materials or molecules with minimal human intervention.",
        article = nil,
        aliases = { "self-driving laboratory", "autonomous laboratory", "autonomous lab", "closed-loop laboratory", "SDL" },
        es = "Laboratorio autónomo en el que algoritmos de aprendizaje automático en bucle cerrado diseñan experimentos, plataformas robóticas los ejecutan e instrumentos analíticos retroalimentan los resultados, optimizando iterativamente materiales o moléculas con mínima intervención humana.",
        zh = "一种自主实验室,由闭环机器学习算法设计实验、机器人平台执行实验,并由分析仪器反馈结果,从而在尽量少的人工干预下迭代优化材料或分子。",
        term_es = "laboratorio autónomo",
        term_zh = "自驱动实验室",
        aliases_es = { "laboratorio autodirigido", "laboratorio de bucle cerrado", "SDL" },
        aliases_zh = { "自主实验室", "闭环实验室", "SDL" },
    }
    
    data["self-explaining neural network"] = {
        short = "A neural architecture that decomposes its prediction into a small set of human-interpretable concepts and learned coefficients, providing local explanations by construction. Proposed by Alvarez-Melis and Jaakkola (2018).",
        article = nil,
        aliases = { "SENN", "Self-Explaining Neural Network", "self-explaining model", "self-explaining NN" },
        es = "Arquitectura neuronal que descompone su predicción en un pequeño conjunto de conceptos interpretables y coeficientes aprendidos, ofreciendo explicaciones locales por construcción. Propuesta por Alvarez-Melis y Jaakkola (2018).",
        zh = "一种神经网络架构,将其预测分解为少量可解释概念与学习得到的系数,从而在结构上提供局部解释,由 Alvarez-Melis 和 Jaakkola(2018)提出。",
        term_es = "red neuronal autoexplicativa",
        term_zh = "自解释神经网络",
        aliases_es = { "SENN", "red autoexplicativa", "modelo autoexplicativo" },
        aliases_zh = { "SENN", "自我解释神经网络" },
    }
    
    data["self-instruct"] = {
        short = "A method for generating instruction-tuning data by prompting a strong language model to bootstrap a diverse set of instructions, inputs, and outputs from a small seed pool, then filtering for quality.",
        article = nil,
        aliases = { "Self-Instruct", "self instruct", "SELF-INSTRUCT" },
        es = "Método para generar datos de ajuste por instrucciones mediante un modelo de lenguaje potente que parte de un pequeño conjunto semilla y produce un conjunto diverso de instrucciones, entradas y salidas, filtradas por calidad.",
        zh = "一种生成指令微调数据的方法,从少量种子样本出发,通过强大的语言模型自举生成多样化的指令、输入和输出,并按质量进行过滤。",
        term_es = "Self-Instruct",
        term_zh = "Self-Instruct",
        aliases_es = { "auto-instrucción", "SELF-INSTRUCT" },
        aliases_zh = { "自指令", "SELF-INSTRUCT" },
    }
    
    data["self-paced learning"] = {
        short = "A curriculum-learning variant in which the model itself selects the easiest examples (those with low current loss) at each iteration and gradually incorporates harder ones, controlled by a learnable pace parameter.",
        article = nil,
        aliases = { "SPL", "self paced learning", "self-paced training" },
        es = "Variante del aprendizaje por currículo en la que el propio modelo selecciona en cada iteración los ejemplos más fáciles (aquellos con menor pérdida actual) e incorpora progresivamente los más difíciles, controlado por un parámetro de ritmo aprendible.",
        zh = "课程学习的一种变体,模型本身在每次迭代中选择当前损失较低的最简单样本,并由可学习的步调参数控制,逐步引入更难的样本。",
        term_es = "aprendizaje autorregulado",
        term_zh = "自步学习",
        aliases_es = { "SPL", "aprendizaje a ritmo propio", "self-paced learning" },
        aliases_zh = { "SPL", "自步式学习", "自定步学习" },
    }
    
    data["self-query retrieval"] = {
        short = "A retrieval-augmented generation pattern in which a language model translates a natural-language query into a structured query (filters plus a semantic search string) over a vector store, enabling metadata-aware retrieval.",
        article = nil,
        aliases = { "self-query retriever", "self querying retrieval", "SelfQueryRetriever" },
        es = "Patrón de generación aumentada con recuperación en el que un modelo de lenguaje traduce una consulta en lenguaje natural a una consulta estructurada (filtros más una cadena de búsqueda semántica) sobre un almacén de vectores, lo que permite recuperación consciente de metadatos.",
        zh = "一种检索增强生成模式:语言模型将自然语言查询转换为针对向量库的结构化查询(包含过滤条件和语义检索字符串),实现感知元数据的检索。",
        term_es = "recuperación auto-consultada",
        term_zh = "自查询检索",
        aliases_es = { "recuperador auto-consultado", "self-query retrieval", "SelfQueryRetriever" },
        aliases_zh = { "自查询检索器", "SelfQueryRetriever" },
    }
    
    data["self-rag"] = {
        short = "Self-Reflective Retrieval-Augmented Generation: a framework that trains a language model to emit special reflection tokens deciding when to retrieve, what to retrieve, and how to critique retrieved passages and its own outputs.",
        article = nil,
        aliases = { "Self-RAG", "Self-Reflective RAG", "self reflective RAG", "SELF-RAG" },
        es = "Generación aumentada con recuperación auto-reflexiva: marco que entrena a un modelo de lenguaje para emitir tokens de reflexión especiales que deciden cuándo recuperar, qué recuperar y cómo criticar los pasajes recuperados y sus propias salidas.",
        zh = "自反思检索增强生成:一种训练语言模型输出特殊反思标记的框架,用于决定何时检索、检索什么以及如何评判检索到的段落和模型自身的输出。",
        term_es = "Self-RAG",
        term_zh = "Self-RAG",
        aliases_es = { "RAG auto-reflexivo", "SELF-RAG" },
        aliases_zh = { "自反思RAG", "SELF-RAG" },
    }
    
    data["self-rationalization"] = {
        short = "A model behavior in which a system, often a language model, jointly produces a prediction and a natural-language rationale that purports to explain the prediction.",
        article = nil,
        aliases = { "self-rationalizing model", "rationalizing model" },
        es = "Comportamiento de un modelo, habitualmente un modelo de lenguaje, en el que el sistema produce conjuntamente una predicción y una justificación en lenguaje natural que pretende explicarla.",
        zh = "一种模型行为,通常出现在语言模型中,系统在给出预测的同时联合生成一段意在解释该预测的自然语言理由。",
        term_es = "autorracionalización",
        term_zh = "自我合理化",
        aliases_es = { "modelo autorracionalizador", "modelo que se autorracionaliza" },
        aliases_zh = { "self-rationalization", "自我说理" },
    }
    
    data["self-refine"] = {
        short = "An inference-time technique in which the same language model iteratively generates an output, produces feedback on it, and revises the output using that feedback until a stopping criterion is met.",
        article = nil,
        aliases = { "Self-Refine", "self refine", "SELF-REFINE" },
        es = "Técnica en tiempo de inferencia en la que el mismo modelo de lenguaje genera iterativamente una salida, produce retroalimentación sobre ella y la revisa usando esa retroalimentación hasta cumplir un criterio de parada.",
        zh = "一种推理时技术,让同一个语言模型迭代地生成输出、对其产生反馈,并依据反馈进行修改,直到满足停止条件。",
        term_es = "Self-Refine",
        term_zh = "Self-Refine",
        aliases_es = { "auto-refinamiento", "SELF-REFINE" },
        aliases_zh = { "自我精炼", "自精炼", "SELF-REFINE" },
    }
    
    data["self-rewarding language model"] = {
        short = "A training paradigm in which a language model acts as both policy and reward model, judging its own generations as LLM-as-a-judge to provide preference data for iterative direct-preference-optimization-style updates.",
        article = nil,
        aliases = { "self-rewarding LM", "Self-Rewarding Language Model", "self-rewarding LLM", "SRLM" },
        es = "Paradigma de entrenamiento en el que un modelo de lenguaje actúa como política y como modelo de recompensa, juzgando sus propias generaciones (LLM como juez) para proporcionar datos de preferencias en actualizaciones iterativas al estilo de optimización directa de preferencias.",
        zh = "一种训练范式:语言模型同时充当策略和奖励模型,以LLM作为评审来评判自身生成结果,从而提供偏好数据用于直接偏好优化风格的迭代更新。",
        term_es = "modelo de lenguaje auto-recompensado",
        term_zh = "自奖励语言模型",
        aliases_es = { "LLM auto-recompensado", "self-rewarding LLM" },
        aliases_zh = { "自我奖励语言模型", "self-rewarding LLM", "SRLM" },
    }
    
    data["self-selection bias"] = {
        short = "A form of selection bias in which subjects choose whether to participate in a study or product, so the resulting data reflects motivations and characteristics of volunteers rather than the target population.",
        article = nil,
        aliases = { "volunteer bias", "self selection bias" },
        es = "Forma de sesgo de selección en la que los sujetos eligen participar o no en un estudio o producto, de modo que los datos resultantes reflejan motivaciones y características de quienes se ofrecen, no de la población objetivo.",
        zh = "选择偏差的一种,受试者自行决定是否参与研究或使用某产品,因此所得数据反映的是志愿者的动机和特征,而非目标总体。",
        term_es = "sesgo de autoselección",
        term_zh = "自选择偏差",
        aliases_es = { "sesgo del voluntario", "sesgo de auto-selección" },
        aliases_zh = { "自我选择偏差", "志愿者偏差" },
    }
    
    data["self-speculative decoding"] = {
        short = "A speculative decoding variant that uses a single model as both drafter and verifier—typically by skipping layers, applying early exits, or using lightweight adapters—removing the need for a separate draft model.",
        article = nil,
        aliases = { "Self-Speculative Decoding", "self speculative decoding", "self-speculation" },
        es = "Variante del decoding especulativo que utiliza un único modelo como redactor y verificador, normalmente saltando capas, aplicando salidas tempranas o usando adaptadores ligeros, eliminando la necesidad de un modelo borrador separado.",
        zh = "一种推测解码变体,仅使用单个模型同时担任草稿模型和验证模型,通常通过跳过层、提前退出或轻量适配器实现,从而无需独立的草稿模型。",
        term_es = "decodificación auto-especulativa",
        term_zh = "自推测解码",
        aliases_es = { "decoding auto-especulativo", "self-speculative decoding" },
        aliases_zh = { "自我推测解码", "self-speculative decoding" },
    }
    
    data["self-supervised learning"] = {
        short = "A learning paradigm in which supervisory signals are derived automatically from the input data itself via pretext tasks (e.g., masked token prediction, contrastive instance discrimination), enabling representation learning without manual labels.",
        article = nil,
        aliases = { "self supervised learning", "SSL", "self-supervision", "self-supervised pretraining" },
        es = "Paradigma de aprendizaje en el que las señales de supervisión se derivan automáticamente de los propios datos de entrada mediante tareas pretexto (por ejemplo, predicción de tokens enmascarados o discriminación contrastiva de instancias), lo que permite el aprendizaje de representaciones sin etiquetas manuales.",
        zh = "一种学习范式,通过预训练任务(如掩码标记预测或对比式实例判别)从输入数据本身自动派生监督信号,从而在无需人工标签的情况下学习表示。",
        term_es = "aprendizaje auto-supervisado",
        term_zh = "自监督学习",
        aliases_es = { "aprendizaje autosupervisado", "auto-supervisión", "preentrenamiento auto-supervisado", "SSL" },
        aliases_zh = { "自监督式学习", "self-supervised learning", "自监督预训练" },
    }
    
    data["self-supervised pre-training"] = {
        short = "Pre-training a model on large amounts of unlabeled data using pretext tasks whose targets are derived from the data itself, producing representations that transfer to downstream tasks via fine-tuning or probing.",
        article = nil,
        aliases = { "self supervised pretraining", "self-supervised pretraining", "SSL pre-training", "self-supervised representation learning" },
        es = "Preentrenamiento de un modelo sobre grandes cantidades de datos no etiquetados utilizando tareas de pretexto cuyos objetivos se derivan de los propios datos, produciendo representaciones que se transfieren a tareas posteriores mediante ajuste fino o sondeo.",
        zh = "在大量未标注数据上以自数据派生目标的代理任务对模型进行预训练,得到可通过微调或探测迁移到下游任务的表示。",
        term_es = "preentrenamiento auto-supervisado",
        term_zh = "自监督预训练",
        aliases_es = { "preentrenamiento autosupervisado", "aprendizaje de representaciones auto-supervisado" },
        aliases_zh = { "self-supervised pretraining", "自监督表示学习", "自监督预训练" },
    }
    
    data["self-supervised speech representation"] = {
        short = "A speech embedding learned without labeled transcripts by pretraining on raw audio with self-supervised objectives such as contrastive prediction or masked feature reconstruction, as in wav2vec 2.0, HuBERT, and WavLM.",
        article = nil,
        aliases = { "self supervised speech representation", "SSL speech representation", "self-supervised speech embedding", "self-supervised speech features" },
        es = "Representación del habla aprendida sin transcripciones etiquetadas, mediante preentrenamiento sobre audio bruto con objetivos auto-supervisados como predicción contrastiva o reconstrucción de características enmascaradas, como en wav2vec 2.0, HuBERT y WavLM.",
        zh = "无需标注转写、通过对原始音频进行自监督预训练(如对比预测或掩码特征重建)所学到的语音表示,代表方法包括 wav2vec 2.0、HuBERT 和 WavLM。",
        term_es = "representación de habla auto-supervisada",
        term_zh = "自监督语音表示",
        aliases_es = { "representación auto-supervisada del habla", "embedding auto-supervisado de habla" },
        aliases_zh = { "自监督语音表征", "自监督语音特征" },
    }
    
    data["self-training"] = {
        short = "A semi-supervised technique in which a model trained on labeled data predicts labels on unlabeled data and is then retrained on its own confident predictions, often iteratively.",
        article = nil,
        aliases = { "self training", "selftraining", "bootstrap learning" },
        es = "Técnica semisupervisada en la que un modelo entrenado con datos etiquetados predice etiquetas sobre datos no etiquetados y se reentrena con sus propias predicciones de alta confianza, normalmente de forma iterativa.",
        zh = "一种半监督技术,先用带标签数据训练模型,再让模型对未标注数据进行预测,然后用其高置信度预测进行再训练,通常迭代进行。",
        term_es = "auto-entrenamiento",
        term_zh = "自训练",
        aliases_es = { "self-training", "autoentrenamiento" },
        aliases_zh = { "self-training", "自我训练" },
    }
    
    data["self-verification"] = {
        short = "A reasoning technique in which a language model checks the consistency or correctness of its own answer—often by re-deriving it, plugging it into the original problem, or generating supporting evidence—to increase reliability.",
        article = nil,
        aliases = { "self-verify", "self verification", "Self-Verification" },
        es = "Técnica de razonamiento en la que un modelo de lenguaje comprueba la consistencia o corrección de su propia respuesta, a menudo re-derivándola, sustituyéndola en el problema original o generando evidencias de apoyo, para aumentar la fiabilidad.",
        zh = "一种推理技术,让语言模型对自身答案的一致性或正确性进行验证,通常通过重新推导、代回原问题或生成支持性证据等方式来提高可靠性。",
        term_es = "autoverificación",
        term_zh = "自我验证",
        aliases_es = { "auto-verificación", "self-verification" },
        aliases_zh = { "自验证", "self-verification" },
    }
    
    data["selfies"] = {
        short = "Self-Referencing Embedded Strings, a 100% robust string representation for molecules in which every syntactically valid sequence corresponds to a chemically valid graph, designed to ease generative modeling.",
        article = nil,
        aliases = { "SELFIES", "Self-Referencing Embedded Strings", "selfies notation", "selfies representation" },
        es = "Self-Referencing Embedded Strings, una representación 100% robusta de moléculas en forma de cadena en la que toda secuencia sintácticamente válida corresponde a un grafo químicamente válido, diseñada para facilitar el modelado generativo.",
        zh = "Self-Referencing Embedded Strings(SELFIES),一种 100% 稳健的分子字符串表示,每个语法上有效的序列都对应一个化学上有效的分子图,旨在方便生成式建模。",
        term_es = "SELFIES",
        term_zh = "SELFIES",
        aliases_es = { "Self-Referencing Embedded Strings", "notación SELFIES", "representación SELFIES" },
        aliases_zh = { "Self-Referencing Embedded Strings", "SELFIES 表示", "SELFIES 表示法" },
    }
    
    data["selformer"] = {
        short = "A transformer-based foundation model for molecular property prediction trained on SELFIES (Self-referencing Embedded Strings) representations rather than SMILES, providing a 100% robust string grammar for molecules.",
        article = nil,
        aliases = { "SELFormer", "SELFIES transformer" },
        es = "Modelo de fundación basado en transformer para la predicción de propiedades moleculares, entrenado sobre representaciones SELFIES (Self-referencing Embedded Strings) en lugar de SMILES, lo que proporciona una gramática de cadena 100% robusta para moléculas.",
        zh = "一种基于 Transformer 的分子性质预测基础模型,使用 SELFIES(自引用嵌入字符串)表示而非 SMILES 进行训练,从而提供对分子完全鲁棒的字符串语法。",
        term_es = "SELFormer",
        term_zh = "SELFormer",
        aliases_es = { "transformer SELFIES" },
        aliases_zh = { "SELFIES transformer", "SELFIES 变换器" },
    }
    
    data["selu"] = {
        short = "The Scaled Exponential Linear Unit, an ELU multiplied by a fixed scale λ with constants chosen so that activations in deep feedforward networks self-normalize toward zero mean and unit variance under appropriate weight initialization.",
        article = nil,
        aliases = { "SELU", "scaled exponential linear unit", "self-normalizing activation" },
        es = "Unidad Lineal Exponencial Escalada, una ELU multiplicada por una escala fija λ con constantes elegidas para que, bajo una inicialización de pesos adecuada, las activaciones en redes profundas hacia adelante se autonormalicen a media cero y varianza unitaria.",
        zh = "缩放指数线性单元(SELU):将 ELU 乘以固定的缩放系数 λ,配合特定常数和合适的权重初始化,使深层前馈网络中的激活值自动归一化为零均值和单位方差。",
        term_es = "SELU",
        term_zh = "SELU",
        aliases_es = { "unidad lineal exponencial escalada", "activación auto-normalizada" },
        aliases_zh = { "缩放指数线性单元", "自归一化激活" },
    }
    
    data["semantic backdoor"] = {
        short = "A backdoor attack in which the trigger is a naturally occurring semantic feature (e.g., images of a particular vehicle make, sentences containing a specific phrase) rather than an artificial pattern, causing the model to misclassify only inputs that share that real-world property.",
        article = nil,
        aliases = { "Semantic Backdoor", "semantic backdoor attack", "semantic-trigger backdoor", "feature-based backdoor" },
        es = "Ataque de puerta trasera en el que el desencadenante es una característica semántica natural (por ejemplo, imágenes de cierta marca de vehículo o frases con una expresión específica) en lugar de un patrón artificial, provocando que el modelo clasifique mal solo las entradas que comparten esa propiedad del mundo real.",
        zh = "一种后门攻击,其触发器为自然存在的语义特征(如特定品牌车辆的图像、含有特定短语的句子),而非人为图案,使模型仅对具有该现实属性的输入产生错误分类。",
        term_es = "puerta trasera semántica",
        term_zh = "语义后门",
        aliases_es = { "ataque de puerta trasera semántica", "backdoor semántico" },
        aliases_zh = { "语义后门攻击", "语义触发后门" },
    }
    
    data["semantic bias"] = {
        short = "Bias encoded in the meaning relationships of language representations such as word or sentence embeddings, where geometric proximity reflects stereotypical associations (e.g., gendered occupation associations).",
        article = nil,
        aliases = { "embedding bias", "lexical semantic bias" },
        es = "Sesgo codificado en las relaciones de significado de las representaciones lingüísticas, como embeddings de palabras u oraciones, donde la proximidad geométrica refleja asociaciones estereotípicas (por ejemplo, asociaciones de género con ocupaciones).",
        zh = "编码于词向量或句向量等语言表示的语义关系中的偏差,其几何邻近性反映了刻板关联(如性别与职业的关联)。",
        term_es = "sesgo semántico",
        term_zh = "语义偏差",
        aliases_es = { "sesgo en embeddings", "sesgo léxico-semántico" },
        aliases_zh = { "嵌入偏差", "词向量偏差", "语义偏见" },
    }
    
    data["semantic chunking"] = {
        short = "A document-splitting strategy for retrieval pipelines that places chunk boundaries where embedding similarity between adjacent sentences drops, producing semantically coherent chunks rather than fixed-size windows.",
        article = nil,
        aliases = { "semantic chunker", "semantic-chunking", "embedding-based chunking" },
        es = "Estrategia de segmentación de documentos para pipelines de recuperación que coloca los límites de los fragmentos donde cae la similitud entre embeddings de oraciones adyacentes, produciendo fragmentos semánticamente coherentes en lugar de ventanas de tamaño fijo.",
        zh = "用于检索流水线的文档切分策略:在相邻句子的嵌入相似度下降处划分块边界,从而生成语义连贯的文本块,而非固定长度的窗口。",
        term_es = "segmentación semántica",
        term_zh = "语义分块",
        aliases_es = { "chunking semántico", "fragmentación semántica" },
        aliases_zh = { "语义切块", "基于嵌入的分块" },
    }
    
    data["semantic kernel"] = {
        short = "Microsoft's open-source SDK for integrating large language models into applications via planners, plugins (skills), and memory connectors, available in C#, Python, and Java.",
        article = nil,
        aliases = { "Semantic Kernel", "SK", "Microsoft Semantic Kernel" },
        es = "SDK de código abierto de Microsoft para integrar modelos de lenguaje grandes en aplicaciones mediante planificadores, plugins (skills) y conectores de memoria, disponible en C#, Python y Java.",
        zh = "微软开源的SDK,通过规划器、插件(skills)和记忆连接器将大型语言模型集成到应用中,提供C#、Python和Java版本。",
        term_es = "Semantic Kernel",
        term_zh = "Semantic Kernel",
        aliases_es = { "SK de Microsoft", "Microsoft Semantic Kernel" },
        aliases_zh = { "微软 Semantic Kernel", "SK" },
    }
    
    data["semantic loss"] = {
        short = "A differentiable loss term that measures the probability that the network's output assignment satisfies a logical constraint expressed as a Boolean formula. Computed via weighted model counting and used to inject symbolic knowledge into neural training.",
        article = nil,
        aliases = { "semantic loss function", "Xu et al. semantic loss", "logical semantic loss", "weighted model counting loss" },
        es = "Término de pérdida diferenciable que mide la probabilidad de que la asignación de salida de la red satisfaga una restricción lógica expresada como fórmula booleana. Se calcula mediante recuento ponderado de modelos y sirve para inyectar conocimiento simbólico en el entrenamiento neuronal.",
        zh = "一种可微损失项,用于度量网络输出赋值满足某个布尔公式所表示的逻辑约束的概率,通常通过加权模型计数计算,可将符号知识注入神经网络训练。",
        term_es = "pérdida semántica",
        term_zh = "语义损失",
        aliases_es = { "función de pérdida semántica", "pérdida semántica lógica" },
        aliases_zh = { "语义损失函数", "逻辑语义损失" },
    }
    
    data["semantic parsing"] = {
        short = "The task of mapping natural-language utterances to formal meaning representations such as logical forms, SQL queries, or executable programs. Used in question answering over databases and knowledge graphs and as a backbone of neuro-symbolic systems.",
        article = nil,
        aliases = { "semantic parser", "natural language to logical form", "NL2SQL (special case)", "semantic parsing task" },
        es = "Tarea de mapear enunciados en lenguaje natural a representaciones formales del significado, como formas lógicas, consultas SQL o programas ejecutables. Se usa en respuesta a preguntas sobre bases de datos y grafos de conocimiento, y es un pilar de los sistemas neurosimbólicos.",
        zh = "将自然语言表述映射为正式意义表示(如逻辑形式、SQL 查询或可执行程序)的任务,常用于针对数据库和知识图谱的问答,也是神经符号系统的核心组件之一。",
        term_es = "parsing semántico",
        term_zh = "语义解析",
        aliases_es = { "análisis semántico", "parser semántico", "conversión a forma lógica" },
        aliases_zh = { "语义分析", "语义解析任务", "NL2SQL(特例)" },
    }
    
    data["semantic probe"] = {
        short = "A probing classifier trained to predict semantic properties, such as word senses, semantic roles, or entity types, from the internal representations of a neural model in order to test what semantic information they encode.",
        article = nil,
        aliases = { "semantic probing", "semantic probing classifier" },
        es = "Clasificador de sondeo entrenado para predecir propiedades semánticas, como sentidos de palabras, roles semánticos o tipos de entidad, a partir de las representaciones internas de un modelo neuronal con el fin de evaluar qué información semántica codifican.",
        zh = "一种探针分类器,训练用以从神经模型的内部表示中预测语义属性(如词义、语义角色或实体类型),以检测这些表示编码了哪些语义信息。",
        term_es = "sonda semántica",
        term_zh = "语义探针",
        aliases_es = { "sondeo semántico", "clasificador de sondeo semántico" },
        aliases_zh = { "语义探测", "语义探测分类器" },
    }
    
    data["semantic regularization"] = {
        short = "A regularization technique that injects domain knowledge or logical constraints into the training objective, penalizing model outputs that violate semantic rules.",
        article = nil,
        aliases = { "semantic regularisation", "knowledge-based regularization", "logic regularization" },
        es = "Técnica de regularización que incorpora conocimiento del dominio o restricciones lógicas en el objetivo de entrenamiento, penalizando salidas del modelo que violen reglas semánticas.",
        zh = "一种将领域知识或逻辑约束注入训练目标的正则化技术,对违反语义规则的模型输出施加惩罚。",
        term_es = "regularización semántica",
        term_zh = "语义正则化",
        aliases_es = { "regularización semántica", "regularización basada en conocimiento", "regularización lógica" },
        aliases_zh = { "语义正则化", "基于知识的正则化", "逻辑正则化" },
    }
    
    data["semantic router"] = {
        short = "A lightweight routing layer that maps user inputs to predefined categories or downstream tools by comparing input embeddings to embeddings of example utterances, used to select prompts, models, or guardrails in LLM applications.",
        article = nil,
        aliases = { "Semantic Router", "semantic routing" },
        es = "Capa ligera de enrutamiento que asigna entradas de usuario a categorías predefinidas o herramientas posteriores comparando los embeddings de la entrada con los de ejemplos, usada para elegir prompts, modelos o guardarraíles en aplicaciones de LLM.",
        zh = "一个轻量级路由层,通过比较输入嵌入与示例话语的嵌入,将用户输入映射到预定义类别或下游工具,用于在LLM应用中选择提示、模型或安全护栏。",
        term_es = "enrutador semántico",
        term_zh = "语义路由器",
        aliases_es = { "ruteo semántico", "Semantic Router" },
        aliases_zh = { "语义路由", "Semantic Router" },
    }
    
    data["semantic segmentation"] = {
        short = "The computer vision task of assigning a class label to every pixel in an image, without distinguishing between separate instances of the same class.",
        article = nil,
        aliases = { "pixel-wise classification", "pixel classification", "scene parsing" },
        es = "Tarea de visión por computadora que consiste en asignar una etiqueta de clase a cada píxel de una imagen, sin distinguir entre instancias separadas de la misma clase.",
        zh = "计算机视觉任务,为图像中的每个像素分配一个类别标签,但不区分同一类别的不同实例。",
        term_es = "segmentación semántica",
        term_zh = "语义分割",
        aliases_es = { "clasificación por píxeles", "análisis de escena" },
        aliases_zh = { "semantic segmentation", "像素级分类", "场景解析" },
    }
    
    data["semantic shift detection"] = {
        short = "The task of detecting test inputs whose label distribution differs from training (e.g., novel classes), as opposed to mere covariate shift; a core sub-problem of out-of-distribution detection.",
        article = nil,
        aliases = { "semantic OOD detection", "novel-class detection", "label shift detection" },
        es = "La tarea de detectar entradas de prueba cuya distribución de etiquetas difiere de la del entrenamiento (por ejemplo, clases nuevas), en contraste con un mero cambio covariable; un subproblema central de la detección fuera de distribución.",
        zh = "检测测试输入的标签分布与训练时不同(例如出现新类)的任务,而非仅仅是协变量偏移;是分布外检测的核心子问题。",
        term_es = "detección de cambio semántico",
        term_zh = "语义偏移检测",
        aliases_es = { "detección OOD semántica", "detección de clases nuevas" },
        aliases_zh = { "语义 OOD 检测", "新类检测", "语义漂移检测" },
    }
    
    data["semantic watermarking"] = {
        short = "Watermarking techniques for language model outputs that embed a detectable signal at the level of meaning—via paraphrase-invariant sampling biases or sentence-embedding hashes—rather than purely at the token level.",
        article = nil,
        aliases = { "semantic watermark", "semantic LLM watermarking" },
        es = "Técnicas de marca de agua para salidas de modelos de lenguaje que incrustan una señal detectable a nivel semántico, mediante sesgos de muestreo invariantes ante paráfrasis o hashes de embeddings de oraciones, en lugar de hacerlo solo a nivel de tokens.",
        zh = "针对语言模型输出的水印技术,通过对释义不变的采样偏置或句子嵌入哈希等方式,在语义层面而非仅在词元层面嵌入可检测信号。",
        term_es = "marca de agua semántica",
        term_zh = "语义水印",
        aliases_es = { "watermark semántico", "marca de agua a nivel semántico" },
        aliases_zh = { "语义水印技术", "semantic watermark" },
    }
    
    data["semantic web"] = {
        short = "An extension of the World Wide Web that publishes structured, machine-readable data using standards such as RDF, OWL, and SPARQL, enabling automated reasoning across distributed sources.",
        article = nil,
        aliases = { "Semantic Web", "Web 3.0", "linked data web" },
        es = "Extensión de la World Wide Web que publica datos estructurados y legibles por máquinas mediante estándares como RDF, OWL y SPARQL, permitiendo el razonamiento automatizado entre fuentes distribuidas.",
        zh = "万维网的扩展,使用 RDF、OWL 和 SPARQL 等标准发布结构化、机器可读的数据,从而支持跨分布式来源的自动推理。",
        term_es = "web semántica",
        term_zh = "语义网",
        aliases_es = { "Web Semántica", "web de datos enlazados" },
        aliases_zh = { "语义网", "语义万维网", "语义 Web" },
    }
    
    data["semi-asynchronous federated learning"] = {
        short = "A federated learning paradigm that sits between fully synchronous and fully asynchronous schemes: clients update on their own pace but the server enforces bounded staleness or batched aggregation, trading off straggler tolerance against convergence stability.",
        article = nil,
        aliases = { "Semi-Asynchronous Federated Learning", "SAFL", "semi-asynchronous FL", "semisynchronous federated learning", "bounded-staleness federated learning" },
        es = "Paradigma de aprendizaje federado intermedio entre los esquemas totalmente síncronos y totalmente asíncronos: los clientes actualizan a su propio ritmo, pero el servidor impone una caducidad acotada o una agregación por lotes, equilibrando la tolerancia a rezagados con la estabilidad de la convergencia.",
        zh = "介于完全同步和完全异步方案之间的联邦学习范式:客户端按自身节奏更新,服务器则强制有界陈旧度或批量聚合,在容忍掉队者与收敛稳定性之间取得折中。",
        term_es = "aprendizaje federado semiasíncrono",
        term_zh = "半异步联邦学习",
        aliases_es = { "FL semiasíncrono", "SAFL", "aprendizaje federado semi-asíncrono" },
        aliases_zh = { "SAFL", "半异步FL", "有界陈旧度联邦学习" },
    }
    
    data["semi-implicit variational inference"] = {
        short = "A variational inference method (Yin & Zhou, 2018) that defines the variational family as a hierarchical mixture in which a tractable conditional distribution is mixed by an implicit, neural-network-parameterized distribution, yielding much more flexible posteriors than mean-field.",
        article = nil,
        aliases = { "SIVI", "semi-implicit VI" },
        es = "Método de inferencia variacional (Yin y Zhou, 2018) que define la familia variacional como una mezcla jerárquica en la que una distribución condicional tratable se mezcla con una distribución implícita parametrizada por una red neuronal, obteniendo posteriores mucho más flexibles que la aproximación de campo medio.",
        zh = "一种变分推断方法(Yin 和 Zhou,2018),将变分族定义为分层混合:可解析的条件分布被一个由神经网络参数化的隐式分布混合,从而获得比平均场更灵活的后验。",
        term_es = "inferencia variacional semi-implícita",
        term_zh = "半隐式变分推断",
        aliases_es = { "SIVI", "VI semi-implícita" },
        aliases_zh = { "SIVI", "半隐式 VI" },
    }
    
    data["semi-markovian model"] = {
        short = "A structural causal model in which unobserved confounders are represented by bidirected edges, equivalent to a directed acyclic graph with latent common causes between pairs of observed variables.",
        article = nil,
        aliases = { "semi markovian model", "semi-Markovian causal model", "ADMG model" },
        es = "Modelo causal estructural en el que los factores de confusión no observados se representan mediante aristas bidireccionales, equivalente a un grafo acíclico dirigido con causas comunes latentes entre pares de variables observadas.",
        zh = "一种结构因果模型,其中未观测的混杂因素由双向边表示,等价于在成对可观测变量之间存在潜在共同原因的有向无环图。",
        term_es = "modelo semi-markoviano",
        term_zh = "半马尔可夫模型",
        aliases_es = { "modelo semimarkoviano", "modelo causal semi-markoviano" },
        aliases_zh = { "半马尔可夫因果模型", "半马氏模型" },
    }
    
    data["semi-supervised learning"] = {
        short = "A learning paradigm that uses a small amount of labeled data together with a large pool of unlabeled data, leveraging structure in the unlabeled distribution (via methods such as pseudo-labeling or consistency regularization) to improve generalization.",
        article = nil,
        aliases = { "semi supervised learning", "SSL", "semisupervised learning" },
        es = "Paradigma de aprendizaje que utiliza una pequeña cantidad de datos etiquetados junto con un gran conjunto de datos no etiquetados, aprovechando la estructura de la distribución no etiquetada (mediante métodos como pseudo-etiquetado o regularización por consistencia) para mejorar la generalización.",
        zh = "一种学习范式,结合少量带标签数据和大量无标签数据,通过伪标签或一致性正则化等方法利用无标签分布的结构以提升泛化能力。",
        term_es = "aprendizaje semi-supervisado",
        term_zh = "半监督学习",
        aliases_es = { "aprendizaje semisupervisado", "SSL" },
        aliases_zh = { "半监督式学习", "semi-supervised learning" },
    }
    
    data["semi-supervised neural predictor"] = {
        short = "A NAS performance predictor trained with both labeled architectures (with measured accuracy) and unlabeled architectures, using techniques like graph auto-encoders or pseudo-labels to leverage the large unlabeled architecture pool.",
        article = nil,
        aliases = { "SSNP", "semi-supervised performance predictor", "SemiNAS predictor" },
        es = "Predictor de desempeño para NAS entrenado con arquitecturas etiquetadas (con precisión medida) y no etiquetadas, usando técnicas como auto-encoders de grafos o pseudo-etiquetas para aprovechar el gran conjunto sin etiquetar.",
        zh = "同时使用已标记架构(具有实测精度)与未标记架构进行训练的 NAS 性能预测器,通过图自编码器或伪标签等手段利用大量未标记架构。",
        term_es = "predictor neuronal semisupervisado",
        term_zh = "半监督神经预测器",
        aliases_es = { "SSNP", "predictor de desempeño semisupervisado" },
        aliases_zh = { "SSNP", "半监督性能预测器", "SemiNAS 预测器" },
    }
    
    data["semi-synchronous sgd"] = {
        short = "A distributed SGD variant in which workers synchronize at flexible intervals rather than every step, allowing faster workers to perform additional local updates while bounding overall staleness, balancing throughput and convergence quality.",
        article = nil,
        aliases = { "Semi-Synchronous SGD", "SSGD", "semi-synchronous stochastic gradient descent", "semisynchronous SGD", "flexible-barrier SGD" },
        es = "Variante de SGD distribuido en la que los trabajadores se sincronizan a intervalos flexibles en lugar de en cada paso, permitiendo que los trabajadores más rápidos realicen actualizaciones locales adicionales mientras se acota la caducidad global, equilibrando el rendimiento y la calidad de convergencia.",
        zh = "一种分布式SGD变体,工作节点在灵活的间隔而非每一步进行同步,使较快节点能进行额外本地更新,同时限制整体陈旧度,在吞吐量与收敛质量之间取得平衡。",
        term_es = "SGD semisíncrono",
        term_zh = "半同步SGD",
        aliases_es = { "descenso de gradiente estocástico semisíncrono", "SGD semi-síncrono" },
        aliases_zh = { "半同步随机梯度下降", "Semi-Synchronous SGD" },
    }
    
    data["semiparametric efficiency bound"] = {
        short = "The smallest asymptotic variance achievable by any regular estimator of a finite-dimensional parameter in a semiparametric model, generalizing the Cramér-Rao bound to infinite-dimensional nuisance parameters.",
        article = nil,
        aliases = { "semiparametric efficiency bounds", "efficient influence function variance", "efficiency bound" },
        es = "La menor varianza asintótica que puede alcanzar cualquier estimador regular de un parámetro de dimensión finita en un modelo semiparamétrico, generalizando la cota de Cramér-Rao a parámetros de molestia de dimensión infinita.",
        zh = "在半参数模型中,任何正则估计量对有限维参数所能达到的最小渐近方差,是 Cramér-Rao 下界向无穷维冗余参数情形的推广。",
        term_es = "cota de eficiencia semiparamétrica",
        term_zh = "半参数效率界",
        aliases_es = { "cota de eficiencia semi-paramétrica", "límite de eficiencia semiparamétrica" },
        aliases_zh = { "半参数效率下界", "半参数有效性界" },
    }
    
    data["semiparametric estimation"] = {
        short = "Estimation of a finite-dimensional parameter of interest in a model that also contains an infinite-dimensional nuisance component, typically using influence-function-based methods to attain the efficiency bound.",
        article = nil,
        aliases = { "semi-parametric estimation", "semiparametric inference" },
        es = "Estimación de un parámetro de dimensión finita de interés en un modelo que también contiene un componente de molestia de dimensión infinita, típicamente mediante métodos basados en funciones de influencia para alcanzar la cota de eficiencia.",
        zh = "在同时包含有限维目标参数和无穷维冗余成分的模型中,对目标参数进行估计,通常使用基于影响函数的方法以达到效率界。",
        term_es = "estimación semiparamétrica",
        term_zh = "半参数估计",
        aliases_es = { "estimación semi-paramétrica", "inferencia semiparamétrica" },
        aliases_zh = { "半参数推断", "半参数推断估计" },
    }
    
    data["sensitive attribute"] = {
        short = "A feature describing membership in a protected or socially salient group (race, gender, age, disability, etc.) whose use in algorithmic decisions raises legal or ethical concerns. Central to most group fairness criteria.",
        article = nil,
        aliases = { "protected attribute", "protected feature", "sensitive feature", "demographic attribute" },
        es = "Atributo que describe la pertenencia a un grupo protegido o socialmente relevante (raza, género, edad, discapacidad, etc.) cuyo uso en decisiones algorítmicas plantea preocupaciones legales o éticas. Es central en la mayoría de los criterios de equidad grupal.",
        zh = "描述受保护或社会敏感群体身份的特征(种族、性别、年龄、残障等),在算法决策中使用此类特征会引发法律或伦理关切。它是大多数群体公平性准则的核心。",
        term_es = "atributo sensible",
        term_zh = "敏感属性",
        aliases_es = { "atributo protegido", "característica protegida", "atributo demográfico", "característica sensible" },
        aliases_zh = { "受保护属性", "敏感特征", "受保护特征", "人口学属性" },
    }
    
    data["sensitivity"] = {
        short = "Fraction of actual positives correctly classified as positive, TP/(TP+FN). Synonymous with recall and the true positive rate; widely used in medical diagnostics where missing positives is costly.",
        article = nil,
        aliases = { "recall", "true positive rate", "TPR", "hit rate" },
        es = "Fracción de positivos reales correctamente clasificados como positivos, TP/(TP+FN). Es sinónimo de exhaustividad y de tasa de verdaderos positivos; se utiliza mucho en diagnóstico médico, donde no detectar positivos es costoso.",
        zh = "真实正样本中被正确判为正的比例,TP/(TP+FN)。与召回率和真阳性率同义,常用于医学诊断等漏判代价高的场景。",
        term_es = "sensibilidad",
        term_zh = "敏感度",
        aliases_es = { "exhaustividad", "tasa de verdaderos positivos", "recall" },
        aliases_zh = { "灵敏度", "召回率", "真阳性率" },
    }
    
    data["sensitivity analysis"] = {
        short = "The study of how variation in a model's output can be attributed to variation in its inputs or parameters, used as an explanation technique by ranking features by the magnitude of their effect on predictions.",
        article = nil,
        aliases = { "sensitivity-based explanation" },
        es = "Estudio de cómo la variación en la salida de un modelo puede atribuirse a la variación en sus entradas o parámetros, utilizada como técnica de explicación al clasificar las características por la magnitud de su efecto sobre las predicciones.",
        zh = "研究模型输出的变化如何归因于其输入或参数的变化,被用作解释技术,按特征对预测影响的大小进行排序。",
        term_es = "análisis de sensibilidad",
        term_zh = "敏感性分析",
        aliases_es = { "explicación basada en sensibilidad" },
        aliases_zh = { "灵敏度分析", "基于敏感性的解释" },
    }
    
    data["sentence debias"] = {
        short = "A family of debiasing techniques that project sentence embeddings onto a subspace orthogonal to a learned bias direction, reducing stereotypical associations while preserving semantic content. Extends word-level debiasing methods to sentence representations.",
        article = nil,
        aliases = { "sent-debias", "sentence-level debiasing" },
        es = "Familia de técnicas de desesgo que proyectan los embeddings de oraciones sobre un subespacio ortogonal a una dirección de sesgo aprendida, reduciendo asociaciones estereotípicas y preservando el contenido semántico. Extiende los métodos de desesgo a nivel de palabra a representaciones de oraciones.",
        zh = "一类去偏方法,将句子嵌入投影到与所学偏差方向正交的子空间,以减少刻板关联,同时保留语义内容。是将词级去偏方法扩展到句子表示的方案。",
        term_es = "sentence debias",
        term_zh = "句子去偏",
        aliases_es = { "desesgo de oraciones", "desesgo a nivel de oración" },
        aliases_zh = { "句子级去偏", "句向量去偏" },
    }
    
    data["sentence embedding"] = {
        short = "A fixed-length dense vector representing the meaning of a whole sentence or short text, used for tasks like semantic search, clustering, and retrieval.",
        article = nil,
        aliases = { "sentence embeddings", "sentence vector", "sentence representation", "text embedding" },
        es = "Vector denso de longitud fija que representa el significado de una oración o texto corto completo, utilizado en tareas como búsqueda semántica, agrupamiento y recuperación.",
        zh = "用于表示整句或短文本含义的定长稠密向量,常用于语义搜索、聚类和检索等任务。",
        term_es = "embedding de oraciones",
        term_zh = "句子嵌入",
        aliases_es = { "vector de oraciones", "representación de oraciones", "embedding de texto" },
        aliases_zh = { "句向量", "句子向量", "文本嵌入" },
    }
    
    data["sentence-bert"] = {
        short = "A modification of BERT (Reimers & Gurevych, 2019) that uses siamese and triplet network structures to derive semantically meaningful sentence embeddings comparable with cosine similarity.",
        article = nil,
        aliases = { "Sentence-BERT", "SBERT", "sentence BERT", "Sentence BERT" },
        es = "Modificación de BERT (Reimers y Gurevych, 2019) que utiliza estructuras de redes siamesas y triplete para obtener embeddings de oraciones semánticamente significativos comparables mediante similitud de coseno.",
        zh = "BERT 的一种改进(Reimers 和 Gurevych,2019),使用孪生网络和三元组网络结构来产生具有语义意义、可通过余弦相似度比较的句子嵌入。",
        term_es = "Sentence-BERT",
        term_zh = "Sentence-BERT",
        aliases_es = { "SBERT", "Sentence BERT" },
        aliases_zh = { "SBERT", "Sentence-BERT", "句子 BERT" },
    }
    
    data["sentencepiece"] = {
        short = "An open-source tokenizer library by Google that treats the input as a raw stream of Unicode characters (including whitespace) and trains subword models such as BPE or unigram directly from raw text without language-specific preprocessing.",
        article = nil,
        aliases = { "SentencePiece", "sentence piece", "SentencePiece tokenizer" },
        es = "Biblioteca de tokenización de código abierto de Google que trata la entrada como un flujo de caracteres Unicode (incluyendo espacios) y entrena modelos de subpalabras como BPE o unigrama directamente sobre texto crudo, sin preprocesamiento específico de idioma.",
        zh = "Google 开源的分词库,将输入视为原始 Unicode 字符流(包含空格),可直接在原始文本上训练 BPE 或 unigram 等子词模型,无需特定语言的预处理。",
        term_es = "SentencePiece",
        term_zh = "SentencePiece",
        aliases_es = { "SentencePiece", "tokenizador SentencePiece" },
        aliases_zh = { "SentencePiece", "SentencePiece 分词器" },
    }
    
    data["sentiment analysis"] = {
        short = "An NLP task that classifies a piece of text by its expressed opinion or emotional polarity (typically positive, negative, neutral), and may further extract aspects, intensities, or finer emotion categories.",
        article = nil,
        aliases = { "Sentiment Analysis", "opinion mining", "sentiment classification", "polarity classification", "sentiment-analysis" },
        es = "Tarea de PLN que clasifica un texto según la opinión expresada o su polaridad emocional (típicamente positiva, negativa o neutra), y que puede además extraer aspectos, intensidades o categorías emocionales más finas.",
        zh = "一项自然语言处理任务,根据文本所表达的观点或情感极性(通常为正面、负面、中性)进行分类,进一步还可提取方面、强度或更细粒度的情感类别。",
        term_es = "análisis de sentimiento",
        term_zh = "情感分析",
        aliases_es = { "sentiment analysis", "minería de opiniones", "clasificación de sentimiento", "análisis de polaridad" },
        aliases_zh = { "sentiment analysis", "意见挖掘", "情感分类", "极性分类", "情绪分析" },
    }
    
    data["sentiment bias"] = {
        short = "Disparity in sentiment classifier outputs across demographic groups, such as systematically more negative sentiment scores for text mentioning particular names, dialects, or identity terms. A standard target of NLP fairness audits.",
        article = nil,
        aliases = { "sentiment analysis bias", "sentiment classifier bias" },
        es = "Disparidad en las salidas de clasificadores de sentimiento entre grupos demográficos, como puntuaciones sistemáticamente más negativas para textos que mencionan ciertos nombres, dialectos o términos de identidad. Es un objetivo habitual de las auditorías de equidad en PLN.",
        zh = "情感分类器输出在不同人群间存在的差异,例如对包含特定姓名、方言或身份词汇的文本系统性给出更负面的情感分数。是 NLP 公平性审计的常见对象。",
        term_es = "sesgo de sentimiento",
        term_zh = "情感分析偏差",
        aliases_es = { "sesgo en análisis de sentimiento", "sesgo del clasificador de sentimiento" },
        aliases_zh = { "情感偏差", "情感分类器偏差" },
    }
    
    data["sep token"] = {
        short = "A special separator token used in transformer encoders such as BERT to delimit the boundary between two segments of input, enabling sentence-pair tasks like next-sentence prediction and question answering.",
        article = nil,
        aliases = { "[SEP]", "SEP token", "[SEP] token", "separator token" },
        es = "Token especial separador usado en codificadores transformer como BERT para delimitar la frontera entre dos segmentos de entrada, permitiendo tareas con pares de oraciones como la predicción de la siguiente oración y la respuesta a preguntas.",
        zh = "在 BERT 等 Transformer 编码器中用于分隔两个输入片段边界的特殊分隔符 token,支持下一句预测和问答等句对任务。",
        term_es = "token SEP",
        term_zh = "SEP token",
        aliases_es = { "[SEP]", "token separador", "token [SEP]" },
        aliases_zh = { "[SEP]", "[SEP] 标记", "分隔标记", "分隔 token" },
    }
    
    data["separable convolution"] = {
        short = "A factorization of a standard convolution into two cheaper steps — typically a depthwise convolution followed by a pointwise (1×1) convolution — that reduces parameters and FLOPs while approximating the original operation.",
        article = nil,
        aliases = { "depthwise separable convolution", "Separable Convolution", "separable conv", "depthwise-separable convolution" },
        es = "Factorización de una convolución estándar en dos pasos más baratos —típicamente una convolución por profundidad seguida de una convolución puntual (1×1)— que reduce parámetros y operaciones de coma flotante a la vez que aproxima la operación original.",
        zh = "将标准卷积分解为两个更廉价的步骤——通常是一个逐通道(depthwise)卷积加上一个逐点(1×1)卷积——以减少参数量和计算量,同时近似原始卷积。",
        term_es = "convolución separable",
        term_zh = "可分离卷积",
        aliases_es = { "convolución separable en profundidad", "convolución separable depthwise", "separable convolution" },
        aliases_zh = { "深度可分离卷积", "depthwise 可分离卷积", "separable convolution" },
    }
    
    data["sepformer"] = {
        short = "A transformer-based neural network for monaural speech source separation that interleaves intra-chunk and inter-chunk self-attention to model both short- and long-term dependencies in the time domain.",
        article = nil,
        aliases = { "SepFormer", "Sepformer" },
        es = "Red neuronal basada en transformer para separación de fuentes de voz monoaural que intercala autoatención intra-bloque e inter-bloque para modelar dependencias a corto y largo plazo en el dominio temporal.",
        zh = "一种基于 Transformer 的单声道语音源分离网络,交替使用块内与块间自注意力,以在时域同时建模短时和长时依赖关系。",
        term_es = "SepFormer",
        term_zh = "SepFormer",
        aliases_es = { "Sepformer" },
        aliases_zh = { "Sepformer" },
    }
    
    data["seqfish"] = {
        short = "A spatial transcriptomics method that uses sequential rounds of single-molecule fluorescence in situ hybridization with combinatorial barcoding to image hundreds to thousands of RNA species at subcellular resolution within intact tissue.",
        article = nil,
        aliases = { "seqFISH", "seqFISH+", "sequential FISH", "sequential fluorescence in situ hybridization" },
        es = "Método de transcriptómica espacial que utiliza rondas secuenciales de hibridación in situ por fluorescencia de molécula única con código de barras combinatorio para visualizar de cientos a miles de especies de ARN con resolución subcelular en tejido intacto.",
        zh = "一种空间转录组学方法,通过多轮顺序单分子荧光原位杂交结合组合条形码,在完整组织中以亚细胞分辨率成像数百至数千种RNA。",
        term_es = "seqFISH",
        term_zh = "seqFISH",
        aliases_es = { "seqFISH", "seqFISH+", "FISH secuencial", "hibridación in situ por fluorescencia secuencial" },
        aliases_zh = { "seqFISH", "seqFISH+", "顺序 FISH", "顺序荧光原位杂交" },
    }
    
    data["sequence alignment"] = {
        short = "The arrangement of two or more biological sequences (DNA, RNA, or protein) to identify regions of similarity that may indicate functional, structural, or evolutionary relationships. Alignments may be pairwise or multiple, global or local.",
        article = nil,
        aliases = { "alignment", "biological sequence alignment", "MSA", "multiple sequence alignment", "pairwise alignment" },
        es = "Disposición de dos o más secuencias biológicas (ADN, ARN o proteínas) para identificar regiones de similitud que pueden indicar relaciones funcionales, estructurales o evolutivas. Puede ser pareja o múltiple, global o local.",
        zh = "将两条或多条生物序列(DNA、RNA 或蛋白质)排列以识别相似区域,这些区域可能反映功能、结构或进化关系。可分为成对比对或多序列比对,全局或局部比对。",
        term_es = "alineamiento de secuencias",
        term_zh = "序列比对",
        aliases_es = { "alineación de secuencias", "alineamiento múltiple", "MSA" },
        aliases_zh = { "多序列比对", "成对比对", "MSA" },
    }
    
    data["sequence assembly"] = {
        short = "The reconstruction of a longer DNA or RNA sequence from many shorter sequencing reads, either by aligning reads to a reference (reference-guided assembly) or by joining overlapping reads de novo into contigs and scaffolds.",
        article = nil,
        aliases = { "genome assembly", "de novo assembly", "assembly", "transcriptome assembly" },
        es = "Reconstrucción de una secuencia larga de ADN o ARN a partir de muchas lecturas de secuenciación más cortas, ya sea alineando las lecturas a una referencia o uniendo lecturas superpuestas de novo en contigs y scaffolds.",
        zh = "从大量较短的测序读段重建较长的 DNA 或 RNA 序列的过程,可通过将读段与参考序列比对,或将重叠读段从头拼接为 contigs 和 scaffolds 完成。",
        term_es = "ensamblaje de secuencias",
        term_zh = "序列组装",
        aliases_es = { "ensamblado de secuencias", "ensamblaje de novo", "ensamblaje del genoma" },
        aliases_zh = { "基因组组装", "从头组装", "de novo 组装" },
    }
    
    data["sequence attribution"] = {
        short = "Attribution methods adapted for sequence models that assign importance scores to individual time steps, tokens, or input positions for a given output token or class.",
        article = nil,
        aliases = { "sequence-level attribution", "sequence attribution method" },
        es = "Métodos de atribución adaptados a modelos de secuencias que asignan puntuaciones de importancia a pasos de tiempo, tokens o posiciones de entrada individuales para un token o clase de salida dada.",
        zh = "针对序列模型的归因方法,为某一输出词元或类别将重要性分数分配给单个时间步、词元或输入位置。",
        term_es = "atribución de secuencias",
        term_zh = "序列归因",
        aliases_es = { "atribución a nivel de secuencia", "método de atribución de secuencias" },
        aliases_zh = { "序列级归因", "sequence attribution" },
    }
    
    data["sequence packing"] = {
        short = "A training-efficiency technique that concatenates multiple short examples into a single fixed-length sequence (with attention masks preventing cross-example attention) to reduce padding waste during transformer training.",
        article = nil,
        aliases = { "example packing", "sample packing", "packed sequences", "sequence packing (training)" },
        es = "Técnica de eficiencia en entrenamiento que concatena varios ejemplos cortos en una sola secuencia de longitud fija (con máscaras de atención que impiden la atención entre ejemplos) para reducir el desperdicio por padding durante el entrenamiento de transformers.",
        zh = "一种提升训练效率的技术,将多个短样本拼接为单个定长序列(通过注意力掩码防止跨样本注意力),以减少Transformer训练中的填充浪费。",
        term_es = "empaquetado de secuencias",
        term_zh = "序列打包",
        aliases_es = { "packing de muestras", "empaquetado de muestras", "sequence packing" },
        aliases_zh = { "样本打包", "sample packing", "打包序列" },
    }
    
    data["sequence parallelism"] = {
        short = "A parallelism technique, often combined with tensor parallelism (Korthikanti et al., 2022), that shards activations along the sequence dimension in operations such as LayerNorm and dropout, reducing per-device activation memory in long-context training.",
        article = nil,
        aliases = { "SP", "sequence parallel" },
        es = "Técnica de paralelismo, frecuentemente combinada con paralelismo de tensor (Korthikanti et al., 2022), que distribuye las activaciones a lo largo de la dimensión de secuencia en operaciones como LayerNorm y dropout, reduciendo la memoria de activaciones por dispositivo en entrenamientos con contexto largo.",
        zh = "Korthikanti 等人于 2022 年提出的并行技术,常与张量并行结合:在 LayerNorm、dropout 等算子中沿序列维度切分激活,从而在长上下文训练中降低单卡激活显存。",
        term_es = "paralelismo de secuencia",
        term_zh = "序列并行",
        aliases_es = { "SP", "paralelismo a lo largo de la secuencia" },
        aliases_zh = { "SP", "序列并行化" },
    }
    
    data["sequence-level reward"] = {
        short = "A reinforcement-learning signal that scores an entire generated sequence (e.g. final answer correctness or BLEU) rather than individual tokens, often used in RLHF and RL fine-tuning of language and translation models.",
        article = nil,
        aliases = { "sequence level reward", "sequence-level signal", "trajectory-level reward" },
        es = "Señal de aprendizaje por refuerzo que puntúa una secuencia generada completa (por ejemplo, la corrección de la respuesta final o BLEU) en lugar de tokens individuales, usada con frecuencia en RLHF y en el ajuste por RL de modelos de lenguaje y traducción.",
        zh = "强化学习中的奖励信号,对整段生成序列(例如最终答案正确性或BLEU)进行打分,而非对单个词元打分,常用于RLHF和语言/翻译模型的RL微调。",
        term_es = "recompensa a nivel de secuencia",
        term_zh = "序列级奖励",
        aliases_es = { "señal a nivel de secuencia", "recompensa por secuencia" },
        aliases_zh = { "整句奖励", "轨迹级奖励", "序列级别奖励" },
    }
    
    data["sequence-to-sequence model"] = {
        short = "An encoder-decoder neural network that maps an input sequence to an output sequence of possibly different length, used for machine translation, summarization, and speech tasks.",
        article = nil,
        aliases = { "seq2seq", "seq2seq model", "sequence to sequence model", "sequence-to-sequence", "Seq2Seq" },
        es = "Red neuronal codificador-decodificador que asigna a una secuencia de entrada una secuencia de salida de longitud posiblemente distinta, usada en traducción automática, resumen y tareas de habla.",
        zh = "一种编码器-解码器神经网络,将输入序列映射为可能长度不同的输出序列,常用于机器翻译、摘要与语音任务。",
        term_es = "modelo secuencia a secuencia",
        term_zh = "序列到序列模型",
        aliases_es = { "seq2seq", "modelo seq2seq", "secuencia a secuencia" },
        aliases_zh = { "seq2seq", "Seq2Seq 模型", "序列到序列" },
    }
    
    data["sequencing depth"] = {
        short = "The average number of times a base in the target genome or transcriptome is covered by sequencing reads. Higher depth (often expressed as 30x, 100x) reduces stochastic noise and improves variant detection sensitivity.",
        article = nil,
        aliases = { "coverage depth", "read depth", "depth of coverage", "sequencing coverage" },
        es = "Número promedio de veces que una base del genoma o transcriptoma objetivo es cubierta por lecturas de secuenciación. Una mayor profundidad (expresada como 30x, 100x) reduce el ruido estocástico y mejora la sensibilidad de detección de variantes.",
        zh = "目标基因组或转录组中每个碱基被测序读段覆盖的平均次数。更高的测序深度(如 30x、100x)可降低随机噪声并提高变异检测灵敏度。",
        term_es = "profundidad de secuenciación",
        term_zh = "测序深度",
        aliases_es = { "cobertura de secuenciación", "profundidad de cobertura", "profundidad de lectura" },
        aliases_zh = { "覆盖深度", "读取深度", "测序覆盖度" },
    }
    
    data["sequential g-formula"] = {
        short = "An iterated-conditional-expectation algorithm for identifying and estimating the effect of a time-varying treatment under sequential exchangeability, recursively imputing potential outcomes from the final time point backward.",
        article = nil,
        aliases = { "iterative g-formula", "iterated conditional expectation", "ICE estimator", "sequential regression" },
        es = "Algoritmo de esperanzas condicionales iteradas para identificar y estimar el efecto de un tratamiento variable en el tiempo bajo intercambiabilidad secuencial, imputando recursivamente los resultados potenciales desde el último período hacia atrás.",
        zh = "一种用于在序贯可交换性假设下识别和估计时变处理效应的迭代条件期望算法,从最后时间点向前递归地填补潜在结果。",
        term_es = "g-fórmula secuencial",
        term_zh = "序贯 g 公式",
        aliases_es = { "fórmula g iterada", "g-fórmula iterada", "esperanzas condicionales iteradas" },
        aliases_zh = { "迭代 g 公式", "迭代条件期望", "递归 g 公式" },
    }
    
    data["sequential ignorability"] = {
        short = "An assumption for time-varying treatments stating that, given the observed past, treatment at each time point is independent of future potential outcomes; the longitudinal analogue of unconfoundedness.",
        article = nil,
        aliases = { "sequential exchangeability", "sequential randomization", "no unmeasured time-varying confounders" },
        es = "Supuesto para tratamientos variables en el tiempo que afirma que, condicional al pasado observado, el tratamiento en cada momento es independiente de los resultados potenciales futuros; el análogo longitudinal de la no confusión.",
        zh = "针对时变处理的假设,即在给定可观测历史的条件下,每个时刻的处理与未来潜在结果独立;是无混杂性在纵向数据中的类比。",
        term_es = "ignorabilidad secuencial",
        term_zh = "序贯可忽略性",
        aliases_es = { "intercambiabilidad secuencial", "aleatorización secuencial" },
        aliases_zh = { "序贯可交换性", "序贯随机化", "顺序可忽略性" },
    }
    
    data["sequential model-based optimization"] = {
        short = "A black-box optimization framework that fits a probabilistic surrogate model to past evaluations and uses an acquisition function (e.g. expected improvement) to choose the next configuration; the foundation of Bayesian optimization methods like SMAC, TPE, and GP-EI.",
        article = nil,
        aliases = { "SMBO", "sequential model based optimization", "sequential model-based optimisation" },
        es = "Marco de optimización de caja negra que ajusta un modelo sustituto probabilístico sobre evaluaciones pasadas y usa una función de adquisición (p. ej. mejora esperada) para elegir la siguiente configuración; base de métodos bayesianos como SMAC, TPE y GP-EI.",
        zh = "一种黑盒优化框架,对历史评估拟合概率代理模型,并使用采集函数(如期望改进)选择下一个配置;是 SMAC、TPE 和 GP-EI 等贝叶斯优化方法的基础。",
        term_es = "optimización secuencial basada en modelos",
        term_zh = "序列模型优化",
        aliases_es = { "SMBO", "optimización basada en modelos secuencial" },
        aliases_zh = { "SMBO", "基于模型的序列优化" },
    }
    
    data["sequential monte carlo"] = {
        short = "A family of sampling methods that approximates a sequence of probability distributions with a population of weighted particles propagated through importance sampling and resampling steps. Used for state-space filtering and as a Bayesian inference primitive.",
        article = nil,
        aliases = { "SMC", "particle filter", "particle filtering", "sequential importance resampling", "SIR" },
        es = "Familia de métodos de muestreo que aproxima una secuencia de distribuciones de probabilidad mediante una población de partículas ponderadas, propagadas a través de pasos de muestreo por importancia y remuestreo. Se usa para filtrado en espacios de estados y como primitiva de inferencia bayesiana.",
        zh = "一类采样方法,通过加权粒子群体并经由重要性采样和重采样步骤传播,来逼近一系列概率分布;常用于状态空间滤波,也是贝叶斯推断的基础工具。",
        term_es = "Monte Carlo secuencial",
        term_zh = "序贯蒙特卡洛",
        aliases_es = { "SMC", "filtro de partículas", "muestreo por importancia secuencial" },
        aliases_zh = { "SMC", "粒子滤波", "顺序蒙特卡洛", "序贯重要性重采样" },
    }
    
    data["server model"] = {
        short = "In federated learning, the global model maintained at the central coordinator that is broadcast to clients each round and updated by aggregating their locally trained updates; in split learning, the portion of the network that runs on the server side.",
        article = nil,
        aliases = { "Server Model", "global server model", "central model", "global model", "server-side model" },
        es = "En aprendizaje federado, el modelo global mantenido en el coordinador central que se transmite a los clientes en cada ronda y se actualiza agregando sus actualizaciones entrenadas localmente; en split learning, la parte de la red que se ejecuta en el lado del servidor.",
        zh = "在联邦学习中,由中央协调者维护、每轮分发给客户端并通过聚合其本地训练更新而被更新的全局模型;在拆分学习中,则指运行于服务器端的网络部分。",
        term_es = "modelo del servidor",
        term_zh = "服务器模型",
        aliases_es = { "modelo global del servidor", "modelo central", "modelo global", "modelo del lado del servidor" },
        aliases_zh = { "全局服务器模型", "中心模型", "全局模型", "服务端模型" },
    }
    
    data["set identification"] = {
        short = "A regime in which a parameter cannot be uniquely recovered from the data and is instead constrained to an identified set of values consistent with the assumptions and observed distribution.",
        article = nil,
        aliases = { "partial identification", "set-valued identification", "identified set" },
        es = "Régimen en el que un parámetro no puede recuperarse de forma única a partir de los datos y queda restringido a un conjunto identificado de valores compatibles con los supuestos y la distribución observada.",
        zh = "一种识别范式,其中参数无法从数据唯一恢复,而是被限制在与假设和可观测分布相容的识别集合内。",
        term_es = "identificación de conjuntos",
        term_zh = "集合识别",
        aliases_es = { "identificación parcial", "conjunto identificado" },
        aliases_zh = { "部分识别", "识别集", "集值识别" },
    }
    
    data["set transformer"] = {
        short = "A transformer-based architecture for set-structured inputs that uses permutation-invariant attention blocks (such as induced set attention) to process unordered collections.",
        article = nil,
        aliases = { "Set Transformer", "set-transformer" },
        es = "Arquitectura basada en transformer para entradas estructuradas como conjuntos, que utiliza bloques de atención invariantes a permutaciones (como la atención de conjunto inducida) para procesar colecciones desordenadas.",
        zh = "一种面向集合结构输入的 Transformer 架构,使用对排列不变的注意力模块(如诱导集合注意力)处理无序集合。",
        term_es = "Set Transformer",
        term_zh = "Set Transformer",
        aliases_es = { "transformer de conjuntos", "transformador de conjuntos" },
        aliases_zh = { "集合 Transformer", "集合变换器" },
    }
    
    data["seurat"] = {
        short = "An R package for quality control, analysis, and exploration of single-cell RNA-seq data, providing normalization, clustering, dimensionality reduction, integration across datasets, and differential expression workflows.",
        article = nil,
        aliases = { "Seurat", "Seurat R package", "Satija lab Seurat" },
        es = "Paquete de R para el control de calidad, análisis y exploración de datos de RNA-seq de célula única, que proporciona normalización, agrupamiento, reducción de dimensionalidad, integración entre conjuntos de datos y flujos de expresión diferencial.",
        zh = "用于单细胞 RNA-seq 数据质量控制、分析与探索的 R 包,提供归一化、聚类、降维、跨数据集整合以及差异表达分析等流程。",
        term_es = "Seurat",
        term_zh = "Seurat",
        aliases_es = { "paquete Seurat", "Seurat de R" },
        aliases_zh = { "Seurat R 包", "Seurat 工具包" },
    }
    
    data["sevenn"] = {
        short = "SevenNet (Scalable EquiVariance Enabled Neural Network) is an E(3)-equivariant graph neural network interatomic potential designed for large-scale, parallel molecular dynamics simulations of atomistic systems.",
        article = nil,
        aliases = { "SevenNet", "Scalable EquiVariance Enabled Neural Network" },
        es = "SevenNet (Scalable EquiVariance Enabled Neural Network) es un potencial interatómico de red neuronal de grafos equivariante bajo E(3), diseñado para simulaciones de dinámica molecular paralelas y a gran escala de sistemas atomísticos.",
        zh = "SevenNet(可扩展等变神经网络)是一种 E(3) 等变图神经网络原子间势,专为大规模并行原子尺度分子动力学模拟而设计。",
        term_es = "SevenNet",
        term_zh = "SevenNet",
        aliases_es = { "red neuronal equivariante escalable" },
        aliases_zh = { "可扩展等变神经网络" },
    }
    
    data["sgd with momentum"] = {
        short = "A variant of stochastic gradient descent that maintains a velocity vector accumulating past gradients with a decay factor, dampening oscillations across high-curvature directions and accelerating progress along consistent ones.",
        article = nil,
        aliases = { "momentum SGD", "stochastic gradient descent with momentum", "Polyak momentum", "heavy ball method", "SGDM" },
        es = "Variante del descenso por gradiente estocástico que mantiene un vector de velocidad que acumula gradientes pasados con un factor de descuento, amortiguando oscilaciones en direcciones de alta curvatura y acelerando el avance en las consistentes.",
        zh = "随机梯度下降的变体,维护一个以衰减因子累积历史梯度的速度向量,从而抑制高曲率方向上的振荡并在一致方向上加速前进。",
        term_es = "SGD con momento",
        term_zh = "带动量的SGD",
        aliases_es = { "SGD con momentum", "descenso por gradiente estocástico con momento", "método de la bola pesada", "momento de Polyak" },
        aliases_zh = { "SGD with momentum", "动量SGD", "重球法", "Polyak动量" },
    }
    
    data["sglang"] = {
        short = "A structured generation language and high-performance serving runtime for LLM programs, featuring RadixAttention prefix caching, a frontend embedded in Python, and built-in support for control flow and parallelism across LLM calls.",
        article = nil,
        aliases = { "SGLang", "Structured Generation Language" },
        es = "Lenguaje de generación estructurada y runtime de servicio de alto rendimiento para programas de LLM, que incluye caché de prefijos RadixAttention, un frontend embebido en Python y soporte integrado para control de flujo y paralelismo entre llamadas a LLM.",
        zh = "一种结构化生成语言及高性能LLM程序服务运行时,特点包括RadixAttention前缀缓存、内嵌于Python的前端,以及对LLM调用之间的控制流和并行的内置支持。",
        term_es = "SGLang",
        term_zh = "SGLang",
        aliases_es = { "Structured Generation Language" },
        aliases_zh = { "Structured Generation Language", "结构化生成语言" },
    }
    
    data["shallow fusion"] = {
        short = "A decoding technique in ASR and machine translation that linearly combines log-probabilities from the main sequence model with those of an external language model during beam search, without modifying the main model's parameters.",
        article = nil,
        aliases = { "shallow LM fusion" },
        es = "Técnica de decodificación en ASR y traducción automática que combina linealmente las log-probabilidades del modelo de secuencia principal con las de un modelo de lenguaje externo durante la búsqueda por haz, sin modificar los parámetros del modelo principal.",
        zh = "在 ASR 和机器翻译中使用的解码技术,在束搜索过程中将主序列模型的对数概率与外部语言模型的对数概率线性组合,而不改变主模型的参数。",
        term_es = "shallow fusion",
        term_zh = "浅层融合",
        aliases_es = { "fusión superficial", "fusión superficial con LM" },
        aliases_zh = { "浅融合", "浅层语言模型融合" },
    }
    
    data["shamir secret sharing"] = {
        short = "A (t,n)-threshold secret sharing scheme due to Adi Shamir (1979) in which the secret is encoded as the constant term of a degree-(t-1) polynomial over a finite field; any t shares reconstruct it via Lagrange interpolation, while fewer reveal nothing.",
        article = nil,
        aliases = { "Shamir Secret Sharing", "Shamir's secret sharing", "SSS", "Shamir scheme", "Shamir's secret sharing scheme", "(t,n) Shamir secret sharing" },
        es = "Esquema de compartición de secretos con umbral (t,n) propuesto por Adi Shamir (1979) en el que el secreto se codifica como el término constante de un polinomio de grado (t-1) sobre un cuerpo finito; cualquier conjunto de t participaciones lo reconstruye mediante interpolación de Lagrange, y menos no revelan nada.",
        zh = "由Adi Shamir于1979年提出的(t,n)门限秘密共享方案:将秘密编码为有限域上(t-1)次多项式的常数项,任意t份份额可通过拉格朗日插值重构秘密,而少于t份则不泄露任何信息。",
        term_es = "compartición de secretos de Shamir",
        term_zh = "Shamir秘密共享",
        aliases_es = { "esquema de Shamir", "compartición de secretos Shamir", "SSS", "compartición de secretos umbral de Shamir" },
        aliases_zh = { "Shamir秘密分享", "SSS", "Shamir方案", "Shamir门限秘密共享" },
    }
    
    data["shap"] = {
        short = "SHapley Additive exPlanations: an attribution framework that assigns each feature an importance value for a prediction based on Shapley values from cooperative game theory, providing a unified view of several explanation methods.",
        article = nil,
        aliases = { "SHAP", "SHapley Additive exPlanations", "Shapley additive explanations", "SHAP values" },
        es = "SHapley Additive exPlanations: marco de atribución que asigna a cada característica un valor de importancia para una predicción basado en los valores de Shapley de la teoría de juegos cooperativos, ofreciendo una visión unificada de varios métodos de explicación.",
        zh = "SHapley Additive exPlanations:一种归因框架,基于合作博弈论中的 Shapley 值为预测的每个特征分配重要性值,统一了多种解释方法的视角。",
        term_es = "SHAP",
        term_zh = "SHAP",
        aliases_es = { "SHAP", "valores SHAP", "explicaciones aditivas de Shapley" },
        aliases_zh = { "SHAP", "SHAP 值", "Shapley 加性解释" },
    }
    
    data["shap decision plot"] = {
        short = "A SHAP visualization that traces the cumulative contribution of features to a prediction along a single path, displaying how each feature pushes the model output from the base value toward the final prediction.",
        article = nil,
        aliases = { "SHAP decision plot", "decision plot (SHAP)" },
        es = "Visualización de SHAP que traza la contribución acumulada de las características a una predicción a lo largo de una única trayectoria, mostrando cómo cada característica empuja la salida del modelo desde el valor base hasta la predicción final.",
        zh = "一种 SHAP 可视化方法,沿着一条单一路径追踪各特征对预测的累计贡献,展示每个特征如何将模型输出从基线值推向最终预测。",
        term_es = "gráfico de decisión SHAP",
        term_zh = "SHAP 决策图",
        aliases_es = { "decision plot de SHAP", "gráfico de decisiones SHAP" },
        aliases_zh = { "SHAP decision plot", "SHAP 决策曲线" },
    }
    
    data["shap dependence plot"] = {
        short = "A SHAP visualization that plots a feature's value against its SHAP value across all samples, revealing the marginal effect of the feature on model output and potential interactions with other features.",
        article = nil,
        aliases = { "SHAP dependence plot", "dependence plot (SHAP)" },
        es = "Visualización de SHAP que representa el valor de una característica frente a su valor SHAP en todas las muestras, mostrando el efecto marginal de la característica sobre la salida del modelo y posibles interacciones con otras características.",
        zh = "SHAP 的一种可视化方法,将某特征的取值与其在所有样本上的 SHAP 值进行对比,揭示该特征对模型输出的边际效应及其与其他特征的潜在交互。",
        term_es = "gráfico de dependencia SHAP",
        term_zh = "SHAP 依赖图",
        aliases_es = { "SHAP dependence plot", "diagrama de dependencia SHAP" },
        aliases_zh = { "SHAP dependence plot", "SHAP 依赖性图" },
    }
    
    data["shap explainer"] = {
        short = "A component in the SHAP library that computes Shapley-value-based attributions for a model's predictions, with specialized variants (TreeExplainer, DeepExplainer, KernelExplainer, LinearExplainer) tailored to different model classes.",
        article = nil,
        aliases = { "SHAP explainer", "shap.Explainer", "Explainer (SHAP)" },
        es = "Componente de la biblioteca SHAP que calcula atribuciones basadas en valores de Shapley para las predicciones de un modelo, con variantes especializadas (TreeExplainer, DeepExplainer, KernelExplainer, LinearExplainer) adaptadas a distintas clases de modelos.",
        zh = "SHAP 库中用于为模型预测计算基于 Shapley 值归因的组件,针对不同模型类别提供 TreeExplainer、DeepExplainer、KernelExplainer、LinearExplainer 等专用变体。",
        term_es = "explicador SHAP",
        term_zh = "SHAP 解释器",
        aliases_es = { "SHAP explainer", "shap.Explainer" },
        aliases_zh = { "SHAP explainer", "SHAP Explainer" },
    }
    
    data["shap fairness"] = {
        short = "An application of SHAP attributions to fairness analysis that decomposes group-level disparities in model predictions into contributions from each input feature, helping identify which features drive disparate outcomes.",
        article = nil,
        aliases = { "SHAP fairness", "fair SHAP", "fairness via SHAP" },
        es = "Aplicación de las atribuciones SHAP al análisis de equidad que descompone las disparidades grupales en las predicciones del modelo en contribuciones de cada característica de entrada, ayudando a identificar qué características generan resultados desiguales.",
        zh = "将 SHAP 归因应用于公平性分析,将模型预测中群体层面的差异分解为各输入特征的贡献,从而识别造成结果不平等的特征。",
        term_es = "equidad SHAP",
        term_zh = "SHAP 公平性",
        aliases_es = { "SHAP fairness", "análisis de equidad con SHAP" },
        aliases_zh = { "SHAP fairness" },
    }
    
    data["shap force plot"] = {
        short = "A SHAP visualization for a single prediction that displays features as additive forces pushing the output above or below the base value, with arrow lengths proportional to each feature's SHAP value.",
        article = nil,
        aliases = { "SHAP force plot", "force plot (SHAP)" },
        es = "Visualización de SHAP para una predicción individual que muestra las características como fuerzas aditivas que empujan la salida por encima o por debajo del valor base, con longitudes de flecha proporcionales al valor SHAP de cada característica.",
        zh = "针对单个预测的 SHAP 可视化方法,将各特征表示为推动输出高于或低于基线值的可加力,箭头长度与各特征的 SHAP 值成正比。",
        term_es = "gráfico de fuerza SHAP",
        term_zh = "SHAP 力图",
        aliases_es = { "SHAP force plot", "diagrama de fuerza SHAP" },
        aliases_zh = { "SHAP force plot", "SHAP 力学图" },
    }
    
    data["shap interaction values"] = {
        short = "An extension of SHAP that decomposes a feature's attribution into a main effect and pairwise interaction effects with every other feature, based on the Shapley interaction index.",
        article = nil,
        aliases = { "SHAP interaction values", "SHAP interaction value", "shap_interaction_values" },
        es = "Extensión de SHAP que descompone la atribución de una característica en un efecto principal y efectos de interacción por pares con cada una de las demás características, basándose en el índice de interacción de Shapley.",
        zh = "SHAP 的扩展,基于 Shapley 交互指数将某特征的归因分解为主效应以及与其他每个特征的成对交互效应。",
        term_es = "valores de interacción SHAP",
        term_zh = "SHAP 交互值",
        aliases_es = { "SHAP interaction values", "valor de interacción SHAP" },
        aliases_zh = { "SHAP interaction values", "SHAP 相互作用值" },
    }
    
    data["shap summary plot"] = {
        short = "A SHAP visualization that ranks features by mean absolute SHAP value and shows their per-sample SHAP values as a beeswarm or bar chart, summarizing global feature importance and direction of effect.",
        article = nil,
        aliases = { "SHAP summary plot", "summary plot (SHAP)", "SHAP beeswarm plot" },
        es = "Visualización de SHAP que ordena las características por el valor SHAP absoluto medio y muestra sus valores SHAP por muestra como un diagrama de enjambre o de barras, resumiendo la importancia global de las características y la dirección de su efecto.",
        zh = "SHAP 的一种可视化方法,按平均绝对 SHAP 值对特征排序,并以蜂群图或条形图形式展示每个样本的 SHAP 值,从而概括全局特征重要性及其作用方向。",
        term_es = "gráfico de resumen SHAP",
        term_zh = "SHAP 汇总图",
        aliases_es = { "SHAP summary plot", "diagrama resumen SHAP" },
        aliases_zh = { "SHAP summary plot", "SHAP 摘要图", "SHAP 蜂群图" },
    }
    
    data["shap waterfall plot"] = {
        short = "A SHAP visualization that explains a single prediction by stacking each feature's SHAP contribution as horizontal bars, starting from the base value and accumulating to the model output.",
        article = nil,
        aliases = { "SHAP waterfall plot", "waterfall plot (SHAP)" },
        es = "Visualización de SHAP que explica una predicción individual apilando la contribución SHAP de cada característica como barras horizontales, partiendo del valor base y acumulándose hasta la salida del modelo.",
        zh = "SHAP 的一种可视化方法,通过将每个特征的 SHAP 贡献以水平条形堆叠,从基线值开始累加至模型输出,从而解释单个预测。",
        term_es = "gráfico de cascada SHAP",
        term_zh = "SHAP 瀑布图",
        aliases_es = { "SHAP waterfall plot", "diagrama de cascada SHAP" },
        aliases_zh = { "SHAP waterfall plot" },
    }
    
    data["shap-cam"] = {
        short = "A class activation mapping technique that uses SHAP values to weight feature maps in convolutional neural networks, producing visual explanations grounded in Shapley-value attribution rather than gradients.",
        article = nil,
        aliases = { "SHAP-CAM", "SHAPCAM", "Shap-CAM" },
        es = "Técnica de mapeo de activación de clase que utiliza valores SHAP para ponderar los mapas de características en redes neuronales convolucionales, produciendo explicaciones visuales fundamentadas en la atribución por valores de Shapley en lugar de gradientes.",
        zh = "一种类激活映射技术,使用 SHAP 值对卷积神经网络中的特征图进行加权,生成基于 Shapley 值归因(而非梯度)的可视化解释。",
        term_es = "SHAP-CAM",
        term_zh = "SHAP-CAM",
        aliases_es = { "SHAP-CAM", "Shap-CAM" },
        aliases_zh = { "SHAP-CAM", "Shap-CAM" },
    }
    
    data["shap-e"] = {
        short = "An OpenAI conditional generative model that produces 3D assets as parameters of implicit functions (signed distance fields and neural radiance fields), enabling text-to-3D and image-to-3D synthesis.",
        article = nil,
        aliases = { "Shap-E", "Shap E", "OpenAI Shap-E" },
        es = "Modelo generativo condicional de OpenAI que produce activos 3D como parámetros de funciones implícitas (campos de distancia con signo y campos de radiancia neuronales), permitiendo la síntesis de texto a 3D e imagen a 3D.",
        zh = "OpenAI推出的条件生成模型,将3D资产以隐式函数(带符号距离场和神经辐射场)参数的形式生成,可实现文本到3D和图像到3D的合成。",
        term_es = "Shap-E",
        term_zh = "Shap-E",
        aliases_es = { "Shap E" },
        aliases_zh = { "Shap E", "OpenAI Shap-E" },
    }
    
    data["shapley axioms"] = {
        short = "The four properties — efficiency, symmetry, dummy (null player), and additivity (linearity) — that uniquely characterize the Shapley value as a fair allocation rule in cooperative game theory.",
        article = nil,
        aliases = { "Shapley axioms", "axioms of the Shapley value", "Shapley value axioms" },
        es = "Las cuatro propiedades —eficiencia, simetría, jugador nulo (dummy) y aditividad (linealidad)— que caracterizan de forma única al valor de Shapley como regla de asignación justa en la teoría de juegos cooperativos.",
        zh = "唯一刻画 Shapley 值作为合作博弈论中公平分配规则的四条性质:有效性、对称性、虚拟玩家(dummy)以及可加性(线性)。",
        term_es = "axiomas de Shapley",
        term_zh = "Shapley 公理",
        aliases_es = { "Shapley axioms", "axiomas del valor de Shapley" },
        aliases_zh = { "Shapley axioms", "Shapley 值公理" },
    }
    
    data["shapley dummy axiom"] = {
        short = "A Shapley value axiom stating that a player whose marginal contribution to every coalition is zero must be assigned a Shapley value of zero. In feature attribution, an irrelevant feature receives no credit.",
        article = nil,
        aliases = { "dummy axiom", "null player axiom", "Shapley null player axiom", "dummy player axiom" },
        es = "Axioma del valor de Shapley que establece que un jugador cuya contribución marginal a toda coalición es cero debe recibir un valor de Shapley nulo. En atribución de características, una característica irrelevante no recibe crédito alguno.",
        zh = "Shapley 值的一条公理:若某玩家对任何联盟的边际贡献均为零,则其 Shapley 值必须为零。在特征归因中,无关特征不获得任何归因。",
        term_es = "axioma de jugador nulo (dummy) de Shapley",
        term_zh = "Shapley 虚拟玩家公理",
        aliases_es = { "axioma del jugador nulo", "axioma dummy", "dummy axiom" },
        aliases_zh = { "dummy axiom", "虚拟玩家公理", "零玩家公理" },
    }
    
    data["shapley efficiency axiom"] = {
        short = "A Shapley value axiom requiring that the sum of all players' Shapley values equals the value of the grand coalition. In feature attribution, this ensures attributions sum to the difference between the prediction and the baseline.",
        article = nil,
        aliases = { "efficiency axiom", "Shapley efficiency", "completeness axiom (Shapley)" },
        es = "Axioma del valor de Shapley que exige que la suma de los valores de Shapley de todos los jugadores sea igual al valor de la coalición total. En atribución de características, garantiza que las atribuciones sumen la diferencia entre la predicción y la línea base.",
        zh = "Shapley 值的一条公理:所有玩家的 Shapley 值之和等于总联盟的价值。在特征归因中,这保证归因之和等于预测值与基线之差。",
        term_es = "axioma de eficiencia de Shapley",
        term_zh = "Shapley 有效性公理",
        aliases_es = { "axioma de eficiencia", "efficiency axiom" },
        aliases_zh = { "efficiency axiom", "有效性公理", "完备性公理" },
    }
    
    data["shapley flow"] = {
        short = "A graph-based extension of Shapley values that attributes a model's prediction to edges in a causal or computational graph, propagating credit along directed pathways rather than to features alone.",
        article = nil,
        aliases = { "Shapley flow", "Shapley flows" },
        es = "Extensión basada en grafos de los valores de Shapley que atribuye la predicción de un modelo a las aristas de un grafo causal o computacional, propagando el crédito a lo largo de caminos dirigidos en lugar de únicamente a las características.",
        zh = "Shapley 值的一种基于图的扩展,将模型预测归因到因果图或计算图中的边,沿有向路径传播归因,而不仅归因于特征本身。",
        term_es = "Shapley flow",
        term_zh = "Shapley 流",
        aliases_es = { "Shapley flow", "flujo de Shapley" },
        aliases_zh = { "Shapley flow", "Shapley flow(沙普利流)" },
    }
    
    data["shapley interaction index"] = {
        short = "A generalization of the Shapley value that distributes credit not only to individual players but also to subsets of players, quantifying the joint contribution and synergy or redundancy among features.",
        article = nil,
        aliases = { "Shapley interaction index", "SII", "Shapley interaction value" },
        es = "Generalización del valor de Shapley que distribuye el crédito no solo entre jugadores individuales sino también entre subconjuntos de jugadores, cuantificando la contribución conjunta y la sinergia o redundancia entre características.",
        zh = "Shapley 值的一种推广,将归因不仅分配给单个玩家,还分配给玩家子集,从而量化特征之间的联合贡献以及协同或冗余关系。",
        term_es = "índice de interacción de Shapley",
        term_zh = "Shapley 交互指数",
        aliases_es = { "Shapley interaction index", "SII", "índice de interacción Shapley" },
        aliases_zh = { "Shapley interaction index", "SII", "Shapley 相互作用指数" },
    }
    
    data["shapley linearity axiom"] = {
        short = "A Shapley value axiom stating that the Shapley value of a sum of two cooperative games equals the sum of their individual Shapley values, ensuring linear aggregation of payoffs.",
        article = nil,
        aliases = { "linearity axiom", "additivity axiom", "Shapley additivity", "Shapley linearity" },
        es = "Axioma del valor de Shapley que establece que el valor de Shapley de la suma de dos juegos cooperativos equivale a la suma de sus valores de Shapley individuales, garantizando la agregación lineal de pagos.",
        zh = "Shapley 值的一条公理:两个合作博弈之和的 Shapley 值等于各自 Shapley 值之和,从而保证收益的线性聚合。",
        term_es = "axioma de linealidad de Shapley",
        term_zh = "Shapley 线性公理",
        aliases_es = { "axioma de linealidad", "axioma de aditividad", "linearity axiom" },
        aliases_zh = { "linearity axiom", "additivity axiom", "线性公理", "可加性公理" },
    }
    
    data["shapley sampling"] = {
        short = "A Monte Carlo approximation of the Shapley value that estimates feature attributions by averaging marginal contributions over randomly sampled coalitions or feature permutations.",
        article = nil,
        aliases = { "Shapley sampling", "Monte Carlo Shapley", "sampling-based Shapley" },
        es = "Aproximación Monte Carlo del valor de Shapley que estima las atribuciones de las características promediando las contribuciones marginales sobre coaliciones o permutaciones de características muestreadas aleatoriamente.",
        zh = "Shapley 值的一种蒙特卡洛近似方法,通过对随机采样的联盟或特征排列上的边际贡献取平均来估计特征归因。",
        term_es = "muestreo de Shapley",
        term_zh = "Shapley 采样",
        aliases_es = { "Shapley sampling", "Shapley Monte Carlo", "muestreo Monte Carlo de Shapley" },
        aliases_zh = { "Shapley sampling", "Shapley 抽样", "蒙特卡洛 Shapley" },
    }
    
    data["shapley symmetry axiom"] = {
        short = "A Shapley value axiom stating that two players who contribute equally to every coalition must receive the same Shapley value. In feature attribution, interchangeable features get equal credit.",
        article = nil,
        aliases = { "symmetry axiom", "Shapley symmetry", "equal treatment axiom" },
        es = "Axioma del valor de Shapley que establece que dos jugadores que contribuyen por igual a cada coalición deben recibir el mismo valor de Shapley. En atribución de características, las características intercambiables reciben el mismo crédito.",
        zh = "Shapley 值的一条公理:若两玩家对任意联盟的贡献均相同,则其 Shapley 值必须相等。在特征归因中,可互换的特征获得相同的归因。",
        term_es = "axioma de simetría de Shapley",
        term_zh = "Shapley 对称性公理",
        aliases_es = { "axioma de simetría", "symmetry axiom" },
        aliases_zh = { "symmetry axiom", "对称性公理" },
    }
    
    data["shapley taylor index"] = {
        short = "A higher-order generalization of the Shapley value that uses a Taylor-style expansion of the value function to attribute predictions to interactions of arbitrary order while preserving Shapley axioms.",
        article = nil,
        aliases = { "Shapley Taylor index", "Shapley-Taylor interaction index", "STI", "Shapley Taylor interaction" },
        es = "Generalización de orden superior del valor de Shapley que utiliza una expansión de tipo Taylor de la función de valor para atribuir predicciones a interacciones de orden arbitrario, preservando los axiomas de Shapley.",
        zh = "Shapley 值的高阶推广,利用价值函数的泰勒式展开将预测归因于任意阶交互,同时保留 Shapley 公理。",
        term_es = "índice de Shapley–Taylor",
        term_zh = "Shapley–Taylor 指数",
        aliases_es = { "Shapley Taylor index", "índice de interacción Shapley-Taylor", "STI" },
        aliases_zh = { "Shapley Taylor index", "STI", "Shapley–Taylor 交互指数" },
    }
    
    data["shapley value"] = {
        short = "A solution concept from cooperative game theory that allocates a coalition's total payoff to each player as the average of their marginal contributions across all possible orderings, uniquely satisfying efficiency, symmetry, dummy, and linearity axioms.",
        article = nil,
        aliases = { "Shapley value", "Shapley values", "Shapley payoff" },
        es = "Concepto de solución de la teoría de juegos cooperativos que asigna a cada jugador una parte del pago total de la coalición igual al promedio de sus contribuciones marginales sobre todos los órdenes posibles, satisfaciendo de forma única los axiomas de eficiencia, simetría, jugador nulo y linealidad.",
        zh = "合作博弈论中的一种解概念,将联盟总收益按每位玩家在所有可能排列下边际贡献的平均值进行分配,是唯一同时满足有效性、对称性、虚拟玩家和线性公理的方案。",
        term_es = "valor de Shapley",
        term_zh = "Shapley 值",
        aliases_es = { "Shapley value", "valores de Shapley" },
        aliases_zh = { "Shapley value", "沙普利值", "Shapley 值(沙普利值)" },
    }
    
    data["shapley value contribution"] = {
        short = "An attribution method, derived from cooperative game theory, that quantifies a participant's contribution to a coalition by averaging their marginal contributions across all possible orderings; in federated learning it estimates each client's value to the trained model.",
        article = nil,
        aliases = { "Shapley Value Contribution", "Shapley value", "Shapley contribution", "Shapley-value attribution", "Shapley-value-based contribution" },
        es = "Método de atribución, derivado de la teoría de juegos cooperativos, que cuantifica la contribución de un participante a una coalición promediando sus contribuciones marginales sobre todos los órdenes posibles; en aprendizaje federado estima el valor de cada cliente para el modelo entrenado.",
        zh = "源自合作博弈论的归因方法,通过对所有可能排列下的边际贡献取平均来量化参与者对联盟的贡献;在联邦学习中用于估计每个客户端对训练模型的价值。",
        term_es = "contribución por valor de Shapley",
        term_zh = "Shapley值贡献",
        aliases_es = { "valor de Shapley", "atribución por valor de Shapley", "contribución de Shapley" },
        aliases_zh = { "Shapley值", "Shapley贡献", "基于Shapley值的归因" },
    }
    
    data["shapley value sampling"] = {
        short = "A specific Monte Carlo estimator that approximates the Shapley value by sampling random permutations of features and averaging the marginal contribution of each feature in the sampled order.",
        article = nil,
        aliases = { "Shapley value sampling", "permutation sampling Shapley", "SVS" },
        es = "Estimador Monte Carlo específico que aproxima el valor de Shapley muestreando permutaciones aleatorias de las características y promediando la contribución marginal de cada una en el orden muestreado.",
        zh = "一种具体的蒙特卡洛估计方法,通过对特征随机排列进行采样,并对每个特征在采样顺序下的边际贡献取平均,来近似 Shapley 值。",
        term_es = "muestreo del valor de Shapley",
        term_zh = "Shapley 值采样",
        aliases_es = { "Shapley value sampling", "muestreo por permutaciones de Shapley", "SVS" },
        aliases_zh = { "Shapley value sampling", "SVS", "Shapley 值抽样" },
    }
    
    data["shapr"] = {
        short = "An R package that computes Shapley-value explanations for black-box predictive models, with explicit handling of feature dependence via conditional and empirical sampling schemes.",
        article = nil,
        aliases = { "shapr (R package)", "SHAPR", "shapr package" },
        es = "Paquete de R que calcula explicaciones basadas en el valor de Shapley para modelos predictivos de caja negra, con manejo explícito de la dependencia entre características mediante esquemas de muestreo condicional y empírico.",
        zh = "一个 R 语言软件包,为黑盒预测模型计算基于 Shapley 值的解释,并通过条件采样和经验采样方案显式处理特征依赖。",
        term_es = "shapr",
        term_zh = "shapr",
        aliases_es = { "shapr", "paquete shapr de R" },
        aliases_zh = { "shapr", "shapr 包" },
    }
    
    data["shard server"] = {
        short = "In a parameter-server or sharded distributed training architecture, a server node that holds and updates one partition (shard) of the model parameters or training data, communicating with workers that pull and push only the relevant portion of state.",
        article = nil,
        aliases = { "Shard Server", "parameter-server shard", "sharded parameter server", "shard node", "parameter shard server" },
        es = "En una arquitectura de servidor de parámetros o de entrenamiento distribuido por particiones, nodo servidor que mantiene y actualiza una partición (shard) de los parámetros del modelo o de los datos de entrenamiento, comunicándose con los trabajadores que solo extraen y empujan la porción relevante del estado.",
        zh = "在参数服务器或分片式分布式训练架构中,负责持有并更新模型参数或训练数据某一分区(分片)的服务器节点,与仅拉取和推送相关状态部分的工作节点通信。",
        term_es = "servidor de shard",
        term_zh = "分片服务器",
        aliases_es = { "shard de servidor de parámetros", "servidor de partición", "nodo shard" },
        aliases_zh = { "参数服务器分片", "分片节点", "参数分片服务器" },
    }
    
    data["share-gpt4v"] = {
        short = "A 1.2M-sample image-text dataset whose detailed captions were generated by GPT-4V, used to fine-tune open multimodal models such as LLaVA-1.5 and ShareGPT4V-7B for higher-fidelity visual descriptions.",
        article = nil,
        aliases = { "ShareGPT4V", "share-gpt4v dataset", "ShareGPT-4V", "ShareGPT 4V" },
        es = "Conjunto de datos imagen-texto de 1,2 M de muestras cuyas descripciones detalladas fueron generadas por GPT-4V, utilizado para ajustar modelos multimodales abiertos como LLaVA-1.5 y ShareGPT4V-7B en pos de descripciones visuales más fieles.",
        zh = "包含 120 万对图文样本的数据集,其详细描述由 GPT-4V 生成,被用于微调 LLaVA-1.5、ShareGPT4V-7B 等开源多模态模型,以提升视觉描述的保真度。",
        term_es = "ShareGPT4V",
        term_zh = "ShareGPT4V",
        aliases_es = { "ShareGPT-4V" },
        aliases_zh = { "ShareGPT-4V", "ShareGPT 4V" },
    }
    
    data["share-gpt4video"] = {
        short = "A video-text dataset whose dense captions are generated by GPT-4V (Vision) over sampled video frames, used for instruction tuning of video-language models such as ShareGPT4Video.",
        article = nil,
        aliases = { "ShareGPT4Video", "ShareGPT-4Video", "share-gpt4video dataset", "ShareGPT 4 Video" },
        es = "Conjunto de datos video-texto cuyas descripciones densas son generadas por GPT-4V (Vision) sobre fotogramas muestreados, usado para el ajuste por instrucciones de modelos video-lenguaje como ShareGPT4Video.",
        zh = "视频-文本数据集,其密集描述由 GPT-4V(Vision)针对采样视频帧生成,用于 ShareGPT4Video 等视频-语言模型的指令微调。",
        term_es = "ShareGPT4Video",
        term_zh = "ShareGPT4Video",
        aliases_es = { "ShareGPT-4Video" },
        aliases_zh = { "ShareGPT-4Video", "ShareGPT 4 Video" },
    }
    
    data["shared embedding space"] = {
        short = "A latent vector space in which inputs from different modalities or sources are projected so that semantically related items lie close together. Central to cross-modal retrieval, zero-shot transfer, and multimodal contrastive learning.",
        article = nil,
        aliases = { "joint embedding space", "common embedding space", "shared latent space", "joint latent space", "unified embedding space" },
        es = "Espacio latente vectorial en el que se proyectan entradas de distintas modalidades o fuentes para que los elementos semánticamente relacionados queden cercanos. Es central para la recuperación cruzada, la transferencia zero-shot y el aprendizaje contrastivo multimodal.",
        zh = "将不同模态或来源的输入映射到同一潜在向量空间,使语义相关的项目彼此靠近,是跨模态检索、零样本迁移和多模态对比学习的核心概念。",
        term_es = "espacio de embeddings compartido",
        term_zh = "共享嵌入空间",
        aliases_es = { "espacio latente compartido", "espacio de incrustación común", "espacio latente conjunto" },
        aliases_zh = { "联合嵌入空间", "公共嵌入空间", "共享潜在空间", "统一嵌入空间" },
    }
    
    data["shared experts"] = {
        short = "In mixture-of-experts architectures (notably DeepSeekMoE), a small set of experts that are activated for every token alongside the routed experts, capturing common knowledge and freeing the routed experts to specialize.",
        article = nil,
        aliases = { "shared expert", "DeepSeekMoE shared experts", "always-on experts" },
        es = "En arquitecturas de mezcla de expertos (especialmente DeepSeekMoE), un pequeño conjunto de expertos que se activa para cada token junto con los expertos enrutados, capturando conocimiento común y permitiendo que los expertos enrutados se especialicen.",
        zh = "在混合专家(MoE)架构中(尤其是DeepSeekMoE),一小组对每个词元都被激活的专家,与路由专家并行使用,用于捕获通用知识,使路由专家能够专注于特化。",
        term_es = "expertos compartidos",
        term_zh = "共享专家",
        aliases_es = { "experto compartido", "shared experts" },
        aliases_zh = { "共享专家网络", "DeepSeekMoE 共享专家" },
    }
    
    data["shared representation federated"] = {
        short = "A personalized federated learning approach in which clients jointly train a shared representation (typically the lower layers or encoder) while each client keeps a personalized head, allowing common features to be aggregated globally and task-specific layers to remain local.",
        article = nil,
        aliases = { "Shared Representation Federated", "shared-representation federated learning", "FedRep", "federated shared representation", "shared representation FL" },
        es = "Enfoque de aprendizaje federado personalizado en el que los clientes entrenan conjuntamente una representación compartida (normalmente las capas inferiores o el codificador), mientras cada cliente conserva una cabeza personalizada, permitiendo agregar globalmente las características comunes y mantener locales las capas específicas de la tarea.",
        zh = "一种个性化联邦学习方法:客户端共同训练共享表示(通常为底层或编码器),同时各自保留个性化的预测头,从而在全局聚合通用特征的同时,将任务特定层保留在本地。",
        term_es = "representación compartida federada",
        term_zh = "联邦共享表示",
        aliases_es = { "FedRep", "aprendizaje federado con representación compartida", "FL con representación compartida" },
        aliases_zh = { "FedRep", "共享表示联邦学习", "联邦共享表征" },
    }
    
    data["sharegpt"] = {
        short = "A dataset and conversation format originating from a community website that collected ChatGPT chat transcripts; the multi-turn JSON schema (\"conversations\" with \"from\"/\"value\" fields) is now widely used for fine-tuning chat models.",
        article = nil,
        aliases = { "ShareGPT", "ShareGPT format", "sharegpt format" },
        es = "Conjunto de datos y formato de conversaciones originado en un sitio web comunitario que recopilaba transcripciones de chats de ChatGPT; su esquema JSON multi-turno (\"conversations\" con campos \"from\"/\"value\") se utiliza ampliamente para el ajuste fino de modelos de chat.",
        zh = "源自一个收集ChatGPT聊天记录的社区网站的数据集和对话格式;其多轮JSON结构(\"conversations\"中包含\"from\"和\"value\"字段)现已广泛用于聊天模型的微调。",
        term_es = "ShareGPT",
        term_zh = "ShareGPT",
        aliases_es = { "formato ShareGPT" },
        aliases_zh = { "ShareGPT 格式", "sharegpt 格式" },
    }
    
    data["sharp minimum"] = {
        short = "A minimum of the loss surrounded by high curvature, so small perturbations of the parameters cause large increases in loss. Often associated with poorer generalization.",
        article = nil,
        aliases = { "sharp minima" },
        es = "Mínimo de la pérdida rodeado de alta curvatura, donde pequeñas perturbaciones de los parámetros causan grandes aumentos en la pérdida. Suele asociarse a peor generalización.",
        zh = "损失曲面上曲率较大的极小值,参数的微小扰动会引起损失大幅上升,通常与较差的泛化能力相关。",
        term_es = "mínimo agudo",
        term_zh = "尖锐极小值",
        aliases_es = { "mínimos agudos" },
        aliases_zh = { "陡峭极小值" },
    }
    
    data["sharp regression discontinuity"] = {
        short = "A regression discontinuity design in which treatment status is a deterministic function of whether a running variable crosses a known threshold, so the probability of treatment jumps from zero to one at the cutoff.",
        article = nil,
        aliases = { "sharp RDD", "sharp RD", "sharp regression discontinuity design" },
        es = "Diseño de regresión discontinua en el que el estado de tratamiento es una función determinista de si una variable de asignación cruza un umbral conocido, de modo que la probabilidad de tratamiento salta de cero a uno en el corte.",
        zh = "一种断点回归设计,其中处理状态由运行变量是否跨越已知阈值确定地决定,处理概率在断点处由 0 跳跃到 1。",
        term_es = "regresión discontinua nítida",
        term_zh = "精确断点回归",
        aliases_es = { "RDD nítido", "diseño de regresión discontinua nítido", "regresión discontinua aguda" },
        aliases_zh = { "清晰断点回归", "精确回归不连续设计", "Sharp RDD" },
    }
    
    data["sherpa hpo"] = {
        short = "Sherpa is an open-source Python library for hyperparameter optimization in machine learning, supporting Bayesian optimization, population-based training, and asynchronous successive halving with a dashboard for monitoring trials.",
        article = nil,
        aliases = { "Sherpa", "Sherpa library", "Sherpa HPO" },
        es = "Sherpa es una biblioteca Python de código abierto para optimización de hiperparámetros, con soporte para optimización bayesiana, entrenamiento basado en población y halving sucesivo asíncrono, e incluye un panel para monitorear pruebas.",
        zh = "Sherpa 是一个用于机器学习超参数优化的开源 Python 库,支持贝叶斯优化、基于种群的训练以及异步逐次减半,并提供监控试验的仪表板。",
        term_es = "Sherpa HPO",
        term_zh = "Sherpa HPO",
        aliases_es = { "Sherpa", "biblioteca Sherpa" },
        aliases_zh = { "Sherpa", "Sherpa 库" },
    }
    
    data["shieldgemma"] = {
        short = "A family of safety content classifiers from Google built on top of Gemma, designed to detect policy-violating content (harassment, dangerous content, hate speech, sexually explicit material) in user prompts and model responses.",
        article = nil,
        aliases = { "ShieldGemma", "Shield Gemma" },
        es = "Familia de clasificadores de seguridad de contenido de Google construidos sobre Gemma, diseñados para detectar contenido que viola políticas (acoso, contenido peligroso, discurso de odio, material sexualmente explícito) en prompts de usuarios y respuestas del modelo.",
        zh = "Google基于Gemma构建的安全内容分类器系列,用于检测用户提示和模型响应中的违规内容(骚扰、危险内容、仇恨言论、色情材料)。",
        term_es = "ShieldGemma",
        term_zh = "ShieldGemma",
        aliases_es = { "Shield Gemma" },
        aliases_zh = { "Shield Gemma" },
    }
    
    data["shifted attribution test"] = {
        short = "A diagnostic for feature-attribution methods that perturbs inputs in a controlled way and checks whether the resulting attributions shift in the expected direction and magnitude, used to detect attribution unreliability.",
        article = nil,
        aliases = { "shifted attribution test", "attribution shift test", "input shift attribution test" },
        es = "Diagnóstico para métodos de atribución de características que perturba las entradas de forma controlada y comprueba si las atribuciones resultantes se desplazan en la dirección y magnitud esperadas, usado para detectar atribuciones poco fiables.",
        zh = "一种用于特征归因方法的诊断方法,对输入进行受控扰动并检查所得归因是否在预期方向和量级上发生位移,用于检测归因的不可靠性。",
        term_es = "prueba de atribución desplazada",
        term_zh = "归因位移检验",
        aliases_es = { "shifted attribution test", "test de atribución desplazada" },
        aliases_zh = { "shifted attribution test", "归因偏移测试" },
    }
    
    data["shikra"] = {
        short = "A multimodal large language model introduced in 2023 that adds bounding-box input and output capabilities to a vision-language LLM, enabling natural-language referring dialogue with explicit spatial coordinates.",
        article = nil,
        aliases = { "Shikra", "Shikra MLLM", "Shikra model" },
        es = "Modelo multimodal grande de lenguaje presentado en 2023 que añade entrada y salida de cajas delimitadoras a un LLM visión-lenguaje, permitiendo diálogos referenciales en lenguaje natural con coordenadas espaciales explícitas.",
        zh = "2023 年提出的多模态大语言模型,在视觉-语言大模型基础上加入边界框的输入与输出能力,支持带显式空间坐标的自然语言指代对话。",
        term_es = "Shikra",
        term_zh = "Shikra",
        aliases_es = { "modelo Shikra" },
        aliases_zh = { "Shikra 模型", "Shikra MLLM" },
    }
    
    data["short-read sequencing"] = {
        short = "DNA or RNA sequencing technology, typified by Illumina platforms, that produces reads on the order of 50-300 base pairs. Offers high accuracy and throughput at low cost, but limits resolution of repetitive regions and structural variants.",
        article = nil,
        aliases = { "short read sequencing", "Illumina sequencing", "next-generation sequencing", "NGS short-read", "short reads" },
        es = "Tecnología de secuenciación de ADN o ARN, ejemplificada por las plataformas de Illumina, que produce lecturas del orden de 50-300 pares de bases. Ofrece alta precisión y rendimiento a bajo costo, pero limita la resolución de regiones repetitivas y variantes estructurales.",
        zh = "以 Illumina 平台为代表的 DNA 或 RNA 测序技术,产生约 50–300 碱基对的读段。具有高准确性、高通量和低成本,但在解析重复区域和结构变异方面受限。",
        term_es = "secuenciación de lecturas cortas",
        term_zh = "短读长测序",
        aliases_es = { "secuenciación short-read", "secuenciación de Illumina", "NGS de lecturas cortas" },
        aliases_zh = { "短读测序", "Illumina 测序", "短片段测序" },
    }
    
    data["short-time fourier transform"] = {
        short = "A time-frequency representation that computes Fourier transforms over successive overlapping windows of a signal, producing a spectrogram that captures how spectral content evolves over time.",
        article = nil,
        aliases = { "STFT", "short time Fourier transform", "short-term Fourier transform" },
        es = "Representación tiempo-frecuencia que calcula transformadas de Fourier sobre ventanas sucesivas y solapadas de la señal, produciendo un espectrograma que muestra cómo evoluciona el contenido espectral en el tiempo.",
        zh = "一种时频表示,对信号的连续重叠窗口计算傅里叶变换,得到反映频谱内容随时间变化的频谱图。",
        term_es = "transformada de Fourier de tiempo corto",
        term_zh = "短时傅里叶变换",
        aliases_es = { "STFT", "transformada de Fourier en ventana corta" },
        aliases_zh = { "STFT", "短时傅立叶变换" },
    }
    
    data["shortcut learning detection"] = {
        short = "Techniques that identify when a model relies on superficial or spurious features (shortcuts) instead of task-relevant signals, often using attribution maps, counterfactual probes, or out-of-distribution evaluations.",
        article = nil,
        aliases = { "shortcut learning detection", "shortcut detection", "spurious shortcut detection" },
        es = "Técnicas que identifican cuándo un modelo se apoya en características superficiales o espurias (atajos) en lugar de señales relevantes para la tarea, utilizando a menudo mapas de atribución, sondas contrafactuales o evaluaciones fuera de distribución.",
        zh = "用于识别模型依赖肤浅或虚假特征(捷径)而非任务相关信号的技术,常借助归因图、反事实探针或分布外评估实现。",
        term_es = "detección de aprendizaje por atajos",
        term_zh = "捷径学习检测",
        aliases_es = { "detección de atajos", "detección de aprendizaje por atajos", "shortcut learning detection" },
        aliases_zh = { "shortcut learning detection", "捷径检测", "捷径学习识别" },
    }
    
    data["shotgun metagenomics"] = {
        short = "An untargeted sequencing approach in which all DNA in an environmental or clinical sample is fragmented and sequenced, allowing taxonomic profiling, functional gene content analysis, and assembly of metagenome-assembled genomes (MAGs).",
        article = nil,
        aliases = { "metagenomic shotgun sequencing", "whole-metagenome shotgun sequencing", "WMS", "shotgun sequencing of microbiomes" },
        es = "Enfoque de secuenciación no dirigida en el que todo el ADN de una muestra ambiental o clínica se fragmenta y secuencia, permitiendo el perfilado taxonómico, el análisis de contenido funcional de genes y el ensamblaje de genomas a partir del metagenoma (MAGs).",
        zh = "一种非靶向测序方法,将环境或临床样本中的全部 DNA 片段化并测序,可用于分类学分析、功能基因含量分析以及组装宏基因组组装基因组(MAGs)。",
        term_es = "metagenómica shotgun",
        term_zh = "鸟枪法宏基因组学",
        aliases_es = { "secuenciación shotgun de metagenomas", "metagenómica de escopeta", "WMS" },
        aliases_zh = { "霰弹法宏基因组学", "全宏基因组鸟枪测序", "WMS" },
    }
    
    data["show and tell"] = {
        short = "An image captioning model that uses a convolutional neural network to encode an image into a fixed-length vector and an LSTM decoder to generate a natural language caption. Introduced by Vinyals et al. (2015) as one of the first end-to-end neural captioning systems.",
        article = nil,
        aliases = { "Show and Tell", "NIC", "Neural Image Caption", "neural image caption generator", "Vinyals captioning model" },
        es = "Modelo de subtitulado de imágenes que usa una red neuronal convolucional para codificar la imagen en un vector de longitud fija y un decodificador LSTM para generar el subtítulo. Introducido por Vinyals et al. (2015) como uno de los primeros sistemas neuronales de subtitulado entrenados de extremo a extremo.",
        zh = "一种图像字幕生成模型,使用卷积神经网络将图像编码为定长向量,再由 LSTM 解码器生成自然语言描述。由 Vinyals 等人(2015)提出,是最早的端到端神经图像字幕系统之一。",
        term_es = "Show and Tell",
        term_zh = "Show and Tell",
        aliases_es = { "NIC", "generador neuronal de subtítulos de imagen" },
        aliases_zh = { "NIC", "神经图像字幕生成器" },
    }
    
    data["show attend and tell"] = {
        short = "An image captioning model that augments the encoder-decoder architecture with a soft or hard visual attention mechanism, allowing the decoder to focus on different image regions when generating each word. Introduced by Xu et al. (2015).",
        article = nil,
        aliases = { "Show, Attend and Tell", "Xu attention captioning", "soft-attention captioning", "visual attention captioning" },
        es = "Modelo de subtitulado de imágenes que añade un mecanismo de atención visual suave o dura a la arquitectura codificador-decodificador, permitiendo que el decodificador enfoque distintas regiones de la imagen al generar cada palabra. Introducido por Xu et al. (2015).",
        zh = "一种图像字幕生成模型,在编码器-解码器架构中加入软注意力或硬注意力机制,使解码器在生成每个单词时关注图像的不同区域。由 Xu 等人(2015)提出。",
        term_es = "Show, Attend and Tell",
        term_zh = "Show, Attend and Tell",
        aliases_es = { "subtitulado con atención visual" },
        aliases_zh = { "视觉注意力字幕生成" },
    }
    
    data["show-1"] = {
        short = "A hybrid text-to-video generation model that combines pixel-based and latent-based diffusion: a pixel diffusion model produces a low-resolution keyframe sequence with strong text alignment, and a latent diffusion model upsamples it for high resolution.",
        article = nil,
        aliases = { "Show-1", "show1", "Show1" },
        es = "Modelo híbrido de generación de video a partir de texto que combina difusión en píxeles y en espacio latente: un modelo de difusión en píxeles produce una secuencia de fotogramas clave de baja resolución con buen alineamiento textual, y un modelo de difusión latente la sobremuestrea a alta resolución.",
        zh = "一种文本到视频生成的混合扩散模型:先用像素空间扩散生成与文本高度对齐的低分辨率关键帧序列,再用潜空间扩散模型将其上采样至高分辨率。",
        term_es = "Show-1",
        term_zh = "Show-1",
        aliases_es = { "Show1" },
        aliases_zh = { "Show1" },
    }
    
    data["show-o"] = {
        short = "A unified transformer that handles both multimodal understanding and generation, combining autoregressive next-token prediction for text with discrete diffusion for images within a single model and vocabulary.",
        article = nil,
        aliases = { "Show-o", "Show-O", "ShowO", "Show o" },
        es = "Transformador unificado que aborda comprensión y generación multimodal, combinando predicción autorregresiva del siguiente token para texto con difusión discreta para imágenes dentro de un único modelo y vocabulario.",
        zh = "一种统一的 Transformer,可同时处理多模态理解与生成,在同一模型与词表中结合用于文本的自回归下一 token 预测与用于图像的离散扩散。",
        term_es = "Show-o",
        term_zh = "Show-o",
        aliases_es = { "Show-O", "ShowO" },
        aliases_zh = { "Show-O", "ShowO" },
    }
    
    data["shufflenet"] = {
        short = "A family of efficient convolutional networks for mobile devices, introduced by Megvii in 2017 (V1) and 2018 (V2), that uses pointwise group convolutions and channel shuffle operations to reduce computation.",
        article = nil,
        aliases = { "ShuffleNet", "ShuffleNetV1", "ShuffleNet v1", "ShuffleNetV2", "ShuffleNet v2" },
        es = "Familia de redes convolucionales eficientes para dispositivos móviles, presentada por Megvii en 2017 (V1) y 2018 (V2), que utiliza convoluciones puntuales agrupadas y operaciones de barajado de canales para reducir el cómputo.",
        zh = "由旷视科技于 2017 年(V1)和 2018 年(V2)提出的面向移动设备的高效卷积网络家族,使用逐点组卷积和通道混洗操作以降低计算量。",
        term_es = "ShuffleNet",
        term_zh = "ShuffleNet",
        aliases_es = { "ShuffleNetV1", "ShuffleNetV2" },
        aliases_zh = { "ShuffleNetV1", "ShuffleNetV2" },
    }
    
    data["shuffler model"] = {
        short = "A trust model for differential privacy in which client messages are passed through a trusted (or cryptographically realized) shuffler that anonymizes their order before reaching the server, providing privacy amplification compared to the local model.",
        article = nil,
        aliases = { "Shuffler Model", "shuffle model", "shuffle model of differential privacy", "shuffle DP model", "shuffler-based DP" },
        es = "Modelo de confianza para privacidad diferencial en el que los mensajes de los clientes pasan por un shuffler confiable (o realizado criptográficamente) que anonimiza su orden antes de llegar al servidor, proporcionando una amplificación de la privacidad respecto al modelo local.",
        zh = "差分隐私的一种信任模型:客户端消息在到达服务器之前通过一个可信(或由密码学实现的)打乱器匿名化其顺序,相对于本地模型可获得隐私放大。",
        term_es = "modelo del shuffler",
        term_zh = "shuffler模型",
        aliases_es = { "modelo shuffle", "modelo shuffle de privacidad diferencial", "modelo DP shuffle" },
        aliases_zh = { "shuffle模型", "差分隐私shuffle模型", "打乱器模型" },
    }
    
    data["si-sdr"] = {
        short = "Scale-invariant signal-to-distortion ratio: a variant of SDR that is invariant to arbitrary scaling of the estimated source, widely used as a training loss and evaluation metric for speech and music source separation.",
        article = nil,
        aliases = { "SI-SDR", "scale-invariant SDR", "scale-invariant signal-to-distortion ratio", "SI SDR" },
        es = "Scale-invariant signal-to-distortion ratio: variante de SDR invariante a escala arbitraria de la fuente estimada, ampliamente utilizada como función de pérdida y métrica de evaluación en separación de fuentes de voz y música.",
        zh = "尺度不变信号失真比:SDR 的一种变体,对估计源的任意比例缩放保持不变,广泛用作语音和音乐源分离的训练损失和评估指标。",
        term_es = "SI-SDR",
        term_zh = "SI-SDR",
        aliases_es = { "SDR invariante a escala", "razón señal-distorsión invariante a escala" },
        aliases_zh = { "尺度不变SDR", "尺度无关信号失真比" },
    }
    
    data["si-snr"] = {
        short = "Scale-invariant signal-to-noise ratio: a variant of SNR that is invariant to scaling of the estimate, commonly used as a permutation-invariant training objective for time-domain speech separation models.",
        article = nil,
        aliases = { "SI-SNR", "scale-invariant SNR", "scale-invariant signal-to-noise ratio", "SI SNR" },
        es = "Scale-invariant signal-to-noise ratio: variante de SNR invariante al escalado de la estimación, utilizada habitualmente como objetivo de entrenamiento invariante a permutaciones para modelos de separación de voz en el dominio del tiempo.",
        zh = "尺度不变信噪比:SNR 的一种变体,对估计的比例缩放保持不变,常作为时域语音分离模型置换不变训练的损失函数。",
        term_es = "SI-SNR",
        term_zh = "SI-SNR",
        aliases_es = { "SNR invariante a escala", "relación señal-ruido invariante a escala" },
        aliases_zh = { "尺度不变信噪比", "尺度无关信噪比" },
    }
    
    data["siamese networks meta"] = {
        short = "The use of Siamese networks — twin networks with shared weights producing embeddings whose distance encodes similarity — for meta-learning and few-shot classification, as in Koch et al. (2015) one-shot image recognition.",
        article = nil,
        aliases = { "Siamese meta-learning", "Siamese networks for meta-learning", "Siamese few-shot" },
        es = "Uso de redes siamesas — redes gemelas con pesos compartidos que producen embeddings cuya distancia codifica similitud — para meta-aprendizaje y clasificación few-shot, como en el reconocimiento de imágenes one-shot de Koch et al. (2015).",
        zh = "将孪生网络(共享权重的双子网络,通过嵌入距离表示相似度)用于元学习和少样本分类,如 Koch 等(2015)的单样本图像识别。",
        term_es = "redes siamesas para meta-aprendizaje",
        term_zh = "用于元学习的孪生网络",
        aliases_es = { "meta-aprendizaje siamés", "redes siamesas few-shot" },
        aliases_zh = { "孪生网络元学习", "孪生少样本", "Siamese 元学习" },
    }
    
    data["sider dataset"] = {
        short = "SIDER (Side Effect Resource) is a public database of marketed pharmaceuticals and their recorded adverse drug reactions, widely used as a benchmark for predicting drug side-effect profiles.",
        article = nil,
        aliases = { "SIDER", "Side Effect Resource", "SIDER database" },
        es = "SIDER (Side Effect Resource) es una base de datos pública de fármacos comercializados y sus reacciones adversas registradas, ampliamente utilizada como referencia para predecir perfiles de efectos secundarios de medicamentos.",
        zh = "SIDER(副作用资源数据库)是一个收录已上市药物及其不良反应的公开数据库,广泛用作预测药物副作用谱的基准数据集。",
        term_es = "conjunto de datos SIDER",
        term_zh = "SIDER 数据集",
        aliases_es = { "SIDER", "base de datos SIDER" },
        aliases_zh = { "SIDER", "副作用资源数据库" },
    }
    
    data["sift score"] = {
        short = "A score from the SIFT (Sorting Intolerant From Tolerant) algorithm that predicts whether an amino acid substitution affects protein function based on sequence homology and physical properties of amino acids. Scores ≤0.05 are predicted deleterious.",
        article = nil,
        aliases = { "SIFT score", "SIFT", "Sorting Intolerant From Tolerant" },
        es = "Puntaje del algoritmo SIFT (Sorting Intolerant From Tolerant) que predice si una sustitución de aminoácido afecta la función de la proteína basándose en la homología de secuencia y propiedades físicas de los aminoácidos. Puntajes ≤0.05 se predicen como deletéreos.",
        zh = "SIFT(Sorting Intolerant From Tolerant)算法的预测分值,基于序列同源性和氨基酸的物理性质判断氨基酸替换是否影响蛋白功能。分值 ≤0.05 被预测为有害。",
        term_es = "puntaje SIFT",
        term_zh = "SIFT 评分",
        aliases_es = { "SIFT score", "SIFT", "puntuación SIFT" },
        aliases_zh = { "SIFT 分值", "SIFT", "SIFT 算法分值" },
    }
    
    data["siglip"] = {
        short = "A vision-language pretraining method that replaces the contrastive softmax loss of CLIP with a pairwise sigmoid loss, allowing efficient training without requiring a global softmax across all image-text pairs in the batch.",
        article = nil,
        aliases = { "SigLIP", "Sigmoid Loss for Language-Image Pre-Training", "sigmoid loss CLIP" },
        es = "Método de preentrenamiento visión-lenguaje que reemplaza la pérdida contrastiva softmax de CLIP por una pérdida sigmoidea por pares, permitiendo un entrenamiento eficiente sin requerir un softmax global sobre todos los pares imagen-texto del lote.",
        zh = "一种视觉-语言预训练方法,将 CLIP 的对比 softmax 损失替换为成对的 sigmoid 损失,无需对批次内所有图文对执行全局 softmax,从而实现更高效的训练。",
        term_es = "SigLIP",
        term_zh = "SigLIP",
        aliases_es = { "pérdida sigmoidea para preentrenamiento lenguaje-imagen" },
        aliases_zh = { "语言-图像预训练 sigmoid 损失" },
    }
    
    data["siglip 2"] = {
        short = "A successor to SigLIP that improves multilingual coverage, dense prediction quality, and robustness by combining the sigmoid contrastive objective with self-distillation, masked prediction, and an enriched data mixture.",
        article = nil,
        aliases = { "SigLIP 2", "SigLIP2", "SigLIP-2" },
        es = "Sucesor de SigLIP que mejora la cobertura multilingüe, la calidad en predicción densa y la robustez combinando el objetivo contrastivo sigmoideo con autodistilación, predicción enmascarada y una mezcla de datos enriquecida.",
        zh = "SigLIP 的继任者,通过将 sigmoid 对比目标与自蒸馏、掩码预测以及更丰富的数据混合相结合,提升了多语言覆盖、密集预测质量与鲁棒性。",
        term_es = "SigLIP 2",
        term_zh = "SigLIP 2",
        aliases_es = { "SigLIP-2" },
        aliases_zh = { "SigLIP-2" },
    }
    
    data["sigma points"] = {
        short = "A small deterministic set of points (typically 2n+1 in n dimensions) chosen so that their weighted sample mean and covariance match those of a target distribution; used by the unscented transform and unscented Kalman filter to propagate moments through nonlinear functions.",
        article = nil,
        aliases = { "sigma point", "unscented transform points", "UT points" },
        es = "Pequeño conjunto determinista de puntos (normalmente 2n+1 en n dimensiones) elegidos para que su media y covarianza muestrales ponderadas coincidan con las de una distribución objetivo; usados por la transformada unscented y el filtro de Kalman unscented para propagar momentos a través de funciones no lineales.",
        zh = "一组少量的确定性点(n 维下通常为 2n+1 个),其加权样本均值和协方差与目标分布相匹配;无迹变换和无迹卡尔曼滤波借助这些点将矩通过非线性函数传播。",
        term_es = "puntos sigma",
        term_zh = "Sigma 点",
        aliases_es = { "puntos de la transformada unscented" },
        aliases_zh = { "西格玛点", "无迹变换采样点" },
    }
    
    data["sigmoid"] = {
        short = "Logistic activation function σ(x) = 1 / (1 + e^(−x)) mapping real values into (0, 1). Used for binary classification outputs and as a smooth gate in many architectures.",
        article = nil,
        aliases = { "logistic function", "logistic sigmoid", "sigmoid function", "σ" },
        es = "Función de activación logística σ(x) = 1 / (1 + e^(−x)) que mapea los reales al intervalo (0, 1). Se usa como salida en clasificación binaria y como compuerta suave en numerosas arquitecturas.",
        zh = "Logistic 激活函数 σ(x) = 1 / (1 + e^(−x)),将实数映射到 (0, 1)。常用于二分类输出,也作为平滑门控用于多种架构。",
        term_es = "sigmoide",
        term_zh = "Sigmoid",
        aliases_es = { "sigmoid", "función logística", "función sigmoide" },
        aliases_zh = { "Sigmoid", "S 型函数", "逻辑函数", "对数几率函数" },
    }
    
    data["sigmoid recalibration"] = {
        short = "A post-hoc binary-classifier calibration method that fits a logistic (sigmoid) function on top of model scores using a held-out set, mapping raw logits or probabilities to better-calibrated probabilities. Equivalent to Platt scaling.",
        article = nil,
        aliases = { "Platt scaling", "Platt calibration", "logistic calibration", "sigmoid calibration" },
        es = "Método de recalibración post-hoc para clasificadores binarios que ajusta una función logística (sigmoide) sobre las puntuaciones del modelo usando un conjunto de validación, mapeando logits o probabilidades crudas a probabilidades mejor calibradas. Equivale al escalado de Platt.",
        zh = "一种二分类器的事后校准方法,在留出集上对模型得分拟合一个 Logistic(sigmoid)函数,将原始 logit 或概率映射为校准更好的概率;等价于 Platt 缩放。",
        term_es = "recalibración sigmoide",
        term_zh = "Sigmoid 重校准",
        aliases_es = { "escalado de Platt", "calibración logística", "calibración de Platt" },
        aliases_zh = { "Platt 缩放", "Sigmoid 校准", "Logistic 校准" },
    }
    
    data["signal peptide prediction"] = {
        short = "The computational identification of N-terminal signal peptides that target proteins to secretory pathways, using tools such as SignalP, Phobius, and TargetP. Predictions distinguish secreted proteins from cytoplasmic and transmembrane proteins.",
        article = nil,
        aliases = { "signal peptide detection", "SignalP", "secretion signal prediction", "leader peptide prediction" },
        es = "Identificación computacional de péptidos señal N-terminales que dirigen proteínas a las vías secretoras, usando herramientas como SignalP, Phobius y TargetP. Las predicciones distinguen proteínas secretadas de proteínas citoplasmáticas y transmembrana.",
        zh = "通过 SignalP、Phobius、TargetP 等工具对将蛋白质引导至分泌途径的 N 端信号肽进行计算识别。预测可将分泌蛋白与胞质蛋白和跨膜蛋白区分开。",
        term_es = "predicción de péptido señal",
        term_zh = "信号肽预测",
        aliases_es = { "detección de péptido señal", "SignalP", "predicción de señales de secreción" },
        aliases_zh = { "信号肽检测", "SignalP", "分泌信号预测" },
    }
    
    data["signal-to-distortion ratio"] = {
        short = "A standard objective metric for audio source separation, expressed in decibels, that measures the energy of the target source relative to all distortion components (interference, artifacts, and noise) in the estimated signal.",
        article = nil,
        aliases = { "SDR", "signal to distortion ratio" },
        es = "Métrica objetiva estándar para la separación de fuentes de audio, expresada en decibelios, que mide la energía de la fuente objetivo frente a todas las componentes de distorsión (interferencia, artefactos y ruido) en la señal estimada.",
        zh = "音频源分离的标准客观指标,以分贝为单位,衡量目标源能量相对于估计信号中所有失真分量(干扰、伪影和噪声)的比值。",
        term_es = "relación señal a distorsión",
        term_zh = "信号失真比",
        aliases_es = { "SDR", "razón señal-distorsión" },
        aliases_zh = { "SDR", "信号与失真比" },
    }
    
    data["signal-to-interference ratio"] = {
        short = "An audio source separation metric, in decibels, that measures the energy of the target source relative to the leakage from other sources (interference) in the estimated signal.",
        article = nil,
        aliases = { "SIR", "signal to interference ratio" },
        es = "Métrica de separación de fuentes de audio, en decibelios, que mide la energía de la fuente objetivo frente a la fuga proveniente de otras fuentes (interferencia) en la señal estimada.",
        zh = "音频源分离评价指标,以分贝为单位,衡量目标源能量相对于估计信号中来自其他源的泄漏(干扰)的比值。",
        term_es = "relación señal a interferencia",
        term_zh = "信号干扰比",
        aliases_es = { "SIR", "razón señal-interferencia" },
        aliases_zh = { "SIR", "信号与干扰比" },
    }
    
    data["signguard"] = {
        short = "A Byzantine-robust federated learning defense that filters malicious client updates by analyzing the sign distribution of their gradients, using sign statistics and clustering to identify and exclude updates whose patterns deviate from the honest majority.",
        article = nil,
        aliases = { "SignGuard", "Sign Guard", "SignGuard defense", "SignGuard aggregation", "sign-based Byzantine defense" },
        es = "Defensa robusta frente a fallos bizantinos en aprendizaje federado que filtra actualizaciones de clientes maliciosos analizando la distribución de signos de sus gradientes, utilizando estadísticas de signos y clustering para identificar y excluir actualizaciones cuyos patrones se desvían de la mayoría honesta.",
        zh = "一种联邦学习的拜占庭鲁棒防御方法,通过分析客户端梯度的符号分布过滤恶意更新,利用符号统计和聚类识别并剔除模式偏离诚实多数的更新。",
        term_es = "SignGuard",
        term_zh = "SignGuard",
        aliases_es = { "defensa SignGuard", "agregación SignGuard", "defensa bizantina basada en signos" },
        aliases_zh = { "SignGuard防御", "SignGuard聚合", "基于符号的拜占庭防御" },
    }
    
    data["signsgd"] = {
        short = "A communication-efficient distributed optimization method that transmits only the elementwise sign of each gradient component (1 bit per coordinate) instead of full-precision values, reducing bandwidth roughly 32× while preserving convergence under suitable assumptions.",
        article = nil,
        aliases = { "signSGD", "SignSGD", "Sign SGD", "1-bit SGD", "sign stochastic gradient descent", "signSGD with majority vote" },
        es = "Método de optimización distribuida eficiente en comunicación que transmite solo el signo elemento a elemento de cada componente del gradiente (1 bit por coordenada) en lugar de valores de precisión total, reduciendo el ancho de banda en torno a 32× mientras se preserva la convergencia bajo suposiciones adecuadas.",
        zh = "一种通信高效的分布式优化方法,仅传输梯度每个分量的逐元素符号(每个坐标1比特)而非全精度值,在适当假设下保持收敛性的同时将带宽降低约32倍。",
        term_es = "signSGD",
        term_zh = "signSGD",
        aliases_es = { "SGD de signo", "SGD de 1 bit", "descenso de gradiente estocástico de signo" },
        aliases_zh = { "Sign SGD", "符号SGD", "1比特SGD", "符号随机梯度下降" },
    }
    
    data["sigopt"] = {
        short = "A commercial hyperparameter optimization platform (acquired by Intel in 2020) that combines Bayesian optimization, multi-objective optimization, and constraint handling behind a hosted API for ML experiment tuning.",
        article = nil,
        aliases = { "SigOpt", "SigOpt platform" },
        es = "Plataforma comercial de optimización de hiperparámetros (adquirida por Intel en 2020) que combina optimización bayesiana, optimización multiobjetivo y manejo de restricciones tras una API alojada para el ajuste de experimentos de ML.",
        zh = "商业化的超参数优化平台(2020 年被 Intel 收购),通过托管 API 整合贝叶斯优化、多目标优化和约束处理,用于机器学习实验调优。",
        term_es = "SigOpt",
        term_zh = "SigOpt",
        aliases_es = { "SigOpt", "plataforma SigOpt" },
        aliases_zh = { "SigOpt", "SigOpt 平台" },
    }
    
    data["sigprofiler"] = {
        short = "A suite of tools (SigProfilerExtractor, SigProfilerAssignment, SigProfilerMatrixGenerator) developed by the Alexandrov lab for de novo extraction, attribution, and visualization of mutational signatures from cancer genomes.",
        article = nil,
        aliases = { "SigProfiler", "SigProfilerExtractor", "SigProfilerMatrixGenerator", "SigProfilerAssignment" },
        es = "Conjunto de herramientas (SigProfilerExtractor, SigProfilerAssignment, SigProfilerMatrixGenerator) desarrollado por el laboratorio Alexandrov para la extracción de novo, atribución y visualización de firmas mutacionales en genomas de cáncer.",
        zh = "由 Alexandrov 实验室开发的工具集(SigProfilerExtractor、SigProfilerAssignment、SigProfilerMatrixGenerator),用于从癌症基因组中从头提取、归因并可视化突变特征(mutational signatures)。",
        term_es = "SigProfiler",
        term_zh = "SigProfiler",
        aliases_es = { "SigProfilerExtractor", "SigProfilerAssignment", "suite SigProfiler" },
        aliases_zh = { "SigProfilerExtractor", "SigProfiler 工具集", "SigProfilerMatrixGenerator" },
    }
    
    data["silence trimming"] = {
        short = "An audio preprocessing step that detects and removes leading, trailing, or internal silent regions from a recording, typically based on energy or voice activity thresholds.",
        article = nil,
        aliases = { "silence removal", "silence stripping", "trim silence" },
        es = "Paso de preprocesamiento de audio que detecta y elimina regiones silenciosas al inicio, al final o internas de una grabación, normalmente con base en umbrales de energía o actividad vocal.",
        zh = "一种音频预处理步骤,基于能量或语音活动阈值检测并去除录音开头、结尾或内部的静音段。",
        term_es = "recorte de silencio",
        term_zh = "静音裁剪",
        aliases_es = { "eliminación de silencio", "supresión de silencio" },
        aliases_zh = { "静音切除", "去除静音", "静音剪除" },
    }
    
    data["silero vad"] = {
        short = "An open-source pretrained voice activity detection model based on a small neural network, widely used for low-latency, language-agnostic detection of speech segments in audio streams.",
        article = nil,
        aliases = { "Silero VAD", "silero-vad" },
        es = "Modelo de detección de actividad vocal preentrenado y de código abierto, basado en una pequeña red neuronal, ampliamente utilizado para la detección de segmentos de voz con baja latencia e independiente del idioma en flujos de audio.",
        zh = "一种开源的预训练语音活动检测模型,基于小型神经网络,广泛用于音频流中低延迟、语言无关的语音段检测。",
        term_es = "Silero VAD",
        term_zh = "Silero VAD",
        aliases_es = { "silero-vad" },
        aliases_zh = { "silero-vad" },
    }
    
    data["silkie"] = {
        short = "A preference distillation method for large vision-language models that uses AI feedback over candidate responses to construct a preference dataset and then fine-tunes the model with direct preference optimization to reduce hallucination.",
        article = nil,
        aliases = { "Silkie", "VLFeedback", "preference distillation for vision-language models" },
        es = "Método de destilación de preferencias para modelos grandes de visión-lenguaje que usa retroalimentación generada por IA sobre respuestas candidatas para construir un conjunto de datos de preferencias y luego ajusta el modelo con optimización directa de preferencias para reducir alucinaciones.",
        zh = "一种面向大型视觉-语言模型的偏好蒸馏方法,利用 AI 对候选回答的反馈构建偏好数据集,再通过直接偏好优化(DPO)对模型进行微调,以减少幻觉。",
        term_es = "Silkie",
        term_zh = "Silkie",
        aliases_es = { "destilación de preferencias visión-lenguaje" },
        aliases_zh = { "视觉-语言偏好蒸馏" },
    }
    
    data["silu"] = {
        short = "Sigmoid Linear Unit activation, defined as x · σ(x). Equivalent to Swish with β = 1; smooth, non-monotonic, and used in EfficientNet, Llama and similar models.",
        article = nil,
        aliases = { "SiLU", "Sigmoid Linear Unit", "sigmoid linear unit", "Swish-1", "swish-1" },
        es = "Activación Sigmoid Linear Unit, definida como x · σ(x). Equivalente a Swish con β = 1; suave, no monótona y usada en EfficientNet, Llama y modelos similares.",
        zh = "Sigmoid 线性单元激活函数,定义为 x · σ(x)。等价于 β = 1 的 Swish,平滑、非单调,常用于 EfficientNet、Llama 等模型。",
        term_es = "SiLU",
        term_zh = "SiLU",
        aliases_es = { "SiLU", "unidad lineal sigmoidea" },
        aliases_zh = { "SiLU", "Sigmoid 线性单元" },
    }
    
    data["simclr"] = {
        short = "A contrastive self-supervised representation learning framework introduced by Chen et al. in 2020 that learns image representations by maximizing agreement between two augmented views of the same image via a learned projection head and the NT-Xent loss.",
        article = nil,
        aliases = { "SimCLR", "SimCLRv2", "SimCLR v2", "Simple Contrastive Learning of Representations" },
        es = "Marco de aprendizaje contrastivo de representaciones autosupervisado presentado por Chen et al. en 2020 que aprende representaciones de imágenes maximizando la concordancia entre dos vistas aumentadas de la misma imagen mediante una cabeza de proyección aprendida y la pérdida NT-Xent.",
        zh = "由 Chen 等人于 2020 年提出的对比自监督表示学习框架,通过可学习的投影头和 NT-Xent 损失,最大化同一图像的两个增强视图之间的一致性来学习图像表示。",
        term_es = "SimCLR",
        term_zh = "SimCLR",
        aliases_es = { "SimCLRv2" },
        aliases_zh = { "SimCLRv2" },
    }
    
    data["simclr loss"] = {
        short = "Common name for the NT-Xent objective used in the SimCLR self-supervised framework, which contrasts two augmented views of the same image against negatives drawn from the rest of the batch.",
        article = nil,
        aliases = { "SimCLR objective", "SimCLR" },
        es = "Nombre común del objetivo NT-Xent utilizado en el marco auto-supervisado SimCLR, que contrasta dos vistas aumentadas de la misma imagen contra negativos tomados del resto del lote.",
        zh = "SimCLR 自监督框架所用 NT-Xent 目标的常用名称,将同一图像的两个增强视图与批次其余样本作为负样本进行对比。",
        term_es = "pérdida SimCLR",
        term_zh = "SimCLR 损失",
        aliases_es = { "SimCLR" },
        aliases_zh = { "SimCLR" },
    }
    
    data["simple embedding"] = {
        short = "Also known as SimplE, a bilinear knowledge-graph embedding model that represents each entity and relation by two vectors and scores triples symmetrically with respect to a relation and its inverse.",
        article = nil,
        aliases = { "SimplE", "SimplE embedding", "SimplE model", "simple knowledge graph embedding" },
        es = "También conocido como SimplE, un modelo bilineal de incrustación de grafos de conocimiento que representa cada entidad y relación con dos vectores y puntúa los tripletes simétricamente respecto a una relación y su inversa.",
        zh = "又称 SimplE,一种双线性知识图谱嵌入模型,用两个向量分别表示每个实体和关系,并对三元组及其逆关系对称打分。",
        term_es = "SimplE",
        term_zh = "SimplE",
        aliases_es = { "incrustación SimplE", "embedding SimplE", "modelo SimplE" },
        aliases_zh = { "SimplE 嵌入", "SimplE 模型", "简单嵌入" },
    }
    
    data["simple noise loss"] = {
        short = "The simplified DDPM training objective L_simple, an unweighted MSE between the true noise added to a sample and the noise predicted by the network. Empirically yields better samples than the full variational bound.",
        article = nil,
        aliases = { "L_simple", "simple loss", "DDPM simple loss", "epsilon prediction loss" },
        es = "Objetivo simplificado de entrenamiento de DDPM L_simple, un MSE no ponderado entre el ruido real añadido a una muestra y el ruido predicho por la red. Empíricamente produce mejores muestras que la cota variacional completa.",
        zh = "DDPM 的简化训练目标 L_simple:对样本添加的真实噪声与网络预测噪声之间的非加权 MSE。实证上比完整的变分下界产生更好的样本。",
        term_es = "pérdida de ruido simple",
        term_zh = "简单噪声损失",
        aliases_es = { "L_simple", "pérdida simple DDPM", "pérdida de predicción de épsilon" },
        aliases_zh = { "L_simple", "DDPM 简单损失", "噪声预测损失" },
    }
    
    data["simpo"] = {
        short = "Simple Preference Optimization, a reference-model-free preference optimization method that uses the average log-probability of a sequence as the implicit reward and adds a target reward margin, simplifying and outperforming DPO on many benchmarks.",
        article = nil,
        aliases = { "SimPO", "Simple Preference Optimization" },
        es = "Simple Preference Optimization, un método de optimización por preferencias sin modelo de referencia que utiliza la log-probabilidad promedio de una secuencia como recompensa implícita y añade un margen objetivo, simplificando y superando a DPO en numerosos benchmarks.",
        zh = "简单偏好优化,一种无参考模型的偏好优化方法,使用序列的平均对数概率作为隐式奖励,并添加目标奖励边际,在许多基准上简化并超越DPO。",
        term_es = "SimPO",
        term_zh = "SimPO",
        aliases_es = { "Simple Preference Optimization", "optimización de preferencias simple" },
        aliases_zh = { "简单偏好优化", "Simple Preference Optimization" },
    }
    
    data["simpson paradox"] = {
        short = "A statistical phenomenon in which an association observed within each subgroup of a population reverses or vanishes when subgroups are aggregated, often because of a confounding variable. A canonical warning against ignoring stratification in fairness analyses.",
        article = nil,
        aliases = { "Simpson's paradox", "Yule-Simpson effect", "Simpsons paradox" },
        es = "Fenómeno estadístico en el que una asociación observada dentro de cada subgrupo de una población se invierte o desaparece al agregar los subgrupos, a menudo por una variable confusora. Es una advertencia canónica contra ignorar la estratificación en los análisis de equidad.",
        zh = "一种统计现象:在总体的每个子群体内观察到的关联,在子群体合并后会反转或消失,通常源自一个混杂变量。是公平性分析中忽视分层时的经典警示。",
        term_es = "paradoja de Simpson",
        term_zh = "辛普森悖论",
        aliases_es = { "paradoja de Yule-Simpson", "efecto Yule-Simpson" },
        aliases_zh = { "Simpson 悖论", "Yule-Simpson 效应", "辛普森反论" },
    }
    
    data["simpson's paradox"] = {
        short = "A phenomenon in which an association observed in subgroups of a population reverses or disappears when the subgroups are aggregated, often resolved by conditioning on the appropriate confounder.",
        article = nil,
        aliases = { "Simpson paradox", "Yule-Simpson paradox", "Simpson's reversal" },
        es = "Fenómeno por el cual una asociación observada en los subgrupos de una población se invierte o desaparece al agregarlos, que suele resolverse condicionando en el factor de confusión apropiado.",
        zh = "一种现象:在总体子群中观察到的关联在合并子群后反转或消失,通常通过对适当的混杂变量进行条件化得以解决。",
        term_es = "paradoja de Simpson",
        term_zh = "辛普森悖论",
        aliases_es = { "paradoja de Yule-Simpson", "reversión de Simpson" },
        aliases_zh = { "Simpson 悖论", "尤尔-辛普森悖论", "辛普森反转" },
    }
    
    data["simul-s2t"] = {
        short = "Simultaneous speech-to-text translation: the task of producing target-language text incrementally while the source-language speech is still being spoken, balancing translation latency against quality.",
        article = nil,
        aliases = { "Simul-S2T", "simultaneous S2T", "simultaneous speech-to-text", "simultaneous speech to text translation" },
        es = "Traducción simultánea de voz a texto: tarea que consiste en producir texto en el idioma destino de manera incremental mientras el habla en el idioma origen aún se está emitiendo, equilibrando latencia de traducción y calidad.",
        zh = "同声语音到文本翻译:在源语言语音尚在进行时,逐步生成目标语言文本的任务,需要在翻译延迟和质量之间取得平衡。",
        term_es = "Simul-S2T",
        term_zh = "Simul-S2T",
        aliases_es = { "traducción simultánea de voz a texto" },
        aliases_zh = { "同声语音到文本翻译", "同步语音文本翻译" },
    }
    
    data["simulated annealing hpo"] = {
        short = "Hyperparameter optimization via simulated annealing: stochastic local search that accepts worse configurations with a probability that decreases according to a temperature schedule, allowing escape from local optima.",
        article = nil,
        aliases = { "simulated annealing for HPO", "SA HPO", "annealing hyperparameter search" },
        es = "Optimización de hiperparámetros mediante recocido simulado: búsqueda local estocástica que acepta configuraciones peores con una probabilidad que disminuye según un calendario de temperatura, permitiendo escapar de óptimos locales.",
        zh = "采用模拟退火的超参数优化:随机局部搜索,以随温度调度递减的概率接受更差配置,从而跳出局部最优。",
        term_es = "recocido simulado para HPO",
        term_zh = "模拟退火 HPO",
        aliases_es = { "SA para HPO", "búsqueda por recocido simulado" },
        aliases_zh = { "模拟退火超参数优化", "SA HPO" },
    }
    
    data["simulst"] = {
        short = "Simultaneous speech translation: producing translated output (text or speech) incrementally with low latency while the source speech is still being spoken, typically using read/write or wait-k policies.",
        article = nil,
        aliases = { "SimulST", "Simul-ST", "simul ST", "simultaneous ST" },
        es = "Traducción simultánea de voz: generación incremental y de baja latencia de la salida traducida (texto o voz) mientras todavía se está emitiendo el habla original, normalmente mediante políticas de lectura/escritura o wait-k.",
        zh = "同声语音翻译:在源语音仍在进行时,以低延迟逐步生成翻译输出(文本或语音),通常采用读/写或 wait-k 策略。",
        term_es = "SimulST",
        term_zh = "SimulST",
        aliases_es = { "Simul-ST", "traducción simultánea de voz" },
        aliases_zh = { "Simul-ST", "同声语音翻译", "同步语音翻译" },
    }
    
    data["simultaneous speech translation"] = {
        short = "The task of translating spoken input into another language incrementally and with low latency before the speaker has finished, requiring decision policies that trade off latency against translation quality.",
        article = nil,
        aliases = { "SimulST", "Simul-ST", "simul-S2T", "simultaneous interpretation" },
        es = "Tarea de traducir la voz de entrada a otro idioma de forma incremental y con baja latencia, antes de que el hablante haya terminado, lo que requiere políticas de decisión que equilibren latencia y calidad de traducción.",
        zh = "将语音输入逐步且低延迟地翻译为另一种语言,在说话人完成之前生成译文的任务,需要权衡延迟与翻译质量的决策策略。",
        term_es = "traducción simultánea de voz",
        term_zh = "同声语音翻译",
        aliases_es = { "interpretación simultánea automática", "traducción simultánea del habla" },
        aliases_zh = { "同步语音翻译", "实时语音翻译", "同传语音翻译" },
    }
    
    data["simvlm"] = {
        short = "A simple visual language model pretrained end-to-end with a single prefix language modeling objective on weakly aligned image-text pairs, removing the need for object detectors or auxiliary losses while matching task-specific architectures.",
        article = nil,
        aliases = { "SimVLM", "Simple Visual Language Model", "SimVLM pretraining" },
        es = "Modelo simple de lenguaje visual preentrenado de extremo a extremo con un único objetivo de modelado de lenguaje con prefijo sobre pares imagen-texto débilmente alineados, eliminando la necesidad de detectores de objetos o pérdidas auxiliares y alcanzando el rendimiento de arquitecturas específicas.",
        zh = "一种简单的视觉语言模型,在弱对齐的图文对上以单一的前缀语言建模目标进行端到端预训练,无需目标检测器或辅助损失,性能可与特定任务的专用架构相当。",
        term_es = "SimVLM",
        term_zh = "SimVLM",
        aliases_es = { "modelo simple de lenguaje visual" },
        aliases_zh = { "简单视觉语言模型" },
    }
    
    data["singing transcription"] = {
        short = "The task of converting singing voice audio into a symbolic representation, typically a sequence of pitched notes and timings (and optionally lyrics) corresponding to the sung melody.",
        article = nil,
        aliases = { "singing voice transcription", "vocal melody transcription", "automatic singing transcription" },
        es = "Tarea de convertir audio de voz cantada en una representación simbólica, normalmente una secuencia de notas con altura y tiempos (y opcionalmente letras) que corresponde a la melodía cantada.",
        zh = "将演唱人声音频转换为符号表示的任务,通常输出与所唱旋律对应的带音高的音符及其时间序列(可选地包括歌词)。",
        term_es = "transcripción de canto",
        term_zh = "歌声转写",
        aliases_es = { "transcripción de voz cantada", "transcripción automática de canto" },
        aliases_zh = { "歌唱转写", "演唱转写", "歌声音符转写" },
    }
    
    data["singing voice cloning"] = {
        short = "The task of synthesizing singing in the voice of a target singer using only a small amount of reference audio, typically by conditioning a singing voice synthesis or conversion model on a speaker embedding.",
        article = nil,
        aliases = { "singing voice clone", "vocal cloning", "singer voice cloning" },
        es = "Tarea de sintetizar canto con la voz de un cantante objetivo a partir únicamente de una pequeña cantidad de audio de referencia, normalmente condicionando un modelo de síntesis o conversión de voz cantada con un embedding de hablante.",
        zh = "仅使用少量参考音频,合成出目标歌手嗓音的歌唱内容,通常通过将说话人嵌入作为歌声合成或转换模型的条件来实现。",
        term_es = "clonación de voz cantada",
        term_zh = "歌声克隆",
        aliases_es = { "clonado de voz cantada", "clonación vocal" },
        aliases_zh = { "歌唱嗓音克隆", "演唱声音克隆" },
    }
    
    data["singing voice conversion"] = {
        short = "The task of transforming a singing audio signal so that it appears to be sung by a different target singer while preserving the original melody, lyrics, and expressive performance.",
        article = nil,
        aliases = { "SVC", "singing-voice conversion", "vocal conversion" },
        es = "Tarea de transformar una señal de canto para que parezca interpretada por un cantante objetivo distinto, conservando la melodía, la letra y la expresividad del original.",
        zh = "歌声转换任务:在保留原有旋律、歌词和演唱表现力的前提下,将一段演唱信号转换为听起来像另一位目标歌手所演唱。",
        term_es = "conversión de voz cantada",
        term_zh = "歌声转换",
        aliases_es = { "SVC", "conversión vocal cantada" },
        aliases_zh = { "SVC", "歌唱嗓音转换", "演唱嗓音转换" },
    }
    
    data["singing voice synthesis"] = {
        short = "The task of generating singing voice audio from a symbolic input such as a musical score with lyrics, producing pitch, timing, and timbre that follow the prescribed notes and words.",
        article = nil,
        aliases = { "SVS", "singing synthesis", "singing-voice synthesis", "vocal synthesis" },
        es = "Tarea de generar audio de voz cantada a partir de una entrada simbólica como una partitura con letra, produciendo altura, ritmo y timbre que siguen las notas y palabras especificadas.",
        zh = "歌声合成任务:根据带歌词的乐谱等符号输入生成演唱音频,使其音高、时值和音色遵循指定的音符与歌词。",
        term_es = "síntesis de voz cantada",
        term_zh = "歌声合成",
        aliases_es = { "SVS", "síntesis de canto", "síntesis vocal cantada" },
        aliases_zh = { "SVS", "歌唱合成", "演唱合成" },
    }
    
    data["single path one-shot"] = {
        short = "A weight-sharing NAS method by Guo et al. (2020) in which a supernet is trained by uniformly sampling a single path (one operation per choice block) at each step, decoupling supernet training from architecture search via evolutionary post-search.",
        article = nil,
        aliases = { "SPOS", "Single Path One-Shot", "single-path one-shot NAS" },
        es = "Método de NAS con pesos compartidos de Guo et al. (2020) en el que se entrena una super-red muestreando uniformemente una única ruta (una operación por bloque de elección) en cada paso, desacoplando el entrenamiento de la super-red de la búsqueda arquitectónica mediante una búsqueda evolutiva posterior.",
        zh = "Guo 等(2020)提出的权重共享 NAS 方法,通过在每步均匀采样单一路径(每个选择块一种操作)来训练超网,并通过随后的进化搜索将超网训练与架构搜索解耦。",
        term_es = "Single Path One-Shot",
        term_zh = "单路径一次性 NAS",
        aliases_es = { "SPOS", "NAS one-shot de una sola ruta" },
        aliases_zh = { "SPOS", "Single Path One-Shot", "单路径一次性" },
    }
    
    data["single world intervention graph"] = {
        short = "A graphical object, due to Richardson and Robins, that unifies structural causal models with potential outcomes by node-splitting intervened variables, used to read off conditional independencies among counterfactuals.",
        article = nil,
        aliases = { "SWIG", "SWIGs", "single-world intervention graph" },
        es = "Objeto gráfico, propuesto por Richardson y Robins, que unifica los modelos causales estructurales con los resultados potenciales mediante la división de nodos intervenidos, y permite leer independencias condicionales entre contrafactuales.",
        zh = "由 Richardson 和 Robins 提出的图形工具,通过对受干预变量进行节点分裂,将结构因果模型与潜在结果框架统一起来,用于读取反事实之间的条件独立性。",
        term_es = "grafo de intervención de mundo único",
        term_zh = "单世界干预图",
        aliases_es = { "SWIG", "grafo SWIG" },
        aliases_zh = { "SWIG", "单一世界干预图" },
    }
    
    data["single-cell atac-seq"] = {
        short = "An assay that profiles chromatin accessibility at single-cell resolution by applying the Tn5 transposase to individual nuclei and sequencing the resulting open-chromatin fragments, revealing cell-type-specific regulatory landscapes.",
        article = nil,
        aliases = { "scATAC-seq", "single cell ATAC-seq", "single-cell ATAC sequencing", "scATAC" },
        es = "Ensayo que perfila la accesibilidad de la cromatina con resolución de célula única aplicando la transposasa Tn5 a núcleos individuales y secuenciando los fragmentos de cromatina abierta resultantes, revelando paisajes regulatorios específicos de cada tipo celular.",
        zh = "在单细胞分辨率下分析染色质可及性的实验方法,将 Tn5 转座酶作用于单个细胞核并对开放染色质片段进行测序,揭示细胞类型特异的调控景观。",
        term_es = "scATAC-seq",
        term_zh = "单细胞 ATAC-seq",
        aliases_es = { "ATAC-seq de célula única", "scATAC", "ATAC-seq unicelular" },
        aliases_zh = { "scATAC-seq", "单细胞 ATAC 测序", "scATAC" },
    }
    
    data["single-cell multiome"] = {
        short = "Joint profiling of multiple molecular modalities (typically RNA expression and chromatin accessibility, e.g. 10x Multiome) from the same individual cell, enabling integrated analysis of transcription and gene regulation.",
        article = nil,
        aliases = { "scMultiome", "10x Multiome", "single-cell multi-omics", "Multiome ATAC + Gene Expression", "joint scRNA-seq and scATAC-seq" },
        es = "Perfilado conjunto de múltiples modalidades moleculares (típicamente expresión de ARN y accesibilidad de la cromatina, p. ej. 10x Multiome) en la misma célula individual, permitiendo el análisis integrado de la transcripción y la regulación génica.",
        zh = "在同一个单细胞中联合检测多种分子模态(通常为 RNA 表达和染色质可及性,例如 10x Multiome),从而对转录与基因调控进行整合分析。",
        term_es = "multioma de célula única",
        term_zh = "单细胞多组学",
        aliases_es = { "scMultiome", "10x Multiome", "multi-ómica unicelular" },
        aliases_zh = { "scMultiome", "10x Multiome", "单细胞 multiome" },
    }
    
    data["single-nucleus atac-seq"] = {
        short = "A variant of scATAC-seq performed on isolated nuclei rather than whole cells, suitable for frozen tissues, archived samples, and cell types difficult to dissociate intact, while preserving chromatin-accessibility readouts.",
        article = nil,
        aliases = { "snATAC-seq", "single nucleus ATAC-seq", "snATAC", "nuclei ATAC-seq" },
        es = "Variante de scATAC-seq realizada sobre núcleos aislados en lugar de células enteras, adecuada para tejidos congelados, muestras archivadas y tipos celulares difíciles de disociar intactos, conservando la lectura de accesibilidad de la cromatina.",
        zh = "scATAC-seq 的一种变体,针对分离的细胞核而非完整细胞进行实验,适用于冻存组织、存档样本以及难以完整解离的细胞类型,同时保留染色质可及性信号。",
        term_es = "snATAC-seq",
        term_zh = "单核 ATAC-seq",
        aliases_es = { "ATAC-seq de núcleo único", "snATAC", "ATAC-seq de núcleos aislados" },
        aliases_zh = { "snATAC-seq", "单核 ATAC 测序", "snATAC" },
    }
    
    data["single-stream transformer"] = {
        short = "A vision-language transformer architecture that concatenates visual and textual tokens into one sequence and processes them jointly with shared self-attention layers, in contrast to two-stream models that encode each modality separately before fusion.",
        article = nil,
        aliases = { "single-stream VLM", "single stream transformer", "unified-stream transformer", "single-stream vision-language model" },
        es = "Arquitectura de transformador visión-lenguaje que concatena tokens visuales y textuales en una sola secuencia y los procesa conjuntamente con capas de autoatención compartidas, en contraste con los modelos de dos flujos que codifican cada modalidad por separado antes de fusionarlas.",
        zh = "一种视觉-语言 Transformer 架构,将视觉与文本 token 拼接为单一序列,使用共享的自注意力层联合处理;与先分别编码再融合的双流模型不同。",
        term_es = "transformador de flujo único",
        term_zh = "单流 Transformer",
        aliases_es = { "VLM de flujo único", "transformador visión-lenguaje de flujo único" },
        aliases_zh = { "单流视觉-语言模型", "单流视觉语言 Transformer" },
    }
    
    data["singular value decomposition"] = {
        short = "The factorization of any m×n matrix A as A = UΣVᵀ, where U and V are orthogonal (or unitary) and Σ is a diagonal matrix of nonnegative singular values. Generalizes eigendecomposition to non-square matrices and underlies PCA, low-rank approximation, and the pseudoinverse.",
        article = nil,
        aliases = { "SVD", "singular-value decomposition", "thin SVD", "compact SVD" },
        es = "Factorización de cualquier matriz A de tamaño m×n como A = UΣVᵀ, donde U y V son ortogonales (o unitarias) y Σ es una matriz diagonal de valores singulares no negativos. Generaliza la descomposición espectral a matrices no cuadradas y subyace al PCA, las aproximaciones de bajo rango y la pseudoinversa.",
        zh = "任意 m×n 矩阵 A 的分解 A = UΣVᵀ,其中 U 与 V 为正交(或酉)矩阵,Σ 是由非负奇异值组成的对角矩阵。将特征分解推广到非方阵,是 PCA、低秩近似和伪逆的基础。",
        term_es = "descomposición en valores singulares",
        term_zh = "奇异值分解",
        aliases_es = { "SVD", "descomposición SVD" },
        aliases_zh = { "SVD", "奇异值分解 (SVD)" },
    }
    
    data["sinusoidal activation"] = {
        short = "Activation function f(x) = sin(ωx) used in implicit neural representations such as SIREN. Captures high-frequency signals that standard activations smooth out.",
        article = nil,
        aliases = { "sine activation", "SIREN activation", "sinusoidal nonlinearity" },
        es = "Función de activación f(x) = sin(ωx) utilizada en representaciones neuronales implícitas como SIREN. Captura señales de alta frecuencia que las activaciones estándar suavizan.",
        zh = "形如 f(x) = sin(ωx) 的激活函数,用于 SIREN 等隐式神经表示。能够捕捉标准激活会平滑掉的高频信号。",
        term_es = "activación sinusoidal",
        term_zh = "正弦激活",
        aliases_es = { "activación seno", "activación SIREN" },
        aliases_zh = { "正弦激活函数", "SIREN 激活" },
    }
    
    data["sinusoidal positional encoding"] = {
        short = "The fixed positional encoding from the original Transformer that uses sine and cosine functions of varying frequencies to represent each position as a deterministic vector.",
        article = nil,
        aliases = { "Sinusoidal Positional Encoding", "sinusoidal position encoding", "sinusoidal positional embedding", "fixed positional encoding" },
        es = "Codificación posicional fija introducida en el Transformer original que utiliza funciones seno y coseno de frecuencias variables para representar cada posición como un vector determinístico.",
        zh = "原始 Transformer 中使用的固定位置编码,使用不同频率的正弦和余弦函数将每个位置表示为一个确定性向量。",
        term_es = "codificación posicional sinusoidal",
        term_zh = "正弦位置编码",
        aliases_es = { "sinusoidal positional encoding", "codificación posicional senoidal", "codificación posicional fija" },
        aliases_zh = { "sinusoidal positional encoding", "正弦余弦位置编码", "固定位置编码" },
    }
    
    data["skeleton of thought"] = {
        short = "A prompting strategy in which the model first produces a brief outline (skeleton) of an answer and then expands each bullet in parallel, reducing latency and structuring long-form generation.",
        article = nil,
        aliases = { "SoT", "Skeleton-of-Thought", "skeleton-of-thought prompting" },
        es = "Estrategia de prompting en la que el modelo primero produce un breve esquema (esqueleto) de la respuesta y luego expande cada punto en paralelo, reduciendo la latencia y estructurando la generación de respuestas largas.",
        zh = "一种提示策略,模型首先生成答案的简要大纲(骨架),然后并行扩展每个要点,从而降低延迟并为长篇生成提供结构。",
        term_es = "esqueleto de pensamiento",
        term_zh = "思维骨架",
        aliases_es = { "Skeleton-of-Thought", "SoT" },
        aliases_zh = { "Skeleton-of-Thought", "SoT", "骨架式思维" },
    }
    
    data["skin tone bias"] = {
        short = "Performance disparity of computer vision systems across skin tones, particularly higher error rates for darker-skinned subjects in face detection, recognition, and analysis. Documented prominently in audits like Gender Shades.",
        article = nil,
        aliases = { "skin-tone bias", "skin color bias", "phototype bias" },
        es = "Disparidad en el rendimiento de sistemas de visión por computador entre tonos de piel, en particular tasas de error más altas para personas de piel más oscura en detección, reconocimiento y análisis facial. Documentada de forma prominente en auditorías como Gender Shades.",
        zh = "计算机视觉系统在不同肤色之间的性能差异,尤其是在人脸检测、识别和分析中,深肤色对象的错误率显著更高。Gender Shades 等审计研究对此有重要记录。",
        term_es = "sesgo por tono de piel",
        term_zh = "肤色偏差",
        aliases_es = { "sesgo de color de piel", "sesgo por fototipo" },
        aliases_zh = { "肤色偏见", "皮肤色调偏差" },
    }
    
    data["skip connect operation"] = {
        short = "A candidate operation in cell-based NAS search spaces (NASNet, DARTS) that passes the input forward unchanged, equivalent to an identity mapping; over-selection of skip-connects is a known DARTS failure mode.",
        article = nil,
        aliases = { "skip-connect", "skip connect", "identity operation", "identity skip" },
        es = "Operación candidata en espacios de búsqueda de NAS basados en celdas (NASNet, DARTS) que propaga la entrada sin cambios, equivalente a un mapeo identidad; su sobre-selección es un modo de fallo conocido de DARTS.",
        zh = "基于单元的 NAS 搜索空间(NASNet、DARTS)中的候选操作,将输入原样传递,等价于恒等映射;其过度选择是 DARTS 已知的失败模式之一。",
        term_es = "operación skip-connect",
        term_zh = "skip-connect 操作",
        aliases_es = { "skip-connect", "operación identidad", "salto identidad" },
        aliases_zh = { "跳跃连接操作", "恒等操作", "identity 操作" },
    }
    
    data["skip connection"] = {
        short = "A connection that bypasses one or more layers, feeding earlier activations directly into a later layer; used in residual, U-Net, and densely connected architectures.",
        article = nil,
        aliases = { "skip link", "skip-connection", "shortcut connection", "bypass connection", "residual connection" },
        es = "Conexión que omite una o más capas y alimenta activaciones anteriores directamente a una capa posterior; se usa en arquitecturas residuales, U-Net y densamente conectadas.",
        zh = "一种跨越一层或多层的连接,将较早的激活直接送入较晚的层;常见于残差、U-Net 与稠密连接架构。",
        term_es = "conexión de salto",
        term_zh = "跳跃连接",
        aliases_es = { "conexión salto", "atajo", "conexión residual" },
        aliases_zh = { "跳连接", "捷径连接", "残差连接" },
    }
    
    data["skip-gram"] = {
        short = "A word2vec architecture that predicts the surrounding context words given the current word. Slower to train than CBOW but produces better representations for rare words.",
        article = nil,
        aliases = { "skipgram", "skip gram", "Skip-Gram", "skip-gram model", "SG" },
        es = "Arquitectura de word2vec que predice las palabras de contexto circundantes a partir de la palabra actual. Entrena más lento que CBOW pero produce mejores representaciones para palabras raras.",
        zh = "word2vec 的一种架构,根据当前词预测其周围的上下文词。训练比 CBOW 慢,但能为罕见词产生更好的表示。",
        term_es = "skip-gram",
        term_zh = "skip-gram",
        aliases_es = { "skip gram", "modelo skip-gram" },
        aliases_zh = { "skip-gram 模型", "Skip-Gram", "跳字模型" },
    }
    
    data["skip-thought vectors"] = {
        short = "Sentence embeddings learned by training an encoder-decoder model to predict the previous and next sentences from a given sentence, generalizing the skip-gram objective from words to sentences.",
        article = nil,
        aliases = { "skip thought vectors", "Skip-Thought", "skip-thought", "skip-thought embeddings", "skip-thoughts" },
        es = "Embeddings de oraciones aprendidos al entrenar un modelo codificador-decodificador para predecir la oración anterior y la siguiente a partir de una oración dada, generalizando el objetivo skip-gram de palabras a oraciones.",
        zh = "通过训练编码器-解码器模型,从给定句子预测前一句和后一句而学习得到的句子嵌入,将词级 skip-gram 目标推广到句子级。",
        term_es = "skip-thought vectors",
        term_zh = "skip-thought 向量",
        aliases_es = { "vectores skip-thought", "skip-thought" },
        aliases_zh = { "skip-thought vectors", "Skip-Thought" },
    }
    
    data["skolemization"] = {
        short = "A logical transformation that eliminates existential quantifiers by replacing each existentially quantified variable with a Skolem function over the surrounding universally quantified variables.",
        article = nil,
        aliases = { "Skolemization", "Skolemisation", "skolemisation", "Skolem normal form transformation" },
        es = "Transformación lógica que elimina los cuantificadores existenciales reemplazando cada variable cuantificada existencialmente por una función de Skolem sobre las variables universales circundantes.",
        zh = "一种通过用关于周围全称变量的 Skolem 函数替换每个存在量化变量来消除存在量词的逻辑变换。",
        term_es = "skolemización",
        term_zh = "斯科伦化",
        aliases_es = { "skolemización", "Skolemización", "transformación de Skolem" },
        aliases_zh = { "Skolem 化", "斯科伦化", "司寇伦化" },
    }
    
    data["skope-rules"] = {
        short = "A Python library that learns interpretable rule lists from tree ensembles by extracting, deduplicating, and scoring decision paths, producing concise IF-THEN rules suitable for model explanation.",
        article = nil,
        aliases = { "Skope-rules", "skope_rules", "SkopeRules" },
        es = "Biblioteca de Python que aprende listas de reglas interpretables a partir de ensambles de árboles extrayendo, deduplicando y puntuando las rutas de decisión, produciendo reglas concisas de tipo SI-ENTONCES adecuadas para la explicación de modelos.",
        zh = "一个 Python 库,通过提取、去重并评分决策路径,从树集成模型中学习可解释的规则列表,生成简洁的 IF-THEN 规则用于模型解释。",
        term_es = "skope-rules",
        term_zh = "skope-rules",
        aliases_es = { "skope-rules", "Skope-rules", "skope_rules" },
        aliases_zh = { "skope-rules", "Skope-rules", "skope_rules" },
    }
    
    data["slakh dataset"] = {
        short = "Synthesized Lakh: a large dataset of multi-track audio rendered from MIDI files in the Lakh MIDI Dataset using professional sample-based virtual instruments, widely used for music source separation research.",
        article = nil,
        aliases = { "Slakh", "Slakh2100", "Synthesized Lakh", "Slakh dataset" },
        es = "Synthesized Lakh: gran conjunto de datos de audio multipista renderizado a partir de archivos MIDI del Lakh MIDI Dataset con instrumentos virtuales profesionales basados en samples, ampliamente utilizado para investigación en separación de fuentes musicales.",
        zh = "Synthesized Lakh:基于 Lakh MIDI 数据集,使用专业采样虚拟乐器渲染得到的大规模多轨音频数据集,广泛用于音乐源分离研究。",
        term_es = "Slakh",
        term_zh = "Slakh 数据集",
        aliases_es = { "Slakh2100", "Synthesized Lakh", "conjunto de datos Slakh" },
        aliases_zh = { "Slakh", "Slakh2100", "合成Lakh数据集" },
    }
    
    data["sleeper agent"] = {
        short = "A language model deliberately backdoored during training so that it behaves normally in most contexts but exhibits unsafe behavior when a specific trigger appears, used in alignment research to study persistent deceptive behavior.",
        article = nil,
        aliases = { "sleeper agents", "sleeper agent model", "deceptive sleeper agent" },
        es = "Modelo de lenguaje al que durante el entrenamiento se le introduce deliberadamente una puerta trasera, de modo que se comporta normalmente en la mayoría de contextos pero presenta conductas inseguras cuando aparece un disparador específico; se utiliza en investigación de alineación para estudiar comportamientos engañosos persistentes.",
        zh = "在训练阶段被有意植入后门的语言模型,在大多数情境下表现正常,但出现特定触发条件时会表现出不安全行为,用于对齐研究中分析持久的欺骗性行为。",
        term_es = "agente durmiente",
        term_zh = "潜伏特工",
        aliases_es = { "modelo durmiente", "sleeper agent", "agentes durmientes" },
        aliases_zh = { "sleeper agent", "潜伏代理", "潜伏智能体" },
    }
    
    data["slide-seq"] = {
        short = "A spatial transcriptomics technology that uses arrays of DNA-barcoded beads (~10 µm) deposited on a rubber-coated puck to capture mRNA from tissue sections, enabling near-cellular-resolution spatial gene-expression mapping.",
        article = nil,
        aliases = { "Slide-seq", "Slide-seqV2", "Slide seq", "DNA bead array spatial transcriptomics" },
        es = "Tecnología de transcriptómica espacial que utiliza matrices de microesferas con códigos de barras de ADN (~10 µm) depositadas sobre un disco recubierto de caucho para capturar ARNm de secciones de tejido, permitiendo mapas de expresión génica espacial con resolución casi celular.",
        zh = "一种空间转录组学技术,将带有 DNA 条形码的微珠(约 10 µm)排列在橡胶涂层的载片上以捕获组织切片中的 mRNA,可生成近单细胞分辨率的空间基因表达图谱。",
        term_es = "Slide-seq",
        term_zh = "Slide-seq",
        aliases_es = { "Slide-seqV2", "Slide seq" },
        aliases_zh = { "Slide-seqV2", "Slide-seq 空间转录组" },
    }
    
    data["sliding window attention"] = {
        short = "A local attention scheme in which each token attends to a fixed-size window of preceding (and optionally following) tokens, enabling efficient processing of long sequences.",
        article = nil,
        aliases = { "Sliding Window Attention", "SWA", "sliding-window attention" },
        es = "Esquema de atención local en el que cada token atiende a una ventana de tamaño fijo de tokens anteriores (y opcionalmente posteriores), permitiendo procesar secuencias largas de manera eficiente.",
        zh = "一种局部注意力方案,每个 token 关注固定大小的前序(以及可选的后续)token 窗口,从而高效处理长序列。",
        term_es = "atención por ventana deslizante",
        term_zh = "滑动窗口注意力",
        aliases_es = { "sliding window attention", "SWA", "atención de ventana deslizante" },
        aliases_zh = { "sliding window attention", "SWA", "滑窗注意力" },
    }
    
    data["slimpajama"] = {
        short = "A 627B-token open dataset for language model pretraining released by Cerebras, produced by aggressively cleaning and globally deduplicating the RedPajama corpus.",
        article = nil,
        aliases = { "SlimPajama", "SlimPajama-627B" },
        es = "Conjunto de datos abierto de 627 mil millones de tokens para el preentrenamiento de modelos de lenguaje publicado por Cerebras, obtenido al limpiar y deduplicar globalmente de forma agresiva el corpus RedPajama.",
        zh = "Cerebras发布的6270亿token开源语言模型预训练数据集,通过对RedPajama语料库进行积极清洗和全局去重而构建。",
        term_es = "SlimPajama",
        term_zh = "SlimPajama",
        aliases_es = { "SlimPajama-627B" },
        aliases_zh = { "SlimPajama-627B" },
    }
    
    data["slingshot"] = {
        short = "An R/Bioconductor method for inferring cell lineages and pseudotime trajectories in single-cell RNA-seq data by fitting smooth principal curves through clusters in a reduced-dimensional space.",
        article = nil,
        aliases = { "Slingshot", "Slingshot R package", "Slingshot pseudotime", "Slingshot trajectory inference" },
        es = "Método de R/Bioconductor para inferir linajes celulares y trayectorias de pseudotiempo en datos de RNA-seq de célula única ajustando curvas principales suaves a través de agrupamientos en un espacio de dimensionalidad reducida.",
        zh = "R/Bioconductor 方法,通过在降维空间中对聚类拟合平滑主曲线,从单细胞 RNA-seq 数据中推断细胞谱系和拟时序轨迹。",
        term_es = "Slingshot",
        term_zh = "Slingshot",
        aliases_es = { "paquete Slingshot", "Slingshot pseudotiempo" },
        aliases_zh = { "Slingshot R 包", "Slingshot 拟时序", "Slingshot 轨迹推断" },
    }
    
    data["smac"] = {
        short = "Sequential Model-based Algorithm Configuration: a Bayesian optimization framework by Hutter et al. that uses random forests as the surrogate, supports categorical and conditional hyperparameters, and is widely used for algorithm configuration and AutoML.",
        article = nil,
        aliases = { "SMAC", "Sequential Model-based Algorithm Configuration", "SMAC3" },
        es = "Sequential Model-based Algorithm Configuration: marco de optimización bayesiana de Hutter et al. que usa bosques aleatorios como sustituto, admite hiperparámetros categóricos y condicionales y se usa ampliamente para configuración de algoritmos y AutoML.",
        zh = "Sequential Model-based Algorithm Configuration:Hutter 等提出的贝叶斯优化框架,使用随机森林作为代理模型,支持类别型和条件型超参数,广泛用于算法配置与 AutoML。",
        term_es = "SMAC",
        term_zh = "SMAC",
        aliases_es = { "SMAC", "SMAC3", "Sequential Model-based Algorithm Configuration" },
        aliases_zh = { "SMAC", "SMAC3", "顺序模型算法配置" },
    }
    
    data["small molecule binder"] = {
        short = "A low-molecular-weight organic compound (typically below 900 Da) that binds non-covalently to a biological target such as a protein with sufficient affinity to modulate its function, forming the basis of most marketed drugs.",
        article = nil,
        aliases = { "small-molecule binder", "small molecule ligand", "small molecule drug" },
        es = "Compuesto orgánico de bajo peso molecular (normalmente por debajo de 900 Da) que se une de forma no covalente a un objetivo biológico, como una proteína, con suficiente afinidad para modular su función; constituye la base de la mayoría de los fármacos comercializados.",
        zh = "一种低分子量(通常小于 900 Da)的有机化合物,能够以非共价方式与蛋白质等生物靶点结合并具有足够亲和力以调节其功能,是大多数上市药物的基础。",
        term_es = "ligando de molécula pequeña",
        term_zh = "小分子结合物",
        aliases_es = { "molécula pequeña ligante", "fármaco de molécula pequeña" },
        aliases_zh = { "小分子配体", "小分子药物" },
    }
    
    data["smart-seq2"] = {
        short = "A full-length single-cell RNA-seq protocol that uses template-switching reverse transcription and PCR amplification of polyadenylated mRNA, providing high gene-detection sensitivity and even coverage across transcripts.",
        article = nil,
        aliases = { "Smart-seq2", "SMART-seq2", "Smart-seq", "Smart-seq3" },
        es = "Protocolo de RNA-seq de célula única de longitud completa que utiliza retrotranscripción con cambio de plantilla y amplificación por PCR de ARNm poliadenilado, ofreciendo alta sensibilidad de detección de genes y cobertura uniforme a lo largo de los transcritos.",
        zh = "一种全长单细胞 RNA-seq 方案,利用模板转换逆转录和 PCR 扩增多聚腺苷酸化 mRNA,具有较高的基因检测灵敏度并在转录本上提供均匀覆盖。",
        term_es = "Smart-seq2",
        term_zh = "Smart-seq2",
        aliases_es = { "SMART-seq2", "Smart-seq", "Smart-seq3" },
        aliases_zh = { "SMART-seq2", "Smart-seq", "Smart-seq3" },
    }
    
    data["smbo"] = {
        short = "Acronym for Sequential Model-Based Optimization: the iterative loop of fitting a probabilistic surrogate to past evaluations and selecting the next point by maximizing an acquisition function; underlies SMAC, TPE, and Gaussian-process Bayesian optimization.",
        article = nil,
        aliases = { "SMBO", "sequential model-based optimization", "sequential model based optimization" },
        es = "Acrónimo de Sequential Model-Based Optimization: bucle iterativo en el que se ajusta un sustituto probabilístico a evaluaciones pasadas y se elige el siguiente punto maximizando una función de adquisición; subyace a SMAC, TPE y la optimización bayesiana con procesos gaussianos.",
        zh = "Sequential Model-Based Optimization 的缩写:对历史评估拟合概率代理模型并通过最大化采集函数选择下一个点的迭代过程;构成 SMAC、TPE 和基于高斯过程的贝叶斯优化的基础。",
        term_es = "SMBO",
        term_zh = "SMBO",
        aliases_es = { "SMBO", "optimización secuencial basada en modelos" },
        aliases_zh = { "SMBO", "序列模型优化", "基于模型的序列优化" },
    }
    
    data["smiles"] = {
        short = "Simplified Molecular-Input Line-Entry System: a linear ASCII string notation for describing the structure of chemical molecules, where atoms and bonds are encoded as a sequence of characters derived from a graph traversal.",
        article = nil,
        aliases = { "SMILES", "Simplified Molecular-Input Line-Entry System", "SMILES notation", "SMILES string" },
        es = "Simplified Molecular-Input Line-Entry System: notación lineal de cadena ASCII para describir la estructura de moléculas químicas, en la que átomos y enlaces se codifican como una secuencia de caracteres derivada de un recorrido del grafo molecular.",
        zh = "简化分子线性输入规范(SMILES):一种用 ASCII 字符串线性描述化学分子结构的表示法,原子和键通过对分子图的遍历被编码为字符序列。",
        term_es = "SMILES",
        term_zh = "SMILES",
        aliases_es = { "notación SMILES", "cadena SMILES" },
        aliases_zh = { "SMILES 表示法", "简化分子线性输入规范" },
    }
    
    data["smiles enumeration"] = {
        short = "A data-augmentation technique in molecular machine learning that generates multiple non-canonical SMILES strings for the same molecule by varying the atom-traversal order, exposing models to many string forms of identical structures.",
        article = nil,
        aliases = { "SMILES enumeration", "SMILES randomization", "randomized SMILES", "non-canonical SMILES" },
        es = "Técnica de aumento de datos en aprendizaje automático molecular que genera múltiples cadenas SMILES no canónicas para la misma molécula variando el orden de recorrido de los átomos, exponiendo al modelo a muchas formas textuales de estructuras idénticas.",
        zh = "分子机器学习中的一种数据增强技术,通过改变原子遍历顺序为同一分子生成多个非规范 SMILES 字符串,使模型接触同一结构的多种字符串形式。",
        term_es = "enumeración de SMILES",
        term_zh = "SMILES 枚举",
        aliases_es = { "aleatorización de SMILES", "SMILES aleatorios", "SMILES no canónicos" },
        aliases_zh = { "SMILES 随机化", "随机化 SMILES", "非规范 SMILES" },
    }
    
    data["smiles transformer"] = {
        short = "A transformer neural network trained on SMILES strings to learn distributed molecular representations, used for downstream tasks such as property prediction, virtual screening, and de novo molecular generation.",
        article = nil,
        aliases = { "SMILES Transformer", "SMILES-Transformer" },
        es = "Red neuronal transformer entrenada con cadenas SMILES para aprender representaciones moleculares distribuidas, utilizada para tareas posteriores como predicción de propiedades, cribado virtual y generación molecular de novo.",
        zh = "在 SMILES 字符串上训练的 Transformer 神经网络,用于学习分子的分布式表示,并支持下游任务如性质预测、虚拟筛选和从头分子生成。",
        term_es = "SMILES Transformer",
        term_zh = "SMILES Transformer",
        aliases_es = { "transformer de SMILES" },
        aliases_zh = { "SMILES 变换器" },
    }
    
    data["smiles vae"] = {
        short = "A variational autoencoder that encodes SMILES strings into a continuous latent space and decodes back to SMILES, enabling gradient-based optimization of molecular properties; introduced by Gómez-Bombarelli et al. (2018).",
        article = nil,
        aliases = { "SMILES VAE", "ChemVAE", "chemical VAE", "molecular VAE" },
        es = "Autocodificador variacional que codifica cadenas SMILES en un espacio latente continuo y las decodifica de vuelta a SMILES, permitiendo la optimización de propiedades moleculares basada en gradientes; introducido por Gómez-Bombarelli et al. (2018).",
        zh = "一种将 SMILES 字符串编码到连续潜空间并解码回 SMILES 的变分自编码器,可用于基于梯度优化分子性质;由 Gómez-Bombarelli 等人于 2018 年提出。",
        term_es = "SMILES VAE",
        term_zh = "SMILES VAE",
        aliases_es = { "VAE molecular", "ChemVAE" },
        aliases_zh = { "ChemVAE", "化学 VAE", "分子 VAE" },
    }
    
    data["smith-waterman"] = {
        short = "A dynamic programming algorithm for optimal local alignment of two biological sequences, computed by filling a scoring matrix with match/mismatch and gap penalties and tracing back from the highest-scoring cell.",
        article = nil,
        aliases = { "Smith-Waterman", "Smith-Waterman algorithm", "SW algorithm", "local alignment algorithm" },
        es = "Algoritmo de programación dinámica para el alineamiento local óptimo de dos secuencias biológicas, calculado llenando una matriz de puntuación con penalizaciones de coincidencia/desajuste y huecos, y trazando hacia atrás desde la celda de mayor puntaje.",
        zh = "用于两条生物序列最优局部比对的动态规划算法,通过填充包含匹配/错配和空位罚分的评分矩阵,并从最高得分单元格回溯获得比对结果。",
        term_es = "Smith-Waterman",
        term_zh = "Smith-Waterman 算法",
        aliases_es = { "algoritmo Smith-Waterman", "alineamiento local Smith-Waterman" },
        aliases_zh = { "Smith-Waterman", "SW 算法", "局部比对算法" },
    }
    
    data["smooth darts"] = {
        short = "A regularization for differentiable architecture search by Chen and Hsieh (2020) that perturbs the architecture parameters during supernet training (random or adversarial smoothing) to flatten the validation loss landscape and prevent skip-connect collapse.",
        article = nil,
        aliases = { "SmoothDARTS", "SDARTS", "Smooth-DARTS" },
        es = "Regularización para búsqueda de arquitectura diferenciable de Chen y Hsieh (2020) que perturba los parámetros de arquitectura durante el entrenamiento de la super-red (suavizado aleatorio o adversario) para aplanar el paisaje de pérdida de validación y evitar el colapso por skip-connect.",
        zh = "Chen 和 Hsieh(2020)提出的可微分架构搜索正则化方法,在超网训练中对架构参数进行扰动(随机或对抗性平滑),以平滑验证损失景观并防止 skip-connect 坍缩。",
        term_es = "Smooth-DARTS",
        term_zh = "Smooth-DARTS",
        aliases_es = { "SmoothDARTS", "SDARTS" },
        aliases_zh = { "SmoothDARTS", "SDARTS", "平滑 DARTS" },
    }
    
    data["smooth l1 loss"] = {
        short = "Variant of L1 loss that is quadratic near zero and linear elsewhere, providing smooth gradients at the origin. Equivalent to Huber loss with delta = 1.",
        article = nil,
        aliases = { "smooth L1", "Smooth L1", "smooth-L1 loss" },
        es = "Variante de la pérdida L1 que es cuadrática cerca de cero y lineal en el resto, lo que proporciona gradientes suaves en el origen. Equivale a la pérdida de Huber con delta = 1.",
        zh = "L1 损失的变体,在零附近为二次、其他区域为线性,可在原点提供平滑梯度。等价于 delta = 1 的 Huber 损失。",
        term_es = "pérdida L1 suavizada",
        term_zh = "平滑 L1 损失",
        aliases_es = { "smooth L1", "L1 suave" },
        aliases_zh = { "smooth L1", "Smooth L1" },
    }
    
    data["smoothgrad"] = {
        short = "A gradient-based saliency method that reduces visual noise in attribution maps by averaging the gradient of the model output with respect to the input over many copies of the input perturbed with Gaussian noise.",
        article = nil,
        aliases = { "SmoothGrad", "smooth-grad", "Smooth Grad" },
        es = "Método de saliencia basado en gradientes que reduce el ruido visual en los mapas de atribución promediando el gradiente de la salida del modelo respecto a la entrada sobre muchas copias de la entrada perturbadas con ruido gaussiano.",
        zh = "一种基于梯度的显著性方法,通过对加入高斯噪声的多份输入副本,对模型输出关于输入的梯度取平均,从而降低归因图中的视觉噪声。",
        term_es = "SmoothGrad",
        term_zh = "SmoothGrad",
        aliases_es = { "SmoothGrad", "smoothgrad" },
        aliases_zh = { "SmoothGrad", "smoothgrad", "平滑梯度" },
    }
    
    data["smoothgrad-squared"] = {
        short = "A variant of SmoothGrad that averages the squared gradient over noisy input samples instead of the raw gradient, emphasizing magnitude of sensitivity and often producing sharper saliency maps.",
        article = nil,
        aliases = { "SmoothGrad-Squared", "SmoothGrad^2", "SmoothGrad squared" },
        es = "Variante de SmoothGrad que promedia el gradiente al cuadrado sobre muestras de entrada con ruido en lugar del gradiente puro, enfatizando la magnitud de la sensibilidad y produciendo a menudo mapas de saliencia más nítidos.",
        zh = "SmoothGrad 的一种变体,对带噪输入样本的梯度平方(而非原始梯度)取平均,强调敏感性的幅度,通常生成更清晰的显著性图。",
        term_es = "SmoothGrad-Squared",
        term_zh = "SmoothGrad-Squared",
        aliases_es = { "SmoothGrad-Squared", "SmoothGrad^2", "SmoothGrad al cuadrado" },
        aliases_zh = { "SmoothGrad-Squared", "SmoothGrad^2", "平方 SmoothGrad" },
    }
    
    data["smoothquant"] = {
        short = "A post-training quantization method for large language models that migrates the quantization difficulty from activations to weights via a per-channel smoothing transformation, enabling accurate W8A8 inference.",
        article = nil,
        aliases = { "SmoothQuant", "Smooth Quant" },
        es = "Método de cuantización post-entrenamiento para modelos de lenguaje grandes que traslada la dificultad de la cuantización de las activaciones a los pesos mediante una transformación de suavizado por canal, permitiendo inferencia precisa con W8A8.",
        zh = "面向大型语言模型的训练后量化方法,通过逐通道的平滑变换将量化难度从激活迁移到权重,从而实现精确的W8A8推理。",
        term_es = "SmoothQuant",
        term_zh = "SmoothQuant",
        aliases_es = { "Smooth Quant" },
        aliases_zh = { "Smooth Quant", "平滑量化" },
    }
    
    data["smote"] = {
        short = "Synthetic Minority Over-sampling Technique: an oversampling method that generates new minority-class examples by interpolating between an example and one of its k-nearest minority-class neighbors in feature space.",
        article = nil,
        aliases = { "SMOTE", "Synthetic Minority Over-sampling Technique", "Synthetic Minority Oversampling Technique" },
        es = "Synthetic Minority Over-sampling Technique: método de sobremuestreo que genera nuevos ejemplos de la clase minoritaria interpolando entre un ejemplo y uno de sus k vecinos más cercanos de la misma clase en el espacio de características.",
        zh = "Synthetic Minority Over-sampling Technique(合成少数类过采样技术):一种过采样方法,通过在特征空间中某个少数类样本与其 k 近邻的少数类样本之间插值,生成新的少数类样本。",
        term_es = "SMOTE",
        term_zh = "SMOTE",
        aliases_es = { "técnica SMOTE", "sobremuestreo SMOTE", "Synthetic Minority Over-sampling Technique" },
        aliases_zh = { "合成少数类过采样技术", "SMOTE 算法", "Synthetic Minority Over-sampling Technique" },
    }
    
    data["smt solver"] = {
        short = "A satisfiability-modulo-theories solver that decides the satisfiability of first-order formulas with respect to combinations of background theories such as arithmetic, arrays, or bit-vectors.",
        article = nil,
        aliases = { "SMT solver", "SMT", "satisfiability modulo theories solver", "satisfiability modulo theories" },
        es = "Resolutor de satisfacibilidad módulo teorías que decide la satisfacibilidad de fórmulas de primer orden respecto a combinaciones de teorías de fondo como aritmética, arreglos o vectores de bits.",
        zh = "可满足性模理论求解器,用于判定一阶公式相对于算术、数组或位向量等背景理论组合的可满足性。",
        term_es = "resolutor SMT",
        term_zh = "SMT 求解器",
        aliases_es = { "resolvedor SMT", "solucionador SMT", "SMT solver", "solver SMT" },
        aliases_zh = { "SMT 求解器", "可满足性模理论求解器", "SMT solver" },
    }
    
    data["snail"] = {
        short = "Simple Neural Attentive Meta-Learner. A meta-learning architecture that interleaves temporal convolutions with causal soft attention to aggregate experience across episodes for few-shot learning and reinforcement learning.",
        article = nil,
        aliases = { "SNAIL", "Simple Neural Attentive Meta-Learner", "Simple Neural Attentive Learner" },
        es = "Simple Neural Attentive Meta-Learner. Arquitectura de metaaprendizaje que intercala convoluciones temporales con atención causal suave para agregar experiencia entre episodios en aprendizaje con pocos ejemplos y aprendizaje por refuerzo.",
        zh = "SNAIL(Simple Neural Attentive Meta-Learner),一种将时间卷积与因果软注意力交替组合的元学习架构,可在小样本学习和强化学习中跨回合聚合经验。",
        term_es = "SNAIL",
        term_zh = "SNAIL",
        aliases_es = { "Simple Neural Attentive Meta-Learner", "metaaprendiz neural atento simple" },
        aliases_zh = { "Simple Neural Attentive Meta-Learner", "简单神经注意元学习器" },
    }
    
    data["snakemake"] = {
        short = "A Python-based workflow management system for reproducible bioinformatics pipelines, defining rules with input/output files and shell or script commands; resolves the dependency DAG and runs jobs locally, on clusters, or in the cloud.",
        article = nil,
        aliases = { "Snakemake", "snakemake workflow", "Snakefile" },
        es = "Sistema de gestión de flujos de trabajo basado en Python para pipelines bioinformáticos reproducibles, que define reglas con archivos de entrada/salida y comandos de shell o scripts; resuelve el DAG de dependencias y ejecuta trabajos localmente, en clústeres o en la nube.",
        zh = "基于 Python 的工作流管理系统,用于构建可复现的生物信息学流程,通过定义输入/输出文件和 shell 或脚本命令的规则,自动解析依赖 DAG 并在本地、集群或云端执行任务。",
        term_es = "Snakemake",
        term_zh = "Snakemake",
        aliases_es = { "flujo de trabajo Snakemake", "Snakefile" },
        aliases_zh = { "Snakemake 流程", "Snakefile", "snakemake 工作流" },
    }
    
    data["snapshot ensemble"] = {
        short = "An ensembling technique (Huang et al., 2017) that trains a single network with a cyclical learning-rate schedule and saves the weights at the end of each cycle, producing a diverse ensemble of models at the cost of one training run.",
        article = nil,
        aliases = { "snapshot ensembles", "snapshot ensembling", "cyclical snapshot ensemble" },
        es = "Técnica de ensamblado (Huang et al., 2017) que entrena una única red con un planificador de tasa de aprendizaje cíclico y guarda los pesos al final de cada ciclo, produciendo un ensamble diverso de modelos al coste de un solo entrenamiento.",
        zh = "一种集成方法(Huang 等,2017),用循环学习率调度训练单个网络并在每个周期结束时保存权重,从而以一次训练的代价获得多样化的模型集成。",
        term_es = "ensamble por instantáneas",
        term_zh = "快照集成",
        aliases_es = { "snapshot ensembles", "ensamblado por snapshots" },
        aliases_zh = { "Snapshot Ensemble", "周期快照集成" },
    }
    
    data["snas"] = {
        short = "Stochastic Neural Architecture Search. A differentiable NAS method that relaxes the discrete architecture distribution with a concrete (Gumbel-Softmax) distribution and optimizes architecture and weight parameters jointly.",
        article = nil,
        aliases = { "SNAS", "Stochastic NAS", "Stochastic Neural Architecture Search" },
        es = "Stochastic Neural Architecture Search. Método diferenciable de NAS que relaja la distribución discreta sobre arquitecturas mediante la distribución concreta (Gumbel-Softmax) y optimiza conjuntamente los parámetros de la arquitectura y de los pesos.",
        zh = "SNAS(随机神经架构搜索),一种可微分 NAS 方法,使用 concrete(Gumbel-Softmax)分布对离散架构分布做松弛,并联合优化架构参数与权重。",
        term_es = "SNAS",
        term_zh = "SNAS",
        aliases_es = { "Stochastic Neural Architecture Search", "búsqueda estocástica de arquitecturas neuronales" },
        aliases_zh = { "Stochastic Neural Architecture Search", "随机神经架构搜索" },
    }
    
    data["snip"] = {
        short = "Single-shot Network Pruning based on connection sensitivity. A method that prunes weights at initialization by ranking each connection's sensitivity, measured as the loss change when the connection is removed, in a single forward-backward pass.",
        article = nil,
        aliases = { "SNIP", "Single-shot Network Pruning", "single-shot pruning", "connection sensitivity pruning" },
        es = "Single-shot Network Pruning basado en sensibilidad de conexiones. Método que poda pesos en la inicialización clasificando la sensibilidad de cada conexión, medida como el cambio en la pérdida al eliminarla, mediante un único pase de adelante y atrás.",
        zh = "SNIP(基于连接敏感度的单次网络剪枝),通过一次前向-反向传播计算每个连接对损失的敏感度,并在初始化阶段按敏感度对权重进行剪枝。",
        term_es = "SNIP",
        term_zh = "SNIP",
        aliases_es = { "Single-shot Network Pruning", "poda en una sola pasada", "poda por sensibilidad de conexiones" },
        aliases_zh = { "Single-shot Network Pruning", "单次网络剪枝", "基于连接敏感度的剪枝" },
    }
    
    data["sniper defense"] = {
        short = "A Byzantine-robust federated learning defense that detects and excludes malicious clients by clustering client updates and removing the cluster (or individual updates) whose statistics—such as direction or magnitude—deviate most from the honest majority.",
        article = nil,
        aliases = { "Sniper", "Sniper defense", "Sniper aggregation", "Sniper Byzantine defense", "sniper-based defense" },
        es = "Defensa robusta frente a fallos bizantinos en aprendizaje federado que detecta y excluye clientes maliciosos agrupando las actualizaciones de los clientes y eliminando el clúster (o las actualizaciones individuales) cuyas estadísticas —como dirección o magnitud— más se desvían de la mayoría honesta.",
        zh = "一种联邦学习的拜占庭鲁棒防御方法,通过对客户端更新进行聚类并剔除统计量(如方向或幅度)最偏离诚实多数的簇或个别更新,识别并排除恶意客户端。",
        term_es = "defensa Sniper",
        term_zh = "Sniper防御",
        aliases_es = { "Sniper", "agregación Sniper", "defensa bizantina Sniper" },
        aliases_zh = { "Sniper", "Sniper聚合", "Sniper拜占庭防御" },
    }
    
    data["snli-ve"] = {
        short = "A visual entailment benchmark derived from SNLI and Flickr30k in which a model decides whether a natural-language hypothesis is entailed, contradicted, or neutral with respect to a given image. Used to evaluate fine-grained visual reasoning.",
        article = nil,
        aliases = { "SNLI-VE", "SNLI Visual Entailment", "visual entailment SNLI" },
        es = "Punto de referencia de implicación visual derivado de SNLI y Flickr30k en el que un modelo decide si una hipótesis en lenguaje natural está implicada, contradicha o es neutral respecto a una imagen dada. Se utiliza para evaluar el razonamiento visual fino.",
        zh = "一种由 SNLI 与 Flickr30k 派生而来的视觉蕴含基准,模型需判断自然语言假设相对于给定图像是蕴含、矛盾还是中性,用于评估细粒度视觉推理能力。",
        term_es = "SNLI-VE",
        term_zh = "SNLI-VE",
        aliases_es = { "implicación visual SNLI" },
        aliases_zh = { "SNLI 视觉蕴含" },
    }
    
    data["snowflake arctic"] = {
        short = "An open-weights mixture-of-experts large language model (480B total parameters, 17B active) released by Snowflake in 2024, designed for enterprise tasks such as SQL generation, coding, and instruction following.",
        article = nil,
        aliases = { "Arctic", "Snowflake Arctic", "Arctic LLM", "Snowflake Arctic LLM" },
        es = "Modelo de lenguaje grande de mezcla de expertos con pesos abiertos (480 mil millones de parámetros totales, 17 mil millones activos) publicado por Snowflake en 2024, orientado a tareas empresariales como generación de SQL, programación y seguimiento de instrucciones.",
        zh = "Snowflake于2024年发布的开放权重专家混合大型语言模型(共4800亿参数,激活170亿),面向SQL生成、编程和指令跟随等企业任务。",
        term_es = "Snowflake Arctic",
        term_zh = "Snowflake Arctic",
        aliases_es = { "Arctic", "Arctic LLM" },
        aliases_zh = { "Arctic", "Arctic LLM", "雪花Arctic" },
    }
    
    data["snpeff"] = {
        short = "A genetic variant annotation and effect prediction tool that classifies variants by their predicted impact on genes (e.g., missense, nonsense, splice-site) using gene models from organisms such as human, mouse, and Drosophila.",
        article = nil,
        aliases = { "SnpEff", "snpEff", "SnpEff variant annotator" },
        es = "Herramienta de anotación de variantes genéticas y predicción de efectos que clasifica variantes según su impacto previsto sobre los genes (p. ej., missense, sin sentido, sitio de empalme) usando modelos génicos de organismos como humano, ratón y Drosophila.",
        zh = "用于遗传变异注释和效应预测的工具,基于人、鼠、果蝇等生物的基因模型,按照变异对基因的预测影响(如错义、无义、剪接位点突变)进行分类。",
        term_es = "SnpEff",
        term_zh = "SnpEff",
        aliases_es = { "anotador SnpEff", "snpEff" },
        aliases_zh = { "SnpEff 变异注释", "snpEff" },
    }
    
    data["snr"] = {
        short = "Signal-to-noise ratio: the ratio between the power of a desired signal and the power of background noise, typically expressed in decibels and used as a basic quality measure for audio and communication systems.",
        article = nil,
        aliases = { "SNR", "signal-to-noise ratio", "signal to noise ratio" },
        es = "Relación señal-ruido: cociente entre la potencia de una señal deseada y la potencia del ruido de fondo, expresado habitualmente en decibelios y empleado como medida básica de calidad en sistemas de audio y comunicaciones.",
        zh = "信噪比:所需信号功率与背景噪声功率之比,通常以分贝表示,是音频和通信系统中常用的基本质量度量。",
        term_es = "SNR",
        term_zh = "信噪比",
        aliases_es = { "relación señal-ruido", "razón señal a ruido", "S/N" },
        aliases_zh = { "SNR", "信号噪声比", "信号与噪声比" },
    }
    
    data["snrna-seq"] = {
        short = "Single-nucleus RNA sequencing, which profiles polyadenylated transcripts from isolated nuclei rather than whole cells. Compatible with frozen and difficult-to-dissociate tissues, capturing predominantly nuclear and nascent transcripts.",
        article = nil,
        aliases = { "snRNA-seq", "single-nucleus RNA-seq", "single nucleus RNA-seq", "single-nucleus RNA sequencing", "nuclei RNA-seq" },
        es = "Secuenciación de ARN de núcleo único, que perfila transcritos poliadenilados de núcleos aislados en lugar de células enteras. Compatible con tejidos congelados y de difícil disociación, capturando principalmente transcritos nucleares y nacientes.",
        zh = "单核 RNA 测序,对分离的细胞核而非完整细胞中的多聚腺苷酸化转录本进行测序。适用于冻存和难以解离的组织,主要捕获核内和新生转录本。",
        term_es = "snRNA-seq",
        term_zh = "单核 RNA-seq",
        aliases_es = { "RNA-seq de núcleo único", "secuenciación de ARN de núcleos aislados" },
        aliases_zh = { "snRNA-seq", "单核 RNA 测序", "单核转录组测序" },
    }
    
    data["snv calling"] = {
        short = "The bioinformatics process of identifying single-nucleotide variants — positions where an individual's genome differs from a reference by one base — from aligned sequencing reads, typically using callers such as GATK HaplotypeCaller, DeepVariant, or bcftools.",
        article = nil,
        aliases = { "SNV calling", "single nucleotide variant calling", "SNV detection", "variant calling for SNVs" },
        es = "Proceso bioinformático de identificación de variantes de un solo nucleótido — posiciones en las que el genoma de un individuo difiere de la referencia en una base — a partir de lecturas de secuenciación alineadas, usando llamadores como GATK HaplotypeCaller, DeepVariant o bcftools.",
        zh = "从比对后的测序读段中识别单核苷酸变异(个体基因组与参考序列在单个碱基处的差异)的生物信息学过程,常用工具包括 GATK HaplotypeCaller、DeepVariant 和 bcftools。",
        term_es = "llamado de SNV",
        term_zh = "SNV 检出",
        aliases_es = { "detección de SNV", "llamado de variantes de un solo nucleótido", "SNV calling" },
        aliases_zh = { "SNV calling", "单核苷酸变异检出", "SNV 检测" },
    }
    
    data["so-vits-svc"] = {
        short = "An open-source singing voice conversion framework that combines a SoftVC content encoder with a VITS-based acoustic model and decoder to convert a source singer's voice to a target singer while preserving melody and expression.",
        article = nil,
        aliases = { "so-vits-svc", "SoftVC VITS Singing Voice Conversion", "SoftVC-VITS-SVC" },
        es = "Marco de conversión de voz cantada de código abierto que combina un codificador de contenido SoftVC con un modelo acústico y un decodificador basados en VITS para convertir la voz de un cantante origen a un cantante objetivo, preservando melodía y expresividad.",
        zh = "一种开源的歌声转换框架,将 SoftVC 内容编码器与基于 VITS 的声学模型和解码器相结合,在保留旋律与表现力的前提下,将源歌手嗓音转换为目标歌手。",
        term_es = "so-vits-svc",
        term_zh = "so-vits-svc",
        aliases_es = { "SoftVC VITS SVC", "SoftVC-VITS-SVC" },
        aliases_zh = { "SoftVC VITS 歌声转换", "SoftVC-VITS-SVC" },
    }
    
    data["sobel test"] = {
        short = "A first-order normal-approximation test for the indirect effect in a linear mediation model, dividing the product of the two path coefficients by an estimate of its standard error.",
        article = nil,
        aliases = { "Sobel test", "Sobel z-test", "Sobel-Goodman test" },
        es = "Prueba basada en la aproximación normal de primer orden para el efecto indirecto en un modelo de mediación lineal, que divide el producto de los dos coeficientes de trayectoria por una estimación de su error estándar.",
        zh = "在线性中介模型中对间接效应进行的一阶正态近似检验,通过将两条路径系数的乘积除以其标准误估计量得到统计量。",
        term_es = "prueba de Sobel",
        term_zh = "Sobel 检验",
        aliases_es = { "test de Sobel", "prueba z de Sobel" },
        aliases_zh = { "索贝尔检验", "Sobel z 检验", "Sobel-Goodman 检验" },
    }
    
    data["social desirability bias"] = {
        short = "A response bias in which subjects answer surveys, prompts, or evaluations in ways they perceive as socially acceptable rather than truthfully. Distorts training labels collected from human raters and self-reported features.",
        article = nil,
        aliases = { "socially desirable responding", "social desirability response bias" },
        es = "Sesgo de respuesta en el que los sujetos contestan encuestas, indicaciones o evaluaciones de la manera que perciben como socialmente aceptable en lugar de hacerlo con sinceridad. Distorsiona las etiquetas de entrenamiento recolectadas de evaluadores humanos y los rasgos autoinformados.",
        zh = "一种应答偏差,被试在问卷、提示或评估中以其认为社会可接受的方式作答,而非如实作答。会扭曲来自人工标注者的训练标签和自报特征。",
        term_es = "sesgo de deseabilidad social",
        term_zh = "社会期望偏差",
        aliases_es = { "respuesta socialmente deseable", "sesgo de respuesta socialmente deseable" },
        aliases_zh = { "社会赞许性偏差", "社会可取性偏差", "社会期许偏差" },
    }
    
    data["socioeconomic bias"] = {
        short = "Bias in which model predictions, allocations, or representations differ systematically across socioeconomic strata such as income, education, or neighborhood. Often correlates with other protected attributes and complicates causal fairness analysis.",
        article = nil,
        aliases = { "class bias", "income bias", "SES bias" },
        es = "Sesgo en el que las predicciones, asignaciones o representaciones del modelo difieren sistemáticamente entre estratos socioeconómicos como ingresos, educación o vecindario. Suele correlacionarse con otros atributos protegidos y complica el análisis causal de equidad.",
        zh = "模型的预测、分配或表征在收入、教育、社区等社会经济层级间存在系统性差异。通常与其他受保护属性相关联,使因果公平性分析更加复杂。",
        term_es = "sesgo socioeconómico",
        term_zh = "社会经济偏差",
        aliases_es = { "sesgo de clase", "sesgo de ingresos" },
        aliases_zh = { "阶层偏差", "收入偏差", "社经偏差" },
    }
    
    data["soft debias"] = {
        short = "A debiasing approach that minimizes association between representations and a protected attribute via a soft penalty rather than full projection, balancing bias reduction against information preservation. Contrasted with hard debiasing methods like Bolukbasi's hard-debias.",
        article = nil,
        aliases = { "soft debiasing", "soft-debias" },
        es = "Enfoque de desesgo que minimiza la asociación entre las representaciones y un atributo protegido mediante una penalización suave en lugar de una proyección completa, equilibrando reducción del sesgo y conservación de la información. Se contrapone a métodos de desesgo duro como hard-debias de Bolukbasi.",
        zh = "一种去偏方法,通过软惩罚而非完全投影来最小化表征与受保护属性之间的关联,在降低偏差与保留信息之间取得平衡。与 Bolukbasi 的 hard-debias 等硬去偏方法相对。",
        term_es = "soft debias",
        term_zh = "软去偏",
        aliases_es = { "desesgo suave" },
        aliases_zh = { "soft debias", "柔性去偏" },
    }
    
    data["soft decision tree"] = {
        short = "A decision-tree variant in which each internal split is a smooth, probabilistic gating function rather than a hard branch, enabling end-to-end gradient-based training.",
        article = nil,
        aliases = { "soft tree", "differentiable decision tree", "probabilistic decision tree", "fuzzy decision tree" },
        es = "Variante de árbol de decisión en la que cada división interna es una función de compuerta suave y probabilística en lugar de una rama dura, lo que permite el entrenamiento de extremo a extremo basado en gradientes.",
        zh = "一种决策树变体,其内部分裂为平滑的概率门控函数而非硬分支,从而支持端到端的基于梯度的训练。",
        term_es = "árbol de decisión suave",
        term_zh = "软决策树",
        aliases_es = { "árbol de decisión diferenciable", "árbol de decisión probabilístico", "árbol de decisión difuso" },
        aliases_zh = { "可微决策树", "概率决策树", "模糊决策树" },
    }
    
    data["soft prompt"] = {
        short = "A sequence of continuous, learnable embedding vectors prepended to the input of a frozen language model and optimized by gradient descent on a downstream task, in contrast to discrete textual prompts.",
        article = nil,
        aliases = { "soft prompts", "soft prompting", "continuous prompt", "continuous prompts" },
        es = "Secuencia de vectores de embedding continuos y aprendibles que se anteponen a la entrada de un modelo de lenguaje congelado y se optimizan por descenso de gradiente sobre una tarea, en contraste con los prompts textuales discretos.",
        zh = "由可学习的连续嵌入向量组成的序列,附加在冻结语言模型的输入前,通过梯度下降在下游任务上进行优化,与离散的文本提示形成对比。",
        term_es = "prompt suave",
        term_zh = "软提示",
        aliases_es = { "prompts suaves", "soft prompt", "prompt continuo" },
        aliases_zh = { "soft prompt", "连续提示", "软性提示" },
    }
    
    data["soft unification"] = {
        short = "A relaxation of logical unification that compares terms by similarity scores—often via learned embeddings—rather than requiring exact syntactic equality, enabling differentiable rule-based reasoning.",
        article = nil,
        aliases = { "differentiable unification", "neural unification", "fuzzy unification" },
        es = "Relajación de la unificación lógica que compara términos mediante puntuaciones de similitud, a menudo a través de incrustaciones aprendidas, en lugar de requerir igualdad sintáctica exacta, permitiendo el razonamiento basado en reglas diferenciable.",
        zh = "对逻辑合一的松弛,通过相似度分数(通常基于学习到的嵌入)来比较项,而不要求精确的句法相等,从而支持可微的基于规则的推理。",
        term_es = "unificación suave",
        term_zh = "软合一",
        aliases_es = { "unificación diferenciable", "unificación neuronal", "unificación difusa" },
        aliases_zh = { "可微合一", "神经合一", "模糊合一", "软统一" },
    }
    
    data["softmax"] = {
        short = "Function mapping a vector of real scores to a probability distribution: σ(z)_i = exp(z_i) / Σ_j exp(z_j). Standard output layer for multi-class classification.",
        article = "Softmax Function",
        aliases = { "Softmax", "softmax function", "normalized exponential" },
        es = "Función que transforma un vector de puntajes reales en una distribución de probabilidad: σ(z)_i = exp(z_i) / Σ_j exp(z_j). Capa de salida estándar para clasificación multiclase.",
        zh = "将实数得分向量映射为概率分布的函数:σ(z)_i = exp(z_i) / Σ_j exp(z_j)。是多分类问题的标准输出层。",
        term_es = "softmax",
        term_zh = "Softmax",
        aliases_es = { "softmax", "función softmax", "exponencial normalizada" },
        aliases_zh = { "Softmax", "归一化指数函数", "柔性最大值" },
    }
    
    data["softmax exploration"] = {
        short = "An action-selection strategy that samples actions from a Boltzmann (softmax) distribution over estimated values, so that better-valued actions are more likely but all actions retain non-zero probability; a temperature parameter controls greediness.",
        article = nil,
        aliases = { "Boltzmann exploration", "softmax action selection", "Boltzmann action selection" },
        es = "Estrategia de selección de acciones que las muestrea a partir de una distribución de Boltzmann (softmax) sobre los valores estimados, de modo que las acciones con mayor valor son más probables pero todas conservan probabilidad no nula; un parámetro de temperatura controla el grado de voracidad.",
        zh = "一种动作选择策略,从基于估计值的玻尔兹曼(softmax)分布中采样动作,使估计值更高的动作概率更大,但所有动作都保持非零概率;通过温度参数控制贪心程度。",
        term_es = "exploración softmax",
        term_zh = "softmax 探索",
        aliases_es = { "exploración de Boltzmann", "selección softmax de acciones" },
        aliases_zh = { "玻尔兹曼探索", "Boltzmann 探索" },
    }
    
    data["softplus"] = {
        short = "Smooth approximation to ReLU defined as ln(1 + e^x). Always positive, differentiable everywhere, and approaches the identity for large x and zero for very negative x.",
        article = nil,
        aliases = { "Softplus", "soft plus", "smooth ReLU" },
        es = "Aproximación suave de ReLU definida como ln(1 + e^x). Siempre positiva, diferenciable en todo punto y se aproxima a la identidad para x grande y a cero para x muy negativo.",
        zh = "ReLU 的平滑近似,定义为 ln(1 + e^x)。处处可导且恒为正,对大正数趋近于恒等映射,对很负的输入趋近于零。",
        term_es = "Softplus",
        term_zh = "Softplus",
        aliases_es = { "Softplus", "ReLU suave" },
        aliases_zh = { "Softplus", "平滑 ReLU" },
    }
    
    data["soluble mpnn"] = {
        short = "SolubleMPNN is a variant of ProteinMPNN whose amino-acid distribution is biased to avoid hydrophobic surface residues, producing protein sequences with improved solubility while preserving the target backbone structure.",
        article = nil,
        aliases = { "SolubleMPNN", "Soluble-MPNN", "soluble ProteinMPNN" },
        es = "SolubleMPNN es una variante de ProteinMPNN cuya distribución de aminoácidos está sesgada para evitar residuos hidrofóbicos en la superficie, produciendo secuencias proteicas con solubilidad mejorada mientras se preserva la estructura de la cadena principal objetivo.",
        zh = "SolubleMPNN 是 ProteinMPNN 的一个变体,其氨基酸分布被偏置以避免表面疏水残基,从而在保留目标主链结构的同时生成具有更高溶解度的蛋白质序列。",
        term_es = "SolubleMPNN",
        term_zh = "SolubleMPNN",
        aliases_es = { "ProteinMPNN soluble" },
        aliases_zh = { "可溶 ProteinMPNN", "Soluble ProteinMPNN" },
    }
    
    data["somatic hypermutation"] = {
        short = "A B-cell process in which activation-induced cytidine deaminase (AID) introduces point mutations into the variable regions of immunoglobulin genes, generating antibody diversity and enabling affinity maturation during the immune response.",
        article = nil,
        aliases = { "SHM", "somatic hypermutation (SHM)", "Ig SHM", "antibody hypermutation" },
        es = "Proceso de células B en el que la citidina desaminasa inducida por activación (AID) introduce mutaciones puntuales en las regiones variables de los genes de inmunoglobulina, generando diversidad de anticuerpos y permitiendo la maduración por afinidad durante la respuesta inmune.",
        zh = "B 细胞中由活化诱导的胞苷脱氨酶(AID)在免疫球蛋白基因可变区引入点突变的过程,从而产生抗体多样性,并在免疫应答中实现亲和力成熟。",
        term_es = "hipermutación somática",
        term_zh = "体细胞超突变",
        aliases_es = { "SHM", "hipermutación somática de inmunoglobulinas" },
        aliases_zh = { "SHM", "免疫球蛋白超突变", "体细胞高频突变" },
    }
    
    data["somatic variant"] = {
        short = "A genetic variant arising in non-germline cells after fertilization, present in only a subset of cells in an individual. Common in cancer, where somatic mutations drive tumor evolution; absent from gametes and not heritable.",
        article = nil,
        aliases = { "somatic mutation", "somatic alteration", "tumor-specific variant", "somatic SNV" },
        es = "Variante genética que surge en células no germinales después de la fecundación, presente solo en un subconjunto de células de un individuo. Común en cáncer, donde las mutaciones somáticas impulsan la evolución tumoral; ausente en gametos y no heredable.",
        zh = "受精后在非生殖细胞中产生的遗传变异,仅存在于个体的一部分细胞中。常见于癌症,体细胞突变驱动肿瘤演化;不存在于配子,不可遗传。",
        term_es = "variante somática",
        term_zh = "体细胞变异",
        aliases_es = { "mutación somática", "alteración somática", "variante somática tumoral" },
        aliases_zh = { "体细胞突变", "体细胞 SNV", "肿瘤特异变异" },
    }
    
    data["somewhat homomorphic encryption"] = {
        short = "An encryption scheme that supports a bounded number of homomorphic additions and multiplications on ciphertexts before noise growth makes decryption fail, sitting between partially homomorphic encryption and fully homomorphic encryption (which removes the depth bound via bootstrapping).",
        article = nil,
        aliases = { "Somewhat Homomorphic Encryption", "SHE", "somewhat-homomorphic encryption", "leveled homomorphic encryption", "bounded-depth homomorphic encryption" },
        es = "Esquema de cifrado que admite un número acotado de sumas y multiplicaciones homomórficas sobre textos cifrados antes de que el crecimiento de ruido haga fallar el descifrado, situándose entre el cifrado parcialmente homomórfico y el cifrado totalmente homomórfico (que elimina el límite de profundidad mediante bootstrapping).",
        zh = "支持密文上有限次同态加法与乘法运算的加密方案,超过该次数后噪声增长会导致解密失败;其能力介于部分同态加密与完全同态加密(后者通过bootstrapping消除深度限制)之间。",
        term_es = "cifrado homomórfico parcial limitado",
        term_zh = "有限同态加密",
        aliases_es = { "SHE", "cifrado homomórfico nivelado", "cifrado homomórfico de profundidad acotada" },
        aliases_zh = { "SHE", "层次同态加密", "Somewhat同态加密", "有界深度同态加密" },
    }
    
    data["song generation"] = {
        short = "The task of generating a complete song, typically including both vocal performance and instrumental accompaniment, from inputs such as lyrics, a style description, or a short audio prompt.",
        article = nil,
        aliases = { "complete song generation", "vocal song generation", "lyrics-to-song generation" },
        es = "Tarea de generar una canción completa, que normalmente incluye tanto la interpretación vocal como el acompañamiento instrumental, a partir de entradas como letras, una descripción de estilo o un breve audio de referencia.",
        zh = "完整歌曲生成任务:根据歌词、风格描述或简短音频提示等输入,生成包含人声演唱与器乐伴奏的完整歌曲。",
        term_es = "generación de canciones",
        term_zh = "歌曲生成",
        aliases_es = { "generación de canciones completas", "generación de canciones con voz" },
        aliases_zh = { "完整歌曲生成", "歌词到歌曲生成", "带人声歌曲生成" },
    }
    
    data["sora"] = {
        short = "A text-to-video diffusion transformer model from OpenAI that generates minute-long, high-resolution video clips from natural language prompts by operating on spacetime patches of latent video.",
        article = nil,
        aliases = { "Sora", "OpenAI Sora", "Sora video model" },
        es = "Modelo de difusión basado en transformador para generación de video a partir de texto, desarrollado por OpenAI, que produce clips de alta resolución y hasta un minuto de duración a partir de instrucciones en lenguaje natural, operando sobre parches espaciotemporales de video latente.",
        zh = "OpenAI 提出的文本到视频扩散 Transformer 模型,通过对潜空间视频的时空 patch 进行建模,根据自然语言提示生成最长可达一分钟的高分辨率视频片段。",
        term_es = "Sora",
        term_zh = "Sora",
        aliases_es = { "Sora de OpenAI" },
        aliases_zh = { "OpenAI Sora" },
    }
    
    data["sound event detection"] = {
        short = "The task of identifying which sound events occur in an audio recording and locating their onset and offset times, typically framed as multi-label temporal classification.",
        article = nil,
        aliases = { "SED", "audio event detection", "acoustic event detection" },
        es = "Tarea de identificar qué eventos sonoros aparecen en una grabación de audio y localizar sus tiempos de inicio y fin, planteada habitualmente como una clasificación temporal multietiqueta.",
        zh = "声音事件检测任务:识别音频录音中出现了哪些声音事件,并定位其起止时间,通常以多标签时序分类的形式建模。",
        term_es = "detección de eventos sonoros",
        term_zh = "声音事件检测",
        aliases_es = { "SED", "detección de eventos acústicos", "detección de eventos de audio" },
        aliases_zh = { "SED", "音频事件检测", "声学事件检测" },
    }
    
    data["soundstream"] = {
        short = "A neural audio codec from Google that uses a fully convolutional encoder–decoder with a residual vector quantizer to compress general audio (speech, music, ambient sound) at very low bitrates with high perceptual quality.",
        article = nil,
        aliases = { "SoundStream" },
        es = "Códec de audio neuronal de Google que utiliza un codificador-decodificador completamente convolucional con cuantización vectorial residual para comprimir audio general (voz, música, sonido ambiente) a tasas de bits muy bajas con alta calidad perceptual.",
        zh = "Google 提出的神经音频编解码器,采用全卷积编码器–解码器结构和残差向量量化,能够以极低比特率压缩通用音频(语音、音乐、环境声)并保持较高的感知质量。",
        term_es = "SoundStream",
        term_zh = "SoundStream",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["sox effects"] = {
        short = "Audio transformations provided by the SoX (Sound eXchange) command-line tool and library, such as resampling, gain adjustment, filtering, reverb, pitch shifting, and tempo change, commonly used as building blocks for audio data augmentation.",
        article = nil,
        aliases = { "SoX effects", "SoX transformations", "sox-effects" },
        es = "Transformaciones de audio proporcionadas por la herramienta y biblioteca de línea de comandos SoX (Sound eXchange), como remuestreo, ajuste de ganancia, filtrado, reverberación, desplazamiento de tono y cambio de tempo, utilizadas habitualmente como bloques básicos para aumento de datos de audio.",
        zh = "由 SoX(Sound eXchange)命令行工具及库提供的音频变换,例如重采样、增益调整、滤波、混响、音高变换和速度变化,常用作音频数据增强的基本构件。",
        term_es = "efectos de SoX",
        term_zh = "SoX 音效",
        aliases_es = { "transformaciones de SoX", "efectos SoX" },
        aliases_zh = { "SoX 效果", "SoX 变换", "SoX 音频效果" },
    }
    
    data["span masking"] = {
        short = "A masked language modeling objective that masks contiguous spans of tokens rather than independent tokens, encouraging models to learn longer-range dependencies. Used by SpanBERT and T5.",
        article = nil,
        aliases = { "Span Masking", "span masked language modeling", "span-level masking", "contiguous span masking" },
        es = "Objetivo de modelado de lenguaje enmascarado que enmascara segmentos contiguos de tokens en lugar de tokens independientes, fomentando que el modelo aprenda dependencias de mayor alcance. Utilizado por SpanBERT y T5.",
        zh = "一种掩码语言建模目标,对连续的 token 跨段进行掩码而非独立 token,从而促使模型学习更长范围的依赖。SpanBERT 和 T5 采用了该方法。",
        term_es = "enmascaramiento de spans",
        term_zh = "跨段掩码",
        aliases_es = { "span masking", "enmascaramiento por spans", "enmascaramiento contiguo de tokens" },
        aliases_zh = { "span masking", "片段掩码", "跨度掩码", "连续跨段掩码" },
    }
    
    data["sparql"] = {
        short = "A standardized query and update language for RDF graph data, enabling pattern matching, filtering, and federated querying across linked-data endpoints.",
        article = nil,
        aliases = { "SPARQL", "SPARQL Protocol and RDF Query Language" },
        es = "Lenguaje estandarizado de consulta y actualización para datos en grafos RDF, que permite emparejamiento de patrones, filtrado y consultas federadas entre puntos de acceso de datos enlazados.",
        zh = "一种针对 RDF 图数据的标准化查询与更新语言,支持模式匹配、过滤以及跨链接数据端点的联合查询。",
        term_es = "SPARQL",
        term_zh = "SPARQL",
        aliases_es = { "lenguaje SPARQL", "consulta SPARQL" },
        aliases_zh = { "SPARQL 查询语言", "SPARQL 语言" },
    }
    
    data["sparse activation"] = {
        short = "A pattern of neural network computation in which only a small fraction of units, experts, or weights are active for any given input, reducing FLOPs and enabling conditional or mixture-of-experts architectures.",
        article = nil,
        aliases = { "sparse activations", "activation sparsity", "sparsely activated" },
        es = "Patrón de computación en redes neuronales en el que solo una pequeña fracción de unidades, expertos o pesos está activa para cada entrada, reduciendo los FLOPs y permitiendo arquitecturas condicionales o de mezcla de expertos.",
        zh = "神经网络的一种计算模式,对于任一输入只有少部分神经元、专家或权重被激活,从而降低浮点运算量,并支持条件计算或专家混合架构。",
        term_es = "activación dispersa",
        term_zh = "稀疏激活",
        aliases_es = { "activaciones dispersas", "esparsidad de activación", "sparse activation" },
        aliases_zh = { "稀疏激活模式", "激活稀疏性", "sparse activation" },
    }
    
    data["sparse attention"] = {
        short = "An attention pattern that restricts each query to attend to a subset of keys rather than the full sequence, reducing the quadratic cost of standard attention.",
        article = nil,
        aliases = { "Sparse Attention", "sparse self-attention" },
        es = "Patrón de atención que restringe cada consulta a un subconjunto de claves en lugar de la secuencia completa, reduciendo el costo cuadrático de la atención estándar.",
        zh = "一种注意力模式,将每个查询限制为只关注键的一个子集而非整个序列,从而降低标准注意力的二次复杂度。",
        term_es = "atención dispersa",
        term_zh = "稀疏注意力",
        aliases_es = { "sparse attention", "auto-atención dispersa" },
        aliases_zh = { "sparse attention", "稀疏自注意力" },
    }
    
    data["sparse autoencoder"] = {
        short = "An autoencoder trained with a sparsity penalty on its hidden activations, encouraging each input to be encoded by a small number of active units; widely used for unsupervised feature learning and mechanistic interpretability of large models.",
        article = nil,
        aliases = { "sparse autoencoder", "SAE", "sparse auto-encoder" },
        es = "Autoencoder entrenado con una penalización de esparsidad sobre sus activaciones ocultas, que fomenta que cada entrada se codifique mediante un número reducido de unidades activas; muy utilizado en aprendizaje no supervisado de características y en la interpretabilidad mecanicista de modelos grandes.",
        zh = "一种在隐藏激活上施加稀疏性惩罚的自编码器,鼓励每个输入由少量活跃单元编码;广泛用于无监督特征学习以及大型模型的机制可解释性研究。",
        term_es = "autoencoder esparso",
        term_zh = "稀疏自编码器",
        aliases_es = { "sparse autoencoder", "SAE", "autoencoder disperso", "autoencoder esparso" },
        aliases_zh = { "sparse autoencoder", "SAE", "稀疏自动编码器" },
    }
    
    data["sparse categorical cross-entropy"] = {
        short = "A formulation of categorical cross-entropy that takes integer class indices as targets instead of one-hot vectors, avoiding materialization of the full label matrix.",
        article = nil,
        aliases = { "sparse categorical cross entropy", "sparse softmax cross-entropy" },
        es = "Variante de la entropía cruzada categórica que toma índices enteros de clase como objetivos en lugar de vectores one-hot, evitando materializar la matriz completa de etiquetas.",
        zh = "分类交叉熵的一种实现,使用整数类别索引而非 one-hot 向量作为标签,从而避免显式构造完整的标签矩阵。",
        term_es = "entropía cruzada categórica dispersa",
        term_zh = "稀疏分类交叉熵",
        aliases_es = {},
        aliases_zh = { "稀疏 softmax 交叉熵" },
    }
    
    data["sparse explanation"] = {
        short = "A model explanation that uses few input features or concepts to explain a prediction, valued for human interpretability; typically obtained via L1-regularized surrogates, sparse attribution methods, or rule-based extractors.",
        article = nil,
        aliases = { "sparse explanation", "sparse explanations", "sparse interpretation" },
        es = "Explicación de modelo que utiliza pocas características o conceptos de entrada para explicar una predicción, valorada por su interpretabilidad humana; suele obtenerse mediante sustitutos regularizados con L1, métodos de atribución esparsos o extractores basados en reglas.",
        zh = "使用少量输入特征或概念来解释预测的模型解释,因易于人类理解而受到重视;通常通过 L1 正则化的代理模型、稀疏归因方法或基于规则的提取器获得。",
        term_es = "explicación esparsa",
        term_zh = "稀疏解释",
        aliases_es = { "sparse explanation", "explicación dispersa", "explicación esparsa" },
        aliases_zh = { "sparse explanation", "稀疏性解释" },
    }
    
    data["sparse gp"] = {
        short = "A class of approximations to a Gaussian process that summarize the training data with a small set of M ≪ N inducing points, reducing the cubic O(N³) cost of exact GP inference to O(NM²) and enabling scalable training.",
        article = nil,
        aliases = { "SGP", "sparse Gaussian process", "sparse GP", "inducing-point GP" },
        es = "Clase de aproximaciones a un proceso gaussiano que resume los datos de entrenamiento con un conjunto pequeño de M ≪ N puntos inductores, reduciendo el coste cúbico O(N³) de la inferencia exacta a O(NM²) y permitiendo entrenamiento escalable.",
        zh = "高斯过程的一类近似方法,用 M ≪ N 个诱导点(inducing points)总结训练数据,将精确推断的 O(N³) 立方复杂度降到 O(NM²),从而支持可扩展训练。",
        term_es = "GP esparso",
        term_zh = "稀疏高斯过程",
        aliases_es = { "proceso gaussiano esparso", "SGP", "GP con puntos inductores" },
        aliases_zh = { "稀疏 GP", "SGP", "诱导点高斯过程" },
    }
    
    data["sparse linear explanation"] = {
        short = "A local or global explanation that approximates a model with a sparse linear function — typically a LASSO or L1-regularized regression on input features — to expose a small set of features that drive predictions.",
        article = nil,
        aliases = { "sparse linear explanation", "sparse linear surrogate", "L1 linear explanation" },
        es = "Explicación local o global que aproxima un modelo mediante una función lineal esparsa —normalmente una regresión LASSO o regularizada con L1 sobre las características de entrada— para revelar un pequeño conjunto de características que impulsan las predicciones.",
        zh = "一种局部或全局解释方法,用稀疏线性函数(通常是对输入特征的 LASSO 或 L1 正则化回归)来近似模型,从而揭示驱动预测的少量特征。",
        term_es = "explicación lineal esparsa",
        term_zh = "稀疏线性解释",
        aliases_es = { "sparse linear explanation", "explicación lineal dispersa", "sustituto lineal esparso" },
        aliases_zh = { "sparse linear explanation", "稀疏线性解释方法" },
    }
    
    data["sparse matrix"] = {
        short = "A matrix in which most entries are zero, allowing compact storage formats (CSR, CSC, COO) and specialized algorithms whose cost scales with the number of nonzeros rather than the full dimension.",
        article = nil,
        aliases = { "sparse matrices", "sparse array" },
        es = "Matriz en la que la mayoría de las entradas son cero, lo que permite formatos de almacenamiento compactos (CSR, CSC, COO) y algoritmos especializados cuyo coste escala con el número de elementos no nulos en lugar de con la dimensión total.",
        zh = "大多数元素为零的矩阵,可使用紧凑存储格式(CSR、CSC、COO)以及专用算法,其计算成本与非零元素数量成正比,而非与矩阵维度成正比。",
        term_es = "matriz dispersa",
        term_zh = "稀疏矩阵",
        aliases_es = { "matriz rala", "matriz esparsa" },
        aliases_zh = { "稀疏阵" },
    }
    
    data["sparse retrieval"] = {
        short = "An information retrieval approach that represents queries and documents in a high-dimensional, mostly-zero space of term weights, ranking documents with lexical scoring functions such as BM25 or TF-IDF.",
        article = nil,
        aliases = { "Sparse Retrieval", "lexical retrieval", "term-based retrieval", "bag-of-words retrieval" },
        es = "Enfoque de recuperación de información que representa consultas y documentos en un espacio de pesos de términos de alta dimensión y mayoritariamente nulo, ordenando los documentos con funciones de puntuación léxica como BM25 o TF-IDF.",
        zh = "一种信息检索方法,将查询和文档表示在高维且大多为零的词权重空间中,使用 BM25 或 TF-IDF 等词面打分函数对文档排序。",
        term_es = "recuperación dispersa",
        term_zh = "稀疏检索",
        aliases_es = { "sparse retrieval", "recuperación léxica", "recuperación basada en términos", "recuperación por bolsa de palabras" },
        aliases_zh = { "sparse retrieval", "稀疏式检索", "词面检索", "基于词项的检索" },
    }
    
    data["sparse spectrum gaussian process"] = {
        short = "A Gaussian-process approximation (Lázaro-Gredilla et al., 2010) that exploits Bochner's theorem to express a stationary kernel as an expectation over its spectral density and approximates it with a finite, sparse set of trigonometric basis functions sampled from that density.",
        article = nil,
        aliases = { "SSGP", "sparse-spectrum GP", "sparse spectrum GP" },
        es = "Aproximación de procesos gaussianos (Lázaro-Gredilla et al., 2010) que explota el teorema de Bochner para expresar un núcleo estacionario como una esperanza sobre su densidad espectral y la aproxima con un conjunto finito y disperso de funciones trigonométricas muestreadas de esa densidad.",
        zh = "一种高斯过程近似方法(Lázaro-Gredilla 等,2010),利用 Bochner 定理将平稳核表示为其谱密度上的期望,并用从该密度抽取的有限、稀疏的三角基函数集来近似该核。",
        term_es = "proceso gaussiano de espectro esparso",
        term_zh = "稀疏谱高斯过程",
        aliases_es = { "SSGP", "GP de espectro esparso" },
        aliases_zh = { "SSGP", "稀疏谱 GP" },
    }
    
    data["sparse variational gp"] = {
        short = "A scalable Gaussian-process model (Hensman et al., 2013) that combines inducing points with stochastic variational inference, enabling mini-batch training of GP regression and classification on large datasets via a tractable evidence lower bound.",
        article = nil,
        aliases = { "SVGP", "sparse variational Gaussian process", "stochastic variational GP", "Hensman SVGP" },
        es = "Modelo de proceso gaussiano escalable (Hensman et al., 2013) que combina puntos inductores con inferencia variacional estocástica, permitiendo entrenar regresión y clasificación GP en grandes conjuntos de datos mediante mini-lotes y una cota inferior tratable de la evidencia.",
        zh = "一种可扩展的高斯过程模型(Hensman 等,2013),将诱导点与随机变分推断结合,通过可解的证据下界实现大规模数据集上 GP 回归和分类的小批量训练。",
        term_es = "GP variacional esparso",
        term_zh = "稀疏变分高斯过程",
        aliases_es = { "SVGP", "proceso gaussiano variacional esparso" },
        aliases_zh = { "SVGP", "稀疏变分 GP", "Hensman SVGP" },
    }
    
    data["sparsely-gated mixture of experts"] = {
        short = "A mixture-of-experts variant in which the gating network activates only a small fixed number of experts per token, enabling models with very large parameter counts to remain computationally tractable.",
        article = nil,
        aliases = { "Sparsely-Gated MoE", "sparse MoE", "sparsely gated mixture of experts", "Sparsely-Gated Mixture-of-Experts", "SMoE" },
        es = "Variante de mezcla de expertos en la que la red de compuerta activa solo un pequeño número fijo de expertos por token, permitiendo modelos con muchísimos parámetros que siguen siendo computacionalmente tratables.",
        zh = "一种混合专家变体,门控网络对每个 token 仅激活少量固定数目的专家,使得参数量极大的模型仍然在计算上可行。",
        term_es = "mezcla de expertos con compuerta dispersa",
        term_zh = "稀疏门控专家混合",
        aliases_es = { "MoE disperso", "MoE con compuerta dispersa", "SMoE" },
        aliases_zh = { "稀疏 MoE", "稀疏门控 MoE", "SMoE" },
    }
    
    data["sparsification error"] = {
        short = "The approximation error introduced by replacing the full set of training points in a Gaussian process or kernel machine with a smaller set of inducing or pseudo-inputs, typically measured as the gap in marginal likelihood or predictive distribution.",
        article = nil,
        aliases = { "sparsification gap", "inducing-point approximation error" },
        es = "Error de aproximación introducido al sustituir el conjunto completo de puntos de entrenamiento de un proceso gaussiano o máquina de núcleo por un conjunto más pequeño de puntos inductores o pseudo-entradas, normalmente medido como la diferencia en la verosimilitud marginal o en la distribución predictiva.",
        zh = "在高斯过程或核方法中,用规模更小的诱导点或伪输入替代全部训练点所引入的近似误差,通常以边际似然或预测分布的差距来衡量。",
        term_es = "error de esparsificación",
        term_zh = "稀疏化误差",
        aliases_es = { "error por puntos inductores" },
        aliases_zh = { "稀疏近似误差", "诱导点近似误差" },
    }
    
    data["spatial attribution"] = {
        short = "Feature-attribution methods specialized to image, volumetric, or other spatially structured inputs that produce attribution maps over pixels, voxels, or regions, typically visualized as heatmaps overlaid on the input.",
        article = nil,
        aliases = { "spatial attribution", "spatial saliency", "pixel attribution" },
        es = "Métodos de atribución de características especializados en entradas con estructura espacial (imágenes, volúmenes u otras) que producen mapas de atribución sobre píxeles, vóxeles o regiones, visualizados habitualmente como mapas de calor superpuestos a la entrada.",
        zh = "针对图像、体数据或其他具有空间结构输入的特征归因方法,生成关于像素、体素或区域的归因图,通常以热力图形式叠加在输入之上。",
        term_es = "atribución espacial",
        term_zh = "空间归因",
        aliases_es = { "spatial attribution", "atribución espacial", "saliencia espacial" },
        aliases_zh = { "spatial attribution", "空间显著性", "像素归因" },
    }
    
    data["spatial deconvolution"] = {
        short = "Computational inference of cell-type composition within each spot or region of a spatial transcriptomics dataset, typically by leveraging a single-cell RNA-seq reference. Methods include cell2location, RCTD, and SpatialDWLS.",
        article = nil,
        aliases = { "spot deconvolution", "spatial cell-type deconvolution", "ST deconvolution", "cell-type deconvolution in spatial transcriptomics" },
        es = "Inferencia computacional de la composición de tipos celulares dentro de cada punto o región de un conjunto de datos de transcriptómica espacial, normalmente apoyándose en una referencia de RNA-seq de célula única. Los métodos incluyen cell2location, RCTD y SpatialDWLS.",
        zh = "在空间转录组学数据中对每个点或区域的细胞类型组成进行计算推断,通常借助单细胞 RNA-seq 参考。常用方法包括 cell2location、RCTD 和 SpatialDWLS。",
        term_es = "desconvolución espacial",
        term_zh = "空间反卷积",
        aliases_es = { "desconvolución de spots espaciales", "desconvolución de tipos celulares en transcriptómica espacial" },
        aliases_zh = { "空间转录组反卷积", "spot 反卷积", "细胞类型反卷积" },
    }
    
    data["spatial dropout"] = {
        short = "A variant of dropout for convolutional networks that drops entire feature-map channels rather than independent activations, which better matches the spatial correlation between adjacent pixels.",
        article = nil,
        aliases = { "Spatial Dropout", "spatial-dropout", "channel dropout", "Dropout2D" },
        es = "Variante del dropout para redes convolucionales que descarta canales completos de mapas de características en lugar de activaciones independientes, lo que se ajusta mejor a la correlación espacial entre píxeles vecinos.",
        zh = "Dropout 在卷积网络中的一种变体,丢弃整个特征图通道而非独立激活,更适合相邻像素之间的空间相关性。",
        term_es = "dropout espacial",
        term_zh = "空间 Dropout",
        aliases_es = { "spatial dropout", "dropout de canales", "Dropout2D" },
        aliases_zh = { "spatial dropout", "通道 Dropout", "Dropout2D", "空间随机失活" },
    }
    
    data["spatial mc dropout"] = {
        short = "A variant of Monte Carlo dropout for convolutional networks in which entire feature-map channels are dropped at test time (instead of independent activations), preserving spatial coherence while sampling from an approximate posterior over weights.",
        article = nil,
        aliases = { "spatial MC dropout", "MC SpatialDropout", "channel-wise MC dropout" },
        es = "Variante del Monte Carlo dropout para redes convolucionales en la que se descartan canales completos de los mapas de características en tiempo de inferencia (en lugar de activaciones independientes), preservando la coherencia espacial al muestrear de una posterior aproximada sobre los pesos.",
        zh = "面向卷积网络的蒙特卡洛 Dropout 变体:推断时按整个特征图通道丢弃(而非独立激活),在从近似权重后验中采样时保持空间一致性。",
        term_es = "MC dropout espacial",
        term_zh = "空间 MC Dropout",
        aliases_es = { "MC SpatialDropout", "MC dropout por canales" },
        aliases_zh = { "MC SpatialDropout", "通道级 MC Dropout" },
    }
    
    data["spatial reasoning vqa"] = {
        short = "A class of visual question answering tasks that probe a model's understanding of spatial relations between objects, such as left/right, above/below, distance, containment, and orientation in an image or scene.",
        article = nil,
        aliases = { "spatial VQA", "spatial reasoning visual question answering", "spatial-relation VQA" },
        es = "Conjunto de tareas de respuesta a preguntas visuales que evalúan la comprensión de relaciones espaciales entre objetos, como izquierda/derecha, encima/debajo, distancia, contención u orientación en una imagen o escena.",
        zh = "一类视觉问答任务,用于检验模型对图像或场景中物体之间空间关系(如左右、上下、距离、包含、朝向等)的理解能力。",
        term_es = "VQA de razonamiento espacial",
        term_zh = "空间推理 VQA",
        aliases_es = { "VQA espacial", "respuesta a preguntas visuales espaciales" },
        aliases_zh = { "空间 VQA", "空间关系视觉问答" },
    }
    
    data["spatial transcriptomics"] = {
        short = "A class of technologies (e.g., Visium, Slide-seq, MERFISH, Stereo-seq) that measure gene expression while preserving the two-dimensional position of each readout within a tissue section, enabling tissue-architecture-aware analyses.",
        article = nil,
        aliases = { "ST", "spatial transcriptomic profiling", "spatially resolved transcriptomics", "spatial gene expression" },
        es = "Conjunto de tecnologías (p. ej., Visium, Slide-seq, MERFISH, Stereo-seq) que miden la expresión génica preservando la posición bidimensional de cada lectura dentro de una sección de tejido, permitiendo análisis que tienen en cuenta la arquitectura del tejido.",
        zh = "一类在保持组织切片中每个测量点二维空间位置的同时测定基因表达的技术(例如 Visium、Slide-seq、MERFISH、Stereo-seq),可在保留组织结构信息的前提下进行分析。",
        term_es = "transcriptómica espacial",
        term_zh = "空间转录组学",
        aliases_es = { "ST", "perfilado transcriptómico espacial", "transcriptómica espacialmente resuelta" },
        aliases_zh = { "ST", "空间分辨转录组学", "空间基因表达" },
    }
    
    data["spc water"] = {
        short = "Simple Point Charge water: a rigid three-site classical water model placing partial charges on the oxygen and two hydrogens with fixed bond geometry, widely used in biomolecular molecular dynamics simulations.",
        article = nil,
        aliases = { "SPC water", "SPC", "Simple Point Charge water", "SPC/E", "SPC water model" },
        es = "Agua de Cargas Puntuales Simples (SPC): modelo clásico rígido de agua de tres sitios que coloca cargas parciales en el oxígeno y los dos hidrógenos con geometría de enlace fija, ampliamente utilizado en simulaciones de dinámica molecular biomolecular.",
        zh = "SPC(简单点电荷)水模型:一种刚性三位点经典水模型,在氧原子和两个氢原子上放置部分电荷并采用固定键合几何,广泛用于生物分子动力学模拟。",
        term_es = "agua SPC",
        term_zh = "SPC 水模型",
        aliases_es = { "modelo SPC", "modelo de agua SPC", "SPC", "SPC/E" },
        aliases_zh = { "SPC 水", "SPC", "SPC/E", "简单点电荷水" },
    }
    
    data["speaker adaptation"] = {
        short = "Techniques that specialize a generic speech model (typically ASR or TTS) to a particular speaker using a limited amount of that speaker's data, via methods such as fine-tuning, speaker embeddings, or adapter modules.",
        article = nil,
        aliases = { "speaker-adaptive training", "speaker-adaptive modeling", "speaker fine-tuning" },
        es = "Técnicas que especializan un modelo genérico de voz (normalmente ASR o TTS) a un hablante concreto utilizando una cantidad limitada de datos de ese hablante, mediante métodos como el ajuste fino, los embeddings de hablante o módulos adaptadores.",
        zh = "用少量目标说话人的数据,将通用语音模型(通常是 ASR 或 TTS)专门化到该说话人的技术,常用方法包括微调、说话人嵌入或适配器模块。",
        term_es = "adaptación al hablante",
        term_zh = "说话人自适应",
        aliases_es = { "adaptación de hablante", "ajuste fino al hablante", "personalización al hablante" },
        aliases_zh = { "说话人适应", "说话人自适应训练", "说话人微调" },
    }
    
    data["speaker diarization"] = {
        short = "The task of partitioning an audio recording into homogeneous segments labelled by speaker identity, answering the question \"who spoke when\" without prior knowledge of the participants.",
        article = nil,
        aliases = { "diarization", "diarisation", "speaker diarisation", "who-spoke-when", "speaker segmentation and clustering" },
        es = "Tarea de segmentar una grabación de audio en tramos homogéneos etiquetados por la identidad del hablante, respondiendo a la pregunta de quién habló y cuándo sin conocer previamente a los participantes.",
        zh = "将音频录音分割成按说话人身份标注的同质片段,在没有参与者先验信息的情况下回答“谁在何时说话”的任务。",
        term_es = "diarización de hablantes",
        term_zh = "说话人日志",
        aliases_es = { "diarización", "diarización del hablante", "segmentación y agrupación de hablantes", "diarisación" },
        aliases_zh = { "说话人分离日志", "说话人日记化", "speaker diarization", "谁在何时说话" },
    }
    
    data["speaker embedding"] = {
        short = "A fixed-dimensional vector that summarizes the voice characteristics of a speaker, learned so that utterances from the same person map to nearby points and from different people to distant points.",
        article = nil,
        aliases = { "speaker embeddings", "voice embedding", "x-vector", "d-vector", "voiceprint embedding" },
        es = "Vector de dimensión fija que resume las características vocales de un hablante, aprendido de modo que los enunciados de la misma persona se mapean a puntos cercanos y los de personas distintas a puntos lejanos.",
        zh = "总结说话人嗓音特征的固定维度向量,其学习目标是让同一人的语音映射到相近点、不同人的语音映射到相距较远的点。",
        term_es = "embedding de hablante",
        term_zh = "说话人嵌入",
        aliases_es = { "embedding del hablante", "embeddings de hablantes", "vector de hablante", "x-vector", "d-vector", "huella de voz" },
        aliases_zh = { "说话人向量", "说话人表征", "x-vector", "d-vector", "声纹嵌入" },
    }
    
    data["speaker identification"] = {
        short = "The task of determining which speaker, from a known closed set of enrolled identities, produced a given utterance, typically by comparing speaker embeddings or scoring against per-speaker models.",
        article = nil,
        aliases = { "speaker ID", "closed-set speaker recognition", "1:N speaker recognition" },
        es = "Tarea de determinar qué hablante, de un conjunto cerrado de identidades registradas, produjo un enunciado dado, normalmente comparando embeddings de hablante o puntuando contra modelos por hablante.",
        zh = "在已知封闭集合的注册说话人中,判断给定语音由哪一位说话人产生的任务,通常通过比较说话人嵌入或对每位说话人模型打分实现。",
        term_es = "identificación de hablantes",
        term_zh = "说话人辨认",
        aliases_es = { "identificación del hablante", "reconocimiento de hablante en conjunto cerrado", "identificación de voz" },
        aliases_zh = { "说话人识别(辨认)", "1:N 说话人识别", "封闭集说话人识别" },
    }
    
    data["speaker recognition"] = {
        short = "An umbrella term covering both speaker identification (1:N) and speaker verification (1:1) tasks, in which a system characterizes voices in order to associate utterances with speaker identities.",
        article = nil,
        aliases = { "voice recognition (speaker)", "voice biometrics", "speaker recognition systems" },
        es = "Término general que abarca tanto la identificación de hablantes (1:N) como la verificación de hablantes (1:1), en el que un sistema caracteriza voces para asociar enunciados con identidades de hablantes.",
        zh = "涵盖说话人辨认(1:N)和说话人验证(1:1)两类任务的总称,系统通过刻画嗓音特征将语音与说话人身份关联。",
        term_es = "reconocimiento de hablantes",
        term_zh = "说话人识别",
        aliases_es = { "reconocimiento del hablante", "biometría de voz", "reconocimiento de voz por hablante" },
        aliases_zh = { "声纹识别", "说话人识别系统", "嗓音生物识别" },
    }
    
    data["speaker similarity score"] = {
        short = "A scalar measure of how similar two voices are, typically computed as the cosine similarity or PLDA score between two speaker embeddings and used as the decision statistic in verification.",
        article = nil,
        aliases = { "speaker similarity", "voice similarity score", "speaker verification score", "cosine speaker score" },
        es = "Medida escalar de cuán similares son dos voces, típicamente calculada como similitud del coseno o puntuación PLDA entre dos embeddings de hablante, y usada como estadístico de decisión en verificación.",
        zh = "衡量两段嗓音相似程度的标量,通常通过两个说话人嵌入之间的余弦相似度或 PLDA 分数计算,并作为验证任务的判决统计量。",
        term_es = "puntuación de similitud entre hablantes",
        term_zh = "说话人相似度得分",
        aliases_es = { "puntuación de similitud de voz", "score de similitud de hablante", "similitud de hablante" },
        aliases_zh = { "说话人相似度分数", "声纹相似度", "说话人余弦相似度" },
    }
    
    data["speaker verification"] = {
        short = "A binary 1:1 decision task that determines whether a test utterance was produced by a claimed speaker, typically by thresholding a similarity score between the test embedding and an enrolment embedding.",
        article = nil,
        aliases = { "voice verification", "1:1 speaker recognition", "automatic speaker verification", "ASV" },
        es = "Tarea binaria de decisión 1:1 que determina si un enunciado de prueba fue producido por el hablante que se reclama, normalmente comparando con un umbral una puntuación de similitud entre el embedding de prueba y el de registro.",
        zh = "二元 1:1 判决任务,判断测试语音是否由所声称的说话人产生,通常通过对测试嵌入与注册嵌入之间的相似度分数设阈值来决定。",
        term_es = "verificación de hablante",
        term_zh = "说话人验证",
        aliases_es = { "verificación de voz", "verificación automática de hablante", "ASV", "verificación 1:1 de hablante" },
        aliases_zh = { "说话人确认", "自动说话人验证", "ASV", "声纹验证" },
    }
    
    data["speakerbeam"] = {
        short = "A target-speaker extraction neural network from NTT that conditions a speech-separation backbone on a short reference utterance of the desired speaker, isolating that speaker from a mixture.",
        article = nil,
        aliases = { "SpeakerBeam", "Speaker Beam", "target speaker extraction (SpeakerBeam)" },
        es = "Red neuronal de extracción de hablante objetivo desarrollada por NTT que condiciona una arquitectura de separación de voz con un breve enunciado de referencia del hablante deseado, aislándolo de una mezcla.",
        zh = "由 NTT 提出的目标说话人提取神经网络,使用目标说话人的一段简短参考语音对语音分离主干进行条件控制,从混合音频中分离出该说话人。",
        term_es = "SpeakerBeam",
        term_zh = "SpeakerBeam",
        aliases_es = { "SpeakerBeam", "modelo SpeakerBeam", "extracción de hablante objetivo SpeakerBeam" },
        aliases_zh = { "SpeakerBeam", "SpeakerBeam 模型", "目标说话人提取 SpeakerBeam" },
    }
    
    data["spear-tts"] = {
        short = "A multi-stage text-to-speech system from Google that maps text to semantic tokens and then to acoustic tokens via discrete-token language models, requiring only a small amount of paired text-speech data.",
        article = nil,
        aliases = { "SPEAR-TTS", "SPEAR TTS", "Spear-TTS", "Spear TTS" },
        es = "Sistema de síntesis de voz multietapa de Google que primero mapea texto a tokens semánticos y luego a tokens acústicos mediante modelos de lenguaje sobre tokens discretos, requiriendo muy pocos datos pareados de texto y voz.",
        zh = "Google 提出的多阶段文本转语音系统,先将文本映射到语义 token,再通过基于离散 token 的语言模型映射到声学 token,只需要少量文本-语音配对数据。",
        term_es = "SPEAR-TTS",
        term_zh = "SPEAR-TTS",
        aliases_es = { "SPEAR-TTS", "SPEAR TTS", "Spear-TTS" },
        aliases_zh = { "SPEAR-TTS", "SPEAR TTS", "Spear-TTS 模型" },
    }
    
    data["spearman correlation"] = {
        short = "A nonparametric rank-based statistic that measures the strength of a monotonic relationship between two variables. In NAS and AutoML it is widely used to score how well a cheap predictor's ranking matches ground-truth performance.",
        article = nil,
        aliases = { "Spearman rank correlation", "Spearman's rho", "Spearman correlation coefficient", "rank correlation" },
        es = "Estadístico no paramétrico basado en rangos que mide la fuerza de la relación monótona entre dos variables. En NAS y AutoML se utiliza ampliamente para evaluar qué tan bien el ordenamiento de un predictor barato coincide con el rendimiento real.",
        zh = "一种基于秩的非参数相关性统计量,用于度量两个变量之间单调关系的强度。在 NAS 和 AutoML 中常用于衡量廉价预测器给出的排序与真实性能排序的吻合程度。",
        term_es = "correlación de Spearman",
        term_zh = "斯皮尔曼相关系数",
        aliases_es = { "correlación de rangos de Spearman", "rho de Spearman", "coeficiente de Spearman" },
        aliases_zh = { "Spearman 相关", "斯皮尔曼等级相关", "秩相关" },
    }
    
    data["spearmint"] = {
        short = "An open-source Bayesian optimization package for hyperparameter tuning that uses Gaussian process surrogates and acquisition functions such as expected improvement. Notable as one of the early reference implementations in the BO literature.",
        article = nil,
        aliases = { "Spearmint", "Spearmint BO", "Spearmint Bayesian optimization" },
        es = "Paquete de código abierto para optimización bayesiana orientado al ajuste de hiperparámetros, que utiliza procesos gaussianos como modelo sustituto y funciones de adquisición como la mejora esperada. Es una de las primeras implementaciones de referencia en la literatura de BO.",
        zh = "用于超参数调优的开源贝叶斯优化软件包,采用高斯过程作为代理模型,并使用诸如期望改进等采集函数,是贝叶斯优化文献中的早期参考实现之一。",
        term_es = "Spearmint",
        term_zh = "Spearmint",
        aliases_es = { "Spearmint BO" },
        aliases_zh = { "Spearmint BO" },
    }
    
    data["specaugment"] = {
        short = "A simple, on-the-fly data augmentation method for speech recognition that masks contiguous blocks of time steps and frequency channels in the log-mel spectrogram, plus optional time warping.",
        article = nil,
        aliases = { "SpecAugment", "Spec Augment", "spectrogram augmentation (SpecAugment)" },
        es = "Método sencillo de aumento de datos en línea para el reconocimiento de voz que enmascara bloques contiguos de pasos de tiempo y canales de frecuencia en el espectrograma log-mel, con un alabeo temporal opcional.",
        zh = "一种简单的语音识别在线数据增强方法,通过对 log-mel 频谱图遮蔽连续的时间步和频率通道块,并可选地进行时间扭曲。",
        term_es = "SpecAugment",
        term_zh = "SpecAugment",
        aliases_es = { "SpecAugment", "aumento de espectrograma SpecAugment" },
        aliases_zh = { "SpecAugment", "频谱增强 SpecAugment", "频谱图掩蔽增强" },
    }
    
    data["specification gaming"] = {
        short = "An AI safety failure mode in which an agent achieves the literal objective specified by its reward or evaluation while violating the designer's intent, also known as reward hacking or Goodharting.",
        article = nil,
        aliases = { "spec gaming", "reward gaming", "specification hacking" },
        es = "Modo de fallo en seguridad de IA en el que un agente logra cumplir literalmente el objetivo especificado por su recompensa o evaluación mientras infringe la intención de los diseñadores; también conocido como reward hacking o efecto Goodhart.",
        zh = "一种AI安全失效模式,指智能体在字面上达成了奖励或评估所指定的目标,却违背了设计者的真实意图,也称为奖励黑客或Goodhart现象。",
        term_es = "explotación de la especificación",
        term_zh = "规范博弈",
        aliases_es = { "specification gaming", "reward hacking", "explotación de la recompensa" },
        aliases_zh = { "specification gaming", "规则博弈", "奖励博弈", "奖励黑客" },
    }
    
    data["specificity"] = {
        short = "Fraction of actual negatives correctly classified as negative, TN/(TN+FP). Also called the true negative rate; complements the false positive rate (FPR = 1 − specificity).",
        article = nil,
        aliases = { "true negative rate", "TNR", "selectivity" },
        es = "Fracción de negativos reales clasificados correctamente como negativos, TN/(TN+FP). También se denomina tasa de verdaderos negativos y complementa la tasa de falsos positivos (FPR = 1 − especificidad).",
        zh = "真实负样本中被正确判为负的比例,TN/(TN+FP)。又称真阴性率,与假阳性率互补(FPR = 1 − 特异度)。",
        term_es = "especificidad",
        term_zh = "特异度",
        aliases_es = { "tasa de verdaderos negativos", "TNR", "selectividad" },
        aliases_zh = { "真阴性率", "特异性", "TNR" },
    }
    
    data["spectral anomaly defense"] = {
        short = "A defense against poisoning and backdoor attacks in (federated) learning that uses spectral analysis—typically the singular value decomposition of the matrix of client updates or hidden representations—to flag and remove updates with anomalously large projections onto the top singular directions.",
        article = nil,
        aliases = { "Spectral Anomaly Defense", "spectral anomaly detection", "spectral signature defense", "spectral filtering defense", "SVD-based defense" },
        es = "Defensa contra ataques de envenenamiento y de puerta trasera en aprendizaje (federado) que utiliza análisis espectral —típicamente la descomposición en valores singulares de la matriz de actualizaciones de clientes o de representaciones ocultas— para señalar y eliminar actualizaciones con proyecciones anómalamente grandes sobre las direcciones singulares principales.",
        zh = "一种针对(联邦)学习中投毒和后门攻击的防御方法,利用谱分析——通常是对客户端更新矩阵或隐藏表示矩阵进行奇异值分解——标记并移除在前几个奇异方向上投影异常大的更新。",
        term_es = "defensa por anomalía espectral",
        term_zh = "谱异常防御",
        aliases_es = { "detección de anomalía espectral", "defensa por firma espectral", "defensa basada en SVD" },
        aliases_zh = { "谱异常检测", "谱签名防御", "基于SVD的防御" },
    }
    
    data["spectral centroid"] = {
        short = "The amplitude-weighted mean frequency of a short-term spectrum, often used as a perceptual proxy for the brightness or sharpness of a sound.",
        article = nil,
        aliases = { "spectral center of mass", "centroid (spectral)", "brightness (audio)" },
        es = "Frecuencia media de un espectro a corto plazo ponderada por la amplitud, usada a menudo como aproximación perceptual del brillo o agudeza de un sonido.",
        zh = "短时频谱按幅值加权的平均频率,常作为声音明亮度或锐度的感知近似指标。",
        term_es = "centroide espectral",
        term_zh = "频谱质心",
        aliases_es = { "centro de masa espectral", "centroide del espectro", "brillo espectral" },
        aliases_zh = { "光谱质心", "谱质心", "频谱重心" },
    }
    
    data["spectral contrast"] = {
        short = "An audio feature that measures, for each subband, the level difference between spectral peaks and spectral valleys, capturing the harmonic-versus-noise structure of a signal.",
        article = nil,
        aliases = { "octave-based spectral contrast", "spectral contrast features" },
        es = "Característica de audio que mide, para cada subbanda, la diferencia de nivel entre los picos y los valles espectrales, capturando la estructura armónica frente al ruido de una señal.",
        zh = "一种音频特征,针对每个子带衡量频谱峰值与谷值之间的电平差,刻画信号的谐波与噪声结构。",
        term_es = "contraste espectral",
        term_zh = "频谱对比度",
        aliases_es = { "contraste del espectro", "contraste espectral por octavas" },
        aliases_zh = { "频谱对比", "频谱反差", "倍频程频谱对比度" },
    }
    
    data["spectral flatness"] = {
        short = "The ratio of the geometric to the arithmetic mean of a power spectrum, ranging between 0 and 1 and indicating how noise-like (close to 1) or tone-like (close to 0) a signal is.",
        article = nil,
        aliases = { "Wiener entropy", "tonality coefficient", "spectral flatness measure", "SFM" },
        es = "Cociente entre la media geométrica y la media aritmética de un espectro de potencia; varía entre 0 y 1 e indica cuán similar al ruido (cercano a 1) o a un tono (cercano a 0) es una señal.",
        zh = "功率谱几何均值与算术均值之比,取值在 0 到 1 之间,表示信号更像噪声(接近 1)还是更像纯音(接近 0)。",
        term_es = "planitud espectral",
        term_zh = "频谱平坦度",
        aliases_es = { "entropía de Wiener", "coeficiente de tonalidad", "medida de planitud espectral", "SFM" },
        aliases_zh = { "维纳熵", "频谱平整度", "音调系数", "SFM" },
    }
    
    data["spectral flux"] = {
        short = "A frame-level audio feature that quantifies how rapidly the magnitude spectrum changes between consecutive short-time frames, widely used for onset and beat detection.",
        article = nil,
        aliases = { "spectral flux feature", "frame-to-frame spectral change" },
        es = "Característica de audio a nivel de marco que cuantifica con qué rapidez cambia el espectro de magnitud entre marcos consecutivos a corto plazo, muy usada para la detección de ataques y pulsos.",
        zh = "逐帧的音频特征,衡量相邻短时帧间幅度谱的变化速度,被广泛用于音符起始点和节拍检测。",
        term_es = "flujo espectral",
        term_zh = "频谱通量",
        aliases_es = { "flujo del espectro", "variación espectral entre marcos" },
        aliases_zh = { "谱通量", "频谱流量", "帧间谱变化" },
    }
    
    data["spectral library"] = {
        short = "A curated collection of reference mass spectra — typically peptide MS/MS spectra annotated with sequence, charge, and retention time — used for identification in DIA proteomics and metabolomics by matching observed spectra to library entries.",
        article = nil,
        aliases = { "spectral libraries", "MS/MS spectral library", "DIA spectral library", "reference spectral library" },
        es = "Colección curada de espectros de masas de referencia — normalmente espectros MS/MS de péptidos anotados con secuencia, carga y tiempo de retención — utilizada para la identificación en proteómica DIA y metabolómica al comparar los espectros observados con las entradas de la biblioteca.",
        zh = "经过精挑细选的参考质谱集合——通常为带有序列、电荷和保留时间注释的肽段 MS/MS 谱图——通过将实测谱图与库条目匹配,用于 DIA 蛋白质组学和代谢组学中的鉴定。",
        term_es = "biblioteca espectral",
        term_zh = "谱图库",
        aliases_es = { "biblioteca de espectros", "spectral library", "biblioteca espectral DIA" },
        aliases_zh = { "光谱库", "MS/MS 谱图库", "DIA 谱图库" },
    }
    
    data["spectral mixture kernel"] = {
        short = "A flexible stationary Gaussian-process kernel (Wilson & Adams, 2013) constructed as a mixture of Gaussians in the frequency domain, capable of expressing quasi-periodic and long-range correlations not captured by standard RBF or Matérn kernels.",
        article = nil,
        aliases = { "SM kernel", "spectral mixture", "Wilson-Adams kernel" },
        es = "Núcleo gaussiano estacionario flexible (Wilson y Adams, 2013) construido como una mezcla de gaussianas en el dominio de la frecuencia, capaz de expresar correlaciones cuasi-periódicas y de largo alcance no capturadas por núcleos RBF o Matérn estándar.",
        zh = "一种灵活的平稳高斯过程核(Wilson 和 Adams,2013),在频域上构造为高斯混合,可表达 RBF 或 Matérn 核难以捕捉的准周期和长程相关性。",
        term_es = "kernel de mezcla espectral",
        term_zh = "谱混合核",
        aliases_es = { "núcleo SM", "mezcla espectral", "kernel Wilson-Adams" },
        aliases_zh = { "SM 核", "频谱混合核", "Wilson-Adams 核" },
    }
    
    data["spectral norm"] = {
        short = "The matrix norm equal to the largest singular value of a matrix, ||A||_2 = σ_max(A). Equivalently the operator norm induced by the Euclidean vector norm; bounds how much A can stretch any unit vector.",
        article = nil,
        aliases = { "operator norm", "2-norm", "L2 operator norm", "induced 2-norm", "||A||_2" },
        es = "Norma matricial igual al mayor valor singular de una matriz, ||A||_2 = σ_max(A). Equivalentemente, la norma de operador inducida por la norma vectorial euclidiana; acota cuánto puede A estirar un vector unitario.",
        zh = "矩阵范数,等于矩阵的最大奇异值,||A||_2 = σ_max(A)。等价于由欧几里得向量范数诱导的算子范数;用于刻画 A 可将单位向量拉伸的最大幅度。",
        term_es = "norma espectral",
        term_zh = "谱范数",
        aliases_es = { "norma de operador", "norma 2 inducida" },
        aliases_zh = { "算子范数", "2 范数", "诱导 2 范数" },
    }
    
    data["spectral normalization"] = {
        short = "Constrains a layer's largest singular value (spectral norm) to a fixed value, typically 1, by dividing weights by an estimate of it. Used to stabilize GAN training.",
        article = nil,
        aliases = { "SpectralNorm", "spectral norm", "SN" },
        es = "Restringe el valor singular máximo (norma espectral) de una capa a un valor fijo, normalmente 1, dividiendo los pesos por su estimación. Se usa para estabilizar el entrenamiento de GAN.",
        zh = "将层的最大奇异值(谱范数)约束为固定值(通常为 1),方法是把权重除以其估计值。常用于稳定 GAN 训练。",
        term_es = "normalización espectral",
        term_zh = "谱归一化",
        aliases_es = { "SpectralNorm", "norma espectral" },
        aliases_zh = { "SpectralNorm", "SN", "光谱归一化", "谱标准化" },
    }
    
    data["spectral normalization gan"] = {
        short = "A GAN regularization (Miyato et al., 2018) that constrains the discriminator to be 1-Lipschitz by dividing each weight matrix by its largest singular value, estimated cheaply via power iteration; it stabilizes training without tuning hyperparameters per dataset.",
        article = nil,
        aliases = { "SN-GAN", "SNGAN", "spectral normalization GAN", "spectrally normalized GAN" },
        es = "Regularización para GAN (Miyato et al., 2018) que restringe al discriminador a ser 1-Lipschitz dividiendo cada matriz de pesos por su mayor valor singular, estimado de forma económica mediante iteración de potencia; estabiliza el entrenamiento sin necesidad de ajustar hiperparámetros por conjunto de datos.",
        zh = "Miyato 等人于 2018 年提出的 GAN 正则化方法:通过将每个权重矩阵除以其最大奇异值(用幂迭代廉价估计)来约束判别器满足 1-Lipschitz 条件,从而稳定训练且无需为不同数据集调参。",
        term_es = "GAN con normalización espectral",
        term_zh = "谱归一化 GAN",
        aliases_es = { "SN-GAN", "SNGAN", "GAN normalizada espectralmente" },
        aliases_zh = { "SN-GAN", "SNGAN", "谱范数归一化 GAN" },
    }
    
    data["spectral normalized neural gp"] = {
        short = "A deterministic uncertainty method (Liu et al., 2020) that combines spectral normalization on hidden layers with a Gaussian-process output layer, yielding a single network whose uncertainty estimates approximate those of a deep kernel GP.",
        article = nil,
        aliases = { "SNGP", "spectral-normalized neural GP", "Spectral-normalized Neural Gaussian Process" },
        es = "Método de cuantificación de incertidumbre determinista (Liu et al., 2020) que combina normalización espectral en las capas ocultas con una capa de salida de proceso gaussiano, produciendo una única red cuyas estimaciones de incertidumbre aproximan las de un GP de núcleo profundo.",
        zh = "一种确定性不确定性方法(Liu 等,2020),在隐藏层使用谱归一化并配以高斯过程输出层,得到单一网络,其不确定性估计接近深度核高斯过程。",
        term_es = "GP neuronal con normalización espectral",
        term_zh = "谱归一化神经高斯过程",
        aliases_es = { "SNGP" },
        aliases_zh = { "SNGP", "谱归一化神经 GP" },
    }
    
    data["spectral rolloff"] = {
        short = "The frequency below which a specified fraction (commonly 85% or 95%) of the total spectral energy of a frame is contained, used as a proxy for the upper edge of the signal's frequency content.",
        article = nil,
        aliases = { "rolloff frequency", "spectral roll-off", "spectral roll off", "rolloff point" },
        es = "Frecuencia por debajo de la cual se concentra una fracción específica (habitualmente el 85% o el 95%) de la energía espectral total de un marco; usada como aproximación al borde superior del contenido frecuencial.",
        zh = "一帧总频谱能量中特定比例(常用 85% 或 95%)所对应的截止频率,用作信号频率成分上界的近似指标。",
        term_es = "frecuencia de caída espectral",
        term_zh = "频谱衰减点",
        aliases_es = { "rolloff espectral", "punto de caída espectral", "frecuencia de rolloff" },
        aliases_zh = { "频谱滚降点", "谱衰减频率", "频谱滚降", "频谱 rolloff" },
    }
    
    data["spectral subtraction"] = {
        short = "A classical single-channel speech enhancement technique that estimates the noise magnitude spectrum during non-speech intervals and subtracts it from the noisy signal's magnitude spectrum to recover clean speech.",
        article = nil,
        aliases = { "spectral subtraction method", "Boll spectral subtraction", "noise spectral subtraction" },
        es = "Técnica clásica de mejora de voz monocanal que estima el espectro de magnitud del ruido durante los intervalos sin voz y lo resta del espectro de magnitud de la señal ruidosa para recuperar la voz limpia.",
        zh = "一种经典的单通道语音增强技术,在非语音段估计噪声幅度谱,再从含噪信号的幅度谱中减去该估计以恢复干净语音。",
        term_es = "sustracción espectral",
        term_zh = "谱减法",
        aliases_es = { "resta espectral", "método de sustracción espectral", "sustracción espectral de Boll" },
        aliases_zh = { "频谱减法", "谱减算法", "频谱相减", "Boll 谱减法" },
    }
    
    data["spectrogram"] = {
        short = "A two-dimensional time-frequency representation of a signal showing the magnitude (or power) of its short-time Fourier transform as a function of time and frequency, central to most speech and audio processing pipelines.",
        article = nil,
        aliases = { "spectrograms", "STFT spectrogram", "magnitude spectrogram", "power spectrogram" },
        es = "Representación bidimensional tiempo-frecuencia de una señal que muestra la magnitud (o potencia) de su transformada de Fourier de corto plazo en función del tiempo y la frecuencia, central en la mayoría de los sistemas de procesamiento de voz y audio.",
        zh = "信号的二维时频表示,将其短时傅里叶变换的幅度(或功率)作为时间与频率的函数显示,是大多数语音与音频处理流程的核心。",
        term_es = "espectrograma",
        term_zh = "频谱图",
        aliases_es = { "espectrogramas", "espectrograma de STFT", "espectrograma de magnitud", "espectrograma de potencia" },
        aliases_zh = { "声谱图", "语谱图", "STFT 频谱图", "幅度谱图", "功率谱图" },
    }
    
    data["speculative decoding"] = {
        short = "An inference acceleration technique in which a small, fast draft model proposes several future tokens that a larger target model verifies in parallel, accepting the longest correct prefix. It reduces wall-clock latency without changing the target model's output distribution.",
        article = nil,
        aliases = { "speculative sampling", "draft-and-verify decoding", "assisted generation" },
        es = "Técnica de aceleración de inferencia en la que un modelo borrador pequeño y rápido propone varios tokens futuros que un modelo objetivo de mayor tamaño verifica en paralelo, aceptando el prefijo correcto más largo. Reduce la latencia sin alterar la distribución de salida del modelo objetivo.",
        zh = "一种推理加速技术:由小而快的草稿模型预测若干个后续 token,再由大模型并行校验,接受最长的正确前缀。可在不改变目标模型输出分布的前提下降低生成延迟。",
        term_es = "decodificación especulativa",
        term_zh = "投机解码",
        aliases_es = { "muestreo especulativo", "generación asistida" },
        aliases_zh = { "推测解码", "投机采样", "推测采样" },
    }
    
    data["speech bandwidth extension"] = {
        short = "The task of reconstructing high-frequency content of speech that has been low-pass filtered or downsampled, typically extending narrowband (8 kHz) audio to wideband (16 kHz) or beyond using neural or signal-processing models.",
        article = nil,
        aliases = { "bandwidth extension", "BWE", "audio super-resolution (speech)", "speech super-resolution", "BWE (speech)" },
        es = "Tarea de reconstruir el contenido de alta frecuencia de la voz que ha sido filtrada paso-bajo o submuestreada, extendiendo típicamente audio de banda estrecha (8 kHz) a banda ancha (16 kHz) o más mediante modelos neuronales o de procesamiento de señal.",
        zh = "重建被低通滤波或降采样后语音中高频内容的任务,通常使用神经网络或信号处理模型将窄带(8 kHz)音频扩展到宽带(16 kHz)或更高带宽。",
        term_es = "extensión de ancho de banda de voz",
        term_zh = "语音带宽扩展",
        aliases_es = { "extensión de banda de la voz", "BWE", "súper-resolución de voz" },
        aliases_zh = { "带宽扩展", "BWE", "语音超分辨率", "音频超分辨率(语音)" },
    }
    
    data["speech contrastive learning"] = {
        short = "A family of self-supervised learning methods for speech that pull representations of related audio segments (e.g., neighbouring or augmented views) together while pushing apart representations of unrelated segments.",
        article = nil,
        aliases = { "contrastive speech learning", "contrastive self-supervised speech learning", "contrastive SSL for speech" },
        es = "Familia de métodos de aprendizaje autosupervisado para voz que acercan las representaciones de segmentos de audio relacionados (por ejemplo, vecinos o vistas aumentadas) y alejan las de segmentos no relacionados.",
        zh = "面向语音的一类自监督学习方法,将相关音频片段(如相邻片段或同一片段的不同增强视图)的表征拉近,同时将无关片段的表征推开。",
        term_es = "aprendizaje contrastivo para voz",
        term_zh = "语音对比学习",
        aliases_es = { "aprendizaje contrastivo de voz", "aprendizaje autosupervisado contrastivo para voz", "SSL contrastivo para voz" },
        aliases_zh = { "语音对比自监督学习", "语音对比表示学习", "对比式语音学习" },
    }
    
    data["speech editing"] = {
        short = "The task of modifying the linguistic content of a recorded utterance — for example inserting, deleting, or replacing words — while preserving the original speaker's voice, prosody, and acoustic conditions.",
        article = nil,
        aliases = { "neural speech editing", "text-based speech editing", "voice editing (content)" },
        es = "Tarea de modificar el contenido lingüístico de un enunciado grabado —por ejemplo insertando, eliminando o sustituyendo palabras— preservando la voz, la prosodia y las condiciones acústicas del hablante original.",
        zh = "修改已录制语音的语言内容(如插入、删除或替换词语)的任务,同时保持原始说话人的嗓音、韵律和声学环境不变。",
        term_es = "edición de voz",
        term_zh = "语音编辑",
        aliases_es = { "edición de habla", "edición de voz basada en texto", "edición neuronal de voz" },
        aliases_zh = { "语音内容编辑", "基于文本的语音编辑", "神经语音编辑" },
    }
    
    data["speech enhancement"] = {
        short = "The task of improving the perceptual quality and intelligibility of a noisy or degraded speech signal by suppressing background noise, reverberation, and distortions while preserving the clean speech component.",
        article = nil,
        aliases = { "speech denoising", "noise suppression", "audio denoising (speech)", "neural speech enhancement" },
        es = "Tarea de mejorar la calidad perceptual y la inteligibilidad de una señal de voz ruidosa o degradada suprimiendo ruido de fondo, reverberación y distorsiones mientras se preserva la componente de voz limpia.",
        zh = "通过抑制背景噪声、混响和失真同时保留干净语音成分,提升噪声或受损语音信号的感知质量和可懂度的任务。",
        term_es = "mejora de la voz",
        term_zh = "语音增强",
        aliases_es = { "realce de voz", "supresión de ruido en voz", "denoising de voz", "mejoramiento de la voz" },
        aliases_zh = { "语音降噪", "语音去噪", "噪声抑制", "神经语音增强" },
    }
    
    data["speech foundation model"] = {
        short = "A large self-supervised or weakly supervised model pretrained on broad speech corpora that produces general-purpose representations or capabilities transferable to many downstream speech tasks such as ASR, TTS, and speaker tasks.",
        article = nil,
        aliases = { "speech foundation models", "foundation model for speech", "large speech model", "pretrained speech model" },
        es = "Modelo de gran escala, autosupervisado o débilmente supervisado, preentrenado sobre corpus amplios de voz que produce representaciones o capacidades de propósito general transferibles a numerosas tareas posteriores como ASR, TTS y tareas de hablante.",
        zh = "在大规模语音语料上以自监督或弱监督方式预训练的大型模型,可生成通用表征或能力,并可迁移到 ASR、TTS、说话人相关等众多下游语音任务。",
        term_es = "modelo fundacional de voz",
        term_zh = "语音基础模型",
        aliases_es = { "modelo fundacional para voz", "modelo base de voz", "modelo de voz preentrenado a gran escala" },
        aliases_zh = { "语音基座模型", "语音大模型", "预训练语音模型", "语音 foundation model" },
    }
    
    data["speech inpainting"] = {
        short = "The task of reconstructing missing or corrupted segments of a speech signal — typically gaps of tens to hundreds of milliseconds — using surrounding acoustic context, often with neural generative models.",
        article = nil,
        aliases = { "audio inpainting (speech)", "speech gap filling", "missing speech reconstruction" },
        es = "Tarea de reconstruir segmentos perdidos o corruptos de una señal de voz —típicamente huecos de decenas a cientos de milisegundos— a partir del contexto acústico circundante, a menudo con modelos generativos neuronales.",
        zh = "利用周围声学上下文重建语音信号中缺失或受损片段(通常为数十至数百毫秒间隔)的任务,常借助神经生成模型完成。",
        term_es = "inpainting de voz",
        term_zh = "语音修复",
        aliases_es = { "reconstrucción de tramos faltantes de voz", "relleno de huecos de voz", "audio inpainting de voz" },
        aliases_zh = { "语音补全", "语音 inpainting", "音频修复(语音)", "缺失语音重建" },
    }
    
    data["speech moco"] = {
        short = "An adaptation of the Momentum Contrast (MoCo) self-supervised learning framework to speech, in which a momentum-updated encoder and a queue of negatives are used to learn frame- or utterance-level representations.",
        article = nil,
        aliases = { "Speech MoCo", "MoCo for speech", "Momentum Contrast for speech" },
        es = "Adaptación del marco de aprendizaje autosupervisado Momentum Contrast (MoCo) a la voz, en la que se utilizan un codificador actualizado por momento y una cola de negativos para aprender representaciones a nivel de marco o de enunciado.",
        zh = "将自监督学习框架 Momentum Contrast(MoCo)适配到语音的版本,使用动量更新的编码器和负样本队列来学习帧级或语句级语音表征。",
        term_es = "MoCo para voz",
        term_zh = "语音 MoCo",
        aliases_es = { "Speech MoCo", "MoCo para habla", "Momentum Contrast para voz" },
        aliases_zh = { "Speech MoCo", "语音版 MoCo", "动量对比语音表示学习" },
    }
    
    data["speech recognition bias"] = {
        short = "Disparity in automatic speech recognition accuracy across speakers, where word error rates are higher for speakers with non-mainstream accents, dialects, or demographic characteristics. Documented across commercial and open-source ASR systems.",
        article = nil,
        aliases = { "ASR bias", "speech-to-text bias" },
        es = "Disparidad en la precisión del reconocimiento automático del habla entre hablantes: las tasas de error de palabra son mayores para hablantes con acentos, dialectos o características demográficas no dominantes. Documentada tanto en sistemas comerciales como de código abierto.",
        zh = "自动语音识别在不同说话人之间的准确度差异:对非主流口音、方言或某些人口学特征的说话人,词错误率显著更高。商业与开源 ASR 系统均有记录。",
        term_es = "sesgo en reconocimiento del habla",
        term_zh = "语音识别偏差",
        aliases_es = { "sesgo en ASR", "sesgo en reconocimiento de voz" },
        aliases_zh = { "ASR 偏差", "语音转文本偏差" },
    }
    
    data["speech separation"] = {
        short = "The task of recovering individual speakers' clean signals from a mixture in which they overlap, often referred to as the cocktail-party problem and addressed today with masking-based or end-to-end neural networks.",
        article = nil,
        aliases = { "source separation (speech)", "cocktail party problem", "monaural speech separation", "talker separation" },
        es = "Tarea de recuperar las señales limpias de cada hablante a partir de una mezcla en la que se solapan, conocida como el problema del cóctel y abordada hoy mediante redes neuronales basadas en máscaras o de extremo a extremo.",
        zh = "从多位说话人重叠的混合语音中分别恢复出每个说话人干净信号的任务,常被称为鸡尾酒会问题,目前主要采用基于掩码或端到端神经网络方法解决。",
        term_es = "separación de voces",
        term_zh = "语音分离",
        aliases_es = { "separación de habla", "separación de fuentes de voz", "problema del cóctel", "separación de hablantes" },
        aliases_zh = { "说话人分离", "鸡尾酒会问题", "单通道语音分离", "语音源分离" },
    }
    
    data["speech simclr"] = {
        short = "An adaptation of the SimCLR contrastive self-supervised framework to speech, in which two augmented views of the same audio segment are pulled together in embedding space while views from other segments are pushed apart.",
        article = nil,
        aliases = { "Speech SimCLR", "SimCLR for speech", "SpeechSimCLR" },
        es = "Adaptación del marco contrastivo autosupervisado SimCLR a la voz, en la que dos vistas aumentadas del mismo segmento de audio se acercan en el espacio de embedding mientras que las vistas de otros segmentos se alejan.",
        zh = "将对比自监督框架 SimCLR 适配到语音,使同一段音频的两个增强视图在嵌入空间中靠近、而来自其他片段的视图被推远。",
        term_es = "SimCLR para voz",
        term_zh = "语音 SimCLR",
        aliases_es = { "Speech SimCLR", "SimCLR para habla", "SimCLR aplicado a voz" },
        aliases_zh = { "Speech SimCLR", "语音版 SimCLR", "SimCLR for speech" },
    }
    
    data["speech synthesis"] = {
        short = "The artificial generation of human-sounding speech from an input such as text, phonemes, or another speech signal, traditionally rule- and concatenation-based and now dominated by neural text-to-speech systems.",
        article = nil,
        aliases = { "TTS", "text-to-speech", "text to speech", "voice synthesis", "synthetic speech generation" },
        es = "Generación artificial de voz que suena humana a partir de una entrada como texto, fonemas u otra señal de voz; tradicionalmente basada en reglas y concatenación, hoy dominada por sistemas neuronales de síntesis a partir de texto.",
        zh = "从文本、音素或其他语音信号等输入人工生成类人语音的过程,传统上基于规则和拼接,如今由神经文本转语音系统主导。",
        term_es = "síntesis de voz",
        term_zh = "语音合成",
        aliases_es = { "TTS", "texto a voz", "texto-a-voz", "síntesis del habla", "síntesis de habla" },
        aliases_zh = { "TTS", "文本转语音", "文本到语音", "语音生成", "语声合成" },
    }
    
    data["speech synthesis markup language"] = {
        short = "An XML-based standard, SSML, that lets text-to-speech engines be controlled at fine granularity through tags for pronunciation, prosody, breaks, voice selection, and audio embedding.",
        article = nil,
        aliases = { "SSML", "SSML markup", "Speech Synthesis Markup Language (SSML)" },
        es = "Estándar basado en XML, SSML, que permite controlar de forma detallada los motores de síntesis de voz mediante etiquetas para pronunciación, prosodia, pausas, selección de voz e incrustación de audio.",
        zh = "基于 XML 的标准 SSML,通过用于发音、韵律、停顿、嗓音选择和音频嵌入的标签精细控制文本转语音引擎。",
        term_es = "lenguaje de marcado para síntesis de voz",
        term_zh = "语音合成标记语言",
        aliases_es = { "SSML", "lenguaje de marcado SSML", "lenguaje de marcado de síntesis de voz" },
        aliases_zh = { "SSML", "SSML 标记", "语音合成标记语言 SSML" },
    }
    
    data["speech tokenizer"] = {
        short = "A model that maps a continuous speech waveform or its features into a sequence of discrete tokens, enabling speech to be modelled with language-model architectures; examples include HuBERT, EnCodec, and SoundStream codecs.",
        article = nil,
        aliases = { "speech tokenizers", "audio tokenizer (speech)", "discrete speech tokens", "neural speech codec tokenizer" },
        es = "Modelo que mapea una forma de onda continua de voz o sus características a una secuencia de tokens discretos, permitiendo modelar la voz con arquitecturas de modelos de lenguaje; ejemplos incluyen HuBERT, EnCodec y SoundStream.",
        zh = "将连续语音波形或其特征映射为离散 token 序列的模型,使语音可以用语言模型架构建模;典型例子包括 HuBERT、EnCodec 和 SoundStream。",
        term_es = "tokenizador de voz",
        term_zh = "语音分词器",
        aliases_es = { "tokenizadores de voz", "tokenizador de habla", "tokens discretos de voz", "codec neuronal tokenizador de voz" },
        aliases_zh = { "语音 tokenizer", "语音 token 化器", "离散语音 token", "神经语音编解码分词器" },
    }
    
    data["speech translation"] = {
        short = "The task of converting spoken input in one language into text or speech in another language, traditionally implemented as an ASR-plus-MT cascade and increasingly addressed with end-to-end neural models.",
        article = nil,
        aliases = { "ST", "spoken language translation", "automatic speech translation", "AST" },
        es = "Tarea de convertir una entrada hablada en un idioma en texto o voz en otro idioma, tradicionalmente implementada como una cascada ASR + traducción automática y cada vez más abordada con modelos neuronales de extremo a extremo.",
        zh = "将一种语言的口语输入转换为另一种语言的文本或语音的任务,传统上由 ASR 加机器翻译级联实现,如今越来越多地使用端到端神经模型。",
        term_es = "traducción de voz",
        term_zh = "语音翻译",
        aliases_es = { "ST", "traducción del habla", "traducción de lengua hablada", "traducción automática de voz" },
        aliases_zh = { "ST", "口语翻译", "自动语音翻译", "AST" },
    }
    
    data["speech-to-speech translation"] = {
        short = "The task of translating speech in a source language directly into speech in a target language, either via a cascade of ASR, MT, and TTS or with end-to-end models that bypass intermediate text.",
        article = nil,
        aliases = { "S2ST", "speech to speech translation", "direct speech-to-speech translation", "spoken-to-spoken translation" },
        es = "Tarea de traducir voz en un idioma de origen directamente a voz en un idioma destino, ya sea mediante una cascada de ASR, traducción automática y TTS o con modelos de extremo a extremo que prescinden del texto intermedio.",
        zh = "将源语言的语音直接翻译成目标语言语音的任务,可通过 ASR、机器翻译与 TTS 级联实现,也可使用绕过中间文本的端到端模型。",
        term_es = "traducción de voz a voz",
        term_zh = "语音到语音翻译",
        aliases_es = { "S2ST", "traducción habla a habla", "traducción directa de voz a voz", "traducción de voz-a-voz" },
        aliases_zh = { "S2ST", "语音对语音翻译", "端到端语音到语音翻译", "直接语音翻译" },
    }
    
    data["speech-to-text translation"] = {
        short = "A task that takes speech in a source language as input and produces text in a target language, combining automatic speech recognition and machine translation either in cascade or end-to-end.",
        article = nil,
        aliases = { "S2TT", "speech to text translation", "speech translation to text", "ST" },
        es = "Tarea que toma habla en un idioma fuente y produce texto en un idioma objetivo, combinando reconocimiento automático del habla y traducción automática, ya sea en cascada o de extremo a extremo.",
        zh = "一种以源语言语音为输入、以目标语言文本为输出的任务,通过级联或端到端方式结合自动语音识别和机器翻译。",
        term_es = "traducción de voz a texto",
        term_zh = "语音到文本翻译",
        aliases_es = { "S2TT", "traducción del habla a texto", "ST" },
        aliases_zh = { "S2TT", "语音翻译", "ST" },
    }
    
    data["speechbrain"] = {
        short = "An open-source PyTorch-based toolkit for speech processing that provides recipes for ASR, speaker recognition, speech enhancement, separation, and self-supervised learning.",
        article = nil,
        aliases = { "SpeechBrain" },
        es = "Conjunto de herramientas de código abierto basado en PyTorch para procesamiento del habla que ofrece recetas para reconocimiento automático del habla, reconocimiento de locutor, mejora, separación y aprendizaje auto-supervisado.",
        zh = "基于 PyTorch 的开源语音处理工具包,为语音识别、说话人识别、语音增强、分离及自监督学习提供完整方案。",
        term_es = "SpeechBrain",
        term_zh = "SpeechBrain",
        aliases_es = { "SpeechBrain" },
        aliases_zh = { "SpeechBrain" },
    }
    
    data["speechmatrix"] = {
        short = "A large-scale multilingual speech-to-speech translation corpus released by Meta, mined from European Parliament recordings across multiple language pairs using LASER-based alignment.",
        article = nil,
        aliases = { "SpeechMatrix", "Speech Matrix" },
        es = "Corpus multilingüe a gran escala de traducción de voz a voz publicado por Meta, extraído de grabaciones del Parlamento Europeo en múltiples pares de idiomas mediante alineación basada en LASER.",
        zh = "Meta 发布的大规模多语言语音到语音翻译语料库,通过基于 LASER 的对齐方法从欧洲议会录音中跨多个语言对挖掘得到。",
        term_es = "SpeechMatrix",
        term_zh = "SpeechMatrix",
        aliases_es = { "SpeechMatrix" },
        aliases_zh = { "SpeechMatrix" },
    }
    
    data["speechstew"] = {
        short = "A multi-domain automatic speech recognition model trained jointly on a combined mixture of public English ASR datasets, demonstrating that simple data pooling improves robustness across domains.",
        article = nil,
        aliases = { "SpeechStew", "Speech Stew" },
        es = "Modelo de reconocimiento automático del habla multi-dominio entrenado conjuntamente sobre una mezcla combinada de conjuntos de datos públicos de ASR en inglés, demostrando que la simple unión de datos mejora la robustez entre dominios.",
        zh = "在多个公开英文 ASR 数据集混合上联合训练的多领域语音识别模型,表明简单的数据合并即可提升跨领域的鲁棒性。",
        term_es = "SpeechStew",
        term_zh = "SpeechStew",
        aliases_es = { "SpeechStew" },
        aliases_zh = { "SpeechStew" },
    }
    
    data["speechtokenizer"] = {
        short = "A unified speech tokenizer designed for speech language models that disentangles content, paralinguistic, and acoustic information across hierarchical residual vector quantization codebooks.",
        article = nil,
        aliases = { "SpeechTokenizer", "Speech Tokenizer" },
        es = "Tokenizador unificado de voz diseñado para modelos de lenguaje de habla que separa información de contenido, paralingüística y acústica en libros de códigos jerárquicos de cuantización vectorial residual.",
        zh = "为语音语言模型设计的统一语音分词器,通过分层残差向量量化码本解耦内容、副语言和声学信息。",
        term_es = "SpeechTokenizer",
        term_zh = "SpeechTokenizer",
        aliases_es = { "SpeechTokenizer" },
        aliases_zh = { "SpeechTokenizer", "语音分词器" },
    }
    
    data["spgispeech"] = {
        short = "A 5,000-hour transcribed English speech corpus released by Kensho derived from company earnings calls, featuring orthographic transcripts with full punctuation and capitalization.",
        article = nil,
        aliases = { "SPGISpeech", "SPGI Speech", "Kensho SPGISpeech" },
        es = "Corpus de habla en inglés transcrito de 5.000 horas publicado por Kensho, derivado de llamadas de resultados corporativos, con transcripciones ortográficas con puntuación y mayúsculas completas.",
        zh = "由 Kensho 发布的 5000 小时英语语音转录语料库,源自公司财报电话会议,提供带完整标点和大小写的正字法转写。",
        term_es = "SPGISpeech",
        term_zh = "SPGISpeech",
        aliases_es = { "SPGISpeech" },
        aliases_zh = { "SPGISpeech" },
    }
    
    data["sphereface loss"] = {
        short = "Face-recognition loss that introduces a multiplicative angular margin within the softmax classifier, encouraging features to lie on a hypersphere with enhanced angular discriminability.",
        article = nil,
        aliases = { "SphereFace", "A-Softmax", "angular softmax loss", "A-Softmax loss" },
        es = "Pérdida para reconocimiento facial que introduce un margen angular multiplicativo dentro del clasificador softmax, fomentando que las características se distribuyan sobre una hiperesfera con mayor discriminabilidad angular.",
        zh = "一种人脸识别损失,在 softmax 分类器中引入乘性角度间隔,使特征分布在超球面上并增强角度判别能力。",
        term_es = "pérdida SphereFace",
        term_zh = "SphereFace 损失",
        aliases_es = { "SphereFace", "A-Softmax" },
        aliases_zh = { "SphereFace", "A-Softmax", "角度 softmax 损失" },
    }
    
    data["spherical harmonics features"] = {
        short = "Geometric features built from spherical harmonics Y_l^m of relative position vectors, providing rotation-equivariant angular descriptors used in equivariant neural networks such as Tensor Field Networks and e3nn.",
        article = nil,
        aliases = { "spherical harmonic features", "spherical harmonics embeddings", "Y_lm features" },
        es = "Características geométricas construidas a partir de armónicos esféricos Y_l^m de vectores de posición relativa, que proporcionan descriptores angulares equivariantes a la rotación utilizados en redes neuronales equivariantes como Tensor Field Networks y e3nn.",
        zh = "基于相对位置向量的球谐函数 Y_l^m 构建的几何特征,提供旋转等变的角度描述子,用于 Tensor Field Networks、e3nn 等等变神经网络。",
        term_es = "características de armónicos esféricos",
        term_zh = "球谐函数特征",
        aliases_es = { "embeddings de armónicos esféricos", "descriptores Y_lm" },
        aliases_zh = { "球谐特征", "Y_lm 特征", "球谐函数嵌入" },
    }
    
    data["spice dataset"] = {
        short = "SPICE (Small-molecule/Protein Interaction Chemical Energies) is a large quantum-chemistry dataset of drug-like molecules, peptides, and ions with DFT-level energies and forces used to train machine-learned interatomic potentials.",
        article = nil,
        aliases = { "SPICE", "SPICE dataset", "Small-molecule/Protein Interaction Chemical Energies" },
        es = "SPICE (Small-molecule/Protein Interaction Chemical Energies) es un gran conjunto de datos de química cuántica de moléculas farmacológicas, péptidos e iones con energías y fuerzas a nivel DFT, utilizado para entrenar potenciales interatómicos aprendidos por máquina.",
        zh = "SPICE(小分子/蛋白质相互作用化学能数据集)是一个大型量子化学数据集,包含药物分子、多肽和离子的 DFT 级别能量与受力,用于训练机器学习原子间势。",
        term_es = "conjunto de datos SPICE",
        term_zh = "SPICE 数据集",
        aliases_es = { "SPICE", "base de datos SPICE" },
        aliases_zh = { "SPICE", "SPICE 数据库", "小分子蛋白质相互作用化学能数据集" },
    }
    
    data["spice metric"] = {
        short = "An image captioning evaluation metric that compares scene graphs derived from candidate and reference captions, measuring F-score over semantic propositions about objects, attributes, and relations rather than n-gram overlap.",
        article = nil,
        aliases = { "SPICE", "Semantic Propositional Image Caption Evaluation", "SPICE score" },
        es = "Métrica de evaluación para subtitulado de imágenes que compara grafos de escena derivados de los subtítulos candidato y de referencia, midiendo la F-score sobre proposiciones semánticas acerca de objetos, atributos y relaciones, en lugar de la coincidencia de n-gramas.",
        zh = "一种图像字幕评估指标,通过比较候选字幕与参考字幕导出的场景图,基于关于物体、属性与关系的语义命题计算 F 值,而非 n-gram 重合度。",
        term_es = "métrica SPICE",
        term_zh = "SPICE 指标",
        aliases_es = { "SPICE", "evaluación proposicional semántica de subtítulos de imagen" },
        aliases_zh = { "SPICE", "语义命题图像字幕评估" },
    }
    
    data["spider benchmark"] = {
        short = "A large-scale, cross-domain text-to-SQL benchmark of natural-language questions paired with complex SQL queries spanning hundreds of databases, used to evaluate semantic parsing systems.",
        article = nil,
        aliases = { "Spider", "Spider dataset", "Spider text-to-SQL benchmark", "Spider 1.0" },
        es = "Benchmark de texto a SQL a gran escala y multidominio que empareja preguntas en lenguaje natural con consultas SQL complejas sobre cientos de bases de datos, usado para evaluar sistemas de análisis semántico.",
        zh = "大规模跨领域的文本到 SQL 基准,将自然语言问题与跨数百个数据库的复杂 SQL 查询配对,用于评估语义解析系统。",
        term_es = "Spider",
        term_zh = "Spider",
        aliases_es = { "benchmark Spider", "conjunto de datos Spider", "Spider 1.0" },
        aliases_zh = { "Spider 基准", "Spider 数据集", "Spider 1.0" },
    }
    
    data["spike-and-slab prior"] = {
        short = "A two-component sparsity-inducing prior consisting of a point mass (the spike) at zero and a continuous distribution (the slab) elsewhere, used in Bayesian variable selection and sparse Bayesian neural networks to set most weights exactly to zero.",
        article = nil,
        aliases = { "spike and slab", "spike-and-slab", "spike-and-slab distribution" },
        es = "Prior inductor de dispersión con dos componentes: una masa puntual (la espiga) en cero y una distribución continua (la losa) en el resto, usado en selección bayesiana de variables y redes neuronales bayesianas dispersas para fijar exactamente a cero la mayoría de pesos.",
        zh = "一种两成分稀疏先验:在零处放置点质量(spike)、其余区域放置连续分布(slab),用于贝叶斯变量选择和稀疏贝叶斯神经网络,使大多数权重精确为零。",
        term_es = "prior spike-and-slab",
        term_zh = "Spike-and-Slab 先验",
        aliases_es = { "prior espiga y losa", "distribución spike-and-slab" },
        aliases_zh = { "尖峰平板先验", "Spike-Slab 先验", "尖峰-平板分布" },
    }
    
    data["spillover effect"] = {
        short = "A causal effect in which one unit's treatment influences the outcomes of other units, violating the no-interference part of SUTVA; central to studies of peer effects, networks, and policy evaluation.",
        article = nil,
        aliases = { "interference", "spillover", "indirect treatment effect", "peer effect" },
        es = "Efecto causal en el que el tratamiento de una unidad influye en los resultados de otras unidades, violando la parte de no interferencia de SUTVA; central en estudios de efectos de pares, redes y evaluación de políticas.",
        zh = "一种因果效应,其中某单元的处理影响其他单元的结果,违反了 SUTVA 的无干扰假设;在同伴效应、网络和政策评估研究中处于核心地位。",
        term_es = "efecto de derrame",
        term_zh = "溢出效应",
        aliases_es = { "efecto de contagio", "efecto indirecto del tratamiento", "interferencia", "efecto spillover" },
        aliases_zh = { "外溢效应", "干扰效应", "间接处理效应" },
    }
    
    data["spin self-play"] = {
        short = "Self-Play Fine-Tuning, an iterative alignment method in which a language model generates its own responses and is trained to distinguish them from human-written responses, progressively improving without additional preference labels.",
        article = nil,
        aliases = { "SPIN", "Self-Play Fine-Tuning", "self-play fine-tuning", "spin" },
        es = "Self-Play Fine-Tuning, método iterativo de alineación en el que un modelo de lenguaje genera sus propias respuestas y se entrena para distinguirlas de respuestas escritas por humanos, mejorando progresivamente sin etiquetas adicionales de preferencia.",
        zh = "自博弈微调,一种迭代式对齐方法,语言模型生成自己的响应,并被训练以将其与人类撰写的响应区分开来,无需额外偏好标签即可逐步提升。",
        term_es = "SPIN",
        term_zh = "SPIN",
        aliases_es = { "Self-Play Fine-Tuning", "ajuste fino por autojuego" },
        aliases_zh = { "Self-Play Fine-Tuning", "自博弈微调", "自我博弈微调" },
    }
    
    data["spinenet"] = {
        short = "A scale-permuted convolutional backbone for object detection and recognition discovered by neural architecture search. It learns the order of resolution scales rather than following the standard increasing-then-decreasing scale pattern of CNN backbones.",
        article = nil,
        aliases = { "SpineNet", "Scale-Permuted Network", "scale-permuted backbone" },
        es = "Red dorsal convolucional con permutación de escalas para detección y reconocimiento de objetos, descubierta mediante búsqueda de arquitecturas neuronales. Aprende el orden de las escalas de resolución en lugar de seguir el patrón estándar creciente-decreciente de las redes dorsales convolucionales.",
        zh = "SpineNet,一种通过神经架构搜索得到的尺度置换卷积主干网络,用于目标检测与识别,它学习分辨率尺度的排列顺序,而非沿用 CNN 主干常见的先升后降模式。",
        term_es = "SpineNet",
        term_zh = "SpineNet",
        aliases_es = { "red con permutación de escalas" },
        aliases_zh = { "SpineNet 主干", "尺度置换网络" },
    }
    
    data["spinenet-49"] = {
        short = "A specific configuration of SpineNet with 49 scale-permuted blocks, used as a reference backbone in object detection benchmarks. Variants with more blocks (e.g., SpineNet-96, SpineNet-143) trade compute for accuracy.",
        article = nil,
        aliases = { "SpineNet-49", "SpineNet 49" },
        es = "Configuración concreta de SpineNet con 49 bloques con permutación de escalas, utilizada como red dorsal de referencia en pruebas de detección de objetos. Las variantes con más bloques (por ejemplo, SpineNet-96 o SpineNet-143) intercambian cómputo por precisión.",
        zh = "SpineNet 的一种具体配置,包含 49 个尺度置换模块,常作为目标检测基准中的参考主干网络;更大的变体(如 SpineNet-96、SpineNet-143)以更多算力换取更高精度。",
        term_es = "SpineNet-49",
        term_zh = "SpineNet-49",
        aliases_es = { "SpineNet 49" },
        aliases_zh = { "SpineNet 49" },
    }
    
    data["splade"] = {
        short = "Sparse Lexical and Expansion model, a learned sparse retrieval method that uses a masked language model head to produce sparse, vocabulary-sized term weights, combining the efficiency of inverted indexes with neural relevance.",
        article = nil,
        aliases = { "SPLADE", "SPLADEv2", "SPLADE++", "Sparse Lexical and Expansion model" },
        es = "Sparse Lexical and Expansion model, método de recuperación dispersa aprendida que utiliza la cabeza de un modelo de lenguaje enmascarado para producir pesos dispersos del tamaño del vocabulario, combinando la eficiencia de los índices invertidos con la relevancia neuronal.",
        zh = "Sparse Lexical and Expansion模型,一种学习式稀疏检索方法,利用掩码语言模型头生成与词表同维的稀疏词项权重,将倒排索引的高效性与神经网络的相关性建模相结合。",
        term_es = "SPLADE",
        term_zh = "SPLADE",
        aliases_es = { "SPLADE++", "SPLADEv2" },
        aliases_zh = { "SPLADE++", "SPLADEv2", "稀疏词法扩展模型" },
    }
    
    data["spleeter"] = {
        short = "An open-source music source separation library released by Deezer that uses U-Net convolutional networks to split a mixture into stems such as vocals, drums, bass, and other instruments.",
        article = nil,
        aliases = { "Spleeter" },
        es = "Biblioteca de código abierto de separación de fuentes musicales publicada por Deezer que usa redes convolucionales U-Net para dividir una mezcla en pistas como voces, batería, bajo y otros instrumentos.",
        zh = "Deezer 发布的开源音乐源分离库,使用 U-Net 卷积网络将混合音轨分离为人声、鼓、贝斯和其他乐器等音轨。",
        term_es = "Spleeter",
        term_zh = "Spleeter",
        aliases_es = { "Spleeter" },
        aliases_zh = { "Spleeter" },
    }
    
    data["splice graph"] = {
        short = "A graph representation of a gene's transcript structures in which nodes are exons (or splice sites) and edges are introns or splice junctions, encoding all observed isoforms compactly and supporting alternative-splicing analysis.",
        article = nil,
        aliases = { "splicing graph", "exon-junction graph", "transcript graph" },
        es = "Representación en grafo de las estructuras de transcritos de un gen en la que los nodos son exones (o sitios de empalme) y las aristas son intrones o uniones de empalme, codificando todas las isoformas observadas de forma compacta y permitiendo el análisis de empalme alternativo.",
        zh = "用于表示基因转录本结构的图,其中节点为外显子(或剪接位点),边为内含子或剪接连接,从而紧凑地编码所有观察到的异构体并支持可变剪接分析。",
        term_es = "grafo de empalme",
        term_zh = "剪接图",
        aliases_es = { "grafo de splicing", "grafo de exones y uniones", "grafo de transcritos" },
        aliases_zh = { "剪接图(splice graph)", "外显子-连接图", "转录本图" },
    }
    
    data["spliceai"] = {
        short = "A deep neural network developed by Illumina that predicts splice-altering effects of genetic variants from primary DNA sequence, scoring the probability that each position acts as an acceptor or donor splice site.",
        article = nil,
        aliases = { "SpliceAI", "Illumina SpliceAI", "SpliceAI predictor" },
        es = "Red neuronal profunda desarrollada por Illumina que predice los efectos sobre el empalme de variantes genéticas a partir de la secuencia de ADN primaria, asignando la probabilidad de que cada posición actúe como sitio aceptor o donador de empalme.",
        zh = "由 Illumina 开发的深度神经网络,从原始 DNA 序列预测遗传变异对剪接的影响,给出每个位点作为剪接受体或供体位点的概率。",
        term_es = "SpliceAI",
        term_zh = "SpliceAI",
        aliases_es = { "SpliceAI de Illumina", "predictor SpliceAI" },
        aliases_zh = { "Illumina SpliceAI", "SpliceAI 预测器" },
    }
    
    data["splicing analysis"] = {
        short = "Computational analysis of pre-mRNA splicing patterns from RNA-seq data, including detection of differential splicing events (cassette exons, retained introns, alternative 5'/3' sites) and isoform quantification using tools such as rMATS, MAJIQ, and LeafCutter.",
        article = nil,
        aliases = { "alternative splicing analysis", "differential splicing analysis", "splicing quantification", "AS analysis" },
        es = "Análisis computacional de los patrones de empalme del pre-ARNm a partir de datos de RNA-seq, que incluye la detección de eventos de empalme diferencial (exones tipo casete, intrones retenidos, sitios 5'/3' alternativos) y la cuantificación de isoformas con herramientas como rMATS, MAJIQ y LeafCutter.",
        zh = "基于 RNA-seq 数据对前体 mRNA 剪接模式进行的计算分析,包括差异剪接事件(盒式外显子、保留内含子、替代 5'/3' 位点)的检测以及使用 rMATS、MAJIQ、LeafCutter 等工具的异构体定量。",
        term_es = "análisis de empalme",
        term_zh = "剪接分析",
        aliases_es = { "análisis de splicing", "análisis de empalme alternativo", "análisis de splicing diferencial" },
        aliases_zh = { "可变剪接分析", "差异剪接分析", "剪接定量分析" },
    }
    
    data["split conformal"] = {
        short = "A computationally cheap variant of conformal prediction that splits the data into a training and a calibration set; the model is fit on the former, then nonconformity scores on the calibration set yield finite-sample marginal coverage guarantees for new test points.",
        article = nil,
        aliases = { "split conformal prediction", "inductive conformal prediction", "ICP", "SCP" },
        es = "Variante computacionalmente barata de la predicción conformal que divide los datos en un conjunto de entrenamiento y otro de calibración; el modelo se ajusta al primero y las puntuaciones de no conformidad sobre el conjunto de calibración proporcionan garantías de cobertura marginal en muestras finitas para nuevos puntos de prueba.",
        zh = "保形预测的一种计算高效变体,将数据切分为训练集和校准集:在训练集上拟合模型,再用校准集上的不一致性得分为新测试点提供有限样本的边际覆盖保证。",
        term_es = "predicción conformal por división",
        term_zh = "拆分保形预测",
        aliases_es = { "predicción conformal inductiva", "ICP", "SCP", "split conformal" },
        aliases_zh = { "split conformal", "归纳保形预测", "ICP", "SCP" },
    }
    
    data["split learning"] = {
        short = "A collaborative learning paradigm in which a neural network is partitioned at a cut layer between client and server: clients run the lower layers on raw data and send only intermediate activations forward, while gradients flow back across the cut, keeping raw data and (some of the) parameters local.",
        article = nil,
        aliases = { "Split Learning", "SL", "split-learning", "vertical split learning", "neural network split learning" },
        es = "Paradigma de aprendizaje colaborativo en el que una red neuronal se particiona en una capa de corte entre cliente y servidor: los clientes ejecutan las capas inferiores sobre los datos en bruto y solo envían activaciones intermedias hacia adelante, mientras que los gradientes vuelven a través del corte, manteniendo los datos en bruto y (parte de) los parámetros locales.",
        zh = "一种协作学习范式:神经网络在某一切分层处被划分为客户端与服务器两部分,客户端对原始数据运行较低层并只前向发送中间激活,梯度则反向穿过切分层回传,从而将原始数据和(部分)参数保留在本地。",
        term_es = "aprendizaje dividido",
        term_zh = "拆分学习",
        aliases_es = { "split learning", "SL", "aprendizaje split", "aprendizaje federado dividido" },
        aliases_zh = { "split learning", "SL", "分裂学习", "切分学习" },
    }
    
    data["splitnn"] = {
        short = "A specific framework for split learning in which a deep neural network is partitioned across one or more clients holding lower layers and a server holding the remaining layers; clients exchange only intermediate activations and gradients with the server, never raw data.",
        article = nil,
        aliases = { "SplitNN", "Split NN", "Split Neural Network", "split-NN", "Split neural network", "splitnn framework" },
        es = "Marco específico de aprendizaje dividido en el que una red neuronal profunda se particiona entre uno o más clientes que mantienen las capas inferiores y un servidor que mantiene las capas restantes; los clientes intercambian con el servidor solo activaciones intermedias y gradientes, nunca datos en bruto.",
        zh = "拆分学习的一种具体框架:将深度神经网络在一个或多个持有底层的客户端与持有其余层的服务器之间进行划分;客户端与服务器之间仅交换中间激活和梯度,绝不交换原始数据。",
        term_es = "SplitNN",
        term_zh = "SplitNN",
        aliases_es = { "red neuronal dividida", "marco SplitNN", "Split-NN" },
        aliases_zh = { "拆分神经网络", "Split-NN", "SplitNN框架" },
    }
    
    data["spookynet"] = {
        short = "A neural-network potential for molecular energies and forces that explicitly incorporates non-local effects, electronic spin and charge, and physically-motivated long-range electrostatics and dispersion corrections.",
        article = nil,
        aliases = { "SpookyNet" },
        es = "Potencial de red neuronal para energías y fuerzas moleculares que incorpora explícitamente efectos no locales, espín y carga electrónica y correcciones físicas de electrostática de largo alcance y dispersión.",
        zh = "一种用于分子能量和受力的神经网络势,显式纳入非局域效应、电子自旋与电荷以及具有物理依据的长程静电和色散修正。",
        term_es = "SpookyNet",
        term_zh = "SpookyNet",
        aliases_es = { "potencial SpookyNet" },
        aliases_zh = { "SpookyNet 势函数" },
    }
    
    data["spos"] = {
        short = "Single Path One-Shot neural architecture search. A weight-sharing NAS method that trains a supernet by sampling a single random path per step and then performs evolutionary search over architectures using the trained supernet's inherited weights.",
        article = nil,
        aliases = { "SPOS", "Single Path One-Shot", "Single Path One-Shot NAS", "single-path one-shot" },
        es = "Single Path One-Shot, método de búsqueda de arquitecturas con compartición de pesos que entrena una supernet muestreando un único camino aleatorio por paso y después realiza búsqueda evolutiva sobre arquitecturas usando los pesos heredados de la supernet entrenada.",
        zh = "SPOS(Single Path One-Shot)单路径一次性神经架构搜索,一种权重共享的 NAS 方法:每步从超网中均匀采样一条单一路径进行训练,再基于训练好的超网继承权重,通过进化搜索在架构空间中寻优。",
        term_es = "SPOS",
        term_zh = "SPOS",
        aliases_es = { "Single Path One-Shot", "búsqueda one-shot de ruta única" },
        aliases_zh = { "Single Path One-Shot", "单路径一次性 NAS" },
    }
    
    data["spurious correlation detection"] = {
        short = "Methods that identify input features statistically correlated with the target during training but not causally relevant, often using counterfactual interventions, group-wise performance gaps, or distribution-shift evaluations.",
        article = nil,
        aliases = { "spurious correlation detection", "spurious feature detection", "shortcut feature detection" },
        es = "Métodos que identifican características de entrada correlacionadas estadísticamente con el objetivo durante el entrenamiento pero no causalmente relevantes, utilizando con frecuencia intervenciones contrafactuales, brechas de rendimiento por grupos o evaluaciones bajo cambios de distribución.",
        zh = "用于识别在训练中与目标存在统计相关但并非因果相关的输入特征的方法,通常借助反事实干预、按组性能差距或分布漂移评估实现。",
        term_es = "detección de correlaciones espurias",
        term_zh = "虚假相关检测",
        aliases_es = { "spurious correlation detection", "detección de correlaciones espurias", "detección de características espurias" },
        aliases_zh = { "spurious correlation detection", "虚假相关性检测", "伪相关检测" },
    }
    
    data["squared hinge loss"] = {
        short = "Variant of hinge loss that squares the margin violation. Penalizes large margin violations more strongly and yields smoother gradients than standard hinge.",
        article = nil,
        aliases = { "L2 hinge loss", "squared hinge", "L2-SVM loss" },
        es = "Variante de la pérdida de bisagra que eleva al cuadrado la violación del margen. Penaliza con más fuerza las violaciones grandes y produce gradientes más suaves que la versión estándar.",
        zh = "合页损失的变体,对间隔违规取平方。对较大违规的惩罚更重,并产生比标准合页损失更平滑的梯度。",
        term_es = "pérdida de bisagra al cuadrado",
        term_zh = "平方合页损失",
        aliases_es = { "hinge cuadrática", "squared hinge" },
        aliases_zh = { "squared hinge", "平方铰链损失" },
    }
    
    data["squeezeformer"] = {
        short = "An efficient ASR encoder architecture that redesigns the Conformer macro-structure with temporal U-Net downsampling and a simplified block layout, yielding better accuracy-latency trade-offs.",
        article = nil,
        aliases = { "Squeezeformer" },
        es = "Arquitectura eficiente de codificador para reconocimiento automático del habla que rediseña la macroestructura de Conformer con submuestreo temporal tipo U-Net y un bloque simplificado, mejorando el equilibrio entre precisión y latencia.",
        zh = "高效的 ASR 编码器架构,通过引入时间维度的 U-Net 下采样并简化模块布局,重新设计 Conformer 的宏观结构,在精度与延迟之间取得更好的权衡。",
        term_es = "Squeezeformer",
        term_zh = "Squeezeformer",
        aliases_es = { "Squeezeformer" },
        aliases_zh = { "Squeezeformer" },
    }
    
    data["squeezenet"] = {
        short = "A compact convolutional network introduced by Iandola et al. in 2016 that achieves AlexNet-level ImageNet accuracy with roughly 50× fewer parameters by using Fire modules built from 1×1 squeeze and 1×1/3×3 expand convolutions.",
        article = nil,
        aliases = { "SqueezeNet" },
        es = "Red convolucional compacta presentada por Iandola et al. en 2016 que alcanza una precisión en ImageNet comparable a la de AlexNet con aproximadamente 50× menos parámetros, utilizando módulos Fire compuestos por convoluciones de compresión 1×1 y de expansión 1×1/3×3.",
        zh = "由 Iandola 等人于 2016 年提出的紧凑卷积网络,使用由 1×1 压缩和 1×1/3×3 扩展卷积构成的 Fire 模块,以约 50 倍更少的参数达到与 AlexNet 相当的 ImageNet 精度。",
        term_es = "SqueezeNet",
        term_zh = "SqueezeNet",
        aliases_es = { "SqueezeNet" },
        aliases_zh = { "SqueezeNet" },
    }
    
    data["ss-cam"] = {
        short = "Smoothed Score-CAM, a class activation mapping variant that averages Score-CAM saliency maps computed on multiple noise-perturbed copies of the input to reduce visual artifacts.",
        article = nil,
        aliases = { "SS-CAM", "Smoothed Score-CAM", "smooth score-cam" },
        es = "Variante suavizada de Score-CAM que promedia los mapas de saliencia obtenidos sobre múltiples copias del input perturbadas con ruido para reducir artefactos.",
        zh = "Score-CAM 的平滑变体,对输入加噪声扰动后多次计算 Score-CAM 显著图并取平均,以降低视觉伪影。",
        term_es = "SS-CAM",
        term_zh = "SS-CAM",
        aliases_es = { "Score-CAM suavizado", "SS-CAM" },
        aliases_zh = { "平滑 Score-CAM", "SS-CAM" },
    }
    
    data["ssast"] = {
        short = "Self-Supervised Audio Spectrogram Transformer, a Vision Transformer applied to log-mel spectrograms and pretrained with masked spectrogram patch modeling for general-purpose audio representation learning.",
        article = nil,
        aliases = { "SSAST", "Self-Supervised Audio Spectrogram Transformer" },
        es = "Self-Supervised Audio Spectrogram Transformer, un Vision Transformer aplicado a espectrogramas log-mel y preentrenado con modelado de parches de espectrograma enmascarados para aprendizaje de representaciones de audio de propósito general.",
        zh = "自监督音频频谱图 Transformer,将 Vision Transformer 应用于对数梅尔频谱图,通过掩码频谱图块建模进行预训练,用于通用音频表示学习。",
        term_es = "SSAST",
        term_zh = "SSAST",
        aliases_es = { "SSAST" },
        aliases_zh = { "SSAST", "自监督音频频谱图 Transformer" },
    }
    
    data["ssd"] = {
        short = "Single Shot MultiBox Detector — a single-stage object detector introduced by Liu et al. in 2016 that predicts class scores and box offsets at multiple feature map scales using a fixed set of default anchor boxes per location.",
        article = nil,
        aliases = { "SSD", "Single Shot MultiBox Detector", "Single Shot Detector", "SSD300", "SSD512" },
        es = "Single Shot MultiBox Detector — detector de objetos de una sola etapa presentado por Liu et al. en 2016 que predice puntuaciones de clase y desplazamientos de caja a múltiples escalas de mapas de características utilizando un conjunto fijo de anchor boxes por defecto en cada ubicación.",
        zh = "Single Shot MultiBox Detector——由 Liu 等人于 2016 年提出的单阶段目标检测器,在多个特征图尺度上预测类别得分和框偏移,每个位置使用一组固定的默认锚框。",
        term_es = "SSD",
        term_zh = "SSD",
        aliases_es = { "Single Shot MultiBox Detector", "detector de un solo disparo" },
        aliases_zh = { "单次多框检测器", "单阶段检测器" },
    }
    
    data["ssml"] = {
        short = "Speech Synthesis Markup Language, a W3C-standard XML-based markup that controls aspects of synthesized speech such as pronunciation, prosody, pauses, emphasis, and voice selection.",
        article = nil,
        aliases = { "SSML", "Speech Synthesis Markup Language" },
        es = "Speech Synthesis Markup Language, un lenguaje de marcado XML estándar del W3C que controla aspectos del habla sintetizada como pronunciación, prosodia, pausas, énfasis y selección de voz.",
        zh = "语音合成标记语言,W3C 标准的基于 XML 的标记语言,用于控制合成语音的发音、韵律、停顿、重音和声音选择等方面。",
        term_es = "SSML",
        term_zh = "SSML",
        aliases_es = { "SSML", "lenguaje de marcado de síntesis de voz" },
        aliases_zh = { "SSML", "语音合成标记语言" },
    }
    
    data["ssp model"] = {
        short = "Stale Synchronous Parallel: a distributed training consistency model in which workers are allowed to read parameter values that lag behind the most recent updates by at most a fixed staleness bound, blending the throughput of asynchronous SGD with the convergence guarantees of synchronous training.",
        article = nil,
        aliases = { "SSP", "SSP model", "Stale Synchronous Parallel", "Stale Synchronous Parallel model", "bounded-staleness SSP", "SSP consistency model" },
        es = "Stale Synchronous Parallel: modelo de consistencia para entrenamiento distribuido en el que los trabajadores pueden leer valores de parámetros con un retraso máximo acotado respecto a las actualizaciones más recientes, combinando el rendimiento del SGD asíncrono con las garantías de convergencia del entrenamiento síncrono.",
        zh = "陈旧同步并行(Stale Synchronous Parallel):一种分布式训练一致性模型,允许工作节点读取相对最新更新最多滞后某个固定陈旧度上限的参数值,兼具异步SGD的吞吐量和同步训练的收敛保证。",
        term_es = "modelo SSP",
        term_zh = "SSP模型",
        aliases_es = { "SSP", "Stale Synchronous Parallel", "modelo Stale Synchronous Parallel", "modelo de paralelismo síncrono con retraso acotado" },
        aliases_zh = { "SSP", "陈旧同步并行", "陈旧同步并行模型", "有界陈旧度SSP" },
    }
    
    data["stability of explanations"] = {
        short = "A robustness property requiring that an explanation method produce similar attributions when the input or model parameters undergo small perturbations.",
        article = nil,
        aliases = { "explanation stability", "stability of attribution", "robustness of explanations" },
        es = "Propiedad de robustez según la cual un método de explicación produce atribuciones similares ante perturbaciones pequeñas del input o de los parámetros del modelo.",
        zh = "解释方法的鲁棒性属性:当输入或模型参数发生微小扰动时,所给出的归因应保持相似。",
        term_es = "estabilidad de las explicaciones",
        term_zh = "解释稳定性",
        aliases_es = { "estabilidad de explicaciones", "robustez de las explicaciones" },
        aliases_zh = { "解释的稳定性", "归因稳定性" },
    }
    
    data["stabilized weights"] = {
        short = "Inverse-probability weights in which the numerator is the marginal (or baseline-conditional) treatment probability rather than one, reducing variance while preserving consistency in marginal structural model estimation.",
        article = nil,
        aliases = { "stabilised weights", "stabilized IPW weights", "stabilized inverse probability weights" },
        es = "Pesos de probabilidad inversa en los que el numerador es la probabilidad marginal (o condicional al basal) del tratamiento en lugar de uno, lo que reduce la varianza preservando la consistencia en la estimación de modelos estructurales marginales.",
        zh = "逆概率加权中将分子设为处理的边际(或以基线为条件的)概率而非 1 的权重,在保持边际结构模型估计一致性的同时降低方差。",
        term_es = "pesos estabilizados",
        term_zh = "稳定化权重",
        aliases_es = { "pesos estabilizados de IPW", "pesos IPW estabilizados" },
        aliases_zh = { "稳定权重", "稳定化逆概率权重", "稳定 IPW 权重" },
    }
    
    data["stable audio"] = {
        short = "A latent diffusion text-to-audio model from Stability AI that generates variable-length stereo music and sound effects conditioned on text prompts and timing information.",
        article = nil,
        aliases = { "Stable Audio" },
        es = "Modelo de difusión latente de texto a audio de Stability AI que genera música estéreo y efectos de sonido de duración variable condicionados por indicaciones de texto e información temporal.",
        zh = "Stability AI 推出的潜在扩散文本到音频模型,根据文本提示和时长信息生成可变长度的立体声音乐与音效。",
        term_es = "Stable Audio",
        term_zh = "Stable Audio",
        aliases_es = { "Stable Audio" },
        aliases_zh = { "Stable Audio" },
    }
    
    data["stable diffusion"] = {
        short = "An open-source latent diffusion model for text-to-image generation that performs the diffusion process in the compressed latent space of a pretrained variational autoencoder, conditioned on text embeddings via cross-attention.",
        article = nil,
        aliases = { "Stable Diffusion", "SD" },
        es = "Modelo de difusión latente de código abierto para generación de imágenes a partir de texto que realiza el proceso de difusión en el espacio latente comprimido de un autoencoder variacional preentrenado, condicionado a embeddings de texto mediante atención cruzada.",
        zh = "一种开源的潜在扩散文本生成图像模型,在预训练变分自编码器的压缩潜在空间中执行扩散过程,并通过交叉注意力以文本嵌入作为条件。",
        term_es = "Stable Diffusion",
        term_zh = "Stable Diffusion",
        aliases_es = { "SD" },
        aliases_zh = { "SD", "稳定扩散" },
    }
    
    data["stable diffusion 3"] = {
        short = "A 2024 text-to-image diffusion model from Stability AI based on the Multimodal Diffusion Transformer (MMDiT) architecture and rectified flow training, with significantly improved typography and prompt adherence over prior versions.",
        article = nil,
        aliases = { "SD3", "SD 3", "Stable Diffusion 3", "stable diffusion 3 medium", "SD3 Medium" },
        es = "Modelo de difusión texto-a-imagen de Stability AI publicado en 2024, basado en la arquitectura Multimodal Diffusion Transformer (MMDiT) y entrenamiento por flujo rectificado, con una notable mejora en tipografía y fidelidad al prompt frente a versiones anteriores.",
        zh = "Stability AI于2024年发布的文本到图像扩散模型,采用多模态扩散Transformer(MMDiT)架构和修正流训练,相比早前版本在文字呈现和提示遵循度上有显著提升。",
        term_es = "Stable Diffusion 3",
        term_zh = "Stable Diffusion 3",
        aliases_es = { "SD3", "SD 3" },
        aliases_zh = { "SD3", "SD 3", "稳定扩散3" },
    }
    
    data["stable diffusion 3.5"] = {
        short = "An updated 2024 release of Stable Diffusion 3 from Stability AI, available in Large, Large Turbo, and Medium variants, with improved aesthetic quality, prompt adherence, and broader licensing terms.",
        article = nil,
        aliases = { "SD3.5", "SD 3.5", "Stable Diffusion 3.5", "Stable Diffusion 3.5 Large", "Stable Diffusion 3.5 Medium" },
        es = "Actualización de 2024 de Stable Diffusion 3 de Stability AI, disponible en variantes Large, Large Turbo y Medium, con mejor calidad estética, mayor fidelidad al prompt y términos de licencia más amplios.",
        zh = "Stability AI于2024年发布的Stable Diffusion 3更新版本,提供Large、Large Turbo和Medium三种规格,在美学质量、提示遵循度和授权条款上均有改进。",
        term_es = "Stable Diffusion 3.5",
        term_zh = "Stable Diffusion 3.5",
        aliases_es = { "SD3.5", "SD 3.5" },
        aliases_zh = { "SD3.5", "SD 3.5", "稳定扩散3.5" },
    }
    
    data["stable diffusion xl"] = {
        short = "A 2023 latent diffusion text-to-image model from Stability AI with a 3.5B-parameter UNet, dual text encoders, and an optional refiner stage, producing high-resolution 1024x1024 images.",
        article = nil,
        aliases = { "SDXL", "SD XL", "Stable Diffusion XL", "SDXL 1.0" },
        es = "Modelo de difusión latente texto-a-imagen de Stability AI publicado en 2023, con una UNet de 3.500 millones de parámetros, dos codificadores de texto y una etapa opcional de refinado, capaz de generar imágenes de alta resolución 1024x1024.",
        zh = "Stability AI于2023年发布的潜空间扩散文本到图像模型,UNet参数量为35亿,使用双文本编码器并提供可选的精修阶段,可生成1024x1024的高分辨率图像。",
        term_es = "Stable Diffusion XL",
        term_zh = "Stable Diffusion XL",
        aliases_es = { "SDXL", "SD XL" },
        aliases_zh = { "SDXL", "SD XL", "稳定扩散XL" },
    }
    
    data["stable explanation"] = {
        short = "An attribution or explanation that changes only marginally under small perturbations of the input, the model, or the explainer's randomness.",
        article = nil,
        aliases = { "stable attribution", "robust explanation" },
        es = "Atribución o explicación que cambia solo marginalmente ante pequeñas perturbaciones del input, del modelo o de la aleatoriedad del explicador.",
        zh = "在输入、模型或解释器随机性发生轻微扰动时仅有微小变化的归因或解释。",
        term_es = "explicación estable",
        term_zh = "稳定解释",
        aliases_es = { "atribución estable", "explicación robusta" },
        aliases_zh = { "稳定的解释", "鲁棒解释" },
    }
    
    data["stable unit treatment value assumption"] = {
        short = "A foundational identification assumption combining no interference between units and a single, well-defined version of each treatment, so that each unit's potential outcomes depend only on its own treatment.",
        article = nil,
        aliases = { "SUTVA", "stable unit-treatment value assumption" },
        es = "Supuesto fundamental de identificación que combina la ausencia de interferencia entre unidades y una única versión bien definida de cada tratamiento, de modo que los resultados potenciales de cada unidad dependen solo de su propio tratamiento.",
        zh = "一项基础识别假设,要求单元间不存在干扰且每种处理具有唯一且良好定义的形式,从而使每个单元的潜在结果仅取决于其自身的处理。",
        term_es = "supuesto de valor estable del tratamiento por unidad",
        term_zh = "稳定单元处理值假设",
        aliases_es = { "SUTVA", "supuesto SUTVA" },
        aliases_zh = { "SUTVA", "稳定单位处理值假设", "单位稳定处理值假设" },
    }
    
    data["stable video diffusion"] = {
        short = "An image-to-video latent diffusion model from Stability AI that extends the Stable Diffusion image generator with temporal layers and is fine-tuned on curated video data to produce short clips conditioned on an initial frame.",
        article = nil,
        aliases = { "SVD", "Stable Video Diffusion", "Stability Video Diffusion" },
        es = "Modelo de difusión latente de imagen a video de Stability AI que extiende el generador de imágenes Stable Diffusion con capas temporales y se ajusta sobre datos de video curados para producir clips cortos condicionados por un fotograma inicial.",
        zh = "Stability AI 推出的图像到视频潜空间扩散模型,在 Stable Diffusion 图像生成器中加入时间维度的层,并在精选视频数据上微调,可基于初始帧生成短视频片段。",
        term_es = "Stable Video Diffusion",
        term_zh = "Stable Video Diffusion",
        aliases_es = { "SVD", "difusión de video estable" },
        aliases_zh = { "SVD", "稳定视频扩散" },
    }
    
    data["stacked rnn"] = {
        short = "A recurrent neural network composed of multiple RNN layers, where the hidden states of one layer serve as inputs to the next, forming a deeper sequence model.",
        article = nil,
        aliases = { "stacked RNN", "multilayer RNN", "multi-layer RNN", "deep RNN", "stacked recurrent network" },
        es = "Red neuronal recurrente compuesta por varias capas RNN, donde los estados ocultos de una capa actúan como entradas de la siguiente, formando un modelo secuencial más profundo.",
        zh = "一种由多层 RNN 堆叠组成的循环神经网络,前一层的隐藏状态作为下一层的输入,形成更深的序列模型。",
        term_es = "RNN apilada",
        term_zh = "堆叠循环神经网络",
        aliases_es = { "RNN multicapa", "RNN profunda" },
        aliases_zh = { "堆叠 RNN", "多层 RNN", "深层 RNN" },
    }
    
    data["staggered adoption"] = {
        short = "A research design in which units adopt a treatment at different points in time and remain treated thereafter, common in difference-in-differences and event-study estimators of policy effects.",
        article = nil,
        aliases = { "staggered treatment adoption", "staggered DiD", "staggered rollout", "staggered treatment timing" },
        es = "Diseño de investigación en el que las unidades adoptan un tratamiento en distintos momentos y permanecen tratadas a partir de ese punto, frecuente en estimadores de diferencias en diferencias y de estudios de eventos de efectos de políticas.",
        zh = "一种研究设计,其中各单元在不同时点开始接受处理并持续保持处理状态,常见于政策效应的双重差分与事件研究估计中。",
        term_es = "adopción escalonada",
        term_zh = "错时实施",
        aliases_es = { "adopción escalonada del tratamiento", "implementación escalonada", "DiD escalonado" },
        aliases_zh = { "错时采纳", "分阶段采纳", "交错处理", "错峰实施" },
    }
    
    data["stale gradient"] = {
        short = "A gradient that was computed with respect to a stale (older) version of the model parameters and is then applied to the now-updated parameters, common in asynchronous and bounded-staleness distributed training; large staleness slows or destabilizes convergence.",
        article = nil,
        aliases = { "Stale Gradient", "stale gradients", "delayed gradient", "outdated gradient", "lagged gradient" },
        es = "Gradiente calculado respecto a una versión antigua (rezagada) de los parámetros del modelo que luego se aplica a los parámetros ya actualizados, habitual en entrenamiento distribuido asíncrono o con caducidad acotada; un retraso grande ralentiza o desestabiliza la convergencia.",
        zh = "基于参数较旧(陈旧)版本计算的梯度,随后被应用到已更新的参数上;常见于异步和有界陈旧度的分布式训练,过大的陈旧度会减慢或破坏收敛。",
        term_es = "gradiente rezagado",
        term_zh = "陈旧梯度",
        aliases_es = { "gradiente caduco", "gradiente desactualizado", "gradiente retrasado" },
        aliases_zh = { "延迟梯度", "过时梯度", "陈旧的梯度" },
    }
    
    data["stale synchronous parallel"] = {
        short = "A distributed training consistency model in which workers may proceed with parameters up to a bounded number of iterations behind the global view, balancing the strict barriers of BSP with the laxity of fully asynchronous execution.",
        article = nil,
        aliases = { "SSP", "stale synchronous parallel model", "bounded staleness" },
        es = "Modelo de consistencia para entrenamiento distribuido en el que los trabajadores pueden avanzar con parámetros hasta una cantidad acotada de iteraciones por detrás de la vista global, equilibrando las barreras estrictas de BSP con la laxitud de la ejecución totalmente asíncrona.",
        zh = "一种分布式训练一致性模型,工作节点可以使用滞后于全局视图但不超过有限迭代次数的参数继续训练,在BSP的严格屏障与完全异步执行的宽松性之间取得平衡。",
        term_es = "paralelismo sincrónico obsoleto",
        term_zh = "陈旧同步并行",
        aliases_es = { "SSP", "modelo SSP", "obsolescencia acotada" },
        aliases_zh = { "SSP", "有界陈旧性", "陈旧同步并行模型" },
    }
    
    data["staleness-aware sgd"] = {
        short = "An asynchronous SGD variant that explicitly compensates for delayed gradients by scaling step sizes or adjusting updates according to the staleness of each worker's parameters relative to the current global model.",
        article = nil,
        aliases = { "staleness aware SGD", "delay-compensated SGD", "DC-SGD" },
        es = "Variante asíncrona de SGD que compensa explícitamente los gradientes retrasados escalando los tamaños de paso o ajustando las actualizaciones en función del desfase de los parámetros de cada trabajador respecto al modelo global actual.",
        zh = "一种异步SGD变体,通过根据每个工作节点参数相对于当前全局模型的陈旧程度来缩放步长或调整更新,显式补偿延迟梯度。",
        term_es = "SGD consciente de la obsolescencia",
        term_zh = "感知陈旧性的SGD",
        aliases_es = { "SGD con compensación de retraso", "DC-SGD" },
        aliases_zh = { "延迟补偿SGD", "DC-SGD" },
    }
    
    data["star aligner"] = {
        short = "Spliced Transcripts Alignment to a Reference (STAR), a fast splice-aware short-read aligner widely used in RNA-seq pipelines that uses uncompressed suffix arrays and seed-and-extend with maximal mappable prefixes.",
        article = nil,
        aliases = { "STAR", "STAR aligner", "Spliced Transcripts Alignment to a Reference", "STAR RNA-seq aligner" },
        es = "Spliced Transcripts Alignment to a Reference (STAR), alineador de lecturas cortas rápido y consciente del empalme, ampliamente utilizado en flujos de RNA-seq, que usa arreglos de sufijos sin comprimir y semilla-y-extensión con prefijos mapeables máximos.",
        zh = "Spliced Transcripts Alignment to a Reference(STAR),一种快速且支持剪接的短读长比对器,广泛用于 RNA-seq 流程,采用未压缩后缀数组以及基于最大可比对前缀的 seed-and-extend 算法。",
        term_es = "STAR",
        term_zh = "STAR 比对器",
        aliases_es = { "alineador STAR", "STAR aligner", "STAR RNA-seq" },
        aliases_zh = { "STAR", "STAR aligner", "STAR RNA-seq 比对器" },
    }
    
    data["star self-taught reasoner"] = {
        short = "Self-Taught Reasoner, a method that bootstraps a model's chain-of-thought ability by sampling rationales, keeping those that lead to correct answers, and fine-tuning on this filtered set, with rationalization on incorrect examples.",
        article = nil,
        aliases = { "STaR", "Self-Taught Reasoner", "self-taught reasoner" },
        es = "Self-Taught Reasoner, método que potencia la capacidad de razonamiento en cadena de un modelo muestreando justificaciones, conservando aquellas que conducen a respuestas correctas y haciendo fine-tuning sobre ese conjunto filtrado, con racionalización sobre los ejemplos incorrectos.",
        zh = "自学推理器,一种方法,通过采样推理过程并保留导向正确答案的推理来提升模型的思维链能力,再对该筛选集合进行微调,并对错误样例进行理由化。",
        term_es = "STaR",
        term_zh = "STaR",
        aliases_es = { "Self-Taught Reasoner", "razonador autodidacta" },
        aliases_zh = { "Self-Taught Reasoner", "自我教学推理器", "自学式推理器" },
    }
    
    data["starcoder"] = {
        short = "A 15.5B-parameter open-weight code language model released in 2023 by the BigCode project, trained on permissively licensed source code from The Stack with 8K context and fill-in-the-middle support.",
        article = nil,
        aliases = { "StarCoder", "StarCoderBase", "Star Coder" },
        es = "Modelo de lenguaje de código de pesos abiertos con 15.500 millones de parámetros publicado en 2023 por el proyecto BigCode, entrenado con código fuente con licencias permisivas de The Stack, con contexto de 8K y soporte para fill-in-the-middle.",
        zh = "BigCode项目于2023年发布的155亿参数开放权重代码语言模型,基于The Stack中宽松许可的源代码训练,支持8K上下文和中间填充(FIM)。",
        term_es = "StarCoder",
        term_zh = "StarCoder",
        aliases_es = { "StarCoderBase", "Star Coder" },
        aliases_zh = { "StarCoderBase", "Star Coder" },
    }
    
    data["starcoder data"] = {
        short = "The training corpus used for StarCoder, derived from The Stack with additional filtering, near-deduplication, and PII redaction; spans 86 programming languages and code-related sources such as GitHub issues and Jupyter notebooks.",
        article = nil,
        aliases = { "StarCoderData", "StarCoder Data", "starcoderdata" },
        es = "Corpus de entrenamiento utilizado para StarCoder, derivado de The Stack con filtrado adicional, deduplicación aproximada y redacción de información personal; abarca 86 lenguajes de programación y fuentes relacionadas con código como issues de GitHub y notebooks de Jupyter.",
        zh = "用于训练StarCoder的语料,源自The Stack并进行了进一步过滤、近似去重和个人信息脱敏,涵盖86种编程语言以及GitHub issue、Jupyter notebook等代码相关数据。",
        term_es = "StarCoderData",
        term_zh = "StarCoderData",
        aliases_es = { "StarCoder Data", "datos de StarCoder" },
        aliases_zh = { "StarCoder Data", "StarCoder训练数据" },
    }
    
    data["starcoder2"] = {
        short = "The 2024 successor to StarCoder, released in 3B, 7B, and 15B sizes by the BigCode project, trained on The Stack v2 with 16K context and improved performance across code completion, repair, and reasoning benchmarks.",
        article = nil,
        aliases = { "StarCoder 2", "StarCoder2", "StarCoder-2", "StarCoder2-15B", "StarCoder2-7B", "StarCoder2-3B" },
        es = "Sucesor de StarCoder publicado en 2024 por el proyecto BigCode en tamaños de 3.000, 7.000 y 15.000 millones de parámetros, entrenado con The Stack v2, con contexto de 16K y rendimiento mejorado en benchmarks de completado, reparación y razonamiento de código.",
        zh = "BigCode项目于2024年发布的StarCoder后继模型,提供3B、7B和15B三种规格,基于The Stack v2训练,支持16K上下文,在代码补全、修复和推理基准上均有提升。",
        term_es = "StarCoder2",
        term_zh = "StarCoder2",
        aliases_es = { "StarCoder 2", "StarCoder-2" },
        aliases_zh = { "StarCoder 2", "StarCoder-2" },
    }
    
    data["stardist"] = {
        short = "A deep-learning method for nucleus and cell instance segmentation in microscopy images that predicts star-convex polygons centered on each object, robust to crowded scenes and adopted in tools like QuPath and ImageJ/Fiji.",
        article = nil,
        aliases = { "StarDist", "Stardist segmentation", "star-convex polygon segmentation" },
        es = "Método de aprendizaje profundo para la segmentación de instancias de núcleos y células en imágenes de microscopía que predice polígonos estrella-convexos centrados en cada objeto, robusto en escenas densas y adoptado en herramientas como QuPath e ImageJ/Fiji.",
        zh = "用于显微图像中细胞核和细胞实例分割的深度学习方法,对每个目标预测以其为中心的星凸多边形,对密集场景具有鲁棒性,被 QuPath 和 ImageJ/Fiji 等工具采用。",
        term_es = "StarDist",
        term_zh = "StarDist",
        aliases_es = { "segmentación StarDist", "Stardist" },
        aliases_zh = { "StarDist 分割", "星凸多边形分割" },
    }
    
    data["starmap"] = {
        short = "A spatially resolved single-cell transcriptomics method that uses in situ sequencing of barcoded amplicons in hydrogel-embedded tissue to detect hundreds to thousands of RNA species at subcellular resolution.",
        article = nil,
        aliases = { "STARmap", "spatially-resolved transcript amplicon readout mapping" },
        es = "Método de transcriptómica unicelular con resolución espacial que utiliza secuenciación in situ de amplicones con códigos de barras en tejido embebido en hidrogel para detectar cientos a miles de ARN con resolución subcelular.",
        zh = "一种具有空间分辨率的单细胞转录组学方法,通过在水凝胶包埋组织中对带条形码的扩增子进行原位测序,以亚细胞分辨率检测数百至数千种 RNA。",
        term_es = "STARmap",
        term_zh = "STARmap",
        aliases_es = { "STARmap" },
        aliases_zh = { "STARmap", "空间转录组原位扩增测序" },
    }
    
    data["start-of-image token"] = {
        short = "A special token that marks the beginning of an image segment in a multimodal sequence, signaling to an autoregressive or diffusion transformer that the following positions encode visual content rather than text.",
        article = nil,
        aliases = { "SOI token", "<SOI>", "[SOI]", "BOI token", "<BOI>", "begin-of-image token", "image start token" },
        es = "Token especial que marca el inicio de un segmento de imagen dentro de una secuencia multimodal, indicando a un transformador autorregresivo o de difusión que las posiciones siguientes codifican contenido visual en lugar de texto.",
        zh = "一种特殊 token,用于在多模态序列中标记图像片段的起始位置,告知自回归或扩散 Transformer 之后的位置编码的是视觉内容而非文本。",
        term_es = "token de inicio de imagen",
        term_zh = "图像起始 token",
        aliases_es = { "token SOI", "token BOI", "token <SOI>", "token de comienzo de imagen" },
        aliases_zh = { "SOI token", "BOI token", "<SOI>", "图像起始标记" },
    }
    
    data["state space model"] = {
        short = "A class of sequence models that describe a system through a continuous or discrete latent state evolving via a linear recurrence, enabling efficient long-context modeling with sub-quadratic complexity.",
        article = nil,
        aliases = { "SSM", "State Space Model", "state-space model", "state space models" },
        es = "Clase de modelos de secuencia que describen un sistema mediante un estado latente continuo o discreto que evoluciona según una recurrencia lineal, permitiendo modelar contextos largos con complejidad sub-cuadrática.",
        zh = "一类序列模型,通过沿线性递推演化的连续或离散潜在状态描述系统,能够以亚二次复杂度高效建模长上下文。",
        term_es = "modelo de espacio de estados",
        term_zh = "状态空间模型",
        aliases_es = { "SSM", "modelos de espacio de estados" },
        aliases_zh = { "SSM", "状态空间模型" },
    }
    
    data["state value"] = {
        short = "The expected return obtainable from a given state when following a specified policy, denoted V^π(s) = E[G_t | s_t = s, π]. The fundamental quantity estimated by state-value functions and used as a baseline in many policy-gradient algorithms.",
        article = nil,
        aliases = { "state-value", "state value function", "V function", "V(s)" },
        es = "Retorno esperado obtenible desde un estado dado siguiendo una política especificada, denotado V^π(s) = E[G_t | s_t = s, π]. Es la cantidad fundamental estimada por las funciones de valor de estado y se utiliza como referencia (baseline) en muchos algoritmos de gradiente de política.",
        zh = "在遵循指定策略时从给定状态出发可获得的期望回报,记作 V^π(s) = E[G_t | s_t = s, π]。它是状态价值函数估计的基本量,并在许多策略梯度算法中用作基线。",
        term_es = "valor de estado",
        term_zh = "状态价值",
        aliases_es = { "función de valor de estado", "V(s)" },
        aliases_zh = { "状态值", "V(s)", "状态价值函数" },
    }
    
    data["static calibration error"] = {
        short = "A multi-class generalization of expected calibration error (Nixon et al., 2019) that bins predictions per class and averages absolute confidence-accuracy gaps across all classes, reducing the bias of binning to the top-1 prediction only.",
        article = nil,
        aliases = { "SCE", "Static Calibration Error" },
        es = "Generalización multiclase del error de calibración esperado (Nixon et al., 2019) que agrupa las predicciones por clase y promedia las brechas absolutas entre confianza y precisión sobre todas las clases, reduciendo el sesgo de agrupar solo por la predicción top-1.",
        zh = "期望校准误差的多类推广(Nixon 等,2019),按每个类别分桶并对所有类别上的置信度与准确率绝对差求平均,减少了仅对 top-1 预测分桶的偏差。",
        term_es = "error de calibración estático",
        term_zh = "静态校准误差",
        aliases_es = { "SCE" },
        aliases_zh = { "SCE", "Static Calibration Error" },
    }
    
    data["stationary distribution"] = {
        short = "For a Markov chain, a probability distribution over states that is invariant under the transition kernel: if the current state is drawn from it, the next state is drawn from the same distribution.",
        article = nil,
        aliases = { "invariant distribution", "equilibrium distribution", "steady-state distribution", "stationary measure" },
        es = "Para una cadena de Markov, una distribución de probabilidad sobre los estados que es invariante bajo el núcleo de transición: si el estado actual se extrae de ella, el siguiente estado también se extrae de la misma distribución.",
        zh = "对于马尔可夫链,状态上的一个概率分布,在转移核作用下保持不变:若当前状态取自该分布,则下一状态也服从同一分布。",
        term_es = "distribución estacionaria",
        term_zh = "平稳分布",
        aliases_es = { "distribución invariante", "distribución de equilibrio", "distribución de estado estacionario", "medida estacionaria" },
        aliases_zh = { "不变分布", "稳态分布", "平衡分布" },
    }
    
    data["statistical discrimination"] = {
        short = "An economics concept in which decision makers use group-level statistics as proxies for unobserved individual traits, producing different treatment of equally qualified individuals from different groups. Distinct from taste-based discrimination but a common rationalization of unfair algorithms.",
        article = nil,
        aliases = { "statistical discrimination theory" },
        es = "Concepto económico en el que quienes toman decisiones usan estadísticas grupales como sustituto de rasgos individuales no observados, produciendo trato diferente a personas igualmente cualificadas de distintos grupos. Se distingue de la discriminación por gusto, pero racionaliza con frecuencia algoritmos injustos.",
        zh = "经济学概念,决策者将群体层面的统计数据作为未观测到的个体特征的替代,从而对来自不同群体但同等条件的个体作出不同处置。它与基于偏好的歧视不同,却常被用来为不公平算法辩护。",
        term_es = "discriminación estadística",
        term_zh = "统计性歧视",
        aliases_es = { "teoría de la discriminación estadística" },
        aliases_zh = { "统计歧视", "统计性区别对待" },
    }
    
    data["statistical heterogeneity"] = {
        short = "In federated learning, the property that local data distributions across clients are non-identically distributed (non-IID), causing local objectives to disagree and complicating convergence of methods designed for IID data.",
        article = nil,
        aliases = { "non-IID data", "data heterogeneity", "client heterogeneity", "non-iid heterogeneity" },
        es = "En aprendizaje federado, la propiedad de que las distribuciones locales de datos entre clientes no son idénticamente distribuidas (no IID), lo que hace que los objetivos locales discrepen y dificulta la convergencia de métodos diseñados para datos IID.",
        zh = "在联邦学习中,各客户端的本地数据分布并非同分布(非独立同分布)这一特性,会导致本地目标不一致,并使为独立同分布数据设计的方法收敛性变差。",
        term_es = "heterogeneidad estadística",
        term_zh = "统计异质性",
        aliases_es = { "datos no IID", "heterogeneidad de datos", "heterogeneidad entre clientes" },
        aliases_zh = { "非IID数据", "数据异质性", "客户端异质性" },
    }
    
    data["statistical parametric tts"] = {
        short = "A family of text-to-speech systems that synthesize waveforms from acoustic parameters predicted by a statistical model such as an HMM or neural network, in contrast to concatenative synthesis.",
        article = nil,
        aliases = { "SPSS", "statistical parametric speech synthesis", "parametric TTS", "statistical parametric synthesis" },
        es = "Familia de sistemas de texto a voz que sintetizan formas de onda a partir de parámetros acústicos predichos por un modelo estadístico como un HMM o red neuronal, en contraste con la síntesis concatenativa.",
        zh = "一类文本转语音系统,通过统计模型(如 HMM 或神经网络)预测声学参数后再合成波形,与拼接合成形成对照。",
        term_es = "TTS paramétrica estadística",
        term_zh = "统计参数化语音合成",
        aliases_es = { "SPSS", "síntesis paramétrica estadística", "TTS paramétrica" },
        aliases_zh = { "SPSS", "参数化 TTS", "统计参数语音合成" },
    }
    
    data["statistical parity"] = {
        short = "A group fairness criterion requiring that the rate of positive predictions be equal across protected groups, i.e., P(Ŷ=1 | A=a) is identical for every value of the sensitive attribute A. Also known as demographic parity or independence.",
        article = nil,
        aliases = { "demographic parity", "group parity", "independence criterion" },
        es = "Criterio de equidad grupal que exige que la tasa de predicciones positivas sea igual entre grupos protegidos, es decir, P(Ŷ=1 | A=a) es idéntica para cada valor del atributo sensible A. También se conoce como paridad demográfica o independencia.",
        zh = "群体公平性准则,要求受保护群体之间的正预测率相等,即对敏感属性 A 的每个取值,P(Ŷ=1 | A=a) 都相同。也称人口学均等或独立性准则。",
        term_es = "paridad estadística",
        term_zh = "统计均等",
        aliases_es = { "paridad demográfica", "paridad de grupo", "criterio de independencia" },
        aliases_zh = { "人口统计均等", "群体均等", "独立性准则", "统计奇偶性" },
    }
    
    data["statistical parity difference"] = {
        short = "A scalar fairness metric defined as the difference between positive prediction rates of two groups, P(Ŷ=1 | A=a) − P(Ŷ=1 | A=b). Zero indicates statistical parity; nonzero values quantify the disparate-impact gap.",
        article = nil,
        aliases = { "SPD", "demographic parity difference", "DPD" },
        es = "Métrica escalar de equidad definida como la diferencia entre las tasas de predicción positiva de dos grupos: P(Ŷ=1 | A=a) − P(Ŷ=1 | A=b). El valor cero indica paridad estadística; los valores distintos de cero cuantifican la brecha de impacto dispar.",
        zh = "标量公平性度量,定义为两个群体正预测率之差:P(Ŷ=1 | A=a) − P(Ŷ=1 | A=b)。值为零表示统计均等,非零值量化了差异性影响的差距。",
        term_es = "diferencia de paridad estadística",
        term_zh = "统计均等差",
        aliases_es = { "SPD", "diferencia de paridad demográfica", "DPD" },
        aliases_zh = { "SPD", "人口均等差", "DPD", "统计均等差异" },
    }
    
    data["statistical relational ai"] = {
        short = "A field that unifies probability theory, first-order logic, and machine learning to model and reason about uncertainty in relational, structured domains.",
        article = nil,
        aliases = { "StarAI", "Statistical Relational AI", "statistical relational artificial intelligence", "StaRAI" },
        es = "Campo que unifica la teoría de la probabilidad, la lógica de primer orden y el aprendizaje automático para modelar y razonar bajo incertidumbre en dominios relacionales y estructurados.",
        zh = "结合概率论、一阶逻辑与机器学习的领域,用于在关系型、结构化领域中对不确定性进行建模与推理。",
        term_es = "IA relacional estadística",
        term_zh = "统计关系人工智能",
        aliases_es = { "StarAI", "inteligencia artificial relacional estadística" },
        aliases_zh = { "StarAI", "统计关系 AI", "统计关系式人工智能" },
    }
    
    data["statistical relational learning"] = {
        short = "A subfield of machine learning concerned with models—such as Markov logic networks and probabilistic relational models—that learn from data with both relational structure and uncertainty.",
        article = nil,
        aliases = { "SRL", "Statistical Relational Learning", "relational statistical learning" },
        es = "Subcampo del aprendizaje automático centrado en modelos —como las redes lógicas de Markov y los modelos relacionales probabilísticos— que aprenden de datos con estructura relacional e incertidumbre.",
        zh = "机器学习的一个子领域,关注从兼具关系结构和不确定性的数据中学习的模型,如马尔可夫逻辑网络和概率关系模型。",
        term_es = "aprendizaje relacional estadístico",
        term_zh = "统计关系学习",
        aliases_es = { "SRL", "aprendizaje estadístico relacional" },
        aliases_zh = { "SRL", "统计关系式学习", "关系统计学习" },
    }
    
    data["steered molecular dynamics"] = {
        short = "A molecular dynamics technique in which an external time-dependent force is applied along a chosen reaction coordinate to drive a system through rare events, used to study unbinding pathways and to estimate free-energy profiles via Jarzynski's equality.",
        article = nil,
        aliases = { "SMD", "steered MD", "steered molecular dynamics simulation" },
        es = "Técnica de dinámica molecular en la que se aplica una fuerza externa dependiente del tiempo a lo largo de una coordenada de reacción elegida para conducir el sistema a través de eventos raros, utilizada para estudiar trayectorias de desunión y estimar perfiles de energía libre mediante la igualdad de Jarzynski.",
        zh = "一种分子动力学技术,沿选定反应坐标施加随时间变化的外部力以驱动体系穿越稀有事件,常用于研究解结合路径,并通过 Jarzynski 等式估计自由能曲线。",
        term_es = "dinámica molecular dirigida",
        term_zh = "导向分子动力学",
        aliases_es = { "SMD", "MD dirigida", "dinámica molecular guiada" },
        aliases_zh = { "SMD", "操控分子动力学", "受控分子动力学" },
    }
    
    data["steering vector"] = {
        short = "A direction in a model's activation space which, when added to hidden states at inference, biases generation toward a target behavior, style, or concept.",
        article = nil,
        aliases = { "activation steering vector", "control vector" },
        es = "Dirección en el espacio de activaciones de un modelo que, al sumarse a los estados ocultos en inferencia, sesga la generación hacia un comportamiento, estilo o concepto objetivo.",
        zh = "模型激活空间中的一个方向向量,在推理时加到隐藏状态上可将生成结果导向目标行为、风格或概念。",
        term_es = "vector de dirección",
        term_zh = "引导向量",
        aliases_es = { "vector de control", "vector de steering", "steering vector" },
        aliases_zh = { "操控向量", "控制向量", "steering vector" },
    }
    
    data["stein variational gradient descent"] = {
        short = "A particle-based variational inference algorithm (Liu & Wang, 2016) that iteratively transports a set of particles to approximate a target posterior by following a kernelized gradient that minimizes the KL divergence in reproducing-kernel Hilbert space.",
        article = nil,
        aliases = { "SVGD", "Stein VGD" },
        es = "Algoritmo de inferencia variacional basado en partículas (Liu y Wang, 2016) que transporta iterativamente un conjunto de partículas para aproximar una posterior objetivo siguiendo un gradiente con núcleo que minimiza la divergencia KL en un espacio de Hilbert con núcleo reproductor.",
        zh = "一种基于粒子的变分推断算法(Liu 和 Wang,2016),通过沿再生核希尔伯特空间中最小化 KL 散度的核化梯度,迭代地输运一组粒子以逼近目标后验。",
        term_es = "descenso variacional de gradiente de Stein",
        term_zh = "Stein 变分梯度下降",
        aliases_es = { "SVGD", "descenso variacional Stein" },
        aliases_zh = { "SVGD", "Stein 变分 GD" },
    }
    
    data["stemming"] = {
        short = "A text normalization procedure that strips morphological affixes from words to produce a common base form (the stem), typically using rule-based heuristics like the Porter or Snowball algorithms. Faster but less linguistically accurate than lemmatization.",
        article = nil,
        aliases = { "Stemming", "stem", "stemmer", "Porter stemming", "Porter stemmer" },
        es = "Procedimiento de normalización de texto que elimina los afijos morfológicos de las palabras para producir una forma base común (la raíz o stem), generalmente mediante heurísticas basadas en reglas como los algoritmos de Porter o Snowball. Más rápido pero menos preciso lingüísticamente que la lematización.",
        zh = "一种文本规范化方法,通过去除单词的形态学词缀来得到共同的基本形式(词干),通常依赖 Porter 或 Snowball 等基于规则的启发式算法。比词形还原更快,但语言学上不够精确。",
        term_es = "stemming",
        term_zh = "词干提取",
        aliases_es = { "stemming", "extracción de raíces", "extracción de stems", "obtención de raíz" },
        aliases_zh = { "stemming", "词干化", "提取词干", "Porter 词干提取" },
    }
    
    data["step decay"] = {
        short = "A learning rate schedule that multiplies the rate by a constant factor (e.g., 0.1) at predetermined epochs or steps, producing a piecewise-constant decay.",
        article = nil,
        aliases = { "step decay schedule", "stepwise decay", "piecewise constant decay", "step learning rate" },
        es = "Programación de tasa de aprendizaje que multiplica la tasa por un factor constante (por ejemplo, 0.1) en épocas o pasos predeterminados, produciendo un decaimiento constante por tramos.",
        zh = "一种学习率调度策略,在预定的轮次或步数处将学习率乘以一个常数因子(如 0.1),形成分段常数衰减。",
        term_es = "decaimiento escalonado",
        term_zh = "阶梯衰减",
        aliases_es = { "decaimiento por pasos", "decaimiento por escalones" },
        aliases_zh = { "分段衰减", "步进衰减", "阶梯式衰减" },
    }
    
    data["step-back prompting"] = {
        short = "A prompting technique introduced by Google DeepMind in which the model is first asked to derive a higher-level abstraction or principle from the question before answering, improving reasoning and factual accuracy.",
        article = nil,
        aliases = { "Step-Back Prompting", "step-back", "step back prompting", "stepback prompting" },
        es = "Técnica de prompting introducida por Google DeepMind en la que primero se pide al modelo que derive una abstracción o principio de mayor nivel a partir de la pregunta antes de responder, mejorando el razonamiento y la precisión factual.",
        zh = "Google DeepMind提出的一种提示策略,先让模型从问题中推导出更高层次的抽象或原理,再给出回答,从而提升推理能力和事实准确性。",
        term_es = "step-back prompting",
        term_zh = "退一步提示",
        aliases_es = { "prompting step-back", "prompting de retroceso" },
        aliases_zh = { "Step-Back Prompting", "退步提示", "回退提示" },
    }
    
    data["step-level reward"] = {
        short = "A reward signal assigned to individual reasoning steps rather than to the final answer, used in process supervision for chain-of-thought training; the basis of process reward models (PRMs).",
        article = nil,
        aliases = { "step level reward", "process reward", "step-wise reward", "step reward", "stepwise reward" },
        es = "Señal de recompensa asignada a pasos individuales de razonamiento en lugar de a la respuesta final, utilizada en la supervisión de procesos para el entrenamiento de cadenas de pensamiento; base de los modelos de recompensa por proceso (PRM).",
        zh = "对单个推理步骤而非最终答案分配的奖励信号,用于思维链训练中的过程监督,是过程奖励模型(PRM)的基础。",
        term_es = "recompensa a nivel de paso",
        term_zh = "步骤级奖励",
        aliases_es = { "recompensa por paso", "recompensa de proceso", "step-level reward" },
        aliases_zh = { "step-level reward", "过程奖励", "分步奖励" },
    }
    
    data["stereo-seq"] = {
        short = "A spatial transcriptomics technology that uses DNA nanoball arrays patterned with positional barcodes at submicron resolution to capture mRNA from large tissue sections.",
        article = nil,
        aliases = { "Stereo-seq", "spatial enhanced resolution omics-sequencing", "SpaTial Enhanced REsolution Omics-sequencing" },
        es = "Tecnología de transcriptómica espacial que utiliza matrices de nanobolas de ADN con códigos de barras posicionales a resolución submicrométrica para capturar ARNm de grandes secciones de tejido.",
        zh = "一种空间转录组技术,利用具有亚微米分辨率位置条形码的 DNA 纳米球阵列从大组织切片中捕获 mRNA。",
        term_es = "Stereo-seq",
        term_zh = "Stereo-seq",
        aliases_es = { "Stereo-seq" },
        aliases_zh = { "Stereo-seq", "时空组学测序" },
    }
    
    data["stereoisomer"] = {
        short = "Molecules with the same molecular formula and atomic connectivity but a different three-dimensional arrangement of atoms; the class includes enantiomers (non-superimposable mirror images) and diastereomers.",
        article = nil,
        aliases = { "stereoisomers", "stereoisomerism", "stereoisomeric form" },
        es = "Moléculas con la misma fórmula molecular y conectividad atómica pero distinta disposición tridimensional de los átomos; la clase incluye enantiómeros (imágenes especulares no superponibles) y diastereoisómeros.",
        zh = "具有相同分子式与原子连接关系,但原子三维空间排列不同的分子;包括对映异构体(不可重合的镜像)和非对映异构体。",
        term_es = "estereoisómero",
        term_zh = "立体异构体",
        aliases_es = { "estereoisómeros", "estereoisomería", "isómero estereoquímico" },
        aliases_zh = { "立体异构物", "立体异构现象", "立体异构" },
    }
    
    data["stereoset"] = {
        short = "A benchmark dataset for measuring stereotypical bias in language models across gender, race, profession, and religion using context association tests. Pairs stereotypical and anti-stereotypical continuations against an unrelated control.",
        article = nil,
        aliases = { "StereoSet", "stereo-set", "stereoset benchmark" },
        es = "Conjunto de datos de referencia para medir el sesgo estereotípico en modelos de lenguaje en las dimensiones de género, raza, profesión y religión, mediante pruebas de asociación contextual. Empareja continuaciones estereotípicas y antiestereotípicas frente a un control no relacionado.",
        zh = "用于衡量语言模型在性别、种族、职业和宗教等维度上刻板偏差的基准数据集,采用上下文关联测试,将刻板与反刻板的续写与无关对照进行配对。",
        term_es = "StereoSet",
        term_zh = "StereoSet",
        aliases_es = { "stereoset", "benchmark StereoSet" },
        aliases_zh = { "StereoSet 基准", "刻板印象数据集" },
    }
    
    data["stereotype bias"] = {
        short = "Bias in which a model's outputs reproduce widely held social stereotypes about a group, such as occupation-by-gender associations or culturally loaded adjectives. Measured by benchmarks like StereoSet, CrowS-Pairs, and WEAT.",
        article = nil,
        aliases = { "stereotypical bias", "stereotyping bias" },
        es = "Sesgo en el que las salidas de un modelo reproducen estereotipos sociales ampliamente difundidos sobre un grupo, como asociaciones de ocupación por género o adjetivos cargados culturalmente. Se mide con referencias como StereoSet, CrowS-Pairs y WEAT.",
        zh = "模型输出再现社会上广泛存在的群体刻板印象的偏差,例如职业与性别的关联或带有文化偏向的形容词。常用 StereoSet、CrowS-Pairs、WEAT 等基准进行衡量。",
        term_es = "sesgo estereotípico",
        term_zh = "刻板印象偏差",
        aliases_es = { "sesgo de estereotipo", "sesgo por estereotipos" },
        aliases_zh = { "刻板偏差", "陈规偏见" },
    }
    
    data["stereotyping harm"] = {
        short = "A representational harm in which a system's outputs reinforce reductive or essentialist depictions of a social group. One of the canonical categories of allocation- versus representation-related harms in fair-ML taxonomies.",
        article = nil,
        aliases = { "stereotyping representational harm" },
        es = "Daño representacional en el que las salidas de un sistema refuerzan retratos reductivos o esencialistas de un grupo social. Una de las categorías canónicas de daños representacionales (frente a los de asignación) en las taxonomías de fair-ML.",
        zh = "一种表征性危害,系统输出强化了对某个社会群体的简化或本质化描绘。它是公平机器学习分类法中,与分配性危害相对的代表性危害的典型类别之一。",
        term_es = "daño por estereotipación",
        term_zh = "刻板化危害",
        aliases_es = { "daño representacional por estereotipación", "daño de estereotipación" },
        aliases_zh = { "刻板印象危害", "陈规化伤害" },
    }
    
    data["stft"] = {
        short = "Short-Time Fourier Transform, a time-frequency analysis technique that applies the Fourier transform to overlapping windowed segments of a signal to produce a spectrogram.",
        article = nil,
        aliases = { "STFT", "Short-Time Fourier Transform", "short time Fourier transform" },
        es = "Short-Time Fourier Transform, técnica de análisis tiempo-frecuencia que aplica la transformada de Fourier a segmentos ventaneados solapados de una señal para producir un espectrograma.",
        zh = "短时傅里叶变换,一种时频分析技术,通过对信号的重叠加窗片段进行傅里叶变换,生成频谱图。",
        term_es = "STFT",
        term_zh = "短时傅里叶变换",
        aliases_es = { "STFT", "transformada de Fourier de tiempo corto" },
        aliases_zh = { "STFT", "短时傅立叶变换" },
    }
    
    data["sticking-the-landing estimator"] = {
        short = "A low-variance reparameterization gradient estimator for the variational ELBO (Roeder et al., 2017) obtained by stopping gradients through the score-function term, so that the estimator's variance vanishes when the variational and true posterior coincide.",
        article = nil,
        aliases = { "STL", "STL estimator", "sticking the landing", "sticking-the-landing", "Roeder estimator" },
        es = "Estimador de gradiente por reparametrización de baja varianza para la ELBO variacional (Roeder et al., 2017), obtenido al detener los gradientes a través del término de la función de puntuación, de modo que la varianza del estimador desaparece cuando la variacional y la posterior verdadera coinciden.",
        zh = "一种用于变分 ELBO 的低方差重参数化梯度估计器(Roeder 等,2017),通过在 score 函数项上停止梯度得到,当变分分布与真实后验重合时方差归零。",
        term_es = "estimador sticking-the-landing",
        term_zh = "Sticking-the-Landing 估计器",
        aliases_es = { "STL", "estimador STL", "estimador de Roeder" },
        aliases_zh = { "STL", "STL 估计器", "Roeder 估计器" },
    }
    
    data["stochastic approximation"] = {
        short = "A class of iterative methods for finding roots or extrema of functions that can only be observed through noisy samples, of which SGD is a canonical example.",
        article = nil,
        aliases = {},
        es = "Clase de métodos iterativos para encontrar raíces o extremos de funciones que solo pueden observarse a través de muestras ruidosas, de la cual el SGD es un ejemplo canónico.",
        zh = "一类用于在只能通过含噪样本观测的函数中寻找根或极值的迭代方法,SGD 是其经典代表。",
        term_es = "aproximación estocástica",
        term_zh = "随机逼近",
        aliases_es = {},
        aliases_zh = { "随机近似" },
    }
    
    data["stochastic depth"] = {
        short = "A regularization technique for very deep residual networks that randomly drops entire residual blocks during training, replacing them with the identity, which shortens the effective depth and improves generalization.",
        article = nil,
        aliases = { "Stochastic Depth", "stochastic-depth", "depth dropout", "layer dropout" },
        es = "Técnica de regularización para redes residuales muy profundas que descarta aleatoriamente bloques residuales completos durante el entrenamiento, reemplazándolos por la identidad, lo que reduce la profundidad efectiva y mejora la generalización.",
        zh = "一种适用于极深残差网络的正则化技术,在训练期间随机丢弃整个残差块并以恒等映射替代,从而缩短有效深度并提升泛化能力。",
        term_es = "profundidad estocástica",
        term_zh = "随机深度",
        aliases_es = { "stochastic depth", "dropout de profundidad", "dropout de capas" },
        aliases_zh = { "stochastic depth", "层级随机丢弃", "深度随机失活" },
    }
    
    data["stochastic gradient descent"] = {
        short = "An iterative optimization algorithm that estimates gradients from random samples (typically a single example or mini-batch) rather than the full dataset, enabling efficient training on large datasets.",
        article = "Stochastic Gradient Descent",
        aliases = { "SGD", "stochastic gradient method" },
        es = "Algoritmo de optimización iterativa que estima gradientes a partir de muestras aleatorias (normalmente un solo ejemplo o un mini-lote) en lugar del conjunto de datos completo.",
        zh = "一种通过随机样本(通常为单个样本或小批量)而非完整数据集来估计梯度的迭代优化算法,能够在大规模数据集上高效训练。",
        term_es = "descenso de gradiente estocástico",
        term_zh = "随机梯度下降",
        aliases_es = { "SGD", "gradiente estocástico" },
        aliases_zh = { "SGD" },
    }
    
    data["stochastic gradient hamiltonian monte carlo"] = {
        short = "An MCMC method (Chen, Fox & Guestrin, 2014) that performs Hamiltonian dynamics with stochastic gradients computed on mini-batches and a friction term to compensate for gradient noise, enabling Bayesian inference on large datasets.",
        article = nil,
        aliases = { "SGHMC", "stochastic gradient HMC", "SG-HMC" },
        es = "Método MCMC (Chen, Fox y Guestrin, 2014) que realiza dinámicas hamiltonianas con gradientes estocásticos calculados sobre mini-lotes y un término de fricción para compensar el ruido del gradiente, permitiendo inferencia bayesiana en grandes conjuntos de datos.",
        zh = "一种 MCMC 方法(Chen、Fox 和 Guestrin,2014),用小批量的随机梯度执行哈密顿动力学,并加入摩擦项以补偿梯度噪声,从而支持大规模数据上的贝叶斯推断。",
        term_es = "Monte Carlo hamiltoniano de gradiente estocástico",
        term_zh = "随机梯度哈密顿蒙特卡洛",
        aliases_es = { "SGHMC", "HMC de gradiente estocástico", "SG-HMC" },
        aliases_zh = { "SGHMC", "SG-HMC", "随机梯度 HMC" },
    }
    
    data["stochastic gradient langevin dynamics"] = {
        short = "An MCMC algorithm (Welling & Teh, 2011) that augments stochastic gradient descent with isotropic Gaussian noise scaled to the step size, producing samples from the model posterior in the small-step-size limit and bridging optimization and Bayesian inference.",
        article = nil,
        aliases = { "SGLD", "stochastic gradient Langevin", "Welling-Teh SGLD" },
        es = "Algoritmo MCMC (Welling y Teh, 2011) que aumenta el descenso de gradiente estocástico con ruido gaussiano isotrópico escalado al tamaño de paso, produciendo muestras de la posterior del modelo en el límite de pasos pequeños y conectando optimización con inferencia bayesiana.",
        zh = "一种 MCMC 算法(Welling 和 Teh,2011),在随机梯度下降中加入与步长成比例的各向同性高斯噪声,在小步长极限下产生模型后验的样本,将优化与贝叶斯推断联系起来。",
        term_es = "dinámica de Langevin con gradiente estocástico",
        term_zh = "随机梯度 Langevin 动力学",
        aliases_es = { "SGLD", "Langevin de gradiente estocástico" },
        aliases_zh = { "SGLD", "随机梯度朗之万动力学", "Welling-Teh SGLD" },
    }
    
    data["stochastic gradient mcmc"] = {
        short = "A family of MCMC algorithms that replace exact gradients with mini-batch stochastic gradients, including SGLD, SGHMC, and SGNHT. They scale Bayesian sampling to large datasets at the cost of asymptotic bias from the gradient noise.",
        article = nil,
        aliases = { "SG-MCMC", "stochastic gradient MCMC", "SGMCMC", "mini-batch MCMC" },
        es = "Familia de algoritmos MCMC que sustituyen los gradientes exactos por gradientes estocásticos sobre mini-lotes, incluyendo SGLD, SGHMC y SGNHT. Escalan el muestreo bayesiano a grandes conjuntos de datos al coste de un sesgo asintótico debido al ruido del gradiente.",
        zh = "一类 MCMC 算法,用小批量随机梯度替代精确梯度,包括 SGLD、SGHMC 和 SGNHT;以梯度噪声引入的渐近偏差为代价,使贝叶斯采样能够扩展到大规模数据集。",
        term_es = "MCMC con gradiente estocástico",
        term_zh = "随机梯度 MCMC",
        aliases_es = { "SG-MCMC", "MCMC de gradiente estocástico" },
        aliases_zh = { "SG-MCMC", "SGMCMC", "小批量 MCMC" },
    }
    
    data["stochastic gradient nose-hoover thermostat"] = {
        short = "An SG-MCMC method (Ding et al., 2014) that augments stochastic gradient Hamiltonian dynamics with an adaptive Nosé-Hoover thermostat variable, automatically absorbing unknown gradient-noise variance to keep the sampler invariant to the true posterior.",
        article = nil,
        aliases = { "SGNHT", "SG-NHT", "stochastic gradient Nosé-Hoover thermostat", "SG Nose-Hoover thermostat" },
        es = "Método SG-MCMC (Ding et al., 2014) que aumenta las dinámicas hamiltonianas con gradiente estocástico con una variable termostato Nosé-Hoover adaptativa, absorbiendo automáticamente la varianza desconocida del ruido de gradiente para mantener al muestreador invariante respecto a la posterior verdadera.",
        zh = "一种 SG-MCMC 方法(Ding 等,2014),在随机梯度哈密顿动力学中引入自适应 Nosé-Hoover 恒温器变量,自动吸收未知的梯度噪声方差,使采样器对真实后验保持不变。",
        term_es = "termostato Nosé-Hoover de gradiente estocástico",
        term_zh = "随机梯度 Nosé-Hoover 恒温器",
        aliases_es = { "SGNHT", "SG-NHT" },
        aliases_zh = { "SGNHT", "SG-NHT", "随机梯度 Nose-Hoover 恒温器" },
    }
    
    data["stochastic policy"] = {
        short = "A policy that defines a probability distribution over actions given a state, π(a|s), so that actions are sampled rather than chosen deterministically. Standard in policy-gradient methods and useful for built-in exploration.",
        article = nil,
        aliases = { "stochastic policies", "randomized policy" },
        es = "Política que define una distribución de probabilidad sobre las acciones dado un estado, π(a|s), de modo que las acciones se muestrean en lugar de elegirse de forma determinista. Estándar en los métodos de gradiente de política y útil para una exploración incorporada.",
        zh = "在给定状态下对动作定义概率分布 π(a|s) 的策略,动作通过采样而非确定性选择产生。是策略梯度方法的标准形式,并自然地提供探索能力。",
        term_es = "política estocástica",
        term_zh = "随机策略",
        aliases_es = { "políticas estocásticas", "política aleatoria" },
        aliases_zh = { "stochastic policy", "随机化策略" },
    }
    
    data["stochastic variational deep gp"] = {
        short = "A doubly stochastic variational inference scheme (Salimbeni & Deisenroth, 2017) for deep Gaussian processes that uses inducing points at every layer and Monte Carlo samples through the layer composition, enabling end-to-end training on large datasets without mean-field assumptions between layers.",
        article = nil,
        aliases = { "DSVI-DGP", "doubly stochastic variational deep GP", "stochastic variational deep GP", "SVDGP" },
        es = "Esquema de inferencia variacional doblemente estocástica (Salimbeni y Deisenroth, 2017) para procesos gaussianos profundos, que usa puntos inductores en cada capa y muestras de Monte Carlo a través de la composición de capas, permitiendo entrenamiento extremo a extremo en grandes conjuntos de datos sin suposiciones de campo medio entre capas.",
        zh = "用于深度高斯过程的双重随机变分推断方案(Salimbeni 和 Deisenroth,2017),在每一层使用诱导点,并通过层间组合进行蒙特卡洛采样,从而在不假设层间平均场的前提下,对大规模数据进行端到端训练。",
        term_es = "GP profundo variacional estocástico",
        term_zh = "随机变分深度高斯过程",
        aliases_es = { "DSVI-DGP", "GP profundo variacional doblemente estocástico", "SVDGP" },
        aliases_zh = { "DSVI-DGP", "SVDGP", "双重随机变分深度 GP" },
    }
    
    data["stochastic weight averaging"] = {
        short = "A training procedure (Izmailov et al., 2018) that averages the weights of SGD iterates collected with a high constant or cyclic learning rate, finding flatter minima and improving generalization at almost zero additional cost.",
        article = nil,
        aliases = { "SWA", "stochastic-weight averaging", "SWA-Gaussian", "SWAG" },
        es = "Procedimiento de entrenamiento (Izmailov et al., 2018) que promedia los pesos de iteraciones de SGD recolectadas con una tasa de aprendizaje alta constante o cíclica, encontrando mínimos más planos y mejorando la generalización con casi ningún coste adicional.",
        zh = "一种训练方法(Izmailov 等,2018),对采用高恒定或循环学习率的 SGD 迭代权重取平均,能找到更平坦的极小值并以几乎零额外成本提升泛化能力。",
        term_es = "promediado estocástico de pesos",
        term_zh = "随机权重平均",
        aliases_es = { "SWA", "promediado estocástico de pesos", "SWAG" },
        aliases_zh = { "SWA", "SWAG", "随机权值平均" },
    }
    
    data["stop words"] = {
        short = "Common high-frequency words (e.g. \"the\", \"is\", \"of\") that are removed during text preprocessing because they carry little discriminative information for many information retrieval and bag-of-words tasks.",
        article = nil,
        aliases = { "stopword", "stopwords", "stop word", "stop-word", "stop-words" },
        es = "Palabras vacías o de alta frecuencia (por ejemplo «el», «de», «y») que se eliminan durante el preprocesamiento de texto porque aportan poca información discriminativa en muchas tareas de recuperación de información y bolsas de palabras.",
        zh = "在文本预处理中被过滤掉的高频常用词(如 \"the\"、\"is\"、\"of\"),因为它们在信息检索和词袋等任务中携带的区分性信息很少。",
        term_es = "palabras vacías",
        term_zh = "停用词",
        aliases_es = { "stop words", "palabras de parada", "palabra vacía" },
        aliases_zh = { "stop words", "禁用词", "停止词" },
    }
    
    data["straggler problem"] = {
        short = "In synchronous distributed training, the slowdown caused when the slowest worker (the straggler) delays the entire round, since fast workers must wait at the synchronization barrier before the next iteration can proceed.",
        article = nil,
        aliases = { "stragglers", "straggler effect", "slow worker problem" },
        es = "En el entrenamiento distribuido síncrono, la ralentización provocada por el trabajador más lento (el rezagado), ya que los trabajadores rápidos deben esperar en la barrera de sincronización antes de poder iniciar la siguiente iteración.",
        zh = "在同步分布式训练中,由最慢的工作节点(落后者)造成的整体减速,因为快速节点必须在同步屏障处等待,下一次迭代才能开始。",
        term_es = "problema de rezagados",
        term_zh = "掉队者问题",
        aliases_es = { "rezagados", "efecto del rezagado", "problema del trabajador lento" },
        aliases_zh = { "落后者问题", "掉队者效应", "慢节点问题" },
    }
    
    data["straggler-aware scheduling"] = {
        short = "A scheduling strategy in distributed or federated training that mitigates the straggler problem by selecting, weighting, or replicating tasks based on observed worker speeds, deadlines, or expected completion times.",
        article = nil,
        aliases = { "straggler aware scheduling", "straggler mitigation scheduling", "deadline-aware FL scheduling" },
        es = "Estrategia de planificación en entrenamiento distribuido o federado que mitiga el problema de los rezagados seleccionando, ponderando o replicando tareas según las velocidades observadas de los trabajadores, los plazos o los tiempos de finalización esperados.",
        zh = "一种用于分布式或联邦训练的调度策略,通过依据观测到的工作节点速度、截止时间或预期完成时间来选择、加权或复制任务,以缓解掉队者问题。",
        term_es = "planificación consciente de rezagados",
        term_zh = "感知掉队者的调度",
        aliases_es = { "planificación consciente de plazos", "mitigación de rezagados" },
        aliases_zh = { "落后者感知调度", "掉队者缓解调度" },
    }
    
    data["straight vocoder"] = {
        short = "Speech Transformation and Representation using Adaptive Interpolation of weiGHTed spectrum, a high-quality analysis–synthesis vocoder that decomposes speech into smoothed spectrum, F0, and aperiodicity.",
        article = nil,
        aliases = { "STRAIGHT", "STRAIGHT vocoder" },
        es = "Speech Transformation and Representation using Adaptive Interpolation of weiGHTed spectrum, un vocoder de análisis y síntesis de alta calidad que descompone el habla en espectro suavizado, F0 y aperiodicidad.",
        zh = "STRAIGHT,一种高质量的分析-合成声码器,将语音分解为平滑频谱、基频(F0)和非周期分量。",
        term_es = "vocoder STRAIGHT",
        term_zh = "STRAIGHT 声码器",
        aliases_es = { "STRAIGHT", "vocoder STRAIGHT" },
        aliases_zh = { "STRAIGHT", "STRAIGHT 声码器" },
    }
    
    data["straight-through estimator"] = {
        short = "A biased gradient estimator that backpropagates through non-differentiable operations such as discrete sampling or quantization by treating them as the identity function during the backward pass.",
        article = nil,
        aliases = { "STE", "straight through estimator", "straight-through gradient estimator" },
        es = "Estimador de gradiente sesgado que retropropaga a través de operaciones no diferenciables como el muestreo discreto o la cuantización tratándolas como la función identidad durante el paso hacia atrás.",
        zh = "一种有偏的梯度估计器,通过在反向传播时将离散采样、量化等不可微操作视为恒等函数来传递梯度。",
        term_es = "estimador straight-through",
        term_zh = "直通估计器",
        aliases_es = { "STE", "straight-through estimator", "estimador directo", "estimador de paso directo" },
        aliases_zh = { "STE", "直通梯度估计器", "Straight-Through 估计器", "直通估计" },
    }
    
    data["strategyqa"] = {
        short = "A question-answering benchmark of yes/no questions requiring implicit multi-step reasoning, where each question must be decomposed into a chain of intermediate facts before answering.",
        article = nil,
        aliases = { "StrategyQA", "Strategy QA" },
        es = "Benchmark de preguntas y respuestas con preguntas de sí/no que requieren razonamiento implícito de varios pasos, donde cada pregunta debe descomponerse en una cadena de hechos intermedios antes de responder.",
        zh = "一种问答基准,包含需要隐式多步推理的是非题,每个问题必须先分解为一系列中间事实链才能作答。",
        term_es = "StrategyQA",
        term_zh = "StrategyQA",
        aliases_es = { "StrategyQA" },
        aliases_zh = { "StrategyQA", "策略问答" },
    }
    
    data["stratified interference"] = {
        short = "A partial-interference assumption that units are partitioned into groups (strata) within which interference may occur arbitrarily, while no spillover acts across groups.",
        article = nil,
        aliases = { "partial interference", "stratified spillover", "block interference" },
        es = "Supuesto de interferencia parcial según el cual las unidades se dividen en grupos (estratos) dentro de los cuales puede haber interferencia arbitraria, pero no hay efectos de derrame entre grupos.",
        zh = "一种部分干扰假设,即将单元划分为若干组(层),组内可存在任意干扰,但组间不存在溢出。",
        term_es = "interferencia estratificada",
        term_zh = "分层干扰",
        aliases_es = { "interferencia parcial", "interferencia por bloques" },
        aliases_zh = { "分层溢出", "分块干扰", "部分干扰" },
    }
    
    data["stratified sampling"] = {
        short = "A sampling strategy that partitions the population into homogeneous strata (e.g., classes) and samples from each in proportion to its size, ensuring that the resulting sample preserves the original class or group distribution.",
        article = nil,
        aliases = { "stratified split", "stratified sample", "stratification" },
        es = "Estrategia de muestreo que divide la población en estratos homogéneos (por ejemplo, clases) y muestrea cada uno en proporción a su tamaño, garantizando que la muestra resultante preserve la distribución original de clases o grupos.",
        zh = "一种抽样策略,将总体划分为同质的层(例如类别),并按各层的比例进行抽样,从而确保所得样本保留原始的类别或分组分布。",
        term_es = "muestreo estratificado",
        term_zh = "分层抽样",
        aliases_es = { "muestreo por estratos", "estratificación", "partición estratificada" },
        aliases_zh = { "分层采样", "分层取样", "stratified sampling" },
    }
    
    data["streaming asr"] = {
        short = "Automatic speech recognition that emits hypotheses with low latency as audio arrives, rather than waiting for the full utterance, typically using causal or chunked attention and transducer or CTC decoders.",
        article = nil,
        aliases = { "online ASR", "streaming speech recognition", "real-time ASR" },
        es = "Reconocimiento automático del habla que emite hipótesis con baja latencia a medida que llega el audio, en lugar de esperar la elocución completa, usando típicamente atención causal o por fragmentos y decodificadores de transductor o CTC.",
        zh = "在音频到达时以低延迟输出假设的自动语音识别,而非等待整段语音结束,通常采用因果或分块注意力以及 transducer 或 CTC 解码器。",
        term_es = "ASR de transmisión",
        term_zh = "流式语音识别",
        aliases_es = { "ASR en streaming", "ASR en línea", "reconocimiento del habla en streaming" },
        aliases_zh = { "在线 ASR", "实时语音识别", "流式 ASR" },
    }
    
    data["streaming conformer"] = {
        short = "A streaming variant of the Conformer ASR encoder that uses chunked or causal self-attention together with limited-context convolutions to enable low-latency, online speech recognition.",
        article = nil,
        aliases = { "Streaming Conformer", "streaming-conformer" },
        es = "Variante de transmisión del codificador Conformer para reconocimiento automático del habla que usa atención propia por fragmentos o causal junto con convoluciones de contexto limitado para permitir reconocimiento del habla en línea de baja latencia.",
        zh = "Conformer 语音识别编码器的流式变体,通过分块或因果自注意力结合有限上下文卷积,实现低延迟在线语音识别。",
        term_es = "Conformer en streaming",
        term_zh = "流式 Conformer",
        aliases_es = { "Conformer en streaming", "Streaming Conformer" },
        aliases_zh = { "流式 Conformer", "Streaming Conformer" },
    }
    
    data["streaming rnn-t"] = {
        short = "A streaming RNN-Transducer model for automatic speech recognition that produces output tokens incrementally with low latency, jointly modeling acoustic and language information without explicit alignment.",
        article = nil,
        aliases = { "streaming RNN-T", "streaming RNN transducer", "streaming RNN Transducer", "streaming Recurrent Neural Network Transducer" },
        es = "Modelo RNN-Transducer en streaming para reconocimiento automático del habla que produce tokens de salida de forma incremental con baja latencia, modelando conjuntamente información acústica y lingüística sin alineación explícita.",
        zh = "用于自动语音识别的流式 RNN-Transducer 模型,以低延迟逐步输出 token,联合建模声学与语言信息且无需显式对齐。",
        term_es = "RNN-T en streaming",
        term_zh = "流式 RNN-T",
        aliases_es = { "RNN-T en streaming", "RNN Transducer en streaming" },
        aliases_zh = { "流式 RNN-T", "流式 RNN Transducer" },
    }
    
    data["streaming s2st"] = {
        short = "A streaming speech-to-speech translation system that emits target-language speech incrementally as the source-language audio arrives, balancing translation quality against latency.",
        article = nil,
        aliases = { "streaming speech-to-speech translation", "online S2ST", "simultaneous S2ST" },
        es = "Sistema de traducción de voz a voz en streaming que emite habla en el idioma objetivo de forma incremental a medida que llega el audio del idioma fuente, equilibrando calidad de traducción y latencia.",
        zh = "流式语音到语音翻译系统,在源语言音频到达时逐步输出目标语言语音,在翻译质量与延迟之间取得平衡。",
        term_es = "S2ST en streaming",
        term_zh = "流式语音到语音翻译",
        aliases_es = { "traducción de voz a voz en streaming", "S2ST en línea", "S2ST simultánea" },
        aliases_zh = { "流式 S2ST", "在线 S2ST", "同声语音到语音翻译" },
    }
    
    data["streaming t2v"] = {
        short = "A long text-to-video generation framework that produces extended, temporally consistent videos by autoregressively chaining short clips while conditioning each new segment on previous frames using a short-term and long-term memory module.",
        article = nil,
        aliases = { "StreamingT2V", "Streaming T2V", "streaming text-to-video" },
        es = "Marco de generación de video a partir de texto a largo plazo que produce videos extensos y temporalmente consistentes encadenando autorregresivamente clips cortos y condicionando cada nuevo segmento en los fotogramas previos mediante módulos de memoria de corto y largo plazo.",
        zh = "一种长文本到视频生成框架,通过自回归方式串联多个短片段,并使用短期与长期记忆模块以先前帧作为条件,从而生成时间上连贯的长视频。",
        term_es = "StreamingT2V",
        term_zh = "StreamingT2V",
        aliases_es = { "Streaming T2V", "texto-a-video en streaming" },
        aliases_zh = { "Streaming T2V", "流式文本到视频" },
    }
    
    data["streamingllm"] = {
        short = "A method that enables a transformer LLM to handle effectively unbounded context by retaining a small number of initial 'attention sink' tokens together with a sliding window of recent tokens, preserving stability without retraining.",
        article = nil,
        aliases = { "StreamingLLM", "Streaming LLM", "streaming-llm" },
        es = "Método que permite a un LLM transformador manejar contextos prácticamente ilimitados conservando un pequeño número de tokens iniciales como ancla de atención junto con una ventana deslizante de tokens recientes, preservando la estabilidad sin necesidad de reentrenamiento.",
        zh = "一种方法,通过保留少量起始的“注意力汇”token以及最近token的滑动窗口,使Transformer大型语言模型在无需重新训练的情况下处理近乎无限的上下文并保持稳定。",
        term_es = "StreamingLLM",
        term_zh = "StreamingLLM",
        aliases_es = { "Streaming LLM" },
        aliases_zh = { "Streaming LLM", "流式LLM" },
    }
    
    data["strelka"] = {
        short = "A variant caller for germline and somatic small-variant detection from short-read sequencing, using empirical scoring models tuned for tumor-normal paired analysis.",
        article = nil,
        aliases = { "Strelka", "Strelka2" },
        es = "Detector de variantes para identificación de variantes pequeñas germinales y somáticas a partir de secuenciación de lecturas cortas, que utiliza modelos empíricos de puntuación ajustados para el análisis pareado tumor-normal.",
        zh = "一种用于从短读长测序数据中检测胚系和体细胞小变异的变异检出工具,采用针对肿瘤-正常配对分析调优的经验评分模型。",
        term_es = "Strelka",
        term_zh = "Strelka",
        aliases_es = { "Strelka", "Strelka2" },
        aliases_zh = { "Strelka", "Strelka2" },
    }
    
    data["stride"] = {
        short = "The step size with which a convolution or pooling kernel moves across the input. A stride greater than one downsamples the spatial dimensions of the output.",
        article = nil,
        aliases = { "convolution stride", "stride length" },
        es = "El tamaño del paso con el que un núcleo de convolución o de pooling se desplaza sobre la entrada. Un stride mayor que uno reduce las dimensiones espaciales de la salida.",
        zh = "卷积或池化核在输入上移动的步长。步长大于一会对输出的空间维度进行下采样。",
        term_es = "stride",
        term_zh = "步长",
        aliases_es = { "paso", "zancada" },
        aliases_zh = { "stride", "卷积步长" },
    }
    
    data["string database"] = {
        short = "A curated database of known and predicted protein-protein interactions, integrating evidence from genomic context, co-expression, text mining, and experimental data with confidence scores.",
        article = nil,
        aliases = { "STRING", "STRING database", "STRING-db", "Search Tool for the Retrieval of Interacting Genes/Proteins" },
        es = "Base de datos curada de interacciones proteína-proteína conocidas y predichas, que integra evidencia de contexto genómico, coexpresión, minería de texto y datos experimentales con puntuaciones de confianza.",
        zh = "一个整合已知和预测的蛋白质-蛋白质相互作用的精选数据库,结合基因组上下文、共表达、文本挖掘和实验数据等证据并提供置信度评分。",
        term_es = "STRING",
        term_zh = "STRING 数据库",
        aliases_es = { "base de datos STRING", "STRING-db" },
        aliases_zh = { "STRING", "STRING-db", "蛋白质相互作用数据库 STRING" },
    }
    
    data["stringtie"] = {
        short = "A transcript assembler that reconstructs full-length isoforms and estimates expression levels from RNA-seq alignments using a network flow algorithm over splice graphs.",
        article = nil,
        aliases = { "StringTie" },
        es = "Ensamblador de transcritos que reconstruye isoformas completas y estima niveles de expresión a partir de alineamientos de RNA-seq mediante un algoritmo de flujo de red sobre grafos de empalme.",
        zh = "一种转录本组装工具,使用基于剪接图的网络流算法从 RNA-seq 比对结果中重建全长同工型并估计表达水平。",
        term_es = "StringTie",
        term_zh = "StringTie",
        aliases_es = { "StringTie" },
        aliases_zh = { "StringTie" },
    }
    
    data["struc2vec"] = {
        short = "A node-embedding method for graphs that captures structural role similarity between nodes—based on degree sequences and hierarchies of neighborhoods—rather than proximity in the graph.",
        article = nil,
        aliases = { "Struc2Vec", "struc2vec embedding" },
        es = "Método de incrustación de nodos para grafos que captura la similitud de roles estructurales entre nodos —basada en secuencias de grados y jerarquías de vecindarios— en lugar de la proximidad en el grafo.",
        zh = "一种图节点嵌入方法,基于度序列和邻域层次结构来捕捉节点之间的结构角色相似性,而非图中的邻近性。",
        term_es = "struc2vec",
        term_zh = "struc2vec",
        aliases_es = { "Struc2Vec", "embedding struc2vec" },
        aliases_zh = { "Struc2Vec", "struc2vec 嵌入" },
    }
    
    data["structural causal model"] = {
        short = "A formal model, due to Pearl, consisting of a directed acyclic graph and a set of structural equations that assign each variable as a deterministic function of its parents and an exogenous noise term, supporting interventional and counterfactual reasoning.",
        article = nil,
        aliases = { "SCM", "structural causal models", "Pearl's SCM", "functional causal model", "non-parametric structural equation model" },
        es = "Modelo formal, propuesto por Pearl, compuesto por un grafo acíclico dirigido y un conjunto de ecuaciones estructurales que asignan cada variable como una función determinista de sus padres y un término de ruido exógeno, lo que permite razonar sobre intervenciones y contrafactuales.",
        zh = "由 Pearl 提出的形式化模型,由一个有向无环图和一组结构方程组成,每个变量被表示为其父节点和外生噪声项的确定性函数,支持干预与反事实推理。",
        term_es = "modelo causal estructural",
        term_zh = "结构因果模型",
        aliases_es = { "SCM", "modelo SCM", "modelo causal funcional" },
        aliases_zh = { "SCM", "因果结构模型", "结构性因果模型", "功能因果模型" },
    }
    
    data["structural causal model for fairness"] = {
        short = "Use of structural causal models (SCMs) — directed graphs with structural equations — to formalize fairness notions like counterfactual fairness, path-specific effects, and resolving variables. Provides a causal foundation absent in purely observational fairness criteria.",
        article = nil,
        aliases = { "SCM for fairness", "causal model for fairness", "structural causal fairness" },
        es = "Uso de modelos causales estructurales (SCM), grafos dirigidos con ecuaciones estructurales, para formalizar nociones de equidad como equidad contrafactual, efectos específicos de trayectoria y variables resolutivas. Proporciona la base causal ausente en los criterios de equidad puramente observacionales.",
        zh = "使用结构因果模型(SCM,即带有结构方程的有向图)来刻画反事实公平、特定路径效应、解析变量等公平性概念,为纯观测式公平准则提供缺失的因果基础。",
        term_es = "modelo causal estructural para equidad",
        term_zh = "公平性结构因果模型",
        aliases_es = { "SCM para equidad", "modelo causal para equidad" },
        aliases_zh = { "公平性 SCM", "公平的结构因果模型", "公平因果模型" },
    }
    
    data["structural causal model interpretation"] = {
        short = "An interpretability framework that represents a model as a structural causal model, allowing intervention-based reasoning about how inputs and internal variables causally produce outputs.",
        article = nil,
        aliases = { "SCM interpretation", "causal abstraction interpretation" },
        es = "Marco de interpretabilidad que representa al modelo como un modelo causal estructural, permitiendo razonar mediante intervenciones sobre cómo entradas y variables internas producen las salidas.",
        zh = "将模型表示为结构因果模型的可解释性框架,通过干预推断输入与内部变量如何因果地产生输出。",
        term_es = "interpretación mediante modelos causales estructurales",
        term_zh = "结构因果模型解释",
        aliases_es = { "interpretación SCM", "interpretación basada en SCM" },
        aliases_zh = { "SCM 解释", "因果抽象解释" },
    }
    
    data["structural equation model"] = {
        short = "A multivariate statistical model that specifies a system of equations linking observed and latent variables, used both for measurement (with latent factors) and for representing hypothesized causal structure.",
        article = nil,
        aliases = { "SEM", "structural equation modeling", "structural equation modelling", "path analysis" },
        es = "Modelo estadístico multivariante que especifica un sistema de ecuaciones que vinculan variables observadas y latentes, empleado tanto para medición (con factores latentes) como para representar una estructura causal hipotética.",
        zh = "一种多元统计模型,通过一组方程将可观测变量与潜变量联系起来,既用于(含潜在因子的)测量建模,也用于表示假设的因果结构。",
        term_es = "modelo de ecuaciones estructurales",
        term_zh = "结构方程模型",
        aliases_es = { "SEM", "modelos de ecuaciones estructurales", "análisis de senderos" },
        aliases_zh = { "SEM", "结构方程建模", "路径分析" },
    }
    
    data["structural nested failure time model"] = {
        short = "A class of structural nested models for time-to-event outcomes that parameterize the multiplicative effect of a time-varying treatment on counterfactual survival times, fit by g-estimation.",
        article = nil,
        aliases = { "SNFTM", "structural nested accelerated failure time model", "Robins SNFTM" },
        es = "Clase de modelos estructurales anidados para resultados de tiempo hasta el evento que parametrizan el efecto multiplicativo de un tratamiento variable en el tiempo sobre los tiempos de supervivencia contrafactuales y se ajustan mediante estimación g.",
        zh = "一类用于时间至事件结局的结构嵌套模型,参数化时变处理对反事实生存时间的乘性效应,通过 g 估计进行拟合。",
        term_es = "modelo estructural anidado de tiempo de fallo",
        term_zh = "结构嵌套失效时间模型",
        aliases_es = { "SNFTM", "modelo estructural anidado de tiempos de fallo", "modelo SNFTM" },
        aliases_zh = { "SNFTM", "结构嵌套加速失效时间模型", "结构嵌套生存时间模型" },
    }
    
    data["structural nested mean model"] = {
        short = "A structural nested model that parameterizes the conditional mean contrast between treatment regimes for a time-varying exposure, identified and estimated via g-estimation under sequential exchangeability.",
        article = nil,
        aliases = { "SNMM", "structural nested mean models", "Robins SNMM" },
        es = "Modelo estructural anidado que parametriza el contraste de medias condicionales entre regímenes de tratamiento para una exposición variable en el tiempo, identificado y estimado mediante estimación g bajo intercambiabilidad secuencial.",
        zh = "一类结构嵌套模型,参数化时变暴露不同处理方案之间的条件均值差异,在序贯可交换性假设下通过 g 估计进行识别与估计。",
        term_es = "modelo estructural anidado de medias",
        term_zh = "结构嵌套均值模型",
        aliases_es = { "SNMM", "modelo estructural anidado de la media", "modelo SNMM" },
        aliases_zh = { "SNMM", "结构嵌套平均值模型", "嵌套结构均值模型" },
    }
    
    data["structural nested model"] = {
        short = "A family of causal models, due to Robins, for time-varying treatments that parameterize the effect of a 'blip' of treatment at each time point conditional on the past, fit by g-estimation.",
        article = nil,
        aliases = { "SNM", "structural nested models", "Robins SNM", "blip model" },
        es = "Familia de modelos causales, propuesta por Robins, para tratamientos variables en el tiempo que parametriza el efecto de una pequeña dosis ('blip') de tratamiento en cada momento condicional al pasado, ajustada por estimación g.",
        zh = "由 Robins 提出的针对时变处理的因果模型家族,在每个时刻参数化以历史为条件的瞬时处理效应('blip'),通过 g 估计进行拟合。",
        term_es = "modelo estructural anidado",
        term_zh = "结构嵌套模型",
        aliases_es = { "SNM", "modelos estructurales anidados", "modelo SNM" },
        aliases_zh = { "SNM", "嵌套结构模型", "结构性嵌套模型" },
    }
    
    data["structural probe"] = {
        short = "A probe that tests whether geometric structure in contextual representations encodes hierarchical syntactic information, e.g. by recovering parse-tree distances from a learned linear projection (Hewitt and Manning, 2019).",
        article = nil,
        aliases = { "syntactic structural probe", "Hewitt-Manning probe" },
        es = "Sonda que evalúa si la estructura geométrica de las representaciones contextuales codifica información sintáctica jerárquica, por ejemplo recuperando distancias de árbol sintáctico mediante una proyección lineal aprendida.",
        zh = "一种探针方法,通过学习线性投影从上下文表示中恢复句法树距离,检验表示的几何结构是否编码层次化句法信息(Hewitt 和 Manning, 2019)。",
        term_es = "sonda estructural",
        term_zh = "结构探针",
        aliases_es = { "probe estructural", "sonda sintáctica estructural" },
        aliases_zh = { "structural probe", "句法结构探针" },
    }
    
    data["structural variant calling"] = {
        short = "Computational identification of genomic rearrangements larger than a few dozen base pairs, including deletions, duplications, inversions, translocations, and insertions, from sequencing reads.",
        article = nil,
        aliases = { "SV calling", "structural variation calling", "structural variant detection", "SV detection" },
        es = "Identificación computacional de reordenamientos genómicos mayores que unas pocas docenas de pares de bases, incluyendo deleciones, duplicaciones, inversiones, translocaciones e inserciones, a partir de lecturas de secuenciación.",
        zh = "从测序读段中以计算方法识别大于数十碱基对的基因组重排,包括缺失、重复、倒位、易位和插入。",
        term_es = "detección de variantes estructurales",
        term_zh = "结构变异检出",
        aliases_es = { "llamada de variantes estructurales", "detección de SV" },
        aliases_zh = { "结构变异检测", "SV 检出", "SV 检测" },
    }
    
    data["structure learning"] = {
        short = "The task of inferring the graphical structure of a probabilistic or causal model from data, encompassing constraint-based, score-based, and continuous-optimization approaches.",
        article = nil,
        aliases = { "causal structure learning", "graph learning", "causal discovery", "DAG learning" },
        es = "Tarea de inferir la estructura gráfica de un modelo probabilístico o causal a partir de datos, que comprende enfoques basados en restricciones, en puntuaciones y de optimización continua.",
        zh = "从数据中推断概率模型或因果模型图结构的任务,涵盖基于约束的方法、基于评分的方法以及连续优化方法。",
        term_es = "aprendizaje de estructura",
        term_zh = "结构学习",
        aliases_es = { "aprendizaje de la estructura causal", "aprendizaje de grafos", "descubrimiento causal" },
        aliases_zh = { "因果结构学习", "图结构学习", "因果发现", "DAG 学习" },
    }
    
    data["structure mapping"] = {
        short = "A cognitive theory of analogy, due to Gentner, that posits analogical reasoning aligns the relational structure of two domains while ignoring surface attributes.",
        article = nil,
        aliases = { "structure-mapping theory", "Gentner structure mapping", "structure mapping theory" },
        es = "Teoría cognitiva de la analogía, propuesta por Gentner, según la cual el razonamiento analógico alinea la estructura relacional de dos dominios ignorando los atributos superficiales.",
        zh = "由 Gentner 提出的关于类比的认知理论,认为类比推理在两个领域之间对齐关系结构而忽略表面属性。",
        term_es = "mapeo de estructuras",
        term_zh = "结构映射",
        aliases_es = { "teoría del mapeo de estructuras", "mapeo estructural", "teoría de la correspondencia estructural" },
        aliases_zh = { "结构映射理论", "结构对应", "Gentner 结构映射" },
    }
    
    data["structure module"] = {
        short = "The final architectural component of AlphaFold 2 that predicts 3D atomic coordinates from the pair and single representations using invariant point attention and equivariant frame updates over residue-level rigid bodies.",
        article = nil,
        aliases = { "AlphaFold structure module", "IPA structure module" },
        es = "Componente arquitectónico final de AlphaFold 2 que predice coordenadas atómicas 3D a partir de las representaciones por pares y simple usando atención de puntos invariante y actualizaciones de marcos equivariantes sobre cuerpos rígidos a nivel de residuo.",
        zh = "AlphaFold 2 的最后一个结构模块,使用不变点注意力(IPA)和对残基级刚体的等变坐标系更新,从配对表征和单残基表征预测 3D 原子坐标。",
        term_es = "módulo de estructura",
        term_zh = "结构模块",
        aliases_es = { "módulo de estructura de AlphaFold", "structure module" },
        aliases_zh = { "AlphaFold 结构模块", "IPA 结构模块" },
    }
    
    data["structure-activity relationship"] = {
        short = "The relationship between the chemical structure of a compound and its biological activity, used in medicinal chemistry to guide lead optimization by correlating substructural changes with potency, selectivity, and ADMET properties.",
        article = nil,
        aliases = { "SAR", "structure activity relationship", "QSAR", "quantitative structure-activity relationship" },
        es = "Relación entre la estructura química de un compuesto y su actividad biológica, utilizada en química medicinal para guiar la optimización de cabezas de serie correlacionando cambios subestructurales con potencia, selectividad y propiedades ADMET.",
        zh = "化合物的化学结构与其生物活性之间的关系,在药物化学中用于指导先导化合物优化,通过将子结构变化与活性、选择性和 ADMET 性质相关联。",
        term_es = "relación estructura-actividad",
        term_zh = "构效关系",
        aliases_es = { "SAR", "QSAR", "relación cuantitativa estructura-actividad" },
        aliases_zh = { "SAR", "QSAR", "结构-活性关系", "定量构效关系" },
    }
    
    data["structure-based virtual screening"] = {
        short = "A computational drug-discovery technique that uses the three-dimensional structure of a target binding site to dock and rank candidate compounds by predicted binding affinity, prioritizing molecules for experimental testing.",
        article = nil,
        aliases = { "SBVS", "structure based virtual screening", "structure-based screening" },
        es = "Técnica computacional de descubrimiento de fármacos que utiliza la estructura tridimensional del sitio de unión de un objetivo para acoplar y clasificar compuestos candidatos según la afinidad de unión predicha, priorizando moléculas para ensayos experimentales.",
        zh = "一种计算药物发现技术,利用靶点结合位点的三维结构对候选化合物进行对接并按预测结合亲和力排序,从中筛选用于实验验证的分子。",
        term_es = "cribado virtual basado en estructura",
        term_zh = "基于结构的虚拟筛选",
        aliases_es = { "SBVS", "screening virtual basado en estructura", "tamizaje virtual basado en estructura" },
        aliases_zh = { "SBVS", "结构基础虚拟筛选" },
    }
    
    data["structured generation"] = {
        short = "Constrained decoding that forces a language model's output to conform to a specified schema such as a JSON schema, regular expression, or context-free grammar, typically by masking invalid tokens at each step.",
        article = nil,
        aliases = { "structured output", "structured outputs", "constrained generation", "constrained decoding", "schema-constrained generation" },
        es = "Decodificación restringida que obliga a la salida de un modelo de lenguaje a ajustarse a un esquema especificado, como un esquema JSON, una expresión regular o una gramática libre de contexto, normalmente enmascarando los tokens inválidos en cada paso.",
        zh = "一种受限解码方式,通过在每一步屏蔽不合法的token,迫使语言模型的输出符合指定的模式,例如JSON模式、正则表达式或上下文无关文法。",
        term_es = "generación estructurada",
        term_zh = "结构化生成",
        aliases_es = { "salida estructurada", "decodificación restringida", "generación restringida" },
        aliases_zh = { "结构化输出", "受限生成", "受约束解码" },
    }
    
    data["structured kernel interpolation"] = {
        short = "A scalable Gaussian-process method (Wilson & Nickisch, 2015) that places inducing points on a grid and interpolates the kernel between them, exploiting Toeplitz/Kronecker structure to achieve near-linear inference cost. Also known as KISS-GP.",
        article = nil,
        aliases = { "SKI", "KISS-GP", "Kernel Interpolation for Scalable Structured GPs" },
        es = "Método escalable de procesos gaussianos (Wilson y Nickisch, 2015) que coloca puntos inductores en una rejilla e interpola el núcleo entre ellos, explotando estructura Toeplitz/Kronecker para lograr coste de inferencia casi lineal. También conocido como KISS-GP.",
        zh = "一种可扩展的高斯过程方法(Wilson 和 Nickisch,2015),将诱导点放置在网格上并在其间对核进行插值,利用 Toeplitz/Kronecker 结构实现近线性的推断代价;又称 KISS-GP。",
        term_es = "interpolación estructurada de núcleo",
        term_zh = "结构化核插值",
        aliases_es = { "SKI", "KISS-GP" },
        aliases_zh = { "SKI", "KISS-GP", "结构化核插值法" },
    }
    
    data["structured mean-field"] = {
        short = "A variational family that retains some statistical dependencies between groups of latent variables while factorizing across groups, generalizing fully factorized mean-field by trading some tractability for a tighter ELBO and richer posterior approximations.",
        article = nil,
        aliases = { "structured mean-field approximation", "structured mean field", "block mean-field", "block-structured mean field" },
        es = "Familia variacional que conserva algunas dependencias estadísticas entre grupos de variables latentes mientras factoriza entre grupos, generalizando el campo medio totalmente factorizado al ceder cierta tratabilidad a cambio de una ELBO más ajustada y aproximaciones posteriores más ricas.",
        zh = "一种变分族,在不同组之间因子分解的同时保留组内潜变量的统计依赖,作为完全因子化平均场的推广,以一定的可处理性换取更紧的 ELBO 和更丰富的后验近似。",
        term_es = "campo medio estructurado",
        term_zh = "结构化平均场",
        aliases_es = { "aproximación de campo medio estructurada", "campo medio por bloques" },
        aliases_zh = { "结构化平均场近似", "块结构平均场", "分块平均场" },
    }
    
    data["structured output"] = {
        short = "An inference mode in which an LLM's response is constrained to conform to a developer-specified schema (e.g. JSON Schema, Pydantic model, regular expression, or context-free grammar), guaranteeing parseable structure.",
        article = nil,
        aliases = { "Structured Output", "structured outputs", "structured generation", "schema-constrained output", "schema-guided decoding" },
        es = "Modo de inferencia en el que la respuesta de un LLM se restringe a un esquema especificado por el desarrollador (por ejemplo JSON Schema, modelo Pydantic, expresión regular o gramática libre de contexto), garantizando una estructura parseable.",
        zh = "一种推理模式,将 LLM 的输出约束为开发者指定的模式(如 JSON Schema、Pydantic 模型、正则表达式或上下文无关文法),从而保证结果可解析。",
        term_es = "salida estructurada",
        term_zh = "结构化输出",
        aliases_es = { "structured output", "structured outputs", "salidas estructuradas", "generación estructurada", "salida con esquema" },
        aliases_zh = { "structured output", "结构化生成", "受模式约束的输出", "结构化结果" },
    }
    
    data["structured posterior"] = {
        short = "An approximate or exact posterior distribution that explicitly models dependencies between latent variables (e.g., via low-rank, autoregressive, or graphical-model factorizations) instead of assuming a fully factorized mean-field form.",
        article = nil,
        aliases = { "structured posterior approximation", "non-mean-field posterior" },
        es = "Distribución posterior aproximada o exacta que modela explícitamente las dependencias entre variables latentes (por ejemplo, mediante factorizaciones de bajo rango, autorregresivas o de modelos gráficos), en lugar de asumir una forma de campo medio totalmente factorizada.",
        zh = "一种显式建模潜变量之间依赖关系的近似或精确后验分布(例如通过低秩、自回归或图模型因子分解),而非假设完全因子化的平均场形式。",
        term_es = "posterior estructurada",
        term_zh = "结构化后验",
        aliases_es = { "aproximación posterior estructurada", "posterior no de campo medio" },
        aliases_zh = { "结构化后验近似", "非平均场后验" },
    }
    
    data["structured pruning"] = {
        short = "Pruning that removes whole structural units of a network (e.g., channels, attention heads, neurons, or layers) rather than individual weights, yielding dense smaller models that map directly to hardware speedups.",
        article = nil,
        aliases = { "structural pruning", "channel pruning", "filter pruning", "head pruning" },
        es = "Tipo de poda que elimina unidades estructurales completas de la red (por ejemplo, canales, cabezas de atención, neuronas o capas) en lugar de pesos individuales, produciendo modelos más pequeños y densos que se traducen directamente en aceleraciones de hardware.",
        zh = "剪枝的一种类型,移除网络中完整的结构单元(如通道、注意力头、神经元或层),而非单个权重,从而得到更小的稠密模型,可直接转化为硬件加速。",
        term_es = "poda estructurada",
        term_zh = "结构化剪枝",
        aliases_es = { "poda estructural", "poda por canales", "poda por filtros", "poda de cabezas" },
        aliases_zh = { "通道剪枝", "滤波器剪枝", "注意力头剪枝", "structured pruning" },
    }
    
    data["structured stochastic variational inference"] = {
        short = "A scalable variational inference scheme (Hoffman & Blei, 2015) that combines stochastic optimization on data subsamples with structured variational families that preserve local dependency structure (e.g., between latent topics or sequence states) instead of full mean-field factorization.",
        article = nil,
        aliases = { "structured SVI", "SSVI", "Hoffman-Blei structured SVI" },
        es = "Esquema escalable de inferencia variacional (Hoffman y Blei, 2015) que combina optimización estocástica sobre submuestras de datos con familias variacionales estructuradas que preservan la dependencia local (por ejemplo, entre tópicos latentes o estados de secuencia) en lugar de una factorización totalmente de campo medio.",
        zh = "一种可扩展的变分推断方案(Hoffman 和 Blei,2015),将基于数据子样本的随机优化与保留局部依赖结构(例如潜在主题或序列状态之间)的结构化变分族结合,避免完全平均场因子化。",
        term_es = "inferencia variacional estocástica estructurada",
        term_zh = "结构化随机变分推断",
        aliases_es = { "SVI estructurada", "SSVI" },
        aliases_zh = { "结构化 SVI", "SSVI", "Hoffman-Blei 结构化 SVI" },
    }
    
    data["structured updates"] = {
        short = "A communication-efficient federated learning technique that constrains client model updates to a structured form, such as low-rank or random-mask matrices, so that only a small number of parameters need to be transmitted.",
        article = nil,
        aliases = { "structured update", "low-rank updates", "random-mask updates" },
        es = "Técnica de aprendizaje federado eficiente en comunicación que restringe las actualizaciones del modelo del cliente a una forma estructurada, como matrices de bajo rango o con máscara aleatoria, de modo que solo deba transmitirse un número reducido de parámetros.",
        zh = "一种通信高效的联邦学习技术,将客户端模型更新约束为结构化形式(如低秩或随机掩码矩阵),从而只需传输少量参数。",
        term_es = "actualizaciones estructuradas",
        term_zh = "结构化更新",
        aliases_es = { "actualización estructurada", "actualizaciones de bajo rango", "actualizaciones con máscara aleatoria" },
        aliases_zh = { "低秩更新", "随机掩码更新", "结构化模型更新" },
    }
    
    data["structured variational inference"] = {
        short = "Variational inference performed with a variational family that explicitly retains some dependencies among latent variables — such as Gauss-Markov chains, low-rank Gaussian, or normalizing flows — yielding tighter ELBOs than mean-field while remaining tractable.",
        article = nil,
        aliases = { "structured VI", "non-mean-field VI", "structured variational approximation" },
        es = "Inferencia variacional realizada con una familia variacional que conserva explícitamente algunas dependencias entre variables latentes — como cadenas de Gauss-Markov, gaussianas de bajo rango o flujos normalizantes — obteniendo ELBOs más ajustadas que el campo medio sin perder tratabilidad.",
        zh = "采用显式保留潜变量间部分依赖关系的变分族(例如高斯-马尔可夫链、低秩高斯或归一化流)所执行的变分推断,相比平均场可获得更紧的 ELBO,同时保持可处理性。",
        term_es = "inferencia variacional estructurada",
        term_zh = "结构化变分推断",
        aliases_es = { "VI estructurada", "VI no de campo medio", "aproximación variacional estructurada" },
        aliases_zh = { "结构化 VI", "非平均场 VI", "结构化变分近似" },
    }
    
    data["style loss"] = {
        short = "A loss for neural style transfer that matches the Gram matrices (feature correlations) of intermediate layers between a generated image and a style reference, capturing texture and color statistics.",
        article = nil,
        aliases = { "Gram matrix loss", "style transfer loss", "neural style loss" },
        es = "Pérdida para transferencia neuronal de estilo que iguala las matrices de Gram (correlaciones de características) de capas intermedias entre la imagen generada y una referencia de estilo, capturando estadísticas de textura y color.",
        zh = "用于神经风格迁移的损失,通过匹配生成图像与风格参考在中间层的 Gram 矩阵(特征相关性),捕捉纹理与颜色统计。",
        term_es = "pérdida de estilo",
        term_zh = "风格损失",
        aliases_es = { "pérdida de matriz de Gram", "pérdida de transferencia de estilo" },
        aliases_zh = { "Gram 矩阵损失", "风格迁移损失" },
    }
    
    data["style transfer tts"] = {
        short = "A class of text-to-speech systems that transfer prosodic or speaker style from a reference audio onto synthesized speech, enabling expressive synthesis with controllable emotion, intonation, or voice identity.",
        article = nil,
        aliases = { "style transfer text-to-speech", "expressive TTS", "prosody transfer TTS" },
        es = "Clase de sistemas de texto a voz que transfieren estilo prosódico o de locutor desde un audio de referencia al habla sintetizada, permitiendo síntesis expresiva con emoción, entonación o identidad de voz controlables.",
        zh = "一类文本转语音系统,将参考音频中的韵律或说话人风格迁移到合成语音上,实现情感、语调或声音身份可控的富有表现力的合成。",
        term_es = "TTS con transferencia de estilo",
        term_zh = "风格迁移 TTS",
        aliases_es = { "TTS expresiva", "TTS con transferencia prosódica" },
        aliases_zh = { "风格迁移语音合成", "表达性 TTS", "韵律迁移 TTS" },
    }
    
    data["styleclip"] = {
        short = "A method for text-driven manipulation of images generated by StyleGAN that uses CLIP to optimize latent codes or mapping networks so that edits in StyleGAN's latent space match a natural-language description.",
        article = nil,
        aliases = { "StyleCLIP", "Style CLIP", "StyleCLIP editing", "text-driven StyleGAN manipulation" },
        es = "Método para manipulación de imágenes generadas por StyleGAN guiada por texto, que usa CLIP para optimizar códigos latentes o redes de mapeo de modo que las ediciones en el espacio latente de StyleGAN coincidan con una descripción en lenguaje natural.",
        zh = "一种基于文本驱动的 StyleGAN 图像编辑方法,利用 CLIP 优化潜码或映射网络,使在 StyleGAN 潜空间中的编辑结果与自然语言描述相匹配。",
        term_es = "StyleCLIP",
        term_zh = "StyleCLIP",
        aliases_es = { "manipulación de StyleGAN guiada por texto" },
        aliases_zh = { "Style CLIP", "文本驱动的 StyleGAN 编辑" },
    }
    
    data["stylegan"] = {
        short = "A style-based generator architecture for GANs (Karras et al., 2019) that maps a latent code z through a mapping network into a style space W and modulates each layer of the synthesis network via adaptive instance normalization, enabling fine-grained style control.",
        article = nil,
        aliases = { "StyleGAN", "StyleGAN1", "style-based GAN" },
        es = "Arquitectura generadora basada en estilos para GAN (Karras et al., 2019) que mapea un código latente z a través de una red de mapeo al espacio de estilos W y modula cada capa de la red de síntesis mediante normalización de instancia adaptativa, permitiendo un control fino del estilo.",
        zh = "Karras 等人于 2019 年提出的基于风格的 GAN 生成器:通过映射网络将潜码 z 映射到风格空间 W,并用自适应实例归一化对合成网络的每一层进行调制,从而实现细粒度的风格控制。",
        term_es = "StyleGAN",
        term_zh = "StyleGAN",
        aliases_es = { "GAN basada en estilos" },
        aliases_zh = { "基于风格的 GAN", "风格 GAN" },
    }
    
    data["stylegan2"] = {
        short = "An improved StyleGAN (Karras et al., 2020) that replaces adaptive instance normalization with weight demodulation, redesigns the generator's progressive structure, and adds path-length regularization, eliminating characteristic droplet artifacts and improving FID.",
        article = nil,
        aliases = { "StyleGAN2", "StyleGAN v2" },
        es = "Versión mejorada de StyleGAN (Karras et al., 2020) que sustituye la normalización de instancia adaptativa por demodulación de pesos, rediseña la estructura progresiva del generador y añade regularización de longitud de camino, eliminando los artefactos en gotas característicos y mejorando el FID.",
        zh = "Karras 等人于 2020 年提出的 StyleGAN 改进版:将自适应实例归一化替换为权重去调制,重新设计生成器的渐进结构,并加入路径长度正则化,消除了典型的水滴状伪影并提升了 FID。",
        term_es = "StyleGAN2",
        term_zh = "StyleGAN2",
        aliases_es = { "StyleGAN v2" },
        aliases_zh = { "StyleGAN v2" },
    }
    
    data["stylegan3"] = {
        short = "An alias-free generator (Karras et al., 2021) that redesigns StyleGAN2's signal processing — replacing pointwise nonlinearities and learned upsamplers with continuous, equivariant operations — so that fine details adhere to underlying surfaces under translation and rotation rather than sticking to pixel coordinates.",
        article = nil,
        aliases = { "StyleGAN3", "alias-free GAN", "alias-free StyleGAN" },
        es = "Generador libre de alias (Karras et al., 2021) que rediseña el procesamiento de señales de StyleGAN2 —sustituyendo no linealidades puntuales y muestreadores aprendidos por operaciones continuas y equivariantes—, de modo que los detalles finos se adhieran a las superficies subyacentes bajo traslación y rotación, en lugar de quedar fijos a coordenadas de píxeles.",
        zh = "Karras 等人于 2021 年提出的无混叠生成器:重新设计了 StyleGAN2 中的信号处理,用连续且等变的算子替代逐点非线性和可学习上采样,使精细细节在平移和旋转下随物体表面移动,而不是粘附在像素坐标上。",
        term_es = "StyleGAN3",
        term_zh = "StyleGAN3",
        aliases_es = { "GAN libre de alias" },
        aliases_zh = { "无混叠 GAN", "无锯齿 GAN" },
    }
    
    data["styletts"] = {
        short = "A non-autoregressive text-to-speech model that learns disentangled style representations from reference audio via style adaptive layer normalization, supporting expressive and zero-shot synthesis.",
        article = nil,
        aliases = { "StyleTTS" },
        es = "Modelo de texto a voz no autorregresivo que aprende representaciones de estilo desacopladas a partir de audio de referencia mediante normalización por capa adaptativa de estilo, permitiendo síntesis expresiva y de cero disparos.",
        zh = "一种非自回归文本转语音模型,通过风格自适应层归一化从参考音频中学习解耦的风格表示,支持富表现力和零样本合成。",
        term_es = "StyleTTS",
        term_zh = "StyleTTS",
        aliases_es = { "StyleTTS" },
        aliases_zh = { "StyleTTS" },
    }
    
    data["styletts 2"] = {
        short = "A text-to-speech model that combines style diffusion with adversarial training using large speech language models, achieving human-level naturalness and strong zero-shot voice cloning.",
        article = nil,
        aliases = { "StyleTTS 2", "StyleTTS2", "StyleTTS-2" },
        es = "Modelo de texto a voz que combina difusión de estilo con entrenamiento adversarial usando grandes modelos de lenguaje del habla, alcanzando naturalidad a nivel humano y fuerte clonación de voz de cero disparos.",
        zh = "一种文本转语音模型,将风格扩散与基于大型语音语言模型的对抗训练相结合,实现接近人类水平的自然度和强大的零样本声音克隆。",
        term_es = "StyleTTS 2",
        term_zh = "StyleTTS 2",
        aliases_es = { "StyleTTS 2", "StyleTTS2" },
        aliases_zh = { "StyleTTS 2", "StyleTTS2" },
    }
    
    data["styletts2"] = {
        short = "A text-to-speech model that uses a style diffusion process and adversarial training with large speech language models to synthesize highly natural, expressive speech with diverse speaking styles from text.",
        article = nil,
        aliases = { "StyleTTS 2", "StyleTTS-2", "StyleTTS2", "style TTS 2" },
        es = "Modelo de síntesis de voz a partir de texto que combina un proceso de difusión de estilo con entrenamiento adversarial usando grandes modelos de lenguaje del habla para sintetizar voz altamente natural y expresiva con estilos de locución diversos.",
        zh = "一种文本到语音模型,将风格扩散过程与基于大型语音语言模型的对抗训练相结合,可从文本合成高度自然、富有表现力且具有多样讲话风格的语音。",
        term_es = "StyleTTS 2",
        term_zh = "StyleTTS 2",
        aliases_es = { "StyleTTS-2" },
        aliases_zh = { "StyleTTS-2", "StyleTTS2" },
    }
    
    data["sub-gradient method"] = {
        short = "A generalization of gradient descent for convex but non-differentiable objectives that replaces the gradient with any subgradient at the current point.",
        article = nil,
        aliases = { "subgradient method", "subgradient descent", "sub-gradient descent" },
        es = "Generalización del descenso por gradiente para objetivos convexos no diferenciables que sustituye el gradiente por cualquier subgradiente en el punto actual.",
        zh = "梯度下降的推广,用于凸但不可微的目标函数,将梯度替换为当前点处的任一次梯度。",
        term_es = "método del subgradiente",
        term_zh = "次梯度法",
        aliases_es = { "descenso por subgradiente", "método sub-gradiente" },
        aliases_zh = { "次梯度方法", "次梯度下降", "subgradient method" },
    }
    
    data["sub-symbolic reasoning"] = {
        short = "Reasoning carried out implicitly by distributed, continuous representations—typically in neural networks—without manipulating discrete symbols or explicit logical rules.",
        article = nil,
        aliases = { "subsymbolic reasoning", "connectionist reasoning", "sub-symbolic inference", "subsymbolic inference" },
        es = "Razonamiento llevado a cabo implícitamente mediante representaciones distribuidas y continuas —típicamente en redes neuronales— sin manipular símbolos discretos ni reglas lógicas explícitas.",
        zh = "由分布式、连续表示(通常在神经网络中)隐式进行的推理,不操作离散符号或显式的逻辑规则。",
        term_es = "razonamiento subsimbólico",
        term_zh = "亚符号推理",
        aliases_es = { "razonamiento subsimbólico", "razonamiento conexionista", "inferencia subsimbólica" },
        aliases_zh = { "亚符号推理", "次符号推理", "联结主义推理", "亚符号推断" },
    }
    
    data["subcellular localization"] = {
        short = "The specific compartment within a cell — such as nucleus, mitochondrion, cytoplasm, or membrane — where a protein, RNA, or other molecule resides and performs its function.",
        article = nil,
        aliases = { "subcellular location", "protein subcellular localization", "subcellular localisation" },
        es = "Compartimento específico dentro de una célula —como núcleo, mitocondria, citoplasma o membrana— donde reside una proteína, ARN u otra molécula y desempeña su función.",
        zh = "蛋白质、RNA 或其他分子在细胞内驻留并发挥功能的特定区室,如细胞核、线粒体、细胞质或膜。",
        term_es = "localización subcelular",
        term_zh = "亚细胞定位",
        aliases_es = { "ubicación subcelular", "localización subcelular de proteínas" },
        aliases_zh = { "亚细胞分布", "蛋白质亚细胞定位" },
    }
    
    data["subclonal reconstruction"] = {
        short = "Inference of the clonal architecture of a tumor — the set of distinct cell populations and their evolutionary relationships — from bulk or single-cell sequencing data using variant allele frequencies.",
        article = nil,
        aliases = { "clonal reconstruction", "tumor subclonal reconstruction", "subclonal deconvolution", "clonal deconvolution" },
        es = "Inferencia de la arquitectura clonal de un tumor —el conjunto de poblaciones celulares distintas y sus relaciones evolutivas— a partir de datos de secuenciación masiva o unicelular utilizando frecuencias alélicas de variantes.",
        zh = "利用变异等位基因频率从批量或单细胞测序数据中推断肿瘤的克隆结构,即不同细胞群体的集合及其进化关系。",
        term_es = "reconstrucción subclonal",
        term_zh = "亚克隆重构",
        aliases_es = { "reconstrucción clonal", "deconvolución subclonal" },
        aliases_zh = { "克隆重构", "亚克隆解卷积", "肿瘤亚克隆重建" },
    }
    
    data["subgraph explanation"] = {
        short = "An explanation for a graph neural network's prediction expressed as a connected subgraph of the input whose nodes and edges are the most relevant for that prediction.",
        article = nil,
        aliases = { "subgraph-based explanation", "GNN subgraph explanation" },
        es = "Explicación de la predicción de una red neuronal de grafos expresada como un subgrafo conexo del input cuyos nodos y aristas son los más relevantes para esa predicción.",
        zh = "图神经网络预测的解释,表示为输入图的一个连通子图,其节点和边对该预测最为关键。",
        term_es = "explicación por subgrafo",
        term_zh = "子图解释",
        aliases_es = { "explicación basada en subgrafo", "explicación de subgrafo" },
        aliases_zh = { "基于子图的解释", "GNN 子图解释" },
    }
    
    data["subgraphx"] = {
        short = "An explanation method for graph neural networks that uses Monte Carlo Tree Search guided by Shapley values to identify the most important connected subgraph for a prediction (Yuan et al., 2021).",
        article = nil,
        aliases = { "SubgraphX", "Subgraph X" },
        es = "Método de explicación para redes neuronales de grafos que usa búsqueda en árbol Monte Carlo guiada por valores de Shapley para identificar el subgrafo conexo más importante para una predicción.",
        zh = "一种图神经网络解释方法,结合蒙特卡洛树搜索与 Shapley 值,识别对预测最重要的连通子图(Yuan 等,2021)。",
        term_es = "SubgraphX",
        term_zh = "SubgraphX",
        aliases_es = { "SubgraphX" },
        aliases_zh = { "子图X", "SubgraphX" },
    }
    
    data["subgroup fairness"] = {
        short = "A fairness notion that demands fairness constraints hold not only for marginal protected groups but also for a rich combinatorial family of overlapping subgroups, addressing fairness gerrymandering. Introduced by Kearns, Neel, Roth, and Wu (2018).",
        article = nil,
        aliases = { "rich subgroup fairness", "fairness gerrymandering", "Kearns subgroup fairness" },
        es = "Noción de equidad que exige que las restricciones de equidad se cumplan no solo en los grupos protegidos marginales, sino también en una rica familia combinatoria de subgrupos solapados, evitando el gerrymandering de equidad. Introducida por Kearns, Neel, Roth y Wu (2018).",
        zh = "一种公平性概念,要求公平约束不仅在边际受保护群体上成立,还要在大量相互重叠的子群体组合上成立,以解决公平性 \"划区操纵\" 问题。由 Kearns、Neel、Roth 和 Wu(2018)提出。",
        term_es = "equidad de subgrupos",
        term_zh = "子群体公平性",
        aliases_es = { "equidad de subgrupos rica", "gerrymandering de equidad" },
        aliases_zh = { "丰富子群体公平性", "公平性划区操纵", "Kearns 子群公平" },
    }
    
    data["subjective logic"] = {
        short = "A formal calculus of uncertain beliefs (Jøsang, 2001) that represents an opinion as a tuple of belief, disbelief, uncertainty, and base-rate masses summing to one. It maps bijectively to a Dirichlet distribution and underpins evidential deep learning.",
        article = nil,
        aliases = { "Jøsang's subjective logic", "Josang subjective logic", "subjective opinion" },
        es = "Cálculo formal de creencias inciertas (Jøsang, 2001) que representa una opinión como una tupla de masas de creencia, descreencia, incertidumbre y tasa base que suman uno. Se corresponde biyectivamente con una distribución de Dirichlet y fundamenta el aprendizaje profundo evidencial.",
        zh = "一种处理不确定信念的形式化演算(Jøsang,2001),将一个意见表示为信念、不信、不确定性和基率质量之和为一的元组;它与 Dirichlet 分布存在双射,并构成证据深度学习的基础。",
        term_es = "lógica subjetiva",
        term_zh = "主观逻辑",
        aliases_es = { "lógica subjetiva de Jøsang", "opinión subjetiva" },
        aliases_zh = { "Jøsang 主观逻辑", "主观意见", "Josang 主观逻辑" },
    }
    
    data["sublinear convergence"] = {
        short = "A convergence rate slower than linear, where the error decreases as O(1/k) or O(1/sqrt(k)) in the iteration count k. Typical of SGD on convex problems.",
        article = nil,
        aliases = { "sub-linear convergence" },
        es = "Tasa de convergencia más lenta que la lineal, donde el error decrece como O(1/k) o O(1/√k) en el número de iteraciones k. Típica del SGD en problemas convexos.",
        zh = "比线性收敛更慢的收敛速率,误差随迭代次数 k 以 O(1/k) 或 O(1/√k) 的速度下降,常见于凸问题上的 SGD。",
        term_es = "convergencia sublineal",
        term_zh = "次线性收敛",
        aliases_es = {},
        aliases_zh = { "亚线性收敛" },
    }
    
    data["subnetwork inference"] = {
        short = "A scalable Bayesian deep-learning method (Daxberger et al., 2021) that performs full Bayesian inference (typically Laplace approximation) only over a carefully selected small subset of the network's weights, while keeping the remaining weights at their MAP values.",
        article = nil,
        aliases = { "subnetwork Laplace", "subnetwork inference", "subset-of-weights Laplace", "Daxberger subnetwork inference" },
        es = "Método escalable de aprendizaje profundo bayesiano (Daxberger et al., 2021) que realiza inferencia bayesiana completa (normalmente aproximación de Laplace) solo sobre un subconjunto pequeño y cuidadosamente seleccionado de los pesos de la red, manteniendo el resto en sus valores MAP.",
        zh = "一种可扩展的贝叶斯深度学习方法(Daxberger 等,2021),仅对网络权重中精心选取的一个小子集执行完整贝叶斯推断(通常是 Laplace 近似),其余权重保持在 MAP 值。",
        term_es = "inferencia sobre subred",
        term_zh = "子网络推断",
        aliases_es = { "Laplace de subred", "Laplace sobre subconjunto de pesos" },
        aliases_zh = { "子网络 Laplace", "Daxberger 子网络推断", "权重子集 Laplace" },
    }
    
    data["subnetwork laplace"] = {
        short = "A Laplace approximation applied only to a selected subset of a neural network's parameters (e.g. the last layer or a small Hessian-informed subnetwork) while keeping the remaining weights at point estimates, dramatically reducing the cost of curvature computation.",
        article = nil,
        aliases = { "subnetwork Laplace approximation", "subnet Laplace", "partial Laplace" },
        es = "Aproximación de Laplace aplicada únicamente a un subconjunto seleccionado de parámetros de una red neuronal (por ejemplo la última capa o una subred informada por la Hessiana) manteniendo el resto de los pesos como estimaciones puntuales, lo que reduce drásticamente el costo del cálculo de la curvatura.",
        zh = "仅对神经网络中选定的参数子集(例如最后一层或基于 Hessian 信息选取的子网络)应用 Laplace 近似,其余权重保持点估计,从而大幅降低曲率计算的成本。",
        term_es = "Laplace de subred",
        term_zh = "子网络 Laplace 近似",
        aliases_es = { "aproximación de Laplace de subred", "Laplace parcial", "subnetwork Laplace" },
        aliases_zh = { "子网 Laplace", "部分 Laplace 近似", "subnetwork Laplace" },
    }
    
    data["subpopulation shift"] = {
        short = "A distribution shift in which the relative proportions of subpopulations differ between training and deployment data, while conditional distributions remain stable. A common cause of fairness degradation under non-stationary inputs.",
        article = nil,
        aliases = { "subgroup shift", "subpopulation distribution shift" },
        es = "Cambio de distribución en el que las proporciones relativas de las subpoblaciones difieren entre los datos de entrenamiento y los de despliegue, mientras que las distribuciones condicionales permanecen estables. Es una causa común de deterioro de la equidad ante entradas no estacionarias.",
        zh = "一种分布偏移,子群体在训练数据和部署数据中的相对比例不同,而条件分布保持稳定。在非平稳输入下,它是公平性退化的常见原因。",
        term_es = "cambio de subpoblación",
        term_zh = "子群体分布偏移",
        aliases_es = { "cambio de subgrupo", "cambio de distribución de subpoblación" },
        aliases_zh = { "子群偏移", "子群体偏移", "子群分布转移" },
    }
    
    data["subsampled updates"] = {
        short = "A communication-efficient federated learning technique in which the client computes a full model update locally but transmits only a randomly sampled subset of its entries, often combined with quantization to further reduce uplink cost.",
        article = nil,
        aliases = { "sketched updates", "random masking updates", "subsampled model updates" },
        es = "Técnica de aprendizaje federado eficiente en comunicación en la que el cliente calcula una actualización completa del modelo localmente pero transmite solo un subconjunto de entradas elegido al azar, frecuentemente combinado con cuantización para reducir aún más el coste del enlace ascendente.",
        zh = "一种通信高效的联邦学习技术,客户端在本地计算完整的模型更新,但只传输随机采样的子集,通常与量化结合以进一步降低上行通信成本。",
        term_es = "actualizaciones submuestreadas",
        term_zh = "子采样更新",
        aliases_es = { "actualizaciones con muestreo aleatorio", "actualizaciones esbozadas" },
        aliases_zh = { "采样更新", "随机掩码更新", "草图更新" },
    }
    
    data["subspace patching"] = {
        short = "An activation patching variant that intervenes only along a learned low-dimensional subspace of model representations, isolating the causal effect of that subspace on the output.",
        article = nil,
        aliases = { "subspace activation patching", "subspace intervention" },
        es = "Variante del activation patching que interviene únicamente a lo largo de un subespacio de baja dimensión aprendido de las representaciones del modelo, aislando el efecto causal de dicho subespacio sobre la salida.",
        zh = "激活修补的一种变体,仅在模型表示中学到的低维子空间内进行干预,以隔离该子空间对输出的因果影响。",
        term_es = "subspace patching",
        term_zh = "子空间修补",
        aliases_es = { "parcheo de subespacio", "intervención de subespacio", "subspace patching" },
        aliases_zh = { "子空间激活修补", "子空间干预", "subspace patching" },
    }
    
    data["substitution matrix"] = {
        short = "A scoring matrix used in sequence alignment that assigns a similarity score to each pair of residues, derived from observed substitution frequencies in homologous sequences (e.g. PAM, BLOSUM).",
        article = nil,
        aliases = { "scoring matrix", "amino acid substitution matrix", "BLOSUM", "PAM matrix" },
        es = "Matriz de puntuación utilizada en alineamientos de secuencias que asigna una puntuación de similitud a cada par de residuos, derivada de las frecuencias de sustitución observadas en secuencias homólogas (p. ej. PAM, BLOSUM).",
        zh = "用于序列比对的评分矩阵,根据同源序列中观察到的替换频率为每对残基分配相似性评分(如 PAM、BLOSUM)。",
        term_es = "matriz de sustitución",
        term_zh = "替换矩阵",
        aliases_es = { "matriz de puntuación", "matriz de sustitución de aminoácidos", "BLOSUM", "matriz PAM" },
        aliases_zh = { "打分矩阵", "氨基酸替换矩阵", "BLOSUM 矩阵", "PAM 矩阵" },
    }
    
    data["substructure search"] = {
        short = "A cheminformatics search that retrieves all molecules in a chemical database containing a specified atomic-bond pattern, typically expressed as a SMARTS query and resolved via subgraph isomorphism.",
        article = nil,
        aliases = { "substructure searching", "SMARTS search", "subgraph search" },
        es = "Búsqueda de quimioinformática que recupera todas las moléculas de una base de datos química que contienen un patrón de átomos y enlaces especificado, expresado típicamente como una consulta SMARTS y resuelto mediante isomorfismo de subgrafos.",
        zh = "一种化学信息学检索,从化学数据库中返回所有包含指定原子-键模式(通常表示为 SMARTS 查询)的分子,通过子图同构求解。",
        term_es = "búsqueda de subestructura",
        term_zh = "子结构检索",
        aliases_es = { "búsqueda por subestructura", "búsqueda SMARTS" },
        aliases_zh = { "子结构搜索", "SMARTS 检索", "子图搜索" },
    }
    
    data["subword tokenization"] = {
        short = "A family of tokenization methods (such as BPE, WordPiece, and unigram) that segment text into units smaller than words but larger than characters, balancing vocabulary size with the ability to represent rare and unseen words.",
        article = nil,
        aliases = { "subword segmentation", "subword tokenisation", "sub-word tokenization", "subword tokenizer" },
        es = "Familia de métodos de tokenización (como BPE, WordPiece y unigrama) que segmentan el texto en unidades más pequeñas que las palabras pero más grandes que los caracteres, equilibrando el tamaño del vocabulario con la capacidad de representar palabras raras o desconocidas.",
        zh = "一类分词方法(如 BPE、WordPiece 和 unigram),将文本切分为比词更小但比字符更大的单元,在词表规模与表示罕见或未见词的能力之间取得平衡。",
        term_es = "tokenización en subpalabras",
        term_zh = "子词分词",
        aliases_es = { "segmentación en subpalabras", "tokenización subword" },
        aliases_zh = { "子词标记化", "子词切分", "subword 分词" },
    }
    
    data["successive halving"] = {
        short = "A multi-fidelity hyperparameter optimization algorithm that allocates a small budget to many configurations, evaluates them, keeps the top fraction, and repeats with progressively larger budgets until a single best configuration remains.",
        article = nil,
        aliases = { "Successive Halving", "successive halving algorithm", "SHA" },
        es = "Algoritmo de optimización de hiperparámetros con múltiples fidelidades que asigna un presupuesto pequeño a muchas configuraciones, las evalúa, conserva la fracción superior y repite con presupuestos cada vez mayores hasta que queda una única configuración ganadora.",
        zh = "一种多保真超参数优化算法:先以小预算评估大量配置,保留性能排名靠前的一部分,然后以更大预算重复该过程,直至筛选出单一最优配置。",
        term_es = "halving sucesivo",
        term_zh = "逐次减半",
        aliases_es = { "Successive Halving", "reducción a la mitad sucesiva", "algoritmo de halving sucesivo" },
        aliases_zh = { "Successive Halving", "逐次减半算法", "连续减半" },
    }
    
    data["successive halving bracket"] = {
        short = "In Hyperband, one execution of successive halving with a specific initial number of configurations and minimum budget. Hyperband runs several brackets that trade off many short evaluations against fewer long ones to hedge across budget choices.",
        article = nil,
        aliases = { "SHA bracket", "Hyperband bracket", "halving bracket" },
        es = "En Hyperband, una ejecución de halving sucesivo con un número inicial concreto de configuraciones y un presupuesto mínimo determinado. Hyperband ejecuta varios brackets que equilibran muchas evaluaciones cortas frente a pocas largas para cubrir distintas elecciones de presupuesto.",
        zh = "在 Hyperband 中,一次具有特定初始配置数和最小预算的逐次减半执行;Hyperband 会运行多个 bracket,在“多次短评估”与“少量长评估”之间权衡,以兼顾不同预算选择。",
        term_es = "bracket de halving sucesivo",
        term_zh = "逐次减半 bracket",
        aliases_es = { "bracket de Hyperband", "bracket SHA" },
        aliases_zh = { "Hyperband bracket", "减半分组" },
    }
    
    data["sudo rm -rf separation"] = {
        short = "SuDoRM-RF, a lightweight U-Net-style architecture for audio source separation that uses successive down- and up-sampling residual blocks to achieve high quality with very low parameter count.",
        article = nil,
        aliases = { "SuDoRM-RF", "SuDoRMRF", "Sudo rm -rf", "successive downsampling and resampling separation" },
        es = "SuDoRM-RF, arquitectura ligera tipo U-Net para separación de fuentes de audio que usa bloques residuales con submuestreo y supermuestreo sucesivos para lograr alta calidad con muy pocos parámetros.",
        zh = "SuDoRM-RF,一种轻量级 U-Net 风格的音频源分离架构,通过逐级下采样与重采样的残差模块,以极少的参数实现高质量分离。",
        term_es = "SuDoRM-RF",
        term_zh = "SuDoRM-RF",
        aliases_es = { "SuDoRM-RF", "separación SuDoRM-RF" },
        aliases_zh = { "SuDoRM-RF" },
    }
    
    data["sufficiency aopc"] = {
        short = "An evaluation metric for feature attributions that measures the area over the perturbation curve obtained by keeping only the top-ranked features and removing the rest, quantifying how sufficient those features are for the prediction.",
        article = nil,
        aliases = { "sufficiency AOPC", "AOPC sufficiency", "sufficiency area over perturbation curve" },
        es = "Métrica de evaluación de atribuciones que mide el área sobre la curva de perturbación obtenida al conservar solo las características mejor puntuadas y eliminar el resto, cuantificando cuán suficientes son esas características para la predicción.",
        zh = "归因评估指标,通过仅保留排名最高的特征并移除其余特征所得到的扰动曲线之上方面积,衡量这些特征对预测的充分性。",
        term_es = "AOPC de suficiencia",
        term_zh = "充分性 AOPC",
        aliases_es = { "AOPC de suficiencia", "sufficiency AOPC" },
        aliases_zh = { "sufficiency AOPC", "充分性面积指标" },
    }
    
    data["sufficiency-comprehensiveness tradeoff"] = {
        short = "The tension in extractive rationale evaluation between selecting a small token subset that alone preserves the prediction (sufficiency) and selecting tokens whose removal causes the prediction to change (comprehensiveness).",
        article = nil,
        aliases = { "sufficiency vs comprehensiveness", "comprehensiveness-sufficiency tradeoff", "rationale sufficiency-comprehensiveness tradeoff" },
        es = "Tensión en la evaluación de racionales extractivos entre seleccionar un subconjunto pequeño de tokens que por sí solo preserva la predicción (suficiencia) y seleccionar tokens cuya eliminación cambia la predicción (exhaustividad).",
        zh = "抽取式理由评估中的权衡:所选少量标记本身足以维持预测(充分性),而移除所选标记会改变预测(全面性),二者难以兼顾。",
        term_es = "compromiso entre suficiencia y exhaustividad",
        term_zh = "充分性-全面性权衡",
        aliases_es = { "tradeoff suficiencia-exhaustividad", "compromiso suficiencia-exhaustividad" },
        aliases_zh = { "充分性与全面性的权衡", "sufficiency-comprehensiveness 权衡" },
    }
    
    data["sufficient input subset"] = {
        short = "A subset of input features that, when fed to the model with the remaining features masked, produces the same prediction as the full input, certifying that subset is sufficient for the decision.",
        article = nil,
        aliases = { "SIS", "sufficient feature subset" },
        es = "Subconjunto de características del input que, cuando se entrega al modelo con las restantes enmascaradas, produce la misma predicción que el input completo, certificando que ese subconjunto es suficiente para la decisión.",
        zh = "输入特征的一个子集,将其余特征屏蔽后,模型对该子集给出的预测与对完整输入的预测相同,从而证明该子集足以决定预测结果。",
        term_es = "subconjunto suficiente de entrada",
        term_zh = "充分输入子集",
        aliases_es = { "SIS", "subconjunto suficiente de características" },
        aliases_zh = { "SIS", "充分特征子集" },
    }
    
    data["sufficient statistic"] = {
        short = "A function of the data whose value retains all information about a parameter contained in the sample, in the sense that the conditional distribution of the data given the statistic does not depend on the parameter.",
        article = nil,
        aliases = { "sufficient statistics", "sufficiency", "minimal sufficient statistic" },
        es = "Función de los datos cuyo valor conserva toda la información sobre un parámetro contenida en la muestra, en el sentido de que la distribución condicional de los datos dado el estadístico no depende del parámetro.",
        zh = "数据的一个函数,其取值保留了样本中关于参数的全部信息,即在给定该统计量时数据的条件分布不依赖于该参数。",
        term_es = "estadístico suficiente",
        term_zh = "充分统计量",
        aliases_es = { "estadísticos suficientes", "suficiencia", "estadístico suficiente mínimo" },
        aliases_zh = { "充分统计", "最小充分统计量", "充分性" },
    }
    
    data["sumo ontology"] = {
        short = "The Suggested Upper Merged Ontology, a large free formal upper-level ontology of generic concepts written in SUO-KIF and aligned with WordNet.",
        article = nil,
        aliases = { "SUMO", "Suggested Upper Merged Ontology", "SUMO ontology" },
        es = "Suggested Upper Merged Ontology (SUMO), una gran ontología formal de nivel superior y de uso libre, escrita en SUO-KIF y alineada con WordNet.",
        zh = "建议上层合并本体(SUMO),一种大型免费的形式化上层本体,使用 SUO-KIF 编写并与 WordNet 对齐。",
        term_es = "ontología SUMO",
        term_zh = "SUMO 本体",
        aliases_es = { "SUMO", "Suggested Upper Merged Ontology" },
        aliases_zh = { "SUMO", "建议上层合并本体", "SUMO 上层本体" },
    }
    
    data["sun and abraham estimator"] = {
        short = "A heterogeneity-robust event-study estimator that recovers cohort-specific average treatment effects in staggered-adoption designs by interacting event-time dummies with cohort indicators, avoiding contamination from already-treated comparison units.",
        article = nil,
        aliases = { "Sun and Abraham estimator", "Sun-Abraham estimator", "Sun & Abraham (2021) estimator", "interaction-weighted estimator" },
        es = "Estimador de estudios de eventos robusto a la heterogeneidad que recupera los efectos medios del tratamiento por cohorte en diseños de adopción escalonada interactuando indicadores de tiempo del evento con indicadores de cohorte, evitando la contaminación por unidades de comparación ya tratadas.",
        zh = "一种对效应异质性稳健的事件研究估计量,通过将事件时间虚拟变量与队列指示变量进行交互,在错时实施设计中识别队列特定的平均处理效应,避免已处理对照单元造成的污染。",
        term_es = "estimador de Sun y Abraham",
        term_zh = "Sun 和 Abraham 估计量",
        aliases_es = { "estimador Sun-Abraham", "estimador ponderado por interacción", "estimador de Sun & Abraham (2021)" },
        aliases_zh = { "Sun-Abraham 估计量", "孙与亚伯拉罕估计量", "交互加权估计量" },
    }
    
    data["super learner"] = {
        short = "An ensemble algorithm that combines a library of candidate predictors via cross-validated convex weighting to minimize a chosen loss, providing oracle-optimal risk and serving as the nuisance-function learner in TMLE and double machine learning.",
        article = nil,
        aliases = { "SuperLearner", "super-learner", "stacked ensemble", "cross-validated stacking" },
        es = "Algoritmo de ensamblado que combina una biblioteca de predictores candidatos mediante una ponderación convexa validada por validación cruzada para minimizar una pérdida elegida, proporcionando riesgo oráculo-óptimo y siendo el aprendiz de funciones de molestia en TMLE y double machine learning.",
        zh = "一种集成算法,通过交叉验证下的凸加权将候选预测器库组合起来以最小化指定损失,具有oracle最优风险性质,常作为 TMLE 与双重机器学习中冗余函数的学习器。",
        term_es = "super learner",
        term_zh = "超级学习器",
        aliases_es = { "super aprendiz", "súper aprendiz", "ensamble apilado", "stacking validado por CV" },
        aliases_zh = { "Super Learner", "超学习器", "堆叠集成", "交叉验证堆叠" },
    }
    
    data["super-pixel attribution"] = {
        short = "Image attribution computed at the granularity of super-pixels — contiguous regions produced by a segmentation algorithm — rather than individual pixels, yielding more interpretable saliency maps.",
        article = nil,
        aliases = { "superpixel attribution", "super pixel attribution", "segment-level attribution" },
        es = "Atribución de imágenes calculada a nivel de superpíxeles —regiones contiguas producidas por un algoritmo de segmentación— en lugar de píxeles individuales, lo que produce mapas de saliencia más interpretables.",
        zh = "在超像素(由分割算法生成的连通区域)粒度而非单个像素粒度上计算图像归因,得到更可解释的显著图。",
        term_es = "atribución por superpíxeles",
        term_zh = "超像素归因",
        aliases_es = { "atribución de superpíxeles", "atribución a nivel de segmentos" },
        aliases_zh = { "超像素级归因", "分割级归因" },
    }
    
    data["super-resolution microscopy"] = {
        short = "Fluorescence imaging techniques that surpass the optical diffraction limit (~200 nm) to resolve subcellular structures at tens of nanometers, including STED, PALM, STORM, and SIM.",
        article = nil,
        aliases = { "super resolution microscopy", "nanoscopy", "diffraction-unlimited microscopy" },
        es = "Técnicas de imagen por fluorescencia que superan el límite de difracción óptica (~200 nm) para resolver estructuras subcelulares a decenas de nanómetros, incluyendo STED, PALM, STORM y SIM.",
        zh = "突破光学衍射极限(约 200 nm)的荧光成像技术,可在数十纳米尺度分辨亚细胞结构,包括 STED、PALM、STORM 和 SIM。",
        term_es = "microscopía de superresolución",
        term_zh = "超分辨显微镜",
        aliases_es = { "nanoscopía", "microscopía de super-resolución" },
        aliases_zh = { "超分辨率显微镜", "纳米显微镜", "超分辨成像" },
    }
    
    data["superlinear convergence"] = {
        short = "A convergence rate faster than linear, where the ratio of successive errors tends to zero. Newton's method achieves quadratic (a special case of superlinear) convergence near a solution.",
        article = nil,
        aliases = { "super-linear convergence" },
        es = "Tasa de convergencia más rápida que la lineal, en la que el cociente de errores sucesivos tiende a cero. El método de Newton alcanza convergencia cuadrática (un caso particular) cerca de una solución.",
        zh = "比线性收敛更快的收敛速率,相邻误差之比趋于零。牛顿法在解的附近可达到二次收敛(超线性的特例)。",
        term_es = "convergencia superlineal",
        term_zh = "超线性收敛",
        aliases_es = {},
        aliases_zh = {},
    }
    
    data["supernet"] = {
        short = "An over-parameterized network in weight-sharing neural architecture search that contains every candidate architecture in the search space as a sub-network. Training the supernet once allows cheap evaluation of many architectures via inherited weights.",
        article = nil,
        aliases = { "super-network", "super network", "one-shot model", "weight-sharing supernet", "one-shot supernet" },
        es = "Red sobreparametrizada utilizada en NAS con compartición de pesos que contiene como subred a cada arquitectura candidata del espacio de búsqueda. Entrenar la supernet una sola vez permite evaluar muchas arquitecturas de forma barata mediante pesos heredados.",
        zh = "权重共享神经架构搜索中的过参数化网络,其搜索空间内的每个候选架构都是它的一个子网络;只需训练一次超网,即可借助继承权重廉价地评估大量架构。",
        term_es = "supernet",
        term_zh = "超网",
        aliases_es = { "súper red", "super-red", "modelo one-shot", "supernet con compartición de pesos" },
        aliases_zh = { "supernet", "超网络", "一次性模型", "权重共享超网" },
    }
    
    data["supernet accuracy"] = {
        short = "The accuracy obtained by evaluating a sub-architecture using weights inherited from a trained supernet, without any further fine-tuning. Used as a cheap proxy for the architecture's standalone-trained accuracy in weight-sharing NAS.",
        article = nil,
        aliases = { "one-shot accuracy", "inherited-weight accuracy", "shared-weight accuracy", "supernet-evaluated accuracy" },
        es = "Precisión obtenida al evaluar una subarquitectura utilizando los pesos heredados de una supernet entrenada, sin ningún ajuste posterior. Se emplea como sustituto barato de la precisión real de la arquitectura entrenada de forma independiente en NAS con compartición de pesos.",
        zh = "在权重共享 NAS 中,使用训练好的超网继承权重直接评估子架构所得到的精度,不再做额外微调,常作为该架构独立训练精度的廉价代理。",
        term_es = "precisión de la supernet",
        term_zh = "超网精度",
        aliases_es = { "precisión one-shot", "precisión con pesos heredados", "precisión con pesos compartidos" },
        aliases_zh = { "一次性精度", "继承权重精度", "共享权重精度" },
    }
    
    data["supernet generalization gap"] = {
        short = "The systematic difference between accuracies obtained from supernet-inherited weights and those obtained by training the same architecture from scratch. A large gap undermines the supernet's reliability as a performance proxy in NAS.",
        article = nil,
        aliases = { "supernet gap", "weight-sharing generalization gap", "one-shot generalization gap", "supernet-standalone gap" },
        es = "Diferencia sistemática entre la precisión obtenida con pesos heredados de la supernet y la obtenida al entrenar desde cero la misma arquitectura. Una brecha amplia compromete la fiabilidad de la supernet como sustituto de rendimiento en NAS.",
        zh = "通过超网继承权重得到的精度与同一架构从零开始训练得到的精度之间的系统性差距;该差距越大,超网作为 NAS 性能代理的可靠性越低。",
        term_es = "brecha de generalización de la supernet",
        term_zh = "超网泛化差距",
        aliases_es = { "brecha de la supernet", "brecha one-shot", "brecha supernet-independiente" },
        aliases_zh = { "超网差距", "权重共享泛化差距", "一次性泛化差距" },
    }
    
    data["supernet performance estimator"] = {
        short = "A method that uses a trained supernet to predict the standalone-trained performance of candidate architectures, typically by evaluating them with inherited weights. It is the cost-saving heart of weight-sharing NAS.",
        article = nil,
        aliases = { "supernet predictor", "one-shot performance estimator", "weight-sharing predictor", "supernet-based estimator" },
        es = "Método que utiliza una supernet entrenada para predecir el rendimiento que tendrían las arquitecturas candidatas si se entrenasen de forma independiente, típicamente evaluándolas con pesos heredados. Constituye el componente que ahorra cómputo en NAS con compartición de pesos.",
        zh = "利用训练好的超网(通常通过继承权重对候选架构进行评估)来预测各候选架构独立训练后的性能,是权重共享 NAS 节省算力的核心组件。",
        term_es = "estimador de rendimiento basado en supernet",
        term_zh = "超网性能估计器",
        aliases_es = { "predictor de supernet", "estimador one-shot", "predictor con compartición de pesos" },
        aliases_zh = { "超网预测器", "一次性性能估计器", "权重共享预测器" },
    }
    
    data["supernet rank disorder"] = {
        short = "The phenomenon in weight-sharing NAS where the ordering of architectures by supernet-inherited accuracy disagrees with the ordering induced by independent training. It directly limits the usefulness of supernets as performance estimators.",
        article = nil,
        aliases = { "rank disorder", "supernet ranking disorder", "ranking disorder", "weight-sharing rank disorder" },
        es = "Fenómeno en NAS con compartición de pesos en el que el orden de las arquitecturas según la precisión heredada de la supernet difiere del orden obtenido al entrenarlas de forma independiente, lo que limita directamente la utilidad de las supernets como estimadores de rendimiento.",
        zh = "权重共享 NAS 中出现的现象:按超网继承精度对架构排序的结果与按独立训练精度排序的结果不一致,这直接限制了超网作为性能估计器的实用性。",
        term_es = "desorden de ranking de la supernet",
        term_zh = "超网排序失序",
        aliases_es = { "desorden de ranking", "desorden de orden en supernet", "desorden de clasificación" },
        aliases_zh = { "排序失序", "超网排序错乱", "权重共享排序失序" },
    }
    
    data["superposition"] = {
        short = "In mechanistic interpretability, the phenomenon by which a neural network represents more features than it has dimensions by encoding them as overlapping, non-orthogonal directions in activation space (Elhage et al., 2022).",
        article = nil,
        aliases = { "feature superposition", "superposition hypothesis" },
        es = "En interpretabilidad mecanicista, el fenómeno por el cual una red neuronal representa más características que dimensiones disponibles, codificándolas como direcciones superpuestas y no ortogonales en el espacio de activaciones.",
        zh = "在机制可解释性中,神经网络通过在激活空间中以非正交、相互重叠的方向编码特征,从而表示出比维度数更多的特征的现象(Elhage 等,2022)。",
        term_es = "superposición",
        term_zh = "叠加",
        aliases_es = { "superposición de características", "hipótesis de superposición" },
        aliases_zh = { "特征叠加", "叠加假设", "superposition" },
    }
    
    data["supervised contrastive loss"] = {
        short = "Extension of contrastive losses that uses class labels to treat all same-class samples in a batch as positives, generalizing self-supervised contrastive objectives to supervised representation learning.",
        article = nil,
        aliases = { "SupCon", "SupCon loss" },
        es = "Extensión de las pérdidas contrastivas que utiliza las etiquetas de clase para tratar como positivos a todas las muestras de la misma clase en el lote, generalizando los objetivos contrastivos auto-supervisados al aprendizaje supervisado de representaciones.",
        zh = "对比损失的扩展,利用类别标签将批次中同类的所有样本视为正样本,把自监督对比目标推广到有监督表示学习。",
        term_es = "pérdida contrastiva supervisada",
        term_zh = "监督对比损失",
        aliases_es = { "SupCon" },
        aliases_zh = { "SupCon", "有监督对比损失" },
    }
    
    data["supervised fine-tuning"] = {
        short = "Adapting a pretrained language model by training it on labeled input-output pairs (typically instruction-response demonstrations) using standard cross-entropy loss; the first stage of most instruction-tuning and RLHF pipelines.",
        article = nil,
        aliases = { "SFT", "instruction fine-tuning", "supervised finetuning", "supervised fine tuning" },
        es = "Adaptar un modelo de lenguaje preentrenado entrenándolo con pares etiquetados de entrada y salida (normalmente demostraciones de instrucción-respuesta) usando entropía cruzada estándar; primera etapa de la mayoría de los pipelines de ajuste por instrucciones y RLHF.",
        zh = "通过在带标签的输入-输出对(通常是指令-响应示例)上使用标准交叉熵损失对预训练语言模型进行训练,是大多数指令微调和RLHF流水线的第一阶段。",
        term_es = "ajuste fino supervisado",
        term_zh = "监督微调",
        aliases_es = { "SFT", "fine-tuning supervisado", "fine-tuning por instrucciones" },
        aliases_zh = { "SFT", "有监督微调", "指令微调" },
    }
    
    data["supervised learning"] = {
        short = "A machine learning paradigm in which a model is trained on labeled input-output pairs to learn a mapping from inputs to targets, typically by minimizing a loss between predictions and the provided labels.",
        article = nil,
        aliases = { "supervised", "fully supervised learning", "supervised training", "labeled learning" },
        es = "Paradigma de aprendizaje automático en el que un modelo se entrena con pares entrada-salida etiquetados para aprender una asignación de entradas a objetivos, típicamente minimizando una pérdida entre las predicciones y las etiquetas proporcionadas.",
        zh = "一种机器学习范式,使用带标签的输入-输出对训练模型,以学习从输入到目标的映射,通常通过最小化预测与给定标签之间的损失来实现。",
        term_es = "aprendizaje supervisado",
        term_zh = "监督学习",
        aliases_es = { "aprendizaje totalmente supervisado", "entrenamiento supervisado" },
        aliases_zh = { "有监督学习", "监督式学习", "supervised learning" },
    }
    
    data["suppa2"] = {
        short = "A tool for fast and accurate quantification of alternative splicing events and differential splicing analysis from transcript-level expression estimates.",
        article = nil,
        aliases = { "SUPPA2", "SUPPA" },
        es = "Herramienta para la cuantificación rápida y precisa de eventos de splicing alternativo y el análisis de splicing diferencial a partir de estimaciones de expresión a nivel de transcrito.",
        zh = "一种基于转录本水平表达估计快速、准确地量化可变剪接事件并进行差异剪接分析的工具。",
        term_es = "SUPPA2",
        term_zh = "SUPPA2",
        aliases_es = { "SUPPA2", "SUPPA" },
        aliases_zh = { "SUPPA2", "SUPPA" },
    }
    
    data["support set"] = {
        short = "In few-shot and meta-learning, the small set of labeled examples provided for each task that the model uses to adapt before being evaluated on the corresponding query set. Together they form an episode.",
        article = nil,
        aliases = { "support examples", "few-shot support set", "support batch" },
        es = "En aprendizaje con pocos ejemplos y metaaprendizaje, el pequeño conjunto de ejemplos etiquetados proporcionado para cada tarea que el modelo utiliza para adaptarse antes de evaluarse sobre el conjunto de consulta correspondiente. Juntos forman un episodio.",
        zh = "在小样本学习和元学习中,每个任务给出的少量带标签样本集合,模型先在其上进行适应,再在相应的查询集上评估;二者共同构成一个 episode。",
        term_es = "conjunto de soporte",
        term_zh = "支持集",
        aliases_es = { "ejemplos de soporte", "support set", "conjunto de soporte few-shot" },
        aliases_zh = { "support set", "支撑集", "少样本支持集" },
    }
    
    data["surechembl"] = {
        short = "SureChEMBL is an open database of chemical structures automatically extracted from the full text of patents, providing free public access to patent chemistry for drug discovery and cheminformatics research.",
        article = nil,
        aliases = { "SureChEMBL" },
        es = "SureChEMBL es una base de datos abierta de estructuras químicas extraídas automáticamente del texto completo de patentes, que ofrece acceso público gratuito a la química de patentes para investigación en descubrimiento de fármacos y quimioinformática.",
        zh = "SureChEMBL 是一个开放数据库,从专利全文中自动抽取化学结构,免费向公众开放,用于药物发现和化学信息学研究。",
        term_es = "SureChEMBL",
        term_zh = "SureChEMBL",
        aliases_es = { "base de datos SureChEMBL" },
        aliases_zh = { "SureChEMBL 数据库" },
    }
    
    data["surprisal"] = {
        short = "The information content of a single outcome: I(x) = −log p(x). Also called self-information; entropy is its expected value over the distribution.",
        article = nil,
        aliases = { "self-information", "self information", "information content", "Shannon information content", "−log p(x)" },
        es = "Contenido de información de un único resultado: I(x) = −log p(x). También llamada autoinformación; la entropía es su valor esperado sobre la distribución.",
        zh = "单个结果的信息内容:I(x) = −log p(x)。又称自信息;熵是其在分布下的期望值。",
        term_es = "sorpresa",
        term_zh = "自信息",
        aliases_es = { "autoinformación", "contenido de información" },
        aliases_zh = { "信息量", "意外度", "Shannon 自信息" },
    }
    
    data["surrogate boosting"] = {
        short = "A surrogate-model explanation approach in which a gradient-boosted tree ensemble is trained to mimic a black-box model's predictions, providing tree-based importance and decision-path explanations.",
        article = nil,
        aliases = { "boosted surrogate", "boosting surrogate" },
        es = "Enfoque de explicación por modelo subrogado en el que se entrena un ensamble de árboles potenciado por gradiente para imitar las predicciones de un modelo caja negra, proporcionando explicaciones basadas en importancia y rutas de decisión.",
        zh = "一种替代模型解释方法:训练梯度提升树集成模型以模拟黑盒模型的预测,从而提供基于树的重要性与决策路径解释。",
        term_es = "boosting subrogado",
        term_zh = "替代提升模型",
        aliases_es = { "subrogado por boosting", "modelo subrogado boosting" },
        aliases_zh = { "替代 boosting", "boosting 替代模型" },
    }
    
    data["surrogate decision tree"] = {
        short = "A decision tree trained to approximate a black-box model's input-output behavior, used as a globally interpretable surrogate that exposes the rules and feature splits implicit in the original model.",
        article = nil,
        aliases = { "decision tree surrogate", "tree surrogate", "surrogate tree" },
        es = "Árbol de decisión entrenado para aproximar el comportamiento entrada-salida de un modelo caja negra, utilizado como subrogado globalmente interpretable que expone las reglas y particiones implícitas en el modelo original.",
        zh = "训练一棵决策树来近似黑盒模型的输入-输出行为,将其作为全局可解释的替代模型,揭示原模型中隐含的规则与特征划分。",
        term_es = "árbol de decisión subrogado",
        term_zh = "替代决策树",
        aliases_es = { "subrogado de árbol de decisión", "árbol subrogado" },
        aliases_zh = { "决策树替代模型", "替代树模型" },
    }
    
    data["surrogate gam"] = {
        short = "A generalized additive model fitted to mimic a black-box model's predictions, yielding a globally interpretable surrogate whose per-feature shape functions reveal each feature's contribution.",
        article = nil,
        aliases = { "GAM surrogate", "surrogate GAM", "generalized additive surrogate" },
        es = "Modelo aditivo generalizado ajustado para imitar las predicciones de un modelo caja negra, produciendo un subrogado globalmente interpretable cuyas funciones por característica revelan la contribución de cada una.",
        zh = "拟合一个广义加性模型以模拟黑盒模型的预测,得到全局可解释的替代模型,其每个特征的形状函数揭示该特征的贡献。",
        term_es = "GAM subrogado",
        term_zh = "替代 GAM",
        aliases_es = { "modelo aditivo subrogado", "GAM como subrogado" },
        aliases_zh = { "GAM 替代模型", "广义加性替代模型" },
    }
    
    data["surrogate model"] = {
        short = "A cheap-to-evaluate predictive model that approximates an expensive black-box objective. In Bayesian optimization and AutoML, surrogates such as Gaussian processes, random forests, or neural networks guide search by providing predictive means and uncertainties.",
        article = nil,
        aliases = { "surrogate", "response surface model", "metamodel", "emulator" },
        es = "Modelo predictivo barato de evaluar que aproxima un objetivo de caja negra costoso. En optimización bayesiana y AutoML, los modelos sustitutos —como procesos gaussianos, bosques aleatorios o redes neuronales— guían la búsqueda al proporcionar medias predictivas e incertidumbres.",
        zh = "用于近似昂贵黑盒目标的廉价预测模型。在贝叶斯优化和 AutoML 中,常用的代理模型(如高斯过程、随机森林或神经网络)通过给出预测均值和不确定性来引导搜索。",
        term_es = "modelo sustituto",
        term_zh = "代理模型",
        aliases_es = { "sustituto", "modelo de superficie de respuesta", "metamodelo", "emulador" },
        aliases_zh = { "代理", "响应面模型", "元模型", "仿真模型" },
    }
    
    data["surrogate model explanation"] = {
        short = "An explanation strategy that fits an interpretable model — for example, a linear model, decision tree, or GAM — to approximate a black-box model, then explains the surrogate as a proxy for the original.",
        article = nil,
        aliases = { "surrogate explanation", "surrogate-based explanation", "model surrogate explanation" },
        es = "Estrategia de explicación que ajusta un modelo interpretable —por ejemplo, un modelo lineal, un árbol de decisión o un GAM— para aproximar un modelo caja negra, y luego explica el subrogado como representante del original.",
        zh = "一种解释策略:拟合一个可解释模型(如线性模型、决策树或 GAM)来近似黑盒模型,然后将该替代模型作为原模型的代理进行解释。",
        term_es = "explicación por modelo subrogado",
        term_zh = "替代模型解释",
        aliases_es = { "explicación basada en subrogado", "explicación con modelo subrogado" },
        aliases_zh = { "基于替代模型的解释", "代理模型解释" },
    }
    
    data["surrogate variable analysis"] = {
        short = "A statistical method that estimates hidden sources of unwanted variation (batch effects, technical noise) in high-dimensional data as surrogate variables, which are then included as covariates in downstream analyses.",
        article = nil,
        aliases = { "SVA", "sva" },
        es = "Método estadístico que estima fuentes ocultas de variación no deseada (efectos de lote, ruido técnico) en datos de alta dimensión como variables sustitutas, que luego se incluyen como covariables en análisis posteriores.",
        zh = "一种统计方法,将高维数据中未观测到的不想要的变异源(批次效应、技术噪声)估计为替代变量,并将其作为协变量纳入下游分析。",
        term_es = "análisis de variables sustitutas",
        term_zh = "替代变量分析",
        aliases_es = { "SVA", "análisis de variables surrogadas" },
        aliases_zh = { "SVA", "代理变量分析" },
    }
    
    data["survival causal inference"] = {
        short = "Causal inference for time-to-event outcomes, addressing censoring, competing risks, and time-varying treatments via tools such as marginal structural Cox models, structural nested failure time models, and TMLE for survival.",
        article = nil,
        aliases = { "causal survival analysis", "causal inference for survival data", "causal survival inference" },
        es = "Inferencia causal para resultados de tiempo hasta el evento, que aborda la censura, los riesgos competitivos y los tratamientos variables en el tiempo mediante herramientas como los modelos de Cox estructurales marginales, los modelos estructurales anidados de tiempo de fallo y el TMLE para supervivencia.",
        zh = "针对时间至事件结局的因果推断,通过边际结构 Cox 模型、结构嵌套失效时间模型以及生存数据 TMLE 等工具处理删失、竞争风险与时变处理问题。",
        term_es = "inferencia causal de supervivencia",
        term_zh = "生存数据因果推断",
        aliases_es = { "análisis causal de supervivencia", "inferencia causal para datos de supervivencia" },
        aliases_zh = { "因果生存分析", "生存因果推断", "生存数据的因果推断" },
    }
    
    data["survivorship bias"] = {
        short = "A selection bias arising from analyzing only entities that passed a filtering process while ignoring those that did not, leading to overestimation of typical outcomes. Common in datasets of successful firms, models, or product cohorts.",
        article = nil,
        aliases = { "survivor bias", "survival bias" },
        es = "Sesgo de selección que surge al analizar solo entidades que pasaron un proceso de filtrado, ignorando a las que no, lo que conduce a sobreestimar los resultados típicos. Es habitual en conjuntos de datos de empresas, modelos o cohortes de productos exitosos.",
        zh = "一种选择偏差,只分析通过某筛选过程的实体,而忽略未通过的实体,导致对典型结果的高估。常见于成功企业、模型或产品队列的数据集。",
        term_es = "sesgo de supervivencia",
        term_zh = "幸存者偏差",
        aliases_es = { "sesgo del superviviente", "sesgo del sobreviviente" },
        aliases_zh = { "存活者偏差", "幸存偏差", "生存者偏差" },
    }
    
    data["svrg"] = {
        short = "Stochastic Variance Reduced Gradient, a stochastic optimization method that periodically computes a full-batch anchor gradient and uses it to construct a low-variance estimator of the gradient at each minibatch step.",
        article = nil,
        aliases = { "SVRG", "Stochastic Variance Reduced Gradient", "stochastic variance reduction" },
        es = "Gradiente con varianza reducida estocástica (SVRG), método de optimización que calcula periódicamente un gradiente completo de referencia y lo emplea para construir un estimador de baja varianza en cada minibatch.",
        zh = "随机方差缩减梯度(SVRG),一种随机优化方法:周期性地计算完整批量的锚点梯度,并用其在每个小批量步上构造低方差的梯度估计。",
        term_es = "SVRG",
        term_zh = "SVRG",
        aliases_es = { "gradiente con varianza reducida estocástica", "Stochastic Variance Reduced Gradient" },
        aliases_zh = { "随机方差缩减梯度", "Stochastic Variance Reduced Gradient" },
    }
    
    data["swarm learning"] = {
        short = "A decentralized machine-learning paradigm that combines edge computing, blockchain-based coordination, and parameter-merging protocols so that participants jointly train a model without any central aggregator.",
        article = nil,
        aliases = { "Swarm Learning", "blockchain federated learning", "decentralized swarm learning" },
        es = "Paradigma de aprendizaje automático descentralizado que combina cómputo en el borde, coordinación basada en cadena de bloques y protocolos de fusión de parámetros para que los participantes entrenen conjuntamente un modelo sin ningún agregador central.",
        zh = "一种去中心化的机器学习范式,将边缘计算、基于区块链的协调和参数合并协议结合起来,使参与者无需任何中心聚合器即可共同训练模型。",
        term_es = "aprendizaje de enjambre",
        term_zh = "群体学习",
        aliases_es = { "Swarm Learning", "aprendizaje federado basado en blockchain" },
        aliases_zh = { "Swarm Learning", "基于区块链的联邦学习", "去中心化群体学习" },
    }
    
    data["swav"] = {
        short = "Swapping Assignments between Views: a self-supervised learning method that contrasts cluster assignments rather than features, by enforcing consistency between codes assigned to different augmented views of the same image using online clustering.",
        article = nil,
        aliases = { "SwAV", "swapping assignments between views" },
        es = "Swapping Assignments between Views: método de aprendizaje autosupervisado que contrasta asignaciones de clústeres en lugar de características, imponiendo consistencia entre los códigos asignados a distintas vistas aumentadas de la misma imagen mediante agrupamiento en línea.",
        zh = "Swapping Assignments between Views:一种自监督学习方法,通过在线聚类对同一图像不同增强视图的聚类分配施加一致性约束,从而对比聚类分配而非特征本身。",
        term_es = "SwAV",
        term_zh = "SwAV",
        aliases_es = { "SwAV" },
        aliases_zh = { "SwAV" },
    }
    
    data["swe-agent"] = {
        short = "An open-source autonomous coding agent from Princeton that pairs a language model with a custom Agent-Computer Interface to edit, run, and test code in a real repository, designed for the SWE-Bench benchmark.",
        article = nil,
        aliases = { "SWE-agent", "SWE Agent", "swe-agent" },
        es = "Agente de programación autónomo de código abierto de la Universidad de Princeton que combina un modelo de lenguaje con una interfaz Agente-Computadora personalizada para editar, ejecutar y probar código en un repositorio real, diseñado para el benchmark SWE-Bench.",
        zh = "普林斯顿大学发布的开源自主编程代理,将语言模型与定制的代理-计算机接口结合,可在真实代码仓库中编辑、运行和测试代码,专为SWE-Bench基准设计。",
        term_es = "SWE-agent",
        term_zh = "SWE-agent",
        aliases_es = { "SWE Agent", "agente SWE" },
        aliases_zh = { "SWE Agent", "SWE代理", "SWE-智能体" },
    }
    
    data["swe-bench"] = {
        short = "A benchmark of real-world GitHub issues paired with their fixing pull requests, used to evaluate language model agents on resolving software engineering tasks in actual Python repositories.",
        article = nil,
        aliases = { "SWE-Bench", "SWE Bench", "SWEbench", "swe-bench", "SWE-bench" },
        es = "Benchmark compuesto por issues reales de GitHub emparejados con los pull requests que los resuelven, utilizado para evaluar agentes basados en modelos de lenguaje en la resolución de tareas de ingeniería de software en repositorios Python reales.",
        zh = "由真实GitHub issue与其修复对应的pull request配对组成的基准,用于评估基于语言模型的代理在真实Python代码仓库中解决软件工程任务的能力。",
        term_es = "SWE-Bench",
        term_zh = "SWE-Bench",
        aliases_es = { "SWE Bench", "benchmark SWE-Bench" },
        aliases_zh = { "SWE Bench", "SWEbench" },
    }
    
    data["swe-bench verified"] = {
        short = "A 500-task subset of SWE-Bench curated by OpenAI in collaboration with the original authors, in which every instance has been human-verified to be solvable and to have unambiguous unit tests.",
        article = nil,
        aliases = { "SWE-Bench Verified", "SWE-bench Verified", "SWE Bench Verified", "swe-bench-verified" },
        es = "Subconjunto de 500 tareas de SWE-Bench curado por OpenAI en colaboración con los autores originales, en el que cada instancia ha sido verificada por humanos para garantizar que es resoluble y que sus pruebas unitarias son inequívocas.",
        zh = "OpenAI与SWE-Bench原作者合作整理的500个任务子集,每个样本都经过人工核验,确保可解且具有明确无歧义的单元测试。",
        term_es = "SWE-Bench Verified",
        term_zh = "SWE-Bench Verified",
        aliases_es = { "SWE-bench Verified", "SWE Bench Verified" },
        aliases_zh = { "SWE-bench Verified", "SWE Bench Verified" },
    }
    
    data["swin transformer"] = {
        short = "A hierarchical vision transformer introduced by Liu et al. in 2021 that computes self-attention within local non-overlapping windows and shifts the windows between layers, enabling cross-window connections with linear complexity in image size.",
        article = nil,
        aliases = { "Swin", "Swin-T", "Swin-S", "Swin-B", "Swin-L", "Swin v2", "Swin Transformer V2", "shifted window transformer" },
        es = "Vision transformer jerárquico presentado por Liu et al. en 2021 que calcula la self-attention dentro de ventanas locales no superpuestas y desplaza las ventanas entre capas, permitiendo conexiones entre ventanas con complejidad lineal respecto al tamaño de la imagen.",
        zh = "由 Liu 等人于 2021 年提出的层次化视觉 Transformer,在局部非重叠窗口内计算自注意力,并在层之间移动窗口,从而以图像尺寸的线性复杂度实现跨窗口连接。",
        term_es = "Swin Transformer",
        term_zh = "Swin Transformer",
        aliases_es = { "Swin", "Swin-T", "Swin-B", "Swin v2" },
        aliases_zh = { "Swin", "Swin-T", "Swin-B", "Swin v2", "移动窗口 Transformer" },
    }
    
    data["swipe pitch"] = {
        short = "Sawtooth Waveform Inspired Pitch Estimator, a pitch detection algorithm that estimates fundamental frequency by matching a sawtooth-like spectral template against the signal spectrum.",
        article = nil,
        aliases = { "SWIPE", "SWIPE pitch estimator", "Sawtooth Waveform Inspired Pitch Estimator" },
        es = "Sawtooth Waveform Inspired Pitch Estimator, algoritmo de detección de tono que estima la frecuencia fundamental haciendo coincidir una plantilla espectral en forma de diente de sierra con el espectro de la señal.",
        zh = "锯齿波启发式基频估计算法 (SWIPE),通过将类似锯齿波的频谱模板与信号频谱进行匹配来估计基频。",
        term_es = "SWIPE",
        term_zh = "SWIPE 基频估计",
        aliases_es = { "SWIPE", "estimador de tono SWIPE" },
        aliases_zh = { "SWIPE", "SWIPE 音高估计" },
    }
    
    data["swish"] = {
        short = "Self-gated activation defined as x · σ(βx), where β is fixed or learnable. With β = 1 it coincides with SiLU; smooth, non-monotonic, and proposed by Ramachandran et al. (2017).",
        article = nil,
        aliases = { "Swish", "swish activation", "self-gated activation" },
        es = "Activación auto-controlada definida como x · σ(βx), donde β es fijo o aprendible. Con β = 1 coincide con SiLU; suave, no monótona, propuesta por Ramachandran et al. (2017).",
        zh = "自门控激活函数,定义为 x · σ(βx),其中 β 可固定或可学习。当 β = 1 时与 SiLU 相同,平滑且非单调,由 Ramachandran 等人于 2017 年提出。",
        term_es = "Swish",
        term_zh = "Swish",
        aliases_es = { "Swish", "activación Swish" },
        aliases_zh = { "Swish", "自门控激活" },
    }
    
    data["swish discovery"] = {
        short = "The use of automated activation function search to find Swish, x·sigmoid(βx), as a high-performing replacement for ReLU. Reported by Ramachandran et al. (2017) and one of the early successes of NAS applied to non-architectural design choices.",
        article = nil,
        aliases = { "Swish discovery", "discovery of Swish", "Swish activation discovery", "automatic discovery of Swish" },
        es = "Empleo de la búsqueda automática de funciones de activación para descubrir Swish, x·sigmoide(βx), como sustituto de ReLU con buen desempeño. Reportado por Ramachandran et al. (2017), es uno de los primeros éxitos de NAS aplicado a decisiones de diseño no arquitectónicas.",
        zh = "通过自动化激活函数搜索发现 Swish(x·sigmoid(βx))作为 ReLU 的高性能替代,由 Ramachandran 等人于 2017 年提出,是 NAS 应用于非架构设计选择的早期成功案例之一。",
        term_es = "descubrimiento de Swish",
        term_zh = "Swish 发现",
        aliases_es = { "descubrimiento automático de Swish", "Swish discovery" },
        aliases_zh = { "Swish 的发现", "Swish 激活函数的发现" },
    }
    
    data["swiss-model"] = {
        short = "An automated web-based homology-modeling server that builds three-dimensional protein structure models from a target sequence and experimentally determined templates.",
        article = nil,
        aliases = { "SWISS-MODEL", "SwissModel" },
        es = "Servidor web automatizado de modelado por homología que construye modelos tridimensionales de estructura proteica a partir de una secuencia objetivo y plantillas determinadas experimentalmente.",
        zh = "一个基于网页的自动同源建模服务器,根据目标序列和已通过实验确定的模板构建三维蛋白质结构模型。",
        term_es = "SWISS-MODEL",
        term_zh = "SWISS-MODEL",
        aliases_es = { "SWISS-MODEL" },
        aliases_zh = { "SWISS-MODEL", "瑞士模型" },
    }
    
    data["swissadme"] = {
        short = "SwissADME is a free web tool from the Swiss Institute of Bioinformatics that predicts physicochemical properties, ADME parameters, drug-likeness, and medicinal-chemistry friendliness of small molecules from their structure.",
        article = nil,
        aliases = { "SwissADME" },
        es = "SwissADME es una herramienta web gratuita del Instituto Suizo de Bioinformática que predice propiedades fisicoquímicas, parámetros ADME, semejanza a fármacos y aptitud para química medicinal de moléculas pequeñas a partir de su estructura.",
        zh = "SwissADME 是瑞士生物信息学研究所提供的免费网页工具,根据小分子结构预测其理化性质、ADME 参数、药物相似性以及药物化学友好度。",
        term_es = "SwissADME",
        term_zh = "SwissADME",
        aliases_es = { "herramienta SwissADME" },
        aliases_zh = { "SwissADME 工具" },
    }
    
    data["swissprot"] = {
        short = "Swiss-Prot is the manually annotated, expert-curated section of the UniProt Knowledgebase, providing high-quality, non-redundant protein sequences with literature-supported functional and structural annotations.",
        article = nil,
        aliases = { "Swiss-Prot", "SwissProt", "UniProtKB/Swiss-Prot", "SP" },
        es = "Swiss-Prot es la sección manualmente anotada y curada por expertos de la base de conocimiento UniProt, que proporciona secuencias proteicas de alta calidad y no redundantes con anotaciones funcionales y estructurales respaldadas por la literatura.",
        zh = "Swiss-Prot 是 UniProt 知识库中由专家手工注释、人工整理的部分,提供高质量、无冗余的蛋白质序列以及有文献支持的功能与结构注释。",
        term_es = "Swiss-Prot",
        term_zh = "Swiss-Prot",
        aliases_es = { "SwissProt", "UniProtKB/Swiss-Prot" },
        aliases_zh = { "SwissProt", "UniProtKB/Swiss-Prot" },
    }
    
    data["switch routing"] = {
        short = "The top-1 routing strategy introduced in the Switch Transformer, where each input token is sent to exactly one expert in a mixture-of-experts layer, with auxiliary load-balancing and capacity factor terms to maintain hardware efficiency.",
        article = nil,
        aliases = { "switch transformer routing", "top-1 routing", "Switch routing" },
        es = "Estrategia de enrutamiento top-1 introducida por Switch Transformer, en la que cada token de entrada se envía a exactamente un experto dentro de una capa de mezcla de expertos, con términos auxiliares de balanceo de carga y factor de capacidad para mantener la eficiencia en hardware.",
        zh = "由Switch Transformer提出的top-1路由策略,在专家混合层中每个输入token仅被发送给一个专家,并通过辅助的负载均衡项和容量因子保持硬件效率。",
        term_es = "enrutamiento Switch",
        term_zh = "Switch路由",
        aliases_es = { "enrutamiento top-1", "Switch routing", "ruteo top-1" },
        aliases_zh = { "Switch路由策略", "top-1路由", "Switch Transformer路由" },
    }
    
    data["switch transformer"] = {
        short = "A sparsely-gated mixture-of-experts transformer that routes each token to exactly one expert, simplifying routing and enabling efficient scaling to trillion-parameter models.",
        article = nil,
        aliases = { "Switch Transformer", "Switch-Transformer", "switch transformers" },
        es = "Transformer con mezcla de expertos de compuerta dispersa que enruta cada token a exactamente un experto, simplificando el enrutamiento y permitiendo un escalado eficiente a modelos de billones de parámetros.",
        zh = "一种采用稀疏门控专家混合的 Transformer,将每个 token 路由到恰好一个专家,简化了路由机制并支持向万亿参数模型的高效扩展。",
        term_es = "Switch Transformer",
        term_zh = "Switch Transformer",
        aliases_es = { "transformador Switch" },
        aliases_zh = { "切换 Transformer", "Switch 变压器" },
    }
    
    data["switchable normalization"] = {
        short = "Normalization layer that learns a weighted combination of batch, layer and instance normalization statistics per channel, letting the network choose the best mix during training.",
        article = nil,
        aliases = { "SwitchNorm", "Switchable Norm", "switchable norm", "SN" },
        es = "Capa de normalización que aprende una combinación ponderada de estadísticas de normalización por lotes, por capa y por instancia para cada canal, permitiendo a la red elegir la mejor mezcla durante el entrenamiento.",
        zh = "在每个通道上学习批、层与实例三种归一化统计量的加权组合,让网络在训练中自行选择最适合的混合方式。",
        term_es = "normalización conmutable",
        term_zh = "可切换归一化",
        aliases_es = { "SwitchNorm", "normalización switchable" },
        aliases_zh = { "SwitchNorm", "可切换标准化", "可切换归一化层" },
    }
    
    data["switchboard corpus"] = {
        short = "A widely used corpus of about 2,400 conversational English telephone dialogues collected by Texas Instruments and distributed by the LDC, a long-standing benchmark for ASR and speaker recognition.",
        article = nil,
        aliases = { "Switchboard", "Switchboard-1", "SWBD", "Switchboard telephone corpus" },
        es = "Corpus muy utilizado de aproximadamente 2.400 diálogos telefónicos conversacionales en inglés recopilado por Texas Instruments y distribuido por el LDC, referencia de larga data para reconocimiento del habla y de locutor.",
        zh = "由德州仪器收集、LDC 发布的约 2400 段英语电话对话语料库,长期作为语音识别和说话人识别的基准数据集。",
        term_es = "corpus Switchboard",
        term_zh = "Switchboard 语料库",
        aliases_es = { "Switchboard", "SWBD", "corpus telefónico Switchboard" },
        aliases_zh = { "Switchboard", "SWBD", "Switchboard 电话语料库" },
    }
    
    data["sybil attack"] = {
        short = "A security attack in distributed or federated systems in which a single adversary creates many fake identities to gain disproportionate influence over voting, aggregation, or reputation mechanisms.",
        article = nil,
        aliases = { "Sybil attack", "Sybil identity attack", "identity-cloning attack" },
        es = "Ataque de seguridad en sistemas distribuidos o federados en el que un único adversario crea muchas identidades falsas para obtener una influencia desproporcionada sobre los mecanismos de votación, agregación o reputación.",
        zh = "一种针对分布式或联邦系统的安全攻击,单个攻击者创建大量伪造身份,以在投票、聚合或信誉机制中获得不成比例的影响力。",
        term_es = "ataque Sybil",
        term_zh = "女巫攻击",
        aliases_es = { "ataque de Sybil", "ataque de identidades falsas" },
        aliases_zh = { "Sybil攻击", "身份伪造攻击" },
    }
    
    data["sybil attack defense"] = {
        short = "Mechanisms that limit the impact of Sybil attacks in federated learning, including identity verification, resource-bound proofs, contribution-based reputation, similarity filtering, and Byzantine-robust aggregation rules.",
        article = nil,
        aliases = { "Sybil defense", "Sybil-resistant aggregation", "FoolsGold", "Sybil attack mitigation" },
        es = "Mecanismos que limitan el impacto de los ataques Sybil en el aprendizaje federado, incluyendo verificación de identidad, pruebas con coste de recursos, reputación basada en contribuciones, filtrado por similitud y reglas de agregación robustas a comportamientos bizantinos.",
        zh = "用于限制女巫攻击在联邦学习中影响的机制,包括身份验证、资源消耗证明、基于贡献的信誉、相似度过滤以及拜占庭鲁棒聚合规则。",
        term_es = "defensa contra ataques Sybil",
        term_zh = "女巫攻击防御",
        aliases_es = { "mitigación de Sybil", "agregación resistente a Sybil", "FoolsGold" },
        aliases_zh = { "Sybil防御", "抗女巫聚合", "FoolsGold" },
    }
    
    data["sycophancy"] = {
        short = "The tendency of a language model to agree with or flatter the user's stated views even when those views are incorrect, often arising from preference-based training that rewards user-pleasing responses.",
        article = nil,
        aliases = { "sycophantic behavior", "sycophantic responses", "model sycophancy", "sycophancy bias" },
        es = "Tendencia de un modelo de lenguaje a estar de acuerdo o adular las opiniones del usuario incluso cuando son incorrectas, a menudo originada por el entrenamiento basado en preferencias que premia respuestas complacientes.",
        zh = "语言模型对用户所述观点的迎合或奉承倾向,即使该观点错误也是如此,通常源于基于偏好的训练对取悦用户的回答给予奖励。",
        term_es = "adulación",
        term_zh = "谄媚",
        aliases_es = { "sycophancy", "comportamiento adulador", "complacencia del modelo" },
        aliases_zh = { "sycophancy", "阿谀倾向", "迎合用户", "讨好行为" },
    }
    
    data["sylvester flow"] = {
        short = "A normalizing flow that generalizes planar flows by parameterizing the transformation through a Sylvester determinant identity, allowing higher-dimensional bottlenecks while keeping the Jacobian determinant tractable.",
        article = nil,
        aliases = { "Sylvester flow", "Sylvester normalizing flow", "Sylvester normalising flow" },
        es = "Flujo normalizante que generaliza los flujos planares parametrizando la transformación mediante la identidad del determinante de Sylvester, lo que permite cuellos de botella de mayor dimensión manteniendo el determinante del Jacobiano tratable.",
        zh = "一种规范化流,通过 Sylvester 行列式恒等式参数化变换来推广平面流,允许更高维的瓶颈结构同时保持 Jacobian 行列式可计算。",
        term_es = "flujo de Sylvester",
        term_zh = "Sylvester 流",
        aliases_es = { "flujo normalizante de Sylvester", "Sylvester flow" },
        aliases_zh = { "Sylvester 规范化流", "Sylvester normalizing flow" },
    }
    
    data["symbolic ai"] = {
        short = "An approach to artificial intelligence based on the explicit manipulation of symbols according to formal rules, encompassing logic-based systems, knowledge bases, and search algorithms.",
        article = nil,
        aliases = { "Symbolic AI", "GOFAI", "good old-fashioned AI", "good old fashioned artificial intelligence", "classical AI", "symbolic artificial intelligence" },
        es = "Enfoque de la inteligencia artificial basado en la manipulación explícita de símbolos según reglas formales, que abarca sistemas basados en lógica, bases de conocimiento y algoritmos de búsqueda.",
        zh = "基于按形式规则显式操作符号的人工智能方法,涵盖基于逻辑的系统、知识库和搜索算法。",
        term_es = "IA simbólica",
        term_zh = "符号人工智能",
        aliases_es = { "inteligencia artificial simbólica", "GOFAI", "IA clásica" },
        aliases_zh = { "符号 AI", "符号主义人工智能", "经典人工智能", "GOFAI" },
    }
    
    data["symbolic music"] = {
        short = "A representation of music as discrete symbols such as MIDI notes, piano-roll matrices, or score-level tokens, contrasting with raw audio waveforms or spectrograms.",
        article = nil,
        aliases = { "symbolic music representation", "symbolic music data" },
        es = "Representación de música como símbolos discretos tales como notas MIDI, matrices de piano-roll o tokens a nivel de partitura, en contraste con formas de onda de audio crudo o espectrogramas.",
        zh = "将音乐表示为离散符号(如 MIDI 音符、钢琴卷帘矩阵或乐谱级 token)的形式,与原始音频波形或频谱图相对。",
        term_es = "música simbólica",
        term_zh = "符号化音乐",
        aliases_es = { "representación simbólica de música", "datos simbólicos de música" },
        aliases_zh = { "符号音乐", "符号化音乐表示" },
    }
    
    data["symbolic reasoning"] = {
        short = "Inference performed by manipulating discrete symbols according to explicit logical or formal rules, in contrast to statistical or sub-symbolic methods.",
        article = nil,
        aliases = { "logical reasoning", "rule-based reasoning", "symbolic inference" },
        es = "Inferencia realizada mediante la manipulación de símbolos discretos según reglas lógicas o formales explícitas, en contraste con los métodos estadísticos o subsimbólicos.",
        zh = "通过依据显式的逻辑或形式规则操作离散符号来进行推理,与统计或亚符号方法相对。",
        term_es = "razonamiento simbólico",
        term_zh = "符号推理",
        aliases_es = { "razonamiento simbólico", "razonamiento basado en reglas", "inferencia simbólica", "razonamiento lógico" },
        aliases_zh = { "符号推理", "基于规则的推理", "符号推断", "符号化推理" },
    }
    
    data["symbolic regression"] = {
        short = "A regression technique that searches the space of mathematical expressions—typically via genetic programming or neural search—to find a closed-form formula that fits observed data.",
        article = nil,
        aliases = { "Symbolic Regression", "equation discovery", "formula discovery" },
        es = "Técnica de regresión que busca en el espacio de expresiones matemáticas —normalmente mediante programación genética o búsqueda neuronal— para encontrar una fórmula en forma cerrada que se ajuste a los datos observados.",
        zh = "一种回归技术,通过遗传编程或神经搜索在数学表达式空间中寻找能拟合观测数据的封闭形式公式。",
        term_es = "regresión simbólica",
        term_zh = "符号回归",
        aliases_es = { "regresión simbólica", "descubrimiento de ecuaciones", "descubrimiento de fórmulas" },
        aliases_zh = { "符号回归", "方程发现", "公式发现" },
    }
    
    data["symmetric matrix"] = {
        short = "A square matrix A equal to its own transpose, A = Aᵀ. Has real eigenvalues and an orthonormal basis of eigenvectors (spectral theorem); central to optimization and covariance analysis.",
        article = nil,
        aliases = { "symmetric matrices", "self-transpose matrix", "A = A^T" },
        es = "Matriz cuadrada A igual a su propia transpuesta, A = Aᵀ. Tiene valores propios reales y una base ortonormal de vectores propios (teorema espectral); es central en optimización y análisis de covarianzas.",
        zh = "等于自身转置的方阵 A,即 A = Aᵀ。其特征值为实数且具有由特征向量构成的正交归一基(谱定理);在优化和协方差分析中至关重要。",
        term_es = "matriz simétrica",
        term_zh = "对称矩阵",
        aliases_es = { "matrices simétricas" },
        aliases_zh = { "对称方阵", "对称阵" },
    }
    
    data["sync parameter server"] = {
        short = "A parameter-server architecture in which all workers compute gradients on a fixed global parameter version and the server applies their averaged update only after every worker has reported, providing BSP-style consistency.",
        article = nil,
        aliases = { "synchronous parameter server", "sync PS", "BSP parameter server" },
        es = "Arquitectura de servidor de parámetros en la que todos los trabajadores calculan gradientes sobre una versión global fija de los parámetros y el servidor aplica su actualización promediada solo después de que cada trabajador haya respondido, ofreciendo una consistencia al estilo BSP.",
        zh = "一种参数服务器架构,所有工作节点基于固定的全局参数版本计算梯度,服务器仅在每个工作节点都汇报之后才应用其平均更新,从而提供BSP风格的一致性。",
        term_es = "servidor de parámetros síncrono",
        term_zh = "同步参数服务器",
        aliases_es = { "PS síncrono", "servidor de parámetros BSP" },
        aliases_zh = { "同步PS", "BSP参数服务器" },
    }
    
    data["syne tune"] = {
        short = "An open-source Python library from AWS for distributed hyperparameter optimization and neural architecture search. It provides asynchronous schedulers (random search, BO, Hyperband, ASHA, BOHB, PBT) and a unified backend for local, SageMaker, and simulated execution.",
        article = nil,
        aliases = { "Syne Tune", "syne-tune", "SyneTune" },
        es = "Biblioteca de Python de código abierto desarrollada por AWS para optimización distribuida de hiperparámetros y búsqueda de arquitecturas neuronales. Proporciona planificadores asíncronos (búsqueda aleatoria, BO, Hyperband, ASHA, BOHB, PBT) y un backend unificado para ejecución local, en SageMaker o simulada.",
        zh = "AWS 开源的 Python 库,用于分布式超参数优化与神经架构搜索;提供随机搜索、BO、Hyperband、ASHA、BOHB、PBT 等异步调度器,并支持本地、SageMaker 与模拟执行的统一后端。",
        term_es = "Syne Tune",
        term_zh = "Syne Tune",
        aliases_es = { "syne-tune", "SyneTune" },
        aliases_zh = { "syne-tune", "SyneTune" },
    }
    
    data["synflow"] = {
        short = "Synaptic Flow. A data-free, gradient-based pruning score that measures each weight's contribution to the product of layer-wise positive norms, applied iteratively at initialization to prune dense networks while preserving signal flow.",
        article = nil,
        aliases = { "SynFlow", "Synaptic Flow", "synaptic flow score", "Synaptic Saliency" },
        es = "Synaptic Flow. Puntuación de poda basada en gradientes y libre de datos que mide la contribución de cada peso al producto de las normas positivas por capa; se aplica iterativamente en la inicialización para podar redes densas preservando el flujo de señal.",
        zh = "SynFlow(突触流),一种无需数据的基于梯度的剪枝评分,用于衡量每个权重对各层正范数乘积的贡献;在初始化阶段迭代应用以剪枝稠密网络,同时保持信号流。",
        term_es = "SynFlow",
        term_zh = "SynFlow",
        aliases_es = { "Synaptic Flow", "puntuación de flujo sináptico", "saliencia sináptica" },
        aliases_zh = { "Synaptic Flow", "突触流", "突触显著性" },
    }
    
    data["synonymous mutation"] = {
        short = "A nucleotide substitution in a protein-coding region that does not change the encoded amino acid due to redundancy of the genetic code; often, but not always, phenotypically silent.",
        article = nil,
        aliases = { "silent mutation", "synonymous substitution", "synonymous variant", "synonymous SNV" },
        es = "Sustitución nucleotídica en una región codificante que no cambia el aminoácido codificado debido a la redundancia del código genético; a menudo, aunque no siempre, fenotípicamente silenciosa.",
        zh = "蛋白质编码区中由于遗传密码冗余而不改变所编码氨基酸的核苷酸替换;通常(但并非总是)在表型上是沉默的。",
        term_es = "mutación sinónima",
        term_zh = "同义突变",
        aliases_es = { "mutación silenciosa", "sustitución sinónima", "variante sinónima" },
        aliases_zh = { "沉默突变", "同义替换", "同义变异" },
    }
    
    data["syntactic probe"] = {
        short = "A diagnostic classifier trained on top of frozen contextual representations to predict syntactic properties — such as part-of-speech tags or dependency labels — and so test what syntax the representations encode.",
        article = nil,
        aliases = { "syntax probe", "syntactic probing classifier" },
        es = "Clasificador diagnóstico entrenado sobre representaciones contextuales congeladas para predecir propiedades sintácticas —como etiquetas POS o relaciones de dependencia— y así verificar qué sintaxis codifican las representaciones.",
        zh = "在冻结的上下文表示之上训练的诊断分类器,用于预测词性标注或依存关系等句法属性,以检验表示中编码了哪些句法信息。",
        term_es = "sonda sintáctica",
        term_zh = "句法探针",
        aliases_es = { "probe sintáctico", "clasificador de prueba sintáctico" },
        aliases_zh = { "syntactic probe", "句法探测器" },
    }
    
    data["syntheseus"] = {
        short = "Syntheseus is an open-source benchmarking framework from Microsoft Research that provides standardized interfaces and evaluation protocols for retrosynthesis algorithms and computer-aided synthesis planning.",
        article = nil,
        aliases = { "Syntheseus" },
        es = "Syntheseus es un marco de evaluación de código abierto de Microsoft Research que proporciona interfaces estandarizadas y protocolos de evaluación para algoritmos de retrosíntesis y planificación de síntesis asistida por computadora.",
        zh = "Syntheseus 是 Microsoft Research 推出的开源基准测试框架,为逆合成算法和计算机辅助合成路线规划提供标准化接口和评估协议。",
        term_es = "Syntheseus",
        term_zh = "Syntheseus",
        aliases_es = { "marco Syntheseus" },
        aliases_zh = { "Syntheseus 框架" },
    }
    
    data["synthetic accessibility score"] = {
        short = "A heuristic score (typically on a 1-10 scale) that estimates how easy a molecule is to synthesize, computed from contributions of molecular fragments and complexity penalties; the standard formulation is Ertl & Schuffenhauer (2009).",
        article = nil,
        aliases = { "SAS", "SAscore", "SA score", "synthetic accessibility", "Ertl SA score" },
        es = "Puntaje heurístico (típicamente en una escala de 1 a 10) que estima la facilidad de síntesis de una molécula, calculado a partir de contribuciones de fragmentos moleculares y penalizaciones por complejidad; la formulación estándar es la de Ertl y Schuffenhauer (2009).",
        zh = "一种启发式评分(通常采用 1-10 量表),通过分子片段贡献与复杂度惩罚估计分子合成的难易程度;标准定义来自 Ertl 与 Schuffenhauer(2009)。",
        term_es = "puntaje de accesibilidad sintética",
        term_zh = "合成可及性评分",
        aliases_es = { "SAS", "SA score", "puntuación SA", "accesibilidad sintética", "puntaje Ertl SA" },
        aliases_zh = { "SAS", "SA 分数", "SAscore", "合成可达性评分", "合成可及性分数" },
    }
    
    data["synthetic control method"] = {
        short = "A causal inference technique that estimates the effect of a treatment on a single aggregate unit by constructing a weighted combination of untreated units that best reproduces the treated unit's pre-treatment outcomes. Widely used in comparative case studies in economics and policy.",
        article = nil,
        aliases = { "SCM", "synthetic control", "synthetic controls", "Abadie synthetic control" },
        es = "Técnica de inferencia causal que estima el efecto de un tratamiento sobre una unidad agregada construyendo una combinación ponderada de unidades no tratadas que reproduce los resultados pretratamiento de la unidad tratada. Se utiliza ampliamente en estudios comparativos de caso en economía y políticas públicas.",
        zh = "一种因果推断方法,通过构造未处理单元的加权组合以再现处理单元在干预前的结果,从而估计单一聚合单元上的处理效应。广泛用于经济学和政策研究中的比较案例研究。",
        term_es = "método de control sintético",
        term_zh = "合成控制法",
        aliases_es = { "control sintético", "controles sintéticos", "método de Abadie" },
        aliases_zh = { "合成控制方法", "合成对照法", "Abadie 合成控制" },
    }
    
    data["synthetic difference-in-differences"] = {
        short = "An estimator that combines synthetic control weighting with a difference-in-differences design, applying unit and time weights so that pre-treatment trends of the synthetic comparison match the treated unit. It relaxes the parallel-trends assumption of standard DiD.",
        article = nil,
        aliases = { "SDID", "SDiD", "synthetic DID", "synthetic diff-in-diff", "Arkhangelsky synthetic DiD" },
        es = "Estimador que combina la ponderación del control sintético con un diseño de diferencias en diferencias, aplicando pesos de unidad y de tiempo para que las tendencias pretratamiento del comparador sintético igualen las de la unidad tratada. Relaja el supuesto de tendencias paralelas del DiD estándar.",
        zh = "将合成控制加权与双重差分设计相结合的估计量,通过对单元和时间施加权重,使合成对照在干预前的趋势与处理单元一致。它放松了标准双重差分中的平行趋势假设。",
        term_es = "diferencias en diferencias sintéticas",
        term_zh = "合成双重差分",
        aliases_es = { "SDID", "DiD sintético", "diferencias en diferencias sintético" },
        aliases_zh = { "SDID", "合成 DID", "合成差分中的差分" },
    }
    
    data["system heterogeneity"] = {
        short = "In federated learning, the variability in clients' compute, memory, energy, and network capabilities, which causes differences in training speed, achievable model size, and reliability across devices.",
        article = nil,
        aliases = { "device heterogeneity", "hardware heterogeneity", "systems heterogeneity" },
        es = "En aprendizaje federado, la variabilidad en las capacidades de cómputo, memoria, energía y red de los clientes, que ocasiona diferencias en la velocidad de entrenamiento, el tamaño máximo del modelo alcanzable y la fiabilidad entre dispositivos.",
        zh = "在联邦学习中,各客户端在计算、内存、能耗和网络能力上的差异,会导致训练速度、可承受的模型规模以及可靠性在不同设备间存在差距。",
        term_es = "heterogeneidad de sistemas",
        term_zh = "系统异质性",
        aliases_es = { "heterogeneidad de dispositivos", "heterogeneidad de hardware" },
        aliases_zh = { "设备异质性", "硬件异质性" },
    }
    
    data["system prompt"] = {
        short = "An initial instruction supplied to a chat-style language model that defines its role, persona, constraints, and high-level behavior. Distinct from user and assistant turns and typically not directly visible to end users.",
        article = nil,
        aliases = { "system message", "system instruction", "System Prompt", "system-prompt" },
        es = "Instrucción inicial que se proporciona a un modelo de lenguaje de tipo chat para definir su rol, personalidad, restricciones y comportamiento general. Se distingue de los turnos de usuario y asistente y normalmente no es visible para el usuario final.",
        zh = "提供给对话式语言模型的初始指令,用于设定其角色、人格、约束和总体行为,与用户消息和助手消息不同,通常对最终用户不可见。",
        term_es = "prompt del sistema",
        term_zh = "系统提示",
        aliases_es = { "mensaje del sistema", "instrucción del sistema", "system prompt" },
        aliases_zh = { "系统消息", "系统指令", "system prompt" },
    }
    
    data["systematic generalization"] = {
        short = "The ability of a learning system to generalize compositionally to novel combinations of known primitives, such as words or operators, that were unseen during training.",
        article = nil,
        aliases = { "compositional generalization", "systematicity", "systematic generalisation", "compositional generalisation" },
        es = "Capacidad de un sistema de aprendizaje para generalizar de manera composicional a combinaciones nuevas de primitivas conocidas —como palabras u operadores— no vistas durante el entrenamiento.",
        zh = "学习系统对训练中未见过的已知原语(如词或算子)的新组合进行组合式泛化的能力。",
        term_es = "generalización sistemática",
        term_zh = "系统性泛化",
        aliases_es = { "generalización composicional", "sistematicidad", "generalización compositiva" },
        aliases_zh = { "组合泛化", "系统化泛化", "系统性泛化能力" },
    }
    
    data["t-cell epitope"] = {
        short = "A short peptide derived from antigen processing that is presented on MHC molecules and recognized by the T-cell receptor, triggering an adaptive immune response.",
        article = nil,
        aliases = { "T cell epitope", "TCR epitope", "MHC-binding peptide", "T-cell antigen epitope" },
        es = "Péptido corto derivado del procesamiento de antígenos que se presenta en moléculas de MHC y es reconocido por el receptor de células T, desencadenando una respuesta inmunitaria adaptativa.",
        zh = "由抗原加工产生的短肽,呈递于 MHC 分子上并被 T 细胞受体识别,从而触发适应性免疫反应。",
        term_es = "epítopo de célula T",
        term_zh = "T 细胞表位",
        aliases_es = { "epítopo de linfocito T", "epítopo TCR", "péptido unido a MHC" },
        aliases_zh = { "T 细胞抗原表位", "TCR 表位", "MHC 结合肽" },
    }
    
    data["t-conorm"] = {
        short = "A binary operator on the unit interval that generalizes logical disjunction in fuzzy logic; it is commutative, associative, monotonic, and has 0 as identity, dual to a t-norm.",
        article = nil,
        aliases = { "T-conorm", "t-conorm", "s-norm", "S-norm", "triangular conorm" },
        es = "Operador binario sobre el intervalo unitario que generaliza la disyunción lógica en lógica difusa; es conmutativo, asociativo, monótono y tiene al 0 como identidad, dual de una t-norma.",
        zh = "单位区间上的二元算子,在模糊逻辑中推广逻辑析取;它满足交换律、结合律、单调性,并以 0 为单位元,是 t-范数的对偶。",
        term_es = "t-conorma",
        term_zh = "t-余范数",
        aliases_es = { "t-conorma", "S-norma", "conorma triangular" },
        aliases_zh = { "T-余范数", "S-范数", "三角余范数", "t-协范数" },
    }
    
    data["t-learner"] = {
        short = "A meta-learner for heterogeneous treatment effect estimation that fits two separate outcome regressions, one on the treated and one on the control group, and takes their difference as the conditional average treatment effect. Simple but can suffer when groups differ in size or covariate support.",
        article = nil,
        aliases = { "T-learner", "two-learner", "two-model approach", "two-model meta-learner" },
        es = "Metamodelo para la estimación de efectos de tratamiento heterogéneos que ajusta dos regresiones de resultado separadas, una en el grupo tratado y otra en el de control, y toma su diferencia como el efecto condicional promedio del tratamiento. Es sencillo pero puede fallar cuando los grupos difieren en tamaño o soporte de covariables.",
        zh = "用于估计异质处理效应的元学习器,分别在处理组和对照组上拟合两个结果回归模型,并以二者之差作为条件平均处理效应。方法简单,但当两组样本量或协变量支撑差异较大时可能表现不佳。",
        term_es = "T-learner",
        term_zh = "T-learner",
        aliases_es = { "metamodelo de dos modelos", "enfoque de dos modelos" },
        aliases_zh = { "T 学习器", "双模型元学习器", "双模型方法" },
    }
    
    data["t-norm"] = {
        short = "A binary operator on the unit interval that generalizes logical conjunction in fuzzy logic; it is commutative, associative, monotonic, and has 1 as identity.",
        article = nil,
        aliases = { "T-norm", "t-norm", "triangular norm" },
        es = "Operador binario sobre el intervalo unitario que generaliza la conjunción lógica en lógica difusa; es conmutativo, asociativo, monótono y tiene al 1 como identidad.",
        zh = "单位区间上的二元算子,在模糊逻辑中推广逻辑合取;它满足交换律、结合律、单调性,并以 1 为单位元。",
        term_es = "t-norma",
        term_zh = "t-范数",
        aliases_es = { "t-norma", "norma triangular" },
        aliases_zh = { "T-范数", "三角范数", "t-模" },
    }
    
    data["t2i alignment"] = {
        short = "The degree to which a generated image faithfully reflects the content, attributes, counts, and relationships specified in its text prompt. Measured by automatic metrics like CLIPScore, ImageReward, or VQA-based evaluations, and by human preference studies.",
        article = nil,
        aliases = { "text-to-image alignment", "T2I alignment", "image-text alignment", "prompt-image alignment", "prompt alignment" },
        es = "Grado en que una imagen generada refleja fielmente el contenido, atributos, cantidades y relaciones especificados en el texto de entrada. Se mide con métricas automáticas como CLIPScore, ImageReward o evaluaciones basadas en VQA, así como mediante estudios de preferencia humana.",
        zh = "生成图像在内容、属性、数量和关系上对文本提示的忠实程度。常通过 CLIPScore、ImageReward 或基于 VQA 的自动指标,以及人类偏好研究来衡量。",
        term_es = "alineamiento texto-imagen",
        term_zh = "文本-图像对齐",
        aliases_es = { "alineamiento T2I", "alineamiento texto-a-imagen", "alineamiento entre prompt e imagen" },
        aliases_zh = { "T2I 对齐", "文生图对齐", "提示词-图像对齐" },
    }
    
    data["t2i-adapter"] = {
        short = "A lightweight conditioning module for text-to-image diffusion models that injects external control signals such as sketches, depth maps, or segmentation into a frozen base model with a small trainable adapter.",
        article = nil,
        aliases = { "T2I-Adapter", "T2I Adapter", "Text-to-Image Adapter", "t2i adapter" },
        es = "Módulo ligero de condicionamiento para modelos de difusión texto-a-imagen que introduce señales de control externas como bocetos, mapas de profundidad o segmentación en un modelo base congelado mediante un pequeño adaptador entrenable.",
        zh = "面向文本到图像扩散模型的轻量级条件控制模块,通过一个小型可训练适配器,将草图、深度图或分割图等外部控制信号注入冻结的基础模型。",
        term_es = "T2I-Adapter",
        term_zh = "T2I-Adapter",
        aliases_es = { "T2I Adapter", "adaptador T2I" },
        aliases_zh = { "T2I Adapter", "文本到图像适配器" },
    }
    
    data["t2i-compbench"] = {
        short = "A benchmark for compositional text-to-image generation that evaluates how well models render attribute binding, object relationships, and complex compositions through specialized prompts and automatic VQA-based metrics.",
        article = nil,
        aliases = { "T2I-CompBench", "T2I CompBench", "T2I-CompBench++", "T2I compositional benchmark" },
        es = "Punto de referencia para generación composicional de imágenes a partir de texto que evalúa cómo los modelos representan la asociación de atributos, las relaciones entre objetos y composiciones complejas mediante instrucciones especializadas y métricas automáticas basadas en VQA.",
        zh = "一种用于组合式文本到图像生成的基准,使用专门设计的提示和基于 VQA 的自动指标,评估模型在属性绑定、对象关系和复杂构图上的表现。",
        term_es = "T2I-CompBench",
        term_zh = "T2I-CompBench",
        aliases_es = { "T2I-CompBench++", "benchmark composicional T2I" },
        aliases_zh = { "T2I-CompBench++", "文生图组合基准" },
    }
    
    data["t5"] = {
        short = "An encoder-decoder transformer that frames every NLP task as text-to-text, pretrained with a span-corruption objective on the C4 corpus and fine-tuned uniformly across diverse benchmarks.",
        article = nil,
        aliases = { "T5", "Text-to-Text Transfer Transformer", "text-to-text transfer transformer" },
        es = "Transformer codificador-decodificador que plantea toda tarea de PLN como texto a texto, preentrenado con un objetivo de corrupción de tramos sobre el corpus C4 y ajustado uniformemente en diversos benchmarks.",
        zh = "一种编码器-解码器 Transformer,将所有自然语言处理任务统一为文本到文本,在 C4 语料上以片段损坏目标预训练,并在多种基准上以一致方式微调。",
        term_es = "T5",
        term_zh = "T5",
        aliases_es = { "T5", "transformer de transferencia texto a texto" },
        aliases_zh = { "T5", "文本到文本迁移 Transformer" },
    }
    
    data["t5 relative position"] = {
        short = "The relative position bias used in T5, which adds a learned scalar to each attention score keyed by a bucketed log-scaled distance between query and key, shared across layers within a head.",
        article = nil,
        aliases = { "T5 relative position bias", "T5 relative position embedding", "T5 position bias", "T5 relative bias" },
        es = "Sesgo de posición relativa empleado en T5, que añade a cada puntuación de atención un escalar aprendido indexado por una distancia entre consulta y clave en escala logarítmica con cubetas, compartido entre capas dentro de una misma cabeza.",
        zh = "T5 中使用的相对位置偏置,将基于查询与键之间分桶对数距离索引的可学习标量加到每个注意力分数上,并在同一注意力头的各层间共享。",
        term_es = "sesgo de posición relativa de T5",
        term_zh = "T5 相对位置偏置",
        aliases_es = { "embedding de posición relativa de T5", "sesgo posicional T5" },
        aliases_zh = { "T5 相对位置嵌入", "T5 位置偏置" },
    }
    
    data["tableau algorithm"] = {
        short = "A decision procedure for description and modal logics that incrementally builds a tree of completion rules to test concept satisfiability or formula validity.",
        article = nil,
        aliases = { "tableaux algorithm", "analytic tableau", "semantic tableau", "tableau method", "tableaux method" },
        es = "Procedimiento de decisión para lógicas descriptivas y modales que construye incrementalmente un árbol de reglas de completitud para comprobar la satisfacibilidad de un concepto o la validez de una fórmula.",
        zh = "用于描述逻辑和模态逻辑的判定过程,通过逐步构建带完备规则的树来检验概念可满足性或公式有效性。",
        term_es = "algoritmo de tableau",
        term_zh = "表算法",
        aliases_es = { "algoritmo de tableau", "método de tableau", "tableau semántico", "tableau analítico" },
        aliases_zh = { "表算法", "表演算", "语义表方法", "解析表方法" },
    }
    
    data["tabular attribution"] = {
        short = "Feature attribution applied to models trained on tabular data, where each feature is a column with explicit semantics and attributions are reported per column rather than per pixel or token.",
        article = nil,
        aliases = { "tabular feature attribution", "attribution for tabular data" },
        es = "Atribución de características aplicada a modelos entrenados con datos tabulares, donde cada característica es una columna con semántica explícita y las atribuciones se reportan por columna en lugar de por píxel o token.",
        zh = "针对在表格数据上训练的模型进行的特征归因,其中每个特征对应一列具有明确语义的数据,归因结果按列报告,而非按像素或词元。",
        term_es = "atribución tabular",
        term_zh = "表格数据归因",
        aliases_es = { "atribución de características tabulares", "atribución para datos tabulares" },
        aliases_zh = { "表格特征归因", "表格归因" },
    }
    
    data["tabular lime"] = {
        short = "An application of LIME to tabular models in which features are perturbed by sampling around a discretized representation of the row and a sparse linear surrogate is fit to explain the prediction locally.",
        article = nil,
        aliases = { "Tabular LIME", "LIME for tabular data", "tabular-lime" },
        es = "Aplicación de LIME a modelos tabulares en la que las características se perturban muestreando alrededor de una representación discretizada de la fila y se ajusta un subrogado lineal disperso para explicar la predicción localmente.",
        zh = "将 LIME 应用于表格模型:在该行的离散化表示附近对特征进行扰动采样,并拟合稀疏线性替代模型以局部解释预测。",
        term_es = "LIME tabular",
        term_zh = "表格 LIME",
        aliases_es = { "Tabular LIME", "LIME para datos tabulares" },
        aliases_zh = { "tabular LIME", "表格数据 LIME" },
    }
    
    data["tabular shap"] = {
        short = "An application of SHAP to tabular models, typically using TreeSHAP for tree ensembles or KernelSHAP for arbitrary models, producing per-column Shapley-value attributions for each prediction.",
        article = nil,
        aliases = { "Tabular SHAP", "SHAP for tabular data" },
        es = "Aplicación de SHAP a modelos tabulares, típicamente usando TreeSHAP para ensambles de árboles o KernelSHAP para modelos arbitrarios, produciendo atribuciones por columna basadas en valores de Shapley para cada predicción.",
        zh = "将 SHAP 应用于表格模型:通常对树集成使用 TreeSHAP,对任意模型使用 KernelSHAP,为每个预测给出基于 Shapley 值的逐列归因。",
        term_es = "SHAP tabular",
        term_zh = "表格 SHAP",
        aliases_es = { "Tabular SHAP", "SHAP para datos tabulares" },
        aliases_zh = { "tabular SHAP", "表格数据 SHAP" },
    }
    
    data["tacotron"] = {
        short = "An end-to-end neural text-to-speech model from Google that maps character sequences to mel spectrograms via an encoder–attention–decoder architecture, paired with a Griffin-Lim or neural vocoder for waveform synthesis.",
        article = nil,
        aliases = { "Tacotron", "Tacotron 1" },
        es = "Modelo neuronal de texto a voz de extremo a extremo de Google que mapea secuencias de caracteres a espectrogramas mel mediante una arquitectura codificador-atención-decodificador, combinado con un vocoder Griffin-Lim o neuronal para sintetizar la forma de onda.",
        zh = "Google 提出的端到端神经文本转语音模型,通过编码器-注意力-解码器结构将字符序列映射为梅尔频谱图,并配合 Griffin-Lim 或神经声码器合成波形。",
        term_es = "Tacotron",
        term_zh = "Tacotron",
        aliases_es = { "Tacotron", "Tacotron 1" },
        aliases_zh = { "Tacotron", "Tacotron 1" },
    }
    
    data["tacotron 2"] = {
        short = "A successor to Tacotron that combines a recurrent sequence-to-sequence mel-spectrogram predictor with a WaveNet vocoder, producing near-human-quality speech from text.",
        article = nil,
        aliases = { "Tacotron 2", "Tacotron2", "Tacotron-2" },
        es = "Sucesor de Tacotron que combina un predictor de espectrogramas mel secuencia a secuencia recurrente con un vocoder WaveNet, produciendo habla de calidad cercana a la humana a partir de texto.",
        zh = "Tacotron 的后继模型,将循环序列到序列的梅尔频谱预测器与 WaveNet 声码器相结合,从文本生成接近人类水平的语音。",
        term_es = "Tacotron 2",
        term_zh = "Tacotron 2",
        aliases_es = { "Tacotron 2", "Tacotron2" },
        aliases_zh = { "Tacotron 2", "Tacotron2" },
    }
    
    data["tactic prediction"] = {
        short = "The task in machine-learning–assisted theorem proving of predicting the next proof tactic to apply given the current proof state in an interactive proof assistant.",
        article = nil,
        aliases = { "proof tactic prediction", "next-tactic prediction", "next tactic prediction" },
        es = "Tarea en la demostración automática asistida por aprendizaje automático que consiste en predecir la siguiente táctica de demostración a aplicar dado el estado actual en un asistente de pruebas interactivo.",
        zh = "机器学习辅助定理证明中的任务:在交互式证明助手中,根据当前证明状态预测下一步要应用的证明策略(tactic)。",
        term_es = "predicción de tácticas",
        term_zh = "策略预测",
        aliases_es = { "predicción de tácticas de demostración", "predicción de la siguiente táctica" },
        aliases_zh = { "证明策略预测", "下一步策略预测", "tactic 预测" },
    }
    
    data["tactician proof"] = {
        short = "A proof produced or guided by Tactician, a machine-learning–based tactic-prediction system for the Coq proof assistant that suggests the next tactic from a corpus of human proofs.",
        article = nil,
        aliases = { "Tactician", "Coq Tactician", "Tactician proof" },
        es = "Demostración producida o guiada por Tactician, un sistema basado en aprendizaje automático para la predicción de tácticas en el asistente de pruebas Coq que sugiere la siguiente táctica a partir de un corpus de demostraciones humanas.",
        zh = "由 Tactician 生成或辅助的证明;Tactician 是一种基于机器学习的 Coq 证明助手策略预测系统,能从人类证明语料中建议下一步策略。",
        term_es = "demostración Tactician",
        term_zh = "Tactician 证明",
        aliases_es = { "Tactician", "demostración con Tactician", "Coq Tactician" },
        aliases_zh = { "Tactician", "Tactician 系统", "Coq Tactician" },
    }
    
    data["tad calling"] = {
        short = "Computational identification of topologically associating domains — contiguous chromosomal regions of preferential intra-domain contact — from Hi-C or similar 3D genome contact data.",
        article = nil,
        aliases = { "TAD calling", "topologically associating domain calling", "TAD detection", "TAD identification" },
        es = "Identificación computacional de dominios topológicamente asociados —regiones cromosómicas contiguas con contactos intradominio preferenciales— a partir de datos Hi-C o de contacto genómico 3D similares.",
        zh = "从 Hi-C 或类似三维基因组接触数据中以计算方法识别拓扑关联结构域,即倾向于内部接触的连续染色体区域。",
        term_es = "detección de TADs",
        term_zh = "TAD 识别",
        aliases_es = { "llamada de TAD", "identificación de dominios topológicamente asociados" },
        aliases_zh = { "TAD 检出", "拓扑关联结构域识别" },
    }
    
    data["tagme"] = {
        short = "An entity-linking system that annotates short, fragmentary texts with relevant Wikipedia entities by jointly disambiguating mentions through collective coherence scoring.",
        article = nil,
        aliases = { "TAGME", "TagMe", "Tagme entity linker" },
        es = "Sistema de enlazado de entidades que anota textos cortos y fragmentarios con entidades relevantes de Wikipedia, desambiguando las menciones de forma conjunta mediante una puntuación de coherencia colectiva.",
        zh = "一种实体链接系统,通过基于集体一致性评分联合消歧提及,将短小、零散的文本标注为相关的维基百科实体。",
        term_es = "TagMe",
        term_zh = "TagMe",
        aliases_es = { "TAGME", "TagMe" },
        aliases_zh = { "TAGME", "TagMe 实体链接器", "TagMe 系统" },
    }
    
    data["talos"] = {
        short = "An open-source Python library for hyperparameter scanning, optimization, and model evaluation focused on Keras and TensorFlow. It supports grid, random, and probabilistic search over user-defined parameter dictionaries.",
        article = nil,
        aliases = { "Talos", "Talos hyperparameter library", "Talos Keras" },
        es = "Biblioteca de Python de código abierto para barrido, optimización y evaluación de hiperparámetros centrada en Keras y TensorFlow. Admite búsqueda en cuadrícula, aleatoria y probabilística sobre diccionarios de parámetros definidos por el usuario.",
        zh = "面向 Keras 与 TensorFlow 的开源 Python 库,用于超参数扫描、优化与模型评估,支持基于用户定义参数字典的网格搜索、随机搜索和概率搜索。",
        term_es = "Talos",
        term_zh = "Talos",
        aliases_es = { "Talos para Keras", "biblioteca Talos" },
        aliases_zh = { "Talos 库", "Talos Keras" },
    }
    
    data["tandem ms"] = {
        short = "Tandem mass spectrometry: a technique combining two or more stages of mass analysis with fragmentation between them, used in proteomics to identify and sequence peptides from their fragment ion spectra.",
        article = nil,
        aliases = { "MS/MS", "tandem mass spectrometry", "MS2", "MSn" },
        es = "Espectrometría de masas en tándem: técnica que combina dos o más etapas de análisis de masa con fragmentación intermedia, utilizada en proteómica para identificar y secuenciar péptidos a partir de sus espectros de iones fragmento.",
        zh = "串联质谱:在两次或多次质量分析之间引入碎裂步骤的技术,在蛋白质组学中用于通过碎片离子谱图鉴定和测序肽段。",
        term_es = "espectrometría de masas en tándem",
        term_zh = "串联质谱",
        aliases_es = { "MS/MS", "MS2", "EM/EM" },
        aliases_zh = { "MS/MS", "MS2", "二级质谱" },
    }
    
    data["tangram"] = {
        short = "A deep-learning method that maps single-cell RNA-seq data onto spatial transcriptomics measurements by learning a probabilistic alignment between cells and spatial locations.",
        article = nil,
        aliases = { "Tangram" },
        es = "Método de aprendizaje profundo que asigna datos de RNA-seq unicelular a mediciones de transcriptómica espacial aprendiendo un alineamiento probabilístico entre células y ubicaciones espaciales.",
        zh = "一种深度学习方法,通过学习细胞与空间位置之间的概率对齐,将单细胞 RNA-seq 数据映射到空间转录组测量上。",
        term_es = "Tangram",
        term_zh = "Tangram",
        aliases_es = { "Tangram" },
        aliases_zh = { "Tangram" },
    }
    
    data["tanh"] = {
        short = "Hyperbolic tangent activation tanh(x) = (e^x − e^(−x)) / (e^x + e^(−x)) mapping real values into (−1, 1). Zero-centered alternative to the sigmoid.",
        article = nil,
        aliases = { "hyperbolic tangent", "Tanh", "TanH" },
        es = "Activación tangente hiperbólica tanh(x) = (e^x − e^(−x)) / (e^x + e^(−x)) que mapea los reales al intervalo (−1, 1). Alternativa centrada en cero a la sigmoide.",
        zh = "双曲正切激活函数 tanh(x) = (e^x − e^(−x)) / (e^x + e^(−x)),将实数映射到 (−1, 1)。是关于零对称的 Sigmoid 替代。",
        term_es = "tanh",
        term_zh = "tanh",
        aliases_es = { "tanh", "tangente hiperbólica" },
        aliases_zh = { "tanh", "双曲正切" },
    }
    
    data["tanimoto similarity"] = {
        short = "A similarity coefficient widely used in cheminformatics, equivalent to the Jaccard index for binary fingerprints, defined as the size of the intersection divided by the size of the union of two molecular fingerprint bit sets.",
        article = nil,
        aliases = { "Tanimoto coefficient", "Tanimoto index", "Jaccard-Tanimoto similarity", "Tc" },
        es = "Coeficiente de similitud ampliamente utilizado en quimioinformática, equivalente al índice de Jaccard para huellas binarias, definido como el tamaño de la intersección dividido por el tamaño de la unión de dos conjuntos de bits de huella molecular.",
        zh = "化学信息学中广泛使用的相似度系数,对二元指纹等价于 Jaccard 指数,定义为两组分子指纹位的交集大小除以并集大小。",
        term_es = "similitud de Tanimoto",
        term_zh = "Tanimoto 相似度",
        aliases_es = { "coeficiente de Tanimoto", "índice de Tanimoto", "similitud Jaccard-Tanimoto" },
        aliases_zh = { "Tanimoto 系数", "Tanimoto 指数", "谷本相似度", "谷本系数" },
    }
    
    data["tankbind"] = {
        short = "TankBind is a deep-learning model that jointly predicts protein-ligand binding poses and affinities by enumerating candidate binding pockets and learning trigonometry-aware distance maps between protein and ligand atoms.",
        article = nil,
        aliases = { "TankBind" },
        es = "TankBind es un modelo de aprendizaje profundo que predice conjuntamente poses y afinidades de unión proteína-ligando enumerando bolsillos de unión candidatos y aprendiendo mapas de distancia conscientes de la trigonometría entre átomos de la proteína y del ligando.",
        zh = "TankBind 是一种深度学习模型,通过枚举候选结合口袋并学习蛋白质与配体原子间的三角约束距离图,联合预测蛋白质-配体的结合构象和结合亲和力。",
        term_es = "TankBind",
        term_zh = "TankBind",
        aliases_es = { "modelo TankBind" },
        aliases_zh = { "TankBind 模型" },
    }
    
    data["target identification"] = {
        short = "The early-stage drug-discovery process of identifying a biological molecule, typically a protein, whose modulation is hypothesized to produce a therapeutic effect for a given disease.",
        article = nil,
        aliases = { "target ID", "drug target identification", "target discovery" },
        es = "Proceso de las primeras etapas del descubrimiento de fármacos consistente en identificar una molécula biológica, normalmente una proteína, cuya modulación se hipotetiza que producirá un efecto terapéutico para una enfermedad determinada.",
        zh = "药物发现早期阶段的过程,旨在识别一种生物分子(通常是蛋白质),假设其调控将对特定疾病产生治疗效果。",
        term_es = "identificación de dianas",
        term_zh = "靶点识别",
        aliases_es = { "identificación de dianas terapéuticas", "descubrimiento de dianas", "identificación de blancos" },
        aliases_zh = { "靶点鉴定", "药物靶点识别", "靶点发现" },
    }
    
    data["target prediction mirna"] = {
        short = "Computational prediction of messenger RNAs regulated by a microRNA, typically based on seed-region complementarity, evolutionary conservation, thermodynamic stability, and site accessibility.",
        article = nil,
        aliases = { "miRNA target prediction", "microRNA target prediction", "miRNA target identification" },
        es = "Predicción computacional de los ARN mensajeros regulados por un microARN, generalmente basada en la complementariedad de la región semilla, la conservación evolutiva, la estabilidad termodinámica y la accesibilidad del sitio.",
        zh = "对受某种 microRNA 调控的信使 RNA 进行计算预测,通常基于种子区互补性、进化保守性、热力学稳定性和位点可及性。",
        term_es = "predicción de dianas de miARN",
        term_zh = "miRNA 靶标预测",
        aliases_es = { "predicción de blancos de microARN", "predicción de objetivos de miRNA" },
        aliases_zh = { "microRNA 靶标预测", "miRNA 靶基因预测" },
    }
    
    data["target speaker extraction"] = {
        short = "The task of isolating the speech of a specific enrolled speaker from a mixture containing other talkers and noise, typically conditioned on a reference utterance or speaker embedding.",
        article = nil,
        aliases = { "TSE", "target speaker speech extraction", "speaker extraction" },
        es = "Tarea de aislar el habla de un locutor específico previamente registrado dentro de una mezcla que contiene otros hablantes y ruido, típicamente condicionada a una elocución de referencia o un embedding de locutor.",
        zh = "从包含其他说话人和噪声的混合音频中分离出特定已注册说话人语音的任务,通常以参考语音或说话人嵌入为条件。",
        term_es = "extracción de locutor objetivo",
        term_zh = "目标说话人提取",
        aliases_es = { "TSE", "extracción de habla del locutor objetivo", "extracción de locutor" },
        aliases_zh = { "TSE", "目标说话人语音提取", "说话人提取" },
    }
    
    data["target speaker voice activity detection"] = {
        short = "A variant of voice activity detection that determines, frame by frame, when a specific enrolled target speaker is speaking in a multi-talker recording, conditioned on a speaker embedding.",
        article = nil,
        aliases = { "TS-VAD", "TSVAD", "target-speaker VAD", "personal VAD" },
        es = "Variante de detección de actividad de voz que determina, fotograma a fotograma, cuándo habla un locutor objetivo específico previamente registrado en una grabación con múltiples interlocutores, condicionada a un embedding de locutor.",
        zh = "语音活动检测的一种变体,基于说话人嵌入,在多说话人录音中逐帧判断特定已注册目标说话人何时在说话。",
        term_es = "detección de actividad de voz del locutor objetivo",
        term_zh = "目标说话人语音活动检测",
        aliases_es = { "TS-VAD", "VAD de locutor objetivo", "VAD personal" },
        aliases_zh = { "TS-VAD", "目标说话人 VAD", "个人 VAD" },
    }
    
    data["target validation"] = {
        short = "The drug-discovery step of demonstrating that pharmacological or genetic modulation of a putative target produces the desired therapeutic effect in disease-relevant systems, providing evidence to commit to a target.",
        article = nil,
        aliases = { "drug target validation", "therapeutic target validation" },
        es = "Etapa del descubrimiento de fármacos en la que se demuestra que la modulación farmacológica o genética de una diana putativa produce el efecto terapéutico deseado en sistemas relevantes para la enfermedad, aportando evidencia para comprometerse con esa diana.",
        zh = "药物发现中的一个步骤,用于在与疾病相关的体系中证明药物或基因水平调控某一候选靶点可产生预期的治疗效果,从而为投入该靶点提供证据。",
        term_es = "validación de dianas",
        term_zh = "靶点验证",
        aliases_es = { "validación de dianas terapéuticas", "validación de blancos farmacológicos" },
        aliases_zh = { "靶点确认", "药物靶点验证", "治疗靶点验证" },
    }
    
    data["targetdiff"] = {
        short = "TargetDiff is a target-aware diffusion generative model for 3D structure-based drug design that jointly generates ligand atom types and coordinates conditioned on a protein binding pocket.",
        article = nil,
        aliases = { "TargetDiff" },
        es = "TargetDiff es un modelo generativo de difusión consciente de la diana para diseño de fármacos basado en estructura 3D, que genera de forma conjunta los tipos atómicos y las coordenadas del ligando condicionados al bolsillo de unión de la proteína.",
        zh = "TargetDiff 是一种面向靶点的扩散生成模型,用于基于三维结构的药物设计,在蛋白质结合口袋的条件下联合生成配体的原子类型和坐标。",
        term_es = "TargetDiff",
        term_zh = "TargetDiff",
        aliases_es = { "modelo TargetDiff" },
        aliases_zh = { "TargetDiff 模型" },
    }
    
    data["targeted backdoor attack"] = {
        short = "A model-poisoning attack in which an adversary crafts updates so that the trained model behaves normally on clean inputs but produces an attacker-chosen output whenever a specific trigger pattern is present.",
        article = nil,
        aliases = { "backdoor attack", "trigger-based poisoning", "trojan attack", "model backdoor" },
        es = "Ataque de envenenamiento del modelo en el que un adversario diseña actualizaciones para que el modelo entrenado se comporte normalmente con entradas limpias pero produzca una salida elegida por el atacante siempre que aparezca un patrón disparador específico.",
        zh = "一种模型投毒攻击,攻击者精心构造更新,使训练后的模型对干净输入表现正常,但只要出现特定触发模式就输出攻击者指定的结果。",
        term_es = "ataque de puerta trasera dirigido",
        term_zh = "定向后门攻击",
        aliases_es = { "ataque de backdoor", "ataque troyano", "envenenamiento con disparador" },
        aliases_zh = { "后门攻击", "触发式投毒", "木马攻击" },
    }
    
    data["targeted maximum likelihood estimation"] = {
        short = "A doubly robust, semiparametric estimation framework that updates an initial outcome model with a fluctuation step driven by the propensity score, yielding asymptotically efficient estimators of causal parameters. Used for average treatment effects, mediation, and longitudinal targets.",
        article = nil,
        aliases = { "TMLE", "targeted minimum loss-based estimation", "targeted learning" },
        es = "Marco de estimación semiparamétrico y doblemente robusto que actualiza un modelo de resultado inicial mediante un paso de fluctuación impulsado por el score de propensión, produciendo estimadores asintóticamente eficientes de parámetros causales. Se usa para efectos promedio del tratamiento, mediación y objetivos longitudinales.",
        zh = "一种双重稳健的半参数估计框架,通过由倾向得分驱动的扰动步骤对初始结果模型进行更新,得到因果参数的渐近有效估计量。适用于平均处理效应、中介效应和纵向目标。",
        term_es = "estimación de máxima verosimilitud focalizada",
        term_zh = "目标极大似然估计",
        aliases_es = { "TMLE", "estimación basada en pérdida mínima focalizada", "aprendizaje focalizado" },
        aliases_zh = { "TMLE", "目标最小损失估计", "目标学习" },
    }
    
    data["tarnet"] = {
        short = "A neural network architecture for treatment effect estimation that uses a shared representation followed by two outcome-specific heads, one for the treated and one for the control potential outcome. Introduced by Shalit et al. as part of representation-learning approaches to counterfactual inference.",
        article = nil,
        aliases = { "TARNet", "Treatment-Agnostic Representation Network", "treatment-agnostic representation network" },
        es = "Arquitectura de red neuronal para la estimación de efectos de tratamiento que utiliza una representación compartida seguida de dos cabezas específicas por resultado, una para el resultado potencial tratado y otra para el de control. Fue introducida por Shalit et al. dentro de los enfoques de aprendizaje de representaciones para inferencia contrafáctica.",
        zh = "用于处理效应估计的神经网络架构,先学习共享表示,再分别接两个针对处理结果和对照结果的输出头。由 Shalit 等人作为反事实推断中表示学习方法的一部分提出。",
        term_es = "TARNet",
        term_zh = "TARNet",
        aliases_es = { "red de representación independiente del tratamiento" },
        aliases_zh = { "处理无关表示网络", "TARNet 网络" },
    }
    
    data["task distribution"] = {
        short = "In meta-learning, the probability distribution from which individual tasks are drawn during meta-training and meta-testing. The meta-learner aims to perform well on new tasks sampled from this distribution.",
        article = nil,
        aliases = { "distribution over tasks", "p(T)", "meta-task distribution", "task prior" },
        es = "En metaaprendizaje, la distribución de probabilidad de la cual se extraen las tareas individuales durante el meta-entrenamiento y la meta-evaluación. El meta-aprendiz busca obtener buen desempeño en tareas nuevas muestreadas de esta distribución.",
        zh = "元学习中用于在元训练和元测试阶段抽取单个任务的概率分布;元学习器的目标是在从该分布抽样的新任务上取得良好表现。",
        term_es = "distribución de tareas",
        term_zh = "任务分布",
        aliases_es = { "distribución sobre tareas", "p(T)", "distribución de meta-tareas", "previo de tareas" },
        aliases_zh = { "任务上的分布", "p(T)", "元任务分布", "任务先验" },
    }
    
    data["task sampling"] = {
        short = "The procedure of drawing tasks from a task distribution to construct meta-training or meta-evaluation episodes. Sampling strategies (uniform, curriculum, hard-task mining) influence which capabilities the meta-learner acquires.",
        article = nil,
        aliases = { "episode sampling", "meta-task sampling", "sampling tasks", "episodic sampling" },
        es = "Procedimiento de extracción de tareas desde una distribución de tareas para construir episodios de meta-entrenamiento o meta-evaluación. Las estrategias de muestreo (uniforme, por currículum, minería de tareas difíciles) influyen en las capacidades que adquiere el meta-aprendiz.",
        zh = "从任务分布中抽取任务以构造元训练或元评估 episode 的过程;不同的采样策略(均匀采样、课程采样、难任务挖掘等)会影响元学习器最终获得的能力。",
        term_es = "muestreo de tareas",
        term_zh = "任务采样",
        aliases_es = { "muestreo de episodios", "muestreo de meta-tareas", "muestreo episódico" },
        aliases_zh = { "episode 采样", "元任务采样", "情景采样" },
    }
    
    data["task vector"] = {
        short = "A direction in parameter space defined as the difference between a model's fine-tuned and pretrained weights for a specific task, supporting compositional task arithmetic such as adding, negating, or analogizing tasks (Ilharco et al., 2023).",
        article = nil,
        aliases = { "task arithmetic vector", "fine-tuning task vector" },
        es = "Dirección en el espacio de parámetros definida como la diferencia entre los pesos afinados y los pesos preentrenados de un modelo para una tarea específica, que permite aritmética composicional de tareas como suma, negación o analogía.",
        zh = "参数空间中的一个方向,定义为模型在某特定任务上微调后权重与预训练权重之差;支持任务算术,包括任务加法、取反与类比(Ilharco 等,2023)。",
        term_es = "vector de tarea",
        term_zh = "任务向量",
        aliases_es = { "task vector", "vector de aritmética de tareas" },
        aliases_zh = { "task vector", "微调任务向量" },
    }
    
    data["tautomer"] = {
        short = "Constitutional isomers of a molecule that interconvert by the migration of a hydrogen atom (typically as a proton) accompanied by a shift of bonds, the most common example being keto-enol tautomerism.",
        article = nil,
        aliases = { "tautomers", "tautomerism", "tautomeric form" },
        es = "Isómeros constitucionales de una molécula que se interconvierten mediante la migración de un átomo de hidrógeno (generalmente como protón) acompañada de un desplazamiento de enlaces; el ejemplo más común es la tautomería ceto-enólica.",
        zh = "通过氢原子(通常以质子形式)迁移并伴随键的重排而相互转化的构造异构体,最常见的例子是酮-烯醇互变异构。",
        term_es = "tautómero",
        term_zh = "互变异构体",
        aliases_es = { "tautómeros", "tautomería", "forma tautomérica" },
        aliases_zh = { "互变异构物", "互变异构现象", "互变体" },
    }
    
    data["tautomer enumeration"] = {
        short = "The process of generating all chemically reasonable tautomeric forms of a molecule, used to standardize representations and improve matching in cheminformatics workflows.",
        article = nil,
        aliases = { "tautomer generation", "tautomer expansion" },
        es = "Proceso de generación de todas las formas tautoméricas químicamente razonables de una molécula, utilizado para estandarizar representaciones y mejorar el emparejamiento en flujos de trabajo de quimioinformática.",
        zh = "枚举分子所有化学合理的互变异构体形式的过程,用于标准化表示并改进化学信息学工作流中的匹配。",
        term_es = "enumeración de tautómeros",
        term_zh = "互变异构体枚举",
        aliases_es = { "generación de tautómeros" },
        aliases_zh = { "互变异构体生成", "互变异构枚举" },
    }
    
    data["tcav"] = {
        short = "Testing with Concept Activation Vectors, a method that scores the influence of a human-defined concept on a model's predictions by computing directional derivatives along the concept's activation vector (Kim et al., 2018).",
        article = nil,
        aliases = { "TCAV", "Testing with Concept Activation Vectors" },
        es = "Testing with Concept Activation Vectors, un método que cuantifica la influencia de un concepto definido por humanos sobre las predicciones de un modelo calculando derivadas direccionales a lo largo del vector de activación del concepto.",
        zh = "概念激活向量测试(TCAV):通过沿概念激活向量计算方向导数,量化人工定义的概念对模型预测的影响(Kim 等,2018)。",
        term_es = "TCAV",
        term_zh = "TCAV",
        aliases_es = { "TCAV", "prueba con vectores de activación de conceptos" },
        aliases_zh = { "TCAV", "概念激活向量测试" },
    }
    
    data["tcav fairness"] = {
        short = "Application of Testing with Concept Activation Vectors (TCAV) to fairness, measuring how much human-interpretable concepts (e.g., gender, race) influence a model's predictions for a given class. Provides concept-level sensitivity diagnostics beyond feature attributions.",
        article = nil,
        aliases = { "TCAV for fairness", "concept activation vector fairness", "TCAV-based fairness analysis" },
        es = "Aplicación de Testing with Concept Activation Vectors (TCAV) a la equidad, midiendo cuánto influyen conceptos interpretables por humanos (p. ej., género, raza) en las predicciones de un modelo para una clase dada. Aporta diagnósticos de sensibilidad a nivel de concepto, más allá de las atribuciones de características.",
        zh = "将概念激活向量测试(TCAV)应用于公平性分析,衡量性别、种族等人类可解释概念对模型某一类预测的影响程度。提供超越特征归因的概念级敏感性诊断。",
        term_es = "TCAV para equidad",
        term_zh = "TCAV 公平性分析",
        aliases_es = { "TCAV en equidad", "vectores de activación de concepto para equidad", "análisis de equidad basado en TCAV" },
        aliases_zh = { "TCAV 公平性", "面向公平性的 TCAV", "概念激活向量公平性分析" },
    }
    
    data["tcga"] = {
        short = "The Cancer Genome Atlas: a public consortium dataset providing multi-omic profiles (DNA, RNA, methylation, protein, clinical) for over 11,000 tumors across 33 cancer types, widely used for pan-cancer analyses.",
        article = nil,
        aliases = { "TCGA", "The Cancer Genome Atlas", "Cancer Genome Atlas" },
        es = "The Cancer Genome Atlas: conjunto de datos de un consorcio público que proporciona perfiles multiómicos (ADN, ARN, metilación, proteína, clínicos) de más de 11 000 tumores en 33 tipos de cáncer, ampliamente utilizado en análisis pancáncer.",
        zh = "癌症基因组图谱(The Cancer Genome Atlas):一个公共联盟数据集,提供超过 11,000 例肿瘤、33 种癌症类型的多组学谱(DNA、RNA、甲基化、蛋白质、临床),广泛用于泛癌分析。",
        term_es = "TCGA",
        term_zh = "TCGA",
        aliases_es = { "The Cancer Genome Atlas", "Atlas del Genoma del Cáncer" },
        aliases_zh = { "癌症基因组图谱", "肿瘤基因组图谱" },
    }
    
    data["tcr repertoire"] = {
        short = "The full collection of T-cell receptor sequences in an individual or sample, profiled by sequencing the rearranged TCR loci to characterize clonality and antigen specificity of the T-cell pool.",
        article = nil,
        aliases = { "T-cell receptor repertoire", "TCR-seq", "T cell repertoire", "TCR repertoire profiling" },
        es = "Colección completa de secuencias de receptores de células T en un individuo o muestra, perfilada secuenciando los loci TCR reorganizados para caracterizar la clonalidad y especificidad antigénica del conjunto de células T.",
        zh = "个体或样本中所有 T 细胞受体序列的集合,通过对重排的 TCR 位点进行测序来表征 T 细胞库的克隆性和抗原特异性。",
        term_es = "repertorio TCR",
        term_zh = "TCR 库",
        aliases_es = { "repertorio de receptores de células T", "TCR-seq" },
        aliases_zh = { "T 细胞受体库", "TCR 谱", "TCR-seq" },
    }
    
    data["td(0)"] = {
        short = "The simplest temporal-difference learning algorithm, which updates the value of a state using the immediate reward plus the estimated value of the next state (a one-step bootstrap).",
        article = nil,
        aliases = { "TD(0)", "one-step TD", "1-step TD", "one-step temporal difference" },
        es = "El algoritmo más simple de aprendizaje por diferencias temporales, que actualiza el valor de un estado usando la recompensa inmediata más el valor estimado del siguiente estado (bootstrap de un paso).",
        zh = "最简单的时序差分学习算法,使用即时奖励加上下一状态的估计值(单步自举)来更新某一状态的值。",
        term_es = "TD(0)",
        term_zh = "TD(0)",
        aliases_es = { "TD de un paso" },
        aliases_zh = { "单步 TD" },
    }
    
    data["td(lambda)"] = {
        short = "A temporal-difference algorithm that uses eligibility traces to interpolate between one-step TD and Monte Carlo updates, weighting n-step returns by lambda^(n-1) for a trace decay parameter lambda in [0,1].",
        article = nil,
        aliases = { "TD(lambda)", "TD(λ)", "TD-lambda", "TD lambda", "lambda-return TD" },
        es = "Algoritmo de diferencias temporales que utiliza trazas de elegibilidad para interpolar entre actualizaciones TD de un paso y de Monte Carlo, ponderando los retornos de n pasos por lambda^(n-1) con un parámetro de decaimiento lambda en [0,1].",
        zh = "一种时序差分算法,使用资格迹在单步 TD 与蒙特卡洛更新之间进行插值,对 n 步回报按 lambda^(n-1) 加权,其中迹衰减参数 lambda 取值于 [0,1]。",
        term_es = "TD(lambda)",
        term_zh = "TD(λ)",
        aliases_es = { "TD(λ)", "TD lambda" },
        aliases_zh = { "TD(lambda)", "TD-λ" },
    }
    
    data["td3"] = {
        short = "An off-policy actor-critic algorithm that improves DDPG by using two critics and taking the minimum to reduce overestimation, delaying policy updates, and adding clipped noise to target actions for smoothing.",
        article = nil,
        aliases = { "TD3", "Twin Delayed DDPG", "Twin Delayed Deep Deterministic Policy Gradient" },
        es = "Algoritmo actor-crítico off-policy que mejora DDPG usando dos críticos y tomando el mínimo para reducir la sobreestimación, retrasando las actualizaciones de la política y añadiendo ruido recortado a las acciones objetivo para suavizar.",
        zh = "一种离策略 actor-critic 算法,通过使用两个评论家并取最小值以减少高估、延迟策略更新,并在目标动作上添加裁剪噪声进行平滑,从而改进 DDPG。",
        term_es = "TD3",
        term_zh = "TD3",
        aliases_es = { "DDPG gemelo retardado", "Twin Delayed DDPG" },
        aliases_zh = { "双延迟 DDPG", "Twin Delayed DDPG" },
    }
    
    data["tdc benchmark"] = {
        short = "A collection of curated machine learning tasks and datasets in Therapeutics Data Commons covering ADMET, drug-target interaction, molecular generation, and other drug-discovery problems.",
        article = nil,
        aliases = { "TDC", "TDC benchmarks", "Therapeutics Data Commons benchmark" },
        es = "Colección de tareas y conjuntos de datos curados de aprendizaje automático en Therapeutics Data Commons que abarcan ADMET, interacción fármaco-diana, generación molecular y otros problemas de descubrimiento de fármacos.",
        zh = "Therapeutics Data Commons 中精心整理的机器学习任务和数据集集合,涵盖 ADMET、药物-靶点相互作用、分子生成等药物发现问题。",
        term_es = "benchmark TDC",
        term_zh = "TDC 基准",
        aliases_es = { "TDC", "benchmarks de Therapeutics Data Commons" },
        aliases_zh = { "TDC", "TDC 基准测试", "治疗数据共享基准" },
    }
    
    data["tdnn"] = {
        short = "Time-Delay Neural Network, a feed-forward architecture with weight-sharing over temporal context windows that captures long-range dependencies, widely used in acoustic modeling and speaker recognition.",
        article = nil,
        aliases = { "TDNN", "Time-Delay Neural Network", "time delay neural network", "time-delay neural net" },
        es = "Time-Delay Neural Network, arquitectura prealimentada con compartición de pesos sobre ventanas de contexto temporal que captura dependencias de largo alcance, ampliamente usada en modelado acústico y reconocimiento de locutor.",
        zh = "时延神经网络,一种在时间上下文窗口上共享权重的前馈架构,能够捕获长程依赖,广泛用于声学建模和说话人识别。",
        term_es = "TDNN",
        term_zh = "时延神经网络",
        aliases_es = { "TDNN", "red neuronal de retardo temporal" },
        aliases_zh = { "TDNN", "时延神经网络", "时间延迟神经网络" },
    }
    
    data["te-nas"] = {
        short = "Training-free NAS. A method that ranks candidate architectures without training by combining two zero-cost proxies: the condition number of the neural tangent kernel and the number of linear regions of the represented function.",
        article = nil,
        aliases = { "TE-NAS", "Training-free NAS", "training-free neural architecture search", "TENAS" },
        es = "Training-free NAS. Método que clasifica arquitecturas candidatas sin entrenamiento combinando dos sustitutos de coste cero: el número de condición del neural tangent kernel y la cantidad de regiones lineales de la función representada.",
        zh = "TE-NAS(免训练 NAS),无需训练即可对候选架构排序的方法,结合两种零成本代理:神经正切核(NTK)的条件数与所表示函数的线性区域数量。",
        term_es = "TE-NAS",
        term_zh = "TE-NAS",
        aliases_es = { "NAS sin entrenamiento", "búsqueda de arquitecturas sin entrenamiento", "TENAS" },
        aliases_zh = { "免训练 NAS", "无训练神经架构搜索", "TENAS" },
    }
    
    data["teacher-student training"] = {
        short = "A training paradigm in which a high-capacity teacher model supervises the training of a lower-capacity student model via its predictions or representations; the foundation of knowledge distillation.",
        article = nil,
        aliases = { "teacher student training", "teacher-student learning", "student-teacher training", "teacher-student framework" },
        es = "Paradigma de entrenamiento en el que un modelo maestro de alta capacidad supervisa el entrenamiento de un modelo estudiante de menor capacidad mediante sus predicciones o representaciones; base de la destilación de conocimiento.",
        zh = "一种训练范式,由高容量的教师模型通过其预测或表示来监督低容量的学生模型训练,是知识蒸馏的基础。",
        term_es = "entrenamiento maestro-estudiante",
        term_zh = "师生训练",
        aliases_es = { "aprendizaje maestro-estudiante", "esquema maestro-estudiante" },
        aliases_zh = { "教师-学生训练", "师生学习", "教师学生框架" },
    }
    
    data["ted-lium"] = {
        short = "An English speech recognition corpus derived from TED talks, distributed in multiple releases (TED-LIUM 1/2/3) totaling hundreds of hours of transcribed speech.",
        article = nil,
        aliases = { "TED-LIUM", "TEDLIUM", "TED-LIUM 3", "TED-LIUM corpus" },
        es = "Corpus de reconocimiento de voz en inglés derivado de charlas TED, distribuido en varias versiones (TED-LIUM 1/2/3) con cientos de horas de habla transcrita.",
        zh = "基于 TED 演讲构建的英语语音识别语料库,以 TED-LIUM 1/2/3 多个版本发布,包含数百小时的转写语音。",
        term_es = "TED-LIUM",
        term_zh = "TED-LIUM",
        aliases_es = { "TED-LIUM", "TEDLIUM", "corpus TED-LIUM" },
        aliases_zh = { "TED-LIUM", "TED-LIUM 语料库" },
    }
    
    data["temperature posterior"] = {
        short = "A modified Bayesian posterior in which the likelihood is raised to a power 1/T (the temperature), interpolating between the prior at high T and a sharply peaked posterior at low T. Used to control posterior concentration in cold-posterior and tempering studies.",
        article = nil,
        aliases = { "temperature-scaled posterior", "scaled posterior" },
        es = "Posterior bayesiano modificado en el que la verosimilitud se eleva a una potencia 1/T (la temperatura), interpolando entre la prior a alta T y un posterior fuertemente concentrado a baja T. Se utiliza para controlar la concentración del posterior en estudios de cold-posterior y atemperamiento.",
        zh = "一种经过修改的贝叶斯后验,其似然被提升至幂次 1/T(温度),在高温下趋近先验,低温下收敛到尖锐的后验。常用于冷后验和退火研究中以控制后验集中度。",
        term_es = "posterior con temperatura",
        term_zh = "温度后验",
        aliases_es = { "posterior escalada por temperatura", "temperature posterior" },
        aliases_zh = { "带温度的后验", "缩放后验", "temperature posterior" },
    }
    
    data["temperature sampling"] = {
        short = "A sampling technique that divides the model's logits by a temperature parameter T before softmax, controlling distribution sharpness: T<1 sharpens (more deterministic), T>1 flattens (more random), T=1 leaves it unchanged.",
        article = nil,
        aliases = { "Temperature Sampling", "temperature scaling", "softmax temperature", "temperature decoding", "temperature" },
        es = "Técnica de muestreo que divide los logits del modelo por un parámetro de temperatura T antes del softmax, controlando la nitidez de la distribución: T<1 la concentra (más determinista), T>1 la aplana (más aleatoria) y T=1 la deja igual.",
        zh = "一种采样技巧,在 softmax 之前将模型的 logits 除以温度参数 T,从而控制分布的尖锐程度:T<1 使分布更尖锐(更确定),T>1 使分布更平坦(更随机),T=1 保持不变。",
        term_es = "muestreo por temperatura",
        term_zh = "温度采样",
        aliases_es = { "temperature sampling", "muestreo con temperatura", "escalado por temperatura", "temperatura softmax" },
        aliases_zh = { "temperature sampling", "温度调节", "温度缩放", "softmax 温度" },
    }
    
    data["temperature scaling"] = {
        short = "A simple post-hoc calibration that divides logits by a single learned scalar T before applying softmax, p̂ = softmax(z/T). Preserves argmax accuracy while sharpening (T<1) or softening (T>1) probabilities to fit a calibration set.",
        article = nil,
        aliases = { "temperature calibration", "logit temperature scaling", "softmax temperature scaling" },
        es = "Calibración simple a posteriori que divide los logits por un único escalar aprendido T antes de aplicar softmax, p̂ = softmax(z/T). Preserva la exactitud argmax y agudiza (T<1) o suaviza (T>1) las probabilidades para ajustar un conjunto de calibración.",
        zh = "一种简单的后处理校准方法:在 softmax 前将 logits 除以单一可学参数 T,p̂ = softmax(z/T)。它保持 argmax 不变,并通过 T<1 锐化或 T>1 平滑概率以拟合校准集。",
        term_es = "escalado de temperatura",
        term_zh = "温度缩放",
        aliases_es = { "calibración por temperatura", "temperature scaling" },
        aliases_zh = { "temperature scaling", "温度校准", "温度标定" },
    }
    
    data["tempered posterior"] = {
        short = "A Bayesian posterior whose log-likelihood is multiplied by a tempering factor (often 1/T or beta), used to soften or sharpen the posterior. Cold posteriors (T<1) are a notable special case in deep learning.",
        article = nil,
        aliases = { "tempered Bayesian posterior", "fractional posterior", "power posterior" },
        es = "Posterior bayesiano cuya log-verosimilitud se multiplica por un factor de atemperamiento (a menudo 1/T o beta), utilizado para suavizar o concentrar el posterior. Las posteriores frías (T<1) son un caso especial relevante en aprendizaje profundo.",
        zh = "一种通过将对数似然乘以退火因子(通常为 1/T 或 beta)而调整的贝叶斯后验,用于软化或锐化后验。深度学习中冷后验(T<1)是一个重要特例。",
        term_es = "posterior atemperada",
        term_zh = "退火后验",
        aliases_es = { "posterior fraccionada", "posterior potencia", "tempered posterior" },
        aliases_zh = { "tempered 后验", "幂后验", "分数后验", "tempered posterior" },
    }
    
    data["template-based retrosynthesis"] = {
        short = "A retrosynthesis approach that proposes disconnections by matching a target molecule against a library of reaction templates extracted from known transformations.",
        article = nil,
        aliases = { "template based retrosynthesis", "rule-based retrosynthesis" },
        es = "Enfoque de retrosíntesis que propone desconexiones emparejando una molécula objetivo con una biblioteca de plantillas de reacción extraídas de transformaciones conocidas.",
        zh = "一种逆合成方法,通过将目标分子与从已知反应中提取的反应模板库进行匹配来提出断键方案。",
        term_es = "retrosíntesis basada en plantillas",
        term_zh = "基于模板的逆合成",
        aliases_es = { "retrosíntesis basada en reglas" },
        aliases_zh = { "基于规则的逆合成", "模板驱动的逆合成" },
    }
    
    data["template-free retrosynthesis"] = {
        short = "A retrosynthesis approach that predicts reactant SMILES directly from product SMILES using sequence-to-sequence or graph models, without relying on a fixed library of reaction templates.",
        article = nil,
        aliases = { "template free retrosynthesis", "templateless retrosynthesis" },
        es = "Enfoque de retrosíntesis que predice los SMILES de los reactivos directamente a partir de los SMILES del producto mediante modelos secuencia a secuencia o de grafos, sin depender de una biblioteca fija de plantillas de reacción.",
        zh = "一种逆合成方法,使用序列到序列或图模型直接从产物 SMILES 预测反应物 SMILES,不依赖固定的反应模板库。",
        term_es = "retrosíntesis sin plantillas",
        term_zh = "无模板逆合成",
        aliases_es = { "retrosíntesis libre de plantillas" },
        aliases_zh = { "无模板的逆合成", "免模板逆合成" },
    }
    
    data["tempo estimation"] = {
        short = "Music information retrieval task of estimating the perceived rate of beats in an audio signal, typically reported in beats per minute (BPM).",
        article = nil,
        aliases = { "tempo detection", "BPM estimation", "beat-rate estimation" },
        es = "Tarea de recuperación de información musical que consiste en estimar la velocidad percibida de los pulsos en una señal de audio, expresada habitualmente en pulsaciones por minuto (BPM).",
        zh = "音乐信息检索任务,用于估计音频信号中节拍的感知速率,通常以每分钟节拍数(BPM)表示。",
        term_es = "estimación de tempo",
        term_zh = "速度估计",
        aliases_es = { "estimación de BPM", "detección de tempo" },
        aliases_zh = { "节奏估计", "BPM 估计", "速率估计" },
    }
    
    data["temporal attribution"] = {
        short = "Feature attribution applied along the time dimension of sequence or time-series models, indicating how much each timestep contributes to a prediction.",
        article = nil,
        aliases = { "time-step attribution", "time attribution", "temporal feature attribution" },
        es = "Atribución de características aplicada a lo largo de la dimensión temporal en modelos de secuencias o series temporales, indicando cuánto contribuye cada paso de tiempo a una predicción.",
        zh = "在序列或时间序列模型的时间维度上进行的特征归因,指示每个时间步对预测的贡献程度。",
        term_es = "atribución temporal",
        term_zh = "时间归因",
        aliases_es = { "atribución por paso de tiempo", "atribución de características temporales" },
        aliases_zh = { "时间步归因", "时序归因" },
    }
    
    data["temporal consistency"] = {
        short = "A property of video or sequential generative models in which content remains coherent across frames, avoiding flicker, identity drift, or abrupt changes between adjacent timesteps.",
        article = nil,
        aliases = { "temporal coherence", "frame consistency", "temporal stability" },
        es = "Propiedad de los modelos generativos de vídeo o secuenciales por la cual el contenido permanece coherente entre fotogramas, evitando parpadeos, deriva de identidad o cambios abruptos entre pasos temporales adyacentes.",
        zh = "视频或序列生成模型的一种特性,即内容在各帧之间保持连贯,避免闪烁、身份漂移或相邻时间步之间的突变。",
        term_es = "consistencia temporal",
        term_zh = "时间一致性",
        aliases_es = { "coherencia temporal", "consistencia entre fotogramas" },
        aliases_zh = { "时间连贯性", "帧间一致性" },
    }
    
    data["temporal difference learning"] = {
        short = "A class of model-free reinforcement learning methods that update value estimates using the difference between successive predictions, combining ideas from Monte Carlo sampling and dynamic programming bootstrapping.",
        article = nil,
        aliases = { "TD learning", "TD", "temporal-difference learning", "temporal difference", "temporal-difference" },
        es = "Familia de métodos de aprendizaje por refuerzo sin modelo que actualizan las estimaciones de valor usando la diferencia entre predicciones sucesivas, combinando ideas del muestreo de Monte Carlo y del bootstrapping de la programación dinámica.",
        zh = "一类无模型的强化学习方法,利用相邻预测之间的差异来更新价值估计,结合了蒙特卡洛采样和动态规划自举的思想。",
        term_es = "aprendizaje por diferencias temporales",
        term_zh = "时序差分学习",
        aliases_es = { "TD", "aprendizaje TD", "diferencias temporales" },
        aliases_zh = { "TD 学习", "时间差分学习", "TD" },
    }
    
    data["temporal grounding"] = {
        short = "The task of localizing the start and end times of an event described by a natural-language query within an untrimmed video. Also called video moment retrieval or natural language video localization.",
        article = nil,
        aliases = { "video temporal grounding", "natural language video localization", "video moment retrieval", "moment retrieval", "temporal sentence grounding", "temporal language grounding" },
        es = "Tarea consistente en localizar los instantes de inicio y fin de un evento descrito por una consulta en lenguaje natural dentro de un video sin recortar. También llamada recuperación de momentos de video o localización lingüística temporal.",
        zh = "在未剪辑视频中定位由自然语言查询所描述事件的起止时间。也称为视频时刻检索或自然语言视频定位。",
        term_es = "anclaje temporal",
        term_zh = "时序定位",
        aliases_es = { "anclaje temporal en video", "recuperación de momentos en video", "localización temporal por lenguaje" },
        aliases_zh = { "时间定位", "视频时刻检索", "自然语言视频定位" },
    }
    
    data["temporal heterogeneity federated"] = {
        short = "In federated learning, non-stationarity arising because clients' local data distributions, availability, or labels drift over time, requiring algorithms that adapt to evolving statistics rather than assuming a fixed objective.",
        article = nil,
        aliases = { "temporal heterogeneity", "temporal non-stationarity FL", "concept drift in FL", "time-varying client distribution" },
        es = "En aprendizaje federado, no estacionariedad que surge porque las distribuciones locales de datos, la disponibilidad o las etiquetas de los clientes cambian con el tiempo, lo que exige algoritmos que se adapten a estadísticas cambiantes en lugar de asumir un objetivo fijo.",
        zh = "在联邦学习中,由于客户端本地数据分布、可用性或标签随时间漂移而产生的非平稳性,要求算法适应不断变化的统计特性,而非假设固定的目标。",
        term_es = "heterogeneidad temporal en aprendizaje federado",
        term_zh = "联邦学习的时间异质性",
        aliases_es = { "heterogeneidad temporal", "no estacionariedad temporal en FL", "deriva de concepto en FL" },
        aliases_zh = { "时间异质性", "联邦概念漂移", "时间非平稳性" },
    }
    
    data["temporal knowledge graph embedding"] = {
        short = "Embedding methods for knowledge graphs whose facts are time-stamped or valid over intervals, encoding entities, relations, and time so that link and time prediction become tractable.",
        article = nil,
        aliases = { "TKGE", "temporal KG embedding", "time-aware knowledge graph embedding", "temporal knowledge graph representation learning" },
        es = "Métodos de incrustación para grafos de conocimiento cuyos hechos están marcados temporalmente o son válidos en intervalos, que codifican entidades, relaciones y tiempo para hacer tratable la predicción de enlaces y de tiempos.",
        zh = "针对带时间戳或时间区间事实的知识图谱的嵌入方法,将实体、关系与时间一起编码,从而支持链路预测和时间预测。",
        term_es = "incrustación de grafos de conocimiento temporales",
        term_zh = "时序知识图谱嵌入",
        aliases_es = { "TKGE", "embedding de grafos de conocimiento temporales", "incrustación temporal de grafos de conocimiento" },
        aliases_zh = { "TKGE", "时间感知知识图谱嵌入", "动态知识图谱嵌入", "时态知识图谱嵌入" },
    }
    
    data["temporal logic"] = {
        short = "A family of formal logics for reasoning about propositions whose truth value depends on time, including linear temporal logic and computation tree logic, widely used in formal verification.",
        article = nil,
        aliases = { "Temporal Logic", "modal temporal logic", "tense logic" },
        es = "Familia de lógicas formales para razonar sobre proposiciones cuyo valor de verdad depende del tiempo, que incluye la lógica temporal lineal y la lógica de árboles de cómputo, ampliamente usadas en verificación formal.",
        zh = "一类用于对其真值随时间变化的命题进行推理的形式逻辑,包括线性时序逻辑和计算树逻辑,广泛用于形式化验证。",
        term_es = "lógica temporal",
        term_zh = "时序逻辑",
        aliases_es = { "lógica temporal", "lógica modal temporal", "lógica de los tiempos" },
        aliases_zh = { "时序逻辑", "时态逻辑", "时间逻辑" },
    }
    
    data["temporal positional encoding video"] = {
        short = "A positional encoding scheme used in video transformers that injects information about the temporal index (frame or clip position) of each token, enabling the model to distinguish across time in addition to spatial location.",
        article = nil,
        aliases = { "temporal positional encoding", "temporal positional embedding", "video temporal positional encoding", "frame positional encoding" },
        es = "Esquema de codificación posicional usado en transformadores de video que inyecta información sobre el índice temporal (posición del fotograma o clip) de cada token, permitiendo al modelo distinguir el tiempo además de la posición espacial.",
        zh = "视频 Transformer 中使用的位置编码方案,为每个 token 注入其时间索引(帧或片段位置)信息,使模型在空间位置之外也能区分时间。",
        term_es = "codificación posicional temporal en video",
        term_zh = "视频时间位置编码",
        aliases_es = { "embedding posicional temporal", "codificación posicional de fotogramas" },
        aliases_zh = { "时间位置编码", "帧位置编码", "时序位置嵌入" },
    }
    
    data["temporal token video"] = {
        short = "A token in a video transformer that summarizes information at a specific time step, typically obtained by pooling spatial tokens within a frame or by using dedicated learnable queries to capture per-timestep features.",
        article = nil,
        aliases = { "temporal video token", "time token video", "per-frame temporal token", "video temporal token" },
        es = "Token en un transformador de video que resume la información de un paso temporal específico, normalmente obtenido agrupando tokens espaciales dentro de un fotograma o usando consultas aprendibles dedicadas para capturar características por paso temporal.",
        zh = "视频 Transformer 中用于汇总特定时间步信息的 token,通常通过对帧内空间 token 进行池化,或使用专门的可学习查询来捕获每个时间步的特征。",
        term_es = "token temporal de video",
        term_zh = "视频时间 token",
        aliases_es = { "token temporal por fotograma" },
        aliases_zh = { "视频时序 token", "逐帧时间 token" },
    }
    
    data["tensor"] = {
        short = "A multidimensional array generalizing scalars (rank 0), vectors (rank 1), and matrices (rank 2) to arbitrary numbers of indices. The fundamental data structure in modern deep learning frameworks.",
        article = nil,
        aliases = { "n-dimensional array", "nd-array", "ndarray", "multidimensional array" },
        es = "Arreglo multidimensional que generaliza los escalares (rango 0), vectores (rango 1) y matrices (rango 2) a un número arbitrario de índices. Es la estructura de datos fundamental en los marcos modernos de aprendizaje profundo.",
        zh = "多维数组,将标量(0 阶)、向量(1 阶)和矩阵(2 阶)推广到任意数量的索引。是现代深度学习框架中的基本数据结构。",
        term_es = "tensor",
        term_zh = "张量",
        aliases_es = { "arreglo multidimensional", "matriz n-dimensional" },
        aliases_zh = { "多维数组", "n 维数组" },
    }
    
    data["tensor contraction"] = {
        short = "The generalization of matrix multiplication to higher-order tensors: a sum over one or more shared index pairs between two tensors, producing a tensor whose remaining indices are the union of the uncontracted ones.",
        article = nil,
        aliases = { "tensor contractions", "index contraction", "tensor sum-product" },
        es = "Generalización de la multiplicación de matrices a tensores de orden superior: una suma sobre uno o más pares de índices compartidos entre dos tensores, produciendo un tensor cuyos índices restantes son la unión de los no contraídos.",
        zh = "矩阵乘法在高阶张量上的推广:在两个张量的一个或多个共享下标对上求和,所得张量的下标为未被缩并的下标之并集。",
        term_es = "contracción tensorial",
        term_zh = "张量缩并",
        aliases_es = { "contracción de tensores", "contracción de índices" },
        aliases_zh = { "张量收缩", "指标缩并" },
    }
    
    data["tensor cores"] = {
        short = "Specialized matrix-multiply-and-accumulate execution units in NVIDIA GPUs (since Volta) that perform mixed-precision dense matrix operations at much higher throughput than standard CUDA cores, central to modern deep-learning performance.",
        article = nil,
        aliases = { "Tensor Core", "Tensor Cores", "NVIDIA Tensor Cores" },
        es = "Unidades de ejecución especializadas de multiplicación-acumulación matricial presentes en las GPU NVIDIA (desde Volta) que realizan operaciones densas de matrices en precisión mixta con un rendimiento mucho mayor que los CUDA cores estándar, claves para el rendimiento del aprendizaje profundo moderno.",
        zh = "NVIDIA GPU(自 Volta 起)中专门的矩阵乘加执行单元,以远高于标准 CUDA 核心的吞吐量执行混合精度稠密矩阵运算,是现代深度学习性能的关键。",
        term_es = "Tensor Cores",
        term_zh = "Tensor Core",
        aliases_es = { "Tensor Core", "núcleos tensoriales", "Tensor Cores de NVIDIA" },
        aliases_zh = { "Tensor Cores", "张量核心", "NVIDIA 张量核心" },
    }
    
    data["tensor field network"] = {
        short = "An equivariant neural network architecture for 3D point clouds that uses tensor products of spherical harmonics to build features that transform predictably under rotation and translation.",
        article = nil,
        aliases = { "TFN", "tensor field networks" },
        es = "Arquitectura de red neuronal equivariante para nubes de puntos 3D que utiliza productos tensoriales de armónicos esféricos para construir características que se transforman de manera predecible bajo rotación y traslación.",
        zh = "一种用于三维点云的等变神经网络架构,通过球谐函数的张量积构建在旋转和平移下可预测变换的特征。",
        term_es = "red de campo tensorial",
        term_zh = "张量场网络",
        aliases_es = { "TFN", "redes de campo tensorial" },
        aliases_zh = { "TFN", "张量场神经网络" },
    }
    
    data["tensor parallelism"] = {
        short = "An intra-layer model parallelism strategy that splits the weight matrices of individual operators (e.g. attention projections, MLP linear layers) across devices, using collective communications (all-reduce or all-gather) within each forward and backward pass.",
        article = nil,
        aliases = { "TP", "tensor model parallelism", "tensor parallel", "intra-layer model parallelism", "Megatron-style tensor parallelism" },
        es = "Estrategia de paralelismo de modelo intralayer que divide las matrices de peso de operadores individuales (por ejemplo, proyecciones de atención y capas lineales del MLP) entre dispositivos, utilizando comunicaciones colectivas (all-reduce o all-gather) dentro de cada paso hacia adelante y hacia atrás.",
        zh = "层内模型并行策略:将单个算子的权重矩阵(如注意力投影、MLP 线性层)切分到多张设备,并在每次前向和反向传播中通过 all-reduce 或 all-gather 等集合通信完成结果合并。",
        term_es = "paralelismo de tensor",
        term_zh = "张量并行",
        aliases_es = { "TP", "paralelismo de tensores", "paralelismo de modelo intra-capa" },
        aliases_zh = { "TP", "张量并行化", "层内模型并行" },
    }
    
    data["tensorflow distributed"] = {
        short = "TensorFlow's APIs for distributed training, including tf.distribute strategies (MirroredStrategy, MultiWorkerMirroredStrategy, ParameterServerStrategy, TPUStrategy) that scale model training across GPUs, hosts, and TPU pods.",
        article = nil,
        aliases = { "tf.distribute", "TensorFlow distributed training", "TF distribute" },
        es = "APIs de TensorFlow para entrenamiento distribuido, incluidas las estrategias de tf.distribute (MirroredStrategy, MultiWorkerMirroredStrategy, ParameterServerStrategy, TPUStrategy) que escalan el entrenamiento de modelos a múltiples GPUs, hosts y pods de TPU.",
        zh = "TensorFlow用于分布式训练的API,包括tf.distribute策略(MirroredStrategy、MultiWorkerMirroredStrategy、ParameterServerStrategy、TPUStrategy),可将模型训练扩展到多GPU、多主机和TPU pod。",
        term_es = "TensorFlow distribuido",
        term_zh = "TensorFlow分布式",
        aliases_es = { "tf.distribute", "entrenamiento distribuido en TensorFlow" },
        aliases_zh = { "tf.distribute", "TensorFlow分布式训练" },
    }
    
    data["tensorflow federated"] = {
        short = "TensorFlow Federated (TFF), an open-source framework for expressing federated computations and federated learning algorithms, providing primitives such as federated_avg and tools for simulating cross-device training.",
        article = nil,
        aliases = { "TFF", "TensorFlow Federated", "tensorflow_federated" },
        es = "TensorFlow Federated (TFF), un marco de código abierto para expresar cómputos federados y algoritmos de aprendizaje federado, que ofrece primitivas como federated_avg y herramientas para simular entrenamiento entre dispositivos.",
        zh = "TensorFlow Federated(TFF),一个用于表达联邦计算和联邦学习算法的开源框架,提供federated_avg等原语以及用于模拟跨设备训练的工具。",
        term_es = "TensorFlow Federated",
        term_zh = "TensorFlow Federated",
        aliases_es = { "TFF", "marco TensorFlow Federated" },
        aliases_zh = { "TFF", "TensorFlow联邦学习框架" },
    }
    
    data["tensorrt-llm"] = {
        short = "An open-source NVIDIA library for compiling and serving large language models with optimized CUDA kernels, in-flight batching, and quantization, targeting high-throughput inference on NVIDIA GPUs.",
        article = nil,
        aliases = { "TensorRT-LLM", "TensorRT LLM", "trt-llm" },
        es = "Biblioteca de código abierto de NVIDIA para compilar y servir modelos de lenguaje grandes con kernels CUDA optimizados, batching en vuelo y cuantización, orientada a inferencia de alto rendimiento en GPUs NVIDIA.",
        zh = "NVIDIA 推出的开源库,用于编译和部署大语言模型,提供优化的 CUDA 内核、在飞批处理和量化,面向 NVIDIA GPU 的高吞吐推理。",
        term_es = "TensorRT-LLM",
        term_zh = "TensorRT-LLM",
        aliases_es = { "TensorRT LLM", "trt-llm" },
        aliases_zh = { "TensorRT LLM", "trt-llm" },
    }
    
    data["tera"] = {
        short = "Self-supervised speech representation model (Transformer Encoder Representations from Alteration) trained by reconstructing altered acoustic frames, predating wav2vec 2.0 in the masked-acoustic-modeling line.",
        article = nil,
        aliases = { "TERA", "Transformer Encoder Representations from Alteration" },
        es = "Modelo de representación de habla autosupervisado (Transformer Encoder Representations from Alteration) entrenado reconstruyendo tramas acústicas alteradas, precursor de wav2vec 2.0 en la línea de modelado acústico enmascarado.",
        zh = "一种自监督语音表示模型(Transformer Encoder Representations from Alteration),通过重建被扰动的声学帧进行训练,是 wav2vec 2.0 之前的掩码声学建模方法。",
        term_es = "TERA",
        term_zh = "TERA",
        aliases_es = { "TERA" },
        aliases_zh = { "TERA" },
    }
    
    data["terngrad"] = {
        short = "A gradient-quantization scheme for distributed SGD that compresses each gradient coordinate to one of three values {-1, 0, +1} scaled by a per-tensor magnitude, providing an unbiased estimate while reducing communication.",
        article = nil,
        aliases = { "TernGrad", "ternary gradient", "ternary gradient quantization" },
        es = "Esquema de cuantización de gradientes para SGD distribuido que comprime cada coordenada del gradiente a uno de tres valores {-1, 0, +1} escalados por una magnitud por tensor, proporcionando una estimación insesgada y reduciendo la comunicación.",
        zh = "一种用于分布式SGD的梯度量化方案,将每个梯度分量压缩到{-1, 0, +1}三值之一,并按张量幅值缩放,在减少通信的同时给出无偏估计。",
        term_es = "TernGrad",
        term_zh = "TernGrad",
        aliases_es = { "TernGrad", "gradiente ternario", "cuantización ternaria de gradientes" },
        aliases_zh = { "TernGrad", "三值梯度", "三值梯度量化" },
    }
    
    data["tertiary structure"] = {
        short = "The three-dimensional folded conformation of a single protein chain, determined by interactions among its side chains and the backbone, including hydrophobic packing, hydrogen bonds, and disulfide bridges.",
        article = nil,
        aliases = { "3D structure", "protein tertiary structure", "3-D structure" },
        es = "Conformación plegada tridimensional de una única cadena proteica, determinada por interacciones entre sus cadenas laterales y la cadena principal, incluyendo empaquetamiento hidrofóbico, puentes de hidrógeno y puentes disulfuro.",
        zh = "单条蛋白质链的三维折叠构象,由侧链之间以及侧链与主链之间的相互作用决定,包括疏水堆积、氢键和二硫键。",
        term_es = "estructura terciaria",
        term_zh = "三级结构",
        aliases_es = { "estructura 3D", "estructura terciaria de proteínas" },
        aliases_zh = { "三维结构", "蛋白质三级结构", "3D 结构" },
    }
    
    data["test fairness"] = {
        short = "A fairness criterion, also called calibration within groups, requiring that the predicted probability of the positive outcome be a well-calibrated estimate of the true probability conditional on each protected group. Known to be incompatible with equalized odds when base rates differ.",
        article = nil,
        aliases = { "calibration within groups", "well-calibrated fairness", "calibration fairness" },
        es = "Criterio de equidad, también llamado calibración dentro de los grupos, que exige que la probabilidad predicha del resultado positivo sea una estimación bien calibrada de la probabilidad real, condicionada a cada grupo protegido. Es incompatible con la igualdad de probabilidades cuando las tasas base difieren.",
        zh = "一种公平性准则,也称组内校准,要求预测的正类概率在每个受保护群体内都是真实概率的良好校准估计。当各群体基率不同时,它与机会均等相互不兼容。",
        term_es = "equidad de prueba",
        term_zh = "测试公平性",
        aliases_es = { "calibración dentro de los grupos", "equidad por calibración", "equidad bien calibrada" },
        aliases_zh = { "组内校准", "校准公平性", "良好校准公平性" },
    }
    
    data["test set"] = {
        short = "A held-out subset of the data used only for final, unbiased evaluation of a trained model; it must not influence training or model-selection decisions.",
        article = nil,
        aliases = { "test split", "held-out test set", "evaluation set" },
        es = "Subconjunto de datos reservado que se utiliza únicamente para la evaluación final e imparcial de un modelo entrenado; no debe influir en el entrenamiento ni en la selección del modelo.",
        zh = "预留的数据子集,仅用于对训练完成的模型进行最终、无偏的评估,不得参与训练或模型选择过程。",
        term_es = "conjunto de prueba",
        term_zh = "测试集",
        aliases_es = { "conjunto de test", "partición de prueba", "set de prueba" },
        aliases_zh = { "测试数据集", "评估集" },
    }
    
    data["test-time compute"] = {
        short = "Computation expended during inference, typically by spending additional tokens or sampling more candidates to improve answer quality. Central to reasoning models that scale performance through longer deliberation.",
        article = nil,
        aliases = { "test time compute", "inference-time compute", "TTC", "inference compute" },
        es = "Cómputo realizado durante la inferencia, normalmente generando tokens adicionales o muestreando más candidatos para mejorar la calidad de la respuesta. Es central en los modelos de razonamiento que escalan rendimiento mediante deliberación más larga.",
        zh = "推理阶段消耗的计算量,通常通过生成额外 token 或采样更多候选答案来提升答案质量。是通过更长思考来扩展性能的推理模型的核心机制。",
        term_es = "cómputo en tiempo de prueba",
        term_zh = "测试时计算",
        aliases_es = { "test-time compute", "cómputo en inferencia" },
        aliases_zh = { "推理时计算", "test-time compute" },
    }
    
    data["test-time dropout"] = {
        short = "Keeping dropout active at inference time and averaging multiple stochastic forward passes to obtain Monte Carlo estimates of predictive mean and uncertainty, as proposed by Gal and Ghahramani (2016).",
        article = nil,
        aliases = { "MC dropout", "Monte Carlo dropout", "inference-time dropout", "stochastic forward passes" },
        es = "Mantener el dropout activo en el momento de la inferencia y promediar múltiples pasadas estocásticas hacia adelante para obtener estimaciones Monte Carlo de la media predictiva y la incertidumbre, como propusieron Gal y Ghahramani (2016).",
        zh = "在推理阶段保持 dropout 处于激活状态,并对多次随机前向传播取平均,以获得预测均值与不确定性的蒙特卡洛估计;由 Gal 与 Ghahramani(2016)提出。",
        term_es = "dropout en tiempo de prueba",
        term_zh = "测试时 dropout",
        aliases_es = { "MC dropout", "Monte Carlo dropout", "dropout en inferencia", "test-time dropout" },
        aliases_zh = { "MC dropout", "蒙特卡洛 dropout", "推理期 dropout", "test-time dropout" },
    }
    
    data["text counterfactual"] = {
        short = "A minimally edited version of an input text that flips a model's prediction, used to explain text classifiers by exposing the smallest changes that alter the decision.",
        article = nil,
        aliases = { "textual counterfactual", "counterfactual text", "counterfactual text example" },
        es = "Versión mínimamente editada de un texto de entrada que invierte la predicción de un modelo, usada para explicar clasificadores de texto exponiendo los cambios más pequeños que alteran la decisión.",
        zh = "对输入文本进行最小化编辑后能使模型预测发生反转的版本,用于通过揭示最小改动来解释文本分类器的决策。",
        term_es = "contrafactual textual",
        term_zh = "文本反事实",
        aliases_es = { "contrafactual de texto", "ejemplo contrafactual textual" },
        aliases_zh = { "文本反事实样例", "反事实文本" },
    }
    
    data["text generation inference"] = {
        short = "An open-source toolkit by Hugging Face for serving large language models in production, with continuous batching, tensor parallelism, and a Rust-based HTTP/gRPC server.",
        article = nil,
        aliases = { "TGI", "Text Generation Inference", "huggingface tgi" },
        es = "Conjunto de herramientas de código abierto de Hugging Face para servir modelos de lenguaje grandes en producción, con batching continuo, paralelismo de tensores y un servidor HTTP/gRPC escrito en Rust.",
        zh = "Hugging Face 推出的开源工具包,用于在生产环境中部署大语言模型,提供连续批处理、张量并行以及基于 Rust 的 HTTP/gRPC 服务器。",
        term_es = "Text Generation Inference",
        term_zh = "Text Generation Inference",
        aliases_es = { "TGI" },
        aliases_zh = { "TGI" },
    }
    
    data["text normalization for tts"] = {
        short = "Front-end pipeline that converts written input (numbers, dates, abbreviations, symbols) into a fully spoken word sequence suitable for a text-to-speech acoustic model.",
        article = nil,
        aliases = { "TTS text normalization", "TN for TTS", "text normalisation for TTS" },
        es = "Etapa de preprocesamiento que transforma el texto escrito (números, fechas, abreviaturas, símbolos) en una secuencia de palabras pronunciables apta para el modelo acústico de un sistema de síntesis de voz.",
        zh = "文本转语音前端流程,将书面输入(数字、日期、缩写、符号)转换为可被声学模型直接朗读的口语化词序列。",
        term_es = "normalización de texto para TTS",
        term_zh = "TTS 文本正则化",
        aliases_es = { "normalización de texto para síntesis de voz", "TN para TTS" },
        aliases_zh = { "语音合成文本正则化", "TTS 文本规范化" },
    }
    
    data["text rationale"] = {
        short = "A subset of input tokens — typically a contiguous span — selected to support and justify a model's prediction on a text classification task; rationales may be human-annotated or extracted by the model.",
        article = nil,
        aliases = { "rationale", "extractive rationale", "textual rationale" },
        es = "Subconjunto de tokens del input —generalmente un fragmento contiguo— seleccionado para respaldar y justificar la predicción de un modelo en una tarea de clasificación de texto; los racionales pueden ser anotados por humanos o extraídos por el modelo.",
        zh = "为支持并解释文本分类预测而选出的输入标记子集(通常是一段连续片段),既可由人工标注,也可由模型自动抽取。",
        term_es = "racional textual",
        term_zh = "文本理由",
        aliases_es = { "racional", "racional extractivo", "rationale" },
        aliases_zh = { "理由片段", "抽取式理由", "rationale" },
    }
    
    data["text shap"] = {
        short = "An application of SHAP to text classifiers in which tokens or token spans are treated as features and Shapley-value attributions are computed by masking or replacing them.",
        article = nil,
        aliases = { "Text SHAP", "SHAP for text", "textual SHAP" },
        es = "Aplicación de SHAP a clasificadores de texto en la que los tokens o fragmentos de tokens se tratan como características y las atribuciones basadas en valores de Shapley se calculan enmascarándolos o sustituyéndolos.",
        zh = "将 SHAP 应用于文本分类器:将词元或词元片段视为特征,通过遮蔽或替换计算其 Shapley 值归因。",
        term_es = "SHAP textual",
        term_zh = "文本 SHAP",
        aliases_es = { "Text SHAP", "SHAP para texto" },
        aliases_zh = { "text SHAP", "文本数据 SHAP" },
    }
    
    data["text-conditioned image editing"] = {
        short = "The task of modifying a given image according to a natural-language instruction or target description while preserving content not referenced by the text. Common methods use diffusion models with techniques such as cross-attention control or InstructPix2Pix-style training.",
        article = nil,
        aliases = { "text-guided image editing", "text-driven image editing", "instruction-based image editing", "text-based image editing", "prompt-based image editing" },
        es = "Tarea de modificar una imagen dada según una instrucción o descripción en lenguaje natural conservando el contenido no referido por el texto. Los métodos habituales usan modelos de difusión con técnicas como control de atención cruzada o entrenamiento al estilo InstructPix2Pix.",
        zh = "一种图像编辑任务,根据自然语言指令或目标描述修改给定图像,同时保留文本未涉及的内容。常用方法基于扩散模型,并采用交叉注意力控制或 InstructPix2Pix 风格的训练。",
        term_es = "edición de imágenes condicionada por texto",
        term_zh = "文本条件图像编辑",
        aliases_es = { "edición de imágenes guiada por texto", "edición de imágenes basada en instrucciones" },
        aliases_zh = { "文本引导图像编辑", "基于指令的图像编辑", "文本驱动图像编辑" },
    }
    
    data["text-embedding-3-large"] = {
        short = "OpenAI's larger third-generation text embedding model, producing up to 3072-dimensional vectors with support for Matryoshka-style dimension reduction. Released January 2024.",
        article = nil,
        aliases = { "text-embedding-3-large", "OpenAI embedding 3 large" },
        es = "Modelo de embedding de texto de tercera generación más grande de OpenAI, que produce vectores de hasta 3072 dimensiones con soporte para reducción de dimensión estilo Matryoshka. Publicado en enero de 2024.",
        zh = "OpenAI 第三代较大的文本嵌入模型,可生成至多 3072 维的向量,并支持 Matryoshka 风格的维度缩减。于 2024 年 1 月发布。",
        term_es = "text-embedding-3-large",
        term_zh = "text-embedding-3-large",
        aliases_es = { "embedding 3 large de OpenAI" },
        aliases_zh = { "OpenAI embedding 3 large" },
    }
    
    data["text-embedding-3-small"] = {
        short = "OpenAI's smaller third-generation text embedding model with 1536 default dimensions, designed for cost-efficient semantic search and retrieval. Released January 2024.",
        article = nil,
        aliases = { "text-embedding-3-small", "OpenAI embedding 3 small" },
        es = "Modelo de embedding de texto de tercera generación más pequeño de OpenAI, con 1536 dimensiones por defecto, diseñado para búsqueda semántica y recuperación de bajo coste. Publicado en enero de 2024.",
        zh = "OpenAI 第三代较小的文本嵌入模型,默认 1536 维,旨在以低成本提供语义检索能力。于 2024 年 1 月发布。",
        term_es = "text-embedding-3-small",
        term_zh = "text-embedding-3-small",
        aliases_es = { "embedding 3 small de OpenAI" },
        aliases_zh = { "OpenAI embedding 3 small" },
    }
    
    data["text-embedding-ada-002"] = {
        short = "OpenAI's second-generation text embedding model based on the Ada family, producing 1536-dimensional vectors. Widely used for retrieval-augmented generation before the v3 family superseded it.",
        article = nil,
        aliases = { "text-embedding-ada-002", "ada-002 embedding", "ada embedding v2" },
        es = "Modelo de embedding de texto de segunda generación de OpenAI basado en la familia Ada, que produce vectores de 1536 dimensiones. Muy utilizado para generación aumentada por recuperación antes de que la familia v3 lo reemplazara.",
        zh = "OpenAI 基于 Ada 系列的第二代文本嵌入模型,生成 1536 维向量。在 v3 系列发布之前,被广泛用于检索增强生成。",
        term_es = "text-embedding-ada-002",
        term_zh = "text-embedding-ada-002",
        aliases_es = { "ada-002" },
        aliases_zh = { "ada-002" },
    }
    
    data["text-to-3d"] = {
        short = "The task of generating three-dimensional assets such as point clouds, meshes, or neural radiance fields from natural-language prompts. Common approaches include score distillation sampling on 2D diffusion priors and direct 3D generative models.",
        article = nil,
        aliases = { "text-to-3D", "T2-3D", "T23D", "text to 3D", "text-to-3d generation" },
        es = "Tarea de generar activos tridimensionales como nubes de puntos, mallas o campos de radiancia neuronales a partir de instrucciones en lenguaje natural. Entre los enfoques habituales están el muestreo por destilación de puntuaciones sobre priors de difusión 2D y los modelos generativos 3D directos.",
        zh = "根据自然语言提示生成点云、网格或神经辐射场等三维资产的任务。常见方法包括基于二维扩散先验的得分蒸馏采样以及直接的三维生成模型。",
        term_es = "texto a 3D",
        term_zh = "文本到 3D",
        aliases_es = { "generación texto-a-3D", "T2-3D" },
        aliases_zh = { "文生 3D", "Text-to-3D" },
    }
    
    data["text-to-audio"] = {
        short = "The task of generating audio—including general sounds, speech, or music—from natural-language descriptions. Modern systems typically use diffusion or autoregressive models conditioned on text encoders.",
        article = nil,
        aliases = { "T2A", "text-to-audio generation", "TTA", "text to audio" },
        es = "Tarea de generar audio —sonidos generales, voz o música— a partir de descripciones en lenguaje natural. Los sistemas modernos suelen usar modelos de difusión o autorregresivos condicionados por codificadores de texto.",
        zh = "根据自然语言描述生成音频(包括一般声音、语音或音乐)的任务。现代系统通常采用基于文本编码器条件的扩散模型或自回归模型。",
        term_es = "texto a audio",
        term_zh = "文本到音频",
        aliases_es = { "T2A", "generación texto-a-audio", "TTA" },
        aliases_zh = { "T2A", "TTA", "文生音频" },
    }
    
    data["text-to-audio diffusion"] = {
        short = "Family of diffusion-based generative models (e.g., AudioLDM, Tango, Make-An-Audio) that produce general audio from text prompts by denoising in a latent or spectrogram space conditioned on text embeddings.",
        article = nil,
        aliases = { "TTA diffusion", "diffusion text-to-audio", "AudioLDM-style models" },
        es = "Familia de modelos generativos basados en difusión (AudioLDM, Tango, Make-An-Audio, entre otros) que generan audio general a partir de texto mediante eliminación de ruido en un espacio latente o de espectrograma condicionado en embeddings textuales.",
        zh = "基于扩散模型的文本到音频生成方法(如 AudioLDM、Tango、Make-An-Audio),通过在以文本嵌入为条件的潜空间或谱图空间中去噪,从文本提示生成通用音频。",
        term_es = "difusión texto a audio",
        term_zh = "文本到音频扩散",
        aliases_es = { "text-to-audio diffusion", "modelos de difusión TTA" },
        aliases_zh = { "text-to-audio diffusion", "TTA 扩散模型" },
    }
    
    data["text-to-image generation"] = {
        short = "The task of synthesizing an image that matches a natural-language description, typically performed by diffusion or autoregressive transformer models conditioned on a text encoder such as CLIP or T5.",
        article = nil,
        aliases = { "T2I", "text-to-image", "text-to-image synthesis", "TTI", "text to image generation", "T2I generation" },
        es = "Tarea de sintetizar una imagen que coincida con una descripción en lenguaje natural, realizada habitualmente por modelos de difusión o transformadores autorregresivos condicionados por un codificador de texto como CLIP o T5.",
        zh = "根据自然语言描述合成相应图像的任务,通常由以 CLIP、T5 等文本编码器为条件的扩散模型或自回归 Transformer 完成。",
        term_es = "generación texto a imagen",
        term_zh = "文本到图像生成",
        aliases_es = { "T2I", "síntesis texto-a-imagen", "generación texto-a-imagen" },
        aliases_zh = { "T2I", "文生图", "文本到图像合成" },
    }
    
    data["text-to-image r@1"] = {
        short = "Recall at rank 1 for text-to-image retrieval: the fraction of textual queries for which the correct image is ranked first among all candidate images. A standard image-text retrieval evaluation metric reported alongside R@5 and R@10.",
        article = nil,
        aliases = { "T2I R@1", "T2I Recall@1", "text-to-image recall@1", "text-to-image R@1", "image retrieval R@1 text-to-image" },
        es = "Recall en el rango 1 para la recuperación texto-a-imagen: fracción de consultas textuales para las que la imagen correcta queda en primer lugar entre todas las imágenes candidatas. Métrica estándar de recuperación imagen-texto reportada junto a R@5 y R@10.",
        zh = "文本到图像检索的 Recall@1:在所有候选图像中,正确图像排在第一位的文本查询比例。是与 R@5、R@10 一同报告的标准图文检索评估指标。",
        term_es = "R@1 texto-a-imagen",
        term_zh = "文本到图像 R@1",
        aliases_es = { "T2I R@1", "Recall@1 texto-a-imagen" },
        aliases_zh = { "T2I R@1", "文本到图像 Recall@1", "文生图 R@1" },
    }
    
    data["text-to-kg"] = {
        short = "The task of automatically extracting a structured knowledge graph—entities, relations, and attributes—from unstructured natural-language text, typically via information-extraction pipelines.",
        article = nil,
        aliases = { "text2kg", "Text2KG", "text-to-knowledge-graph", "knowledge graph construction from text", "KG construction from text" },
        es = "Tarea de extraer automáticamente un grafo de conocimiento estructurado —entidades, relaciones y atributos— a partir de texto en lenguaje natural no estructurado, normalmente mediante canalizaciones de extracción de información.",
        zh = "从非结构化自然语言文本中自动抽取结构化知识图谱(实体、关系和属性)的任务,通常通过信息抽取流水线完成。",
        term_es = "texto a grafo de conocimiento",
        term_zh = "文本到知识图谱",
        aliases_es = { "text2kg", "Text2KG", "extracción de grafos de conocimiento desde texto", "construcción de KG a partir de texto" },
        aliases_zh = { "Text2KG", "文本生成知识图谱", "文本构建知识图谱", "知识图谱构建" },
    }
    
    data["text-to-mesh"] = {
        short = "The task of generating a 3D triangle mesh from a natural-language prompt, often by optimizing mesh geometry and textures so that rendered views match a text-conditioned image diffusion prior, or by directly predicting mesh outputs.",
        article = nil,
        aliases = { "Text2Mesh", "text-to-mesh generation", "text to mesh", "text-driven mesh generation" },
        es = "Tarea de generar una malla tridimensional de triángulos a partir de una instrucción en lenguaje natural, a menudo optimizando la geometría y las texturas de la malla para que las vistas renderizadas coincidan con un prior de difusión de imágenes condicionado por texto, o prediciendo directamente la malla.",
        zh = "根据自然语言提示生成三维三角网格的任务,通常通过优化网格几何与纹理使其渲染视图匹配文本条件的图像扩散先验,或直接预测网格输出。",
        term_es = "texto a malla",
        term_zh = "文本到网格",
        aliases_es = { "Text2Mesh", "generación texto-a-malla" },
        aliases_zh = { "Text2Mesh", "文生网格" },
    }
    
    data["text-to-music"] = {
        short = "The task of generating musical audio—melody, harmony, rhythm, and instrumentation—from natural-language descriptions. Recent systems include MusicLM, MusicGen, and audio diffusion models conditioned on text encoders.",
        article = nil,
        aliases = { "T2M music", "text-to-music generation", "text to music", "TTM" },
        es = "Tarea de generar audio musical —melodía, armonía, ritmo e instrumentación— a partir de descripciones en lenguaje natural. Sistemas recientes incluyen MusicLM, MusicGen y modelos de difusión de audio condicionados por codificadores de texto.",
        zh = "根据自然语言描述生成音乐音频(包含旋律、和声、节奏与配器)的任务。近期系统包括 MusicLM、MusicGen 以及以文本编码器为条件的音频扩散模型。",
        term_es = "texto a música",
        term_zh = "文本到音乐",
        aliases_es = { "generación texto-a-música", "TTM" },
        aliases_zh = { "TTM", "文生音乐" },
    }
    
    data["text-to-sparql"] = {
        short = "A semantic parsing task that maps natural-language questions over knowledge graphs into executable SPARQL queries against RDF endpoints such as DBpedia or Wikidata.",
        article = nil,
        aliases = { "Text-to-SPARQL", "NL-to-SPARQL", "natural language to SPARQL", "question-to-SPARQL" },
        es = "Tarea de análisis semántico que convierte preguntas en lenguaje natural sobre grafos de conocimiento en consultas SPARQL ejecutables contra endpoints RDF como DBpedia o Wikidata.",
        zh = "一种语义解析任务,将关于知识图谱的自然语言问题映射为可在 DBpedia、Wikidata 等 RDF 端点上执行的 SPARQL 查询。",
        term_es = "text-to-SPARQL",
        term_zh = "文本到 SPARQL",
        aliases_es = { "lenguaje natural a SPARQL", "NL a SPARQL" },
        aliases_zh = { "自然语言到 SPARQL", "NL2SPARQL" },
    }
    
    data["text-to-speech"] = {
        short = "Task and family of systems that synthesize natural-sounding speech audio from input text, typically composed of a text front-end, an acoustic model, and a vocoder.",
        article = nil,
        aliases = { "TTS", "speech synthesis", "voice synthesis" },
        es = "Tarea y conjunto de sistemas que sintetizan habla audible de sonido natural a partir de un texto de entrada, compuestos típicamente por un front-end lingüístico, un modelo acústico y un vocoder.",
        zh = "从输入文本合成自然语音的任务及相关系统,通常由文本前端、声学模型和声码器组成。",
        term_es = "texto a voz",
        term_zh = "文本转语音",
        aliases_es = { "TTS", "síntesis de voz", "síntesis de habla", "text-to-speech" },
        aliases_zh = { "TTS", "语音合成", "text-to-speech" },
    }
    
    data["text-to-sql"] = {
        short = "A semantic parsing task that translates natural-language questions over a relational schema into executable SQL queries; benchmarks include Spider, WikiSQL, and BIRD.",
        article = nil,
        aliases = { "Text-to-SQL", "NL-to-SQL", "NL2SQL", "natural language to SQL", "question-to-SQL" },
        es = "Tarea de análisis semántico que traduce preguntas en lenguaje natural sobre un esquema relacional en consultas SQL ejecutables; sus referencias incluyen Spider, WikiSQL y BIRD.",
        zh = "一种语义解析任务,将关于关系数据库模式的自然语言问题翻译为可执行的 SQL 查询;典型基准包括 Spider、WikiSQL 和 BIRD。",
        term_es = "text-to-SQL",
        term_zh = "文本到 SQL",
        aliases_es = { "lenguaje natural a SQL", "NL a SQL", "NL2SQL" },
        aliases_zh = { "自然语言到 SQL", "NL2SQL" },
    }
    
    data["text-to-video"] = {
        short = "A class of generative models that synthesize video clips from natural-language prompts, typically extending diffusion or transformer-based image generation with temporal modeling.",
        article = nil,
        aliases = { "T2V", "text to video", "text-to-video generation" },
        es = "Clase de modelos generativos que sintetizan clips de vídeo a partir de indicaciones en lenguaje natural, normalmente ampliando la generación de imágenes basada en difusión o transformers con modelado temporal.",
        zh = "一类从自然语言提示合成视频片段的生成模型,通常通过引入时间建模来扩展基于扩散或 Transformer 的图像生成。",
        term_es = "texto a vídeo",
        term_zh = "文本生成视频",
        aliases_es = { "T2V", "text-to-video" },
        aliases_zh = { "T2V", "文生视频", "text-to-video" },
    }
    
    data["text-vqa"] = {
        short = "A visual question answering benchmark requiring models to read text appearing within natural images (via OCR or end-to-end multimodal reading) in order to answer questions.",
        article = nil,
        aliases = { "TextVQA", "Text-VQA", "Text Visual Question Answering" },
        es = "Un punto de referencia de respuesta visual a preguntas que exige al modelo leer el texto presente dentro de imágenes naturales (por OCR o lectura multimodal de extremo a extremo) para responder las preguntas.",
        zh = "一个视觉问答基准,要求模型读取自然图像中出现的文字(通过 OCR 或端到端多模态阅读)以回答问题。",
        term_es = "TextVQA",
        term_zh = "TextVQA",
        aliases_es = { "TextVQA", "Text-VQA" },
        aliases_zh = { "TextVQA", "Text-VQA", "图像文字问答" },
    }
    
    data["text2video-zero"] = {
        short = "A zero-shot text-to-video method that adapts a pretrained text-to-image diffusion model (e.g. Stable Diffusion) for video by injecting motion-encoded latents and cross-frame attention, without any video-specific training.",
        article = nil,
        aliases = { "Text2Video-Zero", "Text2Video Zero", "T2V-Zero", "text-to-video zero-shot" },
        es = "Un método de texto a video sin entrenamiento específico de video que adapta un modelo de difusión de texto a imagen preentrenado (p. ej. Stable Diffusion) inyectando latentes con codificación de movimiento y atención entre cuadros.",
        zh = "一种零样本文生视频方法,通过向预训练的文生图扩散模型(如 Stable Diffusion)注入带运动编码的潜变量和跨帧注意力,在不进行视频专项训练的情况下生成视频。",
        term_es = "Text2Video-Zero",
        term_zh = "Text2Video-Zero",
        aliases_es = { "Text2Video-Zero", "T2V-Zero" },
        aliases_zh = { "Text2Video-Zero", "T2V-Zero" },
    }
    
    data["textual inversion"] = {
        short = "A technique for personalizing text-to-image diffusion models by learning a new token embedding that represents a user-supplied concept (e.g., an object or style) from a small set of example images.",
        article = nil,
        aliases = { "Textual Inversion", "TI", "embedding personalization" },
        es = "Técnica para personalizar modelos de difusión texto-a-imagen aprendiendo un nuevo embedding de token que representa un concepto suministrado por el usuario (por ejemplo, un objeto o estilo) a partir de un pequeño conjunto de imágenes de ejemplo.",
        zh = "一种个性化文本到图像扩散模型的技术,通过从少量示例图像中学习一个表示用户给定概念(如物体或风格)的新 token 嵌入来实现定制。",
        term_es = "inversión textual",
        term_zh = "文本反演",
        aliases_es = { "Textual Inversion" },
        aliases_zh = { "Textual Inversion", "文本逆映射" },
    }
    
    data["tf"] = {
        short = "Term frequency: the count (raw or normalized) of how often a term appears in a document. Used as a basic feature in bag-of-words representations and as a component of TF-IDF weighting.",
        article = nil,
        aliases = { "TF", "term frequency", "Term Frequency" },
        es = "Frecuencia de término: el número (bruto o normalizado) de veces que un término aparece en un documento. Se utiliza como característica básica en representaciones de bolsa de palabras y como componente de la ponderación TF-IDF.",
        zh = "词频:某个词在文档中出现的次数(原始计数或归一化值),常作为词袋表示的基本特征以及 TF-IDF 加权的组成部分。",
        term_es = "frecuencia de término",
        term_zh = "词频",
        aliases_es = { "TF", "frecuencia del término" },
        aliases_zh = { "TF", "term frequency" },
    }
    
    data["tf-idf"] = {
        short = "A term weighting scheme that combines term frequency in a document with the inverse document frequency across the corpus, giving high weight to terms that are frequent in a document but rare overall.",
        article = nil,
        aliases = { "TF-IDF", "TFIDF", "tf idf", "term frequency-inverse document frequency", "term frequency inverse document frequency" },
        es = "Esquema de ponderación de términos que combina la frecuencia de un término en un documento con la frecuencia inversa de documentos en el corpus, otorgando un peso alto a los términos frecuentes en un documento pero raros en general.",
        zh = "一种词项加权方案,将词在文档中的词频与在整个语料中的逆文档频率结合,对在某文档中频繁但在语料中罕见的词赋予较高权重。",
        term_es = "TF-IDF",
        term_zh = "TF-IDF",
        aliases_es = { "TF-IDF", "TFIDF", "frecuencia de términos por frecuencia inversa de documentos" },
        aliases_zh = { "TF-IDF", "TFIDF", "词频-逆文档频率" },
    }
    
    data["tfbs prediction"] = {
        short = "Computational identification of DNA sites bound by transcription factors, typically by scanning sequences with position weight matrices, k-mer models, or deep neural networks trained on ChIP-seq data.",
        article = nil,
        aliases = { "TFBS prediction", "transcription factor binding site prediction", "TF binding site prediction", "motif scanning" },
        es = "Identificación computacional de sitios de ADN unidos por factores de transcripción, normalmente escaneando secuencias con matrices de peso posicional, modelos de k-meros o redes neuronales profundas entrenadas con datos de ChIP-seq.",
        zh = "通过位置权重矩阵、k-mer 模型或基于 ChIP-seq 数据训练的深度神经网络扫描序列,以计算方法识别转录因子结合的 DNA 位点。",
        term_es = "predicción de TFBS",
        term_zh = "TFBS 预测",
        aliases_es = { "predicción de sitios de unión de factores de transcripción", "escaneo de motivos" },
        aliases_zh = { "转录因子结合位点预测", "TF 结合位点预测", "基序扫描" },
    }
    
    data["the pile"] = {
        short = "An 825 GB English text corpus assembled by EleutherAI from 22 diverse high-quality sources (academic papers, code, books, web text), widely used for pretraining open language models.",
        article = nil,
        aliases = { "The Pile", "Pile", "EleutherAI Pile" },
        es = "Corpus de texto en inglés de 825 GB construido por EleutherAI a partir de 22 fuentes diversas de alta calidad (artículos académicos, código, libros, texto web), muy utilizado para preentrenar modelos de lenguaje abiertos.",
        zh = "EleutherAI 从 22 个多样化高质量来源(学术论文、代码、书籍、网络文本)构建的 825 GB 英文文本语料库,广泛用于开源语言模型的预训练。",
        term_es = "The Pile",
        term_zh = "The Pile",
        aliases_es = { "Pile", "corpus Pile" },
        aliases_zh = { "Pile", "EleutherAI Pile" },
    }
    
    data["the stack"] = {
        short = "A 3 TB permissively-licensed source code dataset across 30+ programming languages released by the BigCode project, used to pretrain code language models such as StarCoder.",
        article = nil,
        aliases = { "The Stack", "BigCode Stack", "stack dataset" },
        es = "Conjunto de datos de código fuente con licencias permisivas de 3 TB en más de 30 lenguajes de programación, publicado por el proyecto BigCode y utilizado para preentrenar modelos de lenguaje de código como StarCoder.",
        zh = "BigCode 项目发布的 3 TB 源代码数据集,涵盖 30 多种编程语言并仅包含宽松许可证代码,用于预训练 StarCoder 等代码语言模型。",
        term_es = "The Stack",
        term_zh = "The Stack",
        aliases_es = { "Stack", "BigCode Stack" },
        aliases_zh = { "Stack", "BigCode Stack" },
    }
    
    data["the stack v2"] = {
        short = "The second-generation BigCode source code dataset (~900 B tokens after deduplication) covering 600+ programming languages, used to pretrain StarCoder2.",
        article = nil,
        aliases = { "The Stack v2", "Stack v2", "Stack 2" },
        es = "Segunda generación del conjunto de datos de código fuente de BigCode (~900 mil millones de tokens tras deduplicación) que abarca más de 600 lenguajes de programación, utilizado para preentrenar StarCoder2.",
        zh = "BigCode 第二代源代码数据集(去重后约 9000 亿 token),涵盖 600 多种编程语言,用于预训练 StarCoder2。",
        term_es = "The Stack v2",
        term_zh = "The Stack v2",
        aliases_es = { "Stack v2" },
        aliases_zh = { "Stack v2", "Stack 2" },
    }
    
    data["theoremqa"] = {
        short = "A question-answering benchmark of STEM problems requiring application of named theorems across mathematics, physics, EE/CS, and finance, used to evaluate reasoning in large language models.",
        article = nil,
        aliases = { "TheoremQA", "Theorem QA", "TheoremQA benchmark" },
        es = "Conjunto de evaluación de preguntas y respuestas con problemas de STEM que requieren aplicar teoremas concretos en matemáticas, física, EE/CC y finanzas, usado para medir el razonamiento de los grandes modelos de lenguaje.",
        zh = "一个 STEM 问答基准,问题需要应用数学、物理、电子/计算机和金融领域的具名定理,用于评估大语言模型的推理能力。",
        term_es = "TheoremQA",
        term_zh = "TheoremQA",
        aliases_es = { "evaluación TheoremQA", "benchmark TheoremQA" },
        aliases_zh = { "TheoremQA 基准", "定理问答基准" },
    }
    
    data["therapeutics data commons"] = {
        short = "An open-source platform that aggregates curated datasets, tasks, and benchmarks for machine learning across the drug-discovery and therapeutics pipeline.",
        article = nil,
        aliases = { "TDC" },
        es = "Plataforma de código abierto que agrega conjuntos de datos, tareas y puntos de referencia curados para aprendizaje automático a lo largo del proceso de descubrimiento de fármacos y terapéutica.",
        zh = "一个开源平台,汇集了药物发现和治疗流程中用于机器学习的精选数据集、任务和基准。",
        term_es = "Therapeutics Data Commons",
        term_zh = "Therapeutics Data Commons",
        aliases_es = { "TDC" },
        aliases_zh = { "TDC", "治疗数据共享" },
    }
    
    data["thermodynamic integration"] = {
        short = "A free-energy calculation method that integrates the ensemble average of the derivative of the Hamiltonian with respect to a coupling parameter along a path between two thermodynamic states.",
        article = nil,
        aliases = { "TI" },
        es = "Método de cálculo de energía libre que integra el promedio del conjunto de la derivada del hamiltoniano respecto a un parámetro de acoplamiento a lo largo de un camino entre dos estados termodinámicos.",
        zh = "一种自由能计算方法,沿连接两个热力学状态的路径,对哈密顿量关于耦合参数导数的系综平均进行积分。",
        term_es = "integración termodinámica",
        term_zh = "热力学积分",
        aliases_es = { "TI" },
        aliases_zh = { "TI", "热力学积分法" },
    }
    
    data["thermostat"] = {
        short = "An auxiliary dynamical variable in stochastic-gradient MCMC samplers (such as SGNHT) that adaptively absorbs gradient-noise heat to keep the system at the target temperature, improving sampling robustness when the noise variance is unknown.",
        article = nil,
        aliases = { "Nose-Hoover thermostat", "stochastic thermostat", "SGNHT thermostat" },
        es = "Variable dinámica auxiliar en muestreadores MCMC con gradiente estocástico (como SGNHT) que absorbe adaptativamente el calor del ruido del gradiente para mantener el sistema a la temperatura objetivo, mejorando la robustez del muestreo cuando la varianza del ruido es desconocida.",
        zh = "随机梯度 MCMC 采样器(如 SGNHT)中的辅助动力学变量,能自适应吸收梯度噪声产生的热量,使系统保持在目标温度,从而在噪声方差未知时提高采样的稳健性。",
        term_es = "termostato",
        term_zh = "恒温器",
        aliases_es = { "termostato de Nose-Hoover", "termostato estocástico", "thermostat" },
        aliases_zh = { "Nose-Hoover 恒温器", "随机恒温器", "thermostat" },
    }
    
    data["thinking tokens"] = {
        short = "Tokens emitted by a reasoning model during an internal deliberation phase before producing the final answer; they extend test-time compute and are sometimes hidden from the user.",
        article = nil,
        aliases = { "reasoning tokens", "chain-of-thought tokens", "scratchpad tokens" },
        es = "Tokens emitidos por un modelo de razonamiento durante una fase de deliberación interna antes de producir la respuesta final; aumentan el cómputo en tiempo de inferencia y a veces se ocultan al usuario.",
        zh = "推理模型在生成最终答案之前的内部思考阶段所输出的 token,用于扩展推理时计算,有时对用户隐藏。",
        term_es = "tokens de razonamiento",
        term_zh = "思考 token",
        aliases_es = { "thinking tokens", "tokens de pensamiento" },
        aliases_zh = { "推理 token", "思维链 token", "thinking tokens" },
    }
    
    data["third-party audit"] = {
        short = "An evaluation of an AI system conducted by an independent external party, not the developer or deployer, to assess fairness, safety, accuracy, or compliance. Considered a key governance mechanism in emerging AI regulation and standards.",
        article = nil,
        aliases = { "external audit", "independent audit", "third party audit" },
        es = "Evaluación de un sistema de IA realizada por una parte externa independiente, distinta del desarrollador o del implantador, para valorar equidad, seguridad, exactitud o cumplimiento normativo. Se considera un mecanismo clave de gobernanza en la regulación y los estándares emergentes de IA.",
        zh = "由独立第三方(并非开发者或部署方)对 AI 系统进行的评估,以审查公平性、安全性、准确性或合规性。在新兴 AI 监管与标准中被视为关键的治理机制。",
        term_es = "auditoría de terceros",
        term_zh = "第三方审计",
        aliases_es = { "auditoría externa", "auditoría independiente", "auditoría por terceros" },
        aliases_zh = { "外部审计", "独立审计", "第三方审核" },
    }
    
    data["this looks like that"] = {
        short = "An interpretable image classifier (ProtoPNet) that explains its predictions by comparing parts of the input image to learned class-specific prototypes — predicting class y because this part looks like that prototype (Chen et al., 2019).",
        article = nil,
        aliases = { "ProtoPNet", "This Looks Like That", "prototype part network" },
        es = "Clasificador de imágenes interpretable (ProtoPNet) que explica sus predicciones comparando partes de la imagen de entrada con prototipos específicos de clase aprendidos: predice la clase y porque esta parte se parece a aquel prototipo.",
        zh = "一种可解释图像分类器(ProtoPNet),通过将输入图像的局部与学习到的类别原型进行比较来解释预测——之所以判定为类别 y,是因为这一部分看起来像那个原型(Chen 等,2019)。",
        term_es = "This Looks Like That",
        term_zh = "This Looks Like That",
        aliases_es = { "ProtoPNet", "esto se parece a aquello" },
        aliases_zh = { "ProtoPNet", "原型部件网络", "这个看起来像那个" },
    }
    
    data["thompson sampling"] = {
        short = "A Bayesian action-selection strategy that maintains a posterior distribution over reward parameters and selects each action by sampling from the posterior and acting greedily with respect to the sample, naturally trading off exploration and exploitation.",
        article = nil,
        aliases = { "Thompson sampling", "posterior sampling", "probability matching" },
        es = "Estrategia bayesiana de selección de acciones que mantiene una distribución a posteriori sobre los parámetros de recompensa y elige cada acción muestreando de dicha posterior y actuando voraz respecto a la muestra, equilibrando de forma natural exploración y explotación.",
        zh = "一种贝叶斯动作选择策略,维护奖励参数的后验分布,通过从后验中采样并对采样结果贪心行动来选择每个动作,从而在探索与利用之间自然地取得平衡。",
        term_es = "muestreo de Thompson",
        term_zh = "汤普森采样",
        aliases_es = { "Thompson sampling", "muestreo posterior" },
        aliases_zh = { "Thompson sampling", "后验采样" },
    }
    
    data["thompson sampling acquisition"] = {
        short = "A Bayesian-optimization acquisition rule that draws a sample from the posterior over the objective and selects the input that maximizes that sample, naturally balancing exploration and exploitation through posterior uncertainty.",
        article = nil,
        aliases = { "Thompson sampling", "TS acquisition", "posterior sampling acquisition" },
        es = "Regla de adquisición en optimización bayesiana que muestrea una realización del posterior sobre el objetivo y elige la entrada que maximiza esa realización, equilibrando exploración y explotación a través de la incertidumbre posterior.",
        zh = "贝叶斯优化中的一种采集规则:从目标函数的后验中抽取一个样本,并选择使该样本最大化的输入,通过后验不确定性自然地平衡探索与利用。",
        term_es = "adquisición por muestreo de Thompson",
        term_zh = "Thompson 采样采集函数",
        aliases_es = { "muestreo de Thompson", "TS", "adquisición de muestreo posterior", "Thompson sampling" },
        aliases_zh = { "Thompson 采样", "TS 采集", "后验采样采集", "Thompson sampling" },
    }
    
    data["thompson sampling bo"] = {
        short = "An acquisition strategy in Bayesian optimization that draws a sample function from the surrogate's posterior and selects the input maximizing that sample. It naturally trades off exploration and exploitation through posterior randomness.",
        article = nil,
        aliases = { "Thompson sampling BO", "Thompson Sampling for Bayesian Optimization", "Thompson sampling acquisition", "TS-BO" },
        es = "Estrategia de adquisición en optimización bayesiana que extrae una función muestreada del posterior del modelo sustituto y selecciona la entrada que la maximiza. Equilibra de forma natural exploración y explotación mediante la aleatoriedad del posterior.",
        zh = "贝叶斯优化中的采集策略:从代理模型的后验分布中采样一条函数,并选择使该样本函数取最大值的输入;通过后验的随机性自然地在探索与利用之间取得平衡。",
        term_es = "muestreo de Thompson para BO",
        term_zh = "贝叶斯优化中的汤普森采样",
        aliases_es = { "Thompson sampling BO", "muestreo de Thompson en optimización bayesiana", "TS-BO" },
        aliases_zh = { "Thompson 采样 BO", "用于贝叶斯优化的汤普森采样", "TS-BO" },
    }
    
    data["thor prover"] = {
        short = "A neuro-symbolic theorem-proving system that integrates language-model premise selection with the Sledgehammer tactic in the Isabelle/HOL proof assistant to discharge proof obligations.",
        article = nil,
        aliases = { "Thor", "THOR prover", "Thor theorem prover", "Thor (Isabelle)" },
        es = "Sistema neurosimbólico de demostración de teoremas que combina la selección de premisas mediante un modelo de lenguaje con la táctica Sledgehammer del asistente Isabelle/HOL para resolver obligaciones de prueba.",
        zh = "一种神经符号定理证明系统,将语言模型的前提选择与 Isabelle/HOL 证明助手的 Sledgehammer 策略相结合,用于完成证明义务。",
        term_es = "Thor",
        term_zh = "Thor 证明器",
        aliases_es = { "demostrador Thor", "prover Thor" },
        aliases_zh = { "Thor", "Thor 定理证明器" },
    }
    
    data["threading method"] = {
        short = "A protein structure prediction approach that aligns a target sequence to known structural templates by evaluating sequence-structure compatibility, used when sequence homology is too weak for standard homology modeling.",
        article = nil,
        aliases = { "protein threading", "fold recognition", "threading", "sequence-structure threading" },
        es = "Enfoque de predicción de estructura proteica que alinea una secuencia objetivo con plantillas estructurales conocidas evaluando la compatibilidad secuencia-estructura, usado cuando la homología de secuencia es demasiado débil para el modelado por homología estándar.",
        zh = "一种蛋白质结构预测方法,通过评估序列-结构兼容性将目标序列与已知结构模板对齐,适用于序列同源性过弱无法采用标准同源建模的情况。",
        term_es = "método de threading",
        term_zh = "穿线法",
        aliases_es = { "threading de proteínas", "reconocimiento de plegamientos", "fold recognition" },
        aliases_zh = { "蛋白质穿线法", "折叠识别", "threading 方法" },
    }
    
    data["threshold cryptography"] = {
        short = "A cryptographic paradigm in which a secret key or operation is split among n parties so that any subset of size at least t can jointly perform the operation, while fewer than t parties learn nothing.",
        article = nil,
        aliases = { "threshold cryptosystem", "(t,n) threshold scheme", "t-of-n cryptography", "threshold secret sharing" },
        es = "Paradigma criptográfico en el que una clave secreta o una operación se reparte entre n partes de modo que cualquier subconjunto de tamaño al menos t pueda ejecutar conjuntamente la operación, mientras que con menos de t partes no se obtiene información.",
        zh = "一种密码学范式,将密钥或操作在n个参与方之间分割,使任意至少t个参与方能够联合执行该操作,而少于t个参与方则无法获得任何信息。",
        term_es = "criptografía de umbral",
        term_zh = "门限密码学",
        aliases_es = { "criptosistema de umbral", "esquema (t,n) de umbral", "compartición de secreto con umbral" },
        aliases_zh = { "门限密码体制", "(t,n)门限方案", "阈值密码学" },
    }
    
    data["threshold optimization"] = {
        short = "A post-processing fairness technique that selects different decision thresholds for different demographic groups to satisfy a fairness criterion such as equalized odds or demographic parity.",
        article = nil,
        aliases = { "group-specific thresholds", "threshold adjustment", "thresholding for fairness" },
        es = "Técnica de posprocesamiento que ajusta umbrales de decisión específicos por grupo demográfico para cumplir un criterio de equidad como equalized odds o paridad demográfica.",
        zh = "一种后处理公平性技术,为不同人口群体选择不同的决策阈值,以满足均等几率或人口统计学平等等公平性标准。",
        term_es = "optimización de umbrales",
        term_zh = "阈值优化",
        aliases_es = { "ajuste de umbrales por grupo", "umbralización para equidad" },
        aliases_zh = { "分组阈值调整", "公平性阈值调优" },
    }
    
    data["threshold sparsification"] = {
        short = "A communication-efficient gradient compression method that transmits only those gradient coordinates whose absolute values exceed a fixed or adaptive threshold, with the rest set to zero or accumulated locally.",
        article = nil,
        aliases = { "thresholded sparsification", "magnitude thresholding", "absolute-value sparsification" },
        es = "Método de compresión de gradientes eficiente en comunicación que transmite solo aquellas coordenadas del gradiente cuyos valores absolutos superan un umbral fijo o adaptativo, dejando el resto en cero o acumulándolas localmente.",
        zh = "一种通信高效的梯度压缩方法,仅传输绝对值超过固定或自适应阈值的梯度分量,其余置零或在本地累积。",
        term_es = "esparsificación por umbral",
        term_zh = "阈值稀疏化",
        aliases_es = { "esparsificación umbralizada", "umbralizado por magnitud" },
        aliases_zh = { "门限稀疏化", "幅值阈值稀疏化", "绝对值稀疏化" },
    }
    
    data["tier-based federated learning"] = {
        short = "A hierarchical federated learning architecture that groups clients into tiers (often by capability, latency, or geography) and performs intra-tier aggregation at edge nodes before forwarding aggregates to a higher-level server.",
        article = nil,
        aliases = { "tiered federated learning", "TiFL", "hierarchical FL", "multi-tier federated learning" },
        es = "Arquitectura jerárquica de aprendizaje federado que agrupa a los clientes en niveles (a menudo por capacidad, latencia o geografía) y realiza agregación intra-nivel en nodos de borde antes de reenviar los agregados a un servidor de nivel superior.",
        zh = "一种分层联邦学习架构,将客户端按能力、延迟或地理位置等划分为若干层,先在边缘节点内进行层内聚合,再将聚合结果转发到更高层的服务器。",
        term_es = "aprendizaje federado por niveles",
        term_zh = "分层联邦学习",
        aliases_es = { "TiFL", "FL jerárquico", "aprendizaje federado jerárquico" },
        aliases_zh = { "TiFL", "层级联邦学习", "多层联邦学习" },
    }
    
    data["tiered-imagenet"] = {
        short = "A few-shot classification benchmark derived from ImageNet that splits classes into 34 disjoint super-categories so that meta-train, meta-validation, and meta-test sets contain semantically distinct concepts. Designed to be harder than mini-ImageNet.",
        article = nil,
        aliases = { "tieredImageNet", "tiered ImageNet", "tiered-ImageNet", "tieredImagenet" },
        es = "Banco de pruebas de clasificación con pocos ejemplos derivado de ImageNet que divide las clases en 34 supercategorías disjuntas, de modo que los conjuntos de meta-entrenamiento, meta-validación y meta-prueba contengan conceptos semánticamente distintos. Diseñado para ser más exigente que mini-ImageNet.",
        zh = "源自 ImageNet 的小样本分类基准,将类别划分为 34 个不相交的超类,使元训练、元验证和元测试集合包含语义上不同的概念,比 mini-ImageNet 更具挑战性。",
        term_es = "tiered-ImageNet",
        term_zh = "tiered-ImageNet",
        aliases_es = { "tieredImageNet", "tiered ImageNet" },
        aliases_zh = { "tieredImageNet", "tiered ImageNet", "分层 ImageNet" },
    }
    
    data["tikhonov prior"] = {
        short = "A zero-mean isotropic Gaussian prior on parameters that, when combined with a Gaussian likelihood, yields the maximum-a-posteriori estimate equivalent to Tikhonov (L2) regularized regression.",
        article = nil,
        aliases = { "Tikhonov prior", "L2 prior", "ridge prior", "Gaussian weight prior" },
        es = "Prior gaussiano isotrópico de media cero sobre los parámetros que, combinado con una verosimilitud gaussiana, produce una estimación máxima a posteriori equivalente a la regresión regularizada de Tikhonov (L2).",
        zh = "一种均值为零的各向同性高斯参数先验,与高斯似然结合时其最大后验估计等价于 Tikhonov(L2)正则化回归。",
        term_es = "prior de Tikhonov",
        term_zh = "Tikhonov 先验",
        aliases_es = { "prior L2", "prior ridge", "prior gaussiano sobre los pesos", "Tikhonov prior" },
        aliases_zh = { "L2 先验", "ridge 先验", "高斯权重先验", "Tikhonov prior" },
    }
    
    data["tiktoken"] = {
        short = "OpenAI's open-source byte-pair encoding tokenizer library written in Rust with Python bindings, providing fast tokenization for GPT models.",
        article = nil,
        aliases = { "tiktoken", "OpenAI tiktoken", "tiktoken tokenizer" },
        es = "Biblioteca tokenizadora de codificación por pares de bytes de código abierto de OpenAI, escrita en Rust con bindings de Python, que proporciona tokenización rápida para los modelos GPT.",
        zh = "OpenAI 开源的字节对编码分词器库,使用 Rust 编写并提供 Python 绑定,为 GPT 模型提供快速分词。",
        term_es = "tiktoken",
        term_zh = "tiktoken",
        aliases_es = { "tokenizador tiktoken" },
        aliases_zh = { "OpenAI tiktoken" },
    }
    
    data["tilted empirical risk minimization"] = {
        short = "A generalization of ERM that replaces the average loss with an exponentially tilted log-mean-exp objective, controlled by a tilt parameter that smoothly interpolates between average-, max-, and min-case loss for fairness and robustness.",
        article = nil,
        aliases = { "TERM", "tilted ERM", "exponentially tilted ERM" },
        es = "Generalización de la minimización del riesgo empírico que sustituye la pérdida promedio por un objetivo log-mean-exp con inclinación exponencial, controlado por un parámetro de inclinación que interpola suavemente entre pérdidas promedio, máxima y mínima, en favor de la equidad y la robustez.",
        zh = "对经验风险最小化的推广,用指数倾斜的log-mean-exp目标替代平均损失,由一个倾斜参数在平均、最坏和最好情形损失之间平滑插值,以提升公平性和鲁棒性。",
        term_es = "minimización del riesgo empírico inclinada",
        term_zh = "倾斜经验风险最小化",
        aliases_es = { "TERM", "ERM inclinada", "ERM con inclinación exponencial" },
        aliases_zh = { "TERM", "倾斜ERM", "指数倾斜ERM" },
    }
    
    data["time-domain audio separation"] = {
        short = "Source separation approach that operates directly on the raw waveform rather than on time-frequency representations, exemplified by Conv-TasNet and DPRNN.",
        article = nil,
        aliases = { "waveform-domain separation", "TasNet-style separation", "raw-waveform source separation" },
        es = "Enfoque de separación de fuentes que opera directamente sobre la forma de onda en lugar de sobre representaciones tiempo-frecuencia, ejemplificado por Conv-TasNet y DPRNN.",
        zh = "直接在原始波形上而非时频表示上进行的源分离方法,代表模型包括 Conv-TasNet 和 DPRNN。",
        term_es = "separación de audio en el dominio del tiempo",
        term_zh = "时域音频分离",
        aliases_es = { "separación en dominio temporal", "separación tipo TasNet" },
        aliases_zh = { "波形域分离", "TasNet 类分离" },
    }
    
    data["time-varying confounder"] = {
        short = "A covariate that confounds the relationship between treatment and outcome and itself changes over time, possibly in response to past treatment. Standard regression adjustment is biased; g-methods such as the g-formula, IPTW, and g-estimation are required.",
        article = nil,
        aliases = { "time-dependent confounder", "time-varying confounding", "time-dependent confounding" },
        es = "Covariable que confunde la relación entre tratamiento y resultado y que además cambia a lo largo del tiempo, posiblemente en respuesta a tratamientos previos. El ajuste por regresión estándar es sesgado y se requieren métodos g como la fórmula g, IPTW y g-estimación.",
        zh = "随时间变化、可能受先前处理影响、并对处理与结果关系造成混杂的协变量。标准回归调整会产生偏差,需要使用 g-方法,如 g-公式、IPTW 和 g-估计。",
        term_es = "factor de confusión variable en el tiempo",
        term_zh = "时变混杂因素",
        aliases_es = { "confusor variable en el tiempo", "confusor dependiente del tiempo", "confusión variable en el tiempo" },
        aliases_zh = { "时间依赖混杂因素", "时变混杂", "时间相关混杂" },
    }
    
    data["time-varying treatment"] = {
        short = "An exposure or intervention that is assigned and may change over multiple time points within the same unit. Estimating its cumulative effect requires methods that handle time-varying confounders affected by prior treatment.",
        article = nil,
        aliases = { "time-dependent treatment", "longitudinal treatment", "dynamic treatment", "sequential treatment" },
        es = "Exposición o intervención que se asigna y puede cambiar en múltiples puntos temporales dentro de una misma unidad. Estimar su efecto acumulado requiere métodos que manejen factores de confusión variables en el tiempo afectados por tratamientos previos.",
        zh = "在同一单元内于多个时间点分配且可能变化的暴露或干预。估计其累积效应需要能够处理受先前处理影响的时变混杂因素的方法。",
        term_es = "tratamiento variable en el tiempo",
        term_zh = "时变处理",
        aliases_es = { "tratamiento dependiente del tiempo", "tratamiento longitudinal", "tratamiento secuencial", "tratamiento dinámico" },
        aliases_zh = { "时间依赖处理", "纵向处理", "序贯处理", "动态处理" },
    }
    
    data["timesformer"] = {
        short = "A transformer-based video classification architecture that applies divided space-time self-attention, alternating attention along the spatial axis within frames and along the temporal axis across frames.",
        article = nil,
        aliases = { "TimeSformer", "Time-Sformer", "Divided Space-Time Attention" },
        es = "Una arquitectura de clasificación de video basada en transformer que aplica auto-atención espacio-temporal dividida, alternando la atención en el eje espacial dentro de los cuadros y en el eje temporal entre cuadros.",
        zh = "一种基于 Transformer 的视频分类架构,采用分离式时空自注意力,在帧内沿空间维度和跨帧沿时间维度交替应用注意力。",
        term_es = "TimeSformer",
        term_zh = "TimeSformer",
        aliases_es = { "TimeSformer", "atención espacio-temporal dividida" },
        aliases_zh = { "TimeSformer", "时空分离注意力" },
    }
    
    data["timeshap"] = {
        short = "TimeSHAP, a SHAP variant tailored to recurrent and sequence models that produces Shapley-value attributions over both features and timesteps, including pruning of irrelevant history (Bento et al., 2021).",
        article = nil,
        aliases = { "TimeSHAP", "Time SHAP", "time-shap" },
        es = "TimeSHAP, una variante de SHAP adaptada a modelos recurrentes y secuenciales que produce atribuciones basadas en valores de Shapley tanto sobre características como sobre pasos de tiempo, incluyendo la poda de historia irrelevante.",
        zh = "TimeSHAP:面向循环网络和序列模型的 SHAP 变体,可在特征和时间步两个维度上给出 Shapley 值归因,并对无关历史进行剪枝(Bento 等,2021)。",
        term_es = "TimeSHAP",
        term_zh = "TimeSHAP",
        aliases_es = { "TimeSHAP", "Time SHAP" },
        aliases_zh = { "TimeSHAP", "时间 SHAP", "时序 SHAP" },
    }
    
    data["timit"] = {
        short = "A small (~5-hour) phonetically balanced read-speech corpus of American English with manual phonetic and word-level segmentation, historically the standard benchmark for phone recognition.",
        article = nil,
        aliases = { "TIMIT", "TIMIT corpus", "DARPA TIMIT" },
        es = "Corpus pequeño (~5 horas) de habla leída en inglés estadounidense, fonéticamente equilibrado y con segmentación manual a nivel fonético y de palabra; ha sido históricamente el banco de pruebas estándar para reconocimiento de fonemas.",
        zh = "一个约 5 小时、音素分布均衡的美式英语朗读语料库,带有人工标注的音素和词级切分,历史上是音素识别的标准基准。",
        term_es = "TIMIT",
        term_zh = "TIMIT",
        aliases_es = { "corpus TIMIT", "TIMIT" },
        aliases_zh = { "TIMIT 语料库" },
    }
    
    data["tinyllama"] = {
        short = "A 1.1B-parameter open-source language model trained on 3T tokens following the Llama 2 architecture, designed to be small enough for edge deployment while remaining competitive with similarly-sized models.",
        article = nil,
        aliases = { "TinyLlama", "TinyLlama 1.1B", "tiny llama" },
        es = "Modelo de lenguaje de código abierto de 1100 millones de parámetros entrenado con 3 billones de tokens siguiendo la arquitectura Llama 2, diseñado para ser lo bastante pequeño como para implementarse en el edge sin perder competitividad frente a modelos de tamaño similar.",
        zh = "一个 11 亿参数的开源语言模型,遵循 Llama 2 架构并在 3 万亿 token 上训练,旨在足够小巧以便边缘部署,同时在同等规模模型中保持竞争力。",
        term_es = "TinyLlama",
        term_zh = "TinyLlama",
        aliases_es = { "TinyLlama 1.1B" },
        aliases_zh = { "TinyLlama 1.1B" },
    }
    
    data["tinyml"] = {
        short = "A subfield of machine learning focused on deploying inference (and increasingly on-device training) on highly resource-constrained microcontrollers and embedded devices, typically with kilobytes of memory and milliwatt power budgets.",
        article = nil,
        aliases = { "TinyML", "tiny ML", "embedded ML", "microcontroller ML" },
        es = "Subcampo del aprendizaje automático centrado en desplegar inferencia (y cada vez más entrenamiento en dispositivo) sobre microcontroladores y dispositivos embebidos altamente restringidos, típicamente con kilobytes de memoria y presupuestos de potencia de milivatios.",
        zh = "机器学习的一个子领域,专注于在资源极其受限的微控制器和嵌入式设备上部署推理(以及越来越多的设备端训练),通常仅有千字节级内存和毫瓦级功耗预算。",
        term_es = "TinyML",
        term_zh = "TinyML",
        aliases_es = { "TinyML", "ML embebido", "ML en microcontroladores" },
        aliases_zh = { "TinyML", "嵌入式机器学习", "微控制器机器学习" },
    }
    
    data["tip3p water model"] = {
        short = "A three-site rigid water model widely used in classical molecular dynamics, with point charges on the oxygen and two hydrogens and a single Lennard-Jones site on the oxygen.",
        article = nil,
        aliases = { "TIP3P", "TIP3P water" },
        es = "Modelo rígido de agua de tres sitios ampliamente utilizado en dinámica molecular clásica, con cargas puntuales en el oxígeno y los dos hidrógenos y un único sitio de Lennard-Jones en el oxígeno.",
        zh = "一种在经典分子动力学中广泛使用的刚性三位点水模型,氧和两个氢上带有点电荷,氧上有单个 Lennard-Jones 位点。",
        term_es = "modelo de agua TIP3P",
        term_zh = "TIP3P 水模型",
        aliases_es = { "TIP3P", "agua TIP3P" },
        aliases_zh = { "TIP3P", "TIP3P 水" },
    }
    
    data["tip4p water model"] = {
        short = "A four-site rigid water model that places the negative charge on a virtual site (M-site) along the H-O-H bisector instead of the oxygen, improving liquid-phase properties over TIP3P.",
        article = nil,
        aliases = { "TIP4P", "TIP4P water" },
        es = "Modelo rígido de agua de cuatro sitios que coloca la carga negativa en un sitio virtual (sitio M) a lo largo de la bisectriz H-O-H en lugar del oxígeno, mejorando las propiedades en fase líquida respecto a TIP3P.",
        zh = "一种刚性四位点水模型,将负电荷放置在沿 H-O-H 角平分线的虚拟位点(M 位点)上而非氧原子上,相对 TIP3P 改善了液相性质。",
        term_es = "modelo de agua TIP4P",
        term_zh = "TIP4P 水模型",
        aliases_es = { "TIP4P", "agua TIP4P" },
        aliases_zh = { "TIP4P", "TIP4P 水" },
    }
    
    data["tipping point analysis"] = {
        short = "A sensitivity analysis that determines how strong an unmeasured confounder or how extreme an assumption about missing outcomes would need to be to overturn a study's qualitative conclusion. Common in regulatory and clinical-trial settings.",
        article = nil,
        aliases = { "tipping-point analysis", "tipping point sensitivity analysis", "tipping point method" },
        es = "Análisis de sensibilidad que determina qué tan fuerte tendría que ser un factor de confusión no medido o qué tan extremo un supuesto sobre resultados faltantes para invertir la conclusión cualitativa de un estudio. Es común en contextos regulatorios y de ensayos clínicos.",
        zh = "一种敏感性分析方法,用于确定未测量混杂因素需要多强、或对缺失结果的假设需要多极端,才足以推翻研究的定性结论。常见于监管和临床试验场景。",
        term_es = "análisis del punto de inflexión",
        term_zh = "临界点分析",
        aliases_es = { "análisis de punto de inflexión", "análisis de sensibilidad por punto de inflexión", "método del punto de inflexión" },
        aliases_zh = { "翻转点分析", "拐点敏感性分析", "临界点敏感性分析" },
    }
    
    data["titanet"] = {
        short = "Speaker recognition neural model from NVIDIA NeMo built on a 1D depthwise-separable convolutional backbone with attentive statistics pooling, producing fixed-dimensional speaker embeddings.",
        article = nil,
        aliases = { "TitaNet", "TitaNet-L", "TitaNet-S" },
        es = "Modelo neuronal de reconocimiento de locutor de NVIDIA NeMo construido sobre una arquitectura convolucional 1D separable en profundidad con pooling estadístico atento, que produce embeddings de locutor de dimensión fija.",
        zh = "NVIDIA NeMo 提出的说话人识别神经模型,基于一维深度可分离卷积主干和注意力统计池化,生成固定维度的说话人嵌入。",
        term_es = "TitaNet",
        term_zh = "TitaNet",
        aliases_es = { "TitaNet" },
        aliases_zh = { "TitaNet" },
    }
    
    data["titsias bound"] = {
        short = "The variational lower bound on the log marginal likelihood of a sparse Gaussian process introduced by Titsias (2009), based on inducing-point variables and used as the foundation of modern sparse and variational GP methods.",
        article = nil,
        aliases = { "Titsias bound", "Titsias 2009 bound", "sparse GP variational bound", "VFE bound" },
        es = "Cota variacional inferior sobre el logaritmo de la verosimilitud marginal de un proceso gaussiano disperso introducida por Titsias (2009), basada en variables inducidas y utilizada como base de los métodos modernos de procesos gaussianos dispersos y variacionales.",
        zh = "Titsias(2009)提出的稀疏高斯过程对数边际似然的变分下界,基于诱导点变量,是现代稀疏与变分 GP 方法的基础。",
        term_es = "cota de Titsias",
        term_zh = "Titsias 下界",
        aliases_es = { "cota variacional para GP disperso", "cota VFE", "Titsias bound" },
        aliases_zh = { "稀疏 GP 变分下界", "VFE 下界", "Titsias bound" },
    }
    
    data["tm-align"] = {
        short = "A protein structure alignment algorithm that produces a length-independent similarity score (TM-score) by optimizing residue-to-residue correspondences via dynamic programming and rotation matrices.",
        article = nil,
        aliases = { "TM-align", "TMalign" },
        es = "Algoritmo de alineamiento de estructuras proteicas que produce una puntuación de similitud independiente de la longitud (TM-score) optimizando las correspondencias residuo a residuo mediante programación dinámica y matrices de rotación.",
        zh = "一种蛋白质结构比对算法,通过动态规划和旋转矩阵优化残基之间的对应关系,给出与长度无关的相似性得分(TM-score)。",
        term_es = "TM-align",
        term_zh = "TM-align",
        aliases_es = { "TMalign" },
        aliases_zh = { "TMalign", "TM 比对" },
    }
    
    data["tm-score"] = {
        short = "A length-independent metric of protein structural similarity ranging from 0 to 1, where values above 0.5 typically indicate the same fold.",
        article = nil,
        aliases = { "TM-score", "template modeling score" },
        es = "Métrica de similitud estructural de proteínas independiente de la longitud que varía entre 0 y 1, donde valores superiores a 0.5 suelen indicar el mismo plegamiento.",
        zh = "一种与长度无关的蛋白质结构相似性度量,取值范围 0 到 1,通常大于 0.5 表示相同折叠。",
        term_es = "TM-score",
        term_zh = "TM-score",
        aliases_es = { "puntuación TM", "template modeling score" },
        aliases_zh = { "TM 分数", "模板建模分数" },
    }
    
    data["tmhmm"] = {
        short = "A hidden Markov model–based predictor of transmembrane helices in proteins, widely used to annotate membrane topology from amino acid sequence.",
        article = nil,
        aliases = { "TMHMM" },
        es = "Predictor basado en modelos ocultos de Markov de hélices transmembrana en proteínas, ampliamente utilizado para anotar la topología de membrana a partir de la secuencia de aminoácidos.",
        zh = "一种基于隐马尔可夫模型的蛋白质跨膜螺旋预测工具,广泛用于根据氨基酸序列注释膜拓扑结构。",
        term_es = "TMHMM",
        term_zh = "TMHMM",
        aliases_es = { "TMHMM" },
        aliases_zh = { "TMHMM" },
    }
    
    data["tmt labeling"] = {
        short = "Tandem mass tag labeling: a chemical isobaric tagging strategy in quantitative proteomics that allows multiplexed quantification of peptides from up to 18 samples in a single mass-spectrometry run.",
        article = nil,
        aliases = { "TMT labeling", "tandem mass tag labeling", "TMT labelling", "TMT", "isobaric labeling" },
        es = "Marcaje con tandem mass tags: estrategia química de etiquetado isobárico en proteómica cuantitativa que permite la cuantificación multiplexada de péptidos de hasta 18 muestras en una sola corrida de espectrometría de masas.",
        zh = "串联质量标签标记:定量蛋白质组学中的一种化学等压标记策略,可在一次质谱运行中对多达 18 个样本的肽段进行多重定量。",
        term_es = "marcaje TMT",
        term_zh = "TMT 标记",
        aliases_es = { "etiquetado TMT", "marcaje con tandem mass tag", "marcaje isobárico" },
        aliases_zh = { "TMT 标签标记", "串联质量标签标记", "等压标记" },
    }
    
    data["tnt-complex"] = {
        short = "A temporal knowledge-graph embedding model that extends ComplEx with time-dependent complex-valued entity and relation factors to score time-stamped triples.",
        article = nil,
        aliases = { "TNT-ComplEx", "TNTComplEx", "Temporal NT ComplEx" },
        es = "Modelo de incrustación de grafos de conocimiento temporales que extiende ComplEx con factores complejos dependientes del tiempo para entidades y relaciones, con el fin de puntuar tripletas con marca de tiempo.",
        zh = "一种时序知识图谱嵌入模型,通过为实体和关系引入随时间变化的复值因子来扩展 ComplEx,从而对带时间戳的三元组进行打分。",
        term_es = "TNT-ComplEx",
        term_zh = "TNT-ComplEx",
        aliases_es = { "TNTComplEx" },
        aliases_zh = { "TNTComplEx", "时序 ComplEx" },
    }
    
    data["token attribution"] = {
        short = "An interpretability technique that assigns an importance score to each input token, quantifying its contribution to a model's prediction.",
        article = nil,
        aliases = { "token-level attribution", "per-token attribution" },
        es = "Técnica de interpretabilidad que asigna a cada token de entrada una puntuación que cuantifica su contribución a la predicción del modelo.",
        zh = "一种可解释性技术,为每个输入 token 分配重要性分数,以量化其对模型预测的贡献。",
        term_es = "atribución por token",
        term_zh = "token 归因",
        aliases_es = { "atribución a nivel de token", "atribución por token" },
        aliases_zh = { "逐 token 归因", "token 级归因" },
    }
    
    data["token merging"] = {
        short = "An inference-time technique that combines similar tokens within a transformer layer to reduce sequence length and accelerate computation, originally proposed for vision transformers (ToMe).",
        article = nil,
        aliases = { "ToMe", "Token Merging", "token reduction" },
        es = "Técnica aplicada en inferencia que combina tokens similares dentro de una capa de transformer para reducir la longitud de la secuencia y acelerar el cómputo; propuesta originalmente para transformers de visión (ToMe).",
        zh = "一种推理阶段技术,通过在 Transformer 层内合并相似 token 来缩短序列长度并加速计算,最初针对视觉 Transformer 提出(ToMe)。",
        term_es = "fusión de tokens",
        term_zh = "token 合并",
        aliases_es = { "ToMe", "token merging" },
        aliases_zh = { "ToMe", "token merging" },
    }
    
    data["token-level alignment multimodal"] = {
        short = "A family of multimodal techniques that align individual tokens (words or sub-word units) with specific visual regions or audio frames, enabling fine-grained cross-modal grounding rather than only global pair-level matching.",
        article = nil,
        aliases = { "token-level alignment", "fine-grained multimodal alignment", "word-region alignment", "token-region alignment" },
        es = "Familia de técnicas multimodales que alinean tokens individuales (palabras o subpalabras) con regiones visuales o cuadros de audio específicos, permitiendo un anclaje cruzado de grano fino y no solo el emparejamiento global.",
        zh = "一类多模态对齐技术,将单个 token(词或子词)与特定视觉区域或音频帧对应起来,实现细粒度的跨模态对齐,而不仅是粗粒度的整体匹配。",
        term_es = "alineación multimodal a nivel de token",
        term_zh = "token 级多模态对齐",
        aliases_es = { "alineación a nivel de token", "alineación palabra-región", "alineación multimodal de grano fino" },
        aliases_zh = { "token 级对齐", "词-区域对齐", "细粒度多模态对齐" },
    }
    
    data["token-level saliency"] = {
        short = "Saliency analysis applied at the granularity of individual tokens, producing a per-token importance map of the model's input.",
        article = nil,
        aliases = { "per-token saliency", "token saliency" },
        es = "Análisis de saliencia aplicado a nivel de tokens individuales, que produce un mapa de importancia por token sobre la entrada del modelo.",
        zh = "在单个 token 粒度上进行的显著性分析,为模型输入生成逐 token 的重要性图。",
        term_es = "saliencia a nivel de token",
        term_zh = "token 级显著性",
        aliases_es = { "saliencia por token" },
        aliases_zh = { "逐 token 显著性", "token 显著性" },
    }
    
    data["token-to-parameter ratio"] = {
        short = "The ratio of training tokens to model parameters, used as a heuristic for compute-optimal training; Chinchilla scaling suggests roughly 20 tokens per parameter as compute-optimal.",
        article = nil,
        aliases = { "tokens-per-parameter", "data-to-parameter ratio", "Chinchilla ratio" },
        es = "Cociente entre tokens de entrenamiento y parámetros del modelo, usado como heurística para un entrenamiento óptimo en cómputo; el escalado Chinchilla sugiere unos 20 tokens por parámetro como punto óptimo.",
        zh = "训练 token 数与模型参数数之比,常作为计算最优训练的经验法则;Chinchilla 扩展定律建议每个参数约 20 个 token 为计算最优。",
        term_es = "ratio token-parámetro",
        term_zh = "token 与参数比",
        aliases_es = { "tokens por parámetro", "ratio Chinchilla" },
        aliases_zh = { "tokens-per-parameter", "Chinchilla 比率" },
    }
    
    data["tokenization"] = {
        short = "The process of segmenting raw text into discrete units (tokens) such as words, subwords, characters, or bytes, which are then mapped to integer ids for input to a language model.",
        article = nil,
        aliases = { "tokenisation", "tokenizing", "text tokenization", "token segmentation" },
        es = "Proceso de segmentar texto en unidades discretas (tokens) como palabras, subpalabras, caracteres o bytes, que luego se mapean a identificadores enteros para alimentar a un modelo de lenguaje.",
        zh = "将原始文本切分为离散单元(词元)的过程,单元可以是词、子词、字符或字节,随后被映射为整数 id 以输入语言模型。",
        term_es = "tokenización",
        term_zh = "分词",
        aliases_es = { "segmentación en tokens", "tokenisation" },
        aliases_zh = { "词元化", "标记化", "Tokenization" },
    }
    
    data["tokens per second"] = {
        short = "A common throughput metric for language model inference, measuring how many tokens a system can generate or process per second; reported either per request or aggregated across concurrent requests.",
        article = nil,
        aliases = { "tok/s", "tokens/sec", "TPS", "tokens-per-second" },
        es = "Métrica habitual de rendimiento para la inferencia de modelos de lenguaje, que mide cuántos tokens puede generar o procesar un sistema por segundo; se reporta por petición o agregando peticiones concurrentes.",
        zh = "语言模型推理的常用吞吐量指标,衡量系统每秒可生成或处理多少个 token,可按请求报告或对并发请求进行汇总。",
        term_es = "tokens por segundo",
        term_zh = "每秒 token 数",
        aliases_es = { "tok/s", "tokens/seg", "TPS" },
        aliases_zh = { "tok/s", "TPS", "tokens/秒" },
    }
    
    data["tonnetz feature"] = {
        short = "Audio feature representing tonal harmonic relations on a six-dimensional torus derived from chroma vectors, capturing perfect-fifth, major-third, and minor-third intervals; commonly used in chord recognition.",
        article = nil,
        aliases = { "tonnetz", "tonal centroid features", "tonal centroid", "tonal network features" },
        es = "Característica de audio que representa las relaciones armónicas tonales sobre un toro de seis dimensiones derivado de vectores de croma, capturando intervalos de quinta justa, tercera mayor y tercera menor; se usa habitualmente en el reconocimiento de acordes.",
        zh = "一种音频特征,在由色度向量推导得到的六维环面上表示调性谐波关系,捕捉纯五度、大三度和小三度音程,常用于和弦识别。",
        term_es = "característica tonnetz",
        term_zh = "Tonnetz 特征",
        aliases_es = { "tonnetz", "centroides tonales", "rasgos de centroide tonal" },
        aliases_zh = { "tonnetz", "调性质心特征", "调性网络特征" },
    }
    
    data["tool calling"] = {
        short = "A capability whereby a language model emits structured calls to external functions or APIs, with arguments validated against a schema, allowing the model to act as the controller for an agentic system.",
        article = nil,
        aliases = { "function calling", "tool use", "function call", "tool invocation" },
        es = "Capacidad por la que un modelo de lenguaje emite llamadas estructuradas a funciones o APIs externas, con argumentos validados frente a un esquema, permitiendo al modelo actuar como controlador de un sistema agéntico.",
        zh = "语言模型发出对外部函数或 API 的结构化调用、并以模式校验参数的能力,使模型能够作为智能体系统的控制器。",
        term_es = "llamada a herramientas",
        term_zh = "工具调用",
        aliases_es = { "function calling", "uso de herramientas", "llamada a funciones" },
        aliases_zh = { "function calling", "工具使用", "函数调用" },
    }
    
    data["tool use"] = {
        short = "The capability of a language model to invoke external tools (APIs, functions, code interpreters, retrieval systems) during generation by emitting structured tool calls that an agent runtime executes and feeds back as observations.",
        article = nil,
        aliases = { "Tool Use", "tool-use", "tool calling", "tool invocation", "tools", "agent tool use" },
        es = "Capacidad de un modelo de lenguaje para invocar herramientas externas (APIs, funciones, intérpretes de código, sistemas de recuperación) durante la generación, emitiendo llamadas estructuradas que un runtime de agente ejecuta y devuelve como observaciones.",
        zh = "语言模型在生成过程中调用外部工具(API、函数、代码解释器、检索系统)的能力,通过输出结构化的工具调用,由智能体运行时执行并将结果作为观察反馈给模型。",
        term_es = "uso de herramientas",
        term_zh = "工具使用",
        aliases_es = { "tool use", "tool calling", "uso de tools", "invocación de herramientas", "llamada a herramientas" },
        aliases_zh = { "tool use", "tool calling", "工具调用", "调用工具", "工具使用能力" },
    }
    
    data["toolbench"] = {
        short = "A benchmark and instruction-tuning dataset for evaluating LLM tool-use abilities across thousands of real-world REST APIs, introduced alongside the ToolLLaMA model.",
        article = nil,
        aliases = { "ToolBench", "ToolLLaMA benchmark" },
        es = "Banco de pruebas y conjunto de datos de ajuste por instrucciones para evaluar la capacidad de uso de herramientas de los LLM a través de miles de APIs REST reales, presentado junto al modelo ToolLLaMA.",
        zh = "用于评估大语言模型在数千个真实 REST API 上工具使用能力的基准与指令微调数据集,与 ToolLLaMA 模型一同提出。",
        term_es = "ToolBench",
        term_zh = "ToolBench",
        aliases_es = { "benchmark ToolLLaMA" },
        aliases_zh = { "ToolLLaMA 基准" },
    }
    
    data["toolformer"] = {
        short = "A language model from Meta AI fine-tuned to decide which APIs to call, when to call them, what arguments to pass, and how to incorporate the results, using self-supervised data generation.",
        article = nil,
        aliases = { "Toolformer", "Toolformer model" },
        es = "Modelo de lenguaje de Meta AI ajustado para decidir qué APIs invocar, cuándo invocarlas, qué argumentos pasar y cómo incorporar los resultados, usando generación de datos auto-supervisada.",
        zh = "Meta AI 的一种语言模型,通过自监督数据生成进行微调,能够自主决定调用哪些 API、何时调用、传入什么参数以及如何整合结果。",
        term_es = "Toolformer",
        term_zh = "Toolformer",
        aliases_es = { "modelo Toolformer" },
        aliases_zh = { "Toolformer 模型" },
    }
    
    data["top-k accuracy"] = {
        short = "Fraction of examples whose true label is among the model's top-k highest-probability predictions. A relaxed accuracy metric standard in large-class image classification (e.g. top-5 on ImageNet).",
        article = nil,
        aliases = { "top-K accuracy", "top k accuracy", "topk accuracy", "top-1 accuracy", "top-5 accuracy" },
        es = "Fracción de ejemplos cuya etiqueta verdadera está entre las k predicciones de mayor probabilidad del modelo. Métrica de exactitud relajada estándar en clasificación de imágenes con muchas clases (por ejemplo, top-5 en ImageNet).",
        zh = "真实标签出现在模型前 k 个最高概率预测中的样本比例。是大类别数图像分类(如 ImageNet 的 top-5)中常用的放宽版准确率指标。",
        term_es = "exactitud top-k",
        term_zh = "top-k 准确率",
        aliases_es = { "top-K", "exactitud top k", "top-5 accuracy" },
        aliases_zh = { "前 k 准确率", "top-k accuracy", "top-5 准确率" },
    }
    
    data["top-k attribution"] = {
        short = "Post-processing of an attribution method that retains only the k features or tokens with the highest importance scores, discarding the rest.",
        article = nil,
        aliases = { "top-k feature attribution", "topk attribution" },
        es = "Postprocesado de un método de atribución que conserva solo las k características o tokens con mayor puntuación y descarta el resto.",
        zh = "对归因方法的后处理,仅保留得分最高的 k 个特征或 token,舍弃其余部分。",
        term_es = "atribución top-k",
        term_zh = "top-k 归因",
        aliases_es = { "atribución de las k principales" },
        aliases_zh = { "前 k 归因", "topk 归因" },
    }
    
    data["top-k sampling"] = {
        short = "A decoding method that truncates the next-token distribution to its k highest-probability tokens, renormalizes, and samples from this reduced set, suppressing low-probability tail tokens.",
        article = nil,
        aliases = { "top-k", "top-k decoding", "top k sampling", "Top-K Sampling", "top-k truncation" },
        es = "Método de decodificación que trunca la distribución del siguiente token a los k tokens de mayor probabilidad, la renormaliza y muestrea de ese conjunto reducido, suprimiendo los tokens de la cola con baja probabilidad.",
        zh = "一种解码方法,将下一个 token 的分布截断为概率最高的 k 个 token,重新归一化后再从该子集中采样,从而抑制低概率的尾部 token。",
        term_es = "muestreo top-k",
        term_zh = "top-k 采样",
        aliases_es = { "top-k sampling", "top-k", "muestreo de los k mejores", "decodificación top-k" },
        aliases_zh = { "top-k sampling", "top-k", "Top-K 采样", "前 k 采样" },
    }
    
    data["top-k sparsification"] = {
        short = "A gradient compression scheme that transmits only the k coordinates of largest absolute value per worker per step, zeroing the remaining entries and typically accumulating them in local error-feedback memory for unbiased convergence.",
        article = nil,
        aliases = { "top-K sparsification", "TopK sparsification", "top-k gradient sparsification" },
        es = "Esquema de compresión de gradientes que transmite solo las k coordenadas de mayor valor absoluto por trabajador y paso, anulando el resto y normalmente acumulándolas en una memoria local de retroalimentación de error para garantizar una convergencia insesgada.",
        zh = "一种梯度压缩方案,每个工作节点每一步只传输绝对值最大的k个分量,其余置零,并通常累积到本地的误差反馈存储中以保证无偏收敛。",
        term_es = "esparsificación top-k",
        term_zh = "Top-k稀疏化",
        aliases_es = { "esparsificación TopK", "esparsificación de gradientes top-k" },
        aliases_zh = { "TopK稀疏化", "Top-k梯度稀疏化" },
    }
    
    data["top-p sampling"] = {
        short = "A decoding method that selects the smallest set of next-token candidates whose cumulative probability exceeds a threshold p, then samples from that nucleus. Adapts the candidate set size to the distribution's shape.",
        article = nil,
        aliases = { "top-p", "nucleus sampling", "Nucleus Sampling", "Top-P Sampling", "top p sampling" },
        es = "Método de decodificación que selecciona el conjunto más pequeño de candidatos para el siguiente token cuya probabilidad acumulada supera un umbral p, y muestrea de ese núcleo. Adapta el tamaño del conjunto de candidatos a la forma de la distribución.",
        zh = "一种解码方法,选择累积概率超过阈值 p 的最小候选 token 集合,并从该核中采样。候选集合的大小会根据分布的形状自适应变化。",
        term_es = "muestreo top-p",
        term_zh = "top-p 采样",
        aliases_es = { "top-p sampling", "nucleus sampling", "muestreo de núcleo", "muestreo nucleus" },
        aliases_zh = { "top-p sampling", "nucleus sampling", "核采样", "Top-P 采样" },
    }
    
    data["topic modeling"] = {
        short = "A family of unsupervised methods that discover latent thematic structure in document collections by representing each document as a mixture over topics and each topic as a distribution over words.",
        article = nil,
        aliases = { "topic model", "topic modelling", "topic models", "Topic Modeling" },
        es = "Familia de métodos no supervisados que descubren estructura temática latente en colecciones de documentos representando cada documento como una mezcla de temas y cada tema como una distribución sobre palabras.",
        zh = "一类无监督方法,通过将每篇文档表示为主题的混合分布、每个主题表示为词的分布,从文档集合中发现潜在的主题结构。",
        term_es = "modelado de temas",
        term_zh = "主题建模",
        aliases_es = { "modelado de tópicos", "modelos de temas", "topic modeling" },
        aliases_zh = { "主题模型", "话题建模", "topic modeling" },
    }
    
    data["topk overlap"] = {
        short = "A ranking-agreement metric defined as the size of the intersection between the top-k items chosen by two methods, divided by k. In NAS it quantifies how often a cheap predictor identifies the same best architectures as expensive ground truth.",
        article = nil,
        aliases = { "top-k overlap", "topK overlap", "top-k agreement", "Top-k overlap" },
        es = "Métrica de concordancia entre rankings definida como el tamaño de la intersección entre los k elementos superiores elegidos por dos métodos, dividido por k. En NAS cuantifica con qué frecuencia un predictor barato identifica las mismas arquitecturas óptimas que la verdad de referencia costosa.",
        zh = "一种排序一致性指标,定义为两种方法各自选出的前 k 项的交集大小除以 k;在 NAS 中用于衡量廉价预测器与昂贵真实评估在识别最佳架构上的一致程度。",
        term_es = "solapamiento top-k",
        term_zh = "top-k 重叠",
        aliases_es = { "concordancia top-k", "intersección top-k" },
        aliases_zh = { "Top-k 重合度", "前 k 重叠", "top-k 一致性" },
    }
    
    data["topk sae"] = {
        short = "A sparse autoencoder variant that enforces sparsity by activating only the k largest hidden units per input, removing the need for an L1 penalty.",
        article = nil,
        aliases = { "Top-K SAE", "Top-k Sparse Autoencoder", "k-sparse autoencoder" },
        es = "Variante de autoencoder disperso que impone la dispersión activando únicamente las k unidades ocultas mayores por entrada, sin necesidad de penalización L1.",
        zh = "一种稀疏自编码器变体,对每个输入仅激活最大的 k 个隐藏单元来强制稀疏性,无需 L1 惩罚。",
        term_es = "SAE top-k",
        term_zh = "Top-k 稀疏自编码器",
        aliases_es = { "autoencoder disperso top-k", "autoencoder k-disperso" },
        aliases_zh = { "Top-K SAE", "k-稀疏自编码器" },
    }
    
    data["topological torsion fingerprint"] = {
        short = "A molecular fingerprint that encodes the presence of all four-atom linear paths (torsions) annotated with atom-type information, capturing local connectivity for similarity searching.",
        article = nil,
        aliases = { "topological torsion", "TT fingerprint" },
        es = "Huella digital molecular que codifica la presencia de todos los caminos lineales de cuatro átomos (torsiones) anotados con información del tipo de átomo, capturando la conectividad local para la búsqueda por similitud.",
        zh = "一种分子指纹,编码所有由四个原子组成的线性路径(扭转)的存在性,并标注原子类型信息,用于相似性搜索时捕捉局部连接关系。",
        term_es = "huella de torsión topológica",
        term_zh = "拓扑扭转指纹",
        aliases_es = { "torsión topológica", "huella TT" },
        aliases_zh = { "拓扑扭转分子指纹", "TT 指纹" },
    }
    
    data["torchaudio"] = {
        short = "Official PyTorch library providing audio I/O, signal-processing transforms, datasets, and pretrained speech models with GPU-friendly tensor operations.",
        article = nil,
        aliases = { "TorchAudio", "torch.audio", "pytorch audio" },
        es = "Biblioteca oficial de PyTorch que proporciona entrada/salida de audio, transformaciones de procesamiento de señales, conjuntos de datos y modelos preentrenados de voz con operaciones tensoriales aptas para GPU.",
        zh = "PyTorch 官方音频库,提供音频读写、信号处理变换、数据集以及预训练语音模型,并支持 GPU 友好的张量运算。",
        term_es = "torchaudio",
        term_zh = "torchaudio",
        aliases_es = { "TorchAudio", "biblioteca torchaudio" },
        aliases_zh = { "TorchAudio", "PyTorch 音频库" },
    }
    
    data["torsion angle"] = {
        short = "The dihedral angle defined by four consecutively bonded atoms, describing the rotation about the central bond and serving as a key internal coordinate in molecular conformations.",
        article = nil,
        aliases = { "dihedral angle", "torsion" },
        es = "Ángulo diedro definido por cuatro átomos enlazados consecutivamente, que describe la rotación alrededor del enlace central y sirve como coordenada interna clave en las conformaciones moleculares.",
        zh = "由四个相邻成键原子定义的二面角,描述围绕中心键的旋转,是分子构象中关键的内坐标。",
        term_es = "ángulo de torsión",
        term_zh = "扭转角",
        aliases_es = { "ángulo diedro", "torsión" },
        aliases_zh = { "二面角", "扭角" },
    }
    
    data["tortoise tts"] = {
        short = "An open-source multi-voice text-to-speech model combining a discrete-token autoregressive prior with a diffusion decoder over mel-spectrograms, known for highly expressive synthesis at the cost of slow inference.",
        article = nil,
        aliases = { "Tortoise TTS", "Tortoise-TTS", "Tortoise" },
        es = "Modelo de texto a voz multi-locutor de código abierto que combina un previo autorregresivo sobre tokens discretos con un decodificador de difusión sobre espectrogramas mel, reconocido por su síntesis muy expresiva a costa de una inferencia lenta.",
        zh = "一个开源的多说话人文本转语音模型,将离散 token 上的自回归先验与作用于梅尔频谱的扩散解码器相结合,以表现力强但推理较慢著称。",
        term_es = "Tortoise TTS",
        term_zh = "Tortoise TTS",
        aliases_es = { "Tortoise TTS", "Tortoise" },
        aliases_zh = { "Tortoise TTS", "Tortoise" },
    }
    
    data["total effect"] = {
        short = "The overall causal effect of an exposure on an outcome, combining direct and all indirect pathways through mediators. In mediation analysis it equals the sum of the natural direct and natural indirect effects under appropriate identification assumptions.",
        article = nil,
        aliases = { "TE", "total causal effect", "overall effect", "marginal total effect" },
        es = "Efecto causal total de una exposición sobre un resultado, que combina la vía directa y todas las vías indirectas a través de mediadores. En análisis de mediación equivale a la suma de los efectos directo natural e indirecto natural bajo supuestos adecuados de identificación.",
        zh = "暴露对结果的总因果效应,包括直接路径以及通过中介变量的所有间接路径。在中介分析中,在适当的识别假设下等于自然直接效应与自然间接效应之和。",
        term_es = "efecto total",
        term_zh = "总效应",
        aliases_es = { "efecto causal total", "efecto global", "efecto total marginal" },
        aliases_zh = { "总因果效应", "整体效应", "边际总效应" },
    }
    
    data["total uncertainty"] = {
        short = "The full predictive uncertainty of a Bayesian model, decomposable into aleatoric (data noise) and epistemic (model) components, often computed as the entropy of the posterior predictive distribution.",
        article = nil,
        aliases = { "predictive uncertainty", "total predictive uncertainty" },
        es = "Incertidumbre predictiva total de un modelo bayesiano, descomponible en componentes aleatoria (ruido de los datos) y epistémica (del modelo), calculada habitualmente como la entropía de la distribución predictiva posterior.",
        zh = "贝叶斯模型的整体预测不确定性,可分解为偶然不确定性(数据噪声)与认知不确定性(模型)两部分,通常用后验预测分布的熵来计算。",
        term_es = "incertidumbre total",
        term_zh = "总不确定性",
        aliases_es = { "incertidumbre predictiva", "incertidumbre predictiva total", "total uncertainty" },
        aliases_zh = { "预测不确定性", "总预测不确定性", "total uncertainty" },
    }
    
    data["total variation distance"] = {
        short = "A statistical distance between two probability distributions on the same space: TV(p,q) = ½ Σ |p(x) − q(x)|. It equals the maximum difference in probability the two distributions can assign to any event.",
        article = nil,
        aliases = { "total variation", "TV distance", "TV", "statistical distance", "variational distance" },
        es = "Distancia estadística entre dos distribuciones de probabilidad sobre el mismo espacio: TV(p,q) = ½ Σ |p(x) − q(x)|. Equivale a la máxima diferencia de probabilidad que ambas distribuciones pueden asignar a un mismo evento.",
        zh = "同一空间上两个概率分布之间的统计距离:TV(p,q) = ½ Σ |p(x) − q(x)|,等于两分布对任一事件赋予概率之差的最大值。",
        term_es = "distancia de variación total",
        term_zh = "总变差距离",
        aliases_es = { "variación total", "distancia TV", "distancia estadística" },
        aliases_zh = { "全变差距离", "TV 距离", "统计距离" },
    }
    
    data["totalvi"] = {
        short = "A deep generative model for joint analysis of CITE-seq data, modeling paired single-cell RNA and surface protein measurements with a variational autoencoder to denoise and integrate modalities.",
        article = nil,
        aliases = { "totalVI", "TotalVI" },
        es = "Modelo generativo profundo para el análisis conjunto de datos CITE-seq, que modela mediciones pareadas de ARN unicelular y proteínas de superficie con un autocodificador variacional para eliminar ruido e integrar modalidades.",
        zh = "一种用于联合分析 CITE-seq 数据的深度生成模型,使用变分自编码器对配对的单细胞 RNA 和表面蛋白测量建模,以实现去噪和多模态整合。",
        term_es = "totalVI",
        term_zh = "totalVI",
        aliases_es = { "totalVI", "TotalVI" },
        aliases_zh = { "totalVI", "TotalVI" },
    }
    
    data["tournament selection"] = {
        short = "A selection scheme used in evolutionary algorithms in which k candidates are sampled uniformly at random and the fittest is chosen as a parent. The tournament size k controls selection pressure.",
        article = nil,
        aliases = { "tournament selection (EA)", "k-tournament selection", "tournament-based selection" },
        es = "Esquema de selección utilizado en algoritmos evolutivos en el que se muestrean k candidatos de forma uniforme al azar y se escoge como progenitor al de mayor aptitud. El tamaño del torneo k controla la presión de selección.",
        zh = "进化算法中的一种选择策略:从种群中均匀随机抽取 k 个候选,选择其中适应度最高者作为父代;锦标赛规模 k 控制选择压力。",
        term_es = "selección por torneo",
        term_zh = "锦标赛选择",
        aliases_es = { "selección por torneo k", "selección basada en torneo" },
        aliases_zh = { "k 锦标赛选择", "基于锦标赛的选择", "竞赛选择" },
    }
    
    data["tox21"] = {
        short = "A public dataset of around 12,000 chemical compounds annotated for activity against 12 nuclear receptor and stress response assays, widely used to benchmark molecular toxicity prediction models.",
        article = nil,
        aliases = { "Tox21", "Tox21 dataset" },
        es = "Conjunto de datos público de unos 12 000 compuestos químicos anotados para la actividad en 12 ensayos de receptores nucleares y respuesta al estrés, ampliamente utilizado para evaluar modelos de predicción de toxicidad molecular.",
        zh = "一个公开数据集,包含约 12,000 种化合物,针对 12 个核受体和应激反应分析进行了活性标注,广泛用于评估分子毒性预测模型。",
        term_es = "Tox21",
        term_zh = "Tox21",
        aliases_es = { "conjunto de datos Tox21" },
        aliases_zh = { "Tox21 数据集" },
    }
    
    data["toxcast"] = {
        short = "An EPA high-throughput screening program that generated activity data for thousands of chemicals across hundreds of in vitro assays, used to train and benchmark in silico toxicity models.",
        article = nil,
        aliases = { "ToxCast", "ToxCast dataset" },
        es = "Programa de cribado de alto rendimiento de la EPA que generó datos de actividad para miles de productos químicos en cientos de ensayos in vitro, utilizado para entrenar y evaluar modelos in silico de toxicidad.",
        zh = "美国环保局开展的高通量筛选项目,针对数千种化学物质在数百种体外分析中生成了活性数据,用于训练和评估计算毒性模型。",
        term_es = "ToxCast",
        term_zh = "ToxCast",
        aliases_es = { "conjunto de datos ToxCast" },
        aliases_zh = { "ToxCast 数据集" },
    }
    
    data["toxic language"] = {
        short = "Text that contains hateful, abusive, threatening, or otherwise harmful content; the target class for toxicity classifiers used in content moderation.",
        article = nil,
        aliases = { "toxic content", "toxic speech", "abusive language", "harmful language" },
        es = "Texto con contenido odioso, abusivo, amenazante o de otra forma dañino; la clase objetivo de los clasificadores de toxicidad empleados en moderación de contenido.",
        zh = "包含仇恨、辱骂、威胁或其他有害内容的文本;在内容审核中,毒性分类器的目标类别。",
        term_es = "lenguaje tóxico",
        term_zh = "有毒语言",
        aliases_es = { "contenido tóxico", "lenguaje abusivo", "lenguaje dañino" },
        aliases_zh = { "有害言论", "辱骂性语言", "毒性内容" },
    }
    
    data["toxicity bias"] = {
        short = "Systematic disparity in toxicity-classifier outputs across demographic groups, where benign text mentioning marginalized identities is over-flagged as toxic.",
        article = nil,
        aliases = { "bias in toxicity detection", "toxicity-classifier bias" },
        es = "Disparidad sistemática en las salidas de un clasificador de toxicidad entre grupos demográficos, donde texto benigno que menciona identidades marginadas se etiqueta erróneamente como tóxico.",
        zh = "毒性分类器输出在不同人口群体间的系统性差异,提及边缘化身份的良性文本被过度标记为有毒内容。",
        term_es = "sesgo de toxicidad",
        term_zh = "毒性偏见",
        aliases_es = { "sesgo en detección de toxicidad", "sesgo del clasificador de toxicidad" },
        aliases_zh = { "毒性检测偏见", "毒性分类器偏差" },
    }
    
    data["toxicity classification"] = {
        short = "The task of labeling text as toxic, abusive, or harmful, typically along axes such as insult, threat, identity attack, or sexually explicit content; commonly used in content moderation pipelines.",
        article = nil,
        aliases = { "toxicity detection", "toxic content classification", "abuse classification" },
        es = "Tarea de etiquetar texto como tóxico, abusivo o dañino, normalmente según ejes como insulto, amenaza, ataque a la identidad o contenido sexualmente explícito; se utiliza habitualmente en flujos de moderación de contenido.",
        zh = "将文本标注为有毒、辱骂或有害的任务,通常按侮辱、威胁、身份攻击或色情内容等维度划分,常用于内容审核流程。",
        term_es = "clasificación de toxicidad",
        term_zh = "毒性分类",
        aliases_es = { "detección de toxicidad", "clasificación de contenido tóxico" },
        aliases_zh = { "毒性检测", "有害内容分类" },
    }
    
    data["toxicity classifier bias"] = {
        short = "A specific case of toxicity bias in which a trained classifier assigns higher toxicity scores to text from or about particular dialects, demographics, or identity groups regardless of true content.",
        article = nil,
        aliases = { "biased toxicity classifier", "classifier bias in toxicity detection" },
        es = "Caso específico de sesgo de toxicidad en el que un clasificador entrenado asigna puntuaciones de toxicidad más altas a textos de o sobre dialectos, demografías o grupos de identidad concretos, independientemente del contenido real.",
        zh = "毒性偏见的具体情形,即训练后的分类器对特定方言、人口群体或身份群体相关的文本赋予更高的毒性得分,而与真实内容无关。",
        term_es = "sesgo del clasificador de toxicidad",
        term_zh = "毒性分类器偏差",
        aliases_es = { "clasificador de toxicidad sesgado" },
        aliases_zh = { "有偏的毒性分类器", "毒性分类中的分类器偏差" },
    }
    
    data["toxicity filtering"] = {
        short = "The process of removing or blocking text classified as toxic from training data, generated outputs, or user inputs in order to reduce harmful content exposure.",
        article = nil,
        aliases = { "toxicity filter", "toxic content filtering", "toxicity mitigation" },
        es = "Proceso de eliminar o bloquear texto clasificado como tóxico en datos de entrenamiento, salidas generadas o entradas de usuario para reducir la exposición a contenido dañino.",
        zh = "在训练数据、生成输出或用户输入中移除或拦截被判定为有毒文本的过程,用于降低有害内容的暴露。",
        term_es = "filtrado de toxicidad",
        term_zh = "毒性过滤",
        aliases_es = { "filtro de toxicidad", "mitigación de toxicidad" },
        aliases_zh = { "毒性过滤器", "有害内容过滤" },
    }
    
    data["tpe"] = {
        short = "Tree-structured Parzen Estimator. A sequential model-based hyperparameter optimization algorithm that models p(x|y) using two density estimators l(x) and g(x) for good and bad observations and selects points maximizing l(x)/g(x).",
        article = nil,
        aliases = { "TPE", "Tree-structured Parzen Estimator", "Tree-Parzen Estimator", "TPE algorithm" },
        es = "Tree-structured Parzen Estimator. Algoritmo secuencial de optimización de hiperparámetros basado en modelo que representa p(x|y) mediante dos estimadores de densidad l(x) y g(x) para observaciones buenas y malas, y selecciona puntos que maximizan l(x)/g(x).",
        zh = "TPE(Tree-structured Parzen Estimator),一种基于模型的序贯超参数优化算法,使用两个密度估计器 l(x) 和 g(x) 分别建模优劣观测的 p(x|y),并选择使 l(x)/g(x) 最大的候选点。",
        term_es = "TPE",
        term_zh = "TPE",
        aliases_es = { "Tree-structured Parzen Estimator", "estimador de Parzen estructurado en árbol", "algoritmo TPE" },
        aliases_zh = { "Tree-structured Parzen Estimator", "树结构 Parzen 估计器", "TPE 算法" },
    }
    
    data["tpm"] = {
        short = "Transcripts per million: a normalized expression unit for RNA-seq that scales read counts by transcript length and total mapped reads, allowing comparable expression values across genes within a sample.",
        article = nil,
        aliases = { "TPM", "transcripts per million" },
        es = "Transcritos por millón: unidad de expresión normalizada para RNA-seq que escala los conteos de lecturas por longitud del transcrito y por el total de lecturas mapeadas, lo que permite valores de expresión comparables entre genes dentro de una muestra.",
        zh = "每百万转录本数(transcripts per million):RNA-seq 的归一化表达单位,按转录本长度和总比对读段数对读段计数进行缩放,使样本内基因之间的表达值可比较。",
        term_es = "TPM",
        term_zh = "TPM",
        aliases_es = { "TPM", "transcritos por millón" },
        aliases_zh = { "TPM", "每百万转录本数" },
    }
    
    data["tpot"] = {
        short = "Tree-based Pipeline Optimization Tool. An open-source AutoML library that uses genetic programming to evolve scikit-learn pipelines, jointly optimizing preprocessing steps, feature selection, and model choice with hyperparameters.",
        article = nil,
        aliases = { "TPOT", "Tree-based Pipeline Optimization Tool", "tpot AutoML" },
        es = "Tree-based Pipeline Optimization Tool. Biblioteca AutoML de código abierto que utiliza programación genética para evolucionar pipelines de scikit-learn, optimizando conjuntamente los pasos de preprocesamiento, la selección de características y la elección del modelo junto con sus hiperparámetros.",
        zh = "TPOT(Tree-based Pipeline Optimization Tool),一个开源 AutoML 库,使用遗传编程对 scikit-learn 流水线进行进化,联合优化预处理步骤、特征选择以及模型选择及其超参数。",
        term_es = "TPOT",
        term_zh = "TPOT",
        aliases_es = { "Tree-based Pipeline Optimization Tool", "TPOT AutoML" },
        aliases_zh = { "Tree-based Pipeline Optimization Tool", "基于树的流水线优化工具", "TPOT AutoML" },
    }
    
    data["tpsa"] = {
        short = "Topological polar surface area, an additive descriptor that estimates the polar surface of a molecule from contributions of polar atom types, commonly used as a proxy for membrane permeability.",
        article = nil,
        aliases = { "TPSA", "topological polar surface area", "polar surface area" },
        es = "Área superficial polar topológica, un descriptor aditivo que estima la superficie polar de una molécula a partir de contribuciones de tipos de átomos polares, utilizado comúnmente como sustituto de la permeabilidad a través de membranas.",
        zh = "拓扑极性表面积,一种加和性描述符,通过极性原子类型的贡献估计分子的极性表面,常用作膜渗透性的替代指标。",
        term_es = "TPSA",
        term_zh = "TPSA",
        aliases_es = { "área superficial polar topológica", "área de superficie polar" },
        aliases_zh = { "拓扑极性表面积", "极性表面积" },
    }
    
    data["trace"] = {
        short = "The sum of the diagonal entries of a square matrix, equal to the sum of its eigenvalues counted with algebraic multiplicity. Linear in its argument and satisfies the cyclic property tr(AB) = tr(BA).",
        article = nil,
        aliases = { "matrix trace", "tr", "tr(A)" },
        es = "Suma de los elementos diagonales de una matriz cuadrada, igual a la suma de sus valores propios contados con multiplicidad algebraica. Es lineal en su argumento y cumple la propiedad cíclica tr(AB) = tr(BA).",
        zh = "方阵主对角线元素之和,等于其按代数重数计的所有特征值之和。对其参数线性,且满足循环性质 tr(AB) = tr(BA)。",
        term_es = "traza",
        term_zh = "迹",
        aliases_es = { "traza de una matriz", "tr" },
        aliases_zh = { "矩阵迹", "迹数", "tr" },
    }
    
    data["tracin"] = {
        short = "A training-data attribution method that estimates the influence of each training example on a test prediction by tracking gradient similarity across saved checkpoints during training.",
        article = nil,
        aliases = { "TracIn", "Tracing Gradient Descent" },
        es = "Método de atribución de datos de entrenamiento que estima la influencia de cada ejemplo de entrenamiento sobre una predicción de prueba siguiendo la similitud de gradientes a lo largo de los checkpoints guardados.",
        zh = "一种训练数据归因方法,通过在训练过程中保存的检查点上跟踪梯度相似度,估计每个训练样本对某个测试预测的影响。",
        term_es = "TracIn",
        term_zh = "TracIn",
        aliases_es = { "TracIn" },
        aliases_zh = { "TracIn", "梯度追踪法" },
    }
    
    data["train-test mismatch"] = {
        short = "A discrepancy between the conditions under which a model is trained and those under which it is evaluated or deployed. A practical manifestation of distribution shift that often degrades real-world performance.",
        article = nil,
        aliases = { "training-test mismatch", "train/test mismatch", "training-deployment mismatch", "train-eval mismatch" },
        es = "Discrepancia entre las condiciones en que se entrena un modelo y aquellas en las que se evalúa o despliega. Manifestación práctica del desplazamiento de distribución que a menudo degrada el desempeño en el mundo real.",
        zh = "模型训练所处条件与其评估或部署所处条件之间的不一致,是分布偏移的实际表现,常导致真实场景下的性能下降。",
        term_es = "discordancia entrenamiento-prueba",
        term_zh = "训练-测试不匹配",
        aliases_es = { "desajuste entrenamiento-prueba", "desajuste entrenamiento-despliegue" },
        aliases_zh = { "训练测试失配", "训练-部署不匹配" },
    }
    
    data["training pipeline"] = {
        short = "The end-to-end sequence of stages — data ingestion, preprocessing, feature extraction or tokenization, model training, validation, and checkpointing — that transforms raw data into a trained model artifact.",
        article = nil,
        aliases = { "training workflow", "ML training pipeline", "model training pipeline" },
        es = "Secuencia de extremo a extremo de etapas —ingesta de datos, preprocesamiento, extracción de características o tokenización, entrenamiento del modelo, validación y guardado de checkpoints— que transforma datos crudos en un artefacto de modelo entrenado.",
        zh = "将原始数据转化为已训练模型工件的端到端阶段序列,包括数据摄取、预处理、特征抽取或分词、模型训练、验证以及检查点保存。",
        term_es = "pipeline de entrenamiento",
        term_zh = "训练流水线",
        aliases_es = { "flujo de entrenamiento", "pipeline de entrenamiento de modelos" },
        aliases_zh = { "训练管线", "模型训练流水线", "训练工作流" },
    }
    
    data["training step"] = {
        short = "One application of the optimizer that updates model parameters using the gradient computed from a (possibly accumulated) batch; in deep-learning frameworks this is the smallest unit of progress and is logged as `step` or `global_step`.",
        article = nil,
        aliases = { "step", "optimizer step", "global step", "training steps", "global_step" },
        es = "Una aplicación del optimizador que actualiza los parámetros del modelo usando el gradiente calculado a partir de un lote (posiblemente acumulado); en los frameworks de aprendizaje profundo es la unidad mínima de progreso y se registra como `step` o `global_step`.",
        zh = "优化器的一次应用,使用从(可能累积的)批量中计算得到的梯度更新模型参数;在深度学习框架中是训练进度的最小单位,通常以 `step` 或 `global_step` 记录。",
        term_es = "paso de entrenamiento",
        term_zh = "训练步",
        aliases_es = { "paso", "paso del optimizador", "paso global", "global_step" },
        aliases_zh = { "step", "优化器步", "全局步", "global_step", "训练步骤" },
    }
    
    data["training-free nas"] = {
        short = "A family of neural architecture search methods that rank candidate architectures using zero-cost proxies (gradient norms, jacobian covariance, NTK condition number) without ever training them, enabling search in seconds rather than GPU-days.",
        article = nil,
        aliases = { "training free NAS", "training-free neural architecture search", "training-free neural architecture search" },
        es = "Familia de métodos de búsqueda de arquitecturas neuronales que clasifica candidatos mediante proxies de costo cero (normas de gradiente, covarianza jacobiana, número de condición del NTK) sin entrenarlos, permitiendo búsquedas en segundos en lugar de días-GPU.",
        zh = "一类神经架构搜索方法,通过零成本代理指标(梯度范数、雅可比协方差、NTK条件数)对候选架构进行排序而无需训练,可在数秒而非数日内完成搜索。",
        term_es = "NAS sin entrenamiento",
        term_zh = "免训练NAS",
        aliases_es = { "búsqueda de arquitecturas sin entrenamiento", "NAS sin entrenar" },
        aliases_zh = { "免训练神经架构搜索", "无训练NAS" },
    }
    
    data["trajectory inference"] = {
        short = "A class of computational methods that reconstruct dynamic cellular processes (e.g., differentiation) from single-cell snapshots by ordering cells along inferred lineages and assigning pseudotime values.",
        article = nil,
        aliases = { "pseudotime analysis", "lineage inference", "cell trajectory reconstruction", "pseudotemporal ordering" },
        es = "Conjunto de métodos computacionales que reconstruyen procesos celulares dinámicos a partir de datos de célula única, ordenando las células a lo largo de linajes inferidos y asignando un pseudotiempo.",
        zh = "一类从单细胞快照数据中重构动态细胞过程(如分化)的计算方法,通过沿推断的谱系对细胞排序并赋予伪时间值。",
        term_es = "inferencia de trayectorias",
        term_zh = "轨迹推断",
        aliases_es = { "análisis de pseudotiempo", "inferencia de linajes celulares" },
        aliases_zh = { "伪时间分析", "细胞谱系推断", "拟时序分析" },
    }
    
    data["transa"] = {
        short = "A knowledge-graph embedding model that uses an adaptive metric in the translation-based family, learning a Mahalanobis-style distance to score (head, relation, tail) triples more flexibly than TransE.",
        article = nil,
        aliases = { "TransA", "Trans-A", "TransA embedding" },
        es = "Modelo de incrustación de grafos de conocimiento de la familia traslacional que aprende una métrica adaptativa de tipo Mahalanobis para puntuar tripletas (cabeza, relación, cola) con más flexibilidad que TransE.",
        zh = "一种基于平移的知识图谱嵌入模型,通过学习类似马氏距离的自适应度量,对 (头实体, 关系, 尾实体) 三元组进行比 TransE 更灵活的打分。",
        term_es = "TransA",
        term_zh = "TransA",
        aliases_es = { "Trans-A" },
        aliases_zh = { "TransA 模型" },
    }
    
    data["transcription factor binding"] = {
        short = "The sequence-specific interaction between a transcription factor protein and DNA, typically at short motifs in regulatory regions; predicted from PWMs or measured by ChIP-seq, ATAC-seq footprints, or related assays.",
        article = nil,
        aliases = { "TF binding", "transcription factor binding sites", "TFBS", "TF-DNA binding" },
        es = "Interacción específica de secuencia entre un factor de transcripción y el ADN, habitualmente en motivos cortos de regiones reguladoras; se predice mediante PWM o se mide con ChIP-seq y huellas de ATAC-seq.",
        zh = "转录因子蛋白与 DNA 之间的序列特异性相互作用,通常发生在调控区域的短基序处;可通过位置权重矩阵预测,或通过 ChIP-seq、ATAC-seq 足迹等实验测定。",
        term_es = "unión de factores de transcripción",
        term_zh = "转录因子结合",
        aliases_es = { "sitios de unión de factores de transcripción", "TFBS" },
        aliases_zh = { "TF 结合", "转录因子结合位点", "TFBS" },
    }
    
    data["transcriptome assembly"] = {
        short = "Reconstruction of full-length transcript sequences from RNA-seq reads, performed either de novo (without a reference) or genome-guided; canonical tools include Trinity, StringTie, and Cufflinks.",
        article = nil,
        aliases = { "de novo transcriptome assembly", "RNA-seq assembly", "transcript assembly" },
        es = "Reconstrucción de secuencias completas de transcritos a partir de lecturas de RNA-seq, ya sea de novo o guiada por un genoma de referencia; herramientas habituales son Trinity, StringTie y Cufflinks.",
        zh = "从 RNA-seq 读段重构全长转录本序列,可在无参考(de novo)或基因组引导下进行;常用工具包括 Trinity、StringTie 和 Cufflinks。",
        term_es = "ensamblaje del transcriptoma",
        term_zh = "转录组组装",
        aliases_es = { "ensamblaje de novo del transcriptoma", "ensamblaje de RNA-seq" },
        aliases_zh = { "从头转录组组装", "RNA-seq 组装", "转录本组装" },
    }
    
    data["transd"] = {
        short = "A knowledge-graph embedding model that constructs entity-and-relation-specific projection matrices on the fly from two vectors per entity and relation, scoring triples in dynamic relation-specific spaces.",
        article = nil,
        aliases = { "TransD", "Trans-D", "TransD embedding" },
        es = "Modelo de incrustación de grafos de conocimiento que construye matrices de proyección específicas de cada par entidad-relación a partir de dos vectores por entidad y relación, puntuando tripletas en espacios dinámicos por relación.",
        zh = "一种知识图谱嵌入模型,利用每个实体和关系的两个向量动态构造实体-关系特定的投影矩阵,在每种关系自有的空间中对三元组进行打分。",
        term_es = "TransD",
        term_zh = "TransD",
        aliases_es = { "Trans-D" },
        aliases_zh = { "TransD 模型" },
    }
    
    data["transductive conformal prediction"] = {
        short = "A conformal prediction variant that recomputes nonconformity scores by re-fitting (or refreshing) the model with each candidate test point included, producing tighter prediction sets at much higher computational cost than split conformal.",
        article = nil,
        aliases = { "full conformal prediction", "transductive CP", "TCP" },
        es = "Variante de predicción conforme que recalcula los puntajes de no-conformidad reajustando (o refrescando) el modelo incluyendo cada punto de prueba candidato, produciendo conjuntos de predicción más estrechos a un costo computacional mucho mayor que la versión por partición.",
        zh = "一种共形预测变体:每次将候选测试点纳入后重新拟合(或更新)模型并重新计算非一致性得分,与分裂式共形相比可得到更紧的预测集,但计算开销显著更高。",
        term_es = "predicción conforme transductiva",
        term_zh = "直推式共形预测",
        aliases_es = { "predicción conforme completa", "TCP", "transductive conformal prediction" },
        aliases_zh = { "完全共形预测", "transductive CP", "TCP", "transductive conformal prediction" },
    }
    
    data["transductive few-shot"] = {
        short = "A few-shot learning setting in which the model has simultaneous access to all unlabeled query examples at inference time, allowing it to exploit the joint structure of the query set rather than classifying each query in isolation.",
        article = nil,
        aliases = { "transductive few-shot learning", "transductive few-shot classification", "transductive FSL" },
        es = "Configuración de aprendizaje con pocos ejemplos en la que el modelo dispone simultáneamente de todas las consultas no etiquetadas durante la inferencia, lo que permite explotar la estructura conjunta del conjunto de consulta en lugar de clasificar cada una por separado.",
        zh = "一种小样本学习设定,模型在推理时可同时访问所有无标签查询样本,从而利用整个查询集的联合结构,而非孤立地对每个样本分类。",
        term_es = "few-shot transductivo",
        term_zh = "直推式小样本学习",
        aliases_es = { "aprendizaje few-shot transductivo", "clasificación few-shot transductiva" },
        aliases_zh = { "直推式少样本学习", "transductive few-shot" },
    }
    
    data["transe"] = {
        short = "A foundational knowledge-graph embedding model that represents relations as translations in a continuous vector space, scoring a triple (h, r, t) by the proximity of h + r to t.",
        article = nil,
        aliases = { "TransE", "Trans-E", "TransE embedding", "translating embeddings" },
        es = "Modelo fundacional de incrustación de grafos de conocimiento que representa las relaciones como traslaciones en un espacio vectorial continuo, puntuando una tripleta (h, r, t) por la cercanía de h + r a t.",
        zh = "一种奠基性的知识图谱嵌入模型,将关系建模为连续向量空间中的平移,通过 h + r 与 t 的接近程度为三元组 (h, r, t) 打分。",
        term_es = "TransE",
        term_zh = "TransE",
        aliases_es = { "Trans-E", "incrustaciones traslacionales" },
        aliases_zh = { "TransE 模型", "平移嵌入" },
    }
    
    data["transfer bayesian optimization"] = {
        short = "Bayesian optimization that leverages observations from previously-optimized related tasks to accelerate the search on a new task, typically through multi-task Gaussian processes or meta-learned surrogate priors.",
        article = nil,
        aliases = { "transfer BO", "multi-task bayesian optimization", "meta bayesian optimization" },
        es = "Optimización bayesiana que aprovecha observaciones de tareas previamente optimizadas para acelerar la búsqueda en una tarea nueva, típicamente mediante procesos gaussianos multitarea o priors sustitutos meta-aprendidos.",
        zh = "一种贝叶斯优化方法,利用先前已优化相关任务的观测来加速新任务上的搜索,通常通过多任务高斯过程或元学习的代理先验实现。",
        term_es = "optimización bayesiana por transferencia",
        term_zh = "迁移贝叶斯优化",
        aliases_es = { "transfer BO", "BO multitarea" },
        aliases_zh = { "迁移BO", "多任务贝叶斯优化" },
    }
    
    data["transfer hpo"] = {
        short = "Hyperparameter optimization that initializes or biases the search on a target task using results from previously-tuned source tasks, reducing the number of evaluations needed to find a strong configuration.",
        article = nil,
        aliases = { "transfer hyperparameter optimization", "transfer HPO", "transfer learning HPO" },
        es = "Optimización de hiperparámetros que inicializa o sesga la búsqueda en una tarea objetivo usando resultados de tareas fuente previamente ajustadas, reduciendo el número de evaluaciones necesarias para encontrar una buena configuración.",
        zh = "一种超参数优化方法,利用先前已调优源任务的结果来初始化或引导目标任务上的搜索,从而减少寻找良好配置所需的评估次数。",
        term_es = "HPO por transferencia",
        term_zh = "迁移超参数优化",
        aliases_es = { "transfer HPO", "optimización de hiperparámetros por transferencia" },
        aliases_zh = { "迁移HPO", "超参数迁移优化" },
    }
    
    data["transfer learning"] = {
        short = "A machine-learning paradigm in which knowledge gained by training a model on one task or domain is reused—via initialization, feature extraction, or fine-tuning—to improve learning on a related target task with less data.",
        article = "Transfer Learning",
        aliases = { "TL", "transfer-learning" },
        es = "Paradigma de aprendizaje automático en el que el conocimiento adquirido al entrenar un modelo en una tarea o dominio se reutiliza —mediante inicialización, extracción de características o ajuste fino— para mejorar el aprendizaje en una tarea objetivo relacionada con menos datos.",
        zh = "一种机器学习范式,将模型在某一任务或领域训练所获得的知识,通过初始化、特征提取或微调等方式重用,以在数据较少的相关目标任务上获得更好的学习效果。",
        term_es = "aprendizaje por transferencia",
        term_zh = "迁移学习",
        aliases_es = { "transferencia de aprendizaje", "aprendizaje transferido", "transfer learning" },
        aliases_zh = { "迁移式学习", "transfer learning", "知识迁移学习" },
    }
    
    data["transformer"] = {
        short = "A neural network architecture based entirely on self-attention layers and feedforward blocks, without recurrence or convolution, introduced for sequence modeling and now standard in language and vision tasks.",
        article = "Transformer",
        aliases = { "Transformer", "transformer model", "transformer architecture", "transformer network" },
        es = "Arquitectura de red neuronal basada por completo en capas de autoatención y bloques feedforward, sin recurrencia ni convolución, introducida para el modelado de secuencias y hoy estándar en tareas de lenguaje y visión.",
        zh = "一种完全基于自注意力层与前馈模块的神经网络架构,不使用循环或卷积,最初用于序列建模,目前已成为语言与视觉任务的标准架构。",
        term_es = "Transformer",
        term_zh = "Transformer",
        aliases_es = { "transformador", "modelo Transformer", "arquitectura Transformer" },
        aliases_zh = { "变换器", "Transformer 模型", "Transformer 架构" },
    }
    
    data["transformer circuits"] = {
        short = "A research program that reverse-engineers small subgraphs (circuits) of attention heads and MLPs inside transformers to understand the algorithms they implement.",
        article = nil,
        aliases = { "transformer circuit analysis", "circuits in transformers" },
        es = "Programa de investigación que aplica ingeniería inversa a subgrafos pequeños (circuitos) de cabezas de atención y MLP dentro de transformers para entender los algoritmos que implementan.",
        zh = "一项研究方向,对 transformer 内部由注意力头和 MLP 组成的小型子图(电路)进行逆向工程,以理解它们所实现的算法。",
        term_es = "circuitos de transformer",
        term_zh = "Transformer 电路",
        aliases_es = { "análisis de circuitos en transformers" },
        aliases_zh = { "Transformer 电路分析", "transformer 中的电路" },
    }
    
    data["transformer interpretability beyond attention"] = {
        short = "An attribution technique by Chefer et al. that propagates relevance through all transformer components, not only attention weights, by combining LRP rules with attention rollout.",
        article = nil,
        aliases = { "Chefer attribution", "LRP for transformers", "Transformer Interpretability Beyond Attention Visualization" },
        es = "Técnica de atribución de Chefer et al. que propaga la relevancia a través de todos los componentes del transformer, no solo los pesos de atención, combinando reglas de LRP con attention rollout.",
        zh = "Chefer 等人提出的归因技术,将相关性通过 transformer 的所有组件而不仅是注意力权重进行传播,结合 LRP 规则与注意力 rollout。",
        term_es = "interpretabilidad de transformers más allá de la atención",
        term_zh = "超越注意力的 Transformer 可解释性",
        aliases_es = { "atribución de Chefer", "LRP para transformers" },
        aliases_zh = { "Chefer 归因", "用于 transformer 的 LRP" },
    }
    
    data["transformer lens"] = {
        short = "An open-source Python library for mechanistic interpretability of transformer language models that exposes activations, hooks, and patching utilities.",
        article = nil,
        aliases = { "TransformerLens", "EasyTransformer" },
        es = "Biblioteca Python de código abierto para interpretabilidad mecanicista de modelos de lenguaje basados en transformers, que expone activaciones, hooks y utilidades de parcheo.",
        zh = "用于 transformer 语言模型机制可解释性的开源 Python 库,提供激活、hook 与激活修补等工具。",
        term_es = "TransformerLens",
        term_zh = "TransformerLens",
        aliases_es = { "TransformerLens", "EasyTransformer" },
        aliases_zh = { "TransformerLens", "EasyTransformer" },
    }
    
    data["transformer nas"] = {
        short = "Neural architecture search applied to Transformer models, jointly choosing depth, width, head count, FFN expansion, and attention variants under accuracy and latency constraints.",
        article = nil,
        aliases = { "transformer neural architecture search", "Transformer NAS", "NAS for transformers" },
        es = "Búsqueda de arquitecturas neuronales aplicada a modelos Transformer, eligiendo conjuntamente profundidad, ancho, número de cabezas, expansión del FFN y variantes de atención bajo restricciones de precisión y latencia.",
        zh = "针对Transformer模型的神经架构搜索,在精度和延迟约束下联合选择深度、宽度、注意力头数、FFN扩展比和注意力变体。",
        term_es = "NAS para Transformers",
        term_zh = "Transformer架构搜索",
        aliases_es = { "Transformer NAS", "búsqueda de arquitecturas Transformer" },
        aliases_zh = { "Transformer NAS", "Transformer神经架构搜索" },
    }
    
    data["transformer transducer"] = {
        short = "End-to-end speech recognition architecture that replaces the recurrent encoder of an RNN-Transducer with a Transformer encoder, retaining the prediction network and joint network for streaming-capable, label-synchronous decoding.",
        article = nil,
        aliases = { "T-T", "Transformer-Transducer", "Transformer-RNN-T", "T-RNN-T" },
        es = "Arquitectura de reconocimiento de voz de extremo a extremo que sustituye el codificador recurrente de un RNN-Transducer por un codificador Transformer, conservando la red de predicción y la red conjunta para decodificación etiqueta-sincrónica con capacidad de streaming.",
        zh = "端到端语音识别架构,将 RNN-Transducer 中的循环编码器替换为 Transformer 编码器,保留预测网络和联合网络,以支持可流式、标签同步的解码。",
        term_es = "Transformer Transducer",
        term_zh = "Transformer 转录器",
        aliases_es = { "Transformer-Transducer", "T-T", "Transformer-RNN-T" },
        aliases_zh = { "Transformer Transducer", "Transformer-RNN-T", "T-T" },
    }
    
    data["transformer tts"] = {
        short = "Sequence-to-sequence text-to-speech model that uses Transformer self-attention in both encoder and decoder to predict mel-spectrograms from phoneme inputs, replacing the recurrent stack of Tacotron 2.",
        article = nil,
        aliases = { "Transformer-TTS", "Transformer TTS", "TransformerTTS" },
        es = "Modelo de síntesis de voz secuencia a secuencia que usa autoatención de Transformer en codificador y decodificador para predecir espectrogramas mel a partir de fonemas, sustituyendo la pila recurrente de Tacotron 2.",
        zh = "序列到序列的文本转语音模型,在编码器和解码器中都使用 Transformer 自注意力,从音素预测梅尔谱图,替代 Tacotron 2 的循环结构。",
        term_es = "Transformer TTS",
        term_zh = "Transformer TTS",
        aliases_es = { "Transformer-TTS" },
        aliases_zh = { "Transformer-TTS" },
    }
    
    data["transfusion"] = {
        short = "A multimodal training recipe (Meta, 2024) that trains a single transformer end-to-end with next-token prediction over text tokens and a diffusion objective over image patches, unifying language modeling and image generation in one model.",
        article = nil,
        aliases = { "Transfusion", "Transfusion model", "transfusion multimodal" },
        es = "Receta de entrenamiento multimodal (Meta, 2024) que entrena un único transformer de extremo a extremo con predicción del siguiente token sobre texto y un objetivo de difusión sobre parches de imagen, unificando el modelado de lenguaje y la generación de imágenes en un mismo modelo.",
        zh = "一种多模态训练方案(Meta,2024),在单个 Transformer 上端到端地对文本 token 使用下一 token 预测、对图像 patch 使用扩散目标进行训练,将语言建模与图像生成统一在一个模型中。",
        term_es = "Transfusion",
        term_zh = "Transfusion",
        aliases_es = { "Transfusion" },
        aliases_zh = { "Transfusion" },
    }
    
    data["transh"] = {
        short = "A knowledge-graph embedding model that projects entities onto a relation-specific hyperplane before applying a translation, alleviating TransE's difficulty with one-to-many and many-to-one relations.",
        article = nil,
        aliases = { "TransH", "Trans-H", "TransH embedding" },
        es = "Modelo de incrustación de grafos de conocimiento que proyecta las entidades sobre un hiperplano específico de cada relación antes de aplicar la traslación, mitigando la dificultad de TransE con relaciones uno-a-muchos y muchos-a-uno.",
        zh = "一种知识图谱嵌入模型,在执行平移之前将实体投影到关系特定的超平面上,从而缓解 TransE 在处理一对多和多对一关系时的困难。",
        term_es = "TransH",
        term_zh = "TransH",
        aliases_es = { "Trans-H" },
        aliases_zh = { "TransH 模型" },
    }
    
    data["transition state"] = {
        short = "A short-lived high-energy configuration along a reaction coordinate corresponding to the saddle point on the potential energy surface separating reactants from products.",
        article = nil,
        aliases = { "TS", "activated complex" },
        es = "Configuración de alta energía y vida corta a lo largo de una coordenada de reacción que corresponde al punto de silla en la superficie de energía potencial que separa los reactivos de los productos.",
        zh = "反应坐标上短暂存在的高能构型,对应于势能面上分隔反应物和产物的鞍点。",
        term_es = "estado de transición",
        term_zh = "过渡态",
        aliases_es = { "TS", "complejo activado" },
        aliases_zh = { "TS", "活化络合物", "过渡状态" },
    }
    
    data["transmembrane prediction"] = {
        short = "Computational identification of membrane-spanning regions in protein sequences, distinguishing transmembrane helices or beta-barrels from soluble regions; classical tools include TMHMM, Phobius, and DeepTMHMM.",
        article = nil,
        aliases = { "transmembrane helix prediction", "TM region prediction", "membrane topology prediction" },
        es = "Identificación computacional de regiones que atraviesan la membrana en secuencias proteicas, distinguiendo hélices transmembrana o barriles beta de regiones solubles; herramientas clásicas incluyen TMHMM, Phobius y DeepTMHMM.",
        zh = "在蛋白质序列中通过计算方法识别跨膜区域,将跨膜螺旋或 β 桶与可溶性区域区分开;经典工具包括 TMHMM、Phobius 和 DeepTMHMM。",
        term_es = "predicción de regiones transmembrana",
        term_zh = "跨膜区预测",
        aliases_es = { "predicción de hélices transmembrana", "predicción de topología de membrana" },
        aliases_zh = { "跨膜螺旋预测", "膜拓扑预测" },
    }
    
    data["transnas-bench"] = {
        short = "A neural architecture search benchmark that evaluates a fixed search space across multiple vision tasks (classification, segmentation, room layout, jigsaw, autoencoding, normal prediction), enabling study of architecture transfer between tasks.",
        article = nil,
        aliases = { "TransNAS-Bench", "TransNAS Bench", "TransNAS-Bench-101" },
        es = "Banco de pruebas de búsqueda de arquitecturas neuronales que evalúa un espacio de búsqueda fijo en múltiples tareas de visión (clasificación, segmentación, distribución de habitaciones, rompecabezas, autocodificación, predicción de normales), permitiendo estudiar la transferencia de arquitecturas entre tareas.",
        zh = "一个神经架构搜索基准,在多个视觉任务(分类、分割、房间布局、拼图、自编码、法向量预测)上评估同一搜索空间,便于研究架构在不同任务间的迁移性。",
        term_es = "TransNAS-Bench",
        term_zh = "TransNAS-Bench",
        aliases_es = { "TransNAS Bench", "TransNAS-Bench-101" },
        aliases_zh = { "TransNAS基准", "TransNAS-Bench-101" },
    }
    
    data["transparency by design"] = {
        short = "A modeling philosophy that builds interpretability directly into the architecture so that explanations are produced as part of the prediction, rather than reconstructed post hoc.",
        article = nil,
        aliases = { "interpretable by design", "intrinsically interpretable", "transparent-by-design" },
        es = "Filosofía de modelado que integra la interpretabilidad directamente en la arquitectura, de modo que las explicaciones se generan junto con la predicción y no de forma post hoc.",
        zh = "一种建模理念,将可解释性直接内置于模型结构中,使解释作为预测的一部分产生,而非事后重建。",
        term_es = "transparencia por diseño",
        term_zh = "设计即透明",
        aliases_es = { "interpretable por diseño", "intrínsecamente interpretable" },
        aliases_zh = { "本质可解释", "内在可解释", "设计上可解释" },
    }
    
    data["transparency report"] = {
        short = "A public document in which an organization discloses information about an AI system's data sources, training procedure, evaluation results, known limitations, and policy decisions.",
        article = nil,
        aliases = { "AI transparency report", "model transparency report" },
        es = "Documento público en el que una organización divulga información sobre las fuentes de datos, el procedimiento de entrenamiento, los resultados de evaluación, las limitaciones conocidas y las decisiones de política de un sistema de IA.",
        zh = "组织公开发布的文件,披露人工智能系统的数据来源、训练流程、评估结果、已知局限性以及政策决策等信息。",
        term_es = "informe de transparencia",
        term_zh = "透明度报告",
        aliases_es = { "informe de transparencia de IA", "reporte de transparencia" },
        aliases_zh = { "人工智能透明度报告", "模型透明度报告" },
    }
    
    data["transportability"] = {
        short = "The formal property that a causal effect identified in one study population can be validly transferred to a different target population, given assumptions about which mechanisms and distributions are shared. Encoded graphically using selection diagrams.",
        article = nil,
        aliases = { "causal transportability", "external validity transport", "transport formula" },
        es = "Propiedad formal según la cual un efecto causal identificado en una población de estudio puede transferirse válidamente a una población objetivo distinta, bajo supuestos sobre qué mecanismos y distribuciones se comparten. Se representa gráficamente mediante diagramas de selección.",
        zh = "一种形式化性质,指在某一研究总体中识别出的因果效应,在关于哪些机制和分布可共享的假设下,能够有效迁移到不同的目标总体。可用选择图加以图形化表达。",
        term_es = "transportabilidad",
        term_zh = "可迁移性",
        aliases_es = { "transportabilidad causal", "transferencia de validez externa", "fórmula de transporte" },
        aliases_zh = { "因果可迁移性", "可移植性", "迁移公式" },
    }
    
    data["transpose"] = {
        short = "An operation on a matrix that swaps its rows and columns, mapping an m×n matrix A to an n×m matrix Aᵀ where (Aᵀ)_{ij} = A_{ji}. Equivalent to reflecting the matrix across its main diagonal.",
        article = nil,
        aliases = { "matrix transpose", "transposition", "Aᵀ", "A^T" },
        es = "Operación sobre una matriz que intercambia sus filas y columnas, mapeando una matriz A de tamaño m×n a una matriz Aᵀ de tamaño n×m donde (Aᵀ)_{ij} = A_{ji}. Equivale a reflejar la matriz a lo largo de su diagonal principal.",
        zh = "对矩阵执行的运算,将其行和列互换,把 m×n 矩阵 A 映射为 n×m 矩阵 Aᵀ,其中 (Aᵀ)_{ij} = A_{ji}。等价于沿主对角线对矩阵进行反射。",
        term_es = "transpuesta",
        term_zh = "转置",
        aliases_es = { "matriz transpuesta", "transposición" },
        aliases_zh = { "矩阵转置", "转置矩阵" },
    }
    
    data["transposed convolution"] = {
        short = "A learnable upsampling operation that maps a lower-resolution feature map to a higher-resolution one by inserting zeros and applying a convolution. Often (loosely) called deconvolution; widely used in segmentation and generative decoders.",
        article = nil,
        aliases = { "transposed conv", "deconvolution", "fractionally-strided convolution", "up-convolution", "transpose convolution", "Transposed Convolution" },
        es = "Operación de aumento de resolución aprendible que transforma un mapa de características de baja resolución en uno de mayor resolución insertando ceros y aplicando una convolución. Se la llama (de forma laxa) deconvolución y se usa habitualmente en segmentación y decodificadores generativos.",
        zh = "一种可学习的上采样操作,通过插入零并施加卷积,将低分辨率特征图映射到高分辨率特征图。常被(不严格地)称为反卷积,广泛用于分割和生成式解码器。",
        term_es = "convolución transpuesta",
        term_zh = "转置卷积",
        aliases_es = { "deconvolución", "convolución de zancada fraccionaria", "transposed convolution" },
        aliases_zh = { "反卷积", "分数步长卷积", "转置卷积层", "transposed convolution" },
    }
    
    data["transr"] = {
        short = "A knowledge-graph embedding model that maintains separate entity and relation spaces, projecting entities into each relation's space via a learned matrix before performing a translation.",
        article = nil,
        aliases = { "TransR", "Trans-R", "TransR embedding" },
        es = "Modelo de incrustación de grafos de conocimiento que mantiene espacios distintos para entidades y relaciones, proyectando las entidades en el espacio de cada relación mediante una matriz aprendida antes de aplicar una traslación.",
        zh = "一种知识图谱嵌入模型,为实体和关系维护各自独立的空间,通过学习得到的矩阵将实体投影到对应关系的空间中再执行平移。",
        term_es = "TransR",
        term_zh = "TransR",
        aliases_es = { "Trans-R" },
        aliases_zh = { "TransR 模型" },
    }
    
    data["treatment assignment mechanism"] = {
        short = "The conditional probability distribution that determines how units are assigned to treatments given covariates and possibly potential outcomes. Knowing or modeling it correctly is central to causal identification under unconfoundedness.",
        article = nil,
        aliases = { "assignment mechanism", "treatment assignment", "assignment rule", "treatment allocation mechanism" },
        es = "Distribución de probabilidad condicional que determina cómo se asignan las unidades a los tratamientos dadas las covariables y, en su caso, los resultados potenciales. Conocerlo o modelarlo correctamente es central para la identificación causal bajo no confusión.",
        zh = "给定协变量(必要时还包括潜在结果)后,决定单元如何被分配到各处理的条件概率分布。在无混杂假设下进行因果识别时,对其建模或了解尤为关键。",
        term_es = "mecanismo de asignación del tratamiento",
        term_zh = "处理分配机制",
        aliases_es = { "mecanismo de asignación", "regla de asignación", "asignación del tratamiento" },
        aliases_zh = { "分配机制", "处理分配规则", "处理分配方式" },
    }
    
    data["treatment effect heterogeneity"] = {
        short = "The variation in causal treatment effects across subpopulations defined by observed or unobserved characteristics. Quantifying it is the goal of methods such as causal forests, meta-learners, and conditional average treatment effect estimation.",
        article = nil,
        aliases = { "heterogeneous treatment effects", "HTE", "effect heterogeneity", "treatment heterogeneity" },
        es = "Variación de los efectos causales del tratamiento a través de subpoblaciones definidas por características observadas o no observadas. Cuantificarla es el objetivo de métodos como los bosques causales, los metamodelos y la estimación de efectos condicionales promedio del tratamiento.",
        zh = "因果处理效应在由可观测或不可观测特征定义的子总体之间的变异。量化这种异质性是因果森林、元学习器和条件平均处理效应估计等方法的目标。",
        term_es = "heterogeneidad del efecto del tratamiento",
        term_zh = "处理效应异质性",
        aliases_es = { "efectos heterogéneos del tratamiento", "HTE", "heterogeneidad del efecto" },
        aliases_zh = { "异质处理效应", "HTE", "效应异质性" },
    }
    
    data["treatment equality"] = {
        short = "A group fairness criterion requiring that the ratio of false negatives to false positives be equal across protected groups.",
        article = nil,
        aliases = { "equality of treatment", "equal treatment ratio" },
        es = "Criterio de equidad grupal que exige que la razón entre falsos negativos y falsos positivos sea igual entre los grupos protegidos.",
        zh = "一种群体公平性准则,要求各受保护群体的假负例与假正例之比相等。",
        term_es = "igualdad de trato",
        term_zh = "处理平等",
        aliases_es = { "equidad de trato", "razón de trato igual" },
        aliases_zh = { "对待平等", "假阳性假阴性比率平等" },
    }
    
    data["tree of thoughts"] = {
        short = "A prompting framework in which a language model explores multiple reasoning paths organized as a tree, evaluating intermediate states and using search (e.g. BFS or DFS) to choose promising branches. Generalizes chain-of-thought to deliberate problem solving.",
        article = nil,
        aliases = { "ToT", "Tree of Thoughts", "tree-of-thoughts", "tree of thoughts prompting" },
        es = "Marco de prompting en el que un modelo de lenguaje explora múltiples caminos de razonamiento organizados como un árbol, evaluando estados intermedios y usando búsqueda (BFS o DFS) para escoger ramas prometedoras. Generaliza la cadena de pensamiento al razonamiento deliberado.",
        zh = "一种提示框架,让语言模型沿树状结构探索多条推理路径,对中间状态进行评估,并通过搜索(如 BFS 或 DFS)选择有潜力的分支。它将思维链推广到更具审议性的问题求解。",
        term_es = "árbol de pensamientos",
        term_zh = "思维树",
        aliases_es = { "ToT", "tree of thoughts", "árbol de razonamientos", "prompting de árbol de pensamientos" },
        aliases_zh = { "ToT", "tree of thoughts", "思维树提示", "思维之树" },
    }
    
    data["tree shap"] = {
        short = "An exact, polynomial-time algorithm for computing Shapley value attributions specialized for tree-based models such as decision trees, random forests, and gradient-boosted trees.",
        article = nil,
        aliases = { "TreeSHAP", "Tree SHAP" },
        es = "Algoritmo exacto y de tiempo polinómico para calcular atribuciones por valores de Shapley especializado en modelos basados en árboles, como árboles de decisión, random forests y boosting de gradiente.",
        zh = "一种精确且多项式时间复杂度的算法,专门为决策树、随机森林和梯度提升树等基于树的模型计算 Shapley 值归因。",
        term_es = "TreeSHAP",
        term_zh = "Tree SHAP",
        aliases_es = { "TreeSHAP", "SHAP para árboles" },
        aliases_zh = { "TreeSHAP", "树 SHAP" },
    }
    
    data["tree-allreduce"] = {
        short = "A collective communication algorithm for AllReduce in which workers are organized into a tree topology, performing reduce operations bottom-up and broadcast top-down, achieving logarithmic latency at the cost of bandwidth-suboptimality.",
        article = nil,
        aliases = { "tree allreduce", "tree AllReduce", "tree-based AllReduce", "binary-tree AllReduce" },
        es = "Algoritmo de comunicación colectiva para AllReduce en el que los trabajadores se organizan en una topología de árbol, realizando operaciones de reducción de abajo hacia arriba y difusión de arriba hacia abajo, lo que consigue latencia logarítmica a costa de ser subóptimo en ancho de banda.",
        zh = "一种用于AllReduce的集合通信算法,将工作节点组织成树形拓扑,自底向上执行归约、自顶向下进行广播,以带宽次优为代价获得对数级延迟。",
        term_es = "AllReduce en árbol",
        term_zh = "树形AllReduce",
        aliases_es = { "AllReduce de árbol", "AllReduce basado en árbol", "AllReduce en árbol binario" },
        aliases_zh = { "树状AllReduce", "基于树的AllReduce", "二叉树AllReduce" },
    }
    
    data["tree-based explanation"] = {
        short = "An explanation derived from a tree-structured model, typically as a decision path, set of rules, or per-feature contribution from decision trees or tree ensembles.",
        article = nil,
        aliases = { "tree explanation", "decision-tree explanation" },
        es = "Explicación derivada de un modelo con estructura de árbol, normalmente como un camino de decisión, un conjunto de reglas o contribuciones por característica obtenidas de árboles o ensambles de árboles.",
        zh = "由树结构模型得出的解释,通常表现为决策路径、规则集合或来自决策树及其集成模型的逐特征贡献。",
        term_es = "explicación basada en árboles",
        term_zh = "基于树的解释",
        aliases_es = { "explicación por árbol de decisión" },
        aliases_zh = { "决策树解释", "树模型解释" },
    }
    
    data["tree-lstm"] = {
        short = "A generalization of the LSTM in which the hidden state of a node is composed from the hidden states of its children in a tree, used to encode syntactic or constituency structures.",
        article = nil,
        aliases = { "Tree-LSTM", "TreeLSTM", "tree LSTM", "tree-structured LSTM" },
        es = "Generalización de la LSTM en la que el estado oculto de un nodo se construye a partir de los estados ocultos de sus hijos en un árbol, usada para codificar estructuras sintácticas o de constituyentes.",
        zh = "一种 LSTM 的推广,节点的隐藏状态由其在树结构中各子节点的隐藏状态组合而成,用于编码句法或成分结构。",
        term_es = "Tree-LSTM",
        term_zh = "Tree-LSTM",
        aliases_es = { "TreeLSTM", "LSTM en árbol" },
        aliases_zh = { "TreeLSTM", "树结构 LSTM", "树 LSTM" },
    }
    
    data["tree-structured parzen estimator"] = {
        short = "A sequential model-based hyperparameter optimization algorithm that models p(x|y) with two density estimators — one over good and one over bad observations — and selects the next configuration by maximizing the ratio. Implemented in Hyperopt and Optuna.",
        article = nil,
        aliases = { "TPE", "tree structured parzen estimator", "Tree-structured Parzen Estimator", "tree-structured Parzen estimator approach" },
        es = "Algoritmo secuencial de optimización de hiperparámetros basado en modelos que representa p(x|y) con dos estimadores de densidad — uno sobre observaciones buenas y otro sobre malas — y selecciona la siguiente configuración maximizando la razón. Implementado en Hyperopt y Optuna.",
        zh = "一种基于序贯模型的超参数优化算法,使用两个密度估计器分别建模优配置和劣配置上的p(x|y),通过最大化两者比值选择下一个配置。Hyperopt和Optuna中均有实现。",
        term_es = "estimador de Parzen estructurado en árbol",
        term_zh = "树结构Parzen估计器",
        aliases_es = { "TPE", "Tree-structured Parzen Estimator" },
        aliases_zh = { "TPE", "树形Parzen估计器" },
    }
    
    data["treeinterpreter"] = {
        short = "A Python library that decomposes a tree-ensemble prediction into a bias term plus per-feature contributions by walking each decision path.",
        article = nil,
        aliases = { "TreeInterpreter", "tree interpreter" },
        es = "Biblioteca de Python que descompone la predicción de un ensamble de árboles en un término de sesgo más contribuciones por característica recorriendo cada camino de decisión.",
        zh = "一个 Python 库,通过遍历每条决策路径,将树集成模型的预测分解为偏置项加上各特征的贡献。",
        term_es = "treeinterpreter",
        term_zh = "treeinterpreter",
        aliases_es = { "TreeInterpreter" },
        aliases_zh = { "TreeInterpreter", "树解释器" },
    }
    
    data["triggered attention"] = {
        short = "Streaming attention mechanism for end-to-end ASR that triggers decoder attention only after a CTC spike, restricting the attention window to past encoder frames and enabling low-latency decoding.",
        article = nil,
        aliases = { "triggered attention decoder", "TA decoder", "CTC-triggered attention" },
        es = "Mecanismo de atención en streaming para ASR de extremo a extremo que activa la atención del decodificador únicamente tras un pico de CTC, restringiendo la ventana de atención a tramas pasadas del codificador y permitiendo decodificación de baja latencia.",
        zh = "用于端到端语音识别的流式注意力机制,仅在 CTC 出现尖峰后触发解码器注意力,将注意力窗口限制在过去的编码器帧,从而实现低延迟解码。",
        term_es = "atención disparada",
        term_zh = "触发式注意力",
        aliases_es = { "triggered attention", "atención CTC-disparada" },
        aliases_zh = { "triggered attention", "CTC 触发注意力" },
    }
    
    data["trimmed mean aggregation"] = {
        short = "A Byzantine-robust aggregation rule that, for each coordinate, sorts the reported values from all workers, discards a fixed fraction of the largest and smallest entries, and averages the remainder to limit the influence of outliers.",
        article = nil,
        aliases = { "trimmed mean", "trimmed-mean aggregator", "coordinate-wise trimmed mean", "Byzantine-robust trimmed mean" },
        es = "Regla de agregación robusta a comportamientos bizantinos que, para cada coordenada, ordena los valores reportados por todos los trabajadores, descarta una fracción fija de los más grandes y los más pequeños y promedia el resto para limitar la influencia de valores atípicos.",
        zh = "一种拜占庭鲁棒聚合规则,对每个坐标分量,先对所有工作节点报告的数值排序,丢弃固定比例的最大和最小值,再对其余值取平均,以限制离群值的影响。",
        term_es = "agregación por media recortada",
        term_zh = "截尾均值聚合",
        aliases_es = { "media recortada", "agregador de media recortada", "media recortada por coordenadas" },
        aliases_zh = { "截尾均值", "逐分量截尾均值", "拜占庭鲁棒截尾均值" },
    }
    
    data["trimming"] = {
        short = "A preprocessing step in observational causal inference that discards units with extreme propensity scores (close to 0 or 1) to improve overlap and stabilize weighted estimators. Common thresholds include 0.05 or 0.1 on each side.",
        article = nil,
        aliases = { "propensity score trimming", "sample trimming", "covariate trimming", "asymmetric trimming" },
        es = "Paso de preprocesamiento en inferencia causal observacional que descarta unidades con scores de propensión extremos (cercanos a 0 o 1) para mejorar el solapamiento y estabilizar los estimadores ponderados. Umbrales comunes son 0.05 o 0.1 en cada lado.",
        zh = "在观测性因果推断中将倾向得分极端(接近 0 或 1)的单元剔除的预处理步骤,用于改善重叠程度并稳定加权估计量。常用阈值为两侧各 0.05 或 0.1。",
        term_es = "recorte",
        term_zh = "修剪",
        aliases_es = { "recorte por score de propensión", "recorte de muestra", "recorte asimétrico" },
        aliases_zh = { "倾向得分修剪", "样本修剪", "协变量修剪", "不对称修剪" },
    }
    
    data["triplane representation"] = {
        short = "A 3D scene representation that factorizes a volumetric feature field into three orthogonal 2D feature planes, queried by projecting points onto each plane; used in EG3D and other neural 3D generative models.",
        article = nil,
        aliases = { "tri-plane", "triplane", "tri-plane representation", "EG3D triplane" },
        es = "Representación 3D de escena que factoriza un campo de características volumétrico en tres planos 2D ortogonales de características, consultados proyectando puntos sobre cada plano; utilizada en EG3D y otros modelos generativos neurales 3D.",
        zh = "一种三维场景表示方法,将体积特征场分解为三个正交的二维特征平面,通过将点投影到每个平面来查询,应用于 EG3D 等神经三维生成模型。",
        term_es = "representación triplano",
        term_zh = "三平面表示",
        aliases_es = { "triplano", "tri-plano", "representación tri-plano" },
        aliases_zh = { "三平面", "triplane", "EG3D 三平面" },
    }
    
    data["triple classification"] = {
        short = "A knowledge-graph evaluation task that asks a model to decide whether a given (head, relation, tail) triple is true, typically by thresholding an embedding-based score.",
        article = nil,
        aliases = { "triple classification task", "fact classification", "KG triple classification" },
        es = "Tarea de evaluación de grafos de conocimiento que consiste en decidir si una tripleta (cabeza, relación, cola) dada es verdadera, normalmente aplicando un umbral a una puntuación basada en incrustaciones.",
        zh = "一种知识图谱评测任务,要求模型判定给定的 (头实体, 关系, 尾实体) 三元组是否成立,通常通过对嵌入打分设定阈值来实现。",
        term_es = "clasificación de tripletas",
        term_zh = "三元组分类",
        aliases_es = { "triple classification", "clasificación de hechos" },
        aliases_zh = { "三元组分类任务", "事实分类" },
    }
    
    data["triple extraction"] = {
        short = "An information-extraction task that produces (subject, relation, object) triples from text, populating knowledge graphs through joint or pipeline entity and relation extraction.",
        article = nil,
        aliases = { "triple extraction", "relation triple extraction", "RDF triple extraction", "knowledge triple extraction" },
        es = "Tarea de extracción de información que produce tripletas (sujeto, relación, objeto) a partir de texto, alimentando grafos de conocimiento mediante extracción conjunta o en cascada de entidades y relaciones.",
        zh = "一种信息抽取任务,从文本中产生 (主语, 关系, 宾语) 三元组,通过联合或流水线式的实体和关系抽取来构建知识图谱。",
        term_es = "extracción de tripletas",
        term_zh = "三元组抽取",
        aliases_es = { "triple extraction", "extracción de tripletas relacionales" },
        aliases_zh = { "关系三元组抽取", "知识三元组抽取" },
    }
    
    data["triplet loss"] = {
        short = "Metric-learning loss using anchor, positive, and negative samples that requires the anchor-positive distance to be smaller than the anchor-negative distance by at least a margin.",
        article = nil,
        aliases = { "Triplet", "triplet ranking loss" },
        es = "Pérdida de aprendizaje métrico que utiliza muestras ancla, positiva y negativa, exigiendo que la distancia ancla-positiva sea menor que la ancla-negativa por al menos un margen.",
        zh = "使用锚点、正样本和负样本的度量学习损失,要求锚点-正样本距离比锚点-负样本距离至少小一个间隔。",
        term_es = "pérdida de tripletes",
        term_zh = "三元组损失",
        aliases_es = { "triplet loss" },
        aliases_zh = { "triplet loss", "三重态损失" },
    }
    
    data["triton kernel"] = {
        short = "A GPU kernel written in OpenAI's Triton, a Python-embedded DSL that compiles to efficient CUDA code, allowing researchers to author high-performance custom GPU operators (e.g., FlashAttention) without low-level CUDA programming.",
        article = nil,
        aliases = { "Triton kernel", "Triton kernels", "OpenAI Triton kernel", "triton" },
        es = "Kernel de GPU escrito en Triton de OpenAI, un DSL embebido en Python que compila a código CUDA eficiente, lo que permite a los investigadores crear operadores de GPU personalizados de alto rendimiento (por ejemplo, FlashAttention) sin programar en CUDA de bajo nivel.",
        zh = "用 OpenAI Triton 编写的 GPU 核函数;Triton 是嵌入 Python 的 DSL,可编译为高效的 CUDA 代码,使研究者无需进行底层 CUDA 编程即可实现高性能的自定义 GPU 算子(如 FlashAttention)。",
        term_es = "kernel de Triton",
        term_zh = "Triton 核函数",
        aliases_es = { "kernel Triton", "kernel de OpenAI Triton" },
        aliases_zh = { "Triton kernel", "Triton 内核", "OpenAI Triton 核函数" },
    }
    
    data["trivialaugment"] = {
        short = "A parameter-free automated data-augmentation method that, for each image, samples a single augmentation operation uniformly at random and applies it with a uniformly sampled magnitude, matching or exceeding more complex search-based methods.",
        article = nil,
        aliases = { "TrivialAugment", "trivial-augment", "Trivial-Augment" },
        es = "Método automatizado de aumento de datos sin parámetros que, para cada imagen, muestrea uniformemente una única operación de aumento y la aplica con una magnitud también muestreada uniformemente, igualando o superando a métodos basados en búsqueda más complejos.",
        zh = "一种无参数的自动化数据增强方法,对每张图像均匀随机地采样一个增强操作,并以均匀随机采样的幅度应用,性能可与更复杂的基于搜索的方法媲美甚至更好。",
        term_es = "TrivialAugment",
        term_zh = "TrivialAugment",
        aliases_es = { "aumento trivial", "TrivialAugment" },
        aliases_zh = { "TrivialAugment 策略", "trivialaugment", "简单增强" },
    }
    
    data["trl library"] = {
        short = "Hugging Face's open-source Transformer Reinforcement Learning library, providing implementations of SFT, reward modeling, PPO, DPO, and related algorithms for aligning language models.",
        article = nil,
        aliases = { "TRL", "trl", "Transformer Reinforcement Learning", "huggingface trl" },
        es = "Biblioteca de código abierto de Hugging Face para aprendizaje por refuerzo en transformers (Transformer Reinforcement Learning), que ofrece implementaciones de SFT, modelado de recompensa, PPO, DPO y algoritmos relacionados para alinear modelos de lenguaje.",
        zh = "Hugging Face 推出的开源 Transformer 强化学习库,提供 SFT、奖励建模、PPO、DPO 及相关算法的实现,用于对齐语言模型。",
        term_es = "biblioteca TRL",
        term_zh = "TRL 库",
        aliases_es = { "TRL", "Transformer Reinforcement Learning" },
        aliases_zh = { "TRL", "Transformer 强化学习库" },
    }
    
    data["trpo"] = {
        short = "A policy-gradient algorithm that maximizes a surrogate objective subject to a hard constraint on the average KL divergence between the new and old policies, guaranteeing monotonic improvement under linearization.",
        article = nil,
        aliases = { "TRPO", "Trust Region Policy Optimization" },
        es = "Algoritmo de gradiente de política que maximiza un objetivo sustituto sujeto a una restricción dura sobre la divergencia KL promedio entre la nueva política y la anterior, garantizando mejora monótona bajo linealización.",
        zh = "一种策略梯度算法,在新旧策略之间平均 KL 散度的硬约束下最大化代理目标,在线性化下保证单调改进。",
        term_es = "TRPO",
        term_zh = "TRPO",
        aliases_es = { "Trust Region Policy Optimization", "optimización de política con región de confianza" },
        aliases_zh = { "信任域策略优化", "Trust Region Policy Optimization" },
    }
    
    data["true positive rate"] = {
        short = "Probability that an actual positive is predicted positive, TP/(TP+FN). Identical to recall and sensitivity; the y-axis of a ROC curve.",
        article = nil,
        aliases = { "TPR", "recall", "sensitivity", "hit rate" },
        es = "Probabilidad de que un positivo real sea predicho como positivo, TP/(TP+FN). Es idéntica a la exhaustividad y a la sensibilidad, y constituye el eje vertical de la curva ROC.",
        zh = "真实为正的样本被预测为正的概率,TP/(TP+FN)。与召回率、敏感度等价,是 ROC 曲线的纵轴。",
        term_es = "tasa de verdaderos positivos",
        term_zh = "真阳性率",
        aliases_es = { "TVP", "TPR", "sensibilidad", "exhaustividad" },
        aliases_zh = { "TPR", "真正率", "敏感度", "召回率" },
    }
    
    data["truncated factorization"] = {
        short = "A factorization of the joint distribution under intervention in which the conditional density of the intervened variable is removed and replaced by the intervention value. It yields the manipulated distribution and is the basis of Pearl's do-operator.",
        article = nil,
        aliases = { "manipulated factorization", "truncated factorization formula", "g-formula", "post-intervention factorization" },
        es = "Factorización de la distribución conjunta bajo intervención en la que se elimina la densidad condicional de la variable intervenida y se sustituye por el valor de la intervención. Produce la distribución manipulada y es la base del operador do de Pearl.",
        zh = "在干预下对联合分布进行的因式分解:去除被干预变量的条件密度并将其替换为干预值,得到的便是操控后分布,是 Pearl 的 do 算子的基础。",
        term_es = "factorización truncada",
        term_zh = "截断因式分解",
        aliases_es = { "factorización manipulada", "fórmula de factorización truncada", "fórmula g", "factorización postintervención" },
        aliases_zh = { "截断分解", "操控因式分解", "g-公式", "干预后因式分解" },
    }
    
    data["truncated weights"] = {
        short = "Inverse-probability weights that are capped at a fixed value or quantile to limit the influence of units with extreme propensity scores. Reduces variance at the cost of introducing some bias relative to untruncated weighting.",
        article = nil,
        aliases = { "weight truncation", "truncated IPW", "trimmed weights", "capped weights" },
        es = "Pesos de probabilidad inversa acotados en un valor fijo o un cuantil para limitar la influencia de unidades con scores de propensión extremos. Reduce la varianza a costa de introducir cierto sesgo respecto a la ponderación sin truncar.",
        zh = "在固定值或分位数处截断的逆概率权重,用以限制倾向得分极端单元的影响。其代价是相对未截断权重引入一定偏差,但能降低方差。",
        term_es = "pesos truncados",
        term_zh = "截断权重",
        aliases_es = { "truncamiento de pesos", "IPW truncado", "pesos recortados", "pesos limitados" },
        aliases_zh = { "权重截断", "截断 IPW", "限幅权重", "封顶权重" },
    }
    
    data["trust region"] = {
        short = "An optimization framework that restricts each step to a region in which a local model is trusted to approximate the objective, expanding or shrinking the region based on observed agreement with the true function.",
        article = nil,
        aliases = { "trust region method", "trust-region method", "trust-region" },
        es = "Marco de optimización que restringe cada paso a una región donde un modelo local se considera fiable como aproximación del objetivo, expandiendo o contrayendo dicha región según el acuerdo observado con la función real.",
        zh = "一种优化框架:将每一步限制在局部模型可被信赖近似目标函数的区域内,并根据模型与真实函数的一致程度扩大或缩小该区域。",
        term_es = "región de confianza",
        term_zh = "信赖域",
        aliases_es = { "método de región de confianza", "trust region" },
        aliases_zh = { "信赖域方法", "信赖区域", "trust region" },
    }
    
    data["trust score"] = {
        short = "A scalar that gauges how trustworthy a classifier's prediction is by comparing the distance to the nearest example of the predicted class against the distance to the nearest example of any other class.",
        article = nil,
        aliases = { "trust scoring", "Jiang trust score" },
        es = "Escalar que evalúa la confiabilidad de la predicción de un clasificador comparando la distancia al ejemplo más cercano de la clase predicha con la distancia al ejemplo más cercano de cualquier otra clase.",
        zh = "用于衡量分类器预测可信度的标量,将到预测类别最近样本的距离与到任意其他类别最近样本的距离进行比较。",
        term_es = "puntaje de confianza",
        term_zh = "信任分数",
        aliases_es = { "trust score", "puntaje de confiabilidad" },
        aliases_zh = { "trust score", "可信度分数" },
    }
    
    data["trusted execution environment"] = {
        short = "A hardware-isolated processor environment (such as Intel SGX, Arm TrustZone, or AMD SEV) that provides confidentiality and integrity for code and data even against a compromised host operating system or hypervisor.",
        article = nil,
        aliases = { "TEE", "secure enclave", "trusted enclave", "Intel SGX", "Arm TrustZone" },
        es = "Entorno de procesador aislado por hardware (como Intel SGX, Arm TrustZone o AMD SEV) que proporciona confidencialidad e integridad para código y datos incluso frente a un sistema operativo o hipervisor comprometido.",
        zh = "一种由硬件隔离的处理器环境(如Intel SGX、Arm TrustZone或AMD SEV),即使主机操作系统或虚拟机监控器被攻破,也能为代码和数据提供机密性与完整性保护。",
        term_es = "entorno de ejecución de confianza",
        term_zh = "可信执行环境",
        aliases_es = { "TEE", "enclave seguro", "Intel SGX", "Arm TrustZone" },
        aliases_zh = { "TEE", "安全飞地", "可信飞地", "Intel SGX", "Arm TrustZone" },
    }
    
    data["trustworthy ai"] = {
        short = "An umbrella term for AI systems that are lawful, ethical, and technically robust, typically operationalized through properties such as fairness, transparency, accountability, privacy, safety, and reliability.",
        article = nil,
        aliases = { "trustworthy AI", "TAI", "trustworthy artificial intelligence" },
        es = "Término general para sistemas de IA legales, éticos y técnicamente robustos, que se operacionaliza mediante propiedades como equidad, transparencia, rendición de cuentas, privacidad, seguridad y fiabilidad.",
        zh = "对合法、合乎伦理且技术稳健的人工智能系统的统称,通常通过公平性、透明度、问责性、隐私、安全和可靠性等属性来落实。",
        term_es = "IA confiable",
        term_zh = "可信人工智能",
        aliases_es = { "inteligencia artificial confiable", "IA fiable", "IA digna de confianza" },
        aliases_zh = { "可信赖人工智能", "可信AI", "可信赖AI" },
    }
    
    data["trustworthy explanation"] = {
        short = "An explanation that is faithful to the model's actual reasoning, robust to small perturbations, and reliable enough to support downstream decisions or audits.",
        article = nil,
        aliases = { "trustworthy explainability", "reliable explanation" },
        es = "Explicación fiel al razonamiento real del modelo, robusta ante pequeñas perturbaciones y suficientemente confiable como para sustentar decisiones o auditorías posteriores.",
        zh = "忠实反映模型实际推理过程、对小扰动鲁棒、并足够可靠以支持下游决策或审计的解释。",
        term_es = "explicación confiable",
        term_zh = "可信解释",
        aliases_es = { "explicación de confianza", "explicación fiable" },
        aliases_zh = { "可靠解释", "值得信赖的解释" },
    }
    
    data["truthfulqa"] = {
        short = "A benchmark of 817 questions designed to elicit common human misconceptions, used to measure whether language models give truthful answers rather than ones that imitate widespread false beliefs.",
        article = nil,
        aliases = { "TruthfulQA", "Truthful QA", "truthful qa" },
        es = "Banco de pruebas de 817 preguntas diseñadas para provocar errores comunes humanos, utilizado para medir si los modelos de lenguaje dan respuestas veraces en lugar de imitar creencias falsas extendidas.",
        zh = "包含 817 个问题的基准,旨在引出人类常见误解,用于衡量语言模型是否给出真实答案而非模仿广泛流传的错误观念。",
        term_es = "TruthfulQA",
        term_zh = "TruthfulQA",
        aliases_es = { "Truthful QA" },
        aliases_zh = { "Truthful QA", "真实性问答基准" },
    }
    
    data["ts-vad"] = {
        short = "Target-speaker voice activity detection: a neural diarization approach that, given speaker embeddings, predicts the speech activity of each known speaker frame by frame, including overlapped speech.",
        article = nil,
        aliases = { "TS-VAD", "target-speaker VAD", "target speaker voice activity detection" },
        es = "Detección de actividad de voz por locutor objetivo: enfoque neuronal de diarización que, dados los embeddings de los locutores, predice la actividad de habla de cada locutor conocido trama a trama, incluyendo habla superpuesta.",
        zh = "目标说话人语音活动检测:一种神经话者分离方法,在给定说话人嵌入的情况下,逐帧预测每个已知说话人的语音活动,包括重叠语音。",
        term_es = "TS-VAD",
        term_zh = "TS-VAD",
        aliases_es = { "TS-VAD", "VAD por locutor objetivo" },
        aliases_zh = { "TS-VAD", "目标说话人 VAD" },
    }
    
    data["tsallis entropy"] = {
        short = "A non-extensive generalization of Shannon entropy, S_q(p) = (1/(q-1))(1 - Σ p_i^q), parameterized by an entropic index q. It recovers Shannon entropy as q→1 and is non-additive across independent subsystems.",
        article = nil,
        aliases = { "Tsallis entropy", "q-entropy", "non-extensive entropy" },
        es = "Generalización no extensiva de la entropía de Shannon, S_q(p) = (1/(q-1))(1 - Σ p_i^q), parametrizada por un índice entrópico q. Recupera la entropía de Shannon en el límite q→1 y no es aditiva entre subsistemas independientes.",
        zh = "Shannon 熵的一种非可加广义形式 S_q(p) = (1/(q-1))(1 - Σ p_i^q),由熵指数 q 参数化。当 q→1 时退化为 Shannon 熵,且对独立子系统不具有可加性。",
        term_es = "entropía de Tsallis",
        term_zh = "Tsallis 熵",
        aliases_es = { "entropía q", "entropía no extensiva" },
        aliases_zh = { "q 熵", "非可加熵", "Tsallis 熵" },
    }
    
    data["ttranse"] = {
        short = "A temporal extension of TransE that incorporates a learned time-vector into the translation, scoring time-stamped triples (h, r, t, τ) by the proximity of h + r + τ to t.",
        article = nil,
        aliases = { "TTransE", "T-TransE", "Temporal TransE" },
        es = "Extensión temporal de TransE que incorpora un vector temporal aprendido en la traslación, puntuando tripletas con marca de tiempo (h, r, t, τ) por la cercanía de h + r + τ a t.",
        zh = "TransE 的时序扩展,在平移中引入一个可学习的时间向量,通过 h + r + τ 与 t 的接近程度对带时间戳的四元组 (h, r, t, τ) 打分。",
        term_es = "TTransE",
        term_zh = "TTransE",
        aliases_es = { "T-TransE", "TransE temporal" },
        aliases_zh = { "T-TransE", "时序 TransE" },
    }
    
    data["tucker embedding"] = {
        short = "A knowledge-graph embedding family, exemplified by TuckER, that scores triples through a Tucker tensor decomposition of the binary relation tensor with a shared core tensor and entity/relation factor matrices.",
        article = nil,
        aliases = { "TuckER", "Tucker embedding", "Tucker decomposition embedding", "TuckER model" },
        es = "Familia de incrustaciones de grafos de conocimiento, ejemplificada por TuckER, que puntúa tripletas mediante una descomposición tensorial de Tucker del tensor binario de relaciones con un tensor núcleo compartido y matrices de factores para entidades y relaciones.",
        zh = "一类知识图谱嵌入方法,以 TuckER 为代表,通过对二元关系张量进行 Tucker 张量分解(包含共享的核张量与实体、关系因子矩阵)来对三元组打分。",
        term_es = "incrustación TuckER",
        term_zh = "Tucker 嵌入",
        aliases_es = { "TuckER", "Tucker embedding", "descomposición de Tucker" },
        aliases_zh = { "TuckER", "Tucker 分解嵌入", "TuckER 模型" },
    }
    
    data["tumor mutational burden"] = {
        short = "The number of somatic mutations per megabase of coding DNA in a tumor sample, used as a biomarker for response to immune checkpoint inhibitors.",
        article = nil,
        aliases = { "TMB", "mutational burden", "tumor mutation burden", "mutation load" },
        es = "Número de mutaciones somáticas por megabase de ADN codificante en una muestra tumoral, utilizado como biomarcador de respuesta a inhibidores de puntos de control inmunitario.",
        zh = "肿瘤样本中每兆碱基编码 DNA 的体细胞突变数量,作为免疫检查点抑制剂反应的生物标志物。",
        term_es = "carga mutacional tumoral",
        term_zh = "肿瘤突变负荷",
        aliases_es = { "TMB", "carga de mutaciones tumorales" },
        aliases_zh = { "TMB", "肿瘤突变负担", "突变负荷" },
    }
    
    data["tumor purity"] = {
        short = "The fraction of cancer cells in a tumor sample relative to non-malignant stromal and immune cells; estimated from sequencing data and used to correct allele frequencies and copy-number calls.",
        article = nil,
        aliases = { "cancer cell fraction", "tumor cellularity", "sample purity" },
        es = "Proporción de células tumorales en una muestra respecto a células estromales e inmunitarias no malignas; se estima a partir de datos de secuenciación y se usa para corregir frecuencias alélicas y llamadas de número de copias.",
        zh = "肿瘤样本中癌细胞相对于非恶性基质和免疫细胞的比例;可从测序数据估计,用于校正等位基因频率和拷贝数检测结果。",
        term_es = "pureza tumoral",
        term_zh = "肿瘤纯度",
        aliases_es = { "celularidad tumoral", "fracción de células tumorales" },
        aliases_zh = { "肿瘤细胞含量", "样本纯度" },
    }
    
    data["tuned lens"] = {
        short = "An interpretability method for transformer language models that trains a per-layer affine probe to translate intermediate hidden states into next-token logit distributions.",
        article = nil,
        aliases = { "Tuned Lens", "tuned-lens" },
        es = "Método de interpretabilidad para modelos de lenguaje basados en transformers que entrena una sonda afín por capa para traducir los estados ocultos intermedios en distribuciones de logits del siguiente token.",
        zh = "一种针对 transformer 语言模型的可解释性方法,为每一层训练一个仿射探针,将中间隐藏状态转换为下一 token 的 logits 分布。",
        term_es = "tuned lens",
        term_zh = "Tuned Lens",
        aliases_es = { "Tuned Lens", "lente afinada" },
        aliases_zh = { "Tuned Lens", "调谐透镜" },
    }
    
    data["tversky loss"] = {
        short = "Generalization of Dice loss that introduces asymmetric weights for false positives and false negatives, useful for highly imbalanced segmentation tasks.",
        article = nil,
        aliases = { "Tversky" },
        es = "Generalización de la pérdida Dice que introduce pesos asimétricos para falsos positivos y falsos negativos, útil en tareas de segmentación muy desbalanceadas.",
        zh = "Dice 损失的推广,对假阳性与假阴性引入不对称权重,适用于严重不平衡的分割任务。",
        term_es = "pérdida de Tversky",
        term_zh = "Tversky 损失",
        aliases_es = { "Tversky" },
        aliases_zh = { "Tversky" },
    }
    
    data["tversky similarity"] = {
        short = "An asymmetric similarity coefficient between two sets that weights the contributions of features unique to each set differently, generalizing Tanimoto and Dice indices for molecular fingerprint comparison.",
        article = nil,
        aliases = { "Tversky index", "Tversky coefficient" },
        es = "Coeficiente de similitud asimétrico entre dos conjuntos que pondera de forma diferente las contribuciones de las características exclusivas de cada conjunto, generalizando los índices de Tanimoto y Dice para la comparación de huellas moleculares.",
        zh = "两个集合之间的非对称相似性系数,对每个集合独有特征的贡献赋以不同权重,是 Tanimoto 和 Dice 指数在分子指纹比较中的推广。",
        term_es = "similitud de Tversky",
        term_zh = "Tversky 相似度",
        aliases_es = { "índice de Tversky", "coeficiente de Tversky" },
        aliases_zh = { "Tversky 指数", "Tversky 系数" },
    }
    
    data["tvqa"] = {
        short = "A large-scale video question answering benchmark drawn from clips of six TV shows, requiring temporal localization and joint reasoning over visuals and dialogue/subtitles.",
        article = nil,
        aliases = { "TVQA", "TVQA dataset", "TVQA benchmark" },
        es = "Un punto de referencia a gran escala de respuesta a preguntas sobre video, construido a partir de fragmentos de seis series de televisión, que exige localización temporal y razonamiento conjunto sobre la imagen y los diálogos o subtítulos.",
        zh = "一个大规模视频问答基准,由六部电视剧的片段构成,要求模型进行时间定位并对画面与对白/字幕进行联合推理。",
        term_es = "TVQA",
        term_zh = "TVQA",
        aliases_es = { "TVQA" },
        aliases_zh = { "TVQA" },
    }
    
    data["twin network"] = {
        short = "A counterfactual-inference construction that duplicates a structural causal model into a 'factual' and a 'counterfactual' copy sharing exogenous variables, used in counterfactual-fairness analyses.",
        article = nil,
        aliases = { "twin-network method", "Pearl twin network" },
        es = "Construcción de inferencia contrafactual que duplica un modelo causal estructural en una copia 'factual' y otra 'contrafactual' que comparten las variables exógenas, utilizada en análisis de equidad contrafactual.",
        zh = "一种反事实推断构造,将结构因果模型复制为共享外生变量的'事实'副本与'反事实'副本,用于反事实公平性分析。",
        term_es = "red gemela",
        term_zh = "孪生网络",
        aliases_es = { "método de red gemela", "red gemela de Pearl" },
        aliases_zh = { "孪生网络方法", "Pearl 孪生网络", "双生网络" },
    }
    
    data["two-pass asr"] = {
        short = "Speech recognition decoding scheme in which a streaming first-pass model produces partial hypotheses with low latency and a stronger non-streaming second-pass model rescores or regenerates them for higher accuracy.",
        article = nil,
        aliases = { "two-pass ASR", "two-pass decoding", "two-pass speech recognition", "first-pass / second-pass ASR" },
        es = "Esquema de decodificación de reconocimiento de voz en el que un primer modelo en streaming produce hipótesis parciales con baja latencia y un segundo modelo no streaming más potente las repuntúa o regenera para mejorar la precisión.",
        zh = "语音识别解码方案,先由流式的一遍模型以低延迟输出部分假设,再由更强的非流式二遍模型重打分或重新生成,以提高准确率。",
        term_es = "ASR de dos pasadas",
        term_zh = "二次解码 ASR",
        aliases_es = { "ASR de dos pasos", "decodificación en dos pasadas", "two-pass ASR" },
        aliases_zh = { "two-pass ASR", "两遍解码", "二遍 ASR" },
    }
    
    data["two-sample mendelian randomization"] = {
        short = "A Mendelian randomization design that combines genetic variant–exposure associations from one cohort with variant–outcome associations from a different cohort, typically using summary statistics from genome-wide association studies. Enables instrumental-variable causal estimation across separate samples.",
        article = nil,
        aliases = { "two-sample MR", "2SMR", "summary-data Mendelian randomization", "two-sample Mendelian randomisation" },
        es = "Diseño de aleatorización mendeliana que combina las asociaciones variante genética–exposición provenientes de una cohorte con las asociaciones variante–resultado de otra cohorte, normalmente usando estadísticos resumen de estudios de asociación de todo el genoma. Permite estimación causal por variables instrumentales en muestras separadas.",
        zh = "孟德尔随机化设计的一种,将一个队列中遗传变异与暴露的关联和另一个队列中变异与结果的关联结合,通常使用全基因组关联研究的汇总统计量。可在不同样本之间进行工具变量因果估计。",
        term_es = "aleatorización mendeliana de dos muestras",
        term_zh = "双样本孟德尔随机化",
        aliases_es = { "MR de dos muestras", "2SMR", "aleatorización mendeliana con datos resumen" },
        aliases_zh = { "双样本 MR", "2SMR", "汇总数据孟德尔随机化" },
    }
    
    data["two-sided fairness"] = {
        short = "A fairness notion for two-sided platforms (e.g. marketplaces, recommender systems) that simultaneously accounts for utility and protected-group treatment of both consumers and producers.",
        article = nil,
        aliases = { "two-sided marketplace fairness", "producer-consumer fairness" },
        es = "Noción de equidad para plataformas de dos lados (mercados, sistemas de recomendación) que tiene en cuenta simultáneamente la utilidad y el trato a grupos protegidos tanto de consumidores como de productores.",
        zh = "面向双边平台(如市场、推荐系统)的公平性概念,同时兼顾消费者和生产者的效用以及对受保护群体的处置。",
        term_es = "equidad bilateral",
        term_zh = "双边公平性",
        aliases_es = { "equidad de dos lados", "equidad de mercado bilateral", "equidad consumidor-productor" },
        aliases_zh = { "双侧公平性", "生产者-消费者公平性", "双边市场公平性" },
    }
    
    data["two-stage least squares"] = {
        short = "An instrumental-variable estimator that first regresses the endogenous regressor on the instruments to obtain fitted values and then regresses the outcome on those fitted values. Provides a consistent estimate of the causal effect under instrument validity and relevance.",
        article = nil,
        aliases = { "2SLS", "TSLS", "two-stage least-squares", "instrumental variables 2SLS" },
        es = "Estimador de variables instrumentales que primero regresa el regresor endógeno sobre los instrumentos para obtener valores ajustados y luego regresa el resultado sobre dichos valores. Proporciona una estimación consistente del efecto causal bajo validez y relevancia del instrumento.",
        zh = "一种工具变量估计量,先将内生回归元对工具变量回归得到拟合值,再将结果对该拟合值回归。在工具变量有效性和相关性成立时,可得到因果效应的一致估计。",
        term_es = "mínimos cuadrados en dos etapas",
        term_zh = "两阶段最小二乘法",
        aliases_es = { "2SLS", "MC2E", "MCO en dos etapas", "variables instrumentales 2SLS" },
        aliases_zh = { "2SLS", "二阶段最小二乘", "工具变量两阶段最小二乘" },
    }
    
    data["two-stream transformer"] = {
        short = "A transformer architecture that processes two parallel input streams (e.g. RGB and optical flow for video, or vision and language for VL tasks) and fuses them through cross-attention or late concatenation.",
        article = nil,
        aliases = { "two-stream Transformer", "dual-stream transformer", "two-stream attention network" },
        es = "Arquitectura transformer que procesa dos flujos de entrada en paralelo (por ejemplo, RGB y flujo óptico para video, o visión y lenguaje para tareas VL) y los fusiona mediante atención cruzada o concatenación tardía.",
        zh = "一种 Transformer 架构,并行处理两个输入流(如视频中的 RGB 与光流,或视觉-语言任务中的视觉与文本流),并通过交叉注意力或后期拼接进行融合。",
        term_es = "transformer de dos flujos",
        term_zh = "双流 Transformer",
        aliases_es = { "transformer de dos flujos", "two-stream transformer", "transformer de doble flujo" },
        aliases_zh = { "双流 Transformer", "two-stream Transformer", "双路 Transformer" },
    }
    
    data["two-tower multimodal"] = {
        short = "A retrieval architecture using two separate encoders (e.g. an image tower and a text tower) that map their inputs into a shared embedding space, enabling efficient cross-modal nearest-neighbor search at inference time.",
        article = nil,
        aliases = { "two-tower model", "dual-encoder", "dual encoder", "twin-tower model", "siamese multimodal" },
        es = "Arquitectura de recuperación con dos codificadores separados (p. ej. una torre de imagen y una torre de texto) que proyectan sus entradas a un mismo espacio de embeddings, lo que permite búsquedas cruzadas eficientes por vecinos más cercanos en inferencia.",
        zh = "一种检索架构,使用两个独立的编码器(如图像塔和文本塔)将各自输入映射到共享的嵌入空间,从而在推理时进行高效的跨模态最近邻检索。",
        term_es = "modelo de dos torres multimodal",
        term_zh = "双塔多模态模型",
        aliases_es = { "modelo de dos torres", "doble codificador", "dual-encoder" },
        aliases_zh = { "双塔模型", "双编码器", "dual-encoder" },
    }
    
    data["two-way fixed effects"] = {
        short = "A panel data regression specification that includes additive unit and time fixed effects to absorb time-invariant unit heterogeneity and common time shocks. Recent work shows it can produce biased treatment-effect estimates with heterogeneous effects and staggered adoption.",
        article = nil,
        aliases = { "TWFE", "two-way FE", "two-way fixed-effects", "two-way fixed effects regression" },
        es = "Especificación de regresión de datos de panel que incluye efectos fijos aditivos de unidad y de tiempo para absorber la heterogeneidad invariante en el tiempo entre unidades y los choques temporales comunes. Investigaciones recientes muestran que puede producir estimaciones sesgadas del efecto del tratamiento cuando hay efectos heterogéneos y adopción escalonada.",
        zh = "在面板数据回归中加入加性的单元固定效应和时间固定效应,以吸收单元间随时间不变的异质性和共同的时间冲击。近期研究表明,在效应异质且采用时间错开的情形下,该方法可能产生有偏的处理效应估计。",
        term_es = "efectos fijos bidireccionales",
        term_zh = "双向固定效应",
        aliases_es = { "TWFE", "efectos fijos en dos direcciones", "regresión de efectos fijos bidireccionales" },
        aliases_zh = { "TWFE", "双向固定效应模型", "两向固定效应" },
    }
    
    data["typical sampling"] = {
        short = "A sampling method that restricts candidates to tokens whose negative log-probability is close to the conditional entropy of the next-token distribution, aiming to produce outputs whose information content matches the model's expectation.",
        article = nil,
        aliases = { "Typical Sampling", "locally typical sampling", "typical decoding", "typical-p sampling" },
        es = "Método de muestreo que limita los candidatos a tokens cuya log-probabilidad negativa está cerca de la entropía condicional de la distribución del siguiente token, buscando salidas cuyo contenido de información coincida con la expectativa del modelo.",
        zh = "一种采样方法,将候选 token 限制为其负对数概率接近下一个 token 分布条件熵的那些 token,旨在让输出的信息量符合模型的期望。",
        term_es = "muestreo típico",
        term_zh = "典型采样",
        aliases_es = { "typical sampling", "muestreo localmente típico", "decodificación típica" },
        aliases_zh = { "typical sampling", "局部典型采样", "典型解码", "典型 p 采样" },
    }
    
    data["typicality test"] = {
        short = "An out-of-distribution detection method that flags inputs whose log-density under a generative model deviates significantly from the typical-set value expected for in-distribution samples, addressing failures of pure likelihood thresholding.",
        article = nil,
        aliases = { "typicality-based OOD detection", "typical set test" },
        es = "Método de detección fuera de distribución que marca como OOD las entradas cuya log-densidad bajo un modelo generativo se desvía significativamente del valor típico esperado para muestras dentro de la distribución, corrigiendo fallos del umbral basado únicamente en la verosimilitud.",
        zh = "一种分布外检测方法:根据输入在生成模型下的对数密度是否显著偏离分布内样本所期望的典型集取值来判定其为 OOD,从而修正单纯似然阈值方法的失败模式。",
        term_es = "prueba de tipicalidad",
        term_zh = "典型性检验",
        aliases_es = { "detección OOD basada en tipicalidad", "prueba del conjunto típico", "typicality test" },
        aliases_zh = { "基于典型性的 OOD 检测", "典型集检验", "typicality test" },
    }
    
    data["u-net"] = {
        short = "A convolutional encoder-decoder architecture with skip connections between matching encoder and decoder levels, originally designed for biomedical image segmentation and now widely used for dense prediction and diffusion models.",
        article = nil,
        aliases = { "U-Net", "UNet", "U Net", "U-net" },
        es = "Arquitectura convolucional codificador-decodificador con conexiones de salto entre niveles equivalentes del codificador y el decodificador, diseñada inicialmente para la segmentación de imágenes biomédicas y hoy ampliamente usada en predicción densa y modelos de difusión.",
        zh = "一种带跳跃连接的卷积编码器-解码器架构,在编码器与解码器对应层之间相连,最初用于生物医学图像分割,目前广泛应用于密集预测和扩散模型。",
        term_es = "U-Net",
        term_zh = "U-Net",
        aliases_es = { "UNet", "red U-Net" },
        aliases_zh = { "UNet", "U 形网络" },
    }
    
    data["u-shaped split learning"] = {
        short = "A variant of split learning in which the network is divided into three segments — a head and a tail kept on the client and a middle held by the server — so that raw inputs and labels never leave the client.",
        article = nil,
        aliases = { "U-shaped split learning", "U-shape split learning", "label-private split learning" },
        es = "Variante del aprendizaje dividido en la que la red se separa en tres segmentos — una cabeza y una cola que permanecen en el cliente y un tramo intermedio en poder del servidor — de modo que las entradas crudas y las etiquetas nunca salen del cliente.",
        zh = "拆分学习的一种变体,将网络分为三段——头部和尾部保留在客户端,中间部分由服务器持有——使原始输入和标签都不会离开客户端。",
        term_es = "aprendizaje dividido en forma de U",
        term_zh = "U形拆分学习",
        aliases_es = { "split learning en U", "aprendizaje dividido con etiquetas privadas" },
        aliases_zh = { "U型拆分学习", "标签隐私拆分学习" },
    }
    
    data["ucb acquisition"] = {
        short = "An acquisition function for Bayesian optimization defined as μ(x) + κ·σ(x), trading off the surrogate's predicted mean and uncertainty via the exploration coefficient κ; minimization variants use μ(x) − κ·σ(x).",
        article = nil,
        aliases = { "UCB", "upper confidence bound", "upper confidence bound acquisition", "GP-UCB" },
        es = "Función de adquisición para optimización bayesiana definida como μ(x) + κ·σ(x), que equilibra la media predicha y la incertidumbre del modelo sustituto mediante el coeficiente de exploración κ; las variantes para minimización usan μ(x) − κ·σ(x).",
        zh = "贝叶斯优化中的一种采集函数,定义为μ(x)+κ·σ(x),通过探索系数κ平衡代理模型的预测均值与不确定性;最小化版本采用μ(x)−κ·σ(x)。",
        term_es = "adquisición UCB",
        term_zh = "UCB采集函数",
        aliases_es = { "UCB", "límite superior de confianza", "GP-UCB" },
        aliases_zh = { "UCB", "置信上界采集", "GP-UCB" },
    }
    
    data["ucca parsing"] = {
        short = "Parsing into Universal Conceptual Cognitive Annotation, a cross-lingual semantic representation in which sentences become directed acyclic graphs of typed scene-and-participant relations.",
        article = nil,
        aliases = { "UCCA parsing", "UCCA semantic parsing", "Universal Conceptual Cognitive Annotation parsing" },
        es = "Análisis hacia la Universal Conceptual Cognitive Annotation, una representación semántica interlingüística en la que las oraciones se convierten en grafos acíclicos dirigidos con relaciones tipadas de escena y participantes.",
        zh = "向 通用概念认知标注 (UCCA) 的解析,这是一种跨语言的语义表示,将句子表示为带有场景与参与者类型化关系的有向无环图。",
        term_es = "análisis UCCA",
        term_zh = "UCCA 解析",
        aliases_es = { "parsing UCCA", "análisis semántico UCCA" },
        aliases_zh = { "UCCA 语义解析", "通用概念认知标注解析" },
    }
    
    data["ucsc browser"] = {
        short = "A web-based genome viewer hosted at UC Santa Cruz that displays reference genomes alongside annotation tracks for genes, conservation, variation, regulation, and user-uploaded data.",
        article = nil,
        aliases = { "UCSC", "UCSC Genome Browser", "Genome Browser" },
        es = "Visualizador de genomas basado en web alojado en UC Santa Cruz que muestra genomas de referencia junto con pistas de anotación para genes, conservación, variación, regulación y datos cargados por el usuario.",
        zh = "由加州大学圣克鲁兹分校提供的基于网页的基因组浏览器,显示参考基因组以及基因、保守性、变异、调控和用户上传数据的注释轨道。",
        term_es = "navegador UCSC",
        term_zh = "UCSC 基因组浏览器",
        aliases_es = { "UCSC", "UCSC Genome Browser", "navegador del genoma UCSC" },
        aliases_zh = { "UCSC", "UCSC Browser", "基因组浏览器" },
    }
    
    data["ufold"] = {
        short = "A deep-learning method for RNA secondary structure prediction that formulates the problem as image segmentation on contact maps, achieving accuracy competitive with thermodynamic and folding-based predictors.",
        article = nil,
        aliases = { "UFold", "U-Fold", "UFold RNA" },
        es = "Método de aprendizaje profundo para la predicción de estructura secundaria de ARN que formula el problema como segmentación de imagen sobre mapas de contacto, con precisión comparable a predictores termodinámicos.",
        zh = "一种用于 RNA 二级结构预测的深度学习方法,将问题表述为接触图上的图像分割任务,其准确性可与热力学和基于折叠的预测方法相媲美。",
        term_es = "UFold",
        term_zh = "UFold",
        aliases_es = { "UFold", "U-Fold" },
        aliases_zh = { "UFold", "U-Fold" },
    }
    
    data["ul2"] = {
        short = "Unifying Language Learning (UL2), a Google pretraining framework that mixes denoising objectives — R-, S-, and X-denoising — under a unified Mixture-of-Denoisers, applied to a 20B-parameter encoder-decoder model.",
        article = nil,
        aliases = { "UL2", "Unifying Language Learning", "Mixture-of-Denoisers", "MoD" },
        es = "Unifying Language Learning (UL2), marco de preentrenamiento de Google que combina objetivos de denoising —R, S y X— bajo una Mezcla de Denoisers unificada, aplicado a un modelo encoder-decoder de 20 mil millones de parámetros.",
        zh = "Unifying Language Learning(UL2)是 Google 提出的预训练框架,将 R、S、X 三种去噪目标统一为去噪混合(Mixture-of-Denoisers),应用于一个 200 亿参数的编码器-解码器模型。",
        term_es = "UL2",
        term_zh = "UL2",
        aliases_es = { "Unifying Language Learning", "Mixture-of-Denoisers" },
        aliases_zh = { "Unifying Language Learning", "去噪混合", "Mixture-of-Denoisers" },
    }
    
    data["ultra-large library screening"] = {
        short = "Virtual screening of chemical libraries containing hundreds of millions to billions of make-on-demand compounds, enabled by docking algorithms and machine-learning surrogates that scale beyond exhaustive evaluation.",
        article = nil,
        aliases = { "ultra large library screening", "giga-scale screening", "ultra-large-scale virtual screening" },
        es = "Cribado virtual de bibliotecas químicas que contienen de cientos de millones a miles de millones de compuestos sintetizables bajo demanda, posibilitado por algoritmos de acoplamiento y modelos sustitutos de aprendizaje automático que escalan más allá de la evaluación exhaustiva.",
        zh = "对包含数亿到数十亿可按需合成化合物的化学库进行虚拟筛选,依靠分子对接算法和机器学习代理模型在无法穷尽评估的规模下实现。",
        term_es = "cribado de bibliotecas ultragrandes",
        term_zh = "超大规模化合物库筛选",
        aliases_es = { "cribado virtual a ultra gran escala", "cribado a escala giga" },
        aliases_zh = { "超大规模虚拟筛选", "超大化合物库筛选", "千兆级虚拟筛选" },
    }
    
    data["ultrachat"] = {
        short = "A large-scale multi-turn dialogue dataset (~1.5M conversations) generated by prompting two ChatGPT instances to converse with each other, used for instruction tuning open chat models such as Zephyr.",
        article = nil,
        aliases = { "UltraChat", "Ultra Chat", "UltraChat dataset" },
        es = "Conjunto de datos a gran escala de diálogos multi-turno (~1,5 millones de conversaciones) generado haciendo dialogar a dos instancias de ChatGPT entre sí, utilizado para el ajuste por instrucciones de modelos de chat abiertos como Zephyr.",
        zh = "大规模多轮对话数据集(约 150 万条对话),通过让两个 ChatGPT 实例互相对话生成,用于 Zephyr 等开源聊天模型的指令微调。",
        term_es = "UltraChat",
        term_zh = "UltraChat",
        aliases_es = { "conjunto UltraChat" },
        aliases_zh = { "UltraChat 数据集" },
    }
    
    data["ultrafeedback"] = {
        short = "A preference dataset of ~64k prompts each rated across multiple model responses on instruction-following, truthfulness, honesty, and helpfulness, widely used for DPO training of open chat models.",
        article = nil,
        aliases = { "UltraFeedback", "Ultra Feedback", "UltraFeedback dataset" },
        es = "Conjunto de datos de preferencias con unos 64 mil prompts, cada uno con varias respuestas de modelos puntuadas en seguimiento de instrucciones, veracidad, honestidad y utilidad; muy utilizado para el entrenamiento DPO de modelos de chat abiertos.",
        zh = "包含约 6.4 万条提示的偏好数据集,每条提示对多个模型回复在指令遵循、真实性、诚实性和有用性方面进行评分,广泛用于开源聊天模型的 DPO 训练。",
        term_es = "UltraFeedback",
        term_zh = "UltraFeedback",
        aliases_es = { "conjunto UltraFeedback" },
        aliases_zh = { "UltraFeedback 数据集" },
    }
    
    data["umbrella sampling"] = {
        short = "An enhanced-sampling molecular dynamics technique that biases simulations along a reaction coordinate using harmonic restraints in overlapping windows, then reconstructs the unbiased free-energy profile via WHAM or MBAR.",
        article = nil,
        aliases = { "umbrella sampling MD" },
        es = "Técnica de muestreo mejorado en dinámica molecular que sesga las simulaciones a lo largo de una coordenada de reacción mediante restricciones armónicas en ventanas superpuestas, y luego reconstruye el perfil de energía libre no sesgado mediante WHAM o MBAR.",
        zh = "一种增强采样分子动力学方法,通过在重叠窗口中施加谐振约束沿反应坐标对模拟施加偏置,然后利用 WHAM 或 MBAR 重构无偏自由能曲线。",
        term_es = "muestreo por paraguas",
        term_zh = "伞形采样",
        aliases_es = { "umbrella sampling" },
        aliases_zh = { "umbrella 采样", "雨伞采样" },
    }
    
    data["umls"] = {
        short = "The Unified Medical Language System, a compendium of biomedical vocabularies maintained by the U.S. National Library of Medicine that maps synonyms across ontologies (SNOMED CT, MeSH, ICD, RxNorm, etc.) into shared concept identifiers (CUIs).",
        article = nil,
        aliases = { "UMLS", "Unified Medical Language System", "UMLS Metathesaurus" },
        es = "Sistema Unificado de Lenguaje Médico, recopilación de vocabularios biomédicos mantenida por la Biblioteca Nacional de Medicina de EE. UU. que mapea sinónimos entre ontologías (SNOMED CT, MeSH, ICD, RxNorm) a identificadores de concepto compartidos (CUI).",
        zh = "统一医学语言系统,由美国国家医学图书馆维护的生物医学词汇汇编,将 SNOMED CT、MeSH、ICD、RxNorm 等本体中的同义词映射到共享的概念标识符(CUI)。",
        term_es = "UMLS",
        term_zh = "UMLS",
        aliases_es = { "Sistema Unificado de Lenguaje Médico", "Metatesauro UMLS" },
        aliases_zh = { "统一医学语言系统", "UMLS 元词库" },
    }
    
    data["umls dataset"] = {
        short = "Benchmark datasets derived from the Unified Medical Language System for tasks such as biomedical link prediction and triple classification, often used alongside Kinship and FB15k as relational-reasoning benchmarks.",
        article = nil,
        aliases = { "UMLS dataset", "UMLS benchmark", "UMLS KG dataset" },
        es = "Conjuntos de datos de referencia derivados del Unified Medical Language System para tareas como la predicción biomédica de enlaces y la clasificación de tripletas, usados a menudo junto con Kinship y FB15k como evaluaciones de razonamiento relacional.",
        zh = "由 Unified Medical Language System 派生的基准数据集,用于生物医学链接预测、三元组分类等任务,常与 Kinship、FB15k 一同作为关系推理评测使用。",
        term_es = "dataset UMLS",
        term_zh = "UMLS 数据集",
        aliases_es = { "conjunto UMLS", "benchmark UMLS" },
        aliases_zh = { "UMLS 基准", "UMLS 知识图谱数据集" },
    }
    
    data["umls knowledge base"] = {
        short = "The Unified Medical Language System, a curated NIH knowledge resource integrating over 200 biomedical vocabularies into a Metathesaurus, Semantic Network, and Specialist Lexicon.",
        article = nil,
        aliases = { "UMLS", "UMLS knowledge base", "Unified Medical Language System" },
        es = "Unified Medical Language System, un recurso de conocimiento curado por los NIH que integra más de 200 vocabularios biomédicos en un Metathesaurus, una Red Semántica y un Lexicón Especializado.",
        zh = "统一医学语言系统(UMLS),由美国国立卫生研究院维护的知识资源,将 200 多种生物医学词汇整合到 Metathesaurus、语义网络和专家词典中。",
        term_es = "UMLS",
        term_zh = "UMLS",
        aliases_es = { "Unified Medical Language System", "base de conocimiento UMLS" },
        aliases_zh = { "统一医学语言系统", "UMLS 知识库" },
    }
    
    data["uncertainty sampling"] = {
        short = "An active-learning strategy that selects unlabeled examples on which the current model is least confident — for instance, those with the highest predictive entropy or smallest margin between top classes.",
        article = nil,
        aliases = { "uncertainty-based sampling" },
        es = "Estrategia de aprendizaje activo que selecciona los ejemplos no etiquetados sobre los que el modelo actual tiene menor confianza, por ejemplo aquellos con mayor entropía predictiva o menor margen entre las clases más probables.",
        zh = "一种主动学习策略,选择当前模型最不确定的未标注样本,例如预测熵最大或前两类间间隔最小的样本。",
        term_es = "muestreo por incertidumbre",
        term_zh = "不确定性采样",
        aliases_es = { "muestreo basado en incertidumbre" },
        aliases_zh = { "基于不确定性的采样", "uncertainty sampling" },
    }
    
    data["uncertainty-aware explanation"] = {
        short = "An explanation that propagates and reports the uncertainty of its attributions, for example via Bayesian models or ensemble variance, instead of returning a single point estimate.",
        article = nil,
        aliases = { "uncertainty aware explanation", "explanation with uncertainty" },
        es = "Explicación que propaga y reporta la incertidumbre de sus atribuciones, por ejemplo mediante modelos bayesianos o varianza de ensambles, en lugar de devolver una única estimación puntual.",
        zh = "传播并报告其归因不确定性的解释方法,例如通过贝叶斯模型或集成方差给出,而不是仅返回单点估计。",
        term_es = "explicación consciente de la incertidumbre",
        term_zh = "考虑不确定性的解释",
        aliases_es = { "explicación con incertidumbre" },
        aliases_zh = { "带不确定性的解释", "不确定性感知解释" },
    }
    
    data["unconfoundedness"] = {
        short = "The assumption that treatment assignment is independent of potential outcomes given a set of observed covariates, equivalent to no unmeasured confounding. Together with positivity, it identifies average treatment effects from observational data.",
        article = nil,
        aliases = { "no unmeasured confounding", "ignorability", "conditional ignorability", "selection on observables", "exchangeability" },
        es = "Supuesto de que la asignación del tratamiento es independiente de los resultados potenciales dado un conjunto de covariables observadas, equivalente a la ausencia de confusores no medidos. Junto con la positividad, identifica el efecto promedio del tratamiento a partir de datos observacionales.",
        zh = "假设在给定一组可观测协变量的条件下,处理分配与潜在结果独立,等价于不存在未测量混杂因素。该假设与正性条件结合,可在观测数据中识别平均处理效应。",
        term_es = "no confusión",
        term_zh = "无混杂性",
        aliases_es = { "ausencia de confusores no medidos", "ignorabilidad", "ignorabilidad condicional", "selección en observables", "intercambiabilidad" },
        aliases_zh = { "无未测量混杂", "可忽略性", "条件可忽略性", "可观测变量选择", "可交换性" },
    }
    
    data["under-representation"] = {
        short = "Insufficient presence of a demographic group in a dataset, model output distribution, or evaluation, leading to higher error rates or invisibility of that group.",
        article = nil,
        aliases = { "underrepresentation", "demographic underrepresentation", "minority under-representation" },
        es = "Presencia insuficiente de un grupo demográfico en un conjunto de datos, en la distribución de salidas de un modelo o en la evaluación, lo que conduce a mayores tasas de error o a la invisibilización del grupo.",
        zh = "某一人口群体在数据集、模型输出分布或评估中的存在不足,导致该群体的错误率升高或被忽视。",
        term_es = "subrepresentación",
        term_zh = "代表性不足",
        aliases_es = { "infrarrepresentación", "subrepresentación demográfica" },
        aliases_zh = { "代表不足", "人口代表性不足", "少数群体代表不足" },
    }
    
    data["underdamped langevin"] = {
        short = "A second-order Langevin diffusion that augments the parameters with momentum variables, mixing faster than overdamped Langevin and used by samplers such as SGHMC and underdamped LMC.",
        article = nil,
        aliases = { "underdamped Langevin dynamics", "kinetic Langevin", "second-order Langevin", "underdamped LMC" },
        es = "Difusión de Langevin de segundo orden que aumenta los parámetros con variables de momento, mezclando más rápido que la versión sobreamortiguada y utilizada por muestreadores como SGHMC y LMC subamortiguada.",
        zh = "二阶 Langevin 扩散,通过引入动量变量来增广参数,其混合速度快于过阻尼 Langevin,被 SGHMC 与欠阻尼 LMC 等采样器采用。",
        term_es = "Langevin subamortiguada",
        term_zh = "欠阻尼 Langevin",
        aliases_es = { "dinámica de Langevin subamortiguada", "Langevin cinética", "Langevin de segundo orden", "underdamped Langevin" },
        aliases_zh = { "欠阻尼 Langevin 动力学", "动力学 Langevin", "二阶 Langevin", "underdamped Langevin" },
    }
    
    data["underfitting"] = {
        short = "A failure mode in which a model is too constrained—in capacity, training time, or features—to capture the underlying structure of the data, resulting in high error on both training and validation sets.",
        article = nil,
        aliases = { "under-fitting", "underfit", "under fitting" },
        es = "Modo de fallo en el que un modelo está demasiado restringido —en capacidad, tiempo de entrenamiento o características— para captar la estructura subyacente de los datos, lo que da lugar a un error alto tanto en el conjunto de entrenamiento como en el de validación.",
        zh = "一种失效模式,模型在容量、训练时长或特征方面过于受限,无法捕捉数据的潜在结构,导致训练集和验证集上的误差都很高。",
        term_es = "subajuste",
        term_zh = "欠拟合",
        aliases_es = { "infraajuste", "sub-ajuste", "underfitting" },
        aliases_zh = { "欠适应", "underfitting", "拟合不足" },
    }
    
    data["undersampling"] = {
        short = "A technique for handling class imbalance that reduces the number of majority-class examples in the training set, either by random subsampling or by selecting informative subsets.",
        article = nil,
        aliases = { "under-sampling", "under sampling", "majority undersampling", "downsampling" },
        es = "Técnica para tratar el desbalance de clases que reduce el número de ejemplos de la clase mayoritaria en el conjunto de entrenamiento, mediante submuestreo aleatorio o seleccionando subconjuntos informativos.",
        zh = "一种处理类别不平衡的技术,通过随机子采样或选取信息丰富的子集来减少训练集中多数类样本的数量。",
        term_es = "submuestreo",
        term_zh = "欠采样",
        aliases_es = { "sub-muestreo", "undersampling", "submuestreo de la clase mayoritaria" },
        aliases_zh = { "下采样", "多数类欠采样", "undersampling" },
    }
    
    data["uni-mol"] = {
        short = "A 3D molecular pretraining framework that learns SE(3)-aware representations from atomic coordinates and types via a transformer with pair-distance-based attention biases.",
        article = nil,
        aliases = { "Uni-Mol", "UniMol" },
        es = "Marco de preentrenamiento molecular 3D que aprende representaciones equivariantes SE(3) a partir de coordenadas y tipos atómicos mediante un transformador con sesgos de atención basados en distancias entre pares.",
        zh = "一种三维分子预训练框架,通过带有基于原子对距离的注意力偏置的 Transformer,从原子坐标和类型中学习具备 SE(3) 感知能力的表示。",
        term_es = "Uni-Mol",
        term_zh = "Uni-Mol",
        aliases_es = { "UniMol" },
        aliases_zh = { "UniMol", "Uni-Mol 模型" },
    }
    
    data["uni-mol+"] = {
        short = "An extension of Uni-Mol that improves 3D conformer-based molecular property prediction through iterative coordinate refinement and a stronger pretraining objective on quantum-chemistry datasets.",
        article = nil,
        aliases = { "Uni-Mol+", "UniMol+" },
        es = "Extensión de Uni-Mol que mejora la predicción de propiedades moleculares basada en confórmeros 3D mediante un refinamiento iterativo de coordenadas y un objetivo de preentrenamiento más fuerte sobre conjuntos de datos de química cuántica.",
        zh = "Uni-Mol 的扩展版本,通过迭代坐标精修和更强的量子化学数据预训练目标,改进基于三维构象的分子性质预测。",
        term_es = "Uni-Mol+",
        term_zh = "Uni-Mol+",
        aliases_es = { "UniMol+" },
        aliases_zh = { "UniMol+", "Uni-Mol Plus" },
    }
    
    data["unification"] = {
        short = "An algorithmic procedure that finds a substitution making two logical terms syntactically identical; central to first-order theorem proving, type inference, and Prolog-style resolution.",
        article = nil,
        aliases = { "unification", "term unification", "first-order unification", "Robinson unification" },
        es = "Procedimiento algorítmico que encuentra una sustitución que hace sintácticamente idénticos dos términos lógicos; es central para la demostración de teoremas de primer orden, la inferencia de tipos y la resolución estilo Prolog.",
        zh = "一种算法过程,寻找使两个逻辑项在语法上相同的代换;是一阶定理证明、类型推断以及 Prolog 风格归结的核心。",
        term_es = "unificación",
        term_zh = "合一",
        aliases_es = { "unificación de términos", "unificación de primer orden" },
        aliases_zh = { "项合一", "一阶合一", "统一" },
    }
    
    data["uniform client sampling"] = {
        short = "A client-selection scheme in federated learning that, in each communication round, samples a subset of available clients independently and with equal probability, providing an unbiased estimate of the global objective.",
        article = nil,
        aliases = { "uniform sampling of clients", "uniform random client sampling", "uniform-at-random client selection" },
        es = "Esquema de selección de clientes en aprendizaje federado que, en cada ronda de comunicación, muestrea un subconjunto de clientes disponibles de manera independiente y con igual probabilidad, proporcionando una estimación insesgada del objetivo global.",
        zh = "一种联邦学习中的客户端选择方案,在每一轮通信中以相等概率独立地对可用客户端进行子集采样,从而对全局目标提供无偏估计。",
        term_es = "muestreo uniforme de clientes",
        term_zh = "均匀客户端采样",
        aliases_es = { "selección uniforme de clientes", "muestreo uniforme aleatorio de clientes" },
        aliases_zh = { "均匀随机客户端采样", "客户端均匀采样", "等概率客户端选择" },
    }
    
    data["uniform frame sampling"] = {
        short = "A simple video preprocessing strategy that selects a fixed number of frames at evenly spaced indices across a clip, used as the default frame selector for many video transformer pipelines.",
        article = nil,
        aliases = { "uniform sampling", "evenly spaced frame sampling", "uniform temporal sampling" },
        es = "Estrategia simple de preprocesamiento de video que selecciona un número fijo de cuadros en posiciones equiespaciadas a lo largo del clip; se usa como selector de cuadros por defecto en muchas tuberías basadas en transformers de video.",
        zh = "一种简单的视频预处理策略,在片段中以等间距索引选取固定数量的帧,常作为多种视频 Transformer 流水线的默认抽帧方法。",
        term_es = "muestreo uniforme de cuadros",
        term_zh = "均匀帧采样",
        aliases_es = { "muestreo uniforme de cuadros", "muestreo temporal uniforme" },
        aliases_zh = { "均匀帧采样", "等间隔帧采样", "均匀时间采样" },
    }
    
    data["uniform sampling supernet"] = {
        short = "A one-shot NAS training scheme that, at every step, samples a single sub-architecture uniformly at random from the search space and updates only that path's weights, decoupling supernet training from the search policy.",
        article = nil,
        aliases = { "uniform sampling SPOS", "single path one-shot", "SPOS", "uniform path sampling" },
        es = "Esquema de entrenamiento NAS one-shot que en cada paso muestrea uniformemente al azar una subarquitectura del espacio de búsqueda y actualiza únicamente los pesos de esa ruta, desacoplando el entrenamiento del supernet de la política de búsqueda.",
        zh = "一种单次NAS训练方案,每一步从搜索空间中均匀随机采样一个子架构,仅更新该路径的权重,从而将超网训练与搜索策略解耦。",
        term_es = "supernet con muestreo uniforme",
        term_zh = "均匀采样超网络",
        aliases_es = { "SPOS", "single path one-shot", "ruta única one-shot" },
        aliases_zh = { "SPOS", "单路径一次性NAS", "均匀路径采样" },
    }
    
    data["unigram language model"] = {
        short = "A subword tokenization algorithm that initializes a large candidate vocabulary and iteratively prunes tokens by maximizing the likelihood of the training corpus under a unigram model over subword units.",
        article = nil,
        aliases = { "unigram LM", "unigram tokenization", "unigram subword model", "ULM" },
        es = "Algoritmo de tokenización en subpalabras que inicializa un gran vocabulario candidato y poda iterativamente tokens maximizando la verosimilitud del corpus de entrenamiento bajo un modelo unigrama sobre unidades de subpalabra.",
        zh = "一种子词分词算法,先初始化一个大型候选词表,然后通过最大化训练语料在子词单元上 unigram 模型的似然来迭代地剪除词元。",
        term_es = "modelo de lenguaje unigrama",
        term_zh = "unigram 语言模型",
        aliases_es = { "unigram LM", "tokenización unigrama", "modelo unigrama" },
        aliases_zh = { "unigram 模型", "一元语言模型", "unigram LM" },
    }
    
    data["unipc sampler"] = {
        short = "Unified Predictor-Corrector (UniPC), a training-free sampler for diffusion models that combines a predictor and a corrector step to achieve high-quality samples in very few denoising steps (often 5-10).",
        article = nil,
        aliases = { "UniPC", "Unified Predictor-Corrector", "UniPC sampler" },
        es = "Unified Predictor-Corrector (UniPC), un muestreador para modelos de difusión que no requiere entrenamiento y combina un paso predictor y otro corrector para producir muestras de alta calidad en muy pocos pasos de denoising (a menudo 5-10).",
        zh = "Unified Predictor-Corrector(UniPC)是一种无需训练的扩散模型采样器,将预测步与校正步结合,仅需极少的去噪步数(通常 5-10 步)即可生成高质量样本。",
        term_es = "muestreador UniPC",
        term_zh = "UniPC 采样器",
        aliases_es = { "UniPC", "Unified Predictor-Corrector" },
        aliases_zh = { "UniPC", "Unified Predictor-Corrector" },
    }
    
    data["uniprot"] = {
        short = "A comprehensive, curated resource of protein sequence and functional information, combining the manually reviewed Swiss-Prot database with the automatically annotated TrEMBL.",
        article = nil,
        aliases = { "UniProt", "UniProtKB" },
        es = "Recurso integral y curado de información de secuencias y funciones de proteínas, que combina la base de datos revisada manualmente Swiss-Prot con la anotada automáticamente TrEMBL.",
        zh = "一个全面的人工策划的蛋白质序列和功能信息资源,由人工审核的 Swiss-Prot 数据库与自动注释的 TrEMBL 数据库整合而成。",
        term_es = "UniProt",
        term_zh = "UniProt",
        aliases_es = { "UniProtKB" },
        aliases_zh = { "UniProtKB", "UniProt 数据库" },
    }
    
    data["uniref"] = {
        short = "A set of clustered UniProt sequences provided at three identity thresholds (UniRef100, UniRef90, UniRef50) used to reduce redundancy in homology searches and to build compact protein language model training corpora.",
        article = nil,
        aliases = { "UniRef", "UniRef clusters", "UniProt Reference Clusters" },
        es = "Conjunto de secuencias UniProt agrupadas en tres umbrales de identidad (UniRef100, UniRef90, UniRef50) que reducen la redundancia en búsquedas de homología y sirven para construir corpus compactos para modelos de lenguaje de proteínas.",
        zh = "在三个序列同一性阈值(UniRef100、UniRef90、UniRef50)下对 UniProt 序列进行聚类得到的集合,用于降低同源搜索冗余并构建蛋白质语言模型的紧凑训练语料。",
        term_es = "UniRef",
        term_zh = "UniRef",
        aliases_es = { "agrupaciones UniRef", "clusters UniRef" },
        aliases_zh = { "UniRef 聚类", "UniProt 参考聚类" },
    }
    
    data["uniref50"] = {
        short = "A clustering of UniRef90 representatives at 50% sequence identity, yielding the most compact non-redundant set in the UniRef hierarchy; widely used as a training corpus for protein language models.",
        article = nil,
        aliases = { "UniRef50", "UniRef-50", "UniRef 50" },
        es = "Agrupamiento de los representantes de UniRef90 al 50 % de identidad de secuencia, que produce el conjunto no redundante más compacto de la jerarquía UniRef; muy usado como corpus de entrenamiento para modelos de lenguaje de proteínas.",
        zh = "在 50% 序列同一性下对 UniRef90 代表序列进行的聚类,得到 UniRef 层级中最紧凑的非冗余集合;广泛用作蛋白质语言模型的训练语料。",
        term_es = "UniRef50",
        term_zh = "UniRef50",
        aliases_es = { "UniRef-50" },
        aliases_zh = { "UniRef-50" },
    }
    
    data["uniref90"] = {
        short = "A clustering of UniRef100 sequences at 90% identity, providing a moderately redundant but informative protein sequence set used for homology searches and language-model pretraining (e.g., ESM, ProtBERT).",
        article = nil,
        aliases = { "UniRef90", "UniRef-90", "UniRef 90" },
        es = "Agrupamiento de secuencias UniRef100 al 90 % de identidad, que ofrece un conjunto moderadamente redundante pero informativo, usado en búsquedas de homología y preentrenamiento de modelos de lenguaje (ESM, ProtBERT).",
        zh = "在 90% 同一性下对 UniRef100 序列进行的聚类,提供中等冗余但信息丰富的蛋白质序列集合,用于同源搜索和语言模型预训练(如 ESM、ProtBERT)。",
        term_es = "UniRef90",
        term_zh = "UniRef90",
        aliases_es = { "UniRef-90" },
        aliases_zh = { "UniRef-90" },
    }
    
    data["unit selection tts"] = {
        short = "Concatenative speech synthesis paradigm that builds an utterance by selecting and joining short prerecorded speech units from a database to minimize a target-and-join cost; the dominant pre-neural TTS approach.",
        article = nil,
        aliases = { "unit selection synthesis", "concatenative TTS", "USS" },
        es = "Paradigma concatenativo de síntesis de voz que construye una emisión seleccionando y uniendo unidades de habla pregrabadas de una base de datos minimizando un coste de objetivo y de unión; fue el enfoque dominante de TTS antes de la era neuronal.",
        zh = "拼接式语音合成范式,通过从语音单元数据库中选择并连接短录音单元以最小化目标-连接代价来生成话语,是神经网络之前 TTS 的主流方法。",
        term_es = "TTS por selección de unidades",
        term_zh = "单元选择 TTS",
        aliases_es = { "síntesis por selección de unidades", "TTS concatenativo" },
        aliases_zh = { "拼接式语音合成", "单元选择语音合成" },
    }
    
    data["unit visualization"] = {
        short = "Visualization of what an individual neuron, channel, or feature unit in a neural network responds to, often via activation maximization or by displaying highly-activating inputs.",
        article = nil,
        aliases = { "neuron visualization", "feature unit visualization" },
        es = "Visualización de aquello a lo que responde una neurona, canal o unidad de característica individual de una red neuronal, normalmente mediante maximización de activación o mostrando entradas que la activan fuertemente.",
        zh = "对神经网络中单个神经元、通道或特征单元所响应内容的可视化,通常通过激活最大化或展示高激活输入来实现。",
        term_es = "visualización de unidades",
        term_zh = "单元可视化",
        aliases_es = { "visualización de neuronas" },
        aliases_zh = { "神经元可视化", "特征单元可视化" },
    }
    
    data["unitary matrix"] = {
        short = "A complex square matrix U whose conjugate transpose is its inverse, U*U = UU* = I. The complex analogue of an orthogonal matrix; preserves the Hermitian inner product and complex norms.",
        article = nil,
        aliases = { "unitary matrices", "U*U = I" },
        es = "Matriz cuadrada compleja U cuya transpuesta conjugada es su inversa, U*U = UU* = I. Es el análogo complejo de una matriz ortogonal; preserva el producto interno hermitiano y las normas complejas.",
        zh = "复方阵 U,其共轭转置等于其逆,即 U*U = UU* = I。它是正交矩阵的复数推广;保持厄米内积和复范数。",
        term_es = "matriz unitaria",
        term_zh = "酉矩阵",
        aliases_es = { "matrices unitarias" },
        aliases_zh = { "幺正矩阵", "酉方阵" },
    }
    
    data["uniter"] = {
        short = "UNiversal Image-TExt Representation; a vision-language pretraining model that learns a single transformer over image regions and text tokens with masked language modeling, masked region modeling, image-text matching, and word-region alignment objectives.",
        article = nil,
        aliases = { "UNITER", "Universal Image-Text Representation" },
        es = "UNiversal Image-TExt Representation; modelo de preentrenamiento visión-lenguaje que aprende un único transformer sobre regiones de imagen y tokens de texto, combinando modelado de lenguaje enmascarado, modelado de regiones enmascaradas, emparejamiento imagen-texto y alineación palabra-región.",
        zh = "UNiversal Image-TExt Representation;一种视觉-语言预训练模型,在单个 Transformer 中对图像区域与文本 token 联合建模,结合掩码语言建模、掩码区域建模、图文匹配以及词-区域对齐等目标。",
        term_es = "UNITER",
        term_zh = "UNITER",
        aliases_es = { "UNITER", "Universal Image-Text Representation" },
        aliases_zh = { "UNITER", "通用图文表示模型" },
    }
    
    data["universal interatomic potential"] = {
        short = "A machine-learning interatomic potential trained on broad coverage of the periodic table and chemical environments, intended to predict energies and forces for arbitrary materials and molecules without system-specific retraining.",
        article = nil,
        aliases = { "UIP", "universal MLIP", "foundation interatomic potential" },
        es = "Potencial interatómico de aprendizaje automático entrenado con una cobertura amplia de la tabla periódica y de entornos químicos, destinado a predecir energías y fuerzas para materiales y moléculas arbitrarios sin reentrenamiento específico del sistema.",
        zh = "一种在元素周期表和化学环境中具有广泛覆盖的机器学习原子间势函数,旨在无需针对特定体系重新训练即可预测任意材料和分子的能量与力。",
        term_es = "potencial interatómico universal",
        term_zh = "通用原子间势",
        aliases_es = { "UIP", "MLIP universal", "potencial interatómico fundacional" },
        aliases_zh = { "UIP", "通用机器学习原子间势", "基础原子间势" },
    }
    
    data["univnet vocoder"] = {
        short = "Neural vocoder that conditions a multi-resolution spectrogram discriminator on log-mel inputs to generate high-fidelity waveforms, balancing quality and inference speed comparable to HiFi-GAN.",
        article = nil,
        aliases = { "UnivNet", "UnivNet-c16", "UnivNet-c32" },
        es = "Vocoder neuronal que condiciona un discriminador de espectrograma multirresolución sobre entradas log-mel para generar formas de onda de alta fidelidad, equilibrando calidad y velocidad de inferencia de manera comparable a HiFi-GAN.",
        zh = "一种神经声码器,使用以对数梅尔谱为条件的多分辨率谱图判别器生成高保真波形,在质量和推理速度上可与 HiFi-GAN 相媲美。",
        term_es = "vocoder UnivNet",
        term_zh = "UnivNet 声码器",
        aliases_es = { "UnivNet" },
        aliases_zh = { "UnivNet" },
    }
    
    data["unmeasured confounder"] = {
        short = "A variable that influences both treatment and outcome but is not observed in the data, biasing causal effect estimates obtained by adjustment on observed covariates alone. Sensitivity analyses such as E-values quantify how strong such confounding would have to be to change conclusions.",
        article = nil,
        aliases = { "hidden confounder", "unobserved confounder", "latent confounder", "unmeasured confounding" },
        es = "Variable que influye tanto en el tratamiento como en el resultado pero no se observa en los datos, sesgando las estimaciones del efecto causal obtenidas únicamente con el ajuste por covariables observadas. Análisis de sensibilidad como los E-values cuantifican qué tan fuerte tendría que ser dicha confusión para alterar las conclusiones.",
        zh = "对处理和结果都有影响但在数据中未被观测到的变量,会使仅依赖可观测协变量调整的因果效应估计产生偏差。E-value 等敏感性分析可量化此类混杂需多强才足以改变结论。",
        term_es = "factor de confusión no medido",
        term_zh = "未测量混杂因素",
        aliases_es = { "confusor no observado", "confusor oculto", "confusor latente", "confusión no medida" },
        aliases_zh = { "未观测混杂", "隐藏混杂因素", "潜在混杂因素", "未测量混杂" },
    }
    
    data["unscented kalman filter"] = {
        short = "A nonlinear Kalman filter that propagates a deterministic set of sigma points through the system equations to estimate the posterior mean and covariance, avoiding the explicit Jacobians required by the extended Kalman filter.",
        article = nil,
        aliases = { "UKF", "unscented Kalman filter", "sigma-point Kalman filter" },
        es = "Filtro de Kalman no lineal que propaga un conjunto determinista de puntos sigma a través de las ecuaciones del sistema para estimar la media y la covarianza posteriores, evitando los jacobianos explícitos que requiere el filtro de Kalman extendido.",
        zh = "一种非线性卡尔曼滤波器,通过将一组确定性的 sigma 点经过系统方程传播来估计后验均值和协方差,从而避免扩展卡尔曼滤波所需的显式 Jacobian。",
        term_es = "filtro de Kalman unscented",
        term_zh = "无迹卡尔曼滤波器",
        aliases_es = { "UKF", "filtro de Kalman de puntos sigma", "filtro de Kalman insesgado" },
        aliases_zh = { "UKF", "sigma 点卡尔曼滤波器", "无味卡尔曼滤波器" },
    }
    
    data["unsupervised learning"] = {
        short = "A machine learning paradigm in which a model learns structure, patterns, or representations from unlabeled data, encompassing tasks such as clustering, density estimation, and dimensionality reduction.",
        article = nil,
        aliases = { "unsupervised", "unsupervised training" },
        es = "Paradigma de aprendizaje automático en el que un modelo aprende estructura, patrones o representaciones a partir de datos no etiquetados, abarcando tareas como agrupamiento, estimación de densidad y reducción de dimensionalidad.",
        zh = "一种机器学习范式,模型从无标签数据中学习结构、模式或表示,涵盖聚类、密度估计和降维等任务。",
        term_es = "aprendizaje no supervisado",
        term_zh = "无监督学习",
        aliases_es = { "entrenamiento no supervisado" },
        aliases_zh = { "非监督学习", "unsupervised learning" },
    }
    
    data["untargeted poisoning attack"] = {
        short = "A poisoning attack whose goal is to degrade the overall accuracy or convergence of the trained model on any input, in contrast to targeted attacks that aim only to misclassify specific inputs or trigger patterns.",
        article = nil,
        aliases = { "untargeted attack", "untargeted model poisoning", "Byzantine attack", "indiscriminate poisoning" },
        es = "Ataque de envenenamiento cuyo objetivo es degradar la precisión o la convergencia global del modelo entrenado sobre cualquier entrada, en contraste con los ataques dirigidos que solo buscan clasificar erróneamente entradas específicas o patrones disparadores.",
        zh = "一种投毒攻击,目标是降低训练后的模型在任意输入上的整体准确率或收敛性,与仅针对特定输入或触发模式造成错误分类的定向攻击形成对比。",
        term_es = "ataque de envenenamiento no dirigido",
        term_zh = "非定向投毒攻击",
        aliases_es = { "ataque no dirigido", "envenenamiento de modelo no dirigido", "ataque bizantino", "envenenamiento indiscriminado" },
        aliases_zh = { "非定向攻击", "无差别投毒", "拜占庭攻击", "无目标模型投毒" },
    }
    
    data["uplift modeling"] = {
        short = "A predictive modeling approach that estimates the individual-level incremental effect of a treatment, such as a marketing offer, rather than predicting the absolute outcome. Targets units for whom the treatment changes behavior most.",
        article = nil,
        aliases = { "uplift model", "incremental modeling", "true lift modeling", "net response modeling", "persuasion modeling" },
        es = "Enfoque de modelado predictivo que estima el efecto incremental individual de un tratamiento, como una oferta de marketing, en lugar de predecir el resultado absoluto. Permite focalizar a las unidades en las que el tratamiento más cambia el comportamiento.",
        zh = "一种预测建模方法,估计处理(如营销活动)在个体层面的增量效应,而非预测绝对结果。它将干预对象集中于能最大改变其行为的单元。",
        term_es = "modelado de uplift",
        term_zh = "增益建模",
        aliases_es = { "modelo de uplift", "modelado incremental", "modelado de respuesta neta", "modelado de persuasión" },
        aliases_zh = { "uplift 建模", "增量建模", "净响应建模", "净提升建模", "说服力建模" },
    }
    
    data["uplift random forest"] = {
        short = "An ensemble of uplift decision trees that estimates conditional treatment effects by averaging the splits' uplift criteria over many randomly perturbed trees. Used for individualized policy targeting and heterogeneous treatment effect estimation.",
        article = nil,
        aliases = { "uplift forest", "uplift random forests", "causal uplift forest" },
        es = "Conjunto de árboles de uplift que estima efectos condicionales del tratamiento promediando los criterios de uplift de muchos árboles aleatoriamente perturbados. Se utiliza para focalización individualizada de políticas y estimación de efectos heterogéneos del tratamiento.",
        zh = "由多棵随机扰动的增益决策树组成的集成模型,通过对各树的增益分裂准则取平均来估计条件处理效应。用于个体化策略投放和异质处理效应估计。",
        term_es = "bosque aleatorio de uplift",
        term_zh = "增益随机森林",
        aliases_es = { "bosque de uplift", "bosques aleatorios de uplift", "bosque causal de uplift" },
        aliases_zh = { "uplift 随机森林", "增益森林", "增益随机森林模型", "因果增益森林" },
    }
    
    data["uplift tree"] = {
        short = "A decision tree whose splitting criterion measures the divergence in treatment-effect distributions between child nodes rather than node purity, producing leaves with relatively homogeneous causal effects. Building block of uplift modeling and uplift forests.",
        article = nil,
        aliases = { "uplift decision tree", "incremental decision tree", "uplift tree model" },
        es = "Árbol de decisión cuyo criterio de división mide la divergencia entre las distribuciones del efecto del tratamiento de los nodos hijos, en lugar de la pureza del nodo, produciendo hojas con efectos causales relativamente homogéneos. Componente fundamental del modelado de uplift y de los bosques de uplift.",
        zh = "一种决策树,其分裂准则衡量子节点之间处理效应分布的差异,而非节点纯度,从而生成因果效应相对一致的叶节点。是增益建模和增益森林的基本构件。",
        term_es = "árbol de uplift",
        term_zh = "增益决策树",
        aliases_es = { "árbol de decisión de uplift", "árbol incremental", "modelo de árbol de uplift" },
        aliases_zh = { "uplift 树", "增量决策树", "uplift 决策树", "增益树模型" },
    }
    
    data["uplink compression"] = {
        short = "Communication-efficiency techniques applied to the client-to-server direction in federated learning, such as quantization, sparsification, sketching, or structured updates, to reduce uplink bandwidth which is typically the bottleneck.",
        article = nil,
        aliases = { "uplink communication compression", "client-to-server compression", "upstream compression" },
        es = "Técnicas de eficiencia de comunicación aplicadas al sentido cliente-a-servidor en aprendizaje federado, como cuantización, esparsificación, sketching o actualizaciones estructuradas, para reducir el ancho de banda del enlace ascendente, que suele ser el cuello de botella.",
        zh = "在联邦学习中应用于客户端到服务器方向的通信效率技术,如量化、稀疏化、草图或结构化更新,用于降低通常是瓶颈的上行带宽。",
        term_es = "compresión del enlace ascendente",
        term_zh = "上行压缩",
        aliases_es = { "compresión cliente-a-servidor", "compresión upstream", "compresión de subida" },
        aliases_zh = { "上行通信压缩", "客户端到服务器压缩", "上行链路压缩" },
    }
    
    data["upper confidence bound"] = {
        short = "An action-selection rule, originally for multi-armed bandits, that picks the action maximizing the empirical mean plus an exploration bonus that grows with the uncertainty of its estimate, yielding logarithmic regret.",
        article = nil,
        aliases = { "UCB", "UCB1", "upper-confidence bound", "upper confidence bounds" },
        es = "Regla de selección de acciones, originalmente para bandidos multibrazo, que elige la acción que maximiza la media empírica más una bonificación de exploración que crece con la incertidumbre de su estimación, logrando un arrepentimiento logarítmico.",
        zh = "一种动作选择规则,最初用于多臂赌博机问题,选择经验均值加上随其估计不确定性增长的探索奖励之和最大的动作,可获得对数级的遗憾界。",
        term_es = "límite superior de confianza",
        term_zh = "置信上界",
        aliases_es = { "UCB", "UCB1", "cota superior de confianza" },
        aliases_zh = { "UCB", "上置信界", "置信上限" },
    }
    
    data["urbansound8k"] = {
        short = "Public dataset of 8732 labeled urban sound clips (≤4s) drawn from Freesound and organized into 10 classes (e.g., siren, jackhammer, dog bark), distributed in 10 predefined folds for cross-validation.",
        article = nil,
        aliases = { "UrbanSound8K", "Urban Sound 8K", "US8K" },
        es = "Conjunto de datos público de 8732 clips de sonido urbano etiquetados (≤4 s) tomados de Freesound y organizados en 10 clases (sirena, martillo neumático, ladrido de perro, etc.), distribuidos en 10 particiones predefinidas para validación cruzada.",
        zh = "公开城市声音数据集,包含 8732 段不超过 4 秒的标注音频(取自 Freesound),分为 10 类(警笛、风钻、狗吠等),并按 10 个预定义折划分以供交叉验证。",
        term_es = "UrbanSound8K",
        term_zh = "UrbanSound8K",
        aliases_es = { "UrbanSound8K", "US8K" },
        aliases_zh = { "UrbanSound8K", "US8K" },
    }
    
    data["user prompt"] = {
        short = "The user-authored message in a chat-style interaction with a language model, typically a question, instruction, or content to act on. Combined with the system prompt and prior turns to form the model input.",
        article = nil,
        aliases = { "user message", "User Prompt", "user-prompt", "user turn" },
        es = "Mensaje escrito por el usuario en una interacción de tipo chat con un modelo de lenguaje, normalmente una pregunta, una instrucción o contenido sobre el que actuar. Se combina con el prompt del sistema y los turnos previos para formar la entrada del modelo.",
        zh = "在与语言模型的对话交互中由用户编写的消息,通常是问题、指令或需要处理的内容,与系统提示和先前对话一起构成模型输入。",
        term_es = "prompt del usuario",
        term_zh = "用户提示",
        aliases_es = { "mensaje del usuario", "user prompt", "instrucción del usuario" },
        aliases_zh = { "用户消息", "用户输入", "user prompt" },
    }
    
    data["user-aligned explanation"] = {
        short = "An explanation tailored to a target user's expertise, goals, or mental model so that it is actionable for them, rather than optimized purely for technical fidelity.",
        article = nil,
        aliases = { "user-centered explanation", "human-aligned explanation" },
        es = "Explicación adaptada a la experiencia, los objetivos o el modelo mental del usuario destinatario, de modo que le resulte accionable, en lugar de optimizarse solo por fidelidad técnica.",
        zh = "针对目标用户的专业水平、目标或心理模型量身定制的解释,使其对该用户具有可操作性,而不仅追求技术上的忠实度。",
        term_es = "explicación alineada con el usuario",
        term_zh = "面向用户的解释",
        aliases_es = { "explicación centrada en el usuario" },
        aliases_zh = { "以用户为中心的解释", "用户对齐解释" },
    }
    
    data["user-level differential privacy"] = {
        short = "A differential privacy variant in which the unit of protection is an entire user — potentially contributing many records — rather than a single record. Provides stronger guarantees than record-level DP when one user supplies multiple training examples.",
        article = nil,
        aliases = { "user-level DP", "user level differential privacy", "user-level dp" },
        es = "Variante de privacidad diferencial cuya unidad de protección es un usuario completo, que puede aportar múltiples registros, en lugar de un único registro. Ofrece garantías más estrictas que la DP a nivel de registro cuando un mismo usuario contribuye con varios ejemplos de entrenamiento.",
        zh = "一种差分隐私变体,其保护单元为整个用户(可能贡献多条记录),而非单条记录。当同一用户提供多个训练样本时,可提供比记录级 DP 更强的隐私保证。",
        term_es = "privacidad diferencial a nivel de usuario",
        term_zh = "用户级差分隐私",
        aliases_es = { "DP a nivel de usuario", "privacidad diferencial por usuario" },
        aliases_zh = { "用户级 DP", "以用户为单位的差分隐私" },
    }
    
    data["usm"] = {
        short = "Universal Speech Model: Google's family of large multilingual speech foundation models (~2B parameters) trained on millions of hours of audio across 100+ languages for ASR and translation.",
        article = nil,
        aliases = { "USM", "Universal Speech Model", "Google USM" },
        es = "Universal Speech Model: familia de modelos fundacionales de habla multilingües de gran tamaño (~2B parámetros) de Google, entrenados con millones de horas de audio en más de 100 idiomas para reconocimiento y traducción.",
        zh = "Universal Speech Model:谷歌推出的大规模多语言语音基础模型系列(约 20 亿参数),在涵盖 100 多种语言的数百万小时音频上训练,可用于语音识别和翻译。",
        term_es = "USM",
        term_zh = "USM",
        aliases_es = { "USM", "Universal Speech Model" },
        aliases_zh = { "USM", "通用语音模型" },
    }
    
    data["uspto reaction dataset"] = {
        short = "A collection of chemical reactions extracted from US Patent and Trademark Office filings, widely used to train and evaluate reaction prediction and retrosynthesis models.",
        article = nil,
        aliases = { "USPTO", "USPTO reactions", "USPTO-50K", "USPTO-MIT", "USPTO-Full" },
        es = "Colección de reacciones químicas extraídas de los registros de la Oficina de Patentes y Marcas de Estados Unidos, ampliamente utilizada para entrenar y evaluar modelos de predicción de reacciones y retrosíntesis.",
        zh = "从美国专利商标局申请文件中提取的化学反应集合,广泛用于训练和评估反应预测及逆合成模型。",
        term_es = "conjunto de datos de reacciones USPTO",
        term_zh = "USPTO 反应数据集",
        aliases_es = { "USPTO", "reacciones USPTO", "USPTO-50K", "USPTO-MIT", "USPTO-Full" },
        aliases_zh = { "USPTO", "USPTO 反应", "USPTO-50K", "USPTO-MIT", "USPTO-Full" },
    }
    
    data["utmos"] = {
        short = "Open-source neural mean-opinion-score predictor for synthesized speech, fine-tuned from a self-supervised speech model on subjective listening-test data; widely used as an automatic TTS quality metric.",
        article = nil,
        aliases = { "UTMOS", "UT-MOS", "UTokyo MOS" },
        es = "Predictor neuronal de código abierto de puntuación de opinión media (MOS) para habla sintetizada, ajustado a partir de un modelo de habla autosupervisado con datos de pruebas subjetivas de escucha; muy usado como métrica automática de calidad de TTS.",
        zh = "开源的合成语音平均意见分(MOS)神经预测器,从自监督语音模型在主观听测数据上微调而来,被广泛用作 TTS 质量的自动评估指标。",
        term_es = "UTMOS",
        term_zh = "UTMOS",
        aliases_es = { "UTMOS" },
        aliases_zh = { "UTMOS" },
    }
    
    data["utterance-level pit"] = {
        short = "Permutation-invariant training variant for speech separation that computes the minimum-loss speaker permutation once per utterance rather than per frame, giving stable speaker assignments across the whole segment.",
        article = nil,
        aliases = { "uPIT", "uPIT training", "utterance-level permutation invariant training", "utterance PIT" },
        es = "Variante del entrenamiento invariante a permutaciones para separación de voz que calcula la permutación de locutores con menor pérdida una vez por enunciado en lugar de por trama, asignando locutores de forma estable en todo el segmento.",
        zh = "语音分离中的一种排列不变训练变体,在整段语音上仅计算一次最小损失的说话人排列(而非逐帧计算),从而在整段中获得稳定的说话人分配。",
        term_es = "PIT a nivel de enunciado",
        term_zh = "句级 PIT",
        aliases_es = { "uPIT", "entrenamiento invariante a permutaciones a nivel de enunciado" },
        aliases_zh = { "uPIT", "uPIT 训练", "话语级排列不变训练" },
    }
    
    data["v(d)j recombination"] = {
        short = "The somatic DNA rearrangement of variable (V), diversity (D), and joining (J) gene segments that generates the diversity of B- and T-cell antigen receptors during lymphocyte development.",
        article = nil,
        aliases = { "VDJ recombination", "V(D)J recombination", "VDJ rearrangement", "antigen receptor recombination" },
        es = "Recombinación somática del ADN entre segmentos génicos variable (V), de diversidad (D) y de unión (J) que genera la diversidad de los receptores de antígeno de linfocitos B y T durante su desarrollo.",
        zh = "在淋巴细胞发育过程中,可变(V)、多样性(D)和连接(J)基因片段的体细胞 DNA 重排过程,产生 B 细胞和 T 细胞抗原受体的多样性。",
        term_es = "recombinación V(D)J",
        term_zh = "V(D)J 重组",
        aliases_es = { "recombinación VDJ", "reordenamiento V(D)J" },
        aliases_zh = { "VDJ 重组", "V(D)J 重排", "抗原受体重组" },
    }
    
    data["v-prediction"] = {
        short = "A diffusion model parameterization where the network predicts the velocity v = α_t·ε − σ_t·x₀ instead of the noise or clean sample. Improves stability at high noise levels and is used in progressive distillation and Stable Diffusion 2.",
        article = nil,
        aliases = { "v prediction", "velocity parameterization", "v-parameterization" },
        es = "Parametrización de modelos de difusión en la que la red predice la velocidad v = α_t·ε − σ_t·x₀ en lugar del ruido o de la muestra limpia. Mejora la estabilidad con niveles altos de ruido y se usa en destilación progresiva y Stable Diffusion 2.",
        zh = "一种扩散模型参数化方式,网络预测速度 v = α_t·ε − σ_t·x₀,而不是噪声或干净样本。在高噪声水平下更稳定,被用于渐进式蒸馏和 Stable Diffusion 2。",
        term_es = "predicción v",
        term_zh = "v 预测",
        aliases_es = { "v-prediction", "parametrización v", "predicción de velocidad" },
        aliases_zh = { "v-prediction", "v 参数化", "速度预测" },
    }
    
    data["v-structure"] = {
        short = "A triple of variables in a directed acyclic graph in which two non-adjacent nodes both point into a common child, also called a collider. V-structures are key to graphical identification of conditional independencies and to the orientation step of constraint-based causal discovery.",
        article = nil,
        aliases = { "v structure", "collider structure", "unshielded collider", "immorality" },
        es = "Triple de variables en un grafo acíclico dirigido en el que dos nodos no adyacentes apuntan ambos a un mismo hijo, también llamado colisionador. Las v-estructuras son clave para identificar gráficamente independencias condicionales y para la etapa de orientación del descubrimiento causal basado en restricciones.",
        zh = "有向无环图中的一种三节点结构:两个互不相邻的节点共同指向同一子节点,也称为对撞结构。V 结构是图形化识别条件独立性以及基于约束的因果发现中确定边方向的关键。",
        term_es = "v-estructura",
        term_zh = "V 型结构",
        aliases_es = { "estructura en V", "estructura de colisionador", "colisionador no protegido", "inmoralidad" },
        aliases_zh = { "V 结构", "对撞结构", "非屏蔽对撞", "不道德结构" },
    }
    
    data["vadam"] = {
        short = "A variational inference method for Bayesian neural networks that turns Adam into an approximate natural-gradient variational optimizer by reinterpreting Adam's updates as updates on a Gaussian variational posterior. Proposed by Khan et al. (2018).",
        article = nil,
        aliases = { "Vadam", "variational Adam", "Vadam optimizer" },
        es = "Método de inferencia variacional para redes neuronales bayesianas que convierte Adam en un optimizador variacional de gradiente natural aproximado, reinterpretando las actualizaciones de Adam como actualizaciones de una posterior variacional gaussiana. Propuesto por Khan et al. (2018).",
        zh = "Khan 等人(2018)提出的贝叶斯神经网络变分推断方法,将 Adam 的更新重新解释为对高斯变分后验的更新,从而把 Adam 转化为近似自然梯度的变分优化器。",
        term_es = "Vadam",
        term_zh = "Vadam",
        aliases_es = { "Adam variacional", "optimizador Vadam" },
        aliases_zh = { "变分 Adam", "Vadam 优化器" },
    }
    
    data["vae tiling"] = {
        short = "A memory-saving inference trick that splits a large image into overlapping tiles before VAE encode or decode, then blends the tiles back together. Lets latent diffusion models process resolutions that would otherwise exceed GPU memory.",
        article = nil,
        aliases = { "VAE tiling", "tiled VAE", "tiled vae decoding" },
        es = "Técnica de inferencia que ahorra memoria dividiendo una imagen grande en mosaicos solapados antes de codificarla o decodificarla con el VAE, y luego fusiona los mosaicos. Permite que los modelos de difusión latente trabajen con resoluciones que excederían la memoria de la GPU.",
        zh = "一种节省显存的推理技巧:在 VAE 编码或解码前将大图切分为有重叠的瓦片,再把瓦片融合回去。使潜空间扩散模型能够处理超出显存的分辨率。",
        term_es = "VAE tiling",
        term_zh = "VAE 分块",
        aliases_es = { "tiling de VAE", "VAE en mosaicos" },
        aliases_zh = { "VAE tiling", "瓦片化 VAE", "分块解码" },
    }
    
    data["validation set"] = {
        short = "A held-out portion of the data used during training to tune hyperparameters and monitor generalization, separate from both the training set used to fit parameters and the test set used for final evaluation.",
        article = nil,
        aliases = { "dev set", "development set", "validation split", "val set" },
        es = "Parte de los datos reservada durante el entrenamiento para ajustar hiperparámetros y supervisar la generalización, distinta tanto del conjunto de entrenamiento utilizado para ajustar los parámetros como del conjunto de prueba empleado para la evaluación final.",
        zh = "训练过程中预留的一部分数据,用于调节超参数并监控泛化能力,与用于拟合参数的训练集和用于最终评估的测试集均相互独立。",
        term_es = "conjunto de validación",
        term_zh = "验证集",
        aliases_es = { "conjunto de desarrollo", "set de validación", "partición de validación" },
        aliases_zh = { "开发集", "dev集", "验证数据集" },
    }
    
    data["validity counterfactual"] = {
        short = "A property of a counterfactual example requiring that, when fed back through the model, it actually yields the desired alternative prediction.",
        article = nil,
        aliases = { "counterfactual validity", "valid counterfactual" },
        es = "Propiedad de un ejemplo contrafactual que exige que, al ser evaluado de nuevo por el modelo, produzca efectivamente la predicción alternativa deseada.",
        zh = "反事实样本的一项属性,要求将其重新输入模型后确实能产生所期望的另一种预测。",
        term_es = "validez contrafactual",
        term_zh = "反事实有效性",
        aliases_es = { "contrafactual válido" },
        aliases_zh = { "反事实有效性", "有效反事实" },
    }
    
    data["vall-e"] = {
        short = "Neural codec language model from Microsoft that treats text-to-speech as conditional autoregressive generation of EnCodec audio tokens, achieving zero-shot voice cloning from a 3-second speaker prompt.",
        article = nil,
        aliases = { "VALL-E", "VALLE", "VALL E" },
        es = "Modelo de lenguaje sobre códecs neuronales propuesto por Microsoft que aborda la síntesis de voz como generación autoregresiva condicional de tokens de audio EnCodec, logrando clonación de voz zero-shot a partir de una indicación de 3 segundos del hablante.",
        zh = "微软提出的神经编解码语言模型,将文本转语音建模为对 EnCodec 音频 token 的条件自回归生成,只需 3 秒说话人示例即可实现零样本声音克隆。",
        term_es = "VALL-E",
        term_zh = "VALL-E",
        aliases_es = { "VALL-E", "VALLE" },
        aliases_zh = { "VALL-E", "VALLE" },
    }
    
    data["vall-e x"] = {
        short = "Cross-lingual extension of VALL-E that conditions on a source-language speaker prompt and target-language text, enabling zero-shot voice cloning across languages while preserving speaker timbre and prosody.",
        article = nil,
        aliases = { "VALL-E X", "VALLE-X", "VALL-EX" },
        es = "Extensión cross-lingual de VALL-E que se condiciona en una indicación del hablante en un idioma de origen y texto en el idioma objetivo, permitiendo clonación de voz zero-shot entre idiomas conservando el timbre y la prosodia del hablante.",
        zh = "VALL-E 的跨语种扩展,以源语言说话人示例和目标语言文本为条件,实现跨语种零样本声音克隆,同时保留说话人音色和韵律。",
        term_es = "VALL-E X",
        term_zh = "VALL-E X",
        aliases_es = { "VALL-E X", "VALLE-X" },
        aliases_zh = { "VALL-E X", "VALLE-X" },
    }
    
    data["valle"] = {
        short = "VALL-E (Microsoft, 2023); a neural codec language model that synthesizes speech by autoregressively generating discrete EnCodec tokens, enabling high-quality zero-shot voice cloning from a 3-second speaker prompt.",
        article = nil,
        aliases = { "VALL-E", "VALLE", "Vall-E", "VALL-E X" },
        es = "VALL-E (Microsoft, 2023); un modelo de lenguaje sobre códecs neuronales que sintetiza voz generando autorregresivamente tokens discretos de EnCodec, lo que permite la clonación de voz cero-shot de alta calidad a partir de una indicación de hablante de 3 segundos.",
        zh = "VALL-E(微软,2023);一种基于神经编解码器的语言模型,通过自回归生成 EnCodec 离散音频 token 合成语音,可从 3 秒说话人提示实现高质量零样本语音克隆。",
        term_es = "VALL-E",
        term_zh = "VALL-E",
        aliases_es = { "VALL-E", "VALLE" },
        aliases_zh = { "VALL-E", "VALLE" },
    }
    
    data["value alignment"] = {
        short = "The problem and practice of designing AI systems whose objectives and behavior conform to human values, intentions, and norms across deployment contexts.",
        article = nil,
        aliases = { "AI alignment", "alignment problem", "value-alignment problem" },
        es = "Problema y práctica de diseñar sistemas de IA cuyos objetivos y comportamiento se ajusten a los valores, intenciones y normas humanas en distintos contextos de despliegue.",
        zh = "设计人工智能系统使其目标与行为在各种部署场景中符合人类价值观、意图和规范的研究问题与实践。",
        term_es = "alineación de valores",
        term_zh = "价值对齐",
        aliases_es = { "alineamiento de valores", "alineación de la IA", "problema de alineación" },
        aliases_zh = { "AI 对齐", "对齐问题", "价值观对齐" },
    }
    
    data["value function"] = {
        short = "In reinforcement learning, a function that estimates the expected return obtainable from a state (state-value function V(s)) or from a state-action pair (action-value function Q(s,a)) under a given policy.",
        article = nil,
        aliases = { "value functions", "value estimator" },
        es = "En aprendizaje por refuerzo, una función que estima el retorno esperado que se puede obtener desde un estado (función de valor de estado V(s)) o desde un par estado-acción (función de valor de acción Q(s,a)) bajo una política dada.",
        zh = "在强化学习中,一种用于估计在给定策略下从某状态(状态价值函数 V(s))或某状态-动作对(动作价值函数 Q(s,a))出发可获得的期望回报的函数。",
        term_es = "función de valor",
        term_zh = "价值函数",
        aliases_es = { "funciones de valor" },
        aliases_zh = { "value function", "值函数" },
    }
    
    data["value iteration"] = {
        short = "A dynamic programming algorithm that computes the optimal value function by iteratively applying the Bellman optimality operator until convergence, from which an optimal policy is derived.",
        article = nil,
        aliases = { "value-iteration" },
        es = "Algoritmo de programación dinámica que calcula la función de valor óptima aplicando iterativamente el operador de optimalidad de Bellman hasta la convergencia, del cual se deriva una política óptima.",
        zh = "一种动态规划算法,通过反复应用贝尔曼最优算子直至收敛来计算最优值函数,并由此导出最优策略。",
        term_es = "iteración de valor",
        term_zh = "值迭代",
        aliases_es = { "iteración de valores" },
        aliases_zh = { "价值迭代" },
    }
    
    data["value-sensitive design"] = {
        short = "A design methodology that systematically accounts for human values throughout the conception, development, and evaluation of technology, including AI systems.",
        article = nil,
        aliases = { "VSD", "value sensitive design" },
        es = "Metodología de diseño que considera sistemáticamente los valores humanos durante la concepción, el desarrollo y la evaluación de la tecnología, incluidos los sistemas de IA.",
        zh = "一种设计方法论,在技术(包括人工智能系统)的构思、开发与评估过程中系统地考虑人的价值观。",
        term_es = "diseño sensible a los valores",
        term_zh = "价值敏感设计",
        aliases_es = { "DSV", "diseño orientado a valores" },
        aliases_zh = { "VSD", "面向价值的设计" },
    }
    
    data["vanilla gradient"] = {
        short = "The simplest gradient-based saliency method: it uses the raw gradient of the model's output with respect to each input feature as the attribution score.",
        article = nil,
        aliases = { "Vanilla Gradient", "raw gradient saliency", "Simonyan saliency" },
        es = "El método de saliencia basado en gradientes más simple: utiliza el gradiente bruto de la salida del modelo respecto a cada característica de entrada como puntuación de atribución.",
        zh = "最简单的基于梯度的显著性方法:将模型输出对每个输入特征的原始梯度作为归因得分。",
        term_es = "gradiente vainilla",
        term_zh = "原始梯度",
        aliases_es = { "gradiente simple", "saliencia por gradiente bruto" },
        aliases_zh = { "Vanilla Gradient", "原始梯度显著性" },
    }
    
    data["vargrad"] = {
        short = "A saliency method that estimates feature importance as the variance of the gradient of the output with respect to the input across multiple noise-perturbed copies of the input.",
        article = nil,
        aliases = { "VarGrad", "variance of gradients" },
        es = "Método de saliencia que estima la importancia de las características como la varianza del gradiente de la salida respecto a la entrada calculada sobre múltiples copias perturbadas con ruido.",
        zh = "一种显著性方法,将特征重要性估计为:在多个加噪扰动副本上,输出对输入梯度的方差。",
        term_es = "VarGrad",
        term_zh = "VarGrad",
        aliases_es = { "VarGrad", "varianza de gradientes" },
        aliases_zh = { "VarGrad", "梯度方差" },
    }
    
    data["variable importance"] = {
        short = "A scalar measure of how much each input variable contributes to a model's predictive performance or outputs, computed via methods such as permutation, Gini importance, or SHAP.",
        article = nil,
        aliases = { "feature importance", "variable importance score" },
        es = "Medida escalar de cuánto contribuye cada variable de entrada al desempeño predictivo o a las salidas de un modelo, calculada por métodos como permutación, importancia de Gini o SHAP.",
        zh = "衡量每个输入变量对模型预测性能或输出贡献程度的标量指标,可通过置换重要性、Gini 重要性或 SHAP 等方法计算。",
        term_es = "importancia de las variables",
        term_zh = "变量重要性",
        aliases_es = { "importancia de variables", "importancia de características" },
        aliases_zh = { "特征重要性", "变量重要性得分" },
    }
    
    data["variable importance plot"] = {
        short = "A bar chart that ranks input variables by their importance score, used to summarize which features most influence a model's predictions.",
        article = nil,
        aliases = { "VIP plot", "feature importance plot" },
        es = "Gráfico de barras que ordena las variables de entrada por su puntuación de importancia, usado para resumir qué características influyen más en las predicciones del modelo.",
        zh = "按重要性得分对输入变量排序的条形图,用于概括哪些特征对模型预测影响最大。",
        term_es = "gráfico de importancia de variables",
        term_zh = "变量重要性图",
        aliases_es = { "gráfico VIP", "gráfico de importancia de características" },
        aliases_zh = { "VIP 图", "特征重要性图" },
    }
    
    data["variance"] = {
        short = "The expected squared deviation of a random variable from its mean, measuring the spread of its distribution. For a sample, the unbiased estimator divides by n−1 rather than n.",
        article = nil,
        aliases = { "Var", "Var(X)", "second central moment", "population variance", "sample variance" },
        es = "Esperanza del cuadrado de la desviación de una variable aleatoria respecto a su media, que mide la dispersión de su distribución. Para una muestra, el estimador insesgado divide entre n−1 en lugar de n.",
        zh = "随机变量与其均值之差的平方的期望,用于衡量分布的离散程度。对样本而言,无偏估计量除以 n−1 而非 n。",
        term_es = "varianza",
        term_zh = "方差",
        aliases_es = { "Var", "varianza poblacional", "varianza muestral", "segundo momento central" },
        aliases_zh = { "样本方差", "总体方差", "Var", "二阶中心矩" },
    }
    
    data["variance exploding"] = {
        short = "A score-based diffusion SDE formulation in which the marginal noise variance grows without bound as time progresses, with x_t = x_0 + σ_t·ε for an increasing schedule σ_t. Introduced for NCSN-style models.",
        article = nil,
        aliases = { "VE SDE", "variance exploding SDE", "variance-exploding diffusion" },
        es = "Formulación SDE de difusión basada en score en la que la varianza marginal del ruido crece sin acotación a lo largo del tiempo, con x_t = x_0 + σ_t·ε y un planificador σ_t creciente. Introducida para modelos del estilo NCSN.",
        zh = "一种基于得分的扩散 SDE 形式,随时间推移噪声边缘方差无限增长,x_t = x_0 + σ_t·ε,σ_t 单调上升。用于 NCSN 类模型。",
        term_es = "varianza explosiva",
        term_zh = "方差爆炸",
        aliases_es = { "SDE de varianza explosiva", "VE SDE" },
        aliases_zh = { "VE SDE", "方差爆炸式 SDE" },
    }
    
    data["variance preserving"] = {
        short = "A score-based diffusion SDE formulation in which the marginal variance of x_t stays bounded over time, parameterized as x_t = √(ᾱ_t)·x_0 + √(1−ᾱ_t)·ε. The DDPM forward process is the discrete analogue.",
        article = nil,
        aliases = { "VP SDE", "variance preserving SDE", "variance-preserving diffusion" },
        es = "Formulación SDE de difusión basada en score en la que la varianza marginal de x_t permanece acotada en el tiempo, con x_t = √(ᾱ_t)·x_0 + √(1−ᾱ_t)·ε. El proceso directo de DDPM es su análogo discreto.",
        zh = "一种基于得分的扩散 SDE 形式,x_t 的边缘方差随时间保持有界,参数化为 x_t = √(ᾱ_t)·x_0 + √(1−ᾱ_t)·ε。DDPM 的前向过程是其离散对应。",
        term_es = "varianza preservada",
        term_zh = "方差保持",
        aliases_es = { "SDE de varianza preservada", "VP SDE" },
        aliases_zh = { "VP SDE", "方差保持式 SDE" },
    }
    
    data["variance reduction federated"] = {
        short = "A family of federated optimization techniques that explicitly correct for the variance introduced by partial client participation and heterogeneous client objectives, typically using control variates to align local updates with the global gradient.",
        article = nil,
        aliases = { "variance-reduced federated learning", "variance reduction in federated learning", "federated variance reduction", "SCAFFOLD-style methods" },
        es = "Familia de técnicas de optimización federada que corrigen explícitamente la varianza introducida por la participación parcial de los clientes y por la heterogeneidad de sus objetivos, normalmente mediante variables de control que alinean las actualizaciones locales con el gradiente global.",
        zh = "一类联邦优化技术,显式校正由客户端部分参与和目标异质性引入的方差,通常借助控制变量将本地更新与全局梯度对齐。",
        term_es = "reducción de varianza federada",
        term_zh = "联邦方差缩减",
        aliases_es = { "reducción de varianza en aprendizaje federado", "métodos tipo SCAFFOLD" },
        aliases_zh = { "联邦学习方差缩减", "SCAFFOLD 类方法" },
    }
    
    data["variant effect prediction"] = {
        short = "Computational assessment of the functional consequences of genetic variants on protein structure, function, splicing, or regulation; tools include VEP, SIFT, PolyPhen-2, CADD, AlphaMissense, and SpliceAI.",
        article = nil,
        aliases = { "VEP", "variant impact prediction", "variant pathogenicity prediction", "functional variant prediction" },
        es = "Evaluación computacional de las consecuencias funcionales de variantes genéticas sobre la estructura, función, empalme o regulación proteica; herramientas habituales incluyen VEP, SIFT, PolyPhen-2, CADD, AlphaMissense y SpliceAI.",
        zh = "对遗传变异在蛋白质结构、功能、剪接或调控层面的功能性后果进行计算评估;常用工具包括 VEP、SIFT、PolyPhen-2、CADD、AlphaMissense 和 SpliceAI。",
        term_es = "predicción del efecto de variantes",
        term_zh = "变异效应预测",
        aliases_es = { "predicción del impacto de variantes", "predicción de patogenicidad de variantes" },
        aliases_zh = { "变异影响预测", "变异致病性预测", "功能变异预测" },
    }
    
    data["variant filtering"] = {
        short = "The post-calling step in variant analysis that removes likely false positives based on quality metrics (depth, mapping quality, strand bias, allele balance) using hard thresholds or machine-learning recalibration (e.g., GATK VQSR).",
        article = nil,
        aliases = { "variant call filtering", "VCF filtering", "variant QC", "variant quality filtering" },
        es = "Etapa posterior al llamado de variantes que elimina probables falsos positivos según métricas de calidad (profundidad, calidad de mapeo, sesgo de cadena, balance alélico) mediante umbrales fijos o recalibración por aprendizaje automático (GATK VQSR).",
        zh = "变异检测后的过滤步骤,基于深度、比对质量、链偏倚和等位基因平衡等质量指标,通过固定阈值或机器学习重校准(如 GATK VQSR)去除可能的假阳性。",
        term_es = "filtrado de variantes",
        term_zh = "变异过滤",
        aliases_es = { "filtrado de llamadas de variantes", "control de calidad de variantes" },
        aliases_zh = { "变异调用过滤", "VCF 过滤", "变异质控" },
    }
    
    data["variation ratio"] = {
        short = "An uncertainty score equal to one minus the relative frequency of the modal class predicted across multiple stochastic forward passes; high values indicate disagreement among samples and high epistemic uncertainty.",
        article = nil,
        aliases = { "variation-ratio", "VR uncertainty" },
        es = "Puntaje de incertidumbre igual a uno menos la frecuencia relativa de la clase modal predicha a lo largo de múltiples pasadas estocásticas hacia adelante; valores altos indican desacuerdo entre las muestras y elevada incertidumbre epistémica.",
        zh = "一种不确定性度量,定义为 1 减去多次随机前向传播中众数类别的相对频率;取值越高表示样本之间的不一致越大、认知不确定性越高。",
        term_es = "razón de variación",
        term_zh = "变异比",
        aliases_es = { "razón de variación", "incertidumbre por VR", "variation ratio" },
        aliases_zh = { "variation ratio", "变化率", "VR 不确定性" },
    }
    
    data["variational autoencoder"] = {
        short = "A latent-variable generative model (Kingma & Welling, 2013) trained by maximizing the evidence lower bound (ELBO), in which an encoder network parameterizes an approximate posterior q(z|x) and a decoder parameterizes p(x|z), with the reparameterization trick enabling stochastic backpropagation.",
        article = nil,
        aliases = { "VAE", "variational auto-encoder", "variational auto encoder" },
        es = "Modelo generativo de variables latentes (Kingma & Welling, 2013) entrenado maximizando la cota inferior de la evidencia (ELBO): una red codificadora parametriza la posterior aproximada q(z|x) y una decodificadora parametriza p(x|z), y el truco de reparametrización permite la retropropagación estocástica.",
        zh = "Kingma 与 Welling 于 2013 年提出的潜变量生成模型:通过最大化证据下界(ELBO)进行训练,编码器参数化近似后验 q(z|x),解码器参数化 p(x|z),借助重参数化技巧实现随机反向传播。",
        term_es = "autocodificador variacional",
        term_zh = "变分自编码器",
        aliases_es = { "VAE", "auto-codificador variacional" },
        aliases_zh = { "VAE", "变分自动编码器" },
    }
    
    data["variational boosting"] = {
        short = "An iterative variational inference scheme that builds a flexible mixture posterior by greedily adding a new component at each round to minimize the residual KL divergence to the true posterior.",
        article = nil,
        aliases = { "boosted variational inference", "boosted VI", "variational boosting" },
        es = "Esquema iterativo de inferencia variacional que construye una posterior de mezcla flexible añadiendo de forma voraz un nuevo componente en cada ronda para minimizar la divergencia KL residual respecto a la posterior verdadera.",
        zh = "一种迭代式变分推断方法,通过每一轮贪心地添加一个新的混合分量来构建灵活的混合后验,从而最小化与真实后验之间的残差 KL 散度。",
        term_es = "boosting variacional",
        term_zh = "变分提升",
        aliases_es = { "VI por boosting", "inferencia variacional con boosting", "variational boosting" },
        aliases_zh = { "提升式变分推断", "boosted VI", "variational boosting" },
    }
    
    data["variational continual learning"] = {
        short = "A Bayesian framework for continual learning that approximates the posterior after each task with a variational distribution and uses it as the prior for the next task, naturally combining sequential Bayesian updating with episodic coreset replay.",
        article = nil,
        aliases = { "VCL", "variational continual learning" },
        es = "Marco bayesiano para aprendizaje continuo que aproxima la posterior tras cada tarea con una distribución variacional y la utiliza como prior para la siguiente tarea, combinando de forma natural la actualización bayesiana secuencial con un replay de conjunto principal episódico.",
        zh = "一种用于持续学习的贝叶斯框架:在每个任务结束后用变分分布近似后验,并将其作为下一任务的先验,自然地将顺序贝叶斯更新与情节式核心集回放相结合。",
        term_es = "aprendizaje continuo variacional",
        term_zh = "变分持续学习",
        aliases_es = { "VCL", "variational continual learning" },
        aliases_zh = { "VCL", "变分式持续学习", "variational continual learning" },
    }
    
    data["variational dropout"] = {
        short = "A regularization technique that interprets Gaussian (or Bernoulli) dropout as variational inference over network weights, learning per-weight dropout rates by optimizing the variational lower bound. Introduced by Kingma, Salimans, and Welling (2015).",
        article = nil,
        aliases = { "Kingma variational dropout", "VD" },
        es = "Técnica de regularización que interpreta el dropout gaussiano (o de Bernoulli) como inferencia variacional sobre los pesos de la red, aprendiendo tasas de dropout por peso al optimizar la cota variacional inferior. Introducida por Kingma, Salimans y Welling (2015).",
        zh = "一种正则化技术,将高斯(或伯努利)dropout 解释为对网络权重的变分推断,通过优化变分下界为每个权重学习独立的 dropout 率。由 Kingma、Salimans 和 Welling(2015)提出。",
        term_es = "dropout variacional",
        term_zh = "变分 dropout",
        aliases_es = { "dropout variacional de Kingma", "VD", "variational dropout" },
        aliases_zh = { "Kingma 变分 dropout", "VD", "variational dropout" },
    }
    
    data["variational fair autoencoder"] = {
        short = "A variational autoencoder (Louizos et al., 2016) that learns latent representations approximately independent of a sensitive attribute by adding a maximum mean discrepancy penalty to the ELBO.",
        article = nil,
        aliases = { "VFAE", "variational fair auto-encoder", "fair VAE" },
        es = "Autoencoder variacional (Louizos et al., 2016) que aprende representaciones latentes aproximadamente independientes de un atributo sensible al añadir una penalización de discrepancia media máxima al ELBO.",
        zh = "Louizos 等人(2016)提出的变分自编码器,通过在 ELBO 中加入最大均值差异(MMD)惩罚,学习近似独立于敏感属性的潜在表示。",
        term_es = "autoencoder variacional justo",
        term_zh = "变分公平自编码器",
        aliases_es = { "VFAE", "autoencoder variacional equitativo", "VAE justo" },
        aliases_zh = { "VFAE", "公平变分自编码器", "公平 VAE" },
    }
    
    data["variational gaussian dropout"] = {
        short = "The variant of variational dropout that uses Gaussian multiplicative noise on activations or weights with a learnable variance, equivalent to a log-uniform prior on weights and capable of inducing sparsity.",
        article = nil,
        aliases = { "Gaussian variational dropout", "VGD" },
        es = "Variante del dropout variacional que utiliza ruido multiplicativo gaussiano sobre activaciones o pesos con varianza aprendida, equivalente a un prior log-uniforme sobre los pesos y capaz de inducir dispersidad.",
        zh = "变分 dropout 的一种变体,对激活或权重施加方差可学习的高斯乘性噪声,等价于权重上的对数均匀先验,并能够诱导稀疏性。",
        term_es = "dropout gaussiano variacional",
        term_zh = "变分高斯 dropout",
        aliases_es = { "dropout variacional gaussiano", "VGD", "variational Gaussian dropout" },
        aliases_zh = { "高斯变分 dropout", "VGD", "variational Gaussian dropout" },
    }
    
    data["variational gaussian process"] = {
        short = "A Gaussian process model whose posterior is approximated by a variational distribution over inducing points, scaling exact GP inference to large datasets via the Titsias and KL-corrected ELBOs.",
        article = nil,
        aliases = { "VGP", "variational GP", "sparse variational GP", "SVGP" },
        es = "Modelo de proceso gaussiano cuyo posterior se aproxima mediante una distribución variacional sobre puntos inducidos, lo que permite escalar la inferencia exacta de GP a grandes conjuntos de datos a través de las ELBO de Titsias y corregidas por KL.",
        zh = "一种高斯过程模型,其后验由诱导点上的变分分布近似,借助 Titsias 与带 KL 校正的 ELBO,将精确 GP 推断扩展到大规模数据集。",
        term_es = "proceso gaussiano variacional",
        term_zh = "变分高斯过程",
        aliases_es = { "VGP", "GP variacional", "GP variacional disperso", "SVGP" },
        aliases_zh = { "VGP", "变分 GP", "稀疏变分高斯过程", "SVGP" },
    }
    
    data["variational inference"] = {
        short = "A family of approximate Bayesian inference methods that recasts posterior estimation as optimization, fitting a tractable parametric distribution to the true posterior by minimizing a divergence (typically reverse KL) via maximization of the evidence lower bound.",
        article = nil,
        aliases = { "VI", "variational Bayes", "VB", "variational approximation", "variational methods" },
        es = "Familia de métodos de inferencia bayesiana aproximada que reformula la estimación de la posterior como un problema de optimización, ajustando una distribución paramétrica tratable a la posterior verdadera al minimizar una divergencia (típicamente la KL inversa) mediante la maximización del ELBO.",
        zh = "一类近似贝叶斯推断方法,将后验估计转化为优化问题,通过最大化证据下界(ELBO)以最小化某种散度(通常为反向 KL)来用可处理的参数分布拟合真实后验。",
        term_es = "inferencia variacional",
        term_zh = "变分推断",
        aliases_es = { "VI", "Bayes variacional", "métodos variacionales" },
        aliases_zh = { "变分贝叶斯", "VI", "变分近似" },
    }
    
    data["variational message passing"] = {
        short = "A general algorithm for variational Bayesian inference in conjugate-exponential graphical models that performs coordinate ascent on the mean-field ELBO via local message updates between nodes. Proposed by Winn and Bishop (2005).",
        article = nil,
        aliases = { "VMP", "variational message passing" },
        es = "Algoritmo general para inferencia variacional bayesiana en modelos gráficos exponenciales conjugados que realiza ascenso por coordenadas sobre la ELBO de campo medio mediante actualizaciones locales de mensajes entre nodos. Propuesto por Winn y Bishop (2005).",
        zh = "一种用于共轭指数族图模型变分贝叶斯推断的通用算法,通过节点间的局部消息更新对均场 ELBO 执行坐标上升。由 Winn 与 Bishop(2005)提出。",
        term_es = "paso de mensajes variacional",
        term_zh = "变分消息传递",
        aliases_es = { "VMP", "mensajes variacionales", "variational message passing" },
        aliases_zh = { "VMP", "variational message passing" },
    }
    
    data["variational online gauss-newton"] = {
        short = "A natural-gradient variational inference algorithm that approximates the Fisher information with a per-parameter Gauss-Newton estimate, enabling efficient online updates of a Gaussian variational posterior over neural-network weights.",
        article = nil,
        aliases = { "VOGN", "variational online Gauss-Newton" },
        es = "Algoritmo de inferencia variacional con gradiente natural que aproxima la información de Fisher mediante una estimación de Gauss-Newton por parámetro, permitiendo actualizaciones en línea eficientes de una posterior variacional gaussiana sobre los pesos de redes neuronales.",
        zh = "一种使用自然梯度的变分推断算法,通过逐参数的 Gauss-Newton 估计来近似 Fisher 信息,实现对神经网络权重高斯变分后验的高效在线更新。",
        term_es = "Gauss-Newton variacional en línea",
        term_zh = "变分在线 Gauss-Newton",
        aliases_es = { "VOGN", "variational online Gauss-Newton" },
        aliases_zh = { "VOGN", "variational online Gauss-Newton", "在线变分 Gauss-Newton" },
    }
    
    data["variational posterior"] = {
        short = "The parameterized approximating distribution q(theta) over latent variables or weights that is optimized to minimize the KL divergence to the true posterior in variational inference.",
        article = nil,
        aliases = { "approximate posterior", "q distribution", "variational distribution" },
        es = "Distribución aproximante parametrizada q(theta) sobre las variables latentes o pesos que se optimiza para minimizar la divergencia KL respecto al posterior verdadero en inferencia variacional.",
        zh = "变分推断中对潜变量或权重的参数化近似分布 q(theta),通过最小化与真实后验之间的 KL 散度来优化。",
        term_es = "posterior variacional",
        term_zh = "变分后验",
        aliases_es = { "posterior aproximada", "distribución q", "distribución variacional", "variational posterior" },
        aliases_zh = { "近似后验", "q 分布", "变分分布", "variational posterior" },
    }
    
    data["variational rejection sampling"] = {
        short = "A hybrid algorithm that augments a variational posterior with a learned rejection step, drawing samples from q and accepting them with a probability that tightens the implicit bound on the true posterior.",
        article = nil,
        aliases = { "VRS", "variational rejection sampling" },
        es = "Algoritmo híbrido que aumenta una posterior variacional con un paso de rechazo aprendido, muestreando de q y aceptando las muestras con una probabilidad que ajusta la cota implícita sobre el posterior verdadero.",
        zh = "一种将变分后验与可学习的拒绝步骤结合的混合算法:从 q 中采样并以一定概率接受,从而收紧对真实后验的隐式界。",
        term_es = "muestreo variacional por rechazo",
        term_zh = "变分拒绝采样",
        aliases_es = { "VRS", "variational rejection sampling" },
        aliases_zh = { "VRS", "variational rejection sampling" },
    }
    
    data["variational score distillation"] = {
        short = "A text-to-3D distillation method (ProlificDreamer) that treats the rendered scene as a variational distribution over 3D parameters rather than a single sample, reducing oversaturation and mode collapse compared to score distillation sampling.",
        article = nil,
        aliases = { "VSD", "ProlificDreamer", "variational score distillation sampling" },
        es = "Método de destilación texto-a-3D (ProlificDreamer) que trata la escena renderizada como una distribución variacional sobre parámetros 3D en lugar de una sola muestra, reduciendo la sobresaturación y el colapso de modos frente al score distillation sampling.",
        zh = "一种文生 3D 的蒸馏方法(ProlificDreamer),将渲染场景视为 3D 参数上的变分分布,而非单一样本,相比 SDS 减轻了过饱和与模式塌缩。",
        term_es = "destilación variacional de score",
        term_zh = "变分得分蒸馏",
        aliases_es = { "VSD", "ProlificDreamer" },
        aliases_zh = { "VSD", "ProlificDreamer", "变分 score 蒸馏" },
    }
    
    data["varscan"] = {
        short = "A heuristic variant caller that detects germline and somatic SNVs, indels, and copy-number changes from aligned short-read sequencing data using simple frequency- and read-count-based criteria.",
        article = nil,
        aliases = { "VarScan", "VarScan2", "VarScan 2" },
        es = "Llamador de variantes heurístico que detecta SNV, indeles y cambios de número de copias germinales y somáticos a partir de datos de secuenciación de lecturas cortas alineadas, usando criterios simples basados en frecuencia y conteo de lecturas.",
        zh = "一种启发式变异检测工具,基于比对后的短读长测序数据,利用简单的频率和读段计数标准检测胚系和体细胞 SNV、插入缺失及拷贝数变化。",
        term_es = "VarScan",
        term_zh = "VarScan",
        aliases_es = { "VarScan2" },
        aliases_zh = { "VarScan2" },
    }
    
    data["vatex"] = {
        short = "A large-scale multilingual video captioning dataset of about 41,000 short clips with paired English and Chinese descriptions, widely used for video captioning and multilingual video-text retrieval.",
        article = nil,
        aliases = { "VATEX", "VATEX dataset" },
        es = "Conjunto de datos multilingüe a gran escala de descripción de video con unos 41 000 clips cortos y descripciones pareadas en inglés y chino, ampliamente utilizado en descripción de video y recuperación video-texto multilingüe.",
        zh = "一个大规模多语言视频描述数据集,包含约 41,000 个短视频片段及其配对的英文与中文描述,广泛用于视频描述生成与多语言视频-文本检索任务。",
        term_es = "VATEX",
        term_zh = "VATEX",
        aliases_es = { "VATEX" },
        aliases_zh = { "VATEX" },
    }
    
    data["vbx diarization"] = {
        short = "Speaker diarization back-end developed at BUT (VBx) that clusters x-vectors with a Bayesian hidden Markov model using a probabilistic linear discriminant analysis kernel; long the strongest VoxConverse and DIHARD baseline.",
        article = nil,
        aliases = { "VBx", "VBx diarization", "BUT VBx", "VB-HMM diarization" },
        es = "Backend de diarización de locutores desarrollado en BUT (VBx) que agrupa x-vectors mediante un modelo oculto de Markov bayesiano con un núcleo PLDA; durante años fue la línea base más fuerte en VoxConverse y DIHARD.",
        zh = "由 BUT 提出的说话人分离后端(VBx),使用基于 PLDA 核的贝叶斯隐马尔可夫模型对 x-vector 进行聚类,长期是 VoxConverse 和 DIHARD 上最强的基线。",
        term_es = "diarización VBx",
        term_zh = "VBx 话者分离",
        aliases_es = { "VBx", "VBx diarization", "diarización BUT VBx" },
        aliases_zh = { "VBx", "BUT VBx", "VBx 说话人日志" },
    }
    
    data["vcf format"] = {
        short = "Variant Call Format, a tab-delimited text specification (typically gzipped and tabix-indexed) for storing genetic variants with positions, alleles, quality scores, and per-sample genotype fields; the standard output of variant callers.",
        article = nil,
        aliases = { "VCF", "Variant Call Format", "VCF file", ".vcf", "BCF" },
        es = "Formato de llamada de variantes, especificación de texto separada por tabuladores (habitualmente comprimida con gzip e indexada con tabix) para almacenar variantes genéticas con posiciones, alelos, puntuaciones de calidad y campos de genotipo por muestra; salida estándar de los llamadores de variantes.",
        zh = "变异调用格式,一种以制表符分隔的文本规范(通常经 gzip 压缩并用 tabix 建立索引),用于存储遗传变异的位置、等位基因、质量分数及各样本的基因型字段;是变异检测工具的标准输出格式。",
        term_es = "formato VCF",
        term_zh = "VCF 格式",
        aliases_es = { "VCF", "archivo VCF", "Variant Call Format" },
        aliases_zh = { "VCF", "VCF 文件", "变异调用格式", "BCF" },
    }
    
    data["vdj annotation"] = {
        short = "Assignment of V, D, and J gene segments and CDR3 boundaries to immune receptor sequences from BCR/TCR repertoire sequencing; canonical tools include IgBLAST, MiXCR, and IMGT/HighV-QUEST.",
        article = nil,
        aliases = { "VDJ annotation", "V(D)J annotation", "immune receptor annotation", "BCR annotation", "TCR annotation" },
        es = "Asignación de los segmentos génicos V, D y J y de los límites de la CDR3 a secuencias de receptores inmunitarios procedentes de secuenciación de repertorios BCR/TCR; herramientas canónicas son IgBLAST, MiXCR e IMGT/HighV-QUEST.",
        zh = "对来自 BCR/TCR 受体组测序的免疫受体序列分配 V、D、J 基因片段并确定 CDR3 边界的过程;典型工具包括 IgBLAST、MiXCR 和 IMGT/HighV-QUEST。",
        term_es = "anotación VDJ",
        term_zh = "VDJ 注释",
        aliases_es = { "anotación V(D)J", "anotación de receptores inmunitarios", "anotación de BCR", "anotación de TCR" },
        aliases_zh = { "V(D)J 注释", "免疫受体注释", "BCR 注释", "TCR 注释" },
    }
    
    data["veber rules"] = {
        short = "Empirical guidelines for oral bioavailability proposed by Veber et al., requiring no more than 10 rotatable bonds and a polar surface area of at most 140 Ų (or sum of H-bond donors and acceptors ≤ 12).",
        article = nil,
        aliases = { "Veber's rules", "Veber rule" },
        es = "Directrices empíricas para la biodisponibilidad oral propuestas por Veber et al., que exigen no más de 10 enlaces rotables y un área de superficie polar de como máximo 140 Ų (o una suma de donantes y aceptores de enlaces de hidrógeno ≤ 12).",
        zh = "Veber 等人提出的口服生物利用度经验规则,要求可旋转键数不超过 10 个,极性表面积不超过 140 Ų(或氢键供体与受体数之和 ≤ 12)。",
        term_es = "reglas de Veber",
        term_zh = "Veber 规则",
        aliases_es = { "regla de Veber", "reglas de Veber et al." },
        aliases_zh = { "Veber 法则", "Veber 经验规则" },
    }
    
    data["vector"] = {
        short = "An element of a vector space; in machine learning typically an ordered tuple of real numbers representing a point in a feature space, a parameter set, or a direction along which quantities can be scaled and added.",
        article = nil,
        aliases = { "vectors", "column vector", "row vector", "feature vector", "Euclidean vector" },
        es = "Elemento de un espacio vectorial; en aprendizaje automático suele ser una tupla ordenada de números reales que representa un punto en un espacio de características, un conjunto de parámetros o una dirección a lo largo de la cual se pueden escalar y sumar magnitudes.",
        zh = "向量空间中的元素;在机器学习中通常是一个有序的实数元组,表示特征空间中的点、参数集合,或可在其上对量进行缩放和相加的方向。",
        term_es = "vector",
        term_zh = "向量",
        aliases_es = { "vectores", "vector columna", "vector fila", "vector de características", "vector euclídeo" },
        aliases_zh = { "矢量", "列向量", "行向量", "特征向量", "欧几里得向量" },
    }
    
    data["vector database"] = {
        short = "A database optimized for storing high-dimensional embedding vectors and serving approximate-nearest-neighbor queries, often with metadata filtering, used as the storage layer for retrieval-augmented systems.",
        article = nil,
        aliases = { "Vector Database", "vector store", "vector DB", "embedding database", "vector index" },
        es = "Base de datos optimizada para almacenar vectores de embedding de alta dimensión y atender consultas de vecinos más cercanos aproximados, a menudo con filtrado por metadatos, usada como capa de almacenamiento en sistemas con recuperación aumentada.",
        zh = "一种针对存储高维嵌入向量并提供近似最近邻查询而优化的数据库,通常支持元数据过滤,作为检索增强系统的存储层。",
        term_es = "base de datos vectorial",
        term_zh = "向量数据库",
        aliases_es = { "vector database", "almacén de vectores", "base de datos de embeddings", "índice vectorial" },
        aliases_zh = { "vector database", "向量库", "嵌入数据库", "向量索引" },
    }
    
    data["vector quantized vae"] = {
        short = "A VAE (van den Oord et al., 2017) whose latent space is discrete: the encoder output is mapped to its nearest entry in a learned codebook, and gradients are passed through with a straight-through estimator. Used as a tokenizer for autoregressive image and audio models.",
        article = nil,
        aliases = { "VQ-VAE", "VQVAE", "vector-quantized VAE", "vector quantised VAE", "vector quantised variational autoencoder" },
        es = "VAE (van den Oord et al., 2017) cuyo espacio latente es discreto: la salida del codificador se mapea a la entrada más cercana de un libro de códigos aprendido y los gradientes se propagan mediante un estimador straight-through. Se emplea como tokenizador para modelos autorregresivos de imagen y audio.",
        zh = "van den Oord 等人于 2017 年提出的离散潜空间 VAE:编码器输出被映射到可学习码本中的最近条目,使用 straight-through 估计器传递梯度。常作为图像和音频自回归模型的 tokenizer。",
        term_es = "VAE con cuantización vectorial",
        term_zh = "向量量化 VAE",
        aliases_es = { "VQ-VAE", "VQVAE", "VAE cuantizado vectorialmente" },
        aliases_zh = { "VQ-VAE", "VQVAE", "矢量量化 VAE", "向量量化变分自编码器" },
    }
    
    data["vector scaling"] = {
        short = "A post-hoc calibration method for classifiers that scales each pre-softmax logit by a learned per-class factor (and optional bias) on a held-out set, generalizing temperature scaling to a per-dimension transformation.",
        article = nil,
        aliases = { "vector scaling calibration", "per-class scaling" },
        es = "Método de calibración post-hoc para clasificadores que escala cada logit pre-softmax por un factor aprendido por clase (y un sesgo opcional) sobre un conjunto retenido, generalizando el escalado por temperatura a una transformación por dimensión.",
        zh = "一种用于分类器的事后校准方法,在留出集上为每个类别学习一个独立的缩放因子(及可选偏置)来缩放 pre-softmax logits,是温度缩放在每个维度上的推广。",
        term_es = "escalado vectorial",
        term_zh = "向量缩放",
        aliases_es = { "calibración por escalado vectorial", "escalado por clase", "vector scaling" },
        aliases_zh = { "向量缩放校准", "逐类缩放", "vector scaling" },
    }
    
    data["velo"] = {
        short = "A learned optimizer (Versatile Learned Optimizer) trained on thousands of diverse tasks via meta-gradient descent, intended to replace hand-designed optimizers like Adam without per-task hyperparameter tuning.",
        article = nil,
        aliases = { "VeLO", "Versatile Learned Optimizer" },
        es = "Optimizador aprendido (Versatile Learned Optimizer) entrenado en miles de tareas diversas mediante descenso meta-gradiente, diseñado para reemplazar optimizadores diseñados a mano como Adam sin necesidad de ajustar hiperparámetros por tarea.",
        zh = "一种学习型优化器(Versatile Learned Optimizer),通过元梯度下降在数千个多样任务上训练而成,旨在替代Adam等手工设计的优化器并免去逐任务调参。",
        term_es = "VeLO",
        term_zh = "VeLO",
        aliases_es = { "Versatile Learned Optimizer", "optimizador VeLO" },
        aliases_zh = { "通用学习优化器", "Versatile Learned Optimizer" },
    }
    
    data["velocity prediction"] = {
        short = "Diffusion training objective in which the model predicts the velocity v = α_t·ε − σ_t·x₀ at each timestep. Equivalent to v-prediction; preferred for distillation and high-noise regimes.",
        article = nil,
        aliases = { "v-prediction", "v prediction", "velocity parameterization" },
        es = "Objetivo de entrenamiento de difusión en el que el modelo predice la velocidad v = α_t·ε − σ_t·x₀ en cada paso. Equivalente a v-prediction; preferido para destilación y regímenes de ruido alto.",
        zh = "一种扩散训练目标:模型在每个时间步预测速度 v = α_t·ε − σ_t·x₀。等价于 v-prediction,常用于蒸馏和高噪声情形。",
        term_es = "predicción de velocidad",
        term_zh = "速度预测",
        aliases_es = { "v-prediction", "predicción v" },
        aliases_zh = { "v-prediction", "v 预测" },
    }
    
    data["velocyto"] = {
        short = "A computational tool that estimates RNA velocity from single-cell RNA-seq by quantifying spliced versus unspliced transcript counts, predicting near-future cell states for trajectory analysis.",
        article = nil,
        aliases = { "velocyto", "Velocyto", "RNA velocity (velocyto)" },
        es = "Herramienta computacional que estima la velocidad de ARN a partir de RNA-seq de célula única cuantificando transcritos empalmados y no empalmados, prediciendo estados celulares próximos para el análisis de trayectorias.",
        zh = "一种计算工具,通过量化单细胞 RNA-seq 中的剪接与未剪接转录本计数来估计 RNA 速率,从而预测细胞的近期状态以用于轨迹分析。",
        term_es = "velocyto",
        term_zh = "velocyto",
        aliases_es = { "Velocyto" },
        aliases_zh = { "Velocyto", "RNA 速率(velocyto)" },
    }
    
    data["veo"] = {
        short = "Google DeepMind's text-to-video diffusion model that generates high-resolution video clips from natural-language prompts. Released in 2024 as the company's first publicly previewed competitor to Sora.",
        article = nil,
        aliases = { "Veo", "Google Veo", "DeepMind Veo" },
        es = "Modelo de difusión texto-a-vídeo de Google DeepMind que genera clips de vídeo en alta resolución a partir de instrucciones en lenguaje natural. Lanzado en 2024 como su primer competidor previsualizado públicamente frente a Sora.",
        zh = "Google DeepMind 推出的文生视频扩散模型,可根据自然语言提示生成高分辨率视频片段。2024 年发布,是其首个公开预览、对标 Sora 的产品。",
        term_es = "Veo",
        term_zh = "Veo",
        aliases_es = { "Google Veo", "Veo de DeepMind" },
        aliases_zh = { "Veo", "谷歌 Veo" },
    }
    
    data["veo 2"] = {
        short = "Second-generation text-to-video model from Google DeepMind, released in late 2024. Improves on Veo with longer clips, higher fidelity, better physics, and stronger camera-control prompt adherence.",
        article = nil,
        aliases = { "Veo 2", "Veo2", "Google Veo 2" },
        es = "Modelo texto-a-vídeo de segunda generación de Google DeepMind, lanzado a finales de 2024. Mejora a Veo con clips más largos, mayor fidelidad, mejor física y mayor obediencia al prompt en el control de cámara.",
        zh = "Google DeepMind 的第二代文生视频模型,2024 年底发布。相比 Veo,支持更长片段、更高保真度、更佳物理表现以及更精准的运镜提示遵循。",
        term_es = "Veo 2",
        term_zh = "Veo 2",
        aliases_es = { "Google Veo 2", "Veo2" },
        aliases_zh = { "Veo 2", "谷歌 Veo 2" },
    }
    
    data["vep tool"] = {
        short = "Ensembl's Variant Effect Predictor, a software package that annotates the consequences of genetic variants on transcripts, proteins, and regulatory regions across reference assemblies.",
        article = nil,
        aliases = { "VEP", "Ensembl VEP", "Variant Effect Predictor", "Ensembl Variant Effect Predictor" },
        es = "Predictor del Efecto de Variantes de Ensembl, paquete de software que anota las consecuencias de variantes genéticas sobre transcritos, proteínas y regiones reguladoras en distintos ensamblajes de referencia.",
        zh = "Ensembl 的变异效应预测工具(VEP),一款对遗传变异在转录本、蛋白质和调控区域上的影响进行注释的软件包,支持多种参考基因组组装。",
        term_es = "herramienta VEP",
        term_zh = "VEP 工具",
        aliases_es = { "VEP", "Ensembl VEP", "Variant Effect Predictor" },
        aliases_zh = { "VEP", "Ensembl VEP", "变异效应预测工具" },
    }
    
    data["vera finetuning"] = {
        short = "Vector-based Random matrix Adaptation: a parameter-efficient fine-tuning method that freezes a pair of shared random low-rank matrices across all layers and only learns small per-layer scaling vectors, drastically reducing trainable parameters relative to LoRA.",
        article = nil,
        aliases = { "VeRA", "Vector-based Random matrix Adaptation", "VeRA finetuning", "VeRA fine-tuning" },
        es = "Adaptación basada en matrices aleatorias y vectores (VeRA): método de ajuste fino con pocos parámetros que congela un par de matrices aleatorias de bajo rango compartidas entre todas las capas y solo aprende pequeños vectores de escala por capa, reduciendo drásticamente los parámetros entrenables frente a LoRA.",
        zh = "VeRA(基于向量与随机矩阵的适配):一种参数高效微调方法,冻结所有层共享的一对低秩随机矩阵,只学习每层的小规模缩放向量,相比 LoRA 大幅降低可训练参数量。",
        term_es = "ajuste fino VeRA",
        term_zh = "VeRA 微调",
        aliases_es = { "VeRA", "fine-tuning VeRA" },
        aliases_zh = { "VeRA", "VeRA 调优" },
    }
    
    data["verbnet"] = {
        short = "A broad-coverage English verb lexicon organized into hierarchical Levin-style classes, each with shared syntactic frames, thematic roles, and selectional restrictions.",
        article = nil,
        aliases = { "VerbNet", "Verb Net", "VerbNet lexicon" },
        es = "Léxico amplio del verbo inglés organizado en clases jerárquicas al estilo de Levin, cada una con marcos sintácticos, papeles temáticos y restricciones de selección compartidos.",
        zh = "一个覆盖广泛的英语动词词典,按 Levin 式的层级类别组织,每个类共享句法框架、题元角色和选择限制。",
        term_es = "VerbNet",
        term_zh = "VerbNet",
        aliases_es = { "Verb Net", "léxico VerbNet" },
        aliases_zh = { "VerbNet 词库", "动词网" },
    }
    
    data["vertex vizier"] = {
        short = "Google Cloud's managed black-box optimization service on Vertex AI, exposing the Vizier algorithm via REST and gRPC APIs for distributed hyperparameter and experiment tuning.",
        article = nil,
        aliases = { "Vertex AI Vizier", "Vertex Vizier", "Vizier on Vertex AI" },
        es = "Servicio gestionado de optimización de caja negra de Google Cloud sobre Vertex AI, que expone el algoritmo Vizier mediante APIs REST y gRPC para el ajuste distribuido de hiperparámetros y experimentos.",
        zh = "Google Cloud在Vertex AI上提供的托管黑盒优化服务,通过REST和gRPC API暴露Vizier算法,用于分布式超参数和实验调优。",
        term_es = "Vertex Vizier",
        term_zh = "Vertex Vizier",
        aliases_es = { "Vertex AI Vizier", "Vizier en Vertex AI" },
        aliases_zh = { "Vertex AI Vizier", "Vertex AI上的Vizier" },
    }
    
    data["vertical federated learning"] = {
        short = "A federated learning setting in which participants hold different feature columns for an overlapping set of entities and jointly train a model without sharing raw features. Typically combined with private set intersection and secure aggregation or homomorphic encryption.",
        article = nil,
        aliases = { "VFL", "vertical FL", "feature-partitioned federated learning" },
        es = "Configuración de aprendizaje federado en la que los participantes poseen columnas de características distintas para un conjunto de entidades coincidentes y entrenan conjuntamente un modelo sin compartir las características en bruto. Suele combinarse con intersección privada de conjuntos y agregación segura o cifrado homomórfico.",
        zh = "一种联邦学习场景,各参与方对同一组实体持有不同的特征列,并在不共享原始特征的前提下联合训练模型。通常结合隐私集合求交以及安全聚合或同态加密。",
        term_es = "aprendizaje federado vertical",
        term_zh = "纵向联邦学习",
        aliases_es = { "VFL", "FL vertical", "aprendizaje federado particionado por características" },
        aliases_zh = { "VFL", "垂直联邦学习", "按特征划分的联邦学习" },
    }
    
    data["vertically partitioned data"] = {
        short = "A data partitioning scheme in which different parties hold different attributes (columns) for the same set of entities (rows). The complement of horizontally partitioned data and the basis for vertical federated learning.",
        article = nil,
        aliases = { "vertical data partitioning", "feature-partitioned data", "column-partitioned data" },
        es = "Esquema de partición de datos en el que distintas partes poseen distintos atributos (columnas) para el mismo conjunto de entidades (filas). Es el complemento de los datos particionados horizontalmente y la base del aprendizaje federado vertical.",
        zh = "一种数据划分方式:不同参与方对同一组实体(行)持有不同的属性(列)。它是横向划分数据的补充形式,也是纵向联邦学习的基础。",
        term_es = "datos particionados verticalmente",
        term_zh = "纵向划分数据",
        aliases_es = { "partición vertical de datos", "datos particionados por columnas", "datos particionados por características" },
        aliases_zh = { "垂直划分数据", "按特征划分的数据", "按列划分的数据" },
    }
    
    data["vfe"] = {
        short = "Variational free energy: the negative ELBO, equal to the KL divergence to the prior minus the expected log likelihood under the variational posterior. Minimizing VFE is equivalent to maximizing the ELBO in variational inference.",
        article = nil,
        aliases = { "VFE", "variational free energy", "negative ELBO", "free energy" },
        es = "Energía libre variacional: el ELBO negativo, igual a la divergencia KL respecto a la prior menos la log-verosimilitud esperada bajo la posterior variacional. Minimizar la VFE equivale a maximizar la ELBO en inferencia variacional.",
        zh = "变分自由能:即负 ELBO,等于到先验的 KL 散度减去变分后验下的期望对数似然。在变分推断中,最小化 VFE 等价于最大化 ELBO。",
        term_es = "energía libre variacional",
        term_zh = "变分自由能",
        aliases_es = { "VFE", "ELBO negativa", "energía libre", "variational free energy" },
        aliases_zh = { "VFE", "负 ELBO", "自由能", "variational free energy" },
    }
    
    data["vgg"] = {
        short = "A family of convolutional networks introduced by the Visual Geometry Group at Oxford in 2014 that uses very small (3×3) convolution filters stacked into deep architectures (VGG-16, VGG-19).",
        article = nil,
        aliases = { "VGG", "VGGNet", "VGG-16", "VGG16", "VGG-19", "VGG19", "Visual Geometry Group network" },
        es = "Familia de redes convolucionales presentada por el Visual Geometry Group de Oxford en 2014 que utiliza filtros de convolución muy pequeños (3×3) apilados en arquitecturas profundas (VGG-16, VGG-19).",
        zh = "由牛津大学 Visual Geometry Group 于 2014 年提出的卷积网络家族,使用非常小的(3×3)卷积滤波器堆叠形成深层架构(VGG-16、VGG-19)。",
        term_es = "VGG",
        term_zh = "VGG",
        aliases_es = { "VGGNet", "VGG-16", "VGG-19" },
        aliases_zh = { "VGGNet", "VGG-16", "VGG-19" },
    }
    
    data["vggish"] = {
        short = "Audio embedding model from Google with a VGG-style convolutional architecture trained on AudioSet to map 0.96-second log-mel patches to 128-dimensional semantic features, widely reused as a feature extractor.",
        article = nil,
        aliases = { "VGGish", "VGG-ish", "VGGish embeddings" },
        es = "Modelo de embeddings de audio de Google con arquitectura convolucional al estilo VGG entrenado en AudioSet, que mapea fragmentos log-mel de 0,96 s a vectores semánticos de 128 dimensiones; muy usado como extractor de características.",
        zh = "谷歌提出的音频嵌入模型,采用 VGG 风格卷积结构,在 AudioSet 上训练,将 0.96 秒的对数梅尔片段映射为 128 维语义向量,被广泛用作特征提取器。",
        term_es = "VGGish",
        term_zh = "VGGish",
        aliases_es = { "VGGish", "embeddings VGGish" },
        aliases_zh = { "VGGish", "VGGish 嵌入" },
    }
    
    data["vicuna"] = {
        short = "Open-source chatbot released by LMSYS in 2023, fine-tuned from LLaMA on roughly 70k user-shared ChatGPT conversations from ShareGPT. Used as the standard baseline in the early Chatbot Arena and many multimodal LLMs.",
        article = nil,
        aliases = { "Vicuna", "Vicuna-13B", "Vicuna-7B", "LMSYS Vicuna" },
        es = "Chatbot de código abierto lanzado por LMSYS en 2023, ajustado a partir de LLaMA con unas 70k conversaciones de ChatGPT compartidas por usuarios en ShareGPT. Sirvió como base de comparación estándar en los primeros Chatbot Arena y en muchos LLM multimodales.",
        zh = "LMSYS 于 2023 年发布的开源聊天机器人,基于 LLaMA 在 ShareGPT 上约 7 万条用户分享的 ChatGPT 对话进行微调。早期 Chatbot Arena 和众多多模态 LLM 都以其为标准基线。",
        term_es = "Vicuna",
        term_zh = "Vicuna",
        aliases_es = { "Vicuna", "Vicuna-13B" },
        aliases_zh = { "Vicuna", "小羊驼", "Vicuna-13B" },
    }
    
    data["video attribution"] = {
        short = "Attribution methods for video models that identify which frames, spatial regions, or spatio-temporal tubelets most influenced a prediction.",
        article = nil,
        aliases = { "video saliency", "spatio-temporal attribution" },
        es = "Métodos de atribución para modelos de vídeo que identifican qué fotogramas, regiones espaciales o tubos espaciotemporales influyeron más en una predicción.",
        zh = "面向视频模型的归因方法,用于识别哪些帧、空间区域或时空管对某个预测影响最大。",
        term_es = "atribución sobre vídeo",
        term_zh = "视频归因",
        aliases_es = { "saliencia de vídeo", "atribución espacio-temporal" },
        aliases_zh = { "视频显著性", "时空归因" },
    }
    
    data["video captioning"] = {
        short = "A vision-language task that generates a natural-language description summarizing the visual (and sometimes audio) content of a video clip.",
        article = nil,
        aliases = { "video description", "video-to-text", "automatic video captioning" },
        es = "Tarea de visión y lenguaje que genera una descripción en lenguaje natural que resume el contenido visual (y a veces auditivo) de un videoclip.",
        zh = "一项视觉-语言任务,生成自然语言描述以概括视频片段的视觉(有时还包括音频)内容。",
        term_es = "descripción de video",
        term_zh = "视频描述生成",
        aliases_es = { "subtitulado de video", "descripción automática de video", "video-to-text" },
        aliases_zh = { "视频字幕生成", "视频描述", "video captioning" },
    }
    
    data["video chain-of-thought"] = {
        short = "A prompting and training paradigm that elicits step-by-step reasoning over a video, decomposing a question into intermediate temporal and visual reasoning steps before producing the final answer.",
        article = nil,
        aliases = { "Video-CoT", "video CoT", "video chain of thought" },
        es = "Paradigma de indicaciones y entrenamiento que induce razonamiento paso a paso sobre un video, descomponiendo la pregunta en pasos intermedios de razonamiento temporal y visual antes de producir la respuesta final.",
        zh = "一种提示与训练范式,在对视频进行逐步推理时,将问题分解为中间的时间与视觉推理步骤,再得出最终答案。",
        term_es = "cadena de pensamiento sobre video",
        term_zh = "视频思维链",
        aliases_es = { "Video-CoT", "cadena de pensamiento en video", "razonamiento paso a paso en video" },
        aliases_zh = { "Video-CoT", "视频思维链", "视频链式推理" },
    }
    
    data["video chat"] = {
        short = "A class of video-language conversational assistants (e.g. VideoChat, VideoChat2) that combine a vision encoder, a temporal/video adapter, and an LLM backbone to support multi-turn dialogue grounded in a video.",
        article = nil,
        aliases = { "VideoChat", "VideoChat2", "video chat assistant" },
        es = "Clase de asistentes conversacionales de video y lenguaje (p. ej. VideoChat, VideoChat2) que combinan un codificador visual, un adaptador temporal o de video y un LLM como columna vertebral, para sostener diálogos multivuelta anclados en un video.",
        zh = "一类视频-语言对话助手(如 VideoChat、VideoChat2),通过将视觉编码器、时间/视频适配器与 LLM 主干结合,支持基于视频的多轮对话。",
        term_es = "VideoChat",
        term_zh = "VideoChat",
        aliases_es = { "VideoChat", "VideoChat2" },
        aliases_zh = { "VideoChat", "VideoChat2", "视频对话助手" },
    }
    
    data["video diffusion model"] = {
        short = "A diffusion-based generative model that produces video by denoising a tensor with an explicit time axis, typically using temporal attention or 3D convolutions on top of an image diffusion backbone.",
        article = nil,
        aliases = { "VDM", "video diffusion", "video diffusion models" },
        es = "Modelo generativo por difusión que produce vídeo al denoising de un tensor con eje temporal explícito, normalmente añadiendo atención temporal o convoluciones 3D sobre una arquitectura de difusión de imágenes.",
        zh = "基于扩散的生成模型,通过对带显式时间轴的张量去噪来生成视频,通常在图像扩散骨干之上加入时间注意力或 3D 卷积。",
        term_es = "modelo de difusión de vídeo",
        term_zh = "视频扩散模型",
        aliases_es = { "VDM", "modelos de difusión de vídeo" },
        aliases_zh = { "VDM", "视频扩散" },
    }
    
    data["video grounding"] = {
        short = "A task that localizes the temporal segment (start and end times) within an untrimmed video that corresponds to a given natural-language query.",
        article = nil,
        aliases = { "temporal video grounding", "natural language video grounding", "moment retrieval", "video moment localization" },
        es = "Tarea que localiza el segmento temporal (tiempos de inicio y fin) dentro de un video sin recortar que corresponde a una consulta dada en lenguaje natural.",
        zh = "一项任务,在未剪辑的视频中定位与给定自然语言查询相对应的时间片段(起止时间)。",
        term_es = "anclaje temporal en video",
        term_zh = "视频时序定位",
        aliases_es = { "anclaje temporal en video", "localización de momentos en video", "recuperación de momentos" },
        aliases_zh = { "视频时序定位", "视频片段定位", "moment retrieval", "视频时间定位" },
    }
    
    data["video instruction tuning"] = {
        short = "A fine-tuning procedure that aligns video-language models with instruction-following behavior using video-question-answer pairs or video-instruction datasets, analogous to text-only instruction tuning of LLMs.",
        article = nil,
        aliases = { "video instruction-tuning", "video instruction fine-tuning", "video instruction following" },
        es = "Procedimiento de ajuste fino que alinea modelos de video y lenguaje con un comportamiento de seguimiento de instrucciones, usando pares video-pregunta-respuesta o conjuntos de instrucciones sobre video, de manera análoga al instruction tuning de los LLM solo de texto.",
        zh = "一种微调流程,使用视频-问题-答案对或视频指令数据集,使视频-语言模型具备遵循指令的能力,与纯文本 LLM 的指令微调类似。",
        term_es = "ajuste por instrucciones para video",
        term_zh = "视频指令微调",
        aliases_es = { "instruction tuning de video", "ajuste por instrucciones de video", "instruction-tuning de video" },
        aliases_zh = { "视频指令微调", "video instruction tuning" },
    }
    
    data["video question answering"] = {
        short = "A multimodal task in which a model answers natural-language questions about a video clip, drawing on visual and often audio or dialogue evidence and frequently requiring temporal reasoning.",
        article = nil,
        aliases = { "VideoQA", "Video QA", "Video-QA", "video question answering", "video QA" },
        es = "Tarea multimodal en la que un modelo responde preguntas en lenguaje natural sobre un videoclip, apoyándose en evidencia visual y, a menudo, también auditiva o de diálogos, y que con frecuencia exige razonamiento temporal.",
        zh = "一项多模态任务,模型针对视频片段回答自然语言问题,需结合视觉以及通常还有音频或对白证据,常涉及时间推理。",
        term_es = "respuesta a preguntas sobre video",
        term_zh = "视频问答",
        aliases_es = { "VideoQA", "preguntas y respuestas sobre video", "QA sobre video" },
        aliases_zh = { "VideoQA", "视频问答", "视频 QA" },
    }
    
    data["video token"] = {
        short = "A discrete or continuous embedding representing a spatiotemporal patch (or whole frame) of a video, used as the unit of input to a transformer-based video model.",
        article = nil,
        aliases = { "video tokens", "spatiotemporal token", "video patch token", "tubelet token" },
        es = "Embedding discreto o continuo que representa un parche espacio-temporal (o un cuadro entero) de un video, utilizado como unidad de entrada en un modelo de video basado en transformer.",
        zh = "用于基于 Transformer 的视频模型的输入单元,以离散或连续嵌入表示视频中的时空小块(或整帧)。",
        term_es = "token de video",
        term_zh = "视频 token",
        aliases_es = { "token de video", "token espacio-temporal", "tubelet" },
        aliases_zh = { "视频 token", "时空 token", "视频小块 token", "tubelet token" },
    }
    
    data["video-chatgpt"] = {
        short = "A video-conversation multimodal model that pairs a CLIP-based video encoder with a Vicuna LLM through a learned projection, enabling open-ended QA and description over video clips. Introduced by MBZUAI in 2023.",
        article = nil,
        aliases = { "Video-ChatGPT", "VideoChatGPT", "Video ChatGPT" },
        es = "Modelo multimodal de conversación sobre vídeo que combina un codificador de vídeo basado en CLIP con un LLM Vicuna mediante una proyección aprendida, permitiendo preguntas-respuestas y descripciones abiertas sobre clips. Presentado por MBZUAI en 2023.",
        zh = "一种面向视频对话的多模态模型,通过可学习投影将基于 CLIP 的视频编码器与 Vicuna LLM 对接,支持对视频片段的开放式问答与描述。MBZUAI 于 2023 年提出。",
        term_es = "Video-ChatGPT",
        term_zh = "Video-ChatGPT",
        aliases_es = { "Video-ChatGPT", "VideoChatGPT" },
        aliases_zh = { "Video-ChatGPT", "视频 ChatGPT" },
    }
    
    data["video-coca"] = {
        short = "An extension of CoCa (Contrastive Captioner) to video that attends over encoded frame embeddings and is trained with both contrastive video-text alignment and generative video captioning objectives.",
        article = nil,
        aliases = { "VideoCoCa", "Video-CoCa", "Video CoCa" },
        es = "Una extensión de CoCa (Contrastive Captioner) al dominio del video que atiende sobre embeddings de cuadros codificados y se entrena con objetivos contrastivos de alineación video-texto y de subtitulado generativo de video.",
        zh = "CoCa(Contrastive Captioner)向视频领域的扩展,在编码后的帧嵌入上进行注意力计算,并以对比式视频-文本对齐与生成式视频描述这两类目标共同训练。",
        term_es = "VideoCoCa",
        term_zh = "VideoCoCa",
        aliases_es = { "VideoCoCa", "Video-CoCa" },
        aliases_zh = { "VideoCoCa", "Video-CoCa" },
    }
    
    data["video-llama"] = {
        short = "A multimodal LLM that augments LLaMA with a video Q-Former for vision and an audio Q-Former for audio, supporting video understanding and dialogue via instruction tuning on video-text data.",
        article = nil,
        aliases = { "Video-LLaMA", "VideoLLaMA", "Video LLaMA" },
        es = "Un LLM multimodal que extiende LLaMA con un Q-Former de video para la rama visual y un Q-Former de audio para la rama auditiva, habilitando comprensión de video y diálogo mediante ajuste por instrucciones sobre datos de video-texto.",
        zh = "一个多模态 LLM,在 LLaMA 基础上增加用于视觉的视频 Q-Former 和用于音频的音频 Q-Former,通过基于视频-文本数据的指令微调实现视频理解与对话。",
        term_es = "Video-LLaMA",
        term_zh = "Video-LLaMA",
        aliases_es = { "Video-LLaMA", "VideoLLaMA" },
        aliases_zh = { "Video-LLaMA", "VideoLLaMA" },
    }
    
    data["video-llava"] = {
        short = "A multimodal LLM that aligns image and video encoders to a shared embedding space before connecting them to an LLM, enabling unified image-and-video understanding with a single set of projection weights.",
        article = nil,
        aliases = { "Video-LLaVA", "VideoLLaVA", "Video LLaVA" },
        es = "LLM multimodal que alinea codificadores de imagen y vídeo a un espacio de incrustaciones compartido antes de conectarlos a un LLM, logrando comprensión unificada de imagen y vídeo con un único conjunto de pesos de proyección.",
        zh = "一种多模态 LLM,在与 LLM 连接之前先把图像与视频编码器对齐到共享的嵌入空间,从而以同一套投影权重统一处理图像与视频理解。",
        term_es = "Video-LLaVA",
        term_zh = "Video-LLaVA",
        aliases_es = { "Video-LLaVA", "VideoLLaVA" },
        aliases_zh = { "Video-LLaVA", "视频 LLaVA" },
    }
    
    data["video-mme"] = {
        short = "A comprehensive multimodal evaluation benchmark for video LLMs that scores models on short, medium, and long clips across diverse domains and reasoning skills with human-verified multiple-choice questions.",
        article = nil,
        aliases = { "Video-MME", "VideoMME", "Video MME" },
        es = "Benchmark integral de evaluación multimodal para LLM de vídeo que puntúa a los modelos en clips cortos, medianos y largos a través de dominios y habilidades de razonamiento variados, con preguntas de opción múltiple verificadas por humanos.",
        zh = "面向视频 LLM 的综合多模态评测基准,使用经人工核验的多项选择题,对模型在短、中、长片段及多领域、多种推理能力上进行评分。",
        term_es = "Video-MME",
        term_zh = "Video-MME",
        aliases_es = { "Video-MME", "VideoMME" },
        aliases_zh = { "Video-MME", "视频 MME" },
    }
    
    data["video-text retrieval"] = {
        short = "A cross-modal retrieval task that ranks videos given a text query, or text given a video, typically evaluated with Recall@K metrics on benchmarks such as MSR-VTT, DiDeMo, and ActivityNet Captions.",
        article = nil,
        aliases = { "video text retrieval", "text-to-video retrieval", "video-to-text retrieval", "cross-modal video retrieval" },
        es = "Tarea de recuperación cruzada que ordena videos a partir de una consulta de texto, o textos a partir de un video, evaluada normalmente con métricas Recall@K sobre puntos de referencia como MSR-VTT, DiDeMo y ActivityNet Captions.",
        zh = "一种跨模态检索任务,根据文本查询对视频排序,或反之根据视频对文本排序,通常在 MSR-VTT、DiDeMo、ActivityNet Captions 等基准上以 Recall@K 进行评估。",
        term_es = "recuperación video-texto",
        term_zh = "视频-文本检索",
        aliases_es = { "recuperación video-texto", "recuperación de texto a video", "recuperación de video a texto" },
        aliases_zh = { "视频-文本检索", "文本到视频检索", "视频到文本检索", "跨模态视频检索" },
    }
    
    data["videobert"] = {
        short = "A joint video-language model that quantizes video clips into discrete visual tokens and applies BERT-style masked prediction over the concatenation of speech-recognized text and video tokens, trained on large-scale instructional (e.g. cooking) videos.",
        article = nil,
        aliases = { "VideoBERT", "Video-BERT", "Video BERT" },
        es = "Modelo conjunto de video y lenguaje que cuantiza clips de video en tokens visuales discretos y aplica predicción enmascarada al estilo BERT sobre la concatenación de texto reconocido por ASR y los tokens de video, entrenado a gran escala con videos instructivos (p. ej. de cocina).",
        zh = "一种视频-语言联合模型,将视频片段量化为离散的视觉 token,在 ASR 识别文本与视频 token 的拼接序列上进行 BERT 风格的掩码预测,以大规模教学类视频(如烹饪视频)训练。",
        term_es = "VideoBERT",
        term_zh = "VideoBERT",
        aliases_es = { "VideoBERT", "Video-BERT" },
        aliases_zh = { "VideoBERT", "Video-BERT" },
    }
    
    data["videogpt"] = {
        short = "An autoregressive video generation model that learns a discrete latent representation via VQ-VAE and then generates videos with a GPT-style transformer over the latent codes.",
        article = nil,
        aliases = { "VideoGPT", "Video GPT" },
        es = "Modelo autorregresivo de generación de vídeo que aprende una representación latente discreta mediante VQ-VAE y genera vídeos con un transformador estilo GPT sobre los códigos latentes.",
        zh = "一种自回归视频生成模型,通过 VQ-VAE 学习离散潜在表示,然后使用类 GPT 的 Transformer 在潜在码上生成视频。",
        term_es = "VideoGPT",
        term_zh = "VideoGPT",
        aliases_es = { "VideoGPT" },
        aliases_zh = { "VideoGPT" },
    }
    
    data["videoldm"] = {
        short = "Video Latent Diffusion Model; an extension of latent diffusion to video that inserts temporal layers into a pretrained image diffusion model to generate temporally coherent video clips.",
        article = nil,
        aliases = { "VideoLDM", "Video LDM", "Video Latent Diffusion Model", "Video Latent Diffusion" },
        es = "Modelo de difusión latente para vídeo; una extensión de la difusión latente al vídeo que inserta capas temporales en un modelo de difusión de imágenes preentrenado para generar clips coherentes en el tiempo.",
        zh = "视频潜在扩散模型;将潜在扩散扩展到视频的方法,在预训练图像扩散模型中插入时间层以生成时间一致的视频片段。",
        term_es = "VideoLDM",
        term_zh = "VideoLDM",
        aliases_es = { "VideoLDM", "modelo de difusión latente para vídeo" },
        aliases_zh = { "VideoLDM", "视频潜在扩散模型" },
    }
    
    data["videopoet"] = {
        short = "A decoder-only large language model from Google that handles video generation as a multimodal sequence task, mixing tokenized image, video, audio and text inputs to produce video outputs.",
        article = nil,
        aliases = { "VideoPoet", "Video Poet" },
        es = "Modelo de lenguaje grande solo decodificador de Google que aborda la generación de vídeo como una tarea multimodal secuencial, mezclando entradas tokenizadas de imagen, vídeo, audio y texto para producir salidas de vídeo.",
        zh = "Google 提出的仅解码器大语言模型,将视频生成视为多模态序列任务,混合图像、视频、音频与文本的离散化输入以生成视频输出。",
        term_es = "VideoPoet",
        term_zh = "VideoPoet",
        aliases_es = { "VideoPoet" },
        aliases_zh = { "VideoPoet" },
    }
    
    data["vidu"] = {
        short = "A text-to-video diffusion model from Shengshu/Tsinghua based on a U-ViT diffusion backbone, producing high-resolution clips of up to several seconds with strong temporal consistency.",
        article = nil,
        aliases = { "Vidu" },
        es = "Modelo de difusión texto-a-vídeo de Shengshu/Tsinghua basado en una arquitectura U-ViT, capaz de generar clips de alta resolución de varios segundos con buena coherencia temporal.",
        zh = "由生数科技与清华大学提出的文本到视频扩散模型,基于 U-ViT 扩散骨干,可生成数秒时长的高分辨率视频且具备较好的时间一致性。",
        term_es = "Vidu",
        term_zh = "Vidu",
        aliases_es = { "Vidu" },
        aliases_zh = { "Vidu" },
    }
    
    data["vim ood score"] = {
        short = "Virtual-logit Matching: an out-of-distribution detection score that augments standard logits with a virtual logit derived from the residual of the penultimate features against the principal subspace of in-distribution training features.",
        article = nil,
        aliases = { "ViM", "ViM score", "virtual logit matching", "virtual-logit matching" },
        es = "Virtual-logit Matching: puntaje de detección fuera de distribución que aumenta los logits estándar con un logit virtual derivado del residuo de las características penúltimas respecto al subespacio principal de las características de entrenamiento dentro de la distribución.",
        zh = "Virtual-logit Matching:一种分布外检测得分,将标准 logits 与从倒数第二层特征相对于分布内训练特征主子空间的残差中导出的虚拟 logit 相结合。",
        term_es = "puntaje OOD ViM",
        term_zh = "ViM 分布外得分",
        aliases_es = { "ViM", "ViM OOD", "emparejamiento de logit virtual", "virtual-logit matching" },
        aliases_zh = { "ViM", "ViM 得分", "虚拟 logit 匹配", "virtual-logit matching" },
    }
    
    data["vinvl"] = {
        short = "Visual features in Vision-and-Language; a re-trained object-detection backbone (Faster R-CNN with ResNeXt-152) that produces richer region features and notably improves vision-language pretraining.",
        article = nil,
        aliases = { "VinVL", "Visual features in Vision-and-Language" },
        es = "Backbone de detección de objetos reentrenado (Faster R-CNN con ResNeXt-152) que produce características de regiones más ricas y mejora notablemente el preentrenamiento visión-lenguaje.",
        zh = "重新训练的目标检测骨干(基于 ResNeXt-152 的 Faster R-CNN),可生成更丰富的区域特征,并显著提升视觉语言预训练效果。",
        term_es = "VinVL",
        term_zh = "VinVL",
        aliases_es = { "VinVL" },
        aliases_zh = { "VinVL" },
    }
    
    data["viquae"] = {
        short = "A knowledge-based visual question answering benchmark in which questions about a named entity in an image must be answered using an external knowledge base, emphasizing entity linking and retrieval.",
        article = nil,
        aliases = { "ViQuAE", "Visual Question Answering with Entities" },
        es = "Banco de pruebas de respuesta visual a preguntas basado en conocimiento donde las preguntas sobre una entidad nombrada en una imagen deben responderse usando una base de conocimiento externa, con énfasis en enlazado de entidades y recuperación.",
        zh = "一个基于知识的视觉问答基准,需借助外部知识库回答图像中命名实体相关的问题,强调实体链接与检索。",
        term_es = "ViQuAE",
        term_zh = "ViQuAE",
        aliases_es = { "ViQuAE" },
        aliases_zh = { "ViQuAE" },
    }
    
    data["virtual batch norm"] = {
        short = "Normalization that computes statistics on a fixed reference batch shared across training, reducing sample dependence within the current minibatch. Introduced for GAN stability.",
        article = nil,
        aliases = { "Virtual Batch Normalization", "VBN", "virtual batch normalization" },
        es = "Normalización que calcula las estadísticas sobre un batch de referencia fijo compartido durante el entrenamiento, reduciendo la dependencia entre muestras dentro del minibatch actual. Introducida para estabilizar GAN.",
        zh = "在训练中使用固定参考批次计算统计量的归一化方法,可降低当前小批量内样本之间的相互依赖。最初用于稳定 GAN 训练。",
        term_es = "normalización por batch virtual",
        term_zh = "虚拟批归一化",
        aliases_es = { "VBN", "normalización batch virtual" },
        aliases_zh = { "VBN", "虚拟批量归一化", "虚拟批标准化" },
    }
    
    data["virtual screening"] = {
        short = "Computational evaluation of large compound libraries to prioritize candidates likely to bind a target or exhibit desired properties, using docking, pharmacophore matching, or machine-learning predictors.",
        article = nil,
        aliases = { "VS", "in silico screening" },
        es = "Evaluación computacional de grandes bibliotecas de compuestos para priorizar candidatos con probabilidad de unirse a una diana o de presentar propiedades deseadas, utilizando acoplamiento, emparejamiento farmacofórico o predictores de aprendizaje automático.",
        zh = "对大型化合物库进行的计算评估,使用分子对接、药效团匹配或机器学习预测器来优先选择可能与靶标结合或具有所需性质的候选化合物。",
        term_es = "cribado virtual",
        term_zh = "虚拟筛选",
        aliases_es = { "VS", "cribado in silico" },
        aliases_zh = { "VS", "计算机辅助筛选", "in silico 筛选" },
    }
    
    data["visdial"] = {
        short = "Visual Dialog; a benchmark and task in which an agent must hold a multi-turn natural-language conversation about an image, answering follow-up questions grounded in the image and dialogue history.",
        article = nil,
        aliases = { "VisDial", "Visual Dialog", "Visual Dialogue" },
        es = "Diálogo visual; una tarea y banco de pruebas donde un agente mantiene una conversación de varios turnos sobre una imagen, respondiendo preguntas de seguimiento ancladas en la imagen y el historial.",
        zh = "视觉对话;一个任务和基准,要求智能体围绕图像进行多轮自然语言对话,基于图像和对话历史回答后续问题。",
        term_es = "VisDial",
        term_zh = "VisDial",
        aliases_es = { "VisDial", "diálogo visual" },
        aliases_zh = { "VisDial", "视觉对话" },
    }
    
    data["vision transformer"] = {
        short = "A transformer architecture for image classification introduced by Dosovitskiy et al. in 2020 that splits an image into fixed-size patches, linearly embeds them, and processes the resulting sequence with a standard transformer encoder.",
        article = nil,
        aliases = { "ViT", "ViT-B/16", "ViT-L/16", "ViT-H/14", "Vision Transformer" },
        es = "Arquitectura transformer para clasificación de imágenes presentada por Dosovitskiy et al. en 2020 que divide una imagen en parches de tamaño fijo, los proyecta linealmente y procesa la secuencia resultante con un codificador transformer estándar.",
        zh = "由 Dosovitskiy 等人于 2020 年提出的图像分类 Transformer 架构,将图像划分为固定大小的图块、线性嵌入后用标准 Transformer 编码器处理生成的序列。",
        term_es = "vision transformer",
        term_zh = "视觉 Transformer",
        aliases_es = { "ViT", "transformer de visión" },
        aliases_zh = { "ViT", "vision transformer" },
    }
    
    data["visit-bench"] = {
        short = "A benchmark of real-world, instruction-following visual tasks used to evaluate vision-language models on open-ended user queries with human-rated outputs.",
        article = nil,
        aliases = { "VisIT-Bench", "VisIT Bench", "Visual Instruction Benchmark" },
        es = "Banco de pruebas de tareas visuales reales de seguimiento de instrucciones, usado para evaluar modelos visión-lenguaje en consultas abiertas de usuario con puntuaciones humanas.",
        zh = "一个由真实世界的指令跟随视觉任务组成的基准,用于在开放式用户查询上以人工评分评估视觉语言模型。",
        term_es = "VisIT-Bench",
        term_zh = "VisIT-Bench",
        aliases_es = { "VisIT-Bench" },
        aliases_zh = { "VisIT-Bench" },
    }
    
    data["visium"] = {
        short = "A 10x Genomics spatial transcriptomics platform that captures whole-transcriptome RNA from tissue sections placed on barcoded slide spots (~55 μm), preserving spatial coordinates of gene expression.",
        article = nil,
        aliases = { "Visium", "10x Visium", "Visium spatial transcriptomics" },
        es = "Plataforma de transcriptómica espacial de 10x Genomics que captura ARN del transcriptoma completo a partir de secciones de tejido colocadas en puntos con códigos de barras (~55 μm) en un portaobjetos, preservando las coordenadas espaciales de la expresión génica.",
        zh = "10x Genomics 推出的空间转录组学平台,将组织切片置于带有条形码的载玻片点(约 55 μm)上捕获全转录组 RNA,从而保留基因表达的空间坐标。",
        term_es = "Visium",
        term_zh = "Visium",
        aliases_es = { "10x Visium", "transcriptómica espacial Visium" },
        aliases_zh = { "10x Visium", "Visium 空间转录组" },
    }
    
    data["visnet"] = {
        short = "An equivariant graph neural network for molecular property prediction that combines vector and scalar features with geometry-aware message passing to model 3D molecular structures efficiently.",
        article = nil,
        aliases = { "ViSNet" },
        es = "Red neuronal de grafos equivariante para la predicción de propiedades moleculares que combina características vectoriales y escalares con paso de mensajes consciente de la geometría para modelar eficientemente estructuras moleculares 3D.",
        zh = "一种用于分子性质预测的等变图神经网络,将向量与标量特征与几何感知的消息传递相结合,以高效建模三维分子结构。",
        term_es = "ViSNet",
        term_zh = "ViSNet",
        aliases_es = { "red ViSNet" },
        aliases_zh = { "ViSNet 模型", "ViSNet 网络" },
    }
    
    data["vist"] = {
        short = "Visual Storytelling; a dataset and task in which an ordered sequence of images must be described with a coherent narrative rather than independent captions, requiring temporal and discourse modeling.",
        article = nil,
        aliases = { "VIST", "Visual Storytelling Dataset" },
        es = "Narración visual; un conjunto de datos y tarea donde una secuencia ordenada de imágenes debe describirse con una narrativa coherente en lugar de subtítulos independientes, lo que requiere modelar tiempo y discurso.",
        zh = "视觉叙事;一个数据集和任务,要求为有序的图像序列生成连贯叙述而非独立字幕,需要建模时间与话语关系。",
        term_es = "VIST",
        term_zh = "VIST",
        aliases_es = { "VIST", "narración visual" },
        aliases_zh = { "VIST", "视觉叙事" },
    }
    
    data["visual abstractor"] = {
        short = "A learnable module that maps a long sequence of dense visual features into a small set of summary tokens for a language model, used in vision-language architectures such as mPLUG-Owl.",
        article = nil,
        aliases = { "Visual Abstractor", "visual abstraction module" },
        es = "Módulo aprendible que mapea una larga secuencia de características visuales densas en un conjunto reducido de tokens resumidos para un modelo de lenguaje; usado en arquitecturas visión-lenguaje como mPLUG-Owl.",
        zh = "一种可学习模块,将密集视觉特征的长序列映射为少量摘要 token 输入语言模型,用于 mPLUG-Owl 等视觉语言架构。",
        term_es = "abstractor visual",
        term_zh = "视觉抽象器",
        aliases_es = { "abstractor visual", "visual abstractor" },
        aliases_zh = { "视觉抽象器", "visual abstractor" },
    }
    
    data["visual agent"] = {
        short = "An agent that perceives images or video, reasons over them with a multimodal model, and takes actions such as calling tools, navigating a GUI, or operating in a simulated environment.",
        article = nil,
        aliases = { "Visual Agent", "vision agent", "multimodal agent" },
        es = "Agente que percibe imágenes o vídeo, razona sobre ellos con un modelo multimodal y ejecuta acciones como invocar herramientas, navegar una GUI u operar en un entorno simulado.",
        zh = "一类能够感知图像或视频、利用多模态模型进行推理并执行调用工具、操作 GUI 或在仿真环境中行动的智能体。",
        term_es = "agente visual",
        term_zh = "视觉智能体",
        aliases_es = { "agente visual", "agente multimodal" },
        aliases_zh = { "视觉智能体", "多模态智能体" },
    }
    
    data["visual analogy reasoning"] = {
        short = "The task of completing image-based analogies of the form A:B::C:?, often evaluated on Raven's Progressive Matrices, requiring abstract pattern induction over visual attributes and relations.",
        article = nil,
        aliases = { "visual analogical reasoning", "visual analogy", "image analogy reasoning" },
        es = "Tarea de completar analogías basadas en imágenes de la forma A:B::C:?, evaluada con frecuencia en las Matrices Progresivas de Raven, que requiere inducir patrones abstractos sobre atributos y relaciones visuales.",
        zh = "完成形如 A:B::C:? 的视觉类比任务,常使用 Raven 渐进矩阵进行评测,需要对视觉属性与关系进行抽象的模式归纳。",
        term_es = "razonamiento por analogía visual",
        term_zh = "视觉类比推理",
        aliases_es = { "razonamiento analógico visual", "analogía visual" },
        aliases_zh = { "视觉类比", "图像类比推理" },
    }
    
    data["visual autoregressive modeling"] = {
        short = "An image generation paradigm (VAR) that replaces next-token prediction with next-scale prediction: the model autoregressively generates a coarse-to-fine pyramid of token maps, achieving strong scaling and matching diffusion quality on ImageNet.",
        article = nil,
        aliases = { "VAR", "next-scale prediction", "visual autoregressive model", "Visual AutoRegressive" },
        es = "Paradigma de generación de imágenes (VAR) que sustituye la predicción del siguiente token por la predicción de la siguiente escala: el modelo genera autoregresivamente una pirámide de mapas de tokens de gruesos a finos, logrando un buen escalado y igualando la calidad de la difusión en ImageNet.",
        zh = "一种图像生成范式(VAR),用“下一尺度预测”取代“下一令牌预测”:模型按从粗到细的金字塔自回归生成多尺度令牌图,规模化效果良好,在 ImageNet 上可与扩散模型媲美。",
        term_es = "modelado autoregresivo visual",
        term_zh = "视觉自回归建模",
        aliases_es = { "VAR", "predicción de siguiente escala" },
        aliases_zh = { "VAR", "下一尺度预测", "视觉自回归模型" },
    }
    
    data["visual chain-of-thought"] = {
        short = "A multimodal reasoning technique in which a model produces intermediate visual or visually grounded steps (sketches, region selections, image edits) along with text rationales before giving a final answer.",
        article = nil,
        aliases = { "Visual Chain-of-Thought", "Visual CoT", "VCoT", "visual chain of thought" },
        es = "Técnica de razonamiento multimodal en la que un modelo produce pasos intermedios visuales o anclados a la imagen (bocetos, selección de regiones, ediciones) junto con explicaciones textuales antes de la respuesta final.",
        zh = "一种多模态推理技术,模型在给出最终答案之前生成中间的视觉步骤或视觉锚定步骤(草图、区域选择、图像编辑)以及文本解释。",
        term_es = "cadena de pensamiento visual",
        term_zh = "视觉思维链",
        aliases_es = { "cadena de pensamiento visual", "CoT visual", "visual chain-of-thought" },
        aliases_zh = { "视觉思维链", "Visual CoT" },
    }
    
    data["visual cls token"] = {
        short = "A learnable [CLS] token prepended to the patch sequence of a Vision Transformer; its final-layer representation is used as a global image embedding for classification or downstream tasks.",
        article = nil,
        aliases = { "visual CLS token", "image CLS token", "[CLS] token (vision)", "ViT CLS token" },
        es = "Token [CLS] aprendible que se antepone a la secuencia de parches de un Vision Transformer; su representación en la última capa se utiliza como un embedding global de la imagen para clasificación u otras tareas.",
        zh = "在 Vision Transformer 的图像块序列前添加的可学习 [CLS] token,其最后一层表示用作整张图像的全局嵌入,用于分类等下游任务。",
        term_es = "token CLS visual",
        term_zh = "视觉 CLS token",
        aliases_es = { "token CLS visual", "token [CLS] de imagen" },
        aliases_zh = { "视觉 CLS token", "图像 CLS token" },
    }
    
    data["visual commonsense reasoning"] = {
        short = "A task and benchmark (VCR) requiring a model to answer multiple-choice questions about an image and to also justify the answer with a correct rationale, testing visual and commonsense inference.",
        article = nil,
        aliases = { "VCR", "Visual Commonsense Reasoning" },
        es = "Tarea y banco de pruebas (VCR) que exige a un modelo responder preguntas de opción múltiple sobre una imagen y además justificar la respuesta con una explicación correcta, evaluando inferencia visual y de sentido común.",
        zh = "视觉常识推理(VCR);要求模型对图像回答多项选择题并给出正确理由的任务与基准,用于评估视觉与常识推理能力。",
        term_es = "razonamiento visual de sentido común",
        term_zh = "视觉常识推理",
        aliases_es = { "VCR", "razonamiento visual de sentido común" },
        aliases_zh = { "VCR", "视觉常识推理" },
    }
    
    data["visual dialogue"] = {
        short = "A task in which an AI agent must hold a coherent multi-turn conversation about a given image, answering follow-up questions that depend on both visual content and dialogue history.",
        article = nil,
        aliases = { "Visual Dialogue", "Visual Dialog", "VisDial" },
        es = "Tarea en la que un agente debe mantener una conversación coherente de varios turnos sobre una imagen, respondiendo preguntas de seguimiento que dependen del contenido visual y del historial del diálogo.",
        zh = "一个任务,要求 AI 智能体围绕给定图像进行连贯的多轮对话,回答依赖图像内容与对话历史的后续问题。",
        term_es = "diálogo visual",
        term_zh = "视觉对话",
        aliases_es = { "diálogo visual", "VisDial" },
        aliases_zh = { "视觉对话", "VisDial" },
    }
    
    data["visual entailment"] = {
        short = "A task that classifies whether the content of an image entails, contradicts, or is neutral with respect to a natural-language hypothesis; the SNLI-VE dataset is the standard benchmark.",
        article = nil,
        aliases = { "Visual Entailment", "VE", "SNLI-VE" },
        es = "Tarea que clasifica si el contenido de una imagen implica, contradice o es neutral respecto a una hipótesis en lenguaje natural; el conjunto de datos SNLI-VE es el banco de pruebas estándar.",
        zh = "视觉蕴含;判断图像内容相对于自然语言假设是蕴含、矛盾还是中立的任务,标准基准为 SNLI-VE。",
        term_es = "implicación visual",
        term_zh = "视觉蕴含",
        aliases_es = { "implicación visual", "entailment visual", "SNLI-VE" },
        aliases_zh = { "视觉蕴含", "SNLI-VE" },
    }
    
    data["visual feedback"] = {
        short = "A training or inference signal in which images, image-conditioned scores, or vision-language model judgments are used as the reward or correction signal, typically for reinforcement learning or iterative refinement.",
        article = nil,
        aliases = { "Visual Feedback", "image feedback", "vision-based feedback" },
        es = "Señal de entrenamiento o inferencia en la que imágenes, puntuaciones condicionadas a imágenes o juicios de un modelo visión-lenguaje se utilizan como recompensa o señal de corrección, normalmente en aprendizaje por refuerzo o refinamiento iterativo.",
        zh = "一种训练或推理信号,使用图像、基于图像的评分或视觉语言模型的判断作为奖励或纠错信号,常用于强化学习或迭代优化。",
        term_es = "retroalimentación visual",
        term_zh = "视觉反馈",
        aliases_es = { "retroalimentación visual", "feedback visual" },
        aliases_zh = { "视觉反馈", "图像反馈" },
    }
    
    data["visual grounding"] = {
        short = "The task of localizing the image region referred to by a natural-language expression, producing a bounding box or mask aligned with the textual referent.",
        article = nil,
        aliases = { "visual grounding", "referring expression grounding", "phrase grounding", "language grounding in images" },
        es = "Tarea de localizar la región de una imagen referida por una expresión en lenguaje natural, produciendo una caja delimitadora o máscara alineada con el referente textual.",
        zh = "将自然语言表达所指代的图像区域定位出来的任务,输出与文本指代物对齐的边界框或掩膜。",
        term_es = "anclaje visual",
        term_zh = "视觉指代定位",
        aliases_es = { "visual grounding", "anclaje de expresiones referenciales", "grounding visual" },
        aliases_zh = { "视觉定位", "指代表达定位", "短语定位" },
    }
    
    data["visual instruction tuning"] = {
        short = "Instruction tuning of a vision-language model on (image, instruction, response) triples — popularized by LLaVA — to align a pretrained multimodal backbone with chat-style image-grounded user requests.",
        article = nil,
        aliases = { "Visual Instruction Tuning", "VIT (instruction)", "vision instruction tuning", "multimodal instruction tuning" },
        es = "Ajuste por instrucciones de un modelo visión-lenguaje sobre tripletas (imagen, instrucción, respuesta) — popularizado por LLaVA — para alinear un backbone multimodal preentrenado con peticiones tipo chat ancladas a imágenes.",
        zh = "对视觉语言模型在(图像,指令,回答)三元组上进行指令微调(由 LLaVA 推广),使预训练多模态主干与图像锚定的对话式用户请求对齐。",
        term_es = "ajuste por instrucciones visual",
        term_zh = "视觉指令微调",
        aliases_es = { "ajuste por instrucciones visual", "instruction tuning visual" },
        aliases_zh = { "视觉指令微调", "多模态指令微调" },
    }
    
    data["visual jailbreak"] = {
        short = "An attack on a vision-language model that uses adversarial or crafted images (e.g. with hidden text or steganographic prompts) to bypass safety filters that would block the equivalent text-only request.",
        article = nil,
        aliases = { "Visual Jailbreak", "image jailbreak", "multimodal jailbreak", "vision jailbreak" },
        es = "Ataque sobre un modelo visión-lenguaje que utiliza imágenes adversariales o construidas (p. ej. con texto oculto o prompts esteganográficos) para eludir filtros de seguridad que bloquearían el equivalente solo en texto.",
        zh = "针对视觉语言模型的越狱攻击,通过对抗性或精心构造的图像(例如含隐藏文本或隐写提示)绕过安全过滤,以提交在纯文本下会被拦截的请求。",
        term_es = "jailbreak visual",
        term_zh = "视觉越狱",
        aliases_es = { "jailbreak visual", "jailbreak multimodal" },
        aliases_zh = { "视觉越狱", "多模态越狱" },
    }
    
    data["visual prefix tuning"] = {
        short = "A parameter-efficient adaptation method for vision-language models that prepends a small set of learned visual prefix tokens to the model input, leaving the backbone weights frozen.",
        article = nil,
        aliases = { "Visual Prefix Tuning", "vision prefix tuning" },
        es = "Método de adaptación eficiente en parámetros para modelos visión-lenguaje que antepone un pequeño conjunto de tokens de prefijo visuales aprendidos a la entrada del modelo, manteniendo los pesos del backbone congelados.",
        zh = "一种用于视觉语言模型的参数高效适配方法,在模型输入前添加少量可学习的视觉前缀 token,主干权重保持冻结。",
        term_es = "ajuste por prefijo visual",
        term_zh = "视觉前缀微调",
        aliases_es = { "ajuste por prefijo visual", "prefix tuning visual" },
        aliases_zh = { "视觉前缀微调", "视觉前缀调优" },
    }
    
    data["visual prompt"] = {
        short = "An input modification applied directly in the visual domain — such as colored boxes, arrows, masks, or learned pixel patches — used to steer a vision or vision-language model toward a desired behavior.",
        article = nil,
        aliases = { "Visual Prompt", "image prompt", "vision prompt" },
        es = "Modificación de la entrada aplicada directamente en el dominio visual — como cajas de colores, flechas, máscaras o parches de píxeles aprendidos — para dirigir un modelo de visión o visión-lenguaje hacia un comportamiento deseado.",
        zh = "直接施加在视觉域上的输入修改(如彩色框、箭头、掩码或学习到的像素补丁),用于引导视觉或视觉语言模型表现出特定行为。",
        term_es = "prompt visual",
        term_zh = "视觉提示",
        aliases_es = { "prompt visual", "indicación visual" },
        aliases_zh = { "视觉提示", "图像提示" },
    }
    
    data["visual prompt generator"] = {
        short = "A learned module — typically a small network or a Q-Former — that converts visual features into a sequence of soft prompt tokens consumable by a frozen language model.",
        article = nil,
        aliases = { "Visual Prompt Generator", "VPG" },
        es = "Módulo aprendido — normalmente una red pequeña o un Q-Former — que convierte características visuales en una secuencia de tokens de prompt suaves consumibles por un modelo de lenguaje congelado.",
        zh = "一种可学习模块(通常是小型网络或 Q-Former),将视觉特征转换为软提示 token 序列,供冻结的语言模型使用。",
        term_es = "generador de prompts visuales",
        term_zh = "视觉提示生成器",
        aliases_es = { "generador de prompts visuales", "VPG" },
        aliases_zh = { "视觉提示生成器", "VPG" },
    }
    
    return data