Module:Glossary/data 2
Documentation for this module may be created at Module:Glossary/data 2/doc
local data = {}
data["description logic"] = {
short = "A family of formal knowledge representation logics that are decidable fragments of first-order logic, used to model concepts, roles, and individuals; foundation of OWL and the Semantic Web.",
article = nil,
aliases = { "DL", "description logics", "DLs" },
es = "Familia de lógicas formales de representación del conocimiento, fragmentos decidibles de la lógica de primer orden, usadas para modelar conceptos, roles e individuos; base de OWL y de la Web Semántica.",
zh = "一类用于知识表示的形式化逻辑,是一阶逻辑的可判定片段,用于建模概念、角色和个体;OWL和语义网的理论基础。",
term_es = "lógica de descripción",
term_zh = "描述逻辑",
aliases_es = { "DL", "lógicas de descripción", "lógicas descriptivas" },
aliases_zh = { "DL", "描述逻辑(DL)" },
}
data["description logic reasoner"] = {
short = "An automated inference engine that performs reasoning tasks (subsumption, classification, consistency, instance checking) over description logic knowledge bases, including OWL ontologies; examples include HermiT, Pellet, and FaCT++.",
article = nil,
aliases = { "DL reasoner", "description-logic reasoner", "OWL reasoner", "ontology reasoner" },
es = "Motor de inferencia automatizado que realiza tareas de razonamiento (subsunción, clasificación, consistencia, verificación de instancias) sobre bases de conocimiento en lógica de descripción, incluyendo ontologías OWL; ejemplos: HermiT, Pellet y FaCT++.",
zh = "一种自动推理引擎,对描述逻辑知识库(包括OWL本体)执行推理任务(包含关系判定、分类、一致性、实例判定);例如HermiT、Pellet和FaCT++。",
term_es = "razonador de lógica de descripción",
term_zh = "描述逻辑推理机",
aliases_es = { "razonador DL", "razonador OWL", "razonador de ontologías" },
aliases_zh = { "DL推理机", "OWL推理机", "本体推理机" },
}
data["deseq2"] = {
short = "An R/Bioconductor package for differential expression analysis of count-based RNA-seq data, using a negative binomial generalized linear model with shrinkage estimation for dispersion and fold change.",
article = nil,
aliases = { "DESeq2", "DESeq 2" },
es = "Paquete de R/Bioconductor para el análisis de expresión diferencial en datos de RNA-seq basados en conteos, que utiliza un modelo lineal generalizado binomial negativo con estimación por contracción para la dispersión y el cambio de expresión.",
zh = "一个 R/Bioconductor 软件包,用于基于计数的 RNA-seq 数据差异表达分析,采用负二项广义线性模型,并对离散度和表达倍数变化进行收缩估计。",
term_es = "DESeq2",
term_zh = "DESeq2",
aliases_es = { "DESeq2" },
aliases_zh = { "DESeq2" },
}
data["design space exploration"] = {
short = "The systematic enumeration and evaluation of candidate designs across a parameterized space of architectural and hyperparameter choices, often subject to multi-objective trade-offs such as accuracy versus latency.",
article = nil,
aliases = { "DSE", "design-space exploration" },
es = "Enumeración y evaluación sistemática de diseños candidatos sobre un espacio parametrizado de elecciones arquitectónicas y de hiperparámetros, frecuentemente sujetos a compromisos multiobjetivo como precisión frente a latencia.",
zh = "在由架构和超参数选择构成的参数化空间中,对候选设计进行系统枚举和评估的过程,通常需要在精度与延迟等多目标之间权衡。",
term_es = "exploración del espacio de diseño",
term_zh = "设计空间探索",
aliases_es = { "exploración de espacio de diseño", "DSE" },
aliases_zh = { "设计空间搜索", "DSE" },
}
data["desirability function"] = {
short = "A scalar transformation that maps a raw property value (e.g. logP, solubility, potency) onto a [0, 1] score reflecting how desirable that value is. Multiple desirability scores are combined (typically as a geometric mean) into a single objective for multi-property optimization.",
article = nil,
aliases = { "Derringer desirability", "desirability index", "Harrington desirability" },
es = "Transformación escalar que asigna a un valor de propiedad bruto (p. ej. logP, solubilidad, potencia) una puntuación en [0, 1] que refleja cuán deseable es ese valor. Varias puntuaciones se combinan (habitualmente como media geométrica) en un objetivo único para optimización multiobjetivo.",
zh = "将原始属性值(如 logP、溶解度、活性)映射到 [0, 1] 区间的标量变换,用以表示该值的期望程度。多个可取性分数通常以几何平均合并为单一目标,用于多属性优化。",
term_es = "función de deseabilidad",
term_zh = "可取性函数",
aliases_es = { "índice de deseabilidad", "deseabilidad de Derringer" },
aliases_zh = { "期望函数", "Derringer 可取性", "desirability 函数" },
}
data["detection bias"] = {
short = "Systematic error arising when the probability of observing or recording an outcome differs across groups; for example, when offenses are policed more heavily in certain neighborhoods, leading to inflated label rates for those populations.",
article = nil,
aliases = { "ascertainment bias", "diagnostic bias", "observation bias" },
es = "Error sistemático que aparece cuando la probabilidad de observar o registrar un resultado difiere entre grupos; por ejemplo, cuando los delitos se vigilan más en ciertos barrios, lo que infla las tasas de etiquetado para esas poblaciones.",
zh = "当不同群体之间观察或记录某一结果的概率存在差异时产生的系统误差;例如某些社区受到更密集的执法巡查,导致这些人群的标签率被高估。",
term_es = "sesgo de detección",
term_zh = "检测偏差",
aliases_es = { "sesgo de observación", "sesgo de constatación", "sesgo diagnóstico" },
aliases_zh = { "检出偏差", "观察偏差", "诊断偏差", "确认偏差" },
}
data["detection cost function"] = {
short = "A weighted combination of miss and false-alarm probabilities used in NIST speaker and language recognition evaluations, parameterized by prior and cost factors. The minimum DCF over the operating-point threshold serves as the primary metric.",
article = nil,
aliases = { "DCF", "minDCF", "minimum detection cost function", "NIST DCF" },
es = "Combinación ponderada de probabilidades de fallo y falsa alarma utilizada en las evaluaciones NIST de reconocimiento de hablante y de lenguaje, parametrizada por factores de coste y prior. El minDCF sobre el umbral del punto de operación es la métrica principal.",
zh = "NIST 说话人和语种识别评测中使用的代价函数:以先验概率和代价因子加权漏检率与误警率组合而成。在操作阈值上取得的最小 DCF(minDCF)作为主要指标。",
term_es = "función de coste de detección",
term_zh = "检测代价函数",
aliases_es = { "DCF", "minDCF", "DCF mínimo", "función de coste de detección NIST" },
aliases_zh = { "DCF", "minDCF", "最小检测代价函数", "NIST 检测代价函数" },
}
data["detection error tradeoff"] = {
short = "A diagnostic plot of false-alarm rate against miss rate (typically on a normal-deviate scale) used to visualize the operating characteristics of speaker, language, and biometric detection systems. Often reported alongside DCF and EER.",
article = nil,
aliases = { "DET curve", "DET plot", "detection error tradeoff curve" },
es = "Gráfica diagnóstica que representa la tasa de falsa alarma frente a la tasa de fallo (típicamente en escala normal-desviada) para visualizar el comportamiento operativo de sistemas de detección de hablante, lengua o biometría. Suele acompañarse de DCF y EER.",
zh = "用于可视化说话人、语种和生物特征检测系统工作特性的诊断曲线:将误警率与漏检率(通常采用正态偏差刻度)相对绘制。通常与 DCF 和 EER 一同报告。",
term_es = "curva DET",
term_zh = "检测错误权衡曲线",
aliases_es = { "DET", "gráfica DET", "curva de tradeoff de errores de detección" },
aliases_zh = { "DET 曲线", "DET 图", "检测错误折衷曲线" },
}
data["detection nas"] = {
short = "Neural architecture search applied to object detection, jointly optimizing backbone, neck, and/or head modules under detection metrics such as mean average precision.",
article = nil,
aliases = { "NAS for object detection", "object detection NAS", "NAS-detection" },
es = "Búsqueda de arquitecturas neuronales aplicada a la detección de objetos, optimizando conjuntamente módulos de backbone, neck y head bajo métricas de detección como el mean average precision.",
zh = "应用于目标检测的神经架构搜索,在 mAP 等检测指标下联合优化骨干网络、颈部模块以及检测头。",
term_es = "NAS para detección",
term_zh = "检测 NAS",
aliases_es = { "NAS para detección de objetos", "búsqueda de arquitecturas para detección" },
aliases_zh = { "目标检测 NAS", "面向检测的 NAS" },
}
data["determinant"] = {
short = "A scalar function of a square matrix that equals the signed volume scaling factor of its associated linear map. Zero exactly when the matrix is singular; multiplicative under matrix multiplication: det(AB) = det(A)·det(B).",
article = nil,
aliases = { "matrix determinant", "det", "det(A)", "|A|" },
es = "Función escalar de una matriz cuadrada que equivale al factor de escalado de volumen con signo de su aplicación lineal asociada. Es cero exactamente cuando la matriz es singular; es multiplicativa bajo la multiplicación de matrices: det(AB) = det(A)·det(B).",
zh = "方阵的标量函数,等于其对应线性映射的有符号体积缩放因子。当且仅当矩阵奇异时为零;在矩阵乘法下具有乘性:det(AB) = det(A)·det(B)。",
term_es = "determinante",
term_zh = "行列式",
aliases_es = { "det", "determinante de una matriz" },
aliases_zh = { "矩阵行列式", "det" },
}
data["determined ai"] = {
short = "An open-source deep learning training platform offering distributed training, experiment tracking, and built-in hyperparameter search (including ASHA and adaptive methods); the company was acquired by Hewlett Packard Enterprise in 2021.",
article = nil,
aliases = { "Determined AI", "Determined", "determined.ai" },
es = "Plataforma de entrenamiento de aprendizaje profundo de código abierto que ofrece entrenamiento distribuido, seguimiento de experimentos y búsqueda de hiperparámetros integrada (incluyendo ASHA y métodos adaptativos); la empresa fue adquirida por Hewlett Packard Enterprise en 2021.",
zh = "一个开源深度学习训练平台,提供分布式训练、实验跟踪以及内置的超参数搜索(包括 ASHA 与自适应方法);该公司于 2021 年被 Hewlett Packard Enterprise 收购。",
term_es = "Determined AI",
term_zh = "Determined AI",
aliases_es = { "Determined", "determined.ai" },
aliases_zh = { "Determined", "determined.ai" },
}
data["deterministic policy"] = {
short = "A policy that maps each state to a single action, π(s) = a, with no randomness. Often used in continuous-control algorithms such as DDPG and TD3, sometimes paired with exploration noise during training.",
article = nil,
aliases = { "deterministic policies" },
es = "Política que asigna a cada estado una única acción, π(s) = a, sin aleatoriedad. Se utiliza con frecuencia en algoritmos de control continuo como DDPG y TD3, a veces combinada con ruido de exploración durante el entrenamiento.",
zh = "将每个状态映射到单一动作的策略,π(s) = a,不含随机性。常用于诸如 DDPG 和 TD3 之类的连续控制算法,训练时有时配合探索噪声使用。",
term_es = "política determinista",
term_zh = "确定性策略",
aliases_es = { "políticas deterministas" },
aliases_zh = { "deterministic policy" },
}
data["deterministic policy gradient"] = {
short = "A policy-gradient framework for continuous-action reinforcement learning in which the policy is a deterministic function of state and the gradient is taken through the action-value function, leading to algorithms such as DPG and DDPG.",
article = nil,
aliases = { "DPG", "deterministic policy gradient theorem", "DPG theorem" },
es = "Marco de gradiente de política para aprendizaje por refuerzo con acciones continuas en el que la política es una función determinista del estado y el gradiente se toma a través de la función de valor-acción, dando lugar a algoritmos como DPG y DDPG.",
zh = "一种用于连续动作强化学习的策略梯度框架,其策略是状态的确定性函数,梯度通过动作-值函数传递,进而衍生出 DPG 和 DDPG 等算法。",
term_es = "gradiente de política determinista",
term_zh = "确定性策略梯度",
aliases_es = { "DPG", "teorema del gradiente de política determinista" },
aliases_zh = { "DPG", "deterministic policy gradient" },
}
data["deterministic uncertainty quantification"] = {
short = "A single-forward-pass uncertainty method that replaces the softmax output with RBF distances to learned class centroids, regularized by a two-sided gradient penalty for sensitivity to inputs.",
article = nil,
aliases = { "DUQ", "deterministic uncertainty estimation" },
es = "Método de incertidumbre en una sola pasada hacia adelante que sustituye la salida softmax por distancias RBF a centroides de clase aprendidos, regularizado por una penalización de gradiente bilateral para asegurar sensibilidad a las entradas.",
zh = "单次前向传递的不确定性方法,将 softmax 输出替换为到所学类别中心的 RBF 距离,并通过双边梯度惩罚正则化以保证对输入的敏感性。",
term_es = "cuantificación determinista de incertidumbre",
term_zh = "确定性不确定性量化",
aliases_es = { "DUQ", "estimación determinista de incertidumbre" },
aliases_zh = { "DUQ", "确定性不确定性估计" },
}
data["detnas"] = {
short = "DetNAS: a NAS framework for object detection that trains a one-shot detection supernet on a search space of backbone candidates and selects sub-networks via evolutionary search guided by detection accuracy (Chen et al., 2019).",
article = nil,
aliases = { "DetNAS", "Det-NAS", "DetNAS NAS" },
es = "DetNAS: marco de NAS para detección de objetos que entrena una super-red de detección one-shot sobre un espacio de búsqueda de backbones candidatos y selecciona subredes mediante búsqueda evolutiva guiada por la precisión de detección (Chen et al., 2019).",
zh = "DetNAS:一种面向目标检测的 NAS 框架,在候选骨干网络的搜索空间上训练一次性检测超网络,并通过以检测精度为导向的进化搜索来选择子网(Chen 等,2019)。",
term_es = "DetNAS",
term_zh = "DetNAS",
aliases_es = { "Det-NAS" },
aliases_zh = { "Det-NAS" },
}
data["detr"] = {
short = "Detection Transformer — an end-to-end object detector introduced by Carion et al. in 2020 that uses a transformer encoder-decoder over CNN features and a set-prediction loss based on bipartite matching, eliminating the need for anchors and non-maximum suppression.",
article = nil,
aliases = { "DETR", "Detection Transformer", "Detection with Transformers" },
es = "Detection Transformer — detector de objetos de extremo a extremo presentado por Carion et al. en 2020 que utiliza un codificador-decodificador transformer sobre características CNN y una pérdida de predicción de conjuntos basada en correspondencia bipartita, eliminando la necesidad de anclas y supresión de no máximos.",
zh = "Detection Transformer——由 Carion 等人于 2020 年提出的端到端目标检测器,在 CNN 特征上使用 Transformer 编码器-解码器,并采用基于二部匹配的集合预测损失,无需锚框和非极大值抑制。",
term_es = "DETR",
term_zh = "DETR",
aliases_es = { "Detection Transformer", "transformer de detección" },
aliases_zh = { "Detection Transformer", "检测 Transformer" },
}
data["device heterogeneity"] = {
short = "In federated and edge learning, the condition that participating clients have widely varying compute capabilities, memory, energy budgets, and network bandwidth, which complicates synchronization and fairness across rounds.",
article = nil,
aliases = { "system heterogeneity", "systems heterogeneity", "hardware heterogeneity", "client heterogeneity" },
es = "En aprendizaje federado y de borde, condición por la cual los clientes participantes presentan capacidades de cómputo, memoria, presupuesto energético y ancho de banda de red muy distintos, lo que dificulta la sincronización y la equidad entre rondas.",
zh = "在联邦学习与边缘学习中,参与的客户端在算力、内存、能耗预算和网络带宽方面差异显著,使得各轮训练的同步与公平性变得复杂。",
term_es = "heterogeneidad de dispositivos",
term_zh = "设备异质性",
aliases_es = { "heterogeneidad del sistema", "heterogeneidad de hardware", "heterogeneidad de clientes" },
aliases_zh = { "系统异质性", "硬件异质性", "客户端异质性" },
}
data["devin"] = {
short = "An autonomous software engineering agent introduced by Cognition Labs in 2024, designed to plan, write, test and debug code over long-horizon coding tasks given only a high-level description.",
article = nil,
aliases = { "Devin", "Cognition Devin", "Devin AI" },
es = "Agente autónomo de ingeniería de software presentado por Cognition Labs en 2024, diseñado para planificar, escribir, probar y depurar código en tareas de programación de horizonte largo a partir únicamente de una descripción de alto nivel.",
zh = "Cognition Labs 于 2024 年推出的自主软件工程智能体,旨在仅根据高层任务描述,对长周期编码任务进行规划、编写、测试和调试代码。",
term_es = "Devin",
term_zh = "Devin",
aliases_es = { "Devin AI", "Devin de Cognition" },
aliases_zh = { "Cognition Devin", "Devin AI" },
}
data["dia-nn"] = {
short = "A neural-network-based software suite for processing data-independent acquisition (DIA) mass spectrometry proteomics data, performing peptide identification and quantification from raw spectra.",
article = nil,
aliases = { "DIA-NN", "DIA neural network", "DIANN" },
es = "Suite de software basada en redes neuronales para el procesamiento de datos de espectrometría de masas con adquisición independiente de datos (DIA), que realiza la identificación y cuantificación de péptidos a partir de espectros sin procesar.",
zh = "一款基于神经网络的软件套件,用于处理数据非依赖采集(DIA)质谱蛋白质组学数据,可从原始谱图完成肽段鉴定和定量。",
term_es = "DIA-NN",
term_zh = "DIA-NN",
aliases_es = { "DIA-NN" },
aliases_zh = { "DIA-NN" },
}
data["diagnostic classifier"] = {
short = "A simple classifier — usually linear — trained on a model's hidden representations to test whether a target property is encoded; widely used in NLP and vision interpretability under the umbrella term probing.",
article = nil,
aliases = { "diagnostic probe", "auxiliary classifier", "probing classifier" },
es = "Clasificador simple —generalmente lineal— entrenado sobre las representaciones ocultas de un modelo para comprobar si una propiedad objetivo está codificada; ampliamente usado en interpretabilidad de PLN y visión bajo el término general de probing.",
zh = "一种通常为线性的简单分类器,在模型的隐藏表示上训练,用于检验目标属性是否被编码;在 NLP 和视觉可解释性中广泛使用,常统称为 probing。",
term_es = "clasificador diagnóstico",
term_zh = "诊断分类器",
aliases_es = { "sonda diagnóstica", "clasificador de probing" },
aliases_zh = { "诊断探针", "探测分类器", "probing 分类器" },
}
data["diagonal hessian approximation"] = {
short = "An approximation of the Hessian matrix that retains only its diagonal entries, reducing storage and inversion cost from quadratic to linear in the parameter count.",
article = nil,
aliases = { "diagonal Hessian", "diag Hessian", "diagonal approximation of the Hessian" },
es = "Aproximación de la matriz hessiana que conserva únicamente sus entradas diagonales, reduciendo el coste de almacenamiento e inversión de cuadrático a lineal en el número de parámetros.",
zh = "仅保留海森矩阵对角元素的近似,将存储和求逆成本由参数数量的二次降为线性。",
term_es = "aproximación diagonal de la hessiana",
term_zh = "对角海森近似",
aliases_es = { "hessiana diagonal", "diag-hessiana", "aproximación diagonal del hessiano" },
aliases_zh = { "对角海森矩阵", "海森矩阵对角近似", "对角 Hessian" },
}
data["diagonal laplace"] = {
short = "A Laplace approximation to the posterior whose covariance is restricted to the diagonal of the inverse Hessian, yielding an independent Gaussian over each parameter.",
article = nil,
aliases = { "diagonal Laplace approximation", "diag Laplace", "diagonal-covariance Laplace" },
es = "Aproximación de Laplace al posterior cuya covarianza se restringe a la diagonal de la hessiana inversa, dando lugar a una gaussiana independiente sobre cada parámetro.",
zh = "对后验的拉普拉斯近似,其协方差被限制为逆海森矩阵的对角部分,从而每个参数上得到独立的高斯分布。",
term_es = "Laplace diagonal",
term_zh = "对角拉普拉斯",
aliases_es = { "aproximación de Laplace diagonal", "Laplace de covarianza diagonal" },
aliases_zh = { "对角拉普拉斯近似", "对角协方差拉普拉斯" },
}
data["diagonal matrix"] = {
short = "A square matrix in which all entries off the main diagonal are zero. Multiplication by a diagonal matrix scales rows or columns; powers, inverses, and matrix functions are computed entrywise on the diagonal.",
article = nil,
aliases = { "diagonal matrices", "diag(d)", "diagonal" },
es = "Matriz cuadrada en la que todos los elementos fuera de la diagonal principal son cero. La multiplicación por una matriz diagonal escala filas o columnas; las potencias, inversas y funciones matriciales se calculan elemento a elemento sobre la diagonal.",
zh = "主对角线之外所有元素为零的方阵。与对角矩阵相乘相当于对行或列进行缩放;其幂、逆以及矩阵函数都可在对角线上逐元素计算。",
term_es = "matriz diagonal",
term_zh = "对角矩阵",
aliases_es = { "matrices diagonales", "diag(d)" },
aliases_zh = { "对角方阵", "对角阵" },
}
data["dialogue rationale"] = {
short = "A natural-language justification produced by or for a dialogue system that explains why a particular response was selected, used to improve transparency, debugging, and user trust in conversational agents.",
article = nil,
aliases = { "dialog rationale", "conversational rationale" },
es = "Justificación en lenguaje natural producida por o para un sistema de diálogo que explica por qué se seleccionó una respuesta particular, usada para mejorar la transparencia, la depuración y la confianza del usuario en agentes conversacionales.",
zh = "对话系统给出或针对对话系统给出的自然语言解释,说明为何选择特定回复,用于提升对话代理的透明度、可调试性和用户信任。",
term_es = "racional de diálogo",
term_zh = "对话理由",
aliases_es = { "justificación de diálogo", "racional conversacional" },
aliases_zh = { "对话解释", "对话原因", "会话理由" },
}
data["diamond aligner"] = {
short = "A fast sequence aligner for protein and translated DNA searches that uses double-indexing and spaced seeds to achieve sensitivity comparable to BLASTP at orders of magnitude greater speed.",
article = nil,
aliases = { "DIAMOND", "DIAMOND aligner", "diamond" },
es = "Alineador de secuencias rápido para búsquedas de proteínas y de ADN traducido que utiliza doble indexación y semillas espaciadas para alcanzar una sensibilidad comparable a BLASTP a una velocidad varios órdenes de magnitud mayor.",
zh = "一种快速序列比对工具,用于蛋白质和翻译 DNA 搜索,采用双重索引和间隔种子,在与 BLASTP 相当的灵敏度下实现了数个数量级的速度提升。",
term_es = "DIAMOND",
term_zh = "DIAMOND",
aliases_es = { "alineador DIAMOND" },
aliases_zh = { "DIAMOND 比对器" },
}
data["dianna"] = {
short = "DIANNA (Deep Insight And Neural Network Analysis) is an open-source explainable-AI library for scientific applications, providing modality-agnostic implementations of methods such as RISE, LIME, and KernelSHAP through a unified API.",
article = nil,
aliases = { "DIANNA", "Deep Insight And Neural Network Analysis" },
es = "DIANNA (Deep Insight And Neural Network Analysis) es una biblioteca de IA explicable de código abierto para aplicaciones científicas, que ofrece implementaciones independientes de modalidad de métodos como RISE, LIME y KernelSHAP a través de una API unificada.",
zh = "DIANNA(Deep Insight And Neural Network Analysis)是面向科学应用的开源可解释 AI 库,通过统一的 API 提供 RISE、LIME、KernelSHAP 等方法的与模态无关的实现。",
term_es = "DIANNA",
term_zh = "DIANNA",
aliases_es = { "DIANNA" },
aliases_zh = { "DIANNA" },
}
data["diarization error rate"] = {
short = "The standard metric for speaker diarization, defined as the total time of missed speech, false-alarm speech, and speaker confusion divided by total reference speech time. Computed with optional collar and overlap-handling conventions.",
article = nil,
aliases = { "DER", "speaker diarization error rate" },
es = "Métrica estándar para diarización de hablantes, definida como la suma del tiempo de habla perdida, habla con falsa alarma y confusión de hablante dividido por el tiempo total de habla de referencia. Se calcula con convenciones opcionales de collar y manejo de solapamientos.",
zh = "说话人日志(diarization)的标准评测指标:将漏检语音时长、误警语音时长和说话人混淆时长之和除以参考语音总时长,计算时通常带有 collar 和重叠处理约定。",
term_es = "tasa de error de diarización",
term_zh = "说话人日志错误率",
aliases_es = { "DER", "tasa de error de diarización de hablantes" },
aliases_zh = { "DER", "说话人分离错误率", "说话人日志错误率(DER)" },
}
data["dice counterfactual"] = {
short = "Counterfactual explanations produced by DiCE (Diverse Counterfactual Explanations; Mothilal et al., 2020), which jointly optimizes proximity, validity, and diversity to return a set of distinct, feasible counterfactuals per input.",
article = nil,
aliases = { "DiCE", "DiCE counterfactuals", "Diverse Counterfactual Explanations" },
es = "Explicaciones contrafactuales producidas por DiCE (Diverse Counterfactual Explanations; Mothilal et al., 2020), que optimiza conjuntamente proximidad, validez y diversidad para devolver un conjunto de contrafactuales distintos y factibles por cada entrada.",
zh = "由 DiCE(Diverse Counterfactual Explanations;Mothilal 等,2020)生成的反事实解释,联合优化邻近性、有效性与多样性,为每个输入返回一组不同且可行的反事实样本。",
term_es = "contrafactual DiCE",
term_zh = "DiCE 反事实",
aliases_es = { "DiCE", "explicaciones contrafactuales diversas" },
aliases_zh = { "DiCE", "DiCE 反事实解释", "多样化反事实解释" },
}
data["dice loss"] = {
short = "Segmentation loss derived from the Dice coefficient: 1 − 2|A∩B|/(|A|+|B|). Effective for highly imbalanced foreground/background masks.",
article = nil,
aliases = { "Sørensen-Dice loss", "Dice", "Sorensen-Dice loss" },
es = "Pérdida de segmentación derivada del coeficiente de Dice: 1 − 2|A∩B|/(|A|+|B|). Eficaz cuando las máscaras de primer plano y fondo están muy desbalanceadas.",
zh = "由 Dice 系数衍生的分割损失:1 − 2|A∩B|/(|A|+|B|)。在前景与背景严重不平衡的掩码上效果显著。",
term_es = "pérdida Dice",
term_zh = "Dice 损失",
aliases_es = { "pérdida de Sørensen-Dice", "Dice" },
aliases_zh = { "Dice", "Sørensen-Dice 损失", "骰子损失" },
}
data["diff-singer"] = {
short = "A singing voice synthesis system based on a shallow diffusion mechanism that refines mel-spectrograms predicted by an auxiliary acoustic model, producing high-quality singing with controllable pitch and timbre.",
article = nil,
aliases = { "DiffSinger", "Diff-Singer", "diff singer" },
es = "Sistema de síntesis de canto basado en un mecanismo de difusión superficial que refina los mel-espectrogramas predichos por un modelo acústico auxiliar, generando canto de alta calidad con control de tono y timbre.",
zh = "一种歌声合成系统,采用浅扩散机制对辅助声学模型预测的梅尔谱进行细化,可生成具有可控音高与音色的高品质歌声。",
term_es = "DiffSinger",
term_zh = "DiffSinger",
aliases_es = { "Diff-Singer", "diff singer" },
aliases_zh = { "Diff-Singer", "扩散歌声合成 DiffSinger" },
}
data["diff-svc"] = {
short = "A singing voice conversion model based on diffusion probabilistic models that converts a source singer's mel-spectrogram to a target singer while preserving lyrics and melody. Notable for high naturalness and timbre fidelity in voice conversion communities.",
article = nil,
aliases = { "Diff-SVC", "DiffSVC", "diffusion SVC", "diffusion singing voice conversion" },
es = "Modelo de conversión de voz cantada basado en modelos probabilísticos de difusión que transforma el mel-espectrograma de un intérprete fuente al de un intérprete objetivo preservando letra y melodía. Reconocido por su alta naturalidad y fidelidad tímbrica en comunidades de conversión de voz.",
zh = "基于扩散概率模型的歌声转换系统:在保留歌词和旋律的前提下,将源歌手的梅尔谱转换为目标歌手。在声音转换社区中以自然度高和音色还原好著称。",
term_es = "Diff-SVC",
term_zh = "Diff-SVC",
aliases_es = { "DiffSVC", "conversión de voz cantada por difusión" },
aliases_zh = { "DiffSVC", "扩散歌声转换", "Diff-SVC 歌声转换" },
}
data["diffab"] = {
short = "Diffusion-based generative model for antibody design that jointly generates the sequence and 3D structure of complementarity-determining regions (CDRs) conditioned on an antigen and antibody framework.",
article = nil,
aliases = { "DiffAb", "diffusion antibody" },
es = "Modelo generativo basado en difusión para el diseño de anticuerpos que genera conjuntamente la secuencia y la estructura 3D de las regiones determinantes de complementariedad (CDR) condicionadas a un antígeno y al armazón del anticuerpo.",
zh = "基于扩散模型的抗体设计方法,在给定抗原和抗体框架的条件下,联合生成互补决定区(CDR)的序列和三维结构。",
term_es = "DiffAb",
term_zh = "DiffAb",
aliases_es = { "DiffAb" },
aliases_zh = { "DiffAb" },
}
data["diffdock"] = {
short = "Diffusion generative model for blind molecular docking that samples ligand poses by reverse diffusion over the product manifold of ligand translation, rotation, and torsion angles, predicting binding poses without requiring a known pocket.",
article = nil,
aliases = { "DiffDock", "diffusion docking" },
es = "Modelo generativo de difusión para acoplamiento molecular ciego que muestrea poses de ligando mediante difusión inversa sobre la variedad producto de traslación, rotación y ángulos de torsión del ligando, prediciendo poses de unión sin necesidad de conocer el bolsillo.",
zh = "用于盲对接的扩散生成模型,通过在配体平移、旋转和扭转角的乘积流形上进行逆向扩散来采样配体姿态,无需已知结合口袋即可预测结合姿态。",
term_es = "DiffDock",
term_zh = "DiffDock",
aliases_es = { "DiffDock" },
aliases_zh = { "DiffDock", "扩散对接" },
}
data["diffdock-pp"] = {
short = "Diffusion-based generative model for rigid-body protein-protein docking that adapts the DiffDock framework to sample relative roto-translations between two protein partners.",
article = nil,
aliases = { "DiffDock-PP", "DiffDock PP", "diffdock pp" },
es = "Modelo generativo basado en difusión para acoplamiento proteína-proteína de cuerpo rígido que adapta el marco de DiffDock para muestrear roto-traslaciones relativas entre dos socios proteicos.",
zh = "基于扩散模型的刚体蛋白-蛋白对接方法,将 DiffDock 框架扩展到两个蛋白伙伴之间相对旋转-平移的采样。",
term_es = "DiffDock-PP",
term_zh = "DiffDock-PP",
aliases_es = { "DiffDock-PP" },
aliases_zh = { "DiffDock-PP" },
}
data["difference-in-differences"] = {
short = "A quasi-experimental method that estimates a treatment effect by comparing the change in outcomes over time between a treated and an untreated group, identifying the effect under a parallel-trends assumption.",
article = nil,
aliases = { "DID", "DiD", "diff-in-diff", "differences-in-differences" },
es = "Método cuasi-experimental que estima un efecto de tratamiento comparando el cambio en los resultados a lo largo del tiempo entre un grupo tratado y otro no tratado, identificándolo bajo el supuesto de tendencias paralelas.",
zh = "一种准实验方法,通过比较处置组与未处置组随时间的结果变化来估计处置效应,在平行趋势假设下进行识别。",
term_es = "diferencias en diferencias",
term_zh = "双重差分",
aliases_es = { "DID", "DiD", "diferencia en diferencias" },
aliases_zh = { "DID", "DiD", "差中差", "双重差分法" },
}
data["differentiable architecture search"] = {
short = "A family of NAS methods that relax the discrete architecture choice into a continuous parameterization, allowing architecture parameters and network weights to be optimized jointly by gradient descent.",
article = nil,
aliases = { "DARTS", "differentiable NAS", "gradient-based NAS" },
es = "Familia de métodos de NAS que relajan la elección arquitectónica discreta en una parametrización continua, permitiendo optimizar conjuntamente los parámetros de arquitectura y los pesos de la red mediante descenso por gradiente.",
zh = "一类 NAS 方法,将离散的架构选择松弛为连续参数化,从而可以使用梯度下降同时优化架构参数和网络权重。",
term_es = "búsqueda diferenciable de arquitecturas",
term_zh = "可微架构搜索",
aliases_es = { "DARTS", "NAS diferenciable", "NAS basado en gradiente" },
aliases_zh = { "可微神经架构搜索", "DARTS", "基于梯度的 NAS" },
}
data["differentiable convex optimization"] = {
short = "A technique that embeds a parameterized convex optimization problem as a layer in a neural network, computing gradients of the optimal solution with respect to the problem parameters via implicit differentiation of the KKT conditions.",
article = nil,
aliases = { "differentiable convex optimization layer", "cvxpylayers", "CvxpyLayer", "convex optimization layer", "differentiable convex programming" },
es = "Una técnica que incorpora un problema de optimización convexa parametrizado como capa de una red neuronal, calculando los gradientes de la solución óptima respecto a los parámetros del problema mediante diferenciación implícita de las condiciones KKT.",
zh = "一种将参数化凸优化问题嵌入神经网络作为一层的技术,通过对 KKT 条件进行隐式微分,计算最优解关于问题参数的梯度。",
term_es = "optimización convexa diferenciable",
term_zh = "可微凸优化",
aliases_es = { "capa de optimización convexa diferenciable", "cvxpylayers", "programación convexa diferenciable" },
aliases_zh = { "可微凸优化层", "cvxpylayers", "凸优化层" },
}
data["differentiable data augmentation"] = {
short = "Data augmentation pipelines whose transformations and selection probabilities are parameterized to be differentiable, enabling the augmentation policy itself to be learned by gradient-based optimization.",
article = nil,
aliases = { "DDA", "differentiable augmentation", "learnable data augmentation" },
es = "Pipelines de aumento de datos cuyas transformaciones y probabilidades de selección están parametrizadas de forma diferenciable, permitiendo que la propia política de aumento se aprenda mediante optimización por gradiente.",
zh = "数据增广流水线的变换及其选择概率被参数化为可微形式,从而可以通过基于梯度的优化来学习增广策略本身。",
term_es = "aumento de datos diferenciable",
term_zh = "可微数据增广",
aliases_es = { "augmentación diferenciable", "aumento de datos aprendible" },
aliases_zh = { "可微数据增强", "可学习数据增广" },
}
data["differentiable forth"] = {
short = "A neural extension of the Forth programming language, introduced by Riedel et al. (2017), in which sketches with neural slot fillers are executed by a differentiable interpreter, allowing program induction with gradient descent.",
article = nil,
aliases = { "∂4", "d4", "Differentiable Forth Interpreter", "neural Forth", "Programming with a Differentiable Forth Interpreter" },
es = "Una extensión neuronal del lenguaje de programación Forth, introducida por Riedel et al. (2017), en la que esquemas con huecos neuronales son ejecutados por un intérprete diferenciable, permitiendo la inducción de programas mediante descenso de gradiente.",
zh = "Riedel 等人(2017)提出的 Forth 编程语言的神经扩展,通过可微解释器执行带有神经槽位的程序草图,从而能够用梯度下降进行程序归纳。",
term_es = "Forth diferenciable",
term_zh = "可微 Forth",
aliases_es = { "∂4", "intérprete Forth diferenciable", "Forth neuronal" },
aliases_zh = { "∂4", "可微 Forth 解释器", "神经 Forth" },
}
data["differentiable inductive logic programming"] = {
short = "A neuro-symbolic framework that learns first-order logic rules from examples by relaxing discrete rule selection into a continuous optimization problem, enabling end-to-end training with gradient descent. Notable systems include ∂ILP by Evans and Grefenstette (2018).",
article = nil,
aliases = { "∂ILP", "dILP", "differentiable ILP", "neural ILP", "Learning Explanatory Rules from Noisy Data" },
es = "Un marco neuro-simbólico que aprende reglas de lógica de primer orden a partir de ejemplos relajando la selección discreta de reglas a un problema de optimización continuo, lo que permite entrenamiento extremo a extremo con descenso de gradiente. Sistemas destacados incluyen ∂ILP de Evans y Grefenstette (2018).",
zh = "一种神经符号框架,通过将离散规则选择松弛为连续优化问题,从样例中学习一阶逻辑规则,从而支持端到端的梯度下降训练。代表性系统包括 Evans 与 Grefenstette(2018)提出的 ∂ILP。",
term_es = "programación lógica inductiva diferenciable",
term_zh = "可微归纳逻辑编程",
aliases_es = { "∂ILP", "ILP diferenciable", "ILP neuronal" },
aliases_zh = { "∂ILP", "可微 ILP", "神经 ILP" },
}
data["differentiable neural computer"] = {
short = "An extension of the neural Turing machine with a more expressive memory addressing scheme, including dynamic memory allocation and temporal link tracking, enabling more robust algorithmic learning.",
article = nil,
aliases = { "DNC", "DNCs", "Differentiable Neural Computer" },
es = "Extensión de la máquina de Turing neuronal con un esquema de direccionamiento de memoria más expresivo, que incluye asignación dinámica de memoria y seguimiento de enlaces temporales, permitiendo un aprendizaje algorítmico más robusto.",
zh = "神经图灵机的扩展,具有更具表现力的记忆寻址机制,包括动态内存分配和时间链接跟踪,可实现更稳健的算法学习。",
term_es = "computadora neuronal diferenciable",
term_zh = "可微神经计算机",
aliases_es = { "DNC", "DNCs", "computador neuronal diferenciable" },
aliases_zh = { "DNC", "可微分神经计算机" },
}
data["differentiable optimization layer"] = {
short = "A neural network layer whose forward pass solves an optimization problem (typically convex) and whose backward pass returns gradients of the solution with respect to the problem parameters, allowing optimization to be embedded inside end-to-end learning pipelines.",
article = nil,
aliases = { "OptNet", "optimization-as-a-layer", "argmin layer", "differentiable solver layer", "implicit layer" },
es = "Una capa de red neuronal cuyo paso directo resuelve un problema de optimización (normalmente convexo) y cuyo paso inverso devuelve gradientes de la solución respecto a los parámetros del problema, permitiendo incorporar la optimización dentro de tuberías de aprendizaje extremo a extremo.",
zh = "一种神经网络层,其前向传播求解一个优化问题(通常是凸优化),反向传播则返回最优解关于问题参数的梯度,从而可在端到端学习流程中嵌入优化过程。",
term_es = "capa de optimización diferenciable",
term_zh = "可微优化层",
aliases_es = { "OptNet", "capa argmin", "capa solver diferenciable" },
aliases_zh = { "OptNet", "argmin 层", "可微求解器层" },
}
data["differentiable programming"] = {
short = "A programming paradigm in which entire programs are constructed from differentiable components so that gradients can be computed end-to-end and used for optimization.",
article = nil,
aliases = { "differentiable programs", "∂P" },
es = "Paradigma de programación en el que los programas se construyen a partir de componentes diferenciables para que los gradientes puedan calcularse de extremo a extremo y usarse en optimización.",
zh = "一种编程范式,整个程序由可微组件构成,从而可端到端计算梯度并用于优化。",
term_es = "programación diferenciable",
term_zh = "可微编程",
aliases_es = {},
aliases_zh = { "可微分编程" },
}
data["differentiable shortest path"] = {
short = "A relaxation of shortest-path algorithms (e.g., Dijkstra or Bellman-Ford) into a smooth, differentiable function of edge weights, typically via softmin or perturbed optimizers, so that the path can be used as a layer trained with gradient descent.",
article = nil,
aliases = { "soft shortest path", "differentiable Dijkstra", "differentiable Bellman-Ford", "smooth shortest path", "neural shortest path" },
es = "Una relajación de los algoritmos de camino más corto (por ejemplo, Dijkstra o Bellman-Ford) a una función suave y diferenciable de los pesos de las aristas, típicamente mediante softmin u optimizadores perturbados, de modo que el camino pueda usarse como una capa entrenada con descenso de gradiente.",
zh = "将最短路径算法(如 Dijkstra 或 Bellman-Ford)松弛为关于边权的光滑可微函数,通常借助 softmin 或扰动优化器,使路径可作为可用梯度下降训练的网络层。",
term_es = "camino más corto diferenciable",
term_zh = "可微最短路径",
aliases_es = { "Dijkstra diferenciable", "camino más corto suave", "camino más corto neuronal" },
aliases_zh = { "可微 Dijkstra", "光滑最短路径", "神经最短路径" },
}
data["differentiable sorting"] = {
short = "A family of techniques (NeuralSort, SoftSort, optimal-transport sorting) that approximate the discrete sort or permutation operator with a smooth, differentiable surrogate so that ranking-based losses can be optimized end-to-end with gradient descent.",
article = nil,
aliases = { "NeuralSort", "SoftSort", "differentiable sort", "smooth sorting", "soft sorting", "differentiable ranking" },
es = "Una familia de técnicas (NeuralSort, SoftSort, ordenación por transporte óptimo) que aproximan el operador discreto de ordenación o permutación con un sustituto suave y diferenciable, permitiendo optimizar pérdidas basadas en ranking de extremo a extremo con descenso de gradiente.",
zh = "一类用光滑可微的代理近似离散排序或置换算子的技术(如 NeuralSort、SoftSort、最优传输排序),使基于排名的损失可端到端用梯度下降优化。",
term_es = "ordenación diferenciable",
term_zh = "可微排序",
aliases_es = { "NeuralSort", "SoftSort", "ordenación suave", "ranking diferenciable" },
aliases_zh = { "NeuralSort", "SoftSort", "光滑排序", "可微排名" },
}
data["differentiable top-k"] = {
short = "A smooth, differentiable approximation of the top-k selection operator, often implemented via optimal transport, perturbed maximization, or a sorting network, enabling end-to-end training of models that select the k highest-scoring items.",
article = nil,
aliases = { "soft top-k", "smooth top-k", "differentiable top k", "top-k relaxation", "neural top-k" },
es = "Una aproximación suave y diferenciable del operador de selección top-k, implementada habitualmente mediante transporte óptimo, maximización perturbada o redes de ordenación, que permite entrenar de extremo a extremo modelos que seleccionan los k elementos de mayor puntaje.",
zh = "对 top-k 选择算子的光滑可微近似,常通过最优传输、扰动最大化或排序网络实现,使选择得分最高的 k 个元素的模型能够端到端训练。",
term_es = "top-k diferenciable",
term_zh = "可微 top-k",
aliases_es = { "top-k suave", "relajación top-k", "top-k neuronal" },
aliases_zh = { "光滑 top-k", "soft top-k", "top-k 松弛", "神经 top-k" },
}
data["differential entropy"] = {
short = "The continuous analog of Shannon entropy for a random variable with density p: h(X) = −∫ p(x) log p(x) dx. Unlike discrete entropy it is not invariant under reparameterization and may be negative.",
article = nil,
aliases = { "continuous entropy", "h(X)", "Shannon differential entropy" },
es = "Analogo continuo de la entropía de Shannon para una variable aleatoria con densidad p: h(X) = −∫ p(x) log p(x) dx. A diferencia de la entropía discreta, no es invariante ante reparametrización y puede ser negativa.",
zh = "连续型随机变量(具有密度 p)下香农熵的连续推广:h(X) = −∫ p(x) log p(x) dx。与离散熵不同,它在重参数化下不具不变性,并且可以为负。",
term_es = "entropía diferencial",
term_zh = "微分熵",
aliases_es = { "entropía continua" },
aliases_zh = { "连续熵", "差分熵" },
}
data["differential expression"] = {
short = "Statistical analysis identifying genes whose transcript abundance differs significantly between sample groups, typically using count-based models for RNA-seq or linear models for microarrays with multiple-testing correction.",
article = nil,
aliases = { "differential gene expression", "DE analysis", "DEG analysis", "DGE", "differentially expressed genes" },
es = "Análisis estadístico que identifica genes cuya abundancia de transcritos difiere significativamente entre grupos de muestras, normalmente mediante modelos basados en conteos para RNA-seq o modelos lineales para microarrays con corrección por pruebas múltiples.",
zh = "一种统计分析方法,用于识别在样本组之间转录本丰度存在显著差异的基因,通常对 RNA-seq 数据使用基于计数的模型,对微阵列数据使用线性模型,并进行多重检验校正。",
term_es = "expresión diferencial",
term_zh = "差异表达",
aliases_es = { "expresión génica diferencial", "análisis de expresión diferencial", "genes expresados diferencialmente" },
aliases_zh = { "差异基因表达", "差异表达分析", "差异表达基因" },
}
data["differential privacy"] = {
short = "A formal privacy guarantee stating that the output of an algorithm is statistically nearly indistinguishable whether or not any single individual's data is included, typically achieved by adding calibrated noise.",
article = nil,
aliases = { "DP", "ε-differential privacy", "epsilon-differential privacy", "(ε,δ)-differential privacy" },
es = "Garantía formal de privacidad que establece que la salida de un algoritmo es estadísticamente casi indistinguible se incluyan o no los datos de un individuo cualquiera; suele lograrse añadiendo ruido calibrado.",
zh = "一种形式化的隐私保证,要求算法的输出在是否包含任何单个个体的数据时在统计上几乎无法区分,通常通过添加校准噪声来实现。",
term_es = "privacidad diferencial",
term_zh = "差分隐私",
aliases_es = { "DP", "privacidad diferencial ε", "privacidad diferencial (ε,δ)" },
aliases_zh = { "DP", "ε-差分隐私", "(ε,δ)-差分隐私" },
}
data["differential validity"] = {
short = "The condition in which a predictive measure (e.g. a hiring test or risk score) has different correlations with the criterion of interest across demographic groups, threatening fair use across those groups.",
article = nil,
aliases = { "differential predictive validity", "group-differential validity" },
es = "Condición en la que una medida predictiva (por ejemplo, una prueba de selección o una puntuación de riesgo) presenta correlaciones distintas con el criterio de interés entre grupos demográficos, amenazando su uso equitativo entre esos grupos.",
zh = "一种预测指标(如招聘测试或风险评分)与所关注标准的相关性在不同人口群体间存在差异的情形,威胁该指标在各群体间的公平使用。",
term_es = "validez diferencial",
term_zh = "差异效度",
aliases_es = { "validez predictiva diferencial" },
aliases_zh = { "差异化效度", "差别效度", "群体差异效度", "差异预测效度" },
}
data["diffsbdd"] = {
short = "Diffusion model for structure-based drug design that generates 3D ligand structures conditioned on a target protein pocket by jointly denoising atomic coordinates and types.",
article = nil,
aliases = { "DiffSBDD", "diffusion structure-based drug design" },
es = "Modelo de difusión para diseño de fármacos basado en estructura que genera estructuras 3D de ligandos condicionadas al bolsillo de una proteína diana mediante eliminación conjunta de ruido de coordenadas y tipos atómicos.",
zh = "用于基于结构的药物设计的扩散模型,以目标蛋白口袋为条件,联合对原子坐标和原子类型去噪,从而生成三维配体结构。",
term_es = "DiffSBDD",
term_zh = "DiffSBDD",
aliases_es = { "DiffSBDD" },
aliases_zh = { "DiffSBDD" },
}
data["diffusion model"] = {
short = "A generative model that learns to invert a gradual noising process, producing samples by iteratively denoising Gaussian noise into data through a learned reverse Markov chain or stochastic differential equation.",
article = nil,
aliases = { "diffusion models", "Diffusion Model", "denoising diffusion model", "diffusion-based generative model" },
es = "Modelo generativo que aprende a invertir un proceso gradual de adición de ruido, produciendo muestras al denoising iterativo de ruido gaussiano hacia datos mediante una cadena de Markov inversa o EDE aprendida.",
zh = "一种生成模型,学习逆转一个逐步加噪的过程,通过学到的反向马尔可夫链或随机微分方程,将高斯噪声迭代去噪为数据样本。",
term_es = "modelo de difusión",
term_zh = "扩散模型",
aliases_es = { "modelos de difusión", "modelo generativo de difusión" },
aliases_zh = { "Diffusion Model", "去噪扩散模型", "扩散生成模型" },
}
data["diffusion transformer"] = {
short = "A diffusion model whose denoising backbone is a transformer operating on patch or token sequences instead of a U-Net, popularized by DiT and adopted in large-scale image and video generators such as Stable Diffusion 3 and Sora.",
article = nil,
aliases = { "DiT", "Diffusion Transformer", "diffusion transformers" },
es = "Modelo de difusión cuyo backbone de eliminación de ruido es un transformer que opera sobre secuencias de parches o tokens en lugar de una U-Net; popularizado por DiT y adoptado en generadores de imagen y vídeo a gran escala como Stable Diffusion 3 y Sora.",
zh = "一种扩散模型:其去噪主干网络是作用在图像块或词元序列上的 Transformer,而非 U-Net。该结构由 DiT 推广,并被 Stable Diffusion 3、Sora 等大规模图像和视频生成模型所采用。",
term_es = "Diffusion Transformer",
term_zh = "扩散 Transformer",
aliases_es = { "DiT", "transformer de difusión" },
aliases_zh = { "DiT", "Diffusion Transformer", "扩散变换器" },
}
data["diffwave"] = {
short = "A diffusion-based neural vocoder that generates raw audio waveforms by reversing a Gaussian diffusion process conditioned on mel-spectrograms. Achieves high-fidelity speech synthesis competitive with WaveNet and parallel WaveGAN.",
article = nil,
aliases = { "DiffWave", "diff wave", "DiffWave vocoder" },
es = "Vocoder neuronal basado en difusión que genera formas de onda crudas invirtiendo un proceso de difusión gaussiano condicionado a mel-espectrogramas. Alcanza síntesis de voz de alta fidelidad competitiva con WaveNet y parallel WaveGAN.",
zh = "基于扩散模型的神经声码器:在梅尔谱条件下反演高斯扩散过程以生成原始波形。能生成与 WaveNet、parallel WaveGAN 相媲美的高保真语音。",
term_es = "DiffWave",
term_zh = "DiffWave",
aliases_es = { "vocoder DiffWave", "DiffWave vocoder" },
aliases_zh = { "DiffWave", "DiffWave 声码器", "扩散声码器 DiffWave" },
}
data["digital divide"] = {
short = "Unequal access to digital infrastructure, devices, connectivity, or skills across demographic, geographic, or socioeconomic groups, which compounds disparities in who can benefit from AI-driven services.",
article = nil,
aliases = { "digital gap", "digital inequality", "digital access gap" },
es = "Acceso desigual a infraestructura digital, dispositivos, conectividad o competencias entre grupos demográficos, geográficos o socioeconómicos, que agrava las disparidades en quiénes pueden beneficiarse de los servicios impulsados por IA.",
zh = "在数字基础设施、设备、网络连接或数字技能方面的获取不平等,跨人口、地理或社会经济群体存在,从而加剧了人们能否从 AI 驱动服务中获益的差距。",
term_es = "brecha digital",
term_zh = "数字鸿沟",
aliases_es = { "desigualdad digital", "fractura digital" },
aliases_zh = { "数字差距", "数字不平等", "数字接入差距" },
}
data["digital redlining"] = {
short = "The discriminatory exclusion of certain communities — typically defined by race, ethnicity, or income — from digital services, content, or pricing through algorithmic or platform-driven decisions, echoing historical redlining in housing finance.",
article = nil,
aliases = { "algorithmic redlining", "online redlining", "tech redlining" },
es = "Exclusión discriminatoria de ciertas comunidades —generalmente definidas por raza, etnia o ingresos— de servicios, contenidos o precios digitales mediante decisiones algorítmicas o de plataforma, evocando la práctica histórica del redlining en el financiamiento de la vivienda.",
zh = "通过算法或平台驱动的决策,将通常按种族、族裔或收入划分的特定社区排除在数字服务、内容或定价之外的歧视性做法,与住房金融领域的历史性\"红线\"做法相呼应。",
term_es = "redlining digital",
term_zh = "数字红线划分",
aliases_es = { "redlining algorítmico", "discriminación digital territorial" },
aliases_zh = { "数字红线", "算法红线划分", "在线红线划分", "数字化红线" },
}
data["dignitary harm"] = {
short = "A non-material harm to an individual's dignity, autonomy, or sense of self-worth caused by AI behavior such as misrecognition, stereotyping, or surveillance, even when no tangible loss is incurred.",
article = nil,
aliases = { "harm to dignity", "dignity harm", "harm of dignity" },
es = "Daño no material a la dignidad, la autonomía o la autoestima de una persona ocasionado por comportamientos de IA como el reconocimiento erróneo, los estereotipos o la vigilancia, incluso cuando no se produce una pérdida tangible.",
zh = "由人工智能行为(如错误识别、刻板印象或监控)对个人尊严、自主性或自我价值感造成的非物质性伤害,即便没有产生实质损失也成立。",
term_es = "daño a la dignidad",
term_zh = "尊严伤害",
aliases_es = { "daño dignitario", "daño a la autoestima" },
aliases_zh = { "尊严损害", "对尊严的伤害", "人格尊严伤害" },
}
data["dihedral angle"] = {
short = "The angle between two planes defined by four sequentially bonded atoms, measuring rotation about the central bond. In proteins, the backbone phi, psi, and omega dihedrals determine secondary structure; in small molecules, dihedrals define conformational flexibility.",
article = nil,
aliases = { "torsion angle", "torsional angle", "dihedral", "dihedral angles" },
es = "Ángulo entre dos planos definidos por cuatro átomos enlazados consecutivamente, que mide la rotación alrededor del enlace central. En proteínas, los diedros de la cadena principal phi, psi y omega determinan la estructura secundaria; en moléculas pequeñas definen la flexibilidad conformacional.",
zh = "由四个顺序相连的原子定义的两个平面之间的夹角,衡量绕中心键的旋转。在蛋白质中,主链的 phi、psi、omega 二面角决定二级结构;在小分子中,二面角决定构象柔性。",
term_es = "ángulo diedro",
term_zh = "二面角",
aliases_es = { "ángulo de torsión", "diedro", "ángulo torsional" },
aliases_zh = { "扭转角", "二面角", "torsion 角" },
}
data["dilated attention"] = {
short = "An attention pattern that selects keys at increasing strides from each query, expanding the effective receptive field exponentially without proportional increase in computation.",
article = nil,
aliases = { "Dilated Attention", "dilated self-attention" },
es = "Patrón de atención que selecciona claves con saltos crecientes desde cada consulta, ampliando el campo receptivo efectivo de forma exponencial sin un aumento proporcional del cómputo.",
zh = "一种注意力模式,从每个查询出发以逐步增大的步幅选择键,使有效感受野以指数方式扩展而计算量不成比例增长。",
term_es = "atención dilatada",
term_zh = "扩张注意力",
aliases_es = { "dilated attention", "auto-atención dilatada" },
aliases_zh = { "dilated attention", "膨胀注意力", "空洞注意力" },
}
data["dilated convolution"] = {
short = "A convolution in which the kernel is applied with gaps (dilation) between sampled input positions, expanding the receptive field exponentially without increasing the number of parameters or losing resolution.",
article = nil,
aliases = { "atrous convolution", "Dilated Convolution", "dilated conv", "à trous convolution", "atrous conv" },
es = "Convolución en la que el núcleo se aplica con huecos (dilatación) entre las posiciones de entrada muestreadas, lo que expande el campo receptivo de forma exponencial sin aumentar el número de parámetros ni perder resolución.",
zh = "在采样输入位置之间留有间隔(膨胀)的卷积,可在不增加参数也不损失分辨率的情况下指数级扩大感受野。",
term_es = "convolución dilatada",
term_zh = "膨胀卷积",
aliases_es = { "convolución atrous", "convolución a trous", "dilated convolution" },
aliases_zh = { "空洞卷积", "扩张卷积", "atrous 卷积", "dilated convolution" },
}
data["dili prediction"] = {
short = "Computational prediction of a compound's risk of causing drug-induced liver injury (DILI), typically as a binary or multi-class classification from molecular structure, used in early ADMET screening.",
article = nil,
aliases = { "DILI prediction", "drug-induced liver injury prediction", "hepatotoxicity prediction" },
es = "Predicción computacional del riesgo de que un compuesto cause lesión hepática inducida por fármacos (DILI), normalmente como clasificación binaria o multiclase a partir de la estructura molecular, en el cribado ADMET temprano.",
zh = "通过分子结构预测化合物引发药物性肝损伤(DILI)的风险,通常以二分类或多分类形式呈现,应用于早期 ADMET 筛选。",
term_es = "predicción de DILI",
term_zh = "DILI 预测",
aliases_es = { "predicción de hepatotoxicidad", "predicción de lesión hepática inducida por fármacos" },
aliases_zh = { "药物性肝损伤预测", "肝毒性预测" },
}
data["dimenet"] = {
short = "Directional Message Passing Neural Network for 3D molecules that embeds messages between atom pairs using spherical Bessel and spherical harmonic basis functions, capturing both interatomic distances and bond angles.",
article = nil,
aliases = { "DimeNet", "Directional Message Passing Neural Network" },
es = "Red neuronal de paso de mensajes direccional para moléculas 3D que embebe los mensajes entre pares de átomos mediante funciones de base esféricas de Bessel y armónicos esféricos, capturando tanto distancias interatómicas como ángulos de enlace.",
zh = "面向三维分子的方向性消息传递神经网络,使用球贝塞尔函数和球谐函数基对原子对之间的消息进行嵌入,从而同时捕捉原子间距离和键角信息。",
term_es = "DimeNet",
term_zh = "DimeNet",
aliases_es = { "DimeNet", "red de paso de mensajes direccional" },
aliases_zh = { "DimeNet", "方向性消息传递网络" },
}
data["dimenet++"] = {
short = "Improved variant of DimeNet that simplifies the directional message passing blocks, reducing computational cost and improving accuracy on molecular property benchmarks such as QM9 and MD17.",
article = nil,
aliases = { "DimeNet++", "DimeNetPP", "DimeNet plus plus" },
es = "Variante mejorada de DimeNet que simplifica los bloques de paso de mensajes direccional, reduciendo el coste computacional y mejorando la precisión en benchmarks de propiedades moleculares como QM9 y MD17.",
zh = "DimeNet 的改进版本,简化了方向性消息传递模块,在降低计算开销的同时提升了 QM9、MD17 等分子性质基准上的精度。",
term_es = "DimeNet++",
term_zh = "DimeNet++",
aliases_es = { "DimeNet++", "DimeNetPP" },
aliases_zh = { "DimeNet++", "DimeNetPP" },
}
data["dino"] = {
short = "Self-Distillation with No Labels: a self-supervised learning method in which a student vision transformer is trained to match the output distribution of a momentum-updated teacher on different augmentations of the same image, without labels or negative pairs.",
article = nil,
aliases = { "DINO", "self-distillation with no labels" },
es = "Self-Distillation with No Labels: método de aprendizaje autosupervisado en el que un transformador de visión estudiante se entrena para igualar la distribución de salida de un profesor actualizado por momento en distintas augmentaciones de la misma imagen, sin etiquetas ni pares negativos.",
zh = "Self-Distillation with No Labels:一种自监督学习方法,让学生视觉Transformer在同一图像的不同增强上去匹配由动量更新的教师网络输出的分布,无需标签或负样本。",
term_es = "DINO",
term_zh = "DINO",
aliases_es = { "DINO" },
aliases_zh = { "DINO" },
}
data["direct discrimination"] = {
short = "Treatment in which a protected attribute is used explicitly as a basis for less favorable decisions about a person; in algorithmic contexts, it corresponds to disparate treatment with the sensitive feature directly entering the decision rule.",
article = nil,
aliases = { "disparate treatment", "explicit discrimination", "overt discrimination" },
es = "Trato en el que un atributo protegido se utiliza explícitamente como base para tomar decisiones menos favorables sobre una persona; en contextos algorítmicos corresponde al trato dispar, con la característica sensible entrando directamente en la regla de decisión.",
zh = "将受保护属性明确用作对个人作出较不利决策依据的对待方式;在算法语境中对应\"差别对待\",即敏感特征直接进入决策规则。",
term_es = "discriminación directa",
term_zh = "直接歧视",
aliases_es = { "trato dispar", "discriminación explícita", "discriminación abierta" },
aliases_zh = { "差别对待", "显性歧视", "明显歧视", "公开歧视" },
}
data["direct effect"] = {
short = "In causal-fairness analysis, the portion of a sensitive attribute's effect on an outcome that is transmitted along paths not passing through specified mediators; contrasted with the indirect effect.",
article = nil,
aliases = { "natural direct effect", "controlled direct effect", "NDE", "CDE" },
es = "En el análisis de equidad causal, parte del efecto de un atributo sensible sobre un resultado que se transmite por rutas que no pasan por mediadores especificados; se contrasta con el efecto indirecto.",
zh = "在因果公平性分析中,敏感属性对结果的效应中沿不经过指定中介路径传递的部分;与间接效应相对。",
term_es = "efecto directo",
term_zh = "直接效应",
aliases_es = { "efecto directo natural", "efecto directo controlado", "NDE", "CDE" },
aliases_zh = { "自然直接效应", "受控直接效应", "NDE", "CDE", "直接因果效应" },
}
data["direct logit attribution"] = {
short = "A transformer-interpretability technique that decomposes the final logit on a target token into additive contributions from individual residual-stream components — attention heads, MLP layers, and embeddings — by projecting each through the unembedding matrix.",
article = nil,
aliases = { "DLA", "logit attribution", "direct path attribution" },
es = "Técnica de interpretabilidad de transformadores que descompone el logit final sobre un token objetivo en contribuciones aditivas de componentes individuales del flujo residual —cabezas de atención, capas MLP e incrustaciones— proyectando cada uno a través de la matriz de desincrustación.",
zh = "一种 Transformer 可解释性方法,通过将各残差流组件——注意力头、MLP 层与嵌入——经过反嵌入矩阵投影,将目标 token 的最终 logit 分解为它们的可加贡献。",
term_es = "atribución directa al logit",
term_zh = "直接 logit 归因",
aliases_es = { "DLA", "atribución de logit", "atribución directa de logits" },
aliases_zh = { "DLA", "logit 归因", "直接路径归因" },
}
data["direct preference optimization"] = {
short = "A preference fine-tuning method that derives a closed-form loss directly from pairs of preferred and dispreferred responses, eliminating the need to train a separate reward model or run online reinforcement learning.",
article = nil,
aliases = { "DPO", "Direct Preference Optimization", "direct preference optimisation" },
es = "Método de ajuste por preferencias que deriva una función de pérdida en forma cerrada directamente a partir de pares de respuestas preferidas y rechazadas, eliminando la necesidad de entrenar un modelo de recompensa separado o ejecutar aprendizaje por refuerzo en línea.",
zh = "一种偏好微调方法,直接从偏好与非偏好响应对中推导出闭式损失函数,无需单独训练奖励模型或进行在线强化学习。",
term_es = "DPO",
term_zh = "DPO",
aliases_es = { "DPO", "optimización directa de preferencias" },
aliases_zh = { "DPO", "直接偏好优化" },
}
data["direct s2st"] = {
short = "Speech-to-speech translation performed by a single model that maps source speech directly to target speech, without intermediate text representations.",
article = nil,
aliases = { "direct S2ST", "direct speech-to-speech translation", "textless S2ST", "direct speech translation" },
es = "Traducción de habla a habla realizada por un único modelo que mapea el habla de origen directamente al habla de destino, sin representaciones de texto intermedias.",
zh = "由单一模型直接将源语音映射到目标语音的语音到语音翻译方法,不使用中间文本表示。",
term_es = "S2ST directa",
term_zh = "直接语音到语音翻译",
aliases_es = { "S2ST directa", "traducción de habla a habla directa", "S2ST sin texto" },
aliases_zh = { "直接 S2ST", "无文本语音到语音翻译" },
}
data["direct speech-to-speech translation"] = {
short = "An approach to speech translation that converts source-language speech to target-language speech end-to-end with a single model, bypassing intermediate textual transcripts.",
article = nil,
aliases = { "direct S2ST", "S2ST", "direct speech to speech translation", "textless speech-to-speech translation" },
es = "Enfoque de traducción del habla que convierte el habla en el idioma de origen al habla en el idioma de destino de extremo a extremo con un único modelo, sin pasar por transcripciones textuales intermedias.",
zh = "一种语音翻译方法,使用单一模型端到端地将源语言语音转换为目标语言语音,无需中间文本转录。",
term_es = "traducción directa de habla a habla",
term_zh = "直接语音到语音翻译",
aliases_es = { "S2ST directa", "traducción de habla a habla directa" },
aliases_zh = { "直接 S2ST", "端到端语音到语音翻译" },
}
data["direct speech-to-text translation"] = {
short = "A speech translation approach in which a single model maps source-language audio directly to target-language text without an intermediate ASR transcript in the source language.",
article = nil,
aliases = { "direct S2TT", "direct ST", "end-to-end speech-to-text translation", "direct speech to text translation" },
es = "Enfoque de traducción del habla en el que un único modelo mapea el audio en el idioma de origen directamente al texto en el idioma de destino, sin una transcripción ASR intermedia en el idioma de origen.",
zh = "一种语音翻译方法,由单一模型将源语言音频直接映射为目标语言文本,无需源语言的中间 ASR 转录。",
term_es = "traducción directa de habla a texto",
term_zh = "直接语音到文本翻译",
aliases_es = { "S2TT directa", "ST directa", "traducción directa habla-texto" },
aliases_zh = { "直接 S2TT", "端到端语音到文本翻译" },
}
data["directed acyclic graph"] = {
short = "A graph composed of nodes and directed edges that contains no directed cycles; the structural backbone of Bayesian networks and many causal models.",
article = nil,
aliases = { "DAG", "acyclic directed graph" },
es = "Grafo formado por nodos y aristas dirigidas que no contiene ciclos dirigidos; estructura básica de las redes bayesianas y de muchos modelos causales.",
zh = "由节点和有向边构成、不存在有向环的图;是贝叶斯网络和许多因果模型的结构基础。",
term_es = "grafo acíclico dirigido",
term_zh = "有向无环图",
aliases_es = { "DAG", "grafo dirigido acíclico" },
aliases_zh = { "DAG", "有向无圈图" },
}
data["directed graphical model"] = {
short = "A probabilistic graphical model whose structure is a directed acyclic graph and whose joint distribution factorizes as the product of each variable's conditional distribution given its parents.",
article = nil,
aliases = { "Bayesian network", "Bayes net", "belief network", "directed PGM" },
es = "Modelo gráfico probabilístico cuya estructura es un grafo acíclico dirigido y cuya distribución conjunta se factoriza como el producto de la distribución condicional de cada variable dada la de sus padres.",
zh = "一种概率图模型:结构为有向无环图,其联合分布按每个变量在其父节点条件下的条件分布乘积分解。",
term_es = "modelo gráfico dirigido",
term_zh = "有向图模型",
aliases_es = { "red bayesiana", "red de creencias", "Bayes net" },
aliases_zh = { "贝叶斯网络", "信念网络", "Bayes 网" },
}
data["directed local markov property"] = {
short = "The property that, in a Bayesian network, every variable is conditionally independent of its non-descendants given its parents; one of several equivalent characterizations of the DAG's independence semantics.",
article = nil,
aliases = { "local Markov property", "local directed Markov property" },
es = "Propiedad que afirma que, en una red bayesiana, toda variable es condicionalmente independiente de sus no descendientes dadas sus padres; una de las caracterizaciones equivalentes de la semántica de independencia del DAG.",
zh = "一条性质:在贝叶斯网络中,给定父节点,每个变量与其所有非后代条件独立;是 DAG 独立性语义的若干等价刻画之一。",
term_es = "propiedad local de Markov dirigida",
term_zh = "有向局部马尔可夫性",
aliases_es = { "propiedad local de Markov", "propiedad de Markov local dirigida" },
aliases_zh = { "局部马尔可夫性", "有向局部Markov性质" },
}
data["directed message passing neural network"] = {
short = "A graph neural network architecture for molecules in which messages are associated with directed bonds (edges) rather than atoms, eliminating tottering and reducing redundant message paths. The Chemprop library popularized this approach.",
article = nil,
aliases = { "D-MPNN", "DMPNN", "directed MPNN", "directed message passing", "Chemprop D-MPNN" },
es = "Arquitectura de red neuronal de grafos para moléculas en la que los mensajes están asociados a enlaces dirigidos (aristas) en lugar de a átomos, eliminando trayectorias redundantes y oscilantes. La biblioteca Chemprop popularizó este enfoque.",
zh = "一种面向分子的图神经网络架构,将消息与有向键(边)而非原子相关联,从而消除震荡路径并减少冗余传递路径。Chemprop 库使该方法得到广泛应用。",
term_es = "red neuronal de paso de mensajes dirigida",
term_zh = "有向消息传递神经网络",
aliases_es = { "D-MPNN", "DMPNN", "MPNN dirigida" },
aliases_zh = { "D-MPNN", "DMPNN", "有向 MPNN" },
}
data["directed mixed graph"] = {
short = "A graph containing both directed and bidirected edges, used in causal inference to represent causal models with latent (unobserved) confounders; bidirected edges denote shared latent causes between two observed variables.",
article = nil,
aliases = { "DMG", "ADMG", "acyclic directed mixed graph" },
es = "Grafo que contiene tanto aristas dirigidas como bidirigidas, utilizado en inferencia causal para representar modelos con confusores latentes (no observados); las aristas bidirigidas indican causas latentes compartidas entre dos variables observadas.",
zh = "同时包含有向边与双向边的图,在因果推断中用于表示含潜在(未观测)混杂因素的因果模型;双向边表示两个观测变量共享的潜在原因。",
term_es = "grafo mixto dirigido",
term_zh = "有向混合图",
aliases_es = { "DMG", "ADMG", "grafo mixto acíclico dirigido" },
aliases_zh = { "DMG", "ADMG", "无环有向混合图" },
}
data["dirichlet calibration"] = {
short = "A multi-class probability calibration method that fits a Dirichlet-family link function to the predicted probability vector, generalizing matrix and vector scaling to a flexible parametric family.",
article = nil,
aliases = { "Dirichlet scaling", "Dirichlet calibrator", "Dirichlet calibration map" },
es = "Método de calibración de probabilidades multiclase que ajusta una función de enlace de la familia de Dirichlet al vector de probabilidades predichas, generalizando el escalado matricial y vectorial a una familia paramétrica flexible.",
zh = "一种多分类概率校准方法,对预测概率向量拟合 Dirichlet 族链接函数,将矩阵缩放和向量缩放推广到灵活的参数族。",
term_es = "calibración de Dirichlet",
term_zh = "Dirichlet 校准",
aliases_es = { "escalado de Dirichlet", "calibrador de Dirichlet", "mapa de calibración de Dirichlet" },
aliases_zh = { "Dirichlet 缩放", "狄利克雷校准", "Dirichlet 校准映射" },
}
data["dirichlet distribution"] = {
short = "A continuous distribution over the (K−1)-dimensional probability simplex, parameterized by a positive concentration vector α ∈ ℝ_{>0}^K. It is the conjugate prior of the categorical and multinomial distributions and underlies topic models such as LDA.",
article = nil,
aliases = { "Dir", "Dir(α)", "Dirichlet", "Dirichlet prior" },
es = "Distribución continua sobre el simplex de probabilidad de dimensión (K−1), parametrizada por un vector de concentración positivo α ∈ ℝ_{>0}^K. Es la prior conjugada de las distribuciones categórica y multinomial y la base de modelos de temas como LDA.",
zh = "定义在 (K−1) 维概率单纯形上的连续分布,由正浓度向量 α ∈ ℝ_{>0}^K 参数化。它是类别分布和多项分布的共轭先验,也是 LDA 等主题模型的基础。",
term_es = "distribución de Dirichlet",
term_zh = "Dirichlet 分布",
aliases_es = { "Dir", "Dir(α)", "Dirichlet", "prior de Dirichlet" },
aliases_zh = { "狄利克雷分布", "Dir", "Dir(α)", "Dirichlet 先验" },
}
data["dirichlet hyperparameter"] = {
short = "A concentration parameter of a Dirichlet prior over multinomial probabilities, controlling how strongly the prior pulls the parameters toward uniform versus sparse distributions.",
article = nil,
aliases = { "Dirichlet concentration parameter", "Dirichlet prior hyperparameter", "alpha hyperparameter" },
es = "Parámetro de concentración de un prior de Dirichlet sobre probabilidades multinomiales, que controla la fuerza con la que el prior empuja los parámetros hacia distribuciones uniformes frente a dispersas.",
zh = "Dirichlet 先验在多项分布概率上的集中度超参数,控制先验将参数拉向均匀分布还是稀疏分布的强度。",
term_es = "hiperparámetro de Dirichlet",
term_zh = "Dirichlet 超参数",
aliases_es = { "parámetro de concentración de Dirichlet", "hiperparámetro alpha" },
aliases_zh = { "Dirichlet 集中度参数", "alpha 超参数" },
}
data["dirichlet prior network"] = {
short = "A classifier that outputs the concentration parameters of a Dirichlet distribution over class probabilities, separating distributional uncertainty from data and model uncertainty.",
article = nil,
aliases = { "DPN", "Dirichlet prior networks", "prior network", "Dirichlet output network" },
es = "Clasificador que predice los parámetros de concentración de una distribución de Dirichlet sobre las probabilidades de clase, separando la incertidumbre distribucional de la incertidumbre de datos y de modelo.",
zh = "输出类别概率上 Dirichlet 分布浓度参数的分类器,将分布不确定性与数据和模型不确定性分离开来。",
term_es = "red de previa de Dirichlet",
term_zh = "狄利克雷先验网络",
aliases_es = { "DPN", "redes de previa de Dirichlet", "red de previa", "red de salida Dirichlet" },
aliases_zh = { "DPN", "Dirichlet 先验网络", "先验网络", "Dirichlet 输出网络" },
}
data["dirichlet process"] = {
short = "A stochastic process whose realizations are discrete probability measures, parameterized by a base distribution and a concentration parameter; foundational nonparametric Bayesian prior over probability distributions.",
article = nil,
aliases = { "DP", "Dirichlet process", "Ferguson Dirichlet process" },
es = "Proceso estocástico cuyas realizaciones son medidas de probabilidad discretas, parametrizado por una distribución base y un parámetro de concentración; prior bayesiano no paramétrico fundamental sobre distribuciones de probabilidad.",
zh = "一种随机过程,其实现为离散概率测度,由基分布和集中度参数刻画;是关于概率分布的基础非参贝叶斯先验。",
term_es = "proceso de Dirichlet",
term_zh = "狄利克雷过程",
aliases_es = { "DP", "proceso de Dirichlet de Ferguson" },
aliases_zh = { "DP", "Dirichlet 过程" },
}
data["dirichlet process mixture model"] = {
short = "A nonparametric Bayesian mixture model that places a Dirichlet process prior over the mixing distribution, allowing the number of components to grow with the data instead of being fixed in advance.",
article = nil,
aliases = { "DPMM", "DP mixture model", "infinite mixture model" },
es = "Modelo bayesiano no paramétrico de mezcla que coloca un prior de proceso de Dirichlet sobre la distribución de mezcla, permitiendo que el número de componentes crezca con los datos en lugar de fijarse de antemano.",
zh = "一种非参贝叶斯混合模型:在混合分布上放置 Dirichlet 过程先验,使混合成分数可以随数据增长而无需事先固定。",
term_es = "modelo de mezcla con proceso de Dirichlet",
term_zh = "狄利克雷过程混合模型",
aliases_es = { "DPMM", "modelo de mezcla DP", "mezcla infinita" },
aliases_zh = { "DPMM", "DP 混合模型", "无限混合模型" },
}
data["disability bias"] = {
short = "Systematic bias in data, models, or evaluations against people with disabilities — for example, speech recognition that performs worse on dysarthric voices, or image models that mis-tag mobility aids.",
article = nil,
aliases = { "ableism in AI", "ableist bias", "disability-related bias" },
es = "Sesgo sistemático en datos, modelos o evaluaciones contra personas con discapacidad —por ejemplo, reconocimiento del habla que rinde peor con voces disártricas o modelos de imágenes que etiquetan incorrectamente las ayudas a la movilidad.",
zh = "在数据、模型或评估中针对残障人士的系统性偏差——例如语音识别在构音障碍语音上表现更差,或图像模型错误标注辅助器具。",
term_es = "sesgo por discapacidad",
term_zh = "残障偏差",
aliases_es = { "capacitismo en IA", "sesgo capacitista", "sesgo contra la discapacidad" },
aliases_zh = { "残疾偏差", "对残障的偏见", "残障相关偏差", "能力主义偏见" },
}
data["disability fairness"] = {
short = "The study and practice of ensuring that AI systems treat people with disabilities equitably across access, accuracy, and representation, encompassing accessible design, inclusive datasets, and disability-aware evaluation.",
article = nil,
aliases = { "fairness for people with disabilities", "fairness for disability", "disability-aware fairness" },
es = "Estudio y práctica de garantizar que los sistemas de IA traten de forma equitativa a las personas con discapacidad en cuanto a acceso, precisión y representación, abarcando el diseño accesible, los conjuntos de datos inclusivos y la evaluación sensible a la discapacidad.",
zh = "确保人工智能系统在可访问性、准确性和表征上公平对待残障人士的研究与实践,涵盖无障碍设计、包容性数据集以及考虑残障的评估方法。",
term_es = "equidad para personas con discapacidad",
term_zh = "残障公平性",
aliases_es = { "equidad en discapacidad", "equidad ante la discapacidad" },
aliases_zh = { "残疾公平性", "面向残障的公平性", "残障人士公平性" },
}
data["disability rights in ai"] = {
short = "The application of disability-rights principles (accessibility, non-discrimination, reasonable accommodation) to AI system design and evaluation, ensuring that models do not exclude, misclassify, or disparately harm disabled users.",
article = nil,
aliases = { "disability rights and AI", "AI disability rights", "disability and AI fairness" },
es = "Aplicación de los principios de derechos de las personas con discapacidad (accesibilidad, no discriminación, ajustes razonables) al diseño y la evaluación de sistemas de IA, garantizando que los modelos no excluyan, clasifiquen erróneamente ni perjudiquen de forma desproporcionada a usuarios con discapacidad.",
zh = "将残障权利原则(无障碍、非歧视、合理便利)应用于人工智能系统的设计与评估,确保模型不会排除、误分类或对残障用户造成不成比例的伤害。",
term_es = "derechos de las personas con discapacidad en IA",
term_zh = "人工智能中的残障权利",
aliases_es = { "derechos de discapacidad en IA", "IA y derechos de discapacidad" },
aliases_zh = { "AI 中的残障权利", "人工智能与残障权利" },
}
data["disaggregated evaluation"] = {
short = "An evaluation methodology in which model performance is measured separately on demographic or contextual subgroups (e.g. race, gender, age, geography) rather than reported only as an aggregate figure, exposing disparities that aggregate metrics hide.",
article = nil,
aliases = { "disaggregated analysis", "subgroup evaluation", "stratified evaluation" },
es = "Metodología de evaluación en la que el rendimiento del modelo se mide por separado en subgrupos demográficos o contextuales (raza, género, edad, geografía) en lugar de reportarse solo como una cifra agregada, revelando disparidades que las métricas agregadas ocultan.",
zh = "一种评估方法,将模型性能在人口学或情境子群(如种族、性别、年龄、地域)上分别衡量,而不是仅以汇总指标报告,从而揭示总体指标所掩盖的差异。",
term_es = "evaluación desagregada",
term_zh = "分组评估",
aliases_es = { "análisis desagregado", "evaluación por subgrupos", "evaluación estratificada" },
aliases_zh = { "细分评估", "子群评估", "分层评估" },
}
data["disaggregated metrics"] = {
short = "Performance or fairness statistics computed independently for each demographic subgroup (e.g. accuracy by race, false-positive rate by gender) so that subgroup-specific gaps can be quantified and compared.",
article = nil,
aliases = { "subgroup metrics", "stratified metrics", "per-group metrics" },
es = "Estadísticas de rendimiento o equidad calculadas de forma independiente para cada subgrupo demográfico (precisión por raza, tasa de falsos positivos por género), permitiendo cuantificar y comparar las brechas específicas por subgrupo.",
zh = "针对每个人口学子群分别计算的性能或公平性统计量(如按种族的准确率、按性别的假阳性率),用于量化和比较各子群之间的差距。",
term_es = "métricas desagregadas",
term_zh = "分组指标",
aliases_es = { "métricas por subgrupo", "métricas estratificadas", "métricas por grupo" },
aliases_zh = { "子群指标", "分层指标", "按组指标" },
}
data["disagreement uncertainty"] = {
short = "An epistemic uncertainty measure quantified by the variance or entropy of predictions across an ensemble or posterior sample, capturing how much models disagree on a given input.",
article = nil,
aliases = { "model disagreement", "ensemble disagreement", "predictive disagreement", "disagreement-based uncertainty" },
es = "Medida de incertidumbre epistémica cuantificada por la varianza o entropía de las predicciones a través de un conjunto o muestra posterior, que captura cuánto difieren los modelos sobre una entrada dada.",
zh = "通过集成或后验样本中预测的方差或熵量化的认知不确定性度量,刻画模型对给定输入的分歧程度。",
term_es = "incertidumbre por desacuerdo",
term_zh = "分歧不确定性",
aliases_es = { "desacuerdo del modelo", "desacuerdo del ensamble", "desacuerdo predictivo", "incertidumbre basada en desacuerdo" },
aliases_zh = { "模型分歧", "集成分歧", "预测分歧", "基于分歧的不确定性" },
}
data["discount factor"] = {
short = "In reinforcement learning, a scalar γ in [0,1] that exponentially weights future rewards in the return, controlling the trade-off between immediate and long-term reward and ensuring convergence of the infinite-horizon return when γ < 1.",
article = nil,
aliases = { "gamma", "γ", "reward discount factor" },
es = "En aprendizaje por refuerzo, un escalar γ en [0,1] que pondera exponencialmente las recompensas futuras en el retorno, controlando el equilibrio entre recompensa inmediata y a largo plazo y garantizando la convergencia del retorno de horizonte infinito cuando γ < 1.",
zh = "在强化学习中,取值于 [0,1] 的标量 γ,用于对回报中的未来奖励进行指数加权,控制即时奖励与长期奖励之间的权衡,并在 γ < 1 时保证无限时域回报的收敛。",
term_es = "factor de descuento",
term_zh = "折扣因子",
aliases_es = { "gamma", "γ" },
aliases_zh = { "gamma", "γ", "衰减因子" },
}
data["discovered architecture"] = {
short = "A neural network architecture produced by an automated search procedure (NAS, evolutionary search, program synthesis) rather than designed by hand.",
article = nil,
aliases = { "searched architecture", "auto-discovered architecture", "NAS-discovered architecture" },
es = "Arquitectura de red neuronal producida por un procedimiento de búsqueda automatizado (NAS, búsqueda evolutiva, síntesis de programas) en lugar de diseñada manualmente.",
zh = "通过自动化搜索过程(NAS、进化搜索、程序合成等)得到的神经网络架构,而非人工设计的架构。",
term_es = "arquitectura descubierta",
term_zh = "搜索得到的架构",
aliases_es = { "arquitectura encontrada", "arquitectura auto-descubierta" },
aliases_zh = { "发现的架构", "搜索出的架构", "NAS 发现的架构" },
}
data["discovering symbolic algorithms"] = {
short = "A line of AutoML research, exemplified by AutoML-Zero (Real et al., 2020), that searches over compositions of low-level mathematical primitives to evolve entire learning algorithms (e.g., rediscovering backpropagation) from scratch.",
article = nil,
aliases = { "AutoML-Zero", "symbolic algorithm discovery", "algorithm discovery" },
es = "Línea de investigación en AutoML, ejemplificada por AutoML-Zero (Real et al., 2020), que busca composiciones de primitivas matemáticas de bajo nivel para hacer evolucionar algoritmos de aprendizaje completos (por ejemplo, redescubriendo la retropropagación) desde cero.",
zh = "AutoML 的一条研究方向,以 AutoML-Zero(Real 等,2020)为代表,通过搜索由低级数学原语组合而成的程序来从零进化出完整的学习算法(例如重新发现反向传播)。",
term_es = "descubrimiento de algoritmos simbólicos",
term_zh = "符号算法发现",
aliases_es = { "AutoML-Zero", "descubrimiento de algoritmos" },
aliases_zh = { "AutoML-Zero", "算法发现" },
}
data["discrete bayesian network"] = {
short = "A Bayesian network in which all variables are discrete and each conditional distribution is represented by a conditional probability table indexed by the parents' joint configurations.",
article = nil,
aliases = { "discrete Bayes net", "tabular Bayesian network" },
es = "Red bayesiana en la que todas las variables son discretas y cada distribución condicional se representa mediante una tabla de probabilidad condicional indexada por las configuraciones conjuntas de los padres.",
zh = "一种贝叶斯网络:所有变量均为离散变量,每个条件分布用以父节点联合取值索引的条件概率表表示。",
term_es = "red bayesiana discreta",
term_zh = "离散贝叶斯网络",
aliases_es = { "Bayes net discreta", "red bayesiana tabular" },
aliases_zh = { "离散 Bayes 网", "表格贝叶斯网络" },
}
data["discrete fourier transform for audio"] = {
short = "Application of the discrete Fourier transform to a finite-length audio signal to obtain its complex-valued frequency-domain representation, foundational for spectral analysis and the STFT.",
article = nil,
aliases = { "audio DFT", "DFT for audio", "discrete Fourier transform (audio)" },
es = "Aplicación de la transformada discreta de Fourier a una señal de audio de longitud finita para obtener su representación en el dominio de la frecuencia con valores complejos, base del análisis espectral y de la STFT.",
zh = "对有限长度的音频信号应用离散傅里叶变换以获得其复值频域表示,是频谱分析和短时傅里叶变换的基础。",
term_es = "transformada discreta de Fourier para audio",
term_zh = "音频离散傅里叶变换",
aliases_es = { "DFT de audio", "transformada discreta de Fourier (audio)" },
aliases_zh = { "音频 DFT", "离散傅里叶变换(音频)" },
}
data["discrete speech units"] = {
short = "Quantized tokens that represent speech, typically obtained by clustering self-supervised audio representations (e.g. HuBERT) or via neural codec encoders, enabling text-like modeling of speech.",
article = nil,
aliases = { "discrete speech tokens", "speech units", "discrete audio units", "DSU" },
es = "Tokens cuantizados que representan habla, obtenidos típicamente al agrupar representaciones autosupervisadas de audio (p. ej. HuBERT) o mediante codificadores de códecs neuronales, permitiendo un modelado del habla similar al del texto.",
zh = "用于表示语音的离散化标记,通常通过对自监督音频表示(如 HuBERT)进行聚类或经由神经编解码器编码器获得,使语音可以像文本一样建模。",
term_es = "unidades discretas de habla",
term_zh = "离散语音单元",
aliases_es = { "tokens discretos de habla", "unidades de habla", "unidades discretas de audio" },
aliases_zh = { "离散语音标记", "离散音频单元", "语音单元" },
}
data["discriminative model"] = {
short = "A model that directly estimates the conditional distribution of labels given inputs, optimizing decision boundaries without modeling the input distribution.",
article = nil,
aliases = { "discriminative models", "conditional model" },
es = "Modelo que estima directamente la distribución condicional de las etiquetas dadas las entradas, optimizando fronteras de decisión sin modelar la distribución de las entradas.",
zh = "一种直接估计给定输入下标签条件分布的模型,优化决策边界而不对输入分布建模。",
term_es = "modelo discriminativo",
term_zh = "判别模型",
aliases_es = { "modelos discriminativos", "modelo condicional" },
aliases_zh = { "判别式模型", "条件模型" },
}
data["discriminative training crf"] = {
short = "Training a conditional random field by maximizing the conditional log-likelihood of labels given inputs, rather than a joint generative likelihood; the standard objective for CRFs.",
article = nil,
aliases = { "discriminative CRF training", "conditional likelihood training", "discriminative training of CRFs" },
es = "Entrenamiento de un campo aleatorio condicional maximizando la log-verosimilitud condicional de las etiquetas dados los inputs, en lugar de una verosimilitud generativa conjunta; objetivo estándar para los CRFs.",
zh = "条件随机场的训练方式:最大化给定输入时标签的条件对数似然,而非联合生成似然;这是 CRF 的标准训练目标。",
term_es = "entrenamiento discriminativo de CRF",
term_zh = "CRF 判别式训练",
aliases_es = { "entrenamiento por verosimilitud condicional", "entrenamiento discriminativo del CRF" },
aliases_zh = { "条件似然训练", "判别式 CRF 训练" },
}
data["disease ontology"] = {
short = "A standardized, hierarchically organized vocabulary of human diseases that provides stable identifiers and cross-references to other resources (OMIM, MeSH, ICD), used to annotate genes, variants, and phenotypes.",
article = nil,
aliases = { "Disease Ontology", "DO", "Human Disease Ontology", "DOID" },
es = "Vocabulario estandarizado y organizado jerárquicamente de enfermedades humanas que proporciona identificadores estables y referencias cruzadas a otros recursos (OMIM, MeSH, ICD), utilizado para anotar genes, variantes y fenotipos.",
zh = "一种标准化、分层组织的人类疾病词汇表,提供稳定的标识符以及与 OMIM、MeSH、ICD 等其他资源的交叉引用,用于注释基因、变异和表型。",
term_es = "Disease Ontology",
term_zh = "疾病本体",
aliases_es = { "Ontología de Enfermedades", "DO", "DOID" },
aliases_zh = { "Disease Ontology", "DO", "DOID" },
}
data["disordered region prediction"] = {
short = "Computational prediction of intrinsically disordered regions in proteins—segments lacking a stable folded structure—from amino-acid sequence, using methods such as PONDR, IUPred, or deep-learning predictors.",
article = nil,
aliases = { "intrinsic disorder prediction", "IDR prediction", "intrinsically disordered region prediction", "protein disorder prediction" },
es = "Predicción computacional de regiones intrínsecamente desordenadas en proteínas —segmentos que carecen de una estructura plegada estable— a partir de la secuencia de aminoácidos, utilizando métodos como PONDR, IUPred o predictores basados en aprendizaje profundo.",
zh = "从氨基酸序列出发,使用 PONDR、IUPred 或基于深度学习的预测器等方法,计算预测蛋白质中的内在无序区——即缺乏稳定折叠结构的片段。",
term_es = "predicción de regiones desordenadas",
term_zh = "无序区预测",
aliases_es = { "predicción de desorden intrínseco", "predicción de IDR" },
aliases_zh = { "内在无序区预测", "IDR 预测", "蛋白质无序预测" },
}
data["disparate impact"] = {
short = "A legal and statistical concept in which a facially neutral policy or model produces substantially different outcomes for protected groups. Often operationalized via the four-fifths rule: the selection rate for a group is less than 80% of the highest group's rate.",
article = nil,
aliases = { "adverse impact", "indirect discrimination", "four-fifths rule violation", "80% rule" },
es = "Concepto jurídico y estadístico según el cual una política o modelo aparentemente neutral produce resultados sustancialmente distintos para grupos protegidos. Suele operacionalizarse mediante la regla del 80%: la tasa de selección de un grupo es inferior al 80% de la del grupo con mayor tasa.",
zh = "一种法律与统计概念,指表面中立的政策或模型对受保护群体产生显著不同的结果。常以『五分之四规则』(80% 规则)操作化:某群体的选取率低于最高群体选取率的 80%。",
term_es = "impacto dispar",
term_zh = "差异性影响",
aliases_es = { "impacto adverso", "discriminación indirecta", "regla del 80%" },
aliases_zh = { "差别性影响", "不利影响", "间接歧视", "五分之四规则" },
}
data["disparate impact remover"] = {
short = "A preprocessing fairness algorithm by Feldman et al. (2015) that modifies feature values so that the conditional distribution of each feature given the protected attribute becomes the same across groups, thereby reducing disparate impact.",
article = nil,
aliases = { "Feldman disparate impact remover", "DI remover", "DIR", "disparate-impact remover" },
es = "Algoritmo de equidad de preprocesamiento de Feldman et al. (2015) que modifica los valores de las características para que la distribución condicional de cada característica dada el atributo protegido sea igual entre grupos, reduciendo así el impacto dispar.",
zh = "Feldman 等(2015)提出的预处理公平性算法,通过修改特征值,使每个特征在给定受保护属性条件下的分布在各群体间保持一致,从而降低差异性影响。",
term_es = "eliminador de impacto dispar",
term_zh = "差异性影响消除器",
aliases_es = { "DI remover", "DIR", "removedor de impacto dispar" },
aliases_zh = { "DI 消除器", "差别性影响消除器", "DIR" },
}
data["disparate mistreatment"] = {
short = "A fairness criterion proposed by Zafar et al. (2017) requiring that classification error rates (e.g. false-positive rate, false-negative rate) be equal across protected groups; group-specific error disparities constitute disparate mistreatment.",
article = nil,
aliases = { "disparate mistreatment fairness", "Zafar disparate mistreatment" },
es = "Criterio de equidad propuesto por Zafar et al. (2017) que exige que las tasas de error de clasificación (tasa de falsos positivos, falsos negativos) sean iguales entre grupos protegidos; las disparidades de error específicas por grupo constituyen un trato dispar.",
zh = "Zafar 等(2017)提出的公平性准则,要求分类错误率(如假阳性率、假阴性率)在受保护群体之间相等;群体特定的错误差异即构成差异性误处理。",
term_es = "trato dispar",
term_zh = "差异性误处理",
aliases_es = { "trato injusto dispar", "mistreatment dispar" },
aliases_zh = { "差别性误处理", "差异性错误对待" },
}
data["disparate treatment"] = {
short = "Direct discrimination in which a model or decision process explicitly uses a protected attribute (or a near-perfect proxy) to alter decisions for members of a protected group. Distinct from disparate impact, which concerns outcome disparities of facially neutral rules.",
article = nil,
aliases = { "direct discrimination", "intentional discrimination", "explicit discrimination" },
es = "Discriminación directa en la que un modelo o proceso de decisión utiliza explícitamente un atributo protegido (o un proxy casi perfecto) para alterar decisiones sobre miembros de un grupo protegido. Distinto del impacto dispar, que se refiere a disparidades de resultado de reglas aparentemente neutrales.",
zh = "直接歧视,即模型或决策过程明确使用受保护属性(或几乎完全等价的代理变量)来改变受保护群体成员的决策。与『差异性影响』不同,后者关注表面中立规则导致的结果差距。",
term_es = "trato dispar",
term_zh = "差别性对待",
aliases_es = { "discriminación directa", "discriminación intencional", "discriminación explícita" },
aliases_zh = { "差异性对待", "直接歧视", "故意歧视" },
}
data["disparities in clinical prediction"] = {
short = "Systematic differences in the accuracy, calibration, or error rates of clinical machine-learning models across patient subgroups defined by race, sex, socioeconomic status, or other attributes, often arising from biased training data or label proxies.",
article = nil,
aliases = { "clinical prediction disparities", "healthcare ML disparities", "clinical model bias" },
es = "Diferencias sistemáticas en la precisión, calibración o tasas de error de los modelos de aprendizaje automático clínico entre subgrupos de pacientes definidos por raza, sexo, nivel socioeconómico u otros atributos, a menudo derivadas de datos de entrenamiento sesgados o de proxies de etiquetas.",
zh = "临床机器学习模型在按种族、性别、社会经济地位或其他属性划分的患者子群之间,在准确率、校准度或错误率上的系统性差异,通常源于训练数据偏差或标签代理。",
term_es = "disparidades en la predicción clínica",
term_zh = "临床预测中的差异",
aliases_es = { "disparidades en modelos clínicos", "sesgo en predicción clínica", "disparidades en ML clínico" },
aliases_zh = { "临床预测差异", "医疗机器学习偏差", "临床模型偏差" },
}
data["disparity index"] = {
short = "A scalar summary that quantifies the gap in a chosen metric (selection rate, accuracy, false-positive rate) between a reference group and one or more comparison groups, used to monitor fairness over time or across models.",
article = nil,
aliases = { "fairness disparity index", "group disparity index" },
es = "Resumen escalar que cuantifica la brecha en una métrica elegida (tasa de selección, precisión, tasa de falsos positivos) entre un grupo de referencia y uno o más grupos de comparación, utilizado para monitorear la equidad a lo largo del tiempo o entre modelos.",
zh = "一种标量汇总指标,用于量化在所选指标(选取率、准确率、假阳性率)上参考群体与一个或多个对照群体之间的差距,用于跨时间或跨模型监控公平性。",
term_es = "índice de disparidad",
term_zh = "差异指数",
aliases_es = { "índice de disparidad de equidad", "índice de disparidad grupal" },
aliases_zh = { "公平性差异指数", "群体差异指数" },
}
data["distance geometry"] = {
short = "A mathematical framework for determining 3D atomic coordinates from a set of interatomic distance and angle constraints. Widely used for initial conformer generation in cheminformatics (e.g. RDKit ETKDG) and for NMR structure determination.",
article = nil,
aliases = { "DG", "distance-geometry method", "distance geometry methods" },
es = "Marco matemático para determinar coordenadas atómicas 3D a partir de un conjunto de restricciones de distancias y ángulos interatómicos. Se utiliza ampliamente para la generación inicial de confórmeros en quimioinformática (p. ej. ETKDG en RDKit) y para la determinación de estructuras por RMN.",
zh = "通过原子间距离和角度约束确定三维原子坐标的数学框架。广泛用于化学信息学中的初始构象生成(如 RDKit 的 ETKDG)以及 NMR 结构解析。",
term_es = "geometría de distancias",
term_zh = "距离几何",
aliases_es = { "métodos de geometría de distancias" },
aliases_zh = { "距离几何方法", "distance geometry" },
}
data["distance iou loss"] = {
short = "IoU-based bounding-box loss that also penalizes the normalized distance between predicted and ground-truth box centers, accelerating convergence over GIoU.",
article = nil,
aliases = { "DIoU loss", "DIoU" },
es = "Pérdida para cajas basada en IoU que además penaliza la distancia normalizada entre los centros de la caja predicha y la real, acelerando la convergencia frente a GIoU.",
zh = "基于 IoU 的边界框损失,并惩罚预测框中心与真实框中心之间的归一化距离,相比 GIoU 收敛更快。",
term_es = "pérdida DIoU",
term_zh = "DIoU 损失",
aliases_es = { "DIoU", "IoU de distancia" },
aliases_zh = { "DIoU", "距离 IoU 损失" },
}
data["distant supervision"] = {
short = "A weak-supervision technique that derives training labels by aligning unlabeled text or data with an external knowledge base or structured resource, accepting the resulting label noise.",
article = nil,
aliases = { "distantly supervised learning" },
es = "Técnica de supervisión débil que deriva etiquetas de entrenamiento alineando texto o datos no etiquetados con una base de conocimiento externa o recurso estructurado, asumiendo el ruido resultante en las etiquetas.",
zh = "一种弱监督技术,通过将未标注文本或数据与外部知识库或结构化资源对齐来生成训练标签,并接受由此产生的标签噪声。",
term_es = "supervisión distante",
term_zh = "远程监督",
aliases_es = { "supervisión a distancia", "distant supervision" },
aliases_zh = { "distant supervision", "远监督" },
}
data["distant supervision relation extraction"] = {
short = "A weakly supervised paradigm for relation extraction in which sentences mentioning a pair of entities linked in a knowledge base (e.g., Freebase) are heuristically labeled with the corresponding relation, generating large but noisy training data.",
article = nil,
aliases = { "distant supervision", "DS-RE", "distantly supervised relation extraction", "knowledge-base distant supervision", "Mintz distant supervision" },
es = "Un paradigma de supervisión débil para la extracción de relaciones en el que las oraciones que mencionan un par de entidades vinculadas en una base de conocimiento (p. ej., Freebase) se etiquetan heurísticamente con la relación correspondiente, generando datos de entrenamiento abundantes pero ruidosos.",
zh = "一种用于关系抽取的弱监督范式:对提及在知识库(如 Freebase)中存在关联的两个实体的句子,启发式地打上对应关系标签,从而产生规模大但有噪声的训练数据。",
term_es = "extracción de relaciones por supervisión distante",
term_zh = "远程监督关系抽取",
aliases_es = { "supervisión distante", "DS-RE", "extracción de relaciones por supervisión débil basada en KB" },
aliases_zh = { "远程监督", "DS-RE", "基于知识库的远程监督", "Mintz 远程监督" },
}
data["distbelief"] = {
short = "Google's first-generation distributed deep learning framework, which combined data parallelism with model parallelism via parameter servers and asynchronous SGD, predating TensorFlow.",
article = nil,
aliases = { "DistBelief" },
es = "Primera generación del marco de aprendizaje profundo distribuido de Google, que combinaba paralelismo de datos con paralelismo de modelo mediante servidores de parámetros y SGD asíncrono, antecesor de TensorFlow.",
zh = "Google 第一代分布式深度学习框架:通过参数服务器和异步 SGD 结合数据并行与模型并行,是 TensorFlow 的前身。",
term_es = "DistBelief",
term_zh = "DistBelief",
aliases_es = { "marco DistBelief" },
aliases_zh = { "DistBelief 框架", "Google DistBelief" },
}
data["distil-whisper"] = {
short = "A distilled, smaller variant of OpenAI's Whisper ASR model that retains most of the original's accuracy while running several times faster and using less memory.",
article = nil,
aliases = { "Distil-Whisper", "DistilWhisper", "distilled Whisper" },
es = "Variante destilada y más pequeña del modelo de reconocimiento de habla Whisper de OpenAI que conserva la mayor parte de la precisión del original con varias veces menos latencia y menor uso de memoria.",
zh = "OpenAI Whisper 语音识别模型的蒸馏小型变体,在保留原模型大部分准确率的同时显著降低延迟和内存占用。",
term_es = "Distil-Whisper",
term_zh = "Distil-Whisper",
aliases_es = { "Distil-Whisper", "Whisper destilado" },
aliases_zh = { "Distil-Whisper", "蒸馏版 Whisper" },
}
data["distilabel"] = {
short = "An open-source Python framework from Argilla for building synthetic data and AI feedback pipelines for LLMs, with reusable steps for generation, critique, ranking and dataset construction.",
article = nil,
aliases = { "Distilabel", "distilabel framework", "Argilla distilabel" },
es = "Marco de código abierto en Python de Argilla para construir pipelines de datos sintéticos y de retroalimentación de IA para LLMs, con pasos reutilizables de generación, crítica, ranking y construcción de conjuntos de datos.",
zh = "Argilla 推出的开源 Python 框架,用于为大语言模型构建合成数据与 AI 反馈流水线,提供可复用的生成、批评、排序和数据集构建步骤。",
term_es = "distilabel",
term_zh = "distilabel",
aliases_es = { "framework distilabel" },
aliases_zh = { "Distilabel", "distilabel 框架" },
}
data["distillation of posterior"] = {
short = "Training a single compact student network to reproduce the predictive distribution of an expensive Bayesian posterior or ensemble, preserving uncertainty estimates at lower inference cost.",
article = nil,
aliases = { "posterior distillation", "Bayesian distillation", "ensemble distillation", "BNN distillation" },
es = "Entrenamiento de una única red estudiante compacta para reproducir la distribución predictiva de un posterior bayesiano o ensamble costoso, preservando las estimaciones de incertidumbre con menor coste de inferencia.",
zh = "训练一个紧凑的单一学生网络以再现昂贵贝叶斯后验或集成的预测分布,在更低的推断成本下保留不确定性估计。",
term_es = "destilación del posterior",
term_zh = "后验蒸馏",
aliases_es = { "destilación posterior", "destilación bayesiana", "destilación de ensamble", "destilación de BNN" },
aliases_zh = { "后验分布蒸馏", "贝叶斯蒸馏", "集成蒸馏", "贝叶斯神经网络蒸馏" },
}
data["distmult"] = {
short = "A bilinear knowledge-graph embedding model that scores a triple (h, r, t) as the trilinear product <h, r, t> with diagonal relation matrices, making it efficient but symmetric in head and tail.",
article = nil,
aliases = { "DistMult", "DISTMULT", "Distmult", "DistMult model", "bilinear-diagonal model" },
es = "Un modelo bilineal de embeddings de grafos de conocimiento que puntúa una tripla (h, r, t) como el producto trilineal <h, r, t> con matrices de relación diagonales, lo que lo hace eficiente pero simétrico en cabeza y cola.",
zh = "一种双线性知识图嵌入模型,使用对角关系矩阵将三元组 (h, r, t) 评分为三线性积 <h, r, t>,效率高但在头尾实体上对称。",
term_es = "DistMult",
term_zh = "DistMult",
aliases_es = { "DistMult", "modelo DistMult", "modelo bilineal diagonal" },
aliases_zh = { "DistMult", "DistMult 模型", "对角双线性模型" },
}
data["distogram"] = {
short = "A discretized probability distribution over pairwise residue-residue (or atom-atom) distances predicted by a structure model. AlphaFold and its predecessors output a distogram as an intermediate representation of protein 3D geometry.",
article = nil,
aliases = { "distance histogram", "pairwise distance distribution", "distograms" },
es = "Distribución de probabilidad discretizada sobre las distancias entre pares de residuos (o átomos) predicha por un modelo estructural. AlphaFold y sus predecesores generan un distograma como representación intermedia de la geometría 3D de la proteína.",
zh = "结构预测模型输出的关于残基对(或原子对)间距离的离散概率分布。AlphaFold 及其前身将 distogram 作为蛋白质三维几何的中间表示。",
term_es = "distograma",
term_zh = "距离分布图",
aliases_es = { "histograma de distancias", "distribución de distancias por pares" },
aliases_zh = { "distogram", "距离直方图", "残基对距离分布" },
}
data["distortion-free watermark"] = {
short = "A class of LLM watermarking schemes that statistically marks generated text without changing its output distribution, so the watermarked sampler is in expectation indistinguishable from the original model.",
article = nil,
aliases = { "distortion free watermark", "distortion-free LLM watermark", "unbiased watermark" },
es = "Clase de esquemas de marca de agua para LLMs que marca estadísticamente el texto generado sin alterar su distribución de salida, de modo que el muestreador con marca de agua resulta, en esperanza, indistinguible del modelo original.",
zh = "一类大语言模型水印方案:在不改变输出分布的前提下,对生成文本进行统计意义上的水印嵌入,使带水印的采样器在期望意义下与原模型不可区分。",
term_es = "marca de agua sin distorsión",
term_zh = "无失真水印",
aliases_es = { "marca de agua imparcial", "watermark sin distorsión" },
aliases_zh = { "无偏水印", "无失真 LLM 水印" },
}
data["distributed alignment search"] = {
short = "An interpretability method that finds causal alignments between high-level concepts and a neural network's distributed activations by learning a rotation of the hidden space via gradient descent. Introduced by Geiger et al. (2023) to scale causal abstraction analysis.",
article = nil,
aliases = { "DAS", "distributed alignment search (DAS)" },
es = "Método de interpretabilidad que halla alineaciones causales entre conceptos de alto nivel y las activaciones distribuidas de una red neuronal aprendiendo una rotación del espacio oculto mediante descenso de gradiente. Propuesto por Geiger et al. (2023) para escalar el análisis de abstracción causal.",
zh = "一种可解释性方法,通过梯度下降学习隐藏空间的旋转,从而在高层概念与神经网络分布式激活之间寻找因果对齐。由 Geiger 等人(2023)提出,用于将因果抽象分析扩展到大模型。",
term_es = "búsqueda de alineación distribuida",
term_zh = "分布式对齐搜索",
aliases_es = { "DAS", "búsqueda de alineación causal distribuida" },
aliases_zh = { "DAS", "分布式因果对齐搜索" },
}
data["distributed backdoor attack"] = {
short = "A federated learning attack in which several malicious clients each implant a different fragment of a backdoor trigger pattern into the global model, so that the full trigger is only formed when all fragments combine.",
article = nil,
aliases = { "DBA", "distributed backdoor", "fragmented backdoor attack" },
es = "Ataque de aprendizaje federado en el que varios clientes maliciosos implantan, cada uno, un fragmento distinto de un patrón disparador de puerta trasera en el modelo global, de modo que el disparador completo solo se forma cuando todos los fragmentos se combinan.",
zh = "一种联邦学习攻击:多个恶意客户端各自将后门触发模式的不同片段植入全局模型,只有所有片段组合时才形成完整触发器。",
term_es = "ataque de puerta trasera distribuida",
term_zh = "分布式后门攻击",
aliases_es = { "DBA", "ataque de backdoor distribuido", "puerta trasera distribuida" },
aliases_zh = { "DBA", "分布式后门", "拆分式后门攻击" },
}
data["distributed checkpointing"] = {
short = "A checkpointing strategy for large-scale training in which model state, optimizer state, and metadata are sharded and written in parallel across multiple ranks or storage targets, reducing wall-clock time and avoiding single-node memory bottlenecks.",
article = nil,
aliases = { "sharded checkpointing", "parallel checkpointing", "distributed checkpoint" },
es = "Estrategia de checkpointing para entrenamiento a gran escala en la que el estado del modelo, el del optimizador y los metadatos se fragmentan y escriben en paralelo entre varios procesos o destinos de almacenamiento, reduciendo el tiempo de pared y evitando cuellos de botella de memoria en un solo nodo.",
zh = "一种用于大规模训练的检查点策略:将模型状态、优化器状态和元数据进行分片,并在多个进程或存储目标上并行写入,从而降低墙钟时间并避免单节点内存瓶颈。",
term_es = "checkpointing distribuido",
term_zh = "分布式检查点",
aliases_es = { "checkpointing fragmentado", "checkpointing paralelo", "punto de control distribuido" },
aliases_zh = { "分片检查点", "并行检查点", "分布式 Checkpoint" },
}
data["distributed data parallel"] = {
short = "A data-parallel training strategy in which each worker holds a full replica of the model, processes a different shard of the mini-batch, and synchronizes gradients across workers via collective communication such as all-reduce.",
article = nil,
aliases = { "DDP", "data parallelism", "data-parallel training", "distributed data parallelism" },
es = "Estrategia de entrenamiento en paralelo de datos en la que cada trabajador mantiene una réplica completa del modelo, procesa una porción distinta del mini-lote y sincroniza gradientes entre trabajadores mediante comunicación colectiva como all-reduce.",
zh = "一种数据并行训练策略:每个工作节点持有模型的完整副本,处理小批量的不同分片,并通过 all-reduce 等集合通信同步梯度。",
term_es = "paralelismo de datos distribuido",
term_zh = "分布式数据并行",
aliases_es = { "DDP", "paralelismo de datos", "entrenamiento en paralelo de datos" },
aliases_zh = { "DDP", "数据并行", "数据并行训练" },
}
data["distributed differential privacy"] = {
short = "A privacy model in which differential privacy guarantees are obtained by combining noise added by multiple distributed parties—through secure aggregation, shuffling, or local mechanisms—rather than by trusting a single curator.",
article = nil,
aliases = { "distributed DP", "DDP privacy", "multi-party differential privacy" },
es = "Modelo de privacidad en el que las garantías de privacidad diferencial se obtienen combinando ruido añadido por múltiples partes distribuidas—mediante agregación segura, shuffling o mecanismos locales—en lugar de confiar en un único curador.",
zh = "一种隐私模型:通过多方分布式参与者(借助安全聚合、洗牌或本地机制)添加噪声共同获得差分隐私保证,而非依赖单一可信策展者。",
term_es = "privacidad diferencial distribuida",
term_zh = "分布式差分隐私",
aliases_es = { "DP distribuida", "privacidad diferencial multipartita" },
aliases_zh = { "分布式 DP", "多方差分隐私" },
}
data["distributed key generation"] = {
short = "A cryptographic protocol in which several parties jointly produce a public key together with shares of the corresponding secret key, so that no single party ever learns the full secret, used to enable threshold decryption and signing.",
article = nil,
aliases = { "DKG", "threshold key generation", "joint key generation" },
es = "Protocolo criptográfico en el que varias partes generan conjuntamente una clave pública junto con cuotas de la clave secreta correspondiente, de modo que ninguna parte conoce el secreto completo; se utiliza para habilitar descifrado y firma con umbral.",
zh = "一种密码学协议:多个参与方共同生成公钥及其对应私钥的份额,任何单一方都不会获知完整私钥,用于实现门限解密与签名。",
term_es = "generación distribuida de claves",
term_zh = "分布式密钥生成",
aliases_es = { "DKG", "generación de claves con umbral", "generación conjunta de claves" },
aliases_zh = { "DKG", "门限密钥生成", "联合密钥生成" },
}
data["distributed model parallel"] = {
short = "A parallelization strategy in which a single model is partitioned across multiple devices—by layers, tensors, or experts—so that each device stores and computes only part of the model and devices exchange activations and gradients during training.",
article = nil,
aliases = { "model parallelism", "distributed model parallelism", "model-parallel training" },
es = "Estrategia de paralelización en la que un único modelo se particiona entre varios dispositivos—por capas, tensores o expertos—de modo que cada dispositivo almacena y calcula solo parte del modelo, intercambiando activaciones y gradientes durante el entrenamiento.",
zh = "一种并行化策略:将单个模型按层、张量或专家划分到多个设备上,每个设备仅存储与计算模型的一部分,训练时设备之间交换激活和梯度。",
term_es = "paralelismo de modelo distribuido",
term_zh = "分布式模型并行",
aliases_es = { "paralelismo de modelo", "entrenamiento en paralelo de modelo" },
aliases_zh = { "模型并行", "分布式模型并行训练" },
}
data["distribution shift"] = {
short = "A change between the data distribution at training time and the distribution encountered at deployment, causing model performance to degrade. Encompasses covariate shift, label shift, and concept drift.",
article = nil,
aliases = { "dataset shift", "distributional shift", "data drift" },
es = "Cambio entre la distribución de datos en el momento del entrenamiento y la encontrada en el despliegue, lo que provoca un deterioro del desempeño del modelo. Incluye el desplazamiento de covariables, de etiquetas y la deriva de conceptos.",
zh = "训练时的数据分布与部署时所遇分布之间的变化,会导致模型性能下降。涵盖协变量偏移、标签偏移和概念漂移。",
term_es = "desplazamiento de distribución",
term_zh = "分布偏移",
aliases_es = { "cambio de distribución", "shift de distribución", "deriva de datos" },
aliases_zh = { "数据集偏移", "分布漂移", "数据漂移" },
}
data["distributional clauses"] = {
short = "A probabilistic logic programming formalism that extends Prolog clauses with continuous-valued random variables drawn from arbitrary distributions, supporting hybrid discrete-continuous probabilistic reasoning.",
article = nil,
aliases = { "DC", "Distributional Clauses", "Hybrid ProbLog distributional clauses", "DC programs" },
es = "Un formalismo de programación lógica probabilística que extiende las cláusulas de Prolog con variables aleatorias de valores continuos extraídas de distribuciones arbitrarias, permitiendo el razonamiento probabilístico híbrido discreto-continuo.",
zh = "一种概率逻辑编程形式化方法,通过引入服从任意分布的连续值随机变量来扩展 Prolog 子句,支持离散-连续混合的概率推理。",
term_es = "cláusulas distribucionales",
term_zh = "分布子句",
aliases_es = { "DC", "cláusulas distribucionales híbridas", "programas DC" },
aliases_zh = { "DC", "分布子句程序", "混合分布子句" },
}
data["distributional fairness"] = {
short = "A family of fairness criteria that compare the full distributions of predictions or outcomes across protected groups (rather than only point statistics like means), often using statistical distances such as Wasserstein or KL divergence.",
article = nil,
aliases = { "distribution-level fairness", "distribution matching fairness" },
es = "Familia de criterios de equidad que comparan las distribuciones completas de predicciones o resultados entre grupos protegidos (en lugar de solo estadísticas puntuales como las medias), utilizando a menudo distancias estadísticas como Wasserstein o la divergencia KL.",
zh = "一类公平性准则,比较受保护群体之间预测或结果的完整分布(而非仅均值等点统计量),常使用 Wasserstein 距离或 KL 散度等统计距离。",
term_es = "equidad distribucional",
term_zh = "分布式公平性",
aliases_es = { "equidad de distribución", "justicia distribucional algorítmica" },
aliases_zh = { "分布层面公平性", "分布匹配公平性" },
}
data["distributional rl"] = {
short = "A class of reinforcement learning methods that learn the full distribution of returns conditioned on a state-action pair rather than only its expectation, enabling richer credit assignment and risk-sensitive policies.",
article = nil,
aliases = { "distributional reinforcement learning", "value distribution learning", "return distribution learning" },
es = "Familia de métodos de aprendizaje por refuerzo que aprenden la distribución completa de los retornos condicionada a un par estado-acción en lugar de solo su esperanza, permitiendo una asignación de crédito más rica y políticas sensibles al riesgo.",
zh = "一类强化学习方法,学习给定状态-动作对下的完整回报分布而非仅其期望,从而支持更丰富的信用分配和风险敏感策略。",
term_es = "RL distribucional",
term_zh = "分布式强化学习",
aliases_es = { "aprendizaje por refuerzo distribucional", "RL distribuido de valor" },
aliases_zh = { "分布强化学习", "distributional RL" },
}
data["distributional shapley"] = {
short = "An extension of Shapley value attribution from single data points to entire data distributions, quantifying how a population of training samples contributes to a model's performance. Proposed by Ghorbani et al. (2020).",
article = nil,
aliases = { "distributional Shapley value", "distributional Shapley values", "D-Shapley" },
es = "Extensión de la atribución por valor de Shapley desde puntos de datos individuales a distribuciones completas, cuantificando cómo una población de muestras de entrenamiento contribuye al desempeño del modelo. Propuesta por Ghorbani et al. (2020).",
zh = "将 Shapley 值归因从单个数据点扩展到整个数据分布的方法,用以量化一组训练样本对模型性能的贡献。由 Ghorbani 等人(2020)提出。",
term_es = "Shapley distribucional",
term_zh = "分布式 Shapley 值",
aliases_es = { "valor de Shapley distribucional", "D-Shapley" },
aliases_zh = { "分布 Shapley", "D-Shapley" },
}
data["distributional uncertainty"] = {
short = "Uncertainty arising from a mismatch between the training distribution and the test input distribution, distinct from aleatoric noise and epistemic model uncertainty.",
article = nil,
aliases = { "distribution-shift uncertainty", "out-of-distribution uncertainty", "OOD uncertainty" },
es = "Incertidumbre que surge del desajuste entre la distribución de entrenamiento y la distribución de entrada en prueba, distinta del ruido aleatórico y de la incertidumbre epistémica del modelo.",
zh = "由训练分布与测试输入分布不匹配引起的不确定性,与偶然噪声和认知模型不确定性相区别。",
term_es = "incertidumbre distribucional",
term_zh = "分布不确定性",
aliases_es = { "incertidumbre por cambio de distribución", "incertidumbre fuera de distribución", "incertidumbre OOD" },
aliases_zh = { "分布偏移不确定性", "分布外不确定性", "OOD 不确定性" },
}
data["distributionally robust optimization for fairness"] = {
short = "A training paradigm that minimizes the worst-case loss over a set of plausible data distributions (often defined as reweightings of subgroups), thereby protecting performance on minority or underrepresented groups.",
article = nil,
aliases = { "DRO fairness", "fairness via DRO", "distributionally robust fairness", "robust optimization for fairness" },
es = "Paradigma de entrenamiento que minimiza la pérdida en el peor caso sobre un conjunto de distribuciones de datos plausibles (a menudo definidas como reponderaciones de subgrupos), protegiendo así el rendimiento en grupos minoritarios o subrepresentados.",
zh = "一种训练范式,在一组合理数据分布(通常定义为子群的重加权)上最小化最坏情况损失,从而保护少数或代表性不足群体的性能。",
term_es = "optimización distribucionalmente robusta para equidad",
term_zh = "面向公平性的分布鲁棒优化",
aliases_es = { "DRO para equidad", "equidad mediante DRO", "optimización robusta para equidad" },
aliases_zh = { "DRO 公平性", "公平性 DRO", "分布式鲁棒公平优化" },
}
data["distributive justice"] = {
short = "A branch of political philosophy concerned with the fair allocation of benefits and burdens in society, providing normative foundations (egalitarianism, prioritarianism, sufficientarianism) for many algorithmic-fairness criteria.",
article = nil,
aliases = { "justice in distribution", "allocative justice" },
es = "Rama de la filosofía política que se ocupa de la asignación justa de beneficios y cargas en la sociedad, proporcionando fundamentos normativos (igualitarismo, prioritarismo, suficientarismo) para muchos criterios de equidad algorítmica.",
zh = "政治哲学的一个分支,关注社会中利益与负担的公平分配,为许多算法公平性准则(平等主义、优先主义、充足主义)提供规范基础。",
term_es = "justicia distributiva",
term_zh = "分配正义",
aliases_es = { "justicia en la distribución", "justicia distributiva algorítmica" },
aliases_zh = { "分配公正", "分配性正义" },
}
data["ditto algorithm"] = {
short = "A personalized federated learning algorithm in which each client trains a local model that is regularized toward a globally aggregated model, balancing personalization with shared knowledge while improving robustness to adversarial clients.",
article = nil,
aliases = { "Ditto", "Ditto FL", "Ditto personalized federated learning" },
es = "Algoritmo de aprendizaje federado personalizado en el que cada cliente entrena un modelo local regularizado hacia un modelo global agregado, equilibrando personalización y conocimiento compartido y mejorando la robustez frente a clientes adversarios.",
zh = "一种个性化联邦学习算法:每个客户端训练一个本地模型,并以全局聚合模型为正则化目标,在个性化与共享知识间取得平衡,同时增强对恶意客户端的鲁棒性。",
term_es = "algoritmo Ditto",
term_zh = "Ditto 算法",
aliases_es = { "Ditto", "FL personalizado Ditto" },
aliases_zh = { "Ditto", "Ditto 个性化联邦学习" },
}
data["ditto-tts"] = {
short = "A non-autoregressive text-to-speech model that uses diffusion-style generation conditioned on text and prosody features to produce high-fidelity speech.",
article = nil,
aliases = { "DITTO-TTS", "Ditto-TTS", "DITTO" },
es = "Modelo de síntesis de voz no autorregresivo que emplea generación tipo difusión condicionada por texto y rasgos prosódicos para producir habla de alta fidelidad.",
zh = "一种非自回归文语合成模型,基于文本与韵律特征采用扩散式生成方法合成高保真语音。",
term_es = "DITTO-TTS",
term_zh = "DITTO-TTS",
aliases_es = { "DITTO-TTS", "modelo DITTO" },
aliases_zh = { "DITTO-TTS", "DITTO 模型" },
}
data["diverse counterfactual"] = {
short = "A set of counterfactual explanations that are mutually different yet each individually valid, giving users multiple actionable alternatives. Operationalized by the DiCE algorithm of Mothilal et al. (2020) via a diversity term in the objective.",
article = nil,
aliases = { "diverse counterfactuals", "diverse counterfactual explanation", "DiCE", "DiCE counterfactuals" },
es = "Conjunto de explicaciones contrafactuales mutuamente diferentes pero individualmente válidas, que ofrecen al usuario varias alternativas accionables. Implementado por el algoritmo DiCE de Mothilal et al. (2020) mediante un término de diversidad en el objetivo.",
zh = "一组互不相同但各自有效的反事实解释,向用户提供多种可行的替代方案。由 Mothilal 等人(2020)的 DiCE 算法在目标函数中加入多样性项实现。",
term_es = "contrafactual diverso",
term_zh = "多样化反事实",
aliases_es = { "contrafactuales diversos", "explicación contrafactual diversa", "DiCE" },
aliases_zh = { "DiCE", "多样反事实解释" },
}
data["diverse explanation"] = {
short = "An explanation strategy that generates multiple, dissimilar explanations for the same prediction to surface different aspects of model behavior and avoid over-committing to one rationale. Common in counterfactual and rationale-extraction settings.",
article = nil,
aliases = { "diverse explanations", "diversity in explanations", "explanation diversity" },
es = "Estrategia de explicación que produce varias explicaciones distintas para la misma predicción, con el fin de revelar diferentes aspectos del comportamiento del modelo y evitar un sesgo hacia una única justificación. Habitual en escenarios contrafactuales y de extracción de racionales.",
zh = "为同一预测生成多个互异解释的策略,用以呈现模型行为的不同侧面,避免过度依赖单一理由。常见于反事实解释和理由抽取场景。",
term_es = "explicación diversa",
term_zh = "多样化解释",
aliases_es = { "explicaciones diversas", "diversidad de explicaciones" },
aliases_zh = { "解释多样性", "多样解释" },
}
data["diversity in recommendation"] = {
short = "An objective in recommender systems that complements relevance by promoting variety among recommended items, mitigating filter bubbles, popularity bias, and over-concentration on a narrow set of providers or topics.",
article = nil,
aliases = { "recommendation diversity", "diverse recommendations", "diversification in recommender systems" },
es = "Objetivo en los sistemas de recomendación que complementa la relevancia promoviendo la variedad entre los ítems recomendados, mitigando las burbujas de filtro, el sesgo de popularidad y la concentración excesiva en un conjunto reducido de proveedores o temas.",
zh = "推荐系统中的一个目标,作为相关性的补充,通过促进推荐项目的多样性来减轻过滤气泡、流行度偏差以及对少数提供方或主题的过度集中。",
term_es = "diversidad en recomendación",
term_zh = "推荐多样性",
aliases_es = { "diversidad de recomendaciones", "diversificación en sistemas de recomendación" },
aliases_zh = { "推荐系统多样性", "推荐结果多样性", "多样化推荐" },
}
data["diversity loss"] = {
short = "A regularization term added to ensemble or multi-head training that explicitly encourages predictions to differ across members, improving calibration and uncertainty estimation.",
article = nil,
aliases = { "diversity regularizer", "diversity regularization", "ensemble diversity loss", "disagreement regularizer" },
es = "Término de regularización añadido al entrenamiento de ensambles o de múltiples cabezas que fomenta explícitamente que las predicciones difieran entre miembros, mejorando la calibración y la estimación de incertidumbre.",
zh = "在集成或多头训练中加入的正则化项,显式鼓励各成员的预测互不相同,从而改善校准和不确定性估计。",
term_es = "pérdida de diversidad",
term_zh = "多样性损失",
aliases_es = { "regularizador de diversidad", "regularización de diversidad", "pérdida de diversidad de ensamble", "regularizador de desacuerdo" },
aliases_zh = { "多样性正则化器", "多样性正则化", "集成多样性损失", "分歧正则化器" },
}
data["divide-and-conquer aggregation"] = {
short = "A hierarchical strategy in distributed and federated learning that splits clients into subgroups, aggregates within each subgroup, and then aggregates the subgroup models, reducing communication costs and improving robustness to outliers.",
article = nil,
aliases = { "divide and conquer aggregation", "hierarchical aggregation", "DC aggregation" },
es = "Estrategia jerárquica en aprendizaje distribuido y federado que divide a los clientes en subgrupos, agrega dentro de cada subgrupo y luego agrega los modelos de los subgrupos, reduciendo costes de comunicación y mejorando la robustez frente a valores atípicos.",
zh = "一种用于分布式与联邦学习的分层策略:将客户端划分为子组,先在子组内聚合,再聚合子组模型,从而降低通信开销并提高对离群值的鲁棒性。",
term_es = "agregación por divide y vencerás",
term_zh = "分而治之聚合",
aliases_es = { "agregación divide y vencerás", "agregación jerárquica" },
aliases_zh = { "分治聚合", "层次化聚合", "分组聚合" },
}
data["dlg attack"] = {
short = "Deep Leakage from Gradients attack: an inversion attack that reconstructs private training inputs and labels from shared gradients by iteratively optimizing dummy data to match the observed gradient.",
article = nil,
aliases = { "DLG", "DLG attack", "deep leakage from gradients", "deep leakage attack" },
es = "Ataque Deep Leakage from Gradients: ataque de inversión que reconstruye entradas y etiquetas privadas a partir de los gradientes compartidos optimizando iterativamente datos ficticios para que coincidan con el gradiente observado.",
zh = "Deep Leakage from Gradients 攻击:一种反演攻击,通过反复优化虚拟数据使其梯度匹配观测到的梯度,从共享梯度中重建私有训练输入和标签。",
term_es = "ataque DLG",
term_zh = "DLG 攻击",
aliases_es = { "DLG", "fuga profunda a partir de gradientes", "ataque de fuga profunda" },
aliases_zh = { "DLG", "深度梯度泄露攻击", "深度泄漏攻击" },
}
data["dlime"] = {
short = "A deterministic variant of LIME that replaces random perturbation sampling with hierarchical clustering and k-nearest-neighbor selection in the local neighborhood, yielding stable explanations across runs. Proposed by Zafar and Khan (2019).",
article = nil,
aliases = { "DLIME", "deterministic LIME", "deterministic local interpretable model-agnostic explanations" },
es = "Variante determinista de LIME que sustituye el muestreo aleatorio de perturbaciones por agrupamiento jerárquico y selección por k-vecinos más cercanos en el vecindario local, ofreciendo explicaciones estables entre ejecuciones. Propuesta por Zafar y Khan (2019).",
zh = "LIME 的确定性变体,用层次聚类与 k 近邻在局部邻域中进行采样,取代随机扰动,从而在多次运行中产生稳定的解释。由 Zafar 与 Khan(2019)提出。",
term_es = "DLIME",
term_zh = "DLIME",
aliases_es = { "LIME determinista", "LIME determinístico" },
aliases_zh = { "确定性 LIME", "DLIME 方法" },
}
data["dn/ds ratio"] = {
short = "The ratio of nonsynonymous to synonymous substitution rates between protein-coding sequences, used to detect selection pressure: values above 1 indicate positive selection, below 1 purifying selection, and near 1 neutral evolution.",
article = nil,
aliases = { "dN/dS", "Ka/Ks", "Ka/Ks ratio", "nonsynonymous to synonymous ratio", "omega" },
es = "Cociente entre las tasas de sustitución no sinónimas y sinónimas en secuencias codificantes de proteínas, utilizado para detectar presión selectiva: valores superiores a 1 indican selección positiva, inferiores a 1 selección purificadora y cercanos a 1 evolución neutra.",
zh = "蛋白质编码序列之间非同义替换率与同义替换率之比,用于检测选择压力:大于 1 表示正选择,小于 1 表示净化选择,接近 1 表示中性进化。",
term_es = "razón dN/dS",
term_zh = "dN/dS 比值",
aliases_es = { "dN/dS", "Ka/Ks", "razón Ka/Ks", "omega" },
aliases_zh = { "dN/dS", "Ka/Ks", "非同义/同义替换率比" },
}
data["dna methylation"] = {
short = "A heritable epigenetic modification involving the addition of a methyl group to cytosine bases, predominantly at CpG dinucleotides in mammals, that influences gene expression, chromatin structure, and genomic imprinting.",
article = nil,
aliases = { "5mC", "cytosine methylation", "CpG methylation", "DNA cytosine methylation" },
es = "Modificación epigenética hereditaria que consiste en la adición de un grupo metilo a bases de citosina, principalmente en dinucleótidos CpG en mamíferos, e influye en la expresión génica, la estructura de la cromatina y la impronta genómica.",
zh = "一种可遗传的表观遗传修饰,指在胞嘧啶碱基上添加甲基(哺乳动物中主要发生在 CpG 二核苷酸处),影响基因表达、染色质结构和基因组印记。",
term_es = "metilación del ADN",
term_zh = "DNA 甲基化",
aliases_es = { "metilación de citosinas", "metilación CpG", "5mC" },
aliases_zh = { "5mC", "胞嘧啶甲基化", "CpG 甲基化" },
}
data["dna nas"] = {
short = "DNA: a block-wise NAS method that trains a supernet supervised by a teacher's intermediate features, allowing each block to be searched and ranked under knowledge-distillation guidance (Li et al., 2020).",
article = nil,
aliases = { "DNA NAS", "DNA", "block-wise NAS DNA" },
es = "DNA: método de NAS por bloques que entrena una super-red supervisada por las características intermedias de un maestro, permitiendo buscar y clasificar cada bloque con la guía de la destilación de conocimiento (Li et al., 2020).",
zh = "DNA:一种逐块 NAS 方法,使用教师网络的中间特征来监督超网络的训练,从而在知识蒸馏的指导下对每个块进行搜索与排序(Li 等,2020)。",
term_es = "DNA (NAS)",
term_zh = "DNA NAS",
aliases_es = { "DNA", "NAS DNA" },
aliases_zh = { "DNA", "块级 NAS DNA" },
}
data["dnabert"] = {
short = "A BERT-style transformer language model pretrained on overlapping k-mers of the human genome, producing contextual embeddings of DNA sequences that can be fine-tuned for tasks such as promoter or splice-site prediction.",
article = nil,
aliases = { "DNABERT", "DNA-BERT" },
es = "Modelo de lenguaje transformer al estilo BERT preentrenado sobre k-meros solapados del genoma humano, que produce embeddings contextuales de secuencias de ADN ajustables a tareas como la predicción de promotores o sitios de empalme.",
zh = "一种 BERT 风格的 Transformer 语言模型,在人类基因组的重叠 k-mer 上进行预训练,可生成 DNA 序列的上下文嵌入,并可微调用于启动子或剪接位点预测等任务。",
term_es = "DNABERT",
term_zh = "DNABERT",
aliases_es = { "DNABERT" },
aliases_zh = { "DNABERT" },
}
data["dnas binary"] = {
short = "The discrete sampling form of Differentiable NAS (Wu et al., FBNet) in which Gumbel-Softmax draws produce near-binary one-hot selections over candidate operations, retaining differentiability while approximating hard architectural choices.",
article = nil,
aliases = { "binary DNAS", "DNAS-binary", "Gumbel-Softmax DNAS" },
es = "Forma de muestreo discreto de la NAS diferenciable (Wu et al., FBNet) en la que las muestras Gumbel-Softmax producen selecciones casi binarias one-hot sobre las operaciones candidatas, conservando la diferenciabilidad y aproximando elecciones arquitectónicas duras.",
zh = "可微 NAS(Wu 等,FBNet)的离散采样形式,通过 Gumbel-Softmax 在候选算子上产生近似 one-hot 的二元选择,从而在保持可微性的同时逼近硬架构决策。",
term_es = "DNAS binaria",
term_zh = "二值 DNAS",
aliases_es = { "DNAS binaria con Gumbel-Softmax", "DNAS-binary" },
aliases_zh = { "二元 DNAS", "Gumbel-Softmax DNAS" },
}
data["dnase-seq"] = {
short = "A high-throughput sequencing assay that maps DNase I hypersensitive sites genome-wide, identifying regions of accessible chromatin enriched for regulatory elements such as promoters and enhancers.",
article = nil,
aliases = { "DNase-seq", "DNase I hypersensitivity sequencing", "DNase-Seq", "DHS-seq" },
es = "Ensayo de secuenciación de alto rendimiento que mapea sitios hipersensibles a DNase I en todo el genoma, identificando regiones de cromatina accesible enriquecidas en elementos reguladores como promotores y potenciadores.",
zh = "一种高通量测序方法,可在全基因组范围内绘制 DNase I 高敏感位点,识别富含启动子、增强子等调控元件的开放染色质区域。",
term_es = "DNase-seq",
term_zh = "DNase-seq",
aliases_es = { "secuenciación de hipersensibilidad a DNase I" },
aliases_zh = { "DNase I 高敏感位点测序", "DHS-seq" },
}
data["do-calculus"] = {
short = "Judea Pearl's three-rule symbolic system for manipulating interventional distributions and reducing them to observational ones, used to determine when a causal effect is identifiable from observed data.",
article = nil,
aliases = { "do calculus", "Pearl's do-calculus", "causal calculus" },
es = "Sistema simbólico de tres reglas de Judea Pearl para manipular distribuciones intervencionales y reducirlas a observacionales, utilizado para determinar cuándo un efecto causal es identificable a partir de datos observados.",
zh = "Judea Pearl 提出的由三条规则构成的符号化系统,用于操纵干预分布并将其归约为观测分布,从而判定因果效应能否由观测数据识别。",
term_es = "cálculo do",
term_zh = "do 演算",
aliases_es = { "cálculo do de Pearl", "cálculo causal" },
aliases_zh = { "do-演算", "Pearl do 演算", "因果演算" },
}
data["do-operator"] = {
short = "The do(·) notation in causal inference denoting an external intervention that sets a variable to a fixed value, distinguishing intervention from observational conditioning P(Y | do(X=x)) ≠ P(Y | X=x).",
article = nil,
aliases = { "do operator", "do(·)", "intervention operator" },
es = "Notación do(·) en inferencia causal que denota una intervención externa que fija una variable en un valor concreto, distinguiendo la intervención del condicionamiento observacional: P(Y | do(X=x)) ≠ P(Y | X=x).",
zh = "因果推断中的 do(·) 记号,表示将变量外部干预为某一固定值,用以区分干预与观测条件化:P(Y | do(X=x)) ≠ P(Y | X=x)。",
term_es = "operador do",
term_zh = "do 算子",
aliases_es = { "operador do(·)", "operador de intervención" },
aliases_zh = { "干预算子", "do 操作符", "do(·)" },
}
data["dobrushin condition"] = {
short = "A sufficient condition bounding the total influence of one variable on the conditional distribution of another, ensuring uniqueness of the Gibbs measure and rapid mixing of Glauber dynamics in graphical models.",
article = nil,
aliases = { "Dobrushin's condition", "Dobrushin uniqueness condition" },
es = "Condición suficiente que acota la influencia total de una variable sobre la distribución condicional de otra, garantizando la unicidad de la medida de Gibbs y un mezclado rápido de la dinámica de Glauber en modelos gráficos.",
zh = "一种充分条件:限定一个变量对另一变量条件分布的总影响,保证图模型中 Gibbs 测度的唯一性和 Glauber 动力学的快速混合。",
term_es = "condición de Dobrushin",
term_zh = "Dobrushin 条件",
aliases_es = { "condición de unicidad de Dobrushin" },
aliases_zh = { "多布鲁辛条件", "Dobrushin 唯一性条件" },
}
data["doc-vqa"] = {
short = "A document visual question answering benchmark that evaluates models on natural-language questions whose answers must be inferred from scanned document images, requiring OCR, layout understanding, and reading comprehension.",
article = nil,
aliases = { "DocVQA", "DocumentVQA", "document VQA" },
es = "Punto de referencia de respuesta a preguntas visuales sobre documentos que evalúa modelos con preguntas en lenguaje natural cuyas respuestas deben inferirse a partir de imágenes de documentos escaneados, requiriendo OCR, comprensión del diseño y comprensión lectora.",
zh = "一个文档视觉问答基准,评估模型回答以扫描文档图像为依据的自然语言问题的能力,要求具备OCR、版面理解和阅读理解能力。",
term_es = "DocVQA",
term_zh = "DocVQA",
aliases_es = { "DocumentVQA", "VQA de documentos" },
aliases_zh = { "DocumentVQA", "文档视觉问答", "文档VQA" },
}
data["doc2vec"] = {
short = "An extension of word2vec that learns fixed-length embeddings for documents or paragraphs alongside word embeddings, also known as Paragraph Vectors. Includes the PV-DM and PV-DBOW training variants.",
article = nil,
aliases = { "Doc2Vec", "doc-2-vec", "paragraph vectors", "Paragraph Vector", "PV-DM", "PV-DBOW" },
es = "Extensión de word2vec que aprende embeddings de longitud fija para documentos o párrafos junto con embeddings de palabras, también conocida como Paragraph Vectors. Incluye las variantes de entrenamiento PV-DM y PV-DBOW.",
zh = "word2vec 的扩展,与词嵌入一起为文档或段落学习固定长度的嵌入,也称为段落向量(Paragraph Vectors),包含 PV-DM 和 PV-DBOW 两种训练变体。",
term_es = "doc2vec",
term_zh = "doc2vec",
aliases_es = { "Doc2Vec", "paragraph vectors", "vectores de párrafo" },
aliases_zh = { "Doc2Vec", "段落向量", "Paragraph Vector" },
}
data["dock score"] = {
short = "A numerical estimate, produced by a molecular docking program (AutoDock Vina, Glide, GOLD, etc.), that ranks predicted ligand poses by approximate binding affinity or geometric/energetic compatibility with the receptor pocket.",
article = nil,
aliases = { "docking score", "docking scores", "dock scores" },
es = "Estimación numérica producida por un programa de acoplamiento molecular (AutoDock Vina, Glide, GOLD, etc.) que ordena las poses de ligando predichas según una afinidad de unión aproximada o la compatibilidad geométrica/energética con el bolsillo del receptor.",
zh = "由分子对接程序(如 AutoDock Vina、Glide、GOLD 等)生成的数值,用于按近似结合亲和力或与受体口袋的几何/能量匹配程度对预测的配体姿态进行排序。",
term_es = "puntuación de acoplamiento",
term_zh = "对接打分",
aliases_es = { "docking score", "puntuación de docking", "score de acoplamiento" },
aliases_zh = { "docking 分数", "对接得分", "对接评分" },
}
data["docvqa"] = {
short = "A visual question answering benchmark over scanned and digital document images, requiring models to read text, understand layout and reason over forms, tables and figures to answer natural-language questions.",
article = nil,
aliases = { "DocVQA", "Document VQA", "Document Visual Question Answering" },
es = "Banco de pruebas de respuesta visual a preguntas sobre imágenes de documentos escaneados y digitales, que exige a los modelos leer texto, comprender la disposición y razonar sobre formularios, tablas y figuras para responder preguntas en lenguaje natural.",
zh = "针对扫描和数字文档图像的视觉问答基准,要求模型阅读文字、理解版面,并对表单、表格和插图进行推理,以回答自然语言问题。",
term_es = "DocVQA",
term_zh = "DocVQA",
aliases_es = { "Document VQA", "respuesta visual a preguntas sobre documentos" },
aliases_zh = { "Document VQA", "文档视觉问答" },
}
data["dolma"] = {
short = "An open pretraining corpus of approximately three trillion tokens released by AI2, drawn from web pages, code, scientific papers, and books and used to train OLMo.",
article = nil,
aliases = { "Dolma", "DOLMA", "Dolma corpus", "Dolma dataset" },
es = "Corpus abierto de preentrenamiento de aproximadamente tres billones de tokens publicado por AI2, compuesto por páginas web, código, artículos científicos y libros, y utilizado para entrenar OLMo.",
zh = "由 AI2 发布的开放预训练语料库,约三万亿 tokens,涵盖网页、代码、科学论文和书籍,用于训练 OLMo 模型。",
term_es = "Dolma",
term_zh = "Dolma",
aliases_es = { "corpus Dolma", "conjunto de datos Dolma" },
aliases_zh = { "Dolma 语料库", "Dolma 数据集" },
}
data["domain adaptation"] = {
short = "A transfer-learning setting in which a model trained on a source domain is adapted to perform well on a related but distributionally different target domain, often with limited or no target labels.",
article = nil,
aliases = { "domain-adaptation", "DA", "unsupervised domain adaptation", "UDA" },
es = "Configuración de transferencia de aprendizaje en la que un modelo entrenado en un dominio fuente se adapta para desempeñarse bien en un dominio objetivo relacionado pero con distribución diferente, a menudo con pocas o ninguna etiqueta del objetivo.",
zh = "一种迁移学习设定,将在源域上训练的模型调整为在与之相关但分布不同的目标域上表现良好,通常目标域标签很少甚至没有。",
term_es = "adaptación de dominio",
term_zh = "域适应",
aliases_es = { "DA", "adaptación de dominios", "adaptación de dominio no supervisada", "UDA" },
aliases_zh = { "domain adaptation", "DA", "领域自适应", "无监督域适应", "UDA" },
}
data["domain adaptation causal"] = {
short = "The use of causal structural assumptions to transfer predictive models across source and target domains by identifying invariant mechanisms and adjusting for domain shifts in non-invariant components.",
article = nil,
aliases = { "causal domain adaptation", "causal transfer learning" },
es = "Uso de supuestos estructurales causales para transferir modelos predictivos entre dominios fuente y objetivo, identificando mecanismos invariantes y ajustando los componentes no invariantes ante cambios de dominio.",
zh = "利用因果结构假设在源域与目标域之间迁移预测模型,通过识别不变机制并对非不变成分中的域偏移进行调整。",
term_es = "adaptación de dominio causal",
term_zh = "因果域适应",
aliases_es = { "adaptación causal de dominio", "transferencia causal" },
aliases_zh = { "因果领域适应", "因果迁移学习" },
}
data["domain bias"] = {
short = "Systematic error introduced when a model trained on data from one domain (e.g. urban hospitals, English-language web text) is applied to a different domain whose distribution diverges, producing degraded or unfair performance.",
article = nil,
aliases = { "domain mismatch bias", "domain shift bias", "out-of-domain bias" },
es = "Error sistemático introducido cuando un modelo entrenado con datos de un dominio (por ejemplo, hospitales urbanos, texto web en inglés) se aplica a un dominio distinto cuya distribución diverge, produciendo un rendimiento degradado o injusto.",
zh = "当在某一领域(如城市医院、英文网络文本)数据上训练的模型被应用于分布不同的另一领域时所引入的系统性误差,会导致性能下降或不公平。",
term_es = "sesgo de dominio",
term_zh = "领域偏差",
aliases_es = { "sesgo por desajuste de dominio", "sesgo de cambio de dominio" },
aliases_zh = { "域偏差", "领域不匹配偏差", "域偏移偏差" },
}
data["domain generalization"] = {
short = "A learning setting in which a model is trained on multiple source domains with the goal of generalizing to entirely unseen target domains at test time, without access to target data during training.",
article = nil,
aliases = { "domain-generalization", "DG", "domain generalisation", "out-of-domain generalization" },
es = "Configuración de aprendizaje en la que un modelo se entrena en múltiples dominios fuente con el objetivo de generalizar a dominios objetivo completamente no vistos en el momento de prueba, sin acceso a datos del objetivo durante el entrenamiento.",
zh = "一种学习设定,模型在多个源域上训练,目标是在测试时泛化到完全未见的目标域,且训练期间不接触目标域数据。",
term_es = "generalización de dominio",
term_zh = "域泛化",
aliases_es = { "DG", "generalización entre dominios", "generalización fuera de dominio" },
aliases_zh = { "domain generalization", "DG", "领域泛化", "跨域泛化" },
}
data["domain-adaptive pretraining"] = {
short = "Continued self-supervised pretraining of a base language model on in-domain text before downstream fine-tuning, used to specialize a general model to fields such as biomedicine, law, or finance.",
article = nil,
aliases = { "DAPT", "domain adaptive pretraining", "continued pretraining", "domain pretraining", "in-domain pretraining" },
es = "Continuación del preentrenamiento autosupervisado de un modelo de lenguaje base sobre texto del dominio objetivo antes del ajuste fino, empleada para especializar un modelo general en áreas como biomedicina, derecho o finanzas.",
zh = "在下游微调之前,使用领域内文本对基础语言模型进行持续自监督预训练,用于将通用模型专门化到生物医学、法律或金融等领域。",
term_es = "preentrenamiento adaptado al dominio",
term_zh = "领域自适应预训练",
aliases_es = { "DAPT", "preentrenamiento continuo", "preentrenamiento de dominio" },
aliases_zh = { "DAPT", "持续预训练", "领域预训练" },
}
data["dora finetuning"] = {
short = "Weight-Decomposed Low-Rank Adaptation, a parameter-efficient fine-tuning method that decomposes pretrained weights into magnitude and direction components and applies LoRA-style updates only to the direction.",
article = nil,
aliases = { "DoRA", "DoRA fine-tuning", "Weight-Decomposed Low-Rank Adaptation", "DoRA finetuning", "DoRA tuning" },
es = "Adaptación de bajo rango con descomposición de pesos (DoRA), un método de ajuste fino eficiente en parámetros que descompone los pesos preentrenados en magnitud y dirección y aplica actualizaciones tipo LoRA solo a la dirección.",
zh = "权重分解低秩适配(DoRA),一种参数高效微调方法,将预训练权重分解为幅度和方向两部分,仅对方向部分施加类似 LoRA 的低秩更新。",
term_es = "ajuste fino DoRA",
term_zh = "DoRA 微调",
aliases_es = { "DoRA", "adaptación DoRA" },
aliases_zh = { "DoRA", "权重分解低秩适配" },
}
data["doremi"] = {
short = "Domain Reweighting with Minimax Optimization, a method that learns optimal mixing weights over pretraining data domains by training a small proxy model with group-distributionally robust optimization.",
article = nil,
aliases = { "DoReMi", "Domain Reweighting with Minimax Optimization" },
es = "DoReMi, un método que aprende pesos óptimos de mezcla sobre dominios de datos de preentrenamiento entrenando un modelo proxy pequeño con optimización robusta a distribuciones de grupo.",
zh = "DoReMi(基于极小极大优化的域重加权),通过训练小型代理模型并采用群组分布鲁棒优化来学习预训练数据各域的最优混合权重。",
term_es = "DoReMi",
term_zh = "DoReMi",
aliases_es = { "reponderación de dominios DoReMi" },
aliases_zh = { "域重加权 DoReMi" },
}
data["dose-response curve"] = {
short = "A curve depicting how the expected outcome varies as a function of the level (dose) of a continuous or ordered treatment, generalizing average treatment effects to multi-valued exposures.",
article = nil,
aliases = { "dose response curve", "DRC", "exposure-response curve" },
es = "Curva que describe cómo varía el resultado esperado en función del nivel (dosis) de un tratamiento continuo u ordenado, generalizando los efectos promedio del tratamiento a exposiciones multivaluadas.",
zh = "描述预期结果如何随连续或有序处置的水平(剂量)变化的曲线,将平均处置效应推广到多值暴露情形。",
term_es = "curva dosis-respuesta",
term_zh = "剂量-反应曲线",
aliases_es = { "curva exposición-respuesta", "curva de dosis y respuesta" },
aliases_zh = { "剂量反应曲线", "暴露-反应曲线", "DRC" },
}
data["dose-response function"] = {
short = "The function μ(a) = E[Y(a)] mapping a treatment level a to the expected potential outcome, the central estimand for continuous-treatment causal inference.",
article = nil,
aliases = { "dose response function", "DRF", "average dose-response function", "ADRF" },
es = "Función μ(a) = E[Y(a)] que asigna a cada nivel de tratamiento a el resultado potencial esperado; estimando central de la inferencia causal con tratamientos continuos.",
zh = "函数 μ(a) = E[Y(a)],将处置水平 a 映射到预期潜在结果,是连续处置因果推断的核心估计量。",
term_es = "función dosis-respuesta",
term_zh = "剂量-反应函数",
aliases_es = { "función dosis respuesta promedio", "ADRF" },
aliases_zh = { "剂量反应函数", "平均剂量-反应函数", "DRF", "ADRF" },
}
data["dot product"] = {
short = "A scalar-valued operation between two equal-length vectors computed as the sum of element-wise products. Geometrically equals the product of the vectors' magnitudes and the cosine of the angle between them.",
article = nil,
aliases = { "scalar product", "dot-product", "Euclidean inner product" },
es = "Operación con valor escalar entre dos vectores de igual longitud, calculada como la suma de los productos elemento a elemento. Geométricamente equivale al producto de las magnitudes de los vectores y el coseno del ángulo entre ellos.",
zh = "两个等长向量之间的标量运算,等于对应元素乘积之和。几何上等于两向量模长与它们夹角余弦的乘积。",
term_es = "producto punto",
term_zh = "点积",
aliases_es = { "producto escalar", "producto interno euclidiano" },
aliases_zh = { "点乘", "数量积", "标量积" },
}
data["double dqn"] = {
short = "A variant of the deep Q-network that reduces overestimation bias of action values by decoupling action selection from value estimation, using the online network to choose actions and the target network to evaluate them.",
article = nil,
aliases = { "Double DQN", "double Q-learning DQN", "DDQN" },
es = "Variante de la red Q profunda que reduce el sesgo de sobreestimación de los valores de acción desacoplando la selección de la acción de su evaluación, usando la red en línea para elegir acciones y la red objetivo para evaluarlas.",
zh = "深度 Q 网络的一种变体,通过将动作选择与价值评估解耦——使用在线网络选择动作、使用目标网络评估其价值——来降低动作价值的过估计偏差。",
term_es = "DQN doble",
term_zh = "双重 DQN",
aliases_es = { "DDQN", "Double DQN", "doble DQN" },
aliases_zh = { "Double DQN", "DDQN", "双 DQN" },
}
data["doublet detection"] = {
short = "Computational identification of droplets or wells in single-cell sequencing experiments that captured two or more cells, which would otherwise appear as artificial hybrid cell states; common tools include Scrublet, DoubletFinder, and Solo.",
article = nil,
aliases = { "doublet identification", "doublet removal", "doublet calling", "multiplet detection" },
es = "Identificación computacional de gotitas o pocillos en experimentos de secuenciación de célula única que capturaron dos o más células, los cuales aparecerían como estados celulares híbridos artificiales; herramientas comunes incluyen Scrublet, DoubletFinder y Solo.",
zh = "在单细胞测序实验中,通过计算方法识别捕获了两个或多个细胞的微滴或孔位,否则会表现为人工的混合细胞状态;常用工具包括 Scrublet、DoubletFinder 和 Solo。",
term_es = "detección de dobletes",
term_zh = "双细胞检测",
aliases_es = { "identificación de dobletes", "eliminación de dobletes" },
aliases_zh = { "双细胞识别", "doublet 检测", "多胞体检测" },
}
data["doubly reparameterized gradient estimator"] = {
short = "A low-variance Monte Carlo gradient estimator for importance-weighted variational objectives that applies the reparameterization trick a second time to the importance weights themselves.",
article = nil,
aliases = { "DReG", "DREG", "doubly reparameterized estimator", "doubly-reparameterized gradient" },
es = "Estimador Monte Carlo de baja varianza para objetivos variacionales con pesos de importancia que aplica el truco de reparametrización una segunda vez a los propios pesos de importancia.",
zh = "用于重要性加权变分目标的低方差蒙特卡洛梯度估计器,将重参数化技巧再次应用于重要性权重本身。",
term_es = "estimador de gradiente doblemente reparametrizado",
term_zh = "双重重参数化梯度估计器",
aliases_es = { "DReG", "estimador doblemente reparametrizado", "gradiente doblemente reparametrizado" },
aliases_zh = { "DReG", "双重重参数化估计器", "二次重参数化梯度" },
}
data["doubly robust estimation"] = {
short = "An estimation strategy that combines an outcome regression model with an inverse-propensity weighting model, yielding a consistent treatment-effect estimate if at least one of the two models is correctly specified.",
article = nil,
aliases = { "doubly robust estimator", "DR estimation", "augmented inverse propensity weighting", "AIPW" },
es = "Estrategia de estimación que combina un modelo de regresión del resultado con un modelo de ponderación por propensión inversa, produciendo una estimación consistente del efecto del tratamiento si al menos uno de los dos modelos está correctamente especificado.",
zh = "一种结合结果回归模型与逆倾向加权模型的估计策略,只要两者之一正确设定即可得到一致的处置效应估计。",
term_es = "estimación doblemente robusta",
term_zh = "双重稳健估计",
aliases_es = { "estimador doblemente robusto", "ponderación de propensión inversa aumentada", "AIPW" },
aliases_zh = { "双重稳健估计量", "增广逆倾向加权", "DR 估计", "AIPW" },
}
data["doubly robust off-policy estimation"] = {
short = "An off-policy evaluation method in reinforcement learning and contextual bandits that combines a learned value model with importance-weighted returns, providing low-variance estimates that are consistent if either component is correct.",
article = nil,
aliases = { "DR off-policy evaluation", "doubly robust OPE", "DR-OPE" },
es = "Método de evaluación fuera de política en aprendizaje por refuerzo y bandidos contextuales que combina un modelo de valor aprendido con retornos ponderados por importancia, ofreciendo estimaciones de baja varianza consistentes si cualquiera de los componentes es correcto.",
zh = "强化学习与上下文老虎机中的一种离策略评估方法,结合学习到的价值模型与重要性加权回报,只要任一组件正确即可得到低方差且一致的估计。",
term_es = "estimación doblemente robusta fuera de política",
term_zh = "双重稳健离策略估计",
aliases_es = { "evaluación fuera de política doblemente robusta", "DR-OPE" },
aliases_zh = { "双重稳健 OPE", "DR 离策略评估", "DR-OPE" },
}
data["doubly robust policy learning"] = {
short = "Policy optimization that uses doubly robust value estimates as the objective, achieving consistency under misspecification of either the outcome model or the propensity model and improving sample efficiency.",
article = nil,
aliases = { "DR policy learning", "doubly robust policy optimization" },
es = "Optimización de políticas que utiliza estimaciones de valor doblemente robustas como objetivo, logrando consistencia ante una especificación errónea del modelo de resultado o del modelo de propensión y mejorando la eficiencia muestral.",
zh = "以双重稳健的价值估计作为目标函数的策略优化方法,在结果模型或倾向模型其一被错误设定时仍保持一致性,并提升样本效率。",
term_es = "aprendizaje de políticas doblemente robusto",
term_zh = "双重稳健策略学习",
aliases_es = { "optimización doblemente robusta de políticas" },
aliases_zh = { "双重稳健策略优化", "DR 策略学习" },
}
data["doubly stochastic deep gp"] = {
short = "A scalable inference scheme for deep Gaussian processes that combines mini-batch sub-sampling with Monte Carlo sampling through the layers, retaining correlations across the hierarchy.",
article = nil,
aliases = { "DSDGP", "doubly stochastic variational deep GP", "doubly stochastic DGP", "Salimbeni-Deisenroth deep GP" },
es = "Esquema de inferencia escalable para procesos gaussianos profundos que combina submuestreo en mini-lotes con muestreo Monte Carlo a través de las capas, preservando las correlaciones a lo largo de la jerarquía.",
zh = "用于深度高斯过程的可扩展推断方案,将小批量子采样与跨层蒙特卡洛采样相结合,保留层次结构中的相关性。",
term_es = "GP profundo doblemente estocástico",
term_zh = "双重随机深度 GP",
aliases_es = { "DSDGP", "GP profundo variacional doblemente estocástico", "DGP doblemente estocástico" },
aliases_zh = { "DSDGP", "双重随机变分深度 GP", "双重随机 DGP" },
}
data["doubly stochastic variational inference"] = {
short = "A scalable variational inference scheme whose stochastic gradient estimator combines two sources of randomness: Monte Carlo samples from the variational distribution and minibatches of the training data.",
article = nil,
aliases = { "DSVI", "doubly stochastic VI" },
es = "Esquema escalable de inferencia variacional cuyo estimador estocástico del gradiente combina dos fuentes de aleatoriedad: muestras Monte Carlo de la distribución variacional y minilotes de los datos de entrenamiento.",
zh = "一种可扩展的变分推断方案:其随机梯度估计同时引入两类随机性——来自变分分布的蒙特卡洛样本和训练数据的小批量。",
term_es = "inferencia variacional doblemente estocástica",
term_zh = "双重随机变分推断",
aliases_es = { "DSVI", "VI doblemente estocástica" },
aliases_zh = { "DSVI", "doubly stochastic 变分推断" },
}
data["downlink compression"] = {
short = "Compression of the server-to-client communication channel in federated learning, in which the global model or its update is quantized, sparsified, or sketched before being broadcast to clients to reduce bandwidth.",
article = nil,
aliases = { "downlink communication compression", "server-to-client compression", "broadcast compression" },
es = "Compresión del canal de comunicación servidor-cliente en aprendizaje federado, en la que el modelo global o su actualización se cuantiza, esparsifica o se representa con sketches antes de difundirse a los clientes para reducir el ancho de banda.",
zh = "联邦学习中对服务器到客户端通信通道的压缩:在向客户端广播之前,对全局模型或其更新进行量化、稀疏化或草图化处理,以降低带宽消耗。",
term_es = "compresión del enlace descendente",
term_zh = "下行压缩",
aliases_es = { "compresión de comunicación descendente", "compresión servidor-cliente", "compresión de difusión" },
aliases_zh = { "下行链路压缩", "服务器到客户端压缩", "广播压缩" },
}
data["downpour sgd"] = {
short = "An asynchronous distributed SGD algorithm introduced with DistBelief in which many model replicas read parameters from and push gradient updates to a sharded parameter server without global synchronization.",
article = nil,
aliases = { "Downpour SGD", "downpour stochastic gradient descent" },
es = "Algoritmo de SGD distribuido asíncrono introducido con DistBelief en el que muchas réplicas del modelo leen parámetros y envían actualizaciones de gradiente a un servidor de parámetros fragmentado sin sincronización global.",
zh = "随 DistBelief 提出的异步分布式 SGD 算法:多个模型副本从分片参数服务器读取参数并推送梯度更新,而无需全局同步。",
term_es = "Downpour SGD",
term_zh = "Downpour SGD",
aliases_es = { "SGD Downpour", "descenso de gradiente estocástico Downpour" },
aliases_zh = { "Downpour 随机梯度下降", "Downpour 异步 SGD" },
}
data["dp-fedavg"] = {
short = "A differentially private variant of Federated Averaging in which client model updates are clipped to a fixed norm and Gaussian noise is added to the aggregated update, providing user-level differential privacy guarantees.",
article = nil,
aliases = { "DP-FedAvg", "differentially private FedAvg", "differentially private federated averaging" },
es = "Variante con privacidad diferencial de Federated Averaging en la que las actualizaciones del modelo de cada cliente se recortan a una norma fija y se añade ruido gaussiano a la actualización agregada, ofreciendo garantías de privacidad diferencial a nivel de usuario.",
zh = "Federated Averaging 的差分隐私变体:将每个客户端的模型更新裁剪到固定范数,并在聚合更新上加入高斯噪声,从而提供用户级差分隐私保证。",
term_es = "DP-FedAvg",
term_zh = "DP-FedAvg",
aliases_es = { "DP-FedAvg", "FedAvg con privacidad diferencial", "promediado federado con privacidad diferencial" },
aliases_zh = { "DP-FedAvg", "差分隐私 FedAvg", "差分隐私联邦平均" },
}
data["dp-fedsgd"] = {
short = "A differentially private variant of FedSGD in which each client returns a single clipped gradient per round and the server adds Gaussian noise to the aggregated gradient, providing user-level differential privacy under a Gaussian mechanism.",
article = nil,
aliases = { "DP-FedSGD", "differentially private FedSGD", "differentially private federated SGD" },
es = "Variante con privacidad diferencial de FedSGD en la que cada cliente devuelve un único gradiente recortado por ronda y el servidor añade ruido gaussiano al gradiente agregado, ofreciendo privacidad diferencial a nivel de usuario bajo un mecanismo gaussiano.",
zh = "FedSGD 的差分隐私变体:每轮中每个客户端返回一个被裁剪的梯度,服务器在聚合梯度上加入高斯噪声,在高斯机制下提供用户级差分隐私。",
term_es = "DP-FedSGD",
term_zh = "DP-FedSGD",
aliases_es = { "DP-FedSGD", "FedSGD con privacidad diferencial", "SGD federado con privacidad diferencial" },
aliases_zh = { "DP-FedSGD", "差分隐私 FedSGD", "差分隐私联邦 SGD" },
}
data["dp-sgd"] = {
short = "Differentially Private Stochastic Gradient Descent: a training algorithm that clips per-example gradients to a fixed norm and adds calibrated Gaussian noise before the update, providing example-level (ε, δ)-differential privacy guarantees.",
article = nil,
aliases = { "DP-SGD", "DPSGD", "differentially private SGD", "differentially private stochastic gradient descent", "noisy SGD" },
es = "Descenso de gradiente estocástico con privacidad diferencial: algoritmo de entrenamiento que recorta los gradientes por ejemplo a una norma fija y añade ruido gaussiano calibrado antes de la actualización, ofreciendo garantías (ε, δ)-DP a nivel de ejemplo.",
zh = "差分隐私随机梯度下降:训练算法对每个样本的梯度按固定范数进行裁剪,并在更新前加入校准的高斯噪声,从而提供样本级 (ε, δ)-差分隐私保证。",
term_es = "DP-SGD",
term_zh = "DP-SGD",
aliases_es = { "DP-SGD", "SGD con privacidad diferencial", "descenso de gradiente estocástico con privacidad diferencial" },
aliases_zh = { "DP-SGD", "差分隐私 SGD", "差分隐私随机梯度下降", "DPSGD" },
}
data["dpa-2"] = {
short = "A pretrained foundation atomic potential model (Deep Potential Atomic-2) trained on diverse multi-element materials and molecular datasets, designed to provide transferable interatomic potentials for molecular dynamics across chemistry and materials science.",
article = nil,
aliases = { "DPA-2", "DPA2", "Deep Potential Atomic-2", "Deep Potential v2" },
es = "Modelo preentrenado de potencial atómico (Deep Potential Atomic-2) entrenado en conjuntos de datos diversos de materiales multielementales y moléculas, diseñado para proporcionar potenciales interatómicos transferibles para dinámica molecular en química y ciencia de materiales.",
zh = "预训练原子势基础模型(Deep Potential Atomic-2),在多元素材料和分子的多样化数据集上训练,旨在为化学和材料科学中的分子动力学提供可迁移的原子间势。",
term_es = "DPA-2",
term_zh = "DPA-2",
aliases_es = { "DPA-2", "DPA2", "Deep Potential Atomic-2" },
aliases_zh = { "DPA-2", "DPA2", "Deep Potential Atomic-2" },
}
data["dpll algorithm"] = {
short = "The Davis-Putnam-Logemann-Loveland procedure, a complete backtracking search algorithm for deciding the satisfiability (SAT) of propositional formulas in conjunctive normal form, using unit propagation and pure literal elimination.",
article = nil,
aliases = { "DPLL", "Davis-Putnam-Logemann-Loveland", "Davis-Putnam-Logemann-Loveland algorithm", "DPLL procedure", "DPLL SAT solver" },
es = "El procedimiento Davis-Putnam-Logemann-Loveland, un algoritmo de búsqueda con retroceso completo para decidir la satisfacibilidad (SAT) de fórmulas proposicionales en forma normal conjuntiva, usando propagación unitaria y eliminación de literales puros.",
zh = "Davis-Putnam-Logemann-Loveland 算法,一种用于判定合取范式命题公式可满足性(SAT)的完备回溯搜索算法,采用单元传播和纯文字消去等技术。",
term_es = "algoritmo DPLL",
term_zh = "DPLL 算法",
aliases_es = { "DPLL", "Davis-Putnam-Logemann-Loveland", "procedimiento DPLL", "solver SAT DPLL" },
aliases_zh = { "DPLL", "Davis-Putnam-Logemann-Loveland 算法", "DPLL 过程", "DPLL SAT 求解器" },
}
data["dpm-solver"] = {
short = "A high-order ODE solver tailored to the probability flow ODE of diffusion models that produces high-quality samples in roughly ten to twenty function evaluations.",
article = nil,
aliases = { "DPM-Solver", "DPMSolver", "DPM Solver", "Diffusion Probabilistic Model Solver" },
es = "Solucionador de EDO de alto orden adaptado a la EDO de flujo de probabilidad de los modelos de difusión, que produce muestras de alta calidad en unas diez a veinte evaluaciones de función.",
zh = "针对扩散模型概率流 ODE 设计的高阶 ODE 求解器,通常只需约十到二十次函数评估即可生成高质量样本。",
term_es = "DPM-Solver",
term_zh = "DPM-Solver",
aliases_es = { "solucionador DPM" },
aliases_zh = { "DPM 求解器" },
}
data["dpm-solver++"] = {
short = "An improved variant of DPM-Solver that uses data prediction and multi-step formulations to remain stable for guided sampling and very low step counts in diffusion models.",
article = nil,
aliases = { "DPM-Solver++", "DPMSolver++", "DPM Solver++", "DPM-Solver-Plus-Plus" },
es = "Variante mejorada de DPM-Solver que utiliza predicción de datos y formulaciones multipaso para mantener estabilidad bajo muestreo guiado y con muy pocos pasos en modelos de difusión.",
zh = "DPM-Solver 的改进版本,采用数据预测和多步公式,在引导采样和极少步数下仍能保持扩散模型采样稳定。",
term_es = "DPM-Solver++",
term_zh = "DPM-Solver++",
aliases_es = { "solucionador DPM++" },
aliases_zh = { "DPM 求解器++" },
}
data["dpp-net"] = {
short = "DPP-Net: a multi-objective NAS method that uses a determinantal point process to maintain a diverse Pareto front of architectures trading off accuracy against device-aware metrics such as latency and memory (Dong et al., 2018).",
article = nil,
aliases = { "DPP-Net", "DPPNet", "DPP Net" },
es = "DPP-Net: método de NAS multiobjetivo que emplea un proceso puntual determinantal para mantener un frente de Pareto diverso de arquitecturas que equilibran precisión frente a métricas conscientes del dispositivo como latencia y memoria (Dong et al., 2018).",
zh = "DPP-Net:一种多目标 NAS 方法,利用行列式点过程维护一组多样化的帕累托最优架构,在精度与延迟、内存等设备感知指标之间进行权衡(Dong 等,2018)。",
term_es = "DPP-Net",
term_zh = "DPP-Net",
aliases_es = { "DPPNet" },
aliases_zh = { "DPPNet" },
}
data["dprnn"] = {
short = "Dual-Path RNN: a speech separation architecture that processes long audio sequences by alternating intra-chunk and inter-chunk RNN passes, capturing both local and global temporal dependencies efficiently.",
article = nil,
aliases = { "DPRNN", "Dual-Path RNN", "dual path RNN", "dual-path recurrent neural network" },
es = "Dual-Path RNN: arquitectura de separación de habla que procesa secuencias largas de audio alternando pasos de RNN intra-bloque e inter-bloque, capturando dependencias temporales locales y globales de forma eficiente.",
zh = "Dual-Path RNN:一种语音分离架构,通过在块内与块间交替进行 RNN 处理来高效建模长音频序列的局部与全局时间依赖。",
term_es = "DPRNN",
term_zh = "DPRNN",
aliases_es = { "DPRNN", "RNN de doble vía", "RNN de doble trayectoria" },
aliases_zh = { "DPRNN", "双路径 RNN", "双路径循环神经网络" },
}
data["dptnet"] = {
short = "Dual-Path Transformer Network: a speech separation model that replaces the RNNs in DPRNN with transformer blocks operating along intra-chunk and inter-chunk paths.",
article = nil,
aliases = { "DPTNet", "Dual-Path Transformer Network", "dual-path transformer" },
es = "Dual-Path Transformer Network: modelo de separación de habla que reemplaza las RNN de DPRNN por bloques transformer que operan a lo largo de las trayectorias intra-bloque e inter-bloque.",
zh = "Dual-Path Transformer Network:一种语音分离模型,将 DPRNN 中的 RNN 替换为沿块内与块间路径运行的 Transformer 模块。",
term_es = "DPTNet",
term_zh = "DPTNet",
aliases_es = { "DPTNet", "red Transformer de doble vía" },
aliases_zh = { "DPTNet", "双路径 Transformer 网络" },
}
data["dr-learner"] = {
short = "A meta-learner for conditional average treatment effects that constructs a doubly robust pseudo-outcome and regresses it on covariates, inheriting double robustness in the first-stage nuisance estimates.",
article = nil,
aliases = { "DR-learner", "doubly robust learner", "DR meta-learner" },
es = "Metaaprendiz para efectos promedio condicionales del tratamiento que construye un pseudo-resultado doblemente robusto y lo regresa sobre las covariables, heredando la doble robustez de las estimaciones nuisance de primera etapa.",
zh = "针对条件平均处置效应的元学习器,构造双重稳健的伪结果并对协变量进行回归,从而继承一阶段干扰估计的双重稳健性。",
term_es = "DR-learner",
term_zh = "DR-learner",
aliases_es = { "aprendiz doblemente robusto", "metaaprendiz DR" },
aliases_zh = { "双重稳健学习器", "DR 元学习器", "DR 学习器" },
}
data["dragonet"] = {
short = "A neural-network architecture for treatment-effect estimation with three heads sharing a representation: a propensity head and two outcome heads (one per treatment arm), trained jointly with a targeted regularization term.",
article = nil,
aliases = { "Dragonnet", "DragonNet", "dragon net" },
es = "Arquitectura de red neuronal para estimación de efectos del tratamiento con tres cabezas que comparten una representación: una cabeza de propensión y dos cabezas de resultado (una por brazo de tratamiento), entrenadas conjuntamente con un término de regularización dirigida.",
zh = "用于处置效应估计的神经网络架构,三个共享表示的输出头分别为倾向得分头与两个结果头(每个处置臂一个),并通过目标正则化项联合训练。",
term_es = "Dragonnet",
term_zh = "Dragonnet",
aliases_es = { "DragonNet", "red Dragonnet" },
aliases_zh = { "DragonNet", "Dragon 网络" },
}
data["dragonfly hpo"] = {
short = "Dragonfly: an open-source Python library for scalable Bayesian optimization, supporting high-dimensional, multi-fidelity, and multi-objective hyperparameter search (Kandasamy et al., 2020).",
article = nil,
aliases = { "Dragonfly", "Dragonfly library", "dragonfly-opt" },
es = "Dragonfly: biblioteca de Python de código abierto para optimización bayesiana escalable, que soporta búsqueda de hiperparámetros de alta dimensión, multi-fidelidad y multiobjetivo (Kandasamy et al., 2020).",
zh = "Dragonfly:一个开源的 Python 贝叶斯优化库,支持高维、多保真度以及多目标的超参数搜索(Kandasamy 等,2020)。",
term_es = "Dragonfly (HPO)",
term_zh = "Dragonfly HPO",
aliases_es = { "Dragonfly", "biblioteca Dragonfly" },
aliases_zh = { "Dragonfly", "Dragonfly 库" },
}
data["dreambooth"] = {
short = "A fine-tuning method for text-to-image diffusion models that personalizes the model to generate images of a specific subject from only a few reference images by binding the subject to a unique identifier token while preserving class priors.",
article = nil,
aliases = { "DreamBooth" },
es = "Método de ajuste fino para modelos de difusión texto-a-imagen que personaliza el modelo para generar imágenes de un sujeto específico a partir de pocas imágenes de referencia, vinculando el sujeto a un token identificador único mientras se preservan los priors de clase.",
zh = "一种文本生成图像扩散模型的微调方法,通过将特定主体绑定到唯一标识符词元并保留类别先验,使模型能够仅从少量参考图像生成该主体的图像。",
term_es = "DreamBooth",
term_zh = "DreamBooth",
aliases_es = {},
aliases_zh = {},
}
data["dreamcoder"] = {
short = "A program-induction system by Ellis et al. (2021) that alternates between a wake phase, which searches for programs solving tasks, and a sleep phase, which abstracts reusable concepts into a learned domain-specific library and trains a recognition network to guide future search.",
article = nil,
aliases = { "DreamCoder", "Dreamcoder", "DREAMCODER", "DreamCoder system" },
es = "Un sistema de inducción de programas de Ellis et al. (2021) que alterna entre una fase de vigilia, que busca programas que resuelven tareas, y una fase de sueño, que abstrae conceptos reutilizables en una biblioteca de dominio aprendida y entrena una red de reconocimiento para guiar la búsqueda futura.",
zh = "Ellis 等人(2021)提出的程序归纳系统,在'清醒'阶段搜索能解决任务的程序,在'睡眠'阶段把可复用的概念抽象到学习到的领域库中,并训练识别网络来引导后续搜索。",
term_es = "DreamCoder",
term_zh = "DreamCoder",
aliases_es = { "DreamCoder", "sistema DreamCoder" },
aliases_zh = { "DreamCoder", "DreamCoder 系统" },
}
data["dreamfusion"] = {
short = "A text-to-3D method that optimizes a NeRF using Score Distillation Sampling, in which a frozen 2D text-to-image diffusion model supplies gradients to align rendered views with a text prompt.",
article = nil,
aliases = { "DreamFusion", "Dream Fusion" },
es = "Método de texto a 3D que optimiza un NeRF mediante destilación de puntajes (SDS), donde un modelo de difusión texto-a-imagen 2D congelado proporciona gradientes para alinear las vistas renderizadas con un prompt textual.",
zh = "一种文本到 3D 方法,通过分数蒸馏采样(SDS)优化 NeRF,使用冻结的 2D 文生图扩散模型提供梯度,使渲染视图与文本提示对齐。",
term_es = "DreamFusion",
term_zh = "DreamFusion",
aliases_es = {},
aliases_zh = {},
}
data["driver mutation"] = {
short = "A somatic mutation that confers a selective growth advantage on a cancer cell and contributes causally to tumor initiation or progression, in contrast to passenger mutations that accumulate without functional consequence.",
article = nil,
aliases = { "cancer driver mutation", "driver", "driver gene mutation" },
es = "Mutación somática que confiere una ventaja selectiva de crecimiento a una célula cancerosa y contribuye causalmente al inicio o la progresión tumoral, en contraste con las mutaciones pasajeras que se acumulan sin consecuencias funcionales.",
zh = "一种体细胞突变,能够赋予癌细胞选择性生长优势并对肿瘤的发生或进展起因果作用,与无功能后果累积的乘客突变形成对比。",
term_es = "mutación driver",
term_zh = "驱动突变",
aliases_es = { "mutación conductora", "mutación impulsora", "driver" },
aliases_zh = { "癌症驱动突变", "driver 突变" },
}
data["drop benchmark"] = {
short = "A reading-comprehension dataset (Discrete Reasoning Over Paragraphs) from AI2 in which answering questions requires discrete operations such as addition, counting, sorting, or coreference over Wikipedia paragraphs.",
article = nil,
aliases = { "DROP", "DROP dataset", "DROP", "Discrete Reasoning Over Paragraphs", "AI2 DROP" },
es = "Un conjunto de datos de comprensión lectora (Discrete Reasoning Over Paragraphs) de AI2 en el que responder a las preguntas requiere operaciones discretas como suma, conteo, ordenación o resolución de correferencia sobre párrafos de Wikipedia.",
zh = "AI2 提出的阅读理解数据集 DROP(Discrete Reasoning Over Paragraphs),回答问题需要在维基百科段落上执行加法、计数、排序、共指消解等离散操作。",
term_es = "benchmark DROP",
term_zh = "DROP 基准",
aliases_es = { "DROP", "conjunto de datos DROP", "Discrete Reasoning Over Paragraphs" },
aliases_zh = { "DROP", "DROP 数据集", "Discrete Reasoning Over Paragraphs" },
}
data["drop-path"] = {
short = "A regularization technique that randomly drops entire branches (paths) within multi-branch architectures such as residual or fractal networks during training; equivalent to stochastic depth in residual nets.",
article = nil,
aliases = { "DropPath", "droppath", "drop path", "path dropout" },
es = "Técnica de regularización que descarta aleatoriamente ramas (caminos) completos dentro de arquitecturas multi-rama como redes residuales o fractales durante el entrenamiento; equivale a la profundidad estocástica en redes residuales.",
zh = "一种正则化技术,在训练期间随机丢弃多分支架构(如残差或分形网络)中的整条分支(路径);在残差网络中等价于随机深度。",
term_es = "drop-path",
term_zh = "DropPath",
aliases_es = { "DropPath", "drop path", "dropout de caminos" },
aliases_zh = { "DropPath", "drop-path", "路径丢弃", "路径随机失活" },
}
data["drop-seq"] = {
short = "A microfluidic droplet-based single-cell RNA sequencing method that co-encapsulates individual cells with barcoded primer beads to capture and tag transcripts from thousands of cells in parallel.",
article = nil,
aliases = { "Drop-seq", "Drop-Seq", "drop seq", "Dropseq" },
es = "Método de secuenciación de ARN de célula única basado en gotitas microfluídicas que co-encapsula células individuales con perlas con cebadores codificados por código de barras para capturar y etiquetar transcritos de miles de células en paralelo.",
zh = "一种基于微流控液滴的单细胞 RNA 测序方法,将单个细胞与带条形码引物的微珠共封装,以并行捕获和标记数千个细胞的转录本。",
term_es = "Drop-seq",
term_zh = "Drop-seq",
aliases_es = { "Drop-seq" },
aliases_zh = { "Drop-seq" },
}
data["dropconnect bayesian"] = {
short = "A Bayesian interpretation of DropConnect in which independent Bernoulli masks on weights induce an approximate posterior, enabling Monte Carlo uncertainty estimation by sampling masks at test time.",
article = nil,
aliases = { "Bayesian DropConnect", "MC DropConnect", "Monte Carlo DropConnect", "DropConnect as Bayesian approximation" },
es = "Interpretación bayesiana de DropConnect en la que máscaras de Bernoulli independientes sobre los pesos inducen un posterior aproximado, permitiendo estimar incertidumbre por Monte Carlo al muestrear máscaras en tiempo de prueba.",
zh = "DropConnect 的贝叶斯解释,权重上的独立伯努利掩码诱导出近似后验,通过在测试时采样掩码进行蒙特卡洛不确定性估计。",
term_es = "DropConnect bayesiano",
term_zh = "贝叶斯 DropConnect",
aliases_es = { "DropConnect bayesiano", "MC DropConnect", "DropConnect Monte Carlo", "DropConnect como aproximación bayesiana" },
aliases_zh = { "贝叶斯 DropConnect", "MC DropConnect", "蒙特卡洛 DropConnect", "DropConnect 作为贝叶斯近似" },
}
data["dropout"] = {
short = "A regularization technique that randomly zeroes a fraction of unit activations during training, preventing co-adaptation of features and approximating an ensemble of subnetworks.",
article = "Dropout",
aliases = { "drop-out", "dropout regularization", "Hinton dropout" },
es = "Técnica de regularización que pone a cero aleatoriamente una fracción de las activaciones de las unidades durante el entrenamiento, evitando la co-adaptación de características y aproximando un ensamblado de subredes.",
zh = "一种正则化技术,在训练期间随机将一部分单元的激活置零,防止特征之间的共适应,并近似为子网络的集成。",
term_es = "dropout",
term_zh = "Dropout",
aliases_es = { "regularización dropout", "abandono (regularización)" },
aliases_zh = { "dropout", "随机失活", "丢弃法" },
}
data["dropout as bayesian approximation"] = {
short = "The result of Gal and Ghahramani showing that training and test-time dropout in neural networks corresponds to variational inference in a deep Gaussian process, justifying MC dropout uncertainty.",
article = "Dropout",
aliases = { "MC dropout", "Monte Carlo dropout", "MCDropout", "dropout variational inference", "Gal and Ghahramani dropout" },
es = "Resultado de Gal y Ghahramani que muestra que el dropout durante entrenamiento y prueba en redes neuronales corresponde a inferencia variacional en un proceso gaussiano profundo, justificando la incertidumbre por MC dropout.",
zh = "Gal 与 Ghahramani 的结果,证明神经网络在训练与测试时的 dropout 等价于深度高斯过程上的变分推断,从而为 MC dropout 不确定性提供理论依据。",
term_es = "dropout como aproximación bayesiana",
term_zh = "Dropout 作为贝叶斯近似",
aliases_es = { "MC dropout", "dropout Monte Carlo", "MCDropout", "inferencia variacional con dropout", "dropout de Gal y Ghahramani" },
aliases_zh = { "MC dropout", "蒙特卡洛 dropout", "MCDropout", "Dropout 变分推断", "Gal-Ghahramani dropout" },
}
data["dropout posterior"] = {
short = "The approximate variational posterior over neural network weights induced by dropout masks, in which each weight is multiplied by an independent Bernoulli or Gaussian random variable.",
article = nil,
aliases = { "dropout variational posterior", "dropout-induced posterior", "MC dropout posterior" },
es = "Posterior variacional aproximado sobre los pesos de una red neuronal inducido por las máscaras de dropout, en el que cada peso se multiplica por una variable aleatoria Bernoulli o gaussiana independiente.",
zh = "由 dropout 掩码诱导出的神经网络权重近似变分后验,其中每个权重乘以一个独立的伯努利或高斯随机变量。",
term_es = "posterior por dropout",
term_zh = "Dropout 后验",
aliases_es = { "posterior variacional por dropout", "posterior inducido por dropout", "posterior MC dropout" },
aliases_zh = { "Dropout 变分后验", "Dropout 诱导后验", "MC dropout 后验" },
}
data["dropout uncertainty"] = {
short = "Predictive uncertainty obtained by performing multiple stochastic forward passes with dropout active at test time and aggregating the resulting predictions.",
article = "Dropout",
aliases = { "MC dropout uncertainty", "Monte Carlo dropout uncertainty", "dropout-based uncertainty" },
es = "Incertidumbre predictiva obtenida realizando múltiples pasadas estocásticas hacia adelante con dropout activo en tiempo de prueba y agregando las predicciones resultantes.",
zh = "在测试时保持 dropout 激活进行多次随机前向传递并聚合所得预测而获得的预测不确定性。",
term_es = "incertidumbre por dropout",
term_zh = "Dropout 不确定性",
aliases_es = { "incertidumbre MC dropout", "incertidumbre por dropout Monte Carlo", "incertidumbre basada en dropout" },
aliases_zh = { "MC dropout 不确定性", "蒙特卡洛 dropout 不确定性", "基于 dropout 的不确定性" },
}
data["drug discovery"] = {
short = "The multi-stage process of identifying new candidate medications, encompassing target identification and validation, hit discovery (e.g. virtual or high-throughput screening), lead optimization, and preclinical characterization before clinical trials.",
article = nil,
aliases = { "small molecule drug discovery", "early drug discovery", "drug-discovery" },
es = "Proceso multietapa de identificación de nuevos medicamentos candidatos que abarca la identificación y validación de dianas, el descubrimiento de hits (p. ej. cribado virtual o de alto rendimiento), la optimización de líderes y la caracterización preclínica antes de los ensayos clínicos.",
zh = "识别新候选药物的多阶段过程,包括靶点识别与验证、苗头化合物发现(如虚拟筛选或高通量筛选)、先导化合物优化以及临床前表征,最后进入临床试验。",
term_es = "descubrimiento de fármacos",
term_zh = "药物发现",
aliases_es = { "descubrimiento de medicamentos", "descubrimiento de fármacos en etapa temprana" },
aliases_zh = { "药物研发", "药物开发", "新药发现" },
}
data["drug repositioning"] = {
short = "The strategy of identifying new therapeutic indications for already approved or investigational drugs, leveraging existing safety and pharmacokinetic data to shorten development timelines. Used interchangeably with drug repurposing.",
article = nil,
aliases = { "drug repurposing", "drug reprofiling", "drug rescue", "drug redirecting", "repositioning" },
es = "Estrategia que consiste en identificar nuevas indicaciones terapéuticas para fármacos ya aprobados o en investigación, aprovechando los datos de seguridad y farmacocinética existentes para acortar los tiempos de desarrollo. Se usa indistintamente con reposicionamiento de fármacos.",
zh = "为已上市或在研药物寻找新的治疗适应症的策略,利用已有的安全性和药代动力学数据缩短开发周期。与药物再利用同义。",
term_es = "reposicionamiento de fármacos",
term_zh = "药物重定位",
aliases_es = { "reposicionamiento farmacológico", "reutilización de fármacos", "reperfilado de fármacos" },
aliases_zh = { "药物再利用", "药物重新定位", "老药新用" },
}
data["drug repurposing"] = {
short = "The strategy of identifying new therapeutic indications for approved or investigational drugs, leveraging existing safety and pharmacokinetic data to shorten development timelines.",
article = nil,
aliases = { "drug recycling", "drug repositioning", "drug reprofiling", "therapeutic switching", "recycling" },
es = "Estrategia consistente en identificar nuevas indicaciones terapéuticas para fármacos aprobados o en investigación, aprovechando los datos previos de seguridad y farmacocinética para acortar los tiempos de desarrollo.",
zh = "为已获批或在研药物寻找新治疗适应症的策略,利用其已有的安全性和药代动力学数据缩短研发周期。",
term_es = "reposicionamiento de fármacos",
term_zh = "药物重定位",
aliases_es = { "reutilización de fármacos", "reciclaje de fármacos", "reperfilado de fármacos" },
aliases_zh = { "药物再利用", "药物重新定位", "药物老药新用" },
}
data["drug-drug interaction"] = {
short = "A pharmacological or clinical interaction between two co-administered drugs that alters efficacy or toxicity, e.g. through CYP450 inhibition, transporter competition, or pharmacodynamic synergy. Predicting DDIs from chemical and biological data is a major ML task.",
article = nil,
aliases = { "DDI", "drug drug interaction", "drug interaction", "drug-drug interactions" },
es = "Interacción farmacológica o clínica entre dos fármacos coadministrados que altera la eficacia o la toxicidad, p. ej. mediante inhibición de CYP450, competencia por transportadores o sinergia farmacodinámica. La predicción de DDI a partir de datos químicos y biológicos es una tarea importante de ML.",
zh = "两种合用药物之间在药理或临床上发生的相互作用,可改变疗效或毒性,机制包括 CYP450 抑制、转运体竞争或药效学协同等。基于化学和生物数据预测 DDI 是机器学习的重要任务。",
term_es = "interacción fármaco-fármaco",
term_zh = "药物-药物相互作用",
aliases_es = { "DDI", "interacción farmacológica", "interacciones medicamentosas" },
aliases_zh = { "DDI", "药物相互作用", "药物间相互作用" },
}
data["drug-induced liver injury"] = {
short = "Liver damage caused by exposure to a medication or its metabolites, ranging from asymptomatic enzyme elevations to acute liver failure. A leading cause of attrition in drug development and post-market withdrawals.",
article = nil,
aliases = { "DILI", "hepatotoxicity", "drug induced liver injury", "drug-induced hepatotoxicity" },
es = "Daño hepático causado por la exposición a un medicamento o sus metabolitos, que puede ir desde elevaciones asintomáticas de enzimas hasta insuficiencia hepática aguda. Es una causa principal de abandono en el desarrollo de fármacos y de retiradas post-mercado.",
zh = "由药物或其代谢产物暴露引起的肝损伤,可表现为无症状的酶学升高至急性肝衰竭不等。是药物研发失败和上市后撤市的主要原因之一。",
term_es = "lesión hepática inducida por fármacos",
term_zh = "药物性肝损伤",
aliases_es = { "DILI", "hepatotoxicidad", "toxicidad hepática por fármacos" },
aliases_zh = { "DILI", "药物引起的肝损伤", "药源性肝损伤", "肝毒性" },
}
data["drug-likeness"] = {
short = "A heuristic measure of how closely a molecule's physicochemical properties resemble those of approved oral drugs. Common metrics include Lipinski's Rule of Five, Veber's rules, and the Quantitative Estimate of Drug-likeness (QED).",
article = nil,
aliases = { "druglikeness", "drug likeness", "drug-like properties", "drug-like" },
es = "Medida heurística de cuán similares son las propiedades fisicoquímicas de una molécula a las de los fármacos orales aprobados. Las métricas habituales incluyen la regla de los cinco de Lipinski, las reglas de Veber y la estimación cuantitativa de drug-likeness (QED).",
zh = "衡量分子的理化性质与已上市口服药物的相似程度的启发式指标。常见度量包括 Lipinski 五规则、Veber 规则和药物相似性定量估计(QED)。",
term_es = "drug-likeness",
term_zh = "类药性",
aliases_es = { "carácter de fármaco", "similitud con fármacos", "similitud farmacológica" },
aliases_zh = { "药物相似性", "类药性质", "drug-likeness" },
}
data["drug-target interaction"] = {
short = "The binding or functional interaction between a drug molecule and a biological target, typically a protein. Predicting drug-target interactions from chemical structure and target sequence/structure is a core task in computational drug discovery.",
article = nil,
aliases = { "DTI", "drug target interaction", "compound-target interaction", "drug-target interactions" },
es = "Interacción de unión o funcional entre una molécula de fármaco y una diana biológica, normalmente una proteína. La predicción de interacciones fármaco-diana a partir de la estructura química y la secuencia/estructura de la diana es una tarea central en el descubrimiento computacional de fármacos.",
zh = "药物分子与生物靶标(通常为蛋白)之间的结合或功能性相互作用。基于化学结构与靶标序列/结构预测药物-靶标相互作用是计算药物发现的核心任务之一。",
term_es = "interacción fármaco-diana",
term_zh = "药物-靶标相互作用",
aliases_es = { "DTI", "interacción fármaco-objetivo", "interacción compuesto-diana" },
aliases_zh = { "DTI", "药物-靶点相互作用", "药靶相互作用" },
}
data["drugbank"] = {
short = "A comprehensive, manually curated online database of drug, drug-target, drug-interaction, and pharmacological information maintained at the University of Alberta. Widely used as a reference resource in cheminformatics and drug-repurposing studies.",
article = nil,
aliases = { "DrugBank", "DrugBank database" },
es = "Base de datos en línea exhaustiva y curada manualmente sobre fármacos, dianas farmacológicas, interacciones e información farmacológica, mantenida por la Universidad de Alberta. Se utiliza ampliamente como recurso de referencia en quimioinformática y estudios de reutilización de fármacos.",
zh = "由阿尔伯塔大学维护的综合性人工策划在线数据库,涵盖药物、药物靶标、相互作用以及药理学信息。在化学信息学和药物再利用研究中被广泛用作参考资源。",
term_es = "DrugBank",
term_zh = "DrugBank",
aliases_es = { "DrugBank", "base de datos DrugBank" },
aliases_zh = { "DrugBank", "DrugBank 数据库" },
}
data["drugex"] = {
short = "A reinforcement-learning-based de novo drug design framework that trains a recurrent neural network policy to generate SMILES strings and optimizes them with policy gradients toward desired property profiles. Successive versions (v1-v3) added multi-objective and scaffold-constrained generation.",
article = nil,
aliases = { "DrugEx", "DrugEx v1", "DrugEx v2", "DrugEx v3" },
es = "Marco de diseño de fármacos de novo basado en aprendizaje por refuerzo que entrena una política basada en una red recurrente para generar cadenas SMILES y las optimiza con gradientes de política hacia perfiles de propiedades deseados. Las versiones sucesivas (v1-v3) añadieron generación multiobjetivo y restringida por andamiaje.",
zh = "基于强化学习的从头药物设计框架,使用循环神经网络作为策略生成 SMILES 字符串,并通过策略梯度将其优化至期望的属性配置。后续版本(v1-v3)增加了多目标和骨架约束生成能力。",
term_es = "DrugEx",
term_zh = "DrugEx",
aliases_es = { "DrugEx" },
aliases_zh = { "DrugEx" },
}
data["druggability prediction"] = {
short = "Computational assessment of whether a biological target, or a specific binding pocket within it, is likely to be modulated by a drug-like small molecule with sufficient potency and selectivity. Methods range from physicochemical scoring (fpocket, SiteMap) to ML classifiers.",
article = nil,
aliases = { "druggability assessment", "druggability scoring", "druggable target prediction" },
es = "Evaluación computacional de si una diana biológica, o un bolsillo de unión específico dentro de ella, es probable que pueda ser modulada por una molécula pequeña de tipo fármaco con suficiente potencia y selectividad. Los métodos van desde puntuaciones fisicoquímicas (fpocket, SiteMap) hasta clasificadores de ML.",
zh = "对生物靶标或其特定结合口袋是否能够被具有足够效力和选择性的类药小分子调节进行计算评估。方法涵盖理化打分(fpocket、SiteMap)以及机器学习分类器。",
term_es = "predicción de druggability",
term_zh = "成药性预测",
aliases_es = { "evaluación de druggability", "predicción de capacidad de ser fármaco" },
aliases_zh = { "可成药性预测", "成药性评估", "druggability 预测" },
}
data["druggable pocket"] = {
short = "A cavity on the surface or interior of a protein with size, shape, hydrophobicity, and depth properties suitable for binding a drug-like small molecule with high affinity. Identifying druggable pockets is a prerequisite for structure-based drug design.",
article = nil,
aliases = { "druggable site", "druggable binding pocket", "druggable cavity", "druggable binding site" },
es = "Cavidad en la superficie o el interior de una proteína cuyas propiedades de tamaño, forma, hidrofobicidad y profundidad la hacen adecuada para unirse a una molécula pequeña de tipo fármaco con alta afinidad. Identificar bolsillos druggable es un requisito previo para el diseño de fármacos basado en estructura.",
zh = "蛋白质表面或内部的腔体,其大小、形状、疏水性和深度等性质使其适合与类药小分子高亲和力结合。识别可成药口袋是基于结构的药物设计的前提。",
term_es = "bolsillo druggable",
term_zh = "可成药口袋",
aliases_es = { "sitio druggable", "cavidad druggable", "bolsillo de unión druggable" },
aliases_zh = { "可成药结合口袋", "成药口袋", "druggable 口袋" },
}
data["drum rule learner"] = {
short = "A neural rule-mining system for knowledge graphs by Sadeghian et al. (2019) that learns confidence-weighted first-order Horn rules end-to-end via a low-rank, differentiable parameterization of relation matrices.",
article = nil,
aliases = { "DRUM", "DRUM model", "DRUM rule mining", "Differentiable Rule Mining", "DRUM neural rule learner" },
es = "Un sistema neuronal de minería de reglas sobre grafos de conocimiento de Sadeghian et al. (2019) que aprende reglas Horn de primer orden ponderadas por confianza de extremo a extremo, mediante una parametrización diferenciable de bajo rango de las matrices de relación.",
zh = "Sadeghian 等人(2019)提出的面向知识图的神经规则挖掘系统,通过对关系矩阵的低秩可微参数化,以端到端方式学习带置信度权重的一阶 Horn 规则。",
term_es = "DRUM (aprendiz de reglas)",
term_zh = "DRUM 规则学习器",
aliases_es = { "DRUM", "modelo DRUM", "minería de reglas DRUM" },
aliases_zh = { "DRUM", "DRUM 模型", "DRUM 规则挖掘", "可微规则挖掘" },
}
data["drum transcription"] = {
short = "The task of detecting and labeling individual percussive events (kick, snare, hi-hat, etc.) in an audio recording and producing a symbolic representation of the drum performance.",
article = nil,
aliases = { "automatic drum transcription", "ADT", "drum transcription (audio)" },
es = "Tarea consistente en detectar y etiquetar los eventos percusivos individuales (bombo, caja, charles, etc.) en una grabación de audio y producir una representación simbólica de la interpretación de batería.",
zh = "在音频录音中检测并标记各类打击乐事件(底鼓、军鼓、踩镲等),并生成鼓演奏符号化表示的任务。",
term_es = "transcripción de batería",
term_zh = "鼓点转录",
aliases_es = { "transcripción automática de batería", "ADT" },
aliases_zh = { "自动鼓点转录", "ADT", "鼓声转录" },
}
data["dspy"] = {
short = "A Python framework from Stanford for programming, rather than prompting, language models, in which pipelines are written as modules with typed signatures and prompts are compiled and optimized automatically.",
article = nil,
aliases = { "DSPy", "DSPy framework" },
es = "Marco de Python de Stanford para programar, en lugar de redactar prompts, modelos de lenguaje; las cadenas se escriben como módulos con firmas tipadas y los prompts se compilan y optimizan automáticamente.",
zh = "斯坦福推出的 Python 框架,用于以编程方式而非编写提示词的方式调用语言模型,管道写成带类型签名的模块,提示词由系统自动编译和优化。",
term_es = "DSPy",
term_zh = "DSPy",
aliases_es = { "marco DSPy" },
aliases_zh = { "DSPy 框架" },
}
data["dssp"] = {
short = "An algorithm and program (Define Secondary Structure of Proteins) that assigns secondary-structure categories—alpha helix, beta sheet, turn, etc.—to each residue of a protein based on hydrogen-bonding patterns in its 3D structure.",
article = nil,
aliases = { "DSSP", "Define Secondary Structure of Proteins" },
es = "Algoritmo y programa (Define Secondary Structure of Proteins) que asigna categorías de estructura secundaria —hélice alfa, lámina beta, giro, etc.— a cada residuo de una proteína a partir de los patrones de enlaces de hidrógeno en su estructura 3D.",
zh = "一种算法及程序(Define Secondary Structure of Proteins),根据蛋白质三维结构中的氢键模式,为每个残基分配二级结构类别(α螺旋、β折叠、转角等)。",
term_es = "DSSP",
term_zh = "DSSP",
aliases_es = { "DSSP" },
aliases_zh = { "DSSP" },
}
data["dtc gp"] = {
short = "Deterministic Training Conditional Gaussian process: a sparse GP approximation that uses a deterministic conditional mean given inducing points to construct the training likelihood, lower-bounding the marginal likelihood.",
article = nil,
aliases = { "DTC", "deterministic training conditional", "DTC approximation", "deterministic training conditional GP" },
es = "Proceso gaussiano de Condicional Determinista de Entrenamiento: aproximación dispersa de GP que usa una media condicional determinista dados los puntos inducentes para construir la verosimilitud de entrenamiento, acotando inferiormente la verosimilitud marginal.",
zh = "确定性训练条件高斯过程:一种稀疏 GP 近似,使用基于诱导点的确定性条件均值构造训练似然,从而对边际似然给出下界。",
term_es = "GP DTC",
term_zh = "DTC GP",
aliases_es = { "DTC", "condicional determinista de entrenamiento", "aproximación DTC", "GP de condicional determinista de entrenamiento" },
aliases_zh = { "DTC", "确定性训练条件", "DTC 近似", "确定性训练条件高斯过程" },
}
data["dti prediction"] = {
short = "The task of predicting whether a small-molecule drug will bind to a target protein and with what affinity, often framed as a binary classification or regression problem over molecule-protein pairs.",
article = nil,
aliases = { "DTI prediction", "drug-target interaction prediction", "drug target interaction prediction", "DTI", "drug–target interaction prediction" },
es = "Tarea de predecir si un fármaco de molécula pequeña se unirá a una proteína diana y con qué afinidad, formulada habitualmente como clasificación binaria o regresión sobre pares molécula-proteína.",
zh = "预测小分子药物是否会与靶蛋白结合及其亲和力的任务,通常被形式化为对分子-蛋白配对的二分类或回归问题。",
term_es = "predicción de interacción fármaco-diana",
term_zh = "药物-靶点相互作用预测",
aliases_es = { "predicción DTI", "predicción de interacciones fármaco-diana", "DTI" },
aliases_zh = { "DTI 预测", "药物靶点相互作用预测", "药靶相互作用预测" },
}
data["dtw"] = {
short = "Dynamic time warping: an algorithm for measuring similarity between two temporal sequences that may vary in speed by finding an optimal nonlinear alignment between them.",
article = nil,
aliases = { "DTW", "dynamic time warping", "dynamic-time warping" },
es = "Dynamic Time Warping: algoritmo que mide la similitud entre dos secuencias temporales que pueden variar en velocidad encontrando una alineación no lineal óptima entre ellas.",
zh = "动态时间规整:一种通过寻找最优非线性对齐来度量两条速度可能不同的时间序列之间相似度的算法。",
term_es = "DTW",
term_zh = "DTW",
aliases_es = { "DTW", "alineamiento temporal dinámico", "deformación dinámica del tiempo" },
aliases_zh = { "DTW", "动态时间规整", "动态时间弯曲" },
}
data["dual decomposition"] = {
short = "An optimization technique that splits a hard problem into tractable subproblems coupled through Lagrange multipliers, then solves the dual via subgradient or coordinate updates; in graphical models it underlies MAP inference algorithms such as MPLP and tree-reweighted message passing.",
article = nil,
aliases = { "Lagrangian relaxation MAP", "dual decomposition MAP", "DD inference", "Lagrangian dual decomposition" },
es = "Una técnica de optimización que divide un problema difícil en subproblemas tratables acoplados por multiplicadores de Lagrange y resuelve el dual mediante actualizaciones de subgradiente o por coordenadas; en modelos gráficos sustenta algoritmos de inferencia MAP como MPLP y tree-reweighted message passing.",
zh = "一种优化技术,将难解问题分解为通过拉格朗日乘子耦合的可解子问题,再用次梯度或坐标更新求解对偶问题;在图模型中,它是 MPLP 和树重加权消息传递等 MAP 推断算法的基础。",
term_es = "descomposición dual",
term_zh = "对偶分解",
aliases_es = { "relajación lagrangiana", "descomposición dual lagrangiana", "DD" },
aliases_zh = { "拉格朗日松弛", "对偶分解法", "DD" },
}
data["dual encoder multimodal"] = {
short = "A multimodal architecture with two separate encoders, one per modality, that map their inputs into a shared embedding space without late cross-attention, enabling efficient retrieval and zero-shot transfer.",
article = nil,
aliases = { "dual-encoder multimodal", "two-tower multimodal", "two-encoder multimodal" },
es = "Arquitectura multimodal con dos codificadores separados, uno por modalidad, que proyectan sus entradas a un espacio de incrustación compartido sin atención cruzada tardía, permitiendo recuperación eficiente y transferencia zero-shot.",
zh = "一种多模态架构,对每种模态使用单独的编码器,将各自输入映射到共享嵌入空间,且不进行后期交叉注意力,便于高效检索与零样本迁移。",
term_es = "codificador dual multimodal",
term_zh = "多模态双编码器",
aliases_es = { "arquitectura de doble codificador multimodal", "dos torres multimodal" },
aliases_zh = { "双编码器多模态", "多模态双塔", "双塔多模态" },
}
data["dual-path rnn"] = {
short = "A speech separation architecture that splits a long audio sequence into overlapping chunks and applies RNNs alternately within each chunk and across chunks, modeling both local and global structure.",
article = nil,
aliases = { "DPRNN", "dual path RNN", "dual-path recurrent neural network", "Dual-Path RNN" },
es = "Arquitectura de separación de habla que divide una secuencia larga de audio en bloques solapados y aplica RNN alternativamente dentro de cada bloque y entre bloques, modelando estructura local y global.",
zh = "一种语音分离架构,将长音频序列切分为重叠块,并交替在块内与块间应用 RNN,从而同时建模局部与全局结构。",
term_es = "RNN de doble vía",
term_zh = "双路径 RNN",
aliases_es = { "DPRNN", "RNN dual-path", "RNN de doble trayectoria" },
aliases_zh = { "DPRNN", "双路径循环神经网络", "Dual-Path RNN" },
}
data["dual-stream transformer"] = {
short = "A multimodal transformer architecture in which each modality is processed by its own stream of self-attention layers, with cross-attention layers exchanging information between streams at selected depths.",
article = nil,
aliases = { "dual stream transformer", "two-stream transformer", "ViLBERT-style transformer" },
es = "Arquitectura transformer multimodal en la que cada modalidad se procesa con su propio flujo de capas de autoatención, intercambiando información entre flujos mediante capas de atención cruzada en profundidades seleccionadas.",
zh = "一种多模态Transformer架构,每个模态由各自的自注意力层流处理,并在选定层通过交叉注意力层在不同流之间交换信息。",
term_es = "transformer de doble flujo",
term_zh = "双流Transformer",
aliases_es = { "transformer de dos flujos", "transformer estilo ViLBERT" },
aliases_zh = { "双流transformer", "two-stream Transformer", "ViLBERT式Transformer" },
}
data["dual-tower architecture"] = {
short = "A model design with two parallel encoder towers that independently embed inputs from different modalities or sides of a query-document pair, combining their outputs only through a similarity score; CLIP and DSSM are canonical examples.",
article = nil,
aliases = { "dual tower architecture", "two-tower architecture", "twin-tower architecture", "two-tower model" },
es = "Diseño de modelo con dos torres codificadoras paralelas que incrustan de manera independiente entradas de distintas modalidades o de los dos lados de un par consulta-documento, combinando sus salidas únicamente mediante una puntuación de similitud; CLIP y DSSM son ejemplos canónicos.",
zh = "一种模型设计,包含两个并行的编码器塔,分别独立地嵌入不同模态或查询-文档对两侧的输入,仅通过相似度分数组合其输出;CLIP和DSSM是典型代表。",
term_es = "arquitectura de doble torre",
term_zh = "双塔架构",
aliases_es = { "arquitectura de dos torres", "modelo de dos torres" },
aliases_zh = { "双塔结构", "两塔架构", "two-tower架构" },
}
data["dual-use ai"] = {
short = "AI systems whose capabilities can serve both beneficial and harmful purposes (e.g. protein-folding models that aid medicine but could enable bioweapons, language models that automate education but also disinformation), raising governance and export-control concerns.",
article = nil,
aliases = { "dual-use artificial intelligence", "dual use AI", "dual-use technology in AI", "dual-purpose AI" },
es = "Sistemas de IA cuyas capacidades pueden tener tanto fines beneficiosos como perjudiciales (por ejemplo, modelos de plegamiento de proteínas útiles en medicina pero potencialmente útiles para armas biológicas; modelos de lenguaje que automatizan la educación pero también la desinformación), lo que plantea preocupaciones de gobernanza y control de exportaciones.",
zh = "兼具有益与有害用途的人工智能系统(例如可辅助医学但也可能助长生物武器的蛋白质折叠模型,或既能自动化教育又能制造虚假信息的语言模型),由此引发治理与出口管制方面的关切。",
term_es = "IA de doble uso",
term_zh = "两用人工智能",
aliases_es = { "inteligencia artificial de doble uso", "tecnología de IA de doble uso", "IA de uso dual" },
aliases_zh = { "双重用途人工智能", "两用 AI", "双用途 AI" },
}
data["dueling dqn"] = {
short = "A deep Q-network architecture that decomposes the action-value function into separate state-value and advantage streams sharing earlier layers, improving learning when many actions yield similar values.",
article = nil,
aliases = { "Dueling DQN", "dueling network", "dueling architecture", "dueling Q-network" },
es = "Arquitectura de red Q profunda que descompone la función de valor-acción en flujos separados de valor de estado y de ventaja que comparten las primeras capas, mejorando el aprendizaje cuando muchas acciones tienen valores similares.",
zh = "一种深度 Q 网络架构,将动作-值函数分解为共享前部层的状态价值流和优势流,从而在许多动作价值相近时改善学习效果。",
term_es = "DQN dueling",
term_zh = "Dueling DQN",
aliases_es = { "Dueling DQN", "arquitectura dueling", "red dueling" },
aliases_zh = { "Dueling DQN", "对决 DQN", "竞争 DQN" },
}
data["duplicate-token head"] = {
short = "An attention head in a transformer that attends from each token to earlier occurrences of the same token, identified as a building block of induction heads in mechanistic interpretability studies of GPT-style models.",
article = nil,
aliases = { "duplicate token head", "duplicate-token attention head", "duplicate-token heads" },
es = "Cabeza de atención en un transformador que dirige la atención de cada token a apariciones anteriores del mismo token; identificada como componente fundacional de las cabezas de inducción en estudios de interpretabilidad mecanicista de modelos tipo GPT.",
zh = "Transformer 中的一种注意力头,它使每个 token 关注此前相同 token 的出现位置;在 GPT 类模型的机械可解释性研究中被识别为归纳头的基础组件。",
term_es = "cabeza de tokens duplicados",
term_zh = "重复 token 注意力头",
aliases_es = { "cabeza de atención de tokens duplicados", "cabezas de tokens duplicados" },
aliases_zh = { "重复词元头", "duplicate-token head" },
}
data["duration predictor"] = {
short = "A submodule in non-autoregressive text-to-speech systems that predicts how many acoustic frames each phoneme should occupy, enabling parallel generation of mel-spectrograms.",
article = nil,
aliases = { "phoneme duration predictor", "length predictor", "duration model" },
es = "Submódulo de los sistemas de síntesis de voz no autorregresivos que predice cuántos cuadros acústicos debe ocupar cada fonema, permitiendo la generación paralela de espectrogramas mel.",
zh = "非自回归文语合成系统中的子模块,用于预测每个音素应占用的声学帧数,从而实现梅尔频谱的并行生成。",
term_es = "predictor de duración",
term_zh = "时长预测器",
aliases_es = { "predictor de duración fonémica", "modelo de duración" },
aliases_zh = { "音素时长预测器", "时长模型", "长度预测器" },
}
data["dyck language reasoning"] = {
short = "A test of structural and counting ability in sequence models requiring them to recognize or generate Dyck-k strings — sequences of k types of properly balanced and nested brackets — used to probe the formal capacity of RNNs and Transformers.",
article = nil,
aliases = { "Dyck language task", "Dyck-k", "Dyck recognition", "balanced parentheses task", "Dyck-n reasoning" },
es = "Una prueba de la capacidad estructural y de conteo de los modelos de secuencias que requiere reconocer o generar cadenas Dyck-k — secuencias de k tipos de paréntesis correctamente equilibrados y anidados — utilizada para evaluar la capacidad formal de RNN y Transformers.",
zh = "一种检验序列模型结构与计数能力的任务,要求识别或生成 Dyck-k 串,即由 k 种括号正确配对且嵌套的序列,用于探测 RNN 与 Transformer 的形式表达能力。",
term_es = "razonamiento sobre lenguajes de Dyck",
term_zh = "Dyck 语言推理",
aliases_es = { "tarea Dyck-k", "reconocimiento Dyck", "tarea de paréntesis balanceados" },
aliases_zh = { "Dyck-k 任务", "Dyck 识别", "括号匹配任务", "Dyck-n 推理" },
}
data["dyna-q"] = {
short = "A classic model-based reinforcement learning algorithm that interleaves direct Q-learning updates from real experience with planning updates generated by a learned tabular model of the environment.",
article = nil,
aliases = { "Dyna-Q", "Dyna Q", "Dyna" },
es = "Algoritmo clásico de aprendizaje por refuerzo basado en modelo que intercala actualizaciones directas de Q-learning a partir de experiencia real con actualizaciones de planificación generadas por un modelo tabular aprendido del entorno.",
zh = "一种经典的基于模型的强化学习算法,将来自真实经验的 Q-learning 直接更新与基于学习到的环境表格模型生成的规划更新交替进行。",
term_es = "Dyna-Q",
term_zh = "Dyna-Q",
aliases_es = { "Dyna" },
aliases_zh = { "Dyna", "Dyna 算法" },
}
data["dynamic batching"] = {
short = "A serving optimization that groups incoming requests arriving within a short time window into a single batch for joint execution, trading a small queueing delay for higher hardware utilization.",
article = nil,
aliases = { "dynamic batch", "dynamic request batching", "request batching", "adaptive batching" },
es = "Optimización de servicio que agrupa las solicitudes entrantes que llegan dentro de una ventana temporal corta en un único lote para ejecución conjunta, intercambiando un pequeño retardo de cola por una mayor utilización del hardware.",
zh = "一种服务优化方法,将在短时间窗口内到达的请求汇聚为单个批次共同执行,以较小的排队延迟换取更高的硬件利用率。",
term_es = "batching dinámico",
term_zh = "动态批处理",
aliases_es = { "dynamic batching", "agrupamiento dinámico", "batching adaptativo" },
aliases_zh = { "dynamic batching", "动态批处理", "请求批处理", "自适应批处理" },
}
data["dynamic bayesian network"] = {
short = "A Bayesian network defined over a sequence of time slices, with intra-slice dependencies among variables at the same time and inter-slice arcs encoding the transition model; subsumes hidden Markov models and Kalman filters as special cases.",
article = nil,
aliases = { "DBN", "dynamic Bayes net", "temporal Bayesian network", "dynamic Bayesian networks", "two-slice DBN" },
es = "Una red bayesiana definida sobre una secuencia de cortes temporales, con dependencias intra-corte entre las variables del mismo instante y arcos inter-corte que codifican el modelo de transición; incluye como casos particulares los modelos ocultos de Markov y los filtros de Kalman.",
zh = "一种定义在时间片序列上的贝叶斯网络,同一时刻变量之间存在片内依赖,跨时刻的弧编码转移模型;隐马尔可夫模型和卡尔曼滤波是其特例。",
term_es = "red bayesiana dinámica",
term_zh = "动态贝叶斯网络",
aliases_es = { "DBN", "red de Bayes dinámica", "red bayesiana temporal" },
aliases_zh = { "DBN", "时序贝叶斯网络", "动态贝氏网络" },
}
data["dynamic chain graph"] = {
short = "A chain graph extended with a temporal dimension, in which directed and undirected edges connect variables across consecutive time slices, allowing simultaneous representation of causal influences over time and contemporaneous symmetric associations.",
article = nil,
aliases = { "DCG", "temporal chain graph", "dynamic chain graphical model" },
es = "Un grafo de cadena extendido con una dimensión temporal en el que aristas dirigidas y no dirigidas conectan variables en cortes temporales consecutivos, permitiendo representar simultáneamente influencias causales en el tiempo y asociaciones simétricas contemporáneas.",
zh = "一种带时间维度扩展的链图,有向边与无向边在相邻时间片之间的变量上交替出现,从而能同时表示跨时间的因果影响和同期的对称关联。",
term_es = "grafo de cadena dinámico",
term_zh = "动态链图",
aliases_es = { "DCG", "grafo de cadena temporal" },
aliases_zh = { "DCG", "时序链图" },
}
data["dynamic factor graph"] = {
short = "A factor graph replicated over time slices in which factors couple variables both within and across slices, providing a unified factor-graph view of dynamic Bayesian networks, conditional random fields over sequences, and state-space models.",
article = nil,
aliases = { "DFG", "temporal factor graph", "time-unrolled factor graph" },
es = "Un grafo de factores replicado sobre cortes temporales en el que los factores acoplan variables dentro de un mismo corte y entre cortes consecutivos; ofrece una visión unificada en factor-graph de las redes bayesianas dinámicas, los CRF de secuencia y los modelos de espacio de estados.",
zh = "一种在时间片上展开复制的因子图,因子既耦合同一时刻的变量,也耦合相邻时刻的变量,为动态贝叶斯网络、序列条件随机场和状态空间模型提供统一的因子图视角。",
term_es = "grafo de factores dinámico",
term_zh = "动态因子图",
aliases_es = { "DFG", "factor graph temporal", "grafo de factores temporal" },
aliases_zh = { "DFG", "时序因子图", "时间展开因子图" },
}
data["dynamic programming"] = {
short = "A class of algorithms that solve complex problems by decomposing them into overlapping subproblems and combining their solutions, in reinforcement learning used to compute optimal policies given a known model of the environment.",
article = nil,
aliases = { "DP", "dynamic-programming" },
es = "Familia de algoritmos que resuelven problemas complejos descomponiéndolos en subproblemas superpuestos y combinando sus soluciones; en aprendizaje por refuerzo se utiliza para calcular políticas óptimas cuando el modelo del entorno es conocido.",
zh = "一类通过将复杂问题分解为相互重叠的子问题并组合其解的算法;在强化学习中用于在已知环境模型的情况下计算最优策略。",
term_es = "programación dinámica",
term_zh = "动态规划",
aliases_es = { "DP" },
aliases_zh = { "DP" },
}
data["dynamic time warping"] = {
short = "A nonlinear alignment algorithm that computes the minimum-cost match between two time series under monotonic warping of the time axis, widely used for speech and gesture similarity.",
article = nil,
aliases = { "DTW", "dynamic-time warping", "dynamic time-warping" },
es = "Algoritmo de alineamiento no lineal que calcula la correspondencia de coste mínimo entre dos series temporales bajo una deformación monótona del eje temporal, ampliamente utilizado para medir similitud en habla y gestos.",
zh = "动态时间规整:一种非线性对齐算法,在时间轴单调形变的约束下计算两条时间序列之间最小代价的匹配,广泛用于语音与手势相似度度量。",
term_es = "alineamiento temporal dinámico",
term_zh = "动态时间规整",
aliases_es = { "DTW", "deformación dinámica del tiempo", "warping temporal dinámico" },
aliases_zh = { "DTW", "动态时间弯曲", "动态时间扭曲" },
}
data["dynamic treatment effect"] = {
short = "The causal effect of a treatment whose impact varies with time since exposure or with intermediate outcomes, typically identified using sequential ignorability and longitudinal g-methods.",
article = nil,
aliases = { "time-varying treatment effect", "longitudinal treatment effect" },
es = "Efecto causal de un tratamiento cuyo impacto varía con el tiempo desde la exposición o con resultados intermedios; suele identificarse mediante ignorabilidad secuencial y métodos g longitudinales.",
zh = "处置效应随暴露时间或中间结果而变化的因果效应,通常通过顺序可忽略性和纵向 g 方法进行识别。",
term_es = "efecto dinámico del tratamiento",
term_zh = "动态处置效应",
aliases_es = { "efecto del tratamiento variable en el tiempo", "efecto longitudinal del tratamiento" },
aliases_zh = { "时变处置效应", "纵向处置效应" },
}
data["dynamic treatment regime"] = {
short = "A sequence of decision rules that specify which treatment to assign at each stage as a function of accumulated patient history, enabling personalized adaptive treatment strategies.",
article = nil,
aliases = { "DTR", "adaptive treatment strategy", "dynamic treatment strategy", "dynamic treatment regimen" },
es = "Secuencia de reglas de decisión que especifican qué tratamiento asignar en cada etapa en función del historial acumulado del paciente, permitiendo estrategias de tratamiento adaptativas y personalizadas.",
zh = "一组决策规则序列,根据累积的患者历史在每个阶段指定要分配的处置,从而实现个性化的自适应治疗策略。",
term_es = "régimen de tratamiento dinámico",
term_zh = "动态处置方案",
aliases_es = { "estrategia de tratamiento adaptativa", "DTR" },
aliases_zh = { "动态治疗方案", "自适应治疗策略", "DTR" },
}
data["e(3)-equivariant network"] = {
short = "A neural network whose outputs transform consistently under the Euclidean group E(3) of 3D rotations, reflections, and translations, making it well suited to molecules and other geometric data.",
article = nil,
aliases = { "E(3)-equivariant network", "E(3) equivariant network", "E(3)-equivariant neural network", "E3-equivariant network", "Euclidean-equivariant network" },
es = "Red neuronal cuyas salidas se transforman de manera consistente bajo el grupo euclídeo E(3) de rotaciones, reflexiones y traslaciones en 3D, lo que la hace adecuada para moléculas y otros datos geométricos.",
zh = "一种神经网络,其输出在三维欧几里得群 E(3)(包含旋转、反射和平移)下保持一致变换,因而非常适合处理分子等几何数据。",
term_es = "red equivariante E(3)",
term_zh = "E(3) 等变网络",
aliases_es = { "red neuronal equivariante E(3)", "red equivariante euclídea", "red E(3)-equivariante" },
aliases_zh = { "E(3) 等变神经网络", "欧几里得等变网络", "E3 等变网络" },
}
data["e-branchformer"] = {
short = "An ASR encoder architecture that augments the Branchformer with enhanced merging of its convolution and self-attention branches, improving accuracy on speech recognition benchmarks.",
article = nil,
aliases = { "E-Branchformer", "Enhanced Branchformer", "EBranchformer" },
es = "Arquitectura de codificador para reconocimiento automático del habla que mejora el Branchformer con una fusión potenciada de sus ramas de convolución y autoatención, logrando mayor precisión en pruebas de ASR.",
zh = "一种 ASR 编码器架构,在 Branchformer 基础上对卷积分支与自注意力分支的融合进行增强,在语音识别基准上获得更高准确率。",
term_es = "E-Branchformer",
term_zh = "E-Branchformer",
aliases_es = { "E-Branchformer", "Branchformer mejorado" },
aliases_zh = { "E-Branchformer", "增强型 Branchformer" },
}
data["e-snli dataset"] = {
short = "An extension of the Stanford Natural Language Inference corpus that adds crowdsourced free-form natural-language explanations for each entailment label. Released by Camburu et al. (2018) for training and evaluating explanation generation in NLI.",
article = nil,
aliases = { "e-SNLI", "eSNLI", "e-SNLI corpus", "explanation-augmented SNLI" },
es = "Extensión del corpus Stanford Natural Language Inference que añade explicaciones de forma libre en lenguaje natural, recopiladas mediante crowdsourcing, para cada etiqueta de implicación. Publicado por Camburu et al. (2018) para entrenar y evaluar la generación de explicaciones en inferencia textual.",
zh = "Stanford Natural Language Inference 语料的扩展版本,为每个蕴含标签新增了由众包标注者撰写的自由形式自然语言解释。由 Camburu 等人(2018)发布,用于训练和评估自然语言推理中的解释生成。",
term_es = "conjunto de datos e-SNLI",
term_zh = "e-SNLI 数据集",
aliases_es = { "corpus e-SNLI", "e-SNLI" },
aliases_zh = { "e-SNLI", "解释增强的 SNLI" },
}
data["e-value"] = {
short = "A sensitivity-analysis quantity (VanderWeele and Ding) giving the minimum strength of association, on the risk-ratio scale, that an unmeasured confounder must have with both treatment and outcome to fully explain away an observed effect.",
article = nil,
aliases = { "E-value", "evalue", "VanderWeele E-value" },
es = "Cantidad de análisis de sensibilidad (VanderWeele y Ding) que indica la asociación mínima, en escala de razón de riesgos, que un factor de confusión no medido debería tener con tratamiento y resultado para explicar por completo un efecto observado.",
zh = "VanderWeele 与 Ding 提出的敏感性分析量,表示未测量混杂因子要在风险比尺度上同时与处置和结果具有多大最小关联强度,才能完全解释掉所观察到的效应。",
term_es = "valor E",
term_zh = "E 值",
aliases_es = { "E-valor", "valor E de VanderWeele" },
aliases_zh = { "E-值", "E值", "VanderWeele E 值" },
}
data["e/z isomerism"] = {
short = "A form of stereoisomerism around a double bond in which the higher-priority substituents on each carbon lie either on the same side (Z, zusammen) or on opposite sides (E, entgegen).",
article = nil,
aliases = { "E/Z isomerism", "EZ isomerism", "cis/trans isomerism", "cis-trans isomerism", "geometric isomerism", "double-bond isomerism" },
es = "Forma de estereoisomería alrededor de un doble enlace en la que los sustituyentes de mayor prioridad en cada carbono se encuentran del mismo lado (Z, zusammen) o en lados opuestos (E, entgegen).",
zh = "围绕双键发生的一种立体异构现象:每个碳原子上优先级较高的取代基若位于同侧称为 Z 型(zusammen),位于异侧则称为 E 型(entgegen)。",
term_es = "isomería E/Z",
term_zh = "E/Z 异构",
aliases_es = { "isomería cis/trans", "isomería geométrica", "isomería de doble enlace" },
aliases_zh = { "顺反异构", "几何异构", "双键异构" },
}
data["e2b sandbox"] = {
short = "A hosted, ephemeral cloud sandbox provided by E2B that lets AI agents securely execute code, install packages, and run shell commands in isolated containers.",
article = nil,
aliases = { "E2B Sandbox", "E2B", "E2B sandboxes", "e2b" },
es = "Sandbox en la nube efímero y alojado, ofrecido por E2B, que permite a agentes de IA ejecutar código, instalar paquetes y correr comandos de shell de forma segura en contenedores aislados.",
zh = "E2B 提供的托管型临时云沙箱,允许 AI 代理在隔离容器中安全地执行代码、安装依赖和运行 shell 命令。",
term_es = "sandbox E2B",
term_zh = "E2B 沙箱",
aliases_es = { "E2B" },
aliases_zh = { "E2B" },
}
data["e5-large"] = {
short = "A 24-layer text embedding model from Microsoft trained with weakly-supervised contrastive learning, widely used for dense retrieval and semantic search and available in English and multilingual variants.",
article = nil,
aliases = { "E5-large", "E5 large", "intfloat/e5-large", "e5 embeddings" },
es = "Modelo de incrustaciones de texto de 24 capas de Microsoft entrenado con aprendizaje contrastivo débilmente supervisado, ampliamente usado para recuperación densa y búsqueda semántica, con variantes en inglés y multilingües.",
zh = "微软发布的 24 层文本嵌入模型,采用弱监督对比学习训练,广泛用于稠密检索和语义搜索,提供英文和多语言版本。",
term_es = "E5-large",
term_zh = "E5-large",
aliases_es = { "embeddings E5" },
aliases_zh = { "E5 嵌入模型" },
}
data["ea-sgd"] = {
short = "Elastic Averaging SGD: a parallel optimization algorithm where workers maintain local parameters loosely coupled to a central server through an elastic (quadratic) penalty rather than synchronous averaging.",
article = nil,
aliases = { "EASGD", "Elastic Averaging SGD", "elastic averaging stochastic gradient descent" },
es = "Descenso de gradiente estocástico con promediado elástico (EASGD): algoritmo de optimización paralela en el que los trabajadores mantienen parámetros locales acoplados a un servidor central mediante una penalización elástica cuadrática, en lugar de un promedio sincrónico.",
zh = "弹性平均 SGD(EASGD):一种并行优化算法,各工作节点保留本地参数,通过弹性(二次)惩罚项与中心服务器松散耦合,而非进行同步平均。",
term_es = "EA-SGD",
term_zh = "弹性平均 SGD",
aliases_es = { "EASGD", "SGD con promediado elástico" },
aliases_zh = { "EASGD", "弹性平均随机梯度下降" },
}
data["eagle decoding"] = {
short = "A speculative decoding technique that trains a lightweight autoregressive head on the target model's hidden states to draft tokens, accelerating LLM inference while preserving the original output distribution.",
article = nil,
aliases = { "EAGLE", "EAGLE decoding", "EAGLE-2", "Extrapolation Algorithm for Greater Language-model Efficiency" },
es = "Técnica de decodificación especulativa que entrena una cabeza autoregresiva ligera sobre los estados ocultos del modelo objetivo para proponer tokens, acelerando la inferencia de LLM sin alterar la distribución de salida.",
zh = "一种投机解码技术,在目标模型的隐藏状态上训练一个轻量级自回归头来起草 token,在保持原始输出分布的同时加速大语言模型推理。",
term_es = "decodificación EAGLE",
term_zh = "EAGLE 解码",
aliases_es = { "EAGLE" },
aliases_zh = { "EAGLE", "EAGLE-2" },
}
data["early fusion"] = {
short = "A multimodal integration strategy that combines features from different modalities at or near the input layer, allowing subsequent layers to learn joint representations from the start, in contrast to late fusion.",
article = nil,
aliases = { "early-fusion", "input-level fusion", "feature-level early fusion" },
es = "Estrategia de integración multimodal que combina características de distintas modalidades en la capa de entrada o cerca de ella, permitiendo que las capas posteriores aprendan representaciones conjuntas desde el inicio, en contraste con la fusión tardía.",
zh = "一种多模态融合策略,在输入层或接近输入层处合并不同模态的特征,使后续层从一开始就学习联合表示,与后期融合相对。",
term_es = "fusión temprana",
term_zh = "早期融合",
aliases_es = { "fusión a nivel de entrada", "fusión temprana de características" },
aliases_zh = { "early fusion", "输入级融合", "特征级早期融合" },
}
data["early stopping"] = {
short = "A regularization strategy that halts training when a monitored validation metric stops improving for a specified number of epochs, preventing the model from overfitting the training set.",
article = nil,
aliases = { "early-stopping", "early-stop", "patience-based stopping" },
es = "Estrategia de regularización que detiene el entrenamiento cuando una métrica de validación monitorizada deja de mejorar durante un número especificado de épocas, evitando que el modelo se sobreajuste al conjunto de entrenamiento.",
zh = "一种正则化策略,当监控的验证指标在指定的若干轮次内不再改善时停止训练,从而防止模型过拟合训练集。",
term_es = "parada temprana",
term_zh = "早停",
aliases_es = { "early stopping", "detención temprana", "parada anticipada" },
aliases_zh = { "提前停止", "early stopping", "早停法" },
}
data["early stopping nas"] = {
short = "The use of early-stopping criteria during architecture evaluation in NAS to abort poorly performing candidates before full training, dramatically reducing the search-time compute budget.",
article = nil,
aliases = { "early-stopping NAS", "early-stop NAS", "NAS early stopping" },
es = "Uso de criterios de parada temprana durante la evaluación de arquitecturas en NAS para abortar candidatos con bajo desempeño antes del entrenamiento completo, reduciendo drásticamente el presupuesto de cómputo de la búsqueda.",
zh = "在 NAS 的架构评估阶段使用早停准则,在完整训练之前终止表现不佳的候选架构,从而显著降低搜索阶段的计算开销。",
term_es = "parada temprana en NAS",
term_zh = "NAS 中的早停",
aliases_es = { "detención temprana en NAS", "early stopping para NAS" },
aliases_zh = { "NAS 早停", "早停 NAS" },
}
data["early termination"] = {
short = "In hyperparameter optimization and NAS, the strategy of stopping the evaluation of poorly performing configurations after partial training, as employed by successive halving, Hyperband, and ASHA.",
article = nil,
aliases = { "early termination of trials", "successive halving termination", "trial early termination" },
es = "En la optimización de hiperparámetros y en NAS, la estrategia de detener la evaluación de configuraciones de bajo desempeño tras un entrenamiento parcial, empleada por successive halving, Hyperband y ASHA.",
zh = "在超参数优化与 NAS 中,对表现不佳的配置在部分训练后即停止评估的策略,successive halving、Hyperband 和 ASHA 等方法均使用此机制。",
term_es = "terminación temprana",
term_zh = "提前终止",
aliases_es = { "terminación anticipada de pruebas", "terminación temprana de trials" },
aliases_zh = { "提前停止", "试验提前终止" },
}
data["earth mover's distance"] = {
short = "An equivalent name for the order-1 Wasserstein distance: the minimum amount of work — mass times distance moved — required to transform one probability distribution into another.",
article = nil,
aliases = { "Earth Mover's distance", "Earth Movers distance", "EMD", "Earth Mover Distance", "earth movers distance" },
es = "Nombre equivalente de la distancia de Wasserstein de orden 1: la cantidad mínima de trabajo —masa por distancia recorrida— necesaria para transformar una distribución de probabilidad en otra.",
zh = "一阶 Wasserstein 距离的等价名称:将一个概率分布转换为另一个分布所需的最小工作量——质量乘以移动距离。",
term_es = "distancia del Earth Mover",
term_zh = "推土机距离",
aliases_es = { "EMD", "distancia EMD" },
aliases_zh = { "EMD", "搬土距离" },
}
data["ec-sgd"] = {
short = "Error-Compensated SGD: a communication-efficient distributed SGD variant that compresses gradients but accumulates the compression error locally and adds it back into the next gradient to recover convergence.",
article = nil,
aliases = { "ECSGD", "Error-Compensated SGD", "error compensated SGD" },
es = "SGD con compensación de error (EC-SGD): variante de SGD distribuido eficiente en comunicación que comprime los gradientes pero acumula localmente el error de compresión y lo reinyecta en el siguiente gradiente para preservar la convergencia.",
zh = "误差补偿 SGD(EC-SGD):一种通信高效的分布式 SGD 变体,对梯度进行压缩,同时在本地累积压缩误差并加回到下一步梯度,以恢复收敛性。",
term_es = "EC-SGD",
term_zh = "误差补偿 SGD",
aliases_es = { "ECSGD", "SGD con compensación de error" },
aliases_zh = { "ECSGD", "误差补偿随机梯度下降" },
}
data["ecapa-tdnn"] = {
short = "Emphasized Channel Attention, Propagation and Aggregation TDNN: a speaker embedding network that combines time-delay convolutions with squeeze-and-excitation and multi-scale feature aggregation for state-of-the-art speaker verification.",
article = nil,
aliases = { "ECAPA-TDNN", "ECAPA TDNN", "ECAPA" },
es = "Emphasized Channel Attention, Propagation and Aggregation TDNN: red de embeddings de hablante que combina convoluciones con retardo temporal con squeeze-and-excitation y agregación multiescala de características para verificación de hablante de vanguardia.",
zh = "Emphasized Channel Attention, Propagation and Aggregation TDNN:一种说话人嵌入网络,将时延神经网络与 squeeze-and-excitation 及多尺度特征聚合相结合,达到说话人验证的领先性能。",
term_es = "ECAPA-TDNN",
term_zh = "ECAPA-TDNN",
aliases_es = { "ECAPA-TDNN", "ECAPA" },
aliases_zh = { "ECAPA-TDNN", "ECAPA" },
}
data["ecfp"] = {
short = "Extended-connectivity fingerprint: a circular molecular fingerprint that hashes substructural environments of each atom up to a chosen radius, widely used as input features for molecular property prediction.",
article = nil,
aliases = { "ECFP", "extended-connectivity fingerprint", "extended connectivity fingerprint", "ECFP4", "ECFP6", "Morgan fingerprint", "circular fingerprint" },
es = "Huella molecular de conectividad extendida: un descriptor circular que aplica hashing a los entornos sub-estructurales de cada átomo hasta un radio dado, ampliamente usado como entrada para la predicción de propiedades moleculares.",
zh = "扩展连接性指纹:一种圆形分子指纹,对每个原子在指定半径内的子结构环境进行哈希编码,被广泛用作分子性质预测的输入特征。",
term_es = "ECFP",
term_zh = "ECFP",
aliases_es = { "ECFP", "huella de conectividad extendida", "huella circular", "huella Morgan" },
aliases_zh = { "ECFP", "扩展连接指纹", "圆形指纹", "Morgan 指纹" },
}
data["echo cancellation"] = {
short = "Signal-processing or learned removal of an unwanted echo of a far-end signal from a near-end microphone capture, essential for hands-free telephony and conferencing.",
article = nil,
aliases = { "acoustic echo cancellation", "AEC", "echo suppression", "line echo cancellation" },
es = "Eliminación, mediante procesamiento de señales o métodos aprendidos, del eco no deseado de una señal lejana en la captura del micrófono cercano, esencial en telefonía manos libres y conferencias.",
zh = "通过信号处理或学习方法消除近端麦克风录音中混入的远端信号回声,是免提通话与会议系统的关键技术。",
term_es = "cancelación de eco",
term_zh = "回声消除",
aliases_es = { "cancelación acústica de eco", "AEC", "supresión de eco" },
aliases_zh = { "声学回声消除", "AEC", "回声抑制" },
}
data["eclip"] = {
short = "Enhanced crosslinking and immunoprecipitation followed by sequencing, a method for identifying RNA-binding protein binding sites transcriptome-wide with improved efficiency, reproducibility, and size-matched input controls compared to earlier CLIP variants.",
article = nil,
aliases = { "eCLIP", "enhanced CLIP", "enhanced CLIP-seq" },
es = "Reticulación e inmunoprecipitación mejoradas seguidas de secuenciación, un método para identificar sitios de unión de proteínas de unión a ARN en todo el transcriptoma, con mayor eficiencia, reproducibilidad y controles de entrada equiparados en tamaño respecto a variantes anteriores de CLIP.",
zh = "增强型交联免疫沉淀测序,一种全转录组识别 RNA 结合蛋白结合位点的方法,相较早期 CLIP 变体具有更高的效率、更好的可重复性以及尺寸匹配的输入对照。",
term_es = "eCLIP",
term_zh = "eCLIP",
aliases_es = { "eCLIP", "CLIP mejorado" },
aliases_zh = { "eCLIP", "增强型 CLIP" },
}
data["ecological fallacy"] = {
short = "An inferential error in which conclusions about individuals are drawn from statistics aggregated at the group level. In ML fairness, it warns that group-level parity does not guarantee fair treatment of any particular individual.",
article = nil,
aliases = { "ecological inference fallacy", "Robinson's fallacy" },
es = "Error inferencial en el que se extraen conclusiones sobre individuos a partir de estadísticas agregadas a nivel de grupo. En la equidad del ML advierte que la paridad a nivel de grupo no garantiza un trato justo a ningún individuo en particular.",
zh = "一种推断错误,即从群体层面的汇总统计中推导出关于个体的结论。在机器学习公平性中,它警示群体层面的均等并不能保证对任何特定个体的公平对待。",
term_es = "falacia ecológica",
term_zh = "生态谬误",
aliases_es = { "falacia de inferencia ecológica", "falacia de Robinson" },
aliases_zh = { "生态学谬误", "生态推断谬误", "罗宾逊谬误" },
}
data["edge features"] = {
short = "Vector attributes associated with edges of a graph, such as bond type or interatomic distance in a molecular graph, that supplement node features as inputs to graph neural networks.",
article = nil,
aliases = { "edge attributes", "edge embeddings", "bond features", "edge feature vector", "link features" },
es = "Atributos vectoriales asociados a las aristas de un grafo, como el tipo de enlace o la distancia interatómica en un grafo molecular, que complementan las características de los nodos como entradas de redes neuronales de grafos.",
zh = "与图的边相关联的向量属性,例如分子图中的键类型或原子间距离,作为图神经网络输入时对节点特征的补充。",
term_es = "características de aristas",
term_zh = "边特征",
aliases_es = { "atributos de aristas", "embeddings de aristas", "características de enlaces" },
aliases_zh = { "边属性", "边嵌入", "键特征" },
}
data["edge federated learning"] = {
short = "A federated learning deployment where training participants are edge devices (smartphones, IoT, gateways) coordinated by a server, emphasizing low bandwidth, intermittent connectivity, and resource-constrained clients.",
article = nil,
aliases = { "edge FL", "federated learning at the edge", "edge-based federated learning" },
es = "Aprendizaje federado en el borde: despliegue de aprendizaje federado en el que los participantes son dispositivos del borde (teléfonos, IoT, pasarelas) coordinados por un servidor, con énfasis en bajo ancho de banda, conectividad intermitente y clientes con recursos limitados.",
zh = "边缘联邦学习:训练参与方为边缘设备(手机、物联网、网关)并由服务器协调的联邦学习部署,强调低带宽、间歇连接和资源受限的客户端。",
term_es = "aprendizaje federado en el borde",
term_zh = "边缘联邦学习",
aliases_es = { "edge FL", "FL en el borde" },
aliases_zh = { "边缘 FL", "边缘端联邦学习" },
}
data["edge nas"] = {
short = "Neural architecture search that targets edge or mobile devices, jointly optimizing accuracy with hardware constraints such as latency, energy, memory, and on-device throughput.",
article = nil,
aliases = { "edge-NAS", "mobile NAS", "hardware-aware NAS for edge" },
es = "Búsqueda de arquitecturas neuronales orientada a dispositivos edge o móviles, que optimiza conjuntamente la precisión y restricciones de hardware como latencia, energía, memoria y throughput en el dispositivo.",
zh = "面向边缘设备或移动端的神经架构搜索,在精度之外联合优化延迟、能耗、内存以及设备上吞吐等硬件约束。",
term_es = "NAS para edge",
term_zh = "边缘 NAS",
aliases_es = { "NAS móvil", "NAS consciente del hardware para edge" },
aliases_zh = { "移动 NAS", "面向边缘的硬件感知 NAS" },
}
data["edge potential"] = {
short = "In a pairwise Markov random field or factor graph, a non-negative function defined on the two endpoints of an edge that scores the joint configuration of those variables; the joint distribution factorizes as a product of node and edge potentials normalized by the partition function.",
article = nil,
aliases = { "pairwise potential", "pair potential", "edge factor", "binary potential" },
es = "En un campo aleatorio de Markov por pares o en un grafo de factores, una función no negativa definida sobre los dos extremos de una arista que puntúa la configuración conjunta de esas variables; la distribución conjunta se factoriza como producto de potenciales de nodo y de arista normalizado por la función de partición.",
zh = "在成对马尔可夫随机场或因子图中,一种定义在边的两个端点上的非负函数,用于对这两个变量的联合取值打分;联合分布按节点势与边势的乘积分解,并由配分函数归一化。",
term_es = "potencial de arista",
term_zh = "边势",
aliases_es = { "potencial por pares", "potencial binario", "factor de arista" },
aliases_zh = { "成对势", "边势函数", "二元势" },
}
data["edge probing"] = {
short = "A probing methodology that tests for linguistic structure in contextualized representations by classifying labeled spans or span pairs while keeping the encoder frozen. Introduced by Tenney et al. (2019) to study what BERT and ELMo encode.",
article = nil,
aliases = { "edge probe", "edge probes", "edge probing classifier", "span probing" },
es = "Metodología de sondeo que evalúa la presencia de estructura lingüística en representaciones contextuales mediante la clasificación de tramos etiquetados o pares de tramos, manteniendo congelado el codificador. Introducida por Tenney et al. (2019) para estudiar qué codifican BERT y ELMo.",
zh = "一种探针方法,通过在冻结编码器的前提下对带标注的跨度或跨度对进行分类,来检测上下文表示中的语言结构。由 Tenney 等人(2019)提出,用于研究 BERT 与 ELMo 编码的语言信息。",
term_es = "sondeo por aristas",
term_zh = "边探测",
aliases_es = { "sondeo de aristas", "sondeo de tramos", "edge probing" },
aliases_zh = { "edge probing", "跨度探测" },
}
data["edge-cloud federated"] = {
short = "A hierarchical federated learning architecture in which edge devices first aggregate to nearby edge servers, which then aggregate further with a cloud server, balancing latency, bandwidth, and global model quality.",
article = nil,
aliases = { "edge-cloud federated learning", "hierarchical edge-cloud FL", "edge-cloud hierarchical federated learning" },
es = "Aprendizaje federado borde-nube: arquitectura jerárquica de aprendizaje federado en la que los dispositivos de borde se agregan primero en servidores de borde cercanos, que luego se agregan con un servidor en la nube, equilibrando latencia, ancho de banda y calidad del modelo global.",
zh = "边-云联邦学习:一种分层联邦学习架构,边缘设备先在附近的边缘服务器聚合,再与云端服务器进一步聚合,以在延迟、带宽和全局模型质量之间取得平衡。",
term_es = "aprendizaje federado borde-nube",
term_zh = "边-云联邦学习",
aliases_es = { "FL borde-nube", "FL jerárquico borde-nube" },
aliases_zh = { "边缘-云联邦学习", "分层边-云联邦学习" },
}
data["edger"] = {
short = "An R/Bioconductor package for differential expression analysis of count data from RNA-seq and similar assays, using a negative binomial model with empirical Bayes moderation of dispersion estimates.",
article = nil,
aliases = { "edgeR" },
es = "Paquete de R/Bioconductor para el análisis de expresión diferencial en datos de conteo procedentes de RNA-seq y ensayos similares, que utiliza un modelo binomial negativo con moderación bayesiana empírica de las estimaciones de dispersión.",
zh = "一个 R/Bioconductor 软件包,用于 RNA-seq 等计数型数据的差异表达分析,采用负二项模型并对离散度估计进行经验贝叶斯调节。",
term_es = "edgeR",
term_zh = "edgeR",
aliases_es = { "edgeR" },
aliases_zh = { "edgeR" },
}
data["edm"] = {
short = "Common shorthand for the Elucidated Diffusion Model framework of Karras et al. (2022), which provides a unified, modular design space for diffusion models — covering noise schedule, preconditioning, loss weighting and ODE sampler — and achieves strong sample quality at low sampling cost.",
article = nil,
aliases = { "EDM", "Elucidated Diffusion Model", "Karras EDM" },
es = "Abreviatura habitual del marco Elucidated Diffusion Model de Karras et al. (2022), que ofrece un espacio de diseño unificado y modular para modelos de difusión —calendario de ruido, precondicionamiento, ponderación de la pérdida y muestreador ODE— y obtiene gran calidad de muestras con bajo coste de muestreo.",
zh = "Karras 等人于 2022 年提出的 Elucidated Diffusion Model 框架的常用简称:为扩散模型提供统一、模块化的设计空间,涵盖噪声计划、预处理、损失加权与 ODE 采样器,可在较低采样成本下获得高质量样本。",
term_es = "EDM",
term_zh = "EDM",
aliases_es = { "Elucidated Diffusion Model", "difusión elucidada" },
aliases_zh = { "Elucidated Diffusion Model", "阐明的扩散模型" },
}
data["educational ml fairness"] = {
short = "The study and mitigation of disparate outcomes produced by machine-learning systems used in education (admissions, grading, plagiarism detection, dropout prediction) across student demographics, languages, and learning needs.",
article = nil,
aliases = { "fairness in educational ML", "educational AI fairness", "fairness in education AI", "fairness in learning analytics" },
es = "Estudio y mitigación de los resultados dispares producidos por los sistemas de aprendizaje automático utilizados en educación (admisiones, calificación, detección de plagio, predicción de abandono) entre datos demográficos, idiomas y necesidades de aprendizaje del estudiantado.",
zh = "对教育领域机器学习系统(招生、评分、抄袭检测、辍学预测)在学生人口学、语言与学习需求等方面产生的差异性结果的研究与缓解。",
term_es = "equidad en ML educativo",
term_zh = "教育机器学习公平性",
aliases_es = { "equidad en IA educativa", "equidad en analítica del aprendizaje" },
aliases_zh = { "教育 AI 公平性", "教育人工智能公平性", "学习分析公平性" },
}
data["edward library"] = {
short = "A Python probabilistic programming library built on TensorFlow that supports composable inference (variational inference, Hamiltonian Monte Carlo, Gibbs sampling) for both directed and undirected probabilistic models; succeeded by Edward2 inside TensorFlow Probability.",
article = nil,
aliases = { "Edward", "Edward PPL", "edward", "Edward probabilistic programming", "Edward2" },
es = "Una biblioteca de programación probabilística en Python construida sobre TensorFlow que admite inferencia composicional (inferencia variacional, Monte Carlo Hamiltoniano, muestreo de Gibbs) para modelos probabilísticos dirigidos y no dirigidos; sucedida por Edward2 dentro de TensorFlow Probability.",
zh = "一个基于 TensorFlow 的 Python 概率编程库,支持组合式推断(变分推断、哈密顿蒙特卡洛、吉布斯采样),适用于有向和无向概率模型;后被 TensorFlow Probability 中的 Edward2 取代。",
term_es = "biblioteca Edward",
term_zh = "Edward 库",
aliases_es = { "Edward", "Edward PPL", "Edward2" },
aliases_zh = { "Edward", "Edward 概率编程库", "Edward2" },
}
data["eend"] = {
short = "End-to-end neural diarization: a class of models that directly outputs per-speaker activity from audio, replacing the traditional cluster-then-segment diarization pipeline with a single trainable network.",
article = nil,
aliases = { "EEND", "end-to-end neural diarization", "end-to-end diarization" },
es = "End-to-end neural diarization: clase de modelos que produce directamente la actividad por hablante a partir del audio, reemplazando la canalización tradicional de agrupamiento y segmentación por una única red entrenable.",
zh = "端到端神经说话人日志(EEND):一类直接由音频输出每位说话人活动的模型,用单一可训练网络取代传统的先聚类再分段的说话人日志流程。",
term_es = "EEND",
term_zh = "EEND",
aliases_es = { "EEND", "diarización neuronal de extremo a extremo" },
aliases_zh = { "EEND", "端到端神经说话人日志", "端到端说话人分离" },
}
data["eer"] = {
short = "Equal error rate: the operating point on a detection trade-off curve at which the false acceptance rate equals the false rejection rate; widely used to summarize speaker and biometric verification systems.",
article = nil,
aliases = { "EER", "equal error rate", "crossover error rate" },
es = "Equal error rate: punto de operación en una curva de compromiso de detección en el que la tasa de falsa aceptación iguala a la de falso rechazo; muy utilizado para resumir sistemas de verificación de hablante y biométricos.",
zh = "等错误率(EER):检测权衡曲线上误接受率与误拒绝率相等的工作点;常用于概括说话人验证和生物特征验证系统的性能。",
term_es = "EER",
term_zh = "EER",
aliases_es = { "EER", "tasa de error igual", "tasa de error de cruce" },
aliases_zh = { "EER", "等错误率", "等误率" },
}
data["ef-signsgd"] = {
short = "Error-Feedback signSGD: a distributed optimizer that transmits only the sign of each gradient coordinate while locally storing and re-injecting the residual error, restoring convergence guarantees lost by plain signSGD.",
article = nil,
aliases = { "EF-SignSGD", "error feedback signSGD", "error-feedback sign SGD" },
es = "signSGD con retroalimentación de error (EF-SignSGD): optimizador distribuido que transmite solo el signo de cada coordenada del gradiente mientras almacena y reinyecta localmente el error residual, recuperando las garantías de convergencia que pierde signSGD puro.",
zh = "带误差反馈的 signSGD(EF-SignSGD):一种分布式优化器,仅传输每个梯度坐标的符号,同时在本地保存并重新注入残差误差,以恢复纯 signSGD 所丢失的收敛保证。",
term_es = "EF-SignSGD",
term_zh = "EF-SignSGD",
aliases_es = { "signSGD con retroalimentación de error" },
aliases_zh = { "误差反馈 signSGD", "带误差反馈的符号 SGD" },
}
data["effect heterogeneity"] = {
short = "Variation in the magnitude or direction of a treatment effect across subpopulations or covariate values, motivating the estimation of conditional average treatment effects rather than a single average effect.",
article = nil,
aliases = { "treatment effect heterogeneity", "heterogeneity of treatment effects", "HTE" },
es = "Variación en la magnitud o dirección del efecto de un tratamiento entre subpoblaciones o valores de covariables, lo que motiva estimar efectos promedio condicionales en lugar de un único efecto promedio.",
zh = "处置效应的大小或方向在不同亚总体或协变量取值之间发生变化的现象,促使研究者估计条件平均处置效应而非单一平均效应。",
term_es = "heterogeneidad del efecto",
term_zh = "效应异质性",
aliases_es = { "heterogeneidad del efecto del tratamiento", "HTE" },
aliases_zh = { "处置效应异质性", "治疗效应异质性", "HTE" },
}
data["effect modification"] = {
short = "The phenomenon in which the magnitude of a causal effect of a treatment differs across levels of a third variable, distinct from statistical interaction in regression terms.",
article = nil,
aliases = { "effect-measure modification", "effect modification by a covariate" },
es = "Fenómeno en el que la magnitud del efecto causal de un tratamiento difiere según los niveles de una tercera variable; concepto distinto de la interacción estadística en términos de regresión.",
zh = "处置的因果效应大小在第三方变量不同水平下存在差异的现象,与回归意义下的统计交互作用概念不同。",
term_es = "modificación del efecto",
term_zh = "效应修饰",
aliases_es = { "modificación de la medida del efecto", "modificación del efecto por covariable" },
aliases_zh = { "效应修饰作用", "效应度量修饰", "效应改变" },
}
data["effect modifier"] = {
short = "A variable across whose levels the causal effect of a treatment differs in magnitude or direction; identifying effect modifiers is central to subgroup analyses and personalized treatment.",
article = nil,
aliases = { "moderator variable", "effect-measure modifier" },
es = "Variable según cuyos niveles el efecto causal de un tratamiento difiere en magnitud o dirección; identificar modificadores del efecto es central para análisis por subgrupos y tratamiento personalizado.",
zh = "在其不同取值下处置的因果效应在大小或方向上发生变化的变量;识别效应修饰因子是亚组分析和个性化治疗的核心。",
term_es = "modificador del efecto",
term_zh = "效应修饰因子",
aliases_es = { "variable moderadora", "modificador de la medida del efecto" },
aliases_zh = { "效应修饰变量", "调节变量", "效应改变因子" },
}
data["effective receptive field"] = {
short = "The actual region of the input that meaningfully influences a deep activation, accounting for the magnitude of contributions. Empirically much smaller than the theoretical receptive field and approximately Gaussian-shaped.",
article = nil,
aliases = { "ERF" },
es = "Región real de la entrada que influye de forma significativa en una activación profunda, teniendo en cuenta la magnitud de las contribuciones. Empíricamente es mucho menor que el campo receptivo teórico y tiene una forma aproximadamente gaussiana.",
zh = "实际对深层激活产生显著影响的输入区域,考虑了各贡献的大小。经验上远小于理论感受野,且形状近似高斯分布。",
term_es = "campo receptivo efectivo",
term_zh = "有效感受野",
aliases_es = { "ERF" },
aliases_zh = { "ERF", "effective receptive field" },
}
data["effective sample size"] = {
short = "A diagnostic that estimates how many independent samples a correlated or weighted sample set is worth; for MCMC it accounts for autocorrelation, while for importance sampling it equals the squared sum of weights divided by the sum of squared weights.",
article = nil,
aliases = { "ESS", "effective number of samples", "Kish effective sample size", "n_eff" },
es = "Una métrica diagnóstica que estima a cuántas muestras independientes equivale un conjunto de muestras correlacionadas o ponderadas; en MCMC tiene en cuenta la autocorrelación y, en muestreo por importancia, es el cuadrado de la suma de pesos dividido por la suma de pesos al cuadrado.",
zh = "一种诊断指标,用于估计相关或加权样本集合相当于多少个独立样本;对 MCMC 考虑自相关,对重要性采样则等于权重之和的平方除以权重平方之和。",
term_es = "tamaño efectivo de muestra",
term_zh = "有效样本量",
aliases_es = { "ESS", "número efectivo de muestras", "tamaño muestral efectivo" },
aliases_zh = { "ESS", "有效样本数", "n_eff" },
}
data["effective sample size weights"] = {
short = "A summary statistic (often Kish's ESS) measuring the effective number of independent observations in a weighted sample, used to diagnose variance inflation from extreme propensity weights.",
article = nil,
aliases = { "ESS weights", "Kish effective sample size", "Kish ESS" },
es = "Estadístico resumen (frecuentemente el ESS de Kish) que mide el número efectivo de observaciones independientes en una muestra ponderada, utilizado para diagnosticar la inflación de varianza por pesos de propensión extremos.",
zh = "用于度量加权样本中等效独立观测数的汇总统计量(通常为 Kish 的 ESS),用以诊断由极端倾向权重引起的方差膨胀。",
term_es = "tamaño efectivo de muestra de los pesos",
term_zh = "有效样本量权重",
aliases_es = { "ESS de los pesos", "tamaño efectivo de muestra de Kish", "ESS de Kish" },
aliases_zh = { "Kish 有效样本量", "权重有效样本量", "ESS 权重" },
}
data["efficient influence function"] = {
short = "The unique influence function attaining the semiparametric efficiency bound for a target parameter; modern doubly robust and orthogonal estimators are constructed from the EIF to achieve minimax efficiency.",
article = nil,
aliases = { "EIF", "canonical gradient", "efficient influence curve" },
es = "Función de influencia única que alcanza la cota de eficiencia semiparamétrica para un parámetro objetivo; los estimadores modernos doblemente robustos y ortogonales se construyen a partir de la EIF para lograr eficiencia minimax.",
zh = "对目标参数达到半参数效率界的唯一影响函数;现代双重稳健与正交估计量正是基于 EIF 构造,以实现极小极大效率。",
term_es = "función de influencia eficiente",
term_zh = "有效影响函数",
aliases_es = { "EIF", "gradiente canónico", "curva de influencia eficiente" },
aliases_zh = { "EIF", "高效影响函数", "标准梯度", "典型梯度" },
}
data["efficientnet"] = {
short = "A family of convolutional networks introduced by Tan and Le in 2019 that uses a compound scaling rule to jointly scale network depth, width, and input resolution. Variants are named EfficientNet-B0 through B7.",
article = nil,
aliases = { "EfficientNet", "EfficientNet-B0", "EfficientNetB0", "EfficientNet-B7", "EfficientNetV2", "EfficientNet v2" },
es = "Familia de redes convolucionales presentada por Tan y Le en 2019 que utiliza una regla de escalado compuesto para escalar conjuntamente la profundidad, el ancho y la resolución de entrada de la red. Las variantes se denominan EfficientNet-B0 a B7.",
zh = "由 Tan 和 Le 于 2019 年提出的卷积网络家族,使用复合缩放规则同时调整网络的深度、宽度和输入分辨率。变体命名为 EfficientNet-B0 至 B7。",
term_es = "EfficientNet",
term_zh = "EfficientNet",
aliases_es = { "EfficientNet-B0", "EfficientNet-B7", "EfficientNetV2" },
aliases_zh = { "EfficientNet-B0", "EfficientNet-B7", "EfficientNetV2" },
}
data["efficientnet b0"] = {
short = "The baseline EfficientNet model produced by NAS, optimized for accuracy versus FLOPs and serving as the seed network from which EfficientNet-B1 through B7 are derived via compound scaling (Tan & Le, 2019).",
article = nil,
aliases = { "EfficientNet-B0", "EfficientNet B0", "EfficientNetB0" },
es = "Modelo base de EfficientNet obtenido mediante NAS, optimizado para la relación entre precisión y FLOPs y que sirve como red semilla a partir de la cual EfficientNet-B1 a B7 se derivan mediante escalado compuesto (Tan y Le, 2019).",
zh = "EfficientNet 系列的基线模型,由 NAS 搜索得到,针对精度与 FLOPs 的权衡进行优化,并作为通过复合缩放衍生出 EfficientNet-B1 至 B7 的种子网络(Tan 与 Le,2019)。",
term_es = "EfficientNet-B0",
term_zh = "EfficientNet-B0",
aliases_es = { "EfficientNet B0", "EfficientNetB0" },
aliases_zh = { "EfficientNet B0", "EfficientNetB0" },
}
data["efficientnetv2"] = {
short = "A family of convolutional neural networks that improves on EfficientNet via Fused-MBConv blocks, neural architecture search co-optimized for training speed, and progressive learning, yielding faster training and better accuracy-efficiency trade-offs.",
article = nil,
aliases = { "EfficientNetV2", "EfficientNet V2", "EfficientNet-V2", "EfficientNetV2-S", "EfficientNetV2-M", "EfficientNetV2-L" },
es = "Familia de redes neuronales convolucionales que mejora a EfficientNet mediante bloques Fused-MBConv, búsqueda de arquitecturas neuronales co-optimizada para la velocidad de entrenamiento y aprendizaje progresivo, logrando un entrenamiento más rápido y mejor compromiso entre precisión y eficiencia.",
zh = "EfficientNet 的改进型卷积神经网络系列,通过 Fused-MBConv 模块、面向训练速度共同优化的神经架构搜索以及渐进式学习,实现更快的训练和更优的精度-效率权衡。",
term_es = "EfficientNetV2",
term_zh = "EfficientNetV2",
aliases_es = { "EfficientNet V2" },
aliases_zh = { "EfficientNet V2" },
}
data["effort-based fairness"] = {
short = "A normative fairness notion holding that decisions should depend on the effort an individual has exerted rather than on circumstances beyond their control, often formalized via counterfactual or causal models that hold effort fixed across groups.",
article = nil,
aliases = { "effort-based equity", "fairness based on effort", "merit-effort fairness" },
es = "Noción normativa de equidad según la cual las decisiones deben depender del esfuerzo realizado por el individuo y no de circunstancias fuera de su control, a menudo formalizada mediante modelos contrafactuales o causales que mantienen el esfuerzo constante entre grupos.",
zh = "一种规范性公平观念,认为决策应取决于个体所付出的努力,而非其无法控制的环境因素;通常通过保持各群体努力水平相同的反事实或因果模型加以形式化。",
term_es = "equidad basada en el esfuerzo",
term_zh = "基于努力的公平性",
aliases_es = { "justicia basada en el esfuerzo", "equidad por mérito y esfuerzo" },
aliases_zh = { "基于努力的公平", "努力导向公平性" },
}
data["egnn"] = {
short = "E(n)-equivariant graph neural network: a message-passing architecture (Satorras et al., 2021) that propagates both invariant features and equivariant coordinates so that outputs transform correctly under rotations and translations.",
article = nil,
aliases = { "EGNN", "E(n)-equivariant graph neural network", "E(n) equivariant GNN", "EGNN model", "Satorras EGNN" },
es = "Red neuronal de grafos equivariante E(n): arquitectura de paso de mensajes (Satorras et al., 2021) que propaga características invariantes y coordenadas equivariantes para que las salidas se transformen correctamente bajo rotaciones y traslaciones.",
zh = "E(n) 等变图神经网络:一种消息传递架构(Satorras 等,2021),同时传播不变特征与等变坐标,使输出在旋转和平移下保持正确变换。",
term_es = "EGNN",
term_zh = "EGNN",
aliases_es = { "EGNN", "red de grafos equivariante E(n)", "GNN equivariante E(n)" },
aliases_zh = { "EGNN", "E(n) 等变图神经网络", "等变 GNN" },
}
data["ego-exo4d"] = {
short = "A large-scale multimodal dataset from Meta pairing synchronized egocentric (first-person) and exocentric (third-person) video of skilled human activities, with annotations for atomic actions, narrations, expert commentary, and 3D pose to support cross-view learning.",
article = nil,
aliases = { "Ego-Exo4D", "EgoExo4D", "ego exo4d", "Ego-Exo 4D" },
es = "Conjunto de datos multimodal a gran escala de Meta que combina vídeo egocéntrico (primera persona) y exocéntrico (tercera persona) sincronizado de actividades humanas especializadas, con anotaciones de acciones atómicas, narraciones, comentarios de expertos y pose 3D para el aprendizaje entre vistas.",
zh = "Meta发布的大规模多模态数据集,将熟练人类活动的同步第一人称(自我中心)与第三人称(他者中心)视频配对,并提供原子动作、解说、专家点评和三维姿态标注,用于跨视角学习。",
term_es = "Ego-Exo4D",
term_zh = "Ego-Exo4D",
aliases_es = { "EgoExo4D", "conjunto Ego-Exo4D" },
aliases_zh = { "Ego-Exo4D数据集", "EgoExo4D" },
}
data["ego4d"] = {
short = "A massive first-person video dataset released by Meta containing thousands of hours of unscripted egocentric footage across hundreds of scenarios, accompanied by benchmarks for episodic memory, hands-and-objects, audiovisual diarization, social interaction, and forecasting.",
article = nil,
aliases = { "Ego4D", "Ego-4D", "ego 4d" },
es = "Conjunto de datos masivo de vídeo en primera persona publicado por Meta que contiene miles de horas de grabaciones egocéntricas espontáneas en cientos de escenarios, acompañado de pruebas de referencia para memoria episódica, manos y objetos, diarización audiovisual, interacción social y predicción.",
zh = "Meta发布的大规模第一人称视频数据集,包含跨数百种场景的数千小时无脚本自我中心录像,并配有情景记忆、手与物体、视听说话人分割、社交互动和预测等基准任务。",
term_es = "Ego4D",
term_zh = "Ego4D",
aliases_es = { "conjunto Ego4D" },
aliases_zh = { "Ego4D数据集" },
}
data["egocentric video understanding"] = {
short = "The task of analyzing first-person video captured from a wearable camera to recognize actions, objects, hands, gaze, and social interactions from the camera-wearer's viewpoint.",
article = nil,
aliases = { "first-person video understanding", "egocentric video analysis", "first person video understanding" },
es = "Tarea de analizar vídeo en primera persona captado por una cámara portátil para reconocer acciones, objetos, manos, mirada e interacciones sociales desde el punto de vista de quien lleva la cámara.",
zh = "对由可穿戴相机拍摄的第一人称视频进行分析的任务,从佩戴者视角识别动作、物体、手部、注视和社交互动。",
term_es = "comprensión de vídeo egocéntrico",
term_zh = "自我中心视频理解",
aliases_es = { "análisis de vídeo egocéntrico", "comprensión de vídeo en primera persona" },
aliases_zh = { "第一人称视频理解", "自我中心视频分析" },
}
data["egoschema"] = {
short = "A long-form video question-answering benchmark over three-minute egocentric clips that probes temporal reasoning by requiring models to integrate evidence across the full clip rather than answering from a single frame.",
article = nil,
aliases = { "EgoSchema", "ego schema" },
es = "Punto de referencia de preguntas y respuestas sobre vídeo de larga duración con clips egocéntricos de tres minutos que evalúa el razonamiento temporal al exigir a los modelos integrar evidencia de todo el clip en lugar de responder a partir de un solo fotograma.",
zh = "针对三分钟自我中心片段的长视频问答基准,要求模型整合整个片段中的证据而非依赖单帧作答,以考察时序推理能力。",
term_es = "EgoSchema",
term_zh = "EgoSchema",
aliases_es = { "punto de referencia EgoSchema" },
aliases_zh = { "EgoSchema基准" },
}
data["eigen-cam"] = {
short = "A class-activation-mapping variant that produces saliency maps from the first principal component of the convolutional feature maps, requiring no gradients or class labels. Proposed by Muhammad and Yeasin (2020).",
article = nil,
aliases = { "Eigen-CAM", "EigenCAM", "eigencam" },
es = "Variante de mapeo de activación de clase que produce mapas de saliencia a partir de la primera componente principal de los mapas de características convolucionales, sin requerir gradientes ni etiquetas de clase. Propuesta por Muhammad y Yeasin (2020).",
zh = "类激活映射的一种变体,利用卷积特征图的第一主成分生成显著图,无需梯度或类别标签。由 Muhammad 与 Yeasin(2020)提出。",
term_es = "Eigen-CAM",
term_zh = "Eigen-CAM",
aliases_es = { "EigenCAM", "Eigen CAM" },
aliases_zh = { "EigenCAM", "特征值类激活映射" },
}
data["eigendecomposition"] = {
short = "The factorization of a diagonalizable square matrix A as A = QΛQ⁻¹, where Λ is a diagonal matrix of eigenvalues and Q is a matrix whose columns are the corresponding eigenvectors.",
article = nil,
aliases = { "eigenvalue decomposition", "EVD", "spectral decomposition", "diagonalization" },
es = "Factorización de una matriz cuadrada diagonalizable A como A = QΛQ⁻¹, donde Λ es una matriz diagonal de valores propios y Q es una matriz cuyas columnas son los vectores propios correspondientes.",
zh = "可对角化方阵 A 的分解 A = QΛQ⁻¹,其中 Λ 是由特征值构成的对角矩阵,Q 的各列为对应的特征向量。",
term_es = "descomposición espectral",
term_zh = "特征分解",
aliases_es = { "descomposición en valores propios", "diagonalización", "EVD" },
aliases_zh = { "本征分解", "谱分解", "对角化", "EVD" },
}
data["eigenvalue"] = {
short = "For a square matrix A, a scalar λ such that there exists a nonzero vector v with Av = λv. The roots of the characteristic polynomial det(A − λI) = 0; encode how A scales along its invariant directions.",
article = nil,
aliases = { "eigenvalues", "characteristic value", "characteristic root", "proper value", "λ" },
es = "Para una matriz cuadrada A, un escalar λ tal que existe un vector no nulo v con Av = λv. Son las raíces del polinomio característico det(A − λI) = 0; codifican cómo A escala a lo largo de sus direcciones invariantes.",
zh = "对于方阵 A,标量 λ 使得存在非零向量 v 满足 Av = λv。它们是特征多项式 det(A − λI) = 0 的根;刻画 A 沿其不变方向的缩放比例。",
term_es = "valor propio",
term_zh = "特征值",
aliases_es = { "autovalor", "valor característico" },
aliases_zh = { "本征值", "特征根", "本征根" },
}
data["eigenvalue corrected kfac"] = {
short = "An improvement to K-FAC that diagonalizes the Kronecker-factored curvature in its eigenbasis and rescales eigenvalues using exact second-order statistics, reducing approximation error.",
article = nil,
aliases = { "EKFAC", "E-KFAC", "eigenvalue-corrected KFAC", "eigenvalue corrected K-FAC" },
es = "Mejora de K-FAC que diagonaliza la curvatura Kronecker-factorizada en su base de autovectores y reescala los autovalores usando estadísticas exactas de segundo orden, reduciendo el error de aproximación.",
zh = "对 K-FAC 的改进,在其特征基下对克罗内克分解的曲率进行对角化,并使用精确的二阶统计量重新缩放特征值,从而降低近似误差。",
term_es = "KFAC corregido por autovalores",
term_zh = "特征值校正 KFAC",
aliases_es = { "EKFAC", "E-KFAC", "K-FAC corregido por autovalores" },
aliases_zh = { "EKFAC", "E-KFAC", "特征值校正 K-FAC", "特征值修正 KFAC" },
}
data["eigenvector"] = {
short = "For a square matrix A and an eigenvalue λ, a nonzero vector v satisfying Av = λv. Indicates an invariant direction along which the linear map A acts purely by scaling.",
article = nil,
aliases = { "eigenvectors", "characteristic vector", "proper vector" },
es = "Para una matriz cuadrada A y un valor propio λ, un vector no nulo v que satisface Av = λv. Indica una dirección invariante a lo largo de la cual la aplicación lineal A actúa puramente por escalado.",
zh = "对于方阵 A 及其特征值 λ,满足 Av = λv 的非零向量 v。它表示线性映射 A 仅以缩放方式作用的不变方向。",
term_es = "vector propio",
term_zh = "特征向量",
aliases_es = { "autovector", "vector característico" },
aliases_zh = { "本征向量", "特征矢量" },
}
data["einsum"] = {
short = "A notation and library function (np.einsum, torch.einsum) that expresses tensor operations — contraction, transposition, outer product, batched matmul — as a string of subscript labels following the Einstein summation convention.",
article = nil,
aliases = { "Einstein summation", "Einstein summation convention", "einops einsum", "np.einsum", "torch.einsum" },
es = "Notación y función de biblioteca (np.einsum, torch.einsum) que expresa operaciones tensoriales —contracción, transposición, producto exterior, multiplicación por lotes— mediante una cadena de etiquetas de subíndices que sigue la convención de suma de Einstein.",
zh = "一种记号与库函数(np.einsum、torch.einsum),用遵循爱因斯坦求和约定的下标字符串来表达张量运算,包括缩并、转置、外积和批量矩阵乘法。",
term_es = "einsum",
term_zh = "einsum",
aliases_es = { "suma de Einstein", "convención de Einstein" },
aliases_zh = { "爱因斯坦求和", "爱因斯坦求和约定" },
}
data["ekfac influence"] = {
short = "An influence-function approximation that estimates the inverse Hessian-vector product using the Eigenvalue-corrected Kronecker-Factored Approximate Curvature (EK-FAC) of the empirical Fisher, enabling influence analysis on large neural networks.",
article = nil,
aliases = { "EK-FAC influence", "EKFAC influence functions", "EK-FAC influence functions", "eigenvalue-corrected K-FAC influence" },
es = "Aproximación de funciones de influencia que estima el producto Hessiano inverso por un vector mediante la curvatura aproximada factorizada de Kronecker corregida por valores propios (EK-FAC) del Fisher empírico, permitiendo el análisis de influencia en redes neuronales grandes.",
zh = "一种影响函数的近似方法,用经特征值校正的 Kronecker 因子近似曲率(EK-FAC)逼近经验 Fisher 信息的逆 Hessian-向量积,从而在大型神经网络上实现影响函数分析。",
term_es = "influencia EK-FAC",
term_zh = "EK-FAC 影响函数",
aliases_es = { "EK-FAC", "funciones de influencia EK-FAC" },
aliases_zh = { "EK-FAC", "EK-FAC 影响" },
}
data["elastic averaging sgd"] = {
short = "A parallel SGD method in which each worker keeps a local parameter vector connected to a center variable by an elastic (quadratic) coupling, allowing exploration while pulling workers toward a shared model.",
article = nil,
aliases = { "EASGD", "EA-SGD", "Elastic Averaging Stochastic Gradient Descent" },
es = "Descenso de gradiente estocástico con promediado elástico: método de SGD paralelo en el que cada trabajador mantiene un vector de parámetros local conectado a una variable central mediante un acoplamiento elástico (cuadrático), permitiendo exploración mientras se atrae a los trabajadores hacia un modelo compartido.",
zh = "弹性平均 SGD:一种并行 SGD 方法,每个工作节点维护本地参数向量,通过弹性(二次)耦合与中心变量相连,在拉动各节点趋向共享模型的同时允许局部探索。",
term_es = "promediado elástico SGD",
term_zh = "弹性平均 SGD",
aliases_es = { "EASGD", "SGD con promediado elástico" },
aliases_zh = { "EASGD", "弹性平均随机梯度下降" },
}
data["elastic depth"] = {
short = "A weight-sharing supernet capability that allows subnetworks to be sampled with different numbers of layers, enabling once-for-all training across configurations of varying depth.",
article = nil,
aliases = { "dynamic depth", "variable depth", "depth elasticity" },
es = "Capacidad de supernet con pesos compartidos que permite muestrear subredes con distinto número de capas, posibilitando un entrenamiento «once-for-all» entre configuraciones de profundidad variable.",
zh = "权重共享超网络的能力,可采样不同层数的子网络,从而在不同深度配置间实现一次性训练。",
term_es = "profundidad elástica",
term_zh = "弹性深度",
aliases_es = { "profundidad dinámica" },
aliases_zh = { "动态深度" },
}
data["elastic kernel"] = {
short = "A supernet mechanism that lets convolution kernel sizes (e.g., 3×3, 5×5, 7×7) be selected per layer at sampling time, where smaller kernels reuse the central weights of larger ones.",
article = nil,
aliases = { "dynamic kernel", "elastic kernel size", "dynamic kernel size", "kernel elasticity" },
es = "Mecanismo de supernet que permite seleccionar tamaños de kernel de convolución (por ejemplo, 3×3, 5×5, 7×7) por capa al muestrear, donde los kernels más pequeños reutilizan los pesos centrales de los más grandes.",
zh = "一种超网络机制,可在采样时逐层选择卷积核大小(如 3×3、5×5、7×7),较小的卷积核复用较大卷积核的中心权重。",
term_es = "kernel elástico",
term_zh = "弹性卷积核",
aliases_es = { "tamaño de kernel dinámico" },
aliases_zh = { "动态卷积核", "弹性核大小" },
}
data["elastic net interpretation"] = {
short = "Use of an elastic-net-regularized linear surrogate, combining L1 and L2 penalties, to obtain a sparse yet stable set of coefficients that summarize feature importance. Mitigates the instability of pure-L1 surrogates when features are correlated.",
article = nil,
aliases = { "elastic-net interpretation", "elastic net surrogate", "elastic-net surrogate model" },
es = "Uso de un sustituto lineal regularizado con red elástica, que combina penalizaciones L1 y L2, para obtener un conjunto disperso pero estable de coeficientes que resume la importancia de las variables. Atenúa la inestabilidad de los sustitutos puramente L1 cuando los predictores están correlacionados.",
zh = "使用结合 L1 与 L2 惩罚的弹性网正则线性代理模型,得到稀疏且稳定的系数集合以总结特征重要性;当特征相关时,可缓解纯 L1 代理的不稳定问题。",
term_es = "interpretación con red elástica",
term_zh = "弹性网解释",
aliases_es = { "interpretación elastic net", "sustituto de red elástica" },
aliases_zh = { "弹性网络解释", "弹性网代理模型" },
}
data["elastic resolution"] = {
short = "A supernet capability that supports multiple input image resolutions during training and inference, allowing subnetworks to be selected based on resolution-accuracy-latency trade-offs.",
article = nil,
aliases = { "dynamic resolution", "variable resolution", "resolution elasticity" },
es = "Capacidad de supernet que admite múltiples resoluciones de imagen de entrada durante el entrenamiento y la inferencia, permitiendo seleccionar subredes según los compromisos resolución-precisión-latencia.",
zh = "超网络在训练与推理时支持多种输入图像分辨率的能力,可根据分辨率-精度-延迟权衡选择子网络。",
term_es = "resolución elástica",
term_zh = "弹性分辨率",
aliases_es = { "resolución dinámica" },
aliases_zh = { "动态分辨率" },
}
data["elastic weight consolidation"] = {
short = "A continual learning method that adds a quadratic penalty anchoring important parameters near their previous values, where importance is estimated from the Fisher information of past tasks.",
article = nil,
aliases = { "EWC" },
es = "Método de aprendizaje continuo que añade una penalización cuadrática para anclar los parámetros importantes cerca de sus valores previos, donde la importancia se estima a partir de la información de Fisher de tareas anteriores.",
zh = "一种持续学习方法,添加二次惩罚项将重要参数锚定在其先前值附近,其重要性由过往任务的 Fisher 信息估计。",
term_es = "consolidación elástica de pesos",
term_zh = "弹性权重巩固",
aliases_es = { "EWC" },
aliases_zh = { "EWC", "弹性权重整合" },
}
data["elastic weight consolidation prior"] = {
short = "A quadratic regularization prior used in continual learning that penalizes deviations of each parameter from its previous-task optimum, weighted by the diagonal Fisher information of that task.",
article = nil,
aliases = { "EWC prior", "EWC regularizer", "elastic weight consolidation regularizer", "Fisher-weighted L2 prior" },
es = "Previa de regularización cuadrática usada en aprendizaje continuo que penaliza las desviaciones de cada parámetro respecto a su óptimo de la tarea anterior, ponderadas por la información de Fisher diagonal de esa tarea.",
zh = "用于持续学习的二次正则化先验,对每个参数相对于其前一任务最优值的偏离施加惩罚,权重由该任务的对角 Fisher 信息给出。",
term_es = "previa de consolidación elástica de pesos",
term_zh = "弹性权重巩固先验",
aliases_es = { "previa EWC", "regularizador EWC", "regularizador de consolidación elástica de pesos", "previa L2 ponderada por Fisher" },
aliases_zh = { "EWC 先验", "EWC 正则化器", "弹性权重整合先验", "Fisher 加权 L2 先验" },
}
data["elastic width"] = {
short = "A supernet design that supports variable channel counts per layer, where narrower subnetworks reuse a prefix of the wider network's channels and the corresponding weight slices.",
article = nil,
aliases = { "dynamic width", "variable width", "elastic channels", "width elasticity", "channel elasticity" },
es = "Diseño de supernet que admite un número variable de canales por capa, donde las subredes más estrechas reutilizan un prefijo de los canales de la red más ancha y los segmentos de pesos correspondientes.",
zh = "支持每层可变通道数的超网络设计,较窄的子网络复用较宽网络通道的前缀及对应的权重切片。",
term_es = "ancho elástico",
term_zh = "弹性宽度",
aliases_es = { "ancho dinámico", "canales elásticos" },
aliases_zh = { "动态宽度", "弹性通道" },
}
data["elbo"] = {
short = "The Evidence Lower BOund: a tractable lower bound on the marginal log-likelihood log p(x), equal to the expected log-likelihood under the variational posterior minus the KL divergence to the prior. Maximized in variational inference and VAE training.",
article = nil,
aliases = { "ELBO", "evidence lower bound", "variational lower bound", "VLB", "variational free energy bound" },
es = "Cota inferior de la evidencia: una cota inferior tratable sobre la log-verosimilitud marginal log p(x), igual a la log-verosimilitud esperada bajo el posterior variacional menos la divergencia KL respecto al prior. Se maximiza en inferencia variacional y entrenamiento de VAEs.",
zh = "证据下界:边缘对数似然 log p(x) 的可计算下界,等于变分后验下的期望对数似然减去与先验的 KL 散度。在变分推断和 VAE 训练中最大化。",
term_es = "ELBO",
term_zh = "ELBO",
aliases_es = { "cota inferior de la evidencia", "cota variacional inferior", "VLB" },
aliases_zh = { "证据下界", "变分下界", "VLB" },
}
data["electra"] = {
short = "A pretraining method that trains a discriminator to distinguish real input tokens from plausible replacements produced by a small generator network, yielding more sample-efficient learning than masked language modeling.",
article = nil,
aliases = { "ELECTRA", "Efficiently Learning an Encoder that Classifies Token Replacements Accurately" },
es = "Método de preentrenamiento que entrena un discriminador para distinguir tokens reales de la entrada frente a reemplazos plausibles generados por una pequeña red generadora, logrando un aprendizaje más eficiente en datos que el modelado de lenguaje enmascarado.",
zh = "一种预训练方法,训练判别器区分真实输入 token 与由小型生成网络产生的合理替换 token,相比掩码语言建模具有更高的样本效率。",
term_es = "ELECTRA",
term_zh = "ELECTRA",
aliases_es = { "ELECTRA" },
aliases_zh = { "ELECTRA" },
}
data["electrostatic similarity"] = {
short = "A measure of resemblance between two molecules based on the agreement of their electrostatic potential surfaces, used in ligand-based virtual screening to find bioisosteric replacements.",
article = nil,
aliases = { "electrostatic similarity score", "ESP similarity", "electrostatic potential similarity", "EON similarity" },
es = "Medida de semejanza entre dos moléculas basada en la concordancia de sus superficies de potencial electrostático, utilizada en el cribado virtual basado en ligando para encontrar reemplazos bioisostéricos.",
zh = "基于两分子静电势表面的一致程度衡量其相似度的指标,常用于基于配体的虚拟筛选以寻找生物等排替代物。",
term_es = "similitud electrostática",
term_zh = "静电相似性",
aliases_es = { "similitud de potencial electrostático", "puntuación de similitud electrostática", "similitud ESP" },
aliases_zh = { "静电势相似性", "静电相似度", "ESP 相似性" },
}
data["elevenlabs"] = {
short = "A commercial provider of neural text-to-speech and voice cloning APIs known for naturalistic prosody and multilingual voices.",
article = nil,
aliases = { "ElevenLabs", "Eleven Labs", "11labs" },
es = "Proveedor comercial de APIs de síntesis de voz neuronal y clonación de voz, conocido por su prosodia natural y sus voces multilingües.",
zh = "提供神经文本转语音和声音克隆 API 的商业服务商,以自然韵律和多语种语音著称。",
term_es = "ElevenLabs",
term_zh = "ElevenLabs",
aliases_es = { "Eleven Labs" },
aliases_zh = { "Eleven Labs" },
}
data["eli5 library"] = {
short = "A Python library that provides unified APIs for inspecting and explaining predictions of scikit-learn, XGBoost, LightGBM, CatBoost, and Keras models, with built-in support for permutation importance, LIME, and text highlighting.",
article = nil,
aliases = { "ELI5", "eli5", "ELI5 library", "ELI5 Python library" },
es = "Biblioteca de Python que ofrece API unificadas para inspeccionar y explicar las predicciones de modelos de scikit-learn, XGBoost, LightGBM, CatBoost y Keras, con soporte integrado para importancia por permutación, LIME y resaltado de texto.",
zh = "一个 Python 库,为 scikit-learn、XGBoost、LightGBM、CatBoost 和 Keras 模型的预测检查与解释提供统一接口,内置对置换重要性、LIME 和文本高亮的支持。",
term_es = "biblioteca ELI5",
term_zh = "ELI5 库",
aliases_es = { "ELI5", "biblioteca eli5" },
aliases_zh = { "ELI5", "ELI5 Python 库" },
}
data["elimination order"] = {
short = "An ordering of variables used by variable elimination to compute marginals or partition functions on a graphical model; its quality, measured by induced width or treewidth, controls the time and space complexity of inference.",
article = nil,
aliases = { "variable elimination order", "elimination ordering", "VE order", "elimination sequence" },
es = "Una ordenación de las variables usada por la eliminación de variables para calcular marginales o funciones de partición sobre un modelo gráfico; su calidad, medida por el ancho inducido o el treewidth, determina la complejidad en tiempo y memoria de la inferencia.",
zh = "在图模型上用变量消去法计算边缘分布或配分函数时所采用的变量次序;其优劣由诱导宽度或树宽衡量,决定推断的时间与空间复杂度。",
term_es = "orden de eliminación",
term_zh = "消去顺序",
aliases_es = { "ordenación de eliminación", "orden de eliminación de variables", "secuencia de eliminación" },
aliases_zh = { "变量消去顺序", "消元顺序", "消去次序" },
}
data["elitism"] = {
short = "An evolutionary algorithm strategy that copies the best-performing individuals from one generation to the next without modification, guaranteeing monotonic improvement of the best solution found.",
article = nil,
aliases = { "elitist selection", "elite preservation", "elite retention" },
es = "Estrategia de los algoritmos evolutivos que copia sin modificación a los mejores individuos de una generación a la siguiente, garantizando una mejora monótona de la mejor solución encontrada.",
zh = "进化算法策略,将上一代中表现最优的个体不加修改地保留到下一代,保证已找到的最优解单调改进。",
term_es = "elitismo",
term_zh = "精英保留",
aliases_es = { "selección elitista", "preservación de élite" },
aliases_zh = { "精英主义", "精英选择", "精英策略" },
}
data["elliptical slice sampling"] = {
short = "An MCMC method for posteriors with multivariate Gaussian priors that proposes new states along an ellipse passing through the current state and an auxiliary draw from the prior, then uses slice sampling to choose the angle, eliminating step-size tuning.",
article = nil,
aliases = { "ESS", "elliptical slice sampler", "Murray elliptical slice sampling" },
es = "Un método MCMC para posteriores con previas gaussianas multivariadas que propone nuevos estados a lo largo de una elipse que pasa por el estado actual y por una muestra auxiliar de la previa, eligiendo el ángulo mediante muestreo por rebanadas y evitando así ajustar el tamaño de paso.",
zh = "一种适用于具有多元高斯先验的后验分布的 MCMC 方法,沿穿过当前状态和先验辅助样本的椭圆提出新状态,并通过切片采样选择角度,从而无需调节步长。",
term_es = "muestreo elíptico por rebanadas",
term_zh = "椭圆切片采样",
aliases_es = { "elliptical slice sampling", "muestreador elíptico por rebanadas" },
aliases_zh = { "椭圆切片采样器", "ESS 椭圆切片" },
}
data["elmo"] = {
short = "Embeddings from Language Models: contextual word representations produced by the internal states of a deep bidirectional LSTM language model, where the embedding of a word depends on the entire surrounding sentence.",
article = nil,
aliases = { "ELMo", "Embeddings from Language Models", "ELMo embeddings" },
es = "Embeddings from Language Models: representaciones contextuales de palabras producidas por los estados internos de un modelo de lenguaje LSTM bidireccional profundo, donde el embedding de una palabra depende de toda la oración circundante.",
zh = "Embeddings from Language Models:由深层双向 LSTM 语言模型内部状态产生的上下文词表示,每个词的嵌入依赖于其所在句子的整体上下文。",
term_es = "ELMo",
term_zh = "ELMo",
aliases_es = { "ELMo", "Embeddings from Language Models" },
aliases_zh = { "ELMo", "ELMo 嵌入" },
}
data["elo rating"] = {
short = "A pairwise comparison rating system, originally from chess, where each player has a numeric rating updated after each match based on the expected versus actual outcome; widely used to rank LLMs from human preference battles.",
article = nil,
aliases = { "Elo", "ELO", "Elo rating", "Elo score", "Elo system" },
es = "Sistema de puntuación por comparaciones por pares, originalmente del ajedrez, donde cada jugador tiene una calificación numérica que se actualiza tras cada partida según el resultado esperado frente al real; muy usado para clasificar LLM a partir de duelos de preferencia humana.",
zh = "一种源自国际象棋的成对比较评分系统,每位选手拥有一个数值评分,并根据每场比赛的预期与实际结果进行更新;常用于通过人工偏好对战为大型语言模型排名。",
term_es = "puntuación Elo",
term_zh = "Elo 评分",
aliases_es = { "Elo", "ELO", "calificación Elo", "rating Elo" },
aliases_zh = { "Elo", "ELO", "Elo 分数", "等级分" },
}
data["elu"] = {
short = "The Exponential Linear Unit activation, defined as f(x) = x for x ≥ 0 and α(exp(x) − 1) for x < 0. Pushes mean activations closer to zero and can improve learning compared to ReLU.",
article = nil,
aliases = { "ELU", "exponential linear unit" },
es = "Activación Unidad Lineal Exponencial, definida como f(x) = x para x ≥ 0 y α(exp(x) − 1) para x < 0. Acerca las activaciones medias a cero y puede mejorar el aprendizaje frente a ReLU.",
zh = "指数线性单元(ELU)激活函数,定义为:当 x ≥ 0 时 f(x) = x,当 x < 0 时 f(x) = α(exp(x) − 1)。可将平均激活推向零,相比 ReLU 有助于学习。",
term_es = "ELU",
term_zh = "ELU",
aliases_es = { "unidad lineal exponencial" },
aliases_zh = { "指数线性单元", "指数线性激活" },
}
data["elucidated diffusion"] = {
short = "A reformulation of diffusion-model design (Karras et al., 2022, EDM) that disentangles the choices of noise schedule, network preconditioning, training loss weighting and sampler, identifying simple settings (e.g. σ-parameterized denoiser, Heun sampler) that achieve state-of-the-art FID with few sampling steps.",
article = nil,
aliases = { "EDM", "Elucidating the Design Space of Diffusion-Based Generative Models", "Karras EDM" },
es = "Reformulación del diseño de los modelos de difusión (Karras et al., 2022, EDM) que separa las decisiones de calendario de ruido, precondicionamiento de la red, ponderación de la pérdida y muestreador, e identifica configuraciones sencillas (p. ej. denoiser parametrizado en σ y muestreador de Heun) que logran un FID de vanguardia con pocos pasos de muestreo.",
zh = "Karras 等人于 2022 年提出的扩散模型设计重新整理(EDM):将噪声计划、网络预处理、训练损失加权和采样器的选择拆解开来,并给出一组简洁配置(如以 σ 参数化的去噪器、Heun 采样器),可在很少的采样步数下取得 SOTA 的 FID。",
term_es = "difusión elucidada",
term_zh = "EDM 扩散",
aliases_es = { "EDM", "Karras EDM" },
aliases_zh = { "EDM", "Karras EDM", "阐明的扩散模型" },
}
data["embedding"] = {
short = "A dense vector representation of a discrete token, item, or symbol learned so that semantic similarity corresponds to vector proximity.",
article = "Word Embeddings",
aliases = { "embeddings", "vector embedding" },
es = "Representación vectorial densa de un token, elemento o símbolo discreto, aprendida de modo que la similitud semántica se corresponda con la proximidad vectorial.",
zh = "对离散 token、项或符号的稠密向量表示,学习时使语义相似性对应于向量空间中的接近度。",
term_es = "embedding",
term_zh = "嵌入",
aliases_es = { "incrustación", "representación vectorial" },
aliases_zh = { "embedding", "嵌入向量" },
}
data["embedding bias"] = {
short = "Systematic associations encoded in learned vector representations of words, images, or entities that reflect or amplify societal stereotypes (e.g. gender-occupation associations in word embeddings), measurable via tests such as WEAT.",
article = nil,
aliases = { "bias in embeddings", "word embedding bias", "representational bias in embeddings" },
es = "Asociaciones sistemáticas codificadas en representaciones vectoriales aprendidas de palabras, imágenes o entidades, que reflejan o amplifican estereotipos sociales (por ejemplo, asociaciones género-ocupación en embeddings de palabras), medibles mediante pruebas como WEAT.",
zh = "在学习得到的词、图像或实体向量表示中编码的系统性关联,反映或放大了社会刻板印象(例如词嵌入中的性别—职业关联),可通过 WEAT 等测试加以衡量。",
term_es = "sesgo en embeddings",
term_zh = "嵌入偏差",
aliases_es = { "sesgo de embeddings", "sesgo en representaciones vectoriales", "sesgo en word embeddings" },
aliases_zh = { "词嵌入偏差", "嵌入偏见", "表示偏差" },
}
data["emergent abilities"] = {
short = "Capabilities of large language models that are absent or near-random in smaller models but appear once scale crosses a threshold; the existence and sharpness of such transitions is contested and depends on the chosen metric.",
article = nil,
aliases = { "emergent ability", "emergent capabilities", "emergence in LLMs", "emergent behavior" },
es = "Capacidades de los grandes modelos de lenguaje ausentes o casi aleatorias en modelos más pequeños que aparecen al cruzar cierto umbral de escala; la existencia y nitidez de estas transiciones es debatida y depende de la métrica elegida.",
zh = "大语言模型在小规模时几乎随机或不存在,但当规模跨越某一阈值后才出现的能力;这类转变的存在与陡峭程度存在争议,并依赖所选评测指标。",
term_es = "habilidades emergentes",
term_zh = "涌现能力",
aliases_es = { "capacidades emergentes", "emergencia en LLM" },
aliases_zh = { "涌现行为", "突现能力" },
}
data["emergent bias"] = {
short = "Bias that arises only after deployment, when a system interacts with users, environments, or populations not anticipated at design time. Coined in Friedman & Nissenbaum (1996) alongside preexisting and technical bias.",
article = nil,
aliases = { "emergence bias", "post-deployment bias", "interaction bias" },
es = "Sesgo que surge solo tras la implementación, cuando el sistema interactúa con usuarios, entornos o poblaciones no previstos en el momento del diseño. Acuñado por Friedman y Nissenbaum (1996) junto con el sesgo preexistente y el técnico.",
zh = "仅在部署之后出现的偏差,当系统与设计阶段未预料到的用户、环境或人群发生交互时产生。由 Friedman 与 Nissenbaum(1996)与『既有偏差』和『技术偏差』一同提出。",
term_es = "sesgo emergente",
term_zh = "涌现偏差",
aliases_es = { "sesgo de emergencia", "sesgo post-despliegue", "sesgo de interacción" },
aliases_zh = { "新生偏差", "部署后偏差", "交互偏差" },
}
data["emformer"] = {
short = "Efficient Memory Transformer: a streaming-capable transformer encoder for ASR that uses fixed-size memory banks and chunk-wise attention to enable low-latency online recognition.",
article = nil,
aliases = { "Emformer", "Efficient Memory Transformer", "efficient memory transformer" },
es = "Efficient Memory Transformer: codificador transformer apto para streaming en ASR que utiliza bancos de memoria de tamaño fijo y atención por bloques para permitir reconocimiento en línea con baja latencia.",
zh = "Efficient Memory Transformer:面向 ASR 流式应用的 Transformer 编码器,通过固定大小的记忆库与分块注意力实现低延迟在线识别。",
term_es = "Emformer",
term_zh = "Emformer",
aliases_es = { "Emformer", "Transformer de memoria eficiente" },
aliases_zh = { "Emformer", "高效记忆 Transformer" },
}
data["emotional tts"] = {
short = "Text-to-speech synthesis that conditions generated speech on an emotion label, reference utterance, or learned style embedding to produce expressive output (e.g. happy, sad, angry).",
article = nil,
aliases = { "expressive TTS", "emotion-controllable TTS", "emotional speech synthesis", "emotional text-to-speech" },
es = "Síntesis de voz que condiciona el habla generada con una etiqueta de emoción, un enunciado de referencia o un embedding de estilo aprendido para producir salidas expresivas (alegre, triste, enfadado, etc.).",
zh = "情感文语合成:在生成的语音中以情感标签、参考语句或学习得到的风格嵌入为条件,从而产生具有表现力(如高兴、悲伤、愤怒)的语音。",
term_es = "TTS emocional",
term_zh = "情感 TTS",
aliases_es = { "TTS expresivo", "TTS controlable por emoción", "síntesis de voz emocional" },
aliases_zh = { "情感语音合成", "可控情感 TTS", "表达性 TTS" },
}
data["empirical bayes"] = {
short = "A statistical approach in which the prior of a hierarchical model is estimated from the data itself, typically by maximizing the marginal likelihood, rather than being fully specified a priori.",
article = nil,
aliases = { "empirical Bayes method", "type-II maximum likelihood", "type II maximum likelihood", "ML-II", "evidence maximization", "marginal likelihood maximization" },
es = "Enfoque estadístico en el que la distribución a priori de un modelo jerárquico se estima a partir de los propios datos, habitualmente maximizando la verosimilitud marginal, en lugar de fijarse de antemano.",
zh = "一种统计方法,层次模型的先验通过数据本身来估计(通常通过最大化边缘似然),而不是完全先验地指定。",
term_es = "Bayes empírico",
term_zh = "经验贝叶斯",
aliases_es = { "método Bayes empírico", "máxima verosimilitud tipo II", "ML-II", "maximización de la evidencia" },
aliases_zh = { "经验贝叶斯方法", "II型极大似然", "证据最大化", "边缘似然最大化" },
}
data["empirical fisher"] = {
short = "An approximation to the Fisher information matrix that uses gradients of the log-likelihood evaluated on observed targets, rather than under model-sampled labels; commonly used as a curvature proxy in optimization and Laplace approximations despite its known biases.",
article = nil,
aliases = { "empirical Fisher information", "empirical Fisher matrix", "EF" },
es = "Aproximación de la matriz de información de Fisher calculada con gradientes de la log-verosimilitud sobre las etiquetas observadas, en lugar de muestreadas del modelo; se utiliza como sustituto de la curvatura en optimización y aproximaciones de Laplace pese a sus sesgos conocidos.",
zh = "Fisher信息矩阵的一种近似,使用对观测标签计算的对数似然梯度,而不是对模型采样标签的梯度;尽管存在已知偏差,常作为优化和拉普拉斯近似中的曲率代理。",
term_es = "Fisher empírica",
term_zh = "经验Fisher",
aliases_es = { "información de Fisher empírica", "matriz de Fisher empírica", "EF" },
aliases_zh = { "经验Fisher信息", "经验Fisher矩阵", "EF" },
}
data["empirical influence"] = {
short = "An estimate of a training point's influence on a model's predictions obtained by direct retraining or sampling, rather than by closed-form Hessian inversion. Used as a ground-truth reference for evaluating influence-function approximations.",
article = nil,
aliases = { "empirical influence function", "empirical influence functions", "leave-one-out empirical influence" },
es = "Estimación de la influencia de un ejemplo de entrenamiento sobre las predicciones del modelo obtenida mediante reentrenamiento directo o muestreo, en lugar de invertir el Hessiano en forma cerrada. Sirve de referencia veraz para evaluar aproximaciones por funciones de influencia.",
zh = "通过直接重训练或采样估计训练点对模型预测影响的方法,区别于使用闭式 Hessian 求逆的解析公式;常作为评估影响函数近似的真值参考。",
term_es = "influencia empírica",
term_zh = "经验影响",
aliases_es = { "función de influencia empírica", "influencia empírica leave-one-out" },
aliases_zh = { "经验影响函数", "留一经验影响" },
}
data["empirical privacy"] = {
short = "Privacy assessed through attack-based experiments (e.g. membership inference, attribute inference, gradient reconstruction) rather than from formal differential-privacy guarantees, reporting attack success as a proxy for leakage.",
article = nil,
aliases = { "empirical privacy evaluation", "empirical privacy measurement", "empirical leakage assessment" },
es = "Privacidad empírica: evaluación de la privacidad mediante experimentos basados en ataques (p. ej., inferencia de pertenencia, inferencia de atributos, reconstrucción de gradientes) en lugar de garantías formales de privacidad diferencial, reportando el éxito del ataque como aproximación de la fuga.",
zh = "经验隐私:通过基于攻击的实验(如成员推断、属性推断、梯度重建)评估隐私,而非依赖差分隐私的形式化保证,以攻击成功率作为信息泄露的代理指标。",
term_es = "privacidad empírica",
term_zh = "经验隐私",
aliases_es = { "evaluación empírica de la privacidad" },
aliases_zh = { "经验性隐私", "实证隐私评估" },
}
data["emu image"] = {
short = "A text-to-image diffusion model from Meta that uses high-quality fine-tuning on a small curated set of aesthetically appealing images to dramatically improve photorealism and prompt alignment over its base model.",
article = nil,
aliases = { "Emu", "Emu Image", "Meta Emu" },
es = "Modelo de difusión de texto a imagen de Meta que usa ajuste fino de alta calidad sobre un pequeño conjunto curado de imágenes estéticamente atractivas para mejorar de forma drástica el fotorrealismo y la alineación con el texto respecto a su modelo base.",
zh = "Meta提出的文本到图像扩散模型,通过在少量精选的美学优质图像上进行高质量微调,相对于基础模型显著提升了照片真实感与提示一致性。",
term_es = "Emu",
term_zh = "Emu",
aliases_es = { "Emu Image", "Emu de Meta" },
aliases_zh = { "Emu图像模型", "Meta Emu" },
}
data["emu video"] = {
short = "A text-to-video diffusion model from Meta that decomposes generation into first synthesizing a still image conditioned on text and then animating that image into a video, improving fidelity over end-to-end text-to-video models.",
article = nil,
aliases = { "Emu Video", "EmuVideo", "Meta Emu Video" },
es = "Modelo de difusión de texto a vídeo de Meta que descompone la generación en sintetizar primero una imagen fija condicionada al texto y luego animarla, mejorando la fidelidad respecto a los modelos texto-a-vídeo de extremo a extremo.",
zh = "Meta提出的文本到视频扩散模型,将生成过程分解为先根据文本合成一张静态图像、再将其动画化为视频两步,相较端到端文本到视频模型提升了保真度。",
term_es = "Emu Video",
term_zh = "Emu Video",
aliases_es = { "modelo Emu Video", "Emu Video de Meta" },
aliases_zh = { "Emu Video模型", "Meta Emu Video" },
}
data["emu2"] = {
short = "A 37-billion-parameter generative multimodal foundation model from BAAI trained with a unified next-token prediction objective over interleaved image and text tokens, supporting in-context multimodal generation.",
article = nil,
aliases = { "Emu2", "Emu-2", "Emu 2" },
es = "Modelo fundacional multimodal generativo de 37 mil millones de parámetros de BAAI entrenado con un objetivo unificado de predicción del siguiente token sobre secuencias intercaladas de tokens de imagen y texto, capaz de generación multimodal en contexto.",
zh = "BAAI发布的370亿参数生成式多模态基础模型,在图像与文本交错的token序列上以统一的下一token预测目标训练,支持上下文多模态生成。",
term_es = "Emu2",
term_zh = "Emu2",
aliases_es = { "Emu-2" },
aliases_zh = { "Emu-2", "Emu 2" },
}
data["emu3"] = {
short = "A multimodal foundation model from BAAI that unifies image, video, and text generation under a single next-token prediction objective by tokenizing all modalities into a shared discrete vocabulary, removing the need for diffusion or contrastive components.",
article = nil,
aliases = { "Emu3", "Emu-3", "Emu 3" },
es = "Modelo fundacional multimodal de BAAI que unifica la generación de imagen, vídeo y texto bajo un único objetivo de predicción del siguiente token, tokenizando todas las modalidades en un vocabulario discreto compartido y eliminando la necesidad de componentes de difusión o contrastivos.",
zh = "BAAI推出的多模态基础模型,将图像、视频和文本统一在单一的下一token预测目标下,通过把所有模态tokenize为共享的离散词表,消除了对扩散或对比模块的需求。",
term_es = "Emu3",
term_zh = "Emu3",
aliases_es = { "Emu-3" },
aliases_zh = { "Emu-3", "Emu 3" },
}
data["enamine real"] = {
short = "Enamine REAL Space: an ultra-large virtual library (>30 billion molecules) of synthetically accessible compounds enumerated from validated Enamine reactions and building blocks, widely used for large-scale virtual screening.",
article = nil,
aliases = { "Enamine REAL", "REAL Space", "Enamine REAL Space", "REAL database", "Enamine REAL database" },
es = "Enamine REAL Space: biblioteca virtual ultragrande (más de 30 mil millones de moléculas) de compuestos sintéticamente accesibles, enumerada a partir de reacciones y bloques de construcción validados de Enamine y ampliamente utilizada en cribado virtual a gran escala.",
zh = "Enamine REAL Space:由 Enamine 验证反应和砌块枚举得到的超大型虚拟化合物库(超过 300 亿分子),其化合物均合成可达,被广泛用于大规模虚拟筛选。",
term_es = "Enamine REAL",
term_zh = "Enamine REAL",
aliases_es = { "Enamine REAL", "REAL Space", "biblioteca Enamine REAL" },
aliases_zh = { "Enamine REAL", "REAL Space", "Enamine REAL 数据库" },
}
data["enantiomer"] = {
short = "One of a pair of stereoisomers that are non-superimposable mirror images of each other; enantiomers share most physical properties but can interact differently with chiral biological targets.",
article = nil,
aliases = { "enantiomers", "optical isomer", "mirror-image isomer", "chiral isomer" },
es = "Cada uno de los dos estereoisómeros que son imágenes especulares no superponibles entre sí; los enantiómeros comparten la mayoría de propiedades físicas pero pueden interactuar de forma distinta con dianas biológicas quirales.",
zh = "一对互为不可重叠镜像的立体异构体之一;对映体的多数物理性质相同,但与手性生物靶标的相互作用可能不同。",
term_es = "enantiómero",
term_zh = "对映体",
aliases_es = { "enantiómeros", "isómero óptico", "isómero quiral" },
aliases_zh = { "对映异构体", "光学异构体", "镜像异构体" },
}
data["enas"] = {
short = "Efficient Neural Architecture Search: a NAS method that trains a single shared-weight supernet across all child architectures and uses a controller to sample subgraphs, drastically reducing search cost compared to training each architecture from scratch.",
article = nil,
aliases = { "ENAS", "Efficient Neural Architecture Search", "efficient NAS", "parameter-sharing NAS" },
es = "Búsqueda eficiente de arquitecturas neuronales: método de NAS que entrena una única supernet con pesos compartidos para todas las arquitecturas hijas y utiliza un controlador para muestrear subgrafos, reduciendo drásticamente el coste de búsqueda frente a entrenar cada arquitectura desde cero.",
zh = "高效神经架构搜索:一种 NAS 方法,训练单一权重共享的超网络覆盖所有子架构,并通过控制器采样子图,相比从零训练每个架构大幅降低搜索成本。",
term_es = "ENAS",
term_zh = "ENAS",
aliases_es = { "búsqueda eficiente de arquitecturas neuronales" },
aliases_zh = { "高效神经架构搜索", "参数共享NAS" },
}
data["encode project"] = {
short = "The Encyclopedia of DNA Elements, an international consortium that systematically maps functional elements—transcripts, transcription factor binding sites, chromatin states, methylation, and 3D contacts—across human and mouse genomes.",
article = nil,
aliases = { "ENCODE", "ENCODE Project", "Encyclopedia of DNA Elements", "ENCODE consortium" },
es = "Encyclopedia of DNA Elements, un consorcio internacional que mapea sistemáticamente elementos funcionales —transcritos, sitios de unión de factores de transcripción, estados de cromatina, metilación y contactos 3D— en los genomas humano y de ratón.",
zh = "DNA 元件百科全书(ENCODE)——一个国际协作项目,系统性地在人和小鼠基因组中绘制功能元件,包括转录本、转录因子结合位点、染色质状态、甲基化以及三维接触。",
term_es = "Proyecto ENCODE",
term_zh = "ENCODE 计划",
aliases_es = { "ENCODE", "Enciclopedia de Elementos de ADN" },
aliases_zh = { "ENCODE", "DNA 元件百科全书", "ENCODE 联盟" },
}
data["encodec"] = {
short = "A neural audio codec by Meta that compresses waveforms into discrete tokens via residual vector quantization and reconstructs them with a learned decoder, widely used as the audio tokenizer for generative speech and music models.",
article = nil,
aliases = { "EnCodec", "Encodec", "Meta EnCodec", "neural audio codec (EnCodec)" },
es = "Códec neuronal de audio de Meta que comprime formas de onda en tokens discretos mediante cuantización vectorial residual y los reconstruye con un decodificador aprendido; ampliamente utilizado como tokenizador de audio para modelos generativos de habla y música.",
zh = "Meta 提出的神经音频编解码器,通过残差矢量量化将波形压缩为离散标记,并由学习得到的解码器重建波形;广泛用作生成式语音与音乐模型的音频分词器。",
term_es = "EnCodec",
term_zh = "EnCodec",
aliases_es = { "EnCodec", "códec EnCodec" },
aliases_zh = { "EnCodec", "EnCodec 编解码器" },
}
data["encoder"] = {
short = "The component of an encoder-decoder model that maps an input sequence or signal into a latent representation consumed by the decoder.",
article = nil,
aliases = { "encoder network", "encoder module", "encoder block" },
es = "Componente de un modelo codificador-decodificador que transforma una secuencia o señal de entrada en una representación latente que el decodificador utiliza.",
zh = "编码器-解码器模型中的一部分,将输入序列或信号映射为供解码器使用的潜在表示。",
term_es = "codificador",
term_zh = "编码器",
aliases_es = { "red codificadora", "módulo codificador" },
aliases_zh = { "编码网络", "编码模块" },
}
data["encoder-decoder"] = {
short = "A neural network architecture composed of an encoder that compresses an input into a latent representation and a decoder that expands that representation into an output, used for translation, summarization, and image-to-image tasks.",
article = nil,
aliases = { "encoder decoder", "encoder/decoder", "encoder-decoder architecture", "encoder-decoder model", "seq2seq architecture" },
es = "Arquitectura de red neuronal compuesta por un codificador que comprime la entrada en una representación latente y un decodificador que expande esa representación en una salida, usada en traducción, resumen y tareas de imagen a imagen.",
zh = "一种神经网络架构,由将输入压缩为潜在表示的编码器和将该表示扩展为输出的解码器组成,常用于翻译、摘要以及图像到图像的任务。",
term_es = "codificador-decodificador",
term_zh = "编码器-解码器",
aliases_es = { "arquitectura codificador-decodificador", "modelo codificador-decodificador" },
aliases_zh = { "编码器解码器", "编码-解码架构", "编码-解码模型" },
}
data["encouragement design"] = {
short = "A study design in which units are randomized to receive an encouragement to take a treatment rather than the treatment itself; the encouragement serves as an instrument for non-compliance analysis.",
article = nil,
aliases = { "encouragement trial", "randomized encouragement design", "RED" },
es = "Diseño de estudio en el que las unidades se aleatorizan para recibir un estímulo a tomar el tratamiento, no el tratamiento en sí; el estímulo actúa como instrumento para el análisis de no cumplimiento.",
zh = "一种将单位随机分配为接受某种鼓励(而非处置本身)来接受处置的研究设计;该鼓励作为工具变量用于不依从性分析。",
term_es = "diseño de incentivación",
term_zh = "鼓励设计",
aliases_es = { "diseño de aliento", "ensayo de incentivación", "diseño aleatorizado de incentivación" },
aliases_zh = { "鼓励性设计", "随机鼓励设计", "鼓励试验", "RED" },
}
data["end-of-image token"] = {
short = "A special token used in multimodal language models to delimit the end of an image's embedded representation within the input sequence, signaling the model to resume processing text tokens.",
article = nil,
aliases = { "EOI token", "<EOI>", "image end token", "end of image token" },
es = "Token especial utilizado en modelos de lenguaje multimodales para delimitar el final de la representación incrustada de una imagen en la secuencia de entrada, indicando al modelo que reanude el procesamiento de tokens de texto.",
zh = "多模态语言模型中用于在输入序列中标记图像嵌入表示结束的特殊token,提示模型继续处理后续文本token。",
term_es = "token de fin de imagen",
term_zh = "图像结束token",
aliases_es = { "token EOI", "token <EOI>", "token fin de imagen" },
aliases_zh = { "EOI token", "<EOI>", "图像结束标记" },
}
data["end-to-end asr"] = {
short = "Automatic speech recognition performed by a single neural network that maps audio features directly to text tokens, replacing the traditional acoustic, pronunciation, and language model pipeline.",
article = nil,
aliases = { "E2E ASR", "end-to-end automatic speech recognition", "end to end ASR", "E2E speech recognition" },
es = "Reconocimiento automático del habla realizado por una única red neuronal que mapea características de audio directamente a tokens de texto, reemplazando la canalización tradicional de modelos acústico, de pronunciación y de lenguaje.",
zh = "端到端自动语音识别:由单一神经网络将音频特征直接映射为文本标记,取代传统的声学、发音与语言模型流水线。",
term_es = "ASR de extremo a extremo",
term_zh = "端到端语音识别",
aliases_es = { "E2E ASR", "ASR end-to-end", "reconocimiento automático del habla de extremo a extremo" },
aliases_zh = { "E2E ASR", "端到端 ASR", "端到端自动语音识别" },
}
data["end-to-end interpretability"] = {
short = "An approach to interpretability that explains the full input-to-output mapping of a model as a coherent whole, rather than auditing individual layers or components in isolation. Often pursued via causal abstraction or end-to-end probing.",
article = nil,
aliases = { "end to end interpretability", "end-to-end model interpretability" },
es = "Enfoque de interpretabilidad que explica el mapeo completo de entrada a salida de un modelo como un todo coherente, en lugar de auditar capas o componentes de forma aislada. Suele abordarse mediante abstracción causal o sondeo de extremo a extremo.",
zh = "一种可解释性方法,将模型从输入到输出的完整映射作为整体进行解释,而不是孤立地审视单个层或组件;常通过因果抽象或端到端探测来实现。",
term_es = "interpretabilidad de extremo a extremo",
term_zh = "端到端可解释性",
aliases_es = { "interpretabilidad extremo a extremo" },
aliases_zh = { "端到端解释性", "端到端模型可解释性" },
}
data["end-to-end neural diarization"] = {
short = "A speaker diarization paradigm in which a single neural network outputs per-frame, per-speaker activity from audio, jointly handling segmentation and speaker assignment.",
article = nil,
aliases = { "EEND", "end to end neural diarization", "end-to-end diarization", "neural end-to-end diarization" },
es = "Paradigma de diarización de hablantes en el que una única red neuronal produce a partir del audio la actividad por trama y por hablante, gestionando conjuntamente la segmentación y la asignación de hablante.",
zh = "一种说话人日志(说话人分离)范式,由单一神经网络从音频中输出逐帧、逐说话人的活动,联合完成分段与说话人指派。",
term_es = "diarización neuronal de extremo a extremo",
term_zh = "端到端神经说话人日志",
aliases_es = { "EEND", "diarización end-to-end", "diarización neuronal end-to-end" },
aliases_zh = { "EEND", "端到端说话人日志", "端到端神经说话人分离" },
}
data["end-to-end speech translation"] = {
short = "Speech translation performed by a single trainable model that maps source-language audio directly to target-language text or speech, without an explicit ASR-then-MT cascade.",
article = nil,
aliases = { "E2E ST", "end-to-end ST", "end to end speech translation", "direct speech translation" },
es = "Traducción del habla realizada por un único modelo entrenable que mapea audio en el idioma de origen directamente a texto o habla en el idioma de destino, sin una cascada explícita de ASR seguido de MT.",
zh = "端到端语音翻译:由单一可训练模型将源语言音频直接映射为目标语言文本或语音,无需显式的 ASR-机器翻译级联流程。",
term_es = "traducción del habla de extremo a extremo",
term_zh = "端到端语音翻译",
aliases_es = { "E2E ST", "ST de extremo a extremo", "traducción de habla end-to-end" },
aliases_zh = { "E2E ST", "端到端 ST", "端到端语音翻译模型" },
}
data["endogeneity"] = {
short = "In econometrics, correlation between an explanatory variable and the regression error term, arising from omitted variables, simultaneity, or measurement error and biasing ordinary least-squares estimates.",
article = nil,
aliases = { "endogeneity bias", "endogeneity problem" },
es = "En econometría, correlación entre una variable explicativa y el término de error de la regresión, originada por variables omitidas, simultaneidad o error de medición; sesga las estimaciones por mínimos cuadrados ordinarios.",
zh = "计量经济学中,解释变量与回归误差项之间存在相关性,通常源于遗漏变量、联立性或测量误差,会使普通最小二乘估计产生偏差。",
term_es = "endogeneidad",
term_zh = "内生性",
aliases_es = { "sesgo de endogeneidad", "problema de endogeneidad" },
aliases_zh = { "内生性偏差", "内生性问题", "内生问题" },
}
data["endogenous variable"] = {
short = "A variable whose value is determined within the model and may be correlated with the error term, requiring instrumental variables or other identification strategies for unbiased estimation.",
article = nil,
aliases = { "endogenous regressor", "endogenous covariate" },
es = "Variable cuyo valor se determina dentro del modelo y puede estar correlacionada con el término de error, lo que requiere variables instrumentales u otras estrategias de identificación para una estimación insesgada.",
zh = "其取值由模型内部决定、可能与误差项相关的变量,需借助工具变量或其他识别策略才能获得无偏估计。",
term_es = "variable endógena",
term_zh = "内生变量",
aliases_es = { "regresor endógeno", "covariable endógena" },
aliases_zh = { "内生回归元", "内生协变量", "内生解释变量" },
}
data["energy-aware nas"] = {
short = "A neural architecture search formulation that incorporates estimated energy consumption (alongside or instead of latency or FLOPs) into the search objective, targeting deployment on power-constrained devices.",
article = nil,
aliases = { "energy aware NAS", "energy-aware neural architecture search", "power-aware NAS", "energy-constrained NAS" },
es = "Formulación de búsqueda de arquitecturas neuronales que incorpora el consumo estimado de energía (junto con o en lugar de la latencia o los FLOPs) al objetivo de búsqueda, dirigida al despliegue en dispositivos con restricciones de potencia.",
zh = "一种神经架构搜索方案,将估算的能耗(与延迟或 FLOPs 共同或替代)纳入搜索目标,面向功耗受限的设备部署。",
term_es = "NAS consciente de la energía",
term_zh = "能耗感知NAS",
aliases_es = { "NAS sensible al consumo energético", "NAS consciente de la potencia" },
aliases_zh = { "功耗感知NAS", "能量感知NAS" },
}
data["enformer"] = {
short = "A transformer-based deep learning model that predicts gene expression and chromatin profiles from up to ~200 kilobases of input DNA sequence, capturing long-range regulatory interactions between distal enhancers and promoters.",
article = nil,
aliases = { "Enformer" },
es = "Modelo de aprendizaje profundo basado en transformers que predice la expresión génica y perfiles de cromatina a partir de hasta ~200 kilobases de secuencia de ADN de entrada, capturando interacciones reguladoras de largo alcance entre potenciadores distales y promotores.",
zh = "一种基于 Transformer 的深度学习模型,可从最长约 200 千碱基的 DNA 输入序列预测基因表达和染色质特征,捕获远端增强子与启动子之间的长程调控相互作用。",
term_es = "Enformer",
term_zh = "Enformer",
aliases_es = { "Enformer" },
aliases_zh = { "Enformer" },
}
data["enhanced sampling"] = {
short = "A family of molecular dynamics techniques (e.g. metadynamics, replica exchange, umbrella sampling) that bias or augment simulation to overcome free-energy barriers and explore rare events more efficiently than plain MD.",
article = nil,
aliases = { "enhanced sampling methods", "biased sampling", "advanced sampling", "rare-event sampling" },
es = "Conjunto de técnicas de dinámica molecular (por ejemplo, metadinámica, intercambio de réplicas o umbrella sampling) que sesgan o aumentan la simulación para superar barreras de energía libre y explorar eventos raros con mayor eficiencia que la dinámica convencional.",
zh = "一类分子动力学技术(如 metadynamics、副本交换和 umbrella sampling),通过对模拟施加偏置或增广来跨越自由能垒,比常规 MD 更高效地采样稀有事件。",
term_es = "muestreo mejorado",
term_zh = "增强采样",
aliases_es = { "métodos de muestreo mejorado", "muestreo avanzado", "muestreo sesgado" },
aliases_zh = { "增强抽样", "高级采样", "稀有事件采样" },
}
data["enhancer prediction"] = {
short = "Computational identification of enhancer regulatory elements in genomic sequence, typically using combinations of chromatin marks (H3K27ac, H3K4me1), accessibility, transcription factor motifs, or sequence-based deep-learning models.",
article = nil,
aliases = { "enhancer identification", "enhancer calling", "enhancer detection" },
es = "Identificación computacional de elementos reguladores potenciadores (enhancers) en secuencias genómicas, normalmente utilizando combinaciones de marcas de cromatina (H3K27ac, H3K4me1), accesibilidad, motivos de factores de transcripción o modelos de aprendizaje profundo basados en secuencia.",
zh = "通过计算方法识别基因组序列中的增强子调控元件,通常结合染色质修饰(H3K27ac、H3K4me1)、可及性、转录因子基序,或基于序列的深度学习模型。",
term_es = "predicción de enhancers",
term_zh = "增强子预测",
aliases_es = { "identificación de potenciadores", "predicción de potenciadores" },
aliases_zh = { "增强子识别", "增强子检测" },
}
data["enrichr"] = {
short = "A web-based gene set enrichment analysis tool that takes a user-supplied gene list and tests for over-representation against hundreds of curated libraries spanning pathways, transcription factors, ontologies, diseases, and drugs.",
article = nil,
aliases = { "Enrichr" },
es = "Herramienta web de análisis de enriquecimiento de conjuntos de genes que toma una lista de genes proporcionada por el usuario y evalúa la sobre-representación frente a cientos de bibliotecas curadas que abarcan vías, factores de transcripción, ontologías, enfermedades y fármacos.",
zh = "一种基于网页的基因集富集分析工具,可针对用户提交的基因列表,在涵盖通路、转录因子、本体、疾病和药物的数百个精选基因集库中检验过表达富集。",
term_es = "Enrichr",
term_zh = "Enrichr",
aliases_es = { "Enrichr" },
aliases_zh = { "Enrichr" },
}
data["ensembl annotation"] = {
short = "The genome annotation produced by the Ensembl project, comprising gene models, transcripts, regulatory features, and variation data for vertebrate and other species, accessible via a public browser, REST API, and BioMart.",
article = nil,
aliases = { "Ensembl", "Ensembl genome annotation", "Ensembl gene annotation", "Ensembl database" },
es = "Anotación genómica producida por el proyecto Ensembl, que incluye modelos de genes, transcritos, características reguladoras y datos de variación para vertebrados y otras especies, accesible mediante un navegador público, una API REST y BioMart.",
zh = "由 Ensembl 项目生成的基因组注释,涵盖脊椎动物和其他物种的基因模型、转录本、调控元件和变异数据,可通过公开浏览器、REST API 和 BioMart 访问。",
term_es = "anotación de Ensembl",
term_zh = "Ensembl 注释",
aliases_es = { "Ensembl", "anotación genómica Ensembl", "base de datos Ensembl" },
aliases_zh = { "Ensembl", "Ensembl 基因组注释", "Ensembl 数据库" },
}
data["ensemble averaging"] = {
short = "Combining the predictions of multiple models — typically by arithmetic mean of probabilities or logits — to reduce variance and improve calibration relative to any single member.",
article = nil,
aliases = { "model averaging", "prediction averaging", "average ensembling", "mean ensembling" },
es = "Combinación de las predicciones de varios modelos, normalmente mediante la media aritmética de probabilidades o logits, para reducir la varianza y mejorar la calibración respecto a cualquier miembro individual.",
zh = "通过对多个模型的预测(通常是概率或logits的算术平均)进行组合,以降低方差并相对单一成员改善校准。",
term_es = "promediado de ensemble",
term_zh = "集成平均",
aliases_es = { "promediado de modelos", "promedio de predicciones", "ensemble promediado" },
aliases_zh = { "模型平均", "预测平均", "平均集成" },
}
data["ensemble disagreement"] = {
short = "A measure of how much the members of an ensemble differ in their predictions for a given input; commonly used as an estimator of epistemic uncertainty and as an out-of-distribution signal.",
article = nil,
aliases = { "ensemble variance", "predictive disagreement", "model disagreement" },
es = "Medida de cuánto difieren los miembros de un ensemble en sus predicciones para una misma entrada; se usa como estimador de incertidumbre epistémica y como señal de datos fuera de la distribución.",
zh = "衡量集成成员对同一输入的预测差异程度的指标;常用作认知不确定性的估计量和分布外检测信号。",
term_es = "desacuerdo del ensemble",
term_zh = "集成分歧",
aliases_es = { "varianza del ensemble", "desacuerdo predictivo", "desacuerdo entre modelos" },
aliases_zh = { "集成方差", "预测分歧", "模型分歧" },
}
data["ensemble distillation"] = {
short = "Training a single student model to reproduce the average predictive distribution of an ensemble, recovering most of the ensemble's accuracy and calibration at a fraction of inference cost.",
article = nil,
aliases = { "distilled ensemble", "ensemble compression", "knowledge distillation from ensembles" },
es = "Entrenamiento de un único modelo estudiante para reproducir la distribución predictiva media de un ensemble, conservando gran parte de su precisión y calibración con un coste de inferencia mucho menor.",
zh = "训练单一学生模型以再现集成的平均预测分布,从而以远低于集成的推断代价恢复其大部分精度与校准。",
term_es = "destilación de ensembles",
term_zh = "集成蒸馏",
aliases_es = { "ensemble destilado", "compresión de ensemble", "destilación de conocimiento de ensembles" },
aliases_zh = { "蒸馏集成", "集成压缩", "集成知识蒸馏" },
}
data["ensemble distillation federated"] = {
short = "A federated learning aggregation strategy in which client models are combined as a soft-label ensemble on a public unlabeled dataset, and the server distills this ensemble into the next global model rather than averaging weights.",
article = nil,
aliases = { "federated ensemble distillation", "ensemble distillation FL", "FedDF-style aggregation" },
es = "Destilación de ensamble federada: estrategia de agregación en aprendizaje federado en la que los modelos cliente se combinan como un ensamble de etiquetas suaves sobre un conjunto público sin etiquetar, y el servidor destila este ensamble en el siguiente modelo global en lugar de promediar pesos.",
zh = "联邦集成蒸馏:一种联邦学习聚合策略,将客户端模型作为软标签集成应用于公共无标注数据集,服务器再将该集成蒸馏为下一轮全局模型,而非直接平均权重。",
term_es = "destilación de ensamble federada",
term_zh = "联邦集成蒸馏",
aliases_es = { "destilación por ensamble en FL" },
aliases_zh = { "联邦集成蒸馏聚合", "FedDF 式聚合" },
}
data["ensemble distribution distillation"] = {
short = "Distilling an ensemble into a single model that outputs a distribution over predictive distributions (e.g. a Dirichlet) rather than just the mean prediction, preserving the ensemble's decomposition of total uncertainty into aleatoric and epistemic parts.",
article = nil,
aliases = { "EnD2", "EnD^2", "ensemble distribution-distillation", "prior network distillation" },
es = "Destilación de un ensemble en un único modelo cuya salida es una distribución sobre distribuciones predictivas (por ejemplo, una Dirichlet) en lugar de la media, preservando la descomposición de la incertidumbre total en componentes aleatoria y epistémica.",
zh = "将集成蒸馏为单一模型,使其输出预测分布上的分布(如Dirichlet)而非仅仅是平均预测,从而保留集成对总不确定性在随机性与认知不确定性间的分解。",
term_es = "destilación de la distribución del ensemble",
term_zh = "集成分布蒸馏",
aliases_es = { "EnD2", "destilación distribucional de ensemble", "destilación de redes a priori" },
aliases_zh = { "EnD2", "集成分布-蒸馏", "先验网络蒸馏" },
}
data["ensemble diversity"] = {
short = "The degree to which members of an ensemble make different errors or capture different solutions; higher diversity tends to improve ensemble accuracy and the quality of epistemic uncertainty estimates.",
article = nil,
aliases = { "model diversity", "predictor diversity", "ensemble heterogeneity" },
es = "Grado en el que los miembros de un ensemble cometen errores distintos o capturan soluciones distintas; una mayor diversidad suele mejorar la precisión del ensemble y la calidad de las estimaciones de incertidumbre epistémica.",
zh = "集成成员之间犯不同错误或捕捉不同解的程度;更高的多样性通常提升集成精度和认知不确定性估计的质量。",
term_es = "diversidad del ensemble",
term_zh = "集成多样性",
aliases_es = { "diversidad de modelos", "diversidad de predictores", "heterogeneidad del ensemble" },
aliases_zh = { "模型多样性", "预测器多样性", "集成异质性" },
}
data["ensemble docking"] = {
short = "A docking protocol that screens ligands against multiple receptor conformations (from MD snapshots, NMR ensembles, or related crystal structures) to better account for protein flexibility and improve hit-rate.",
article = nil,
aliases = { "ensemble-based docking", "multi-conformer docking", "flexible-receptor docking", "ensemble docking screen" },
es = "Protocolo de acoplamiento molecular que evalúa los ligandos frente a múltiples conformaciones del receptor (de instantáneas de MD, ensambles de RMN o estructuras cristalinas relacionadas) para considerar mejor la flexibilidad proteica y mejorar la tasa de aciertos.",
zh = "一种对接策略,针对多个受体构象(来自 MD 快照、NMR 系综或相关晶体结构)进行配体筛选,以更好地考虑蛋白质柔性并提高命中率。",
term_es = "acoplamiento por ensamble",
term_zh = "集合对接",
aliases_es = { "docking de ensamble", "acoplamiento multiconformacional", "docking con receptor flexible" },
aliases_zh = { "系综对接", "多构象对接", "柔性受体对接" },
}
data["ensemble kalman filter"] = {
short = "A Monte Carlo approximation to the Kalman filter that represents the state distribution by an ensemble of particles propagated through the (possibly nonlinear) dynamics, using ensemble covariances to perform a linear-Gaussian update; widely used in geosciences and data assimilation.",
article = nil,
aliases = { "EnKF", "ensemble Kalman filtering", "Evensen filter" },
es = "Una aproximación de Monte Carlo del filtro de Kalman que representa la distribución del estado mediante un conjunto de partículas propagadas a través de la dinámica (posiblemente no lineal), usando covarianzas del ensemble para realizar la actualización lineal-gaussiana; muy usada en geociencias y asimilación de datos.",
zh = "一种卡尔曼滤波的蒙特卡洛近似,用一组粒子表示状态分布,经过(可能非线性的)动力学传播,并以集合协方差进行线性高斯更新;在地球科学和数据同化中广泛应用。",
term_es = "filtro de Kalman por ensamble",
term_zh = "集合卡尔曼滤波",
aliases_es = { "EnKF", "filtro de Kalman de conjunto", "filtrado de Kalman por ensemble" },
aliases_zh = { "EnKF", "集合卡尔曼滤波器", "Ensemble 卡尔曼滤波" },
}
data["ensemble member"] = {
short = "An individual model that, together with others, forms an ensemble; in deep ensembles each member is typically a network trained from a different random initialization on (possibly resampled) data.",
article = nil,
aliases = { "base learner", "component model", "ensemble component", "member network" },
es = "Modelo individual que, junto con otros, forma un ensemble; en los deep ensembles cada miembro suele ser una red entrenada desde una inicialización aleatoria distinta sobre datos (posiblemente remuestreados).",
zh = "与其他模型共同构成集成的单个模型;在深度集成中,每个成员通常是从不同随机初始化训练得到的网络(数据可能经过重采样)。",
term_es = "miembro del ensemble",
term_zh = "集成成员",
aliases_es = { "aprendiz base", "modelo componente", "componente del ensemble", "red miembro" },
aliases_zh = { "基学习器", "组件模型", "集成组件", "成员网络" },
}
data["ensemble pruning"] = {
short = "The post-training selection of a subset of ensemble members that preserves predictive performance while reducing memory and inference cost.",
article = nil,
aliases = { "ensemble selection pruning", "model pruning for ensembles", "selective ensembling" },
es = "Selección posterior al entrenamiento de un subconjunto de miembros del ensemble que conserva el rendimiento predictivo a la vez que reduce el coste de memoria e inferencia.",
zh = "在训练后选择集成成员的子集,在保持预测性能的同时降低内存和推断开销。",
term_es = "poda de ensembles",
term_zh = "集成剪枝",
aliases_es = { "selección por poda de ensemble", "poda de modelos para ensembles", "ensemblado selectivo" },
aliases_zh = { "集成选择剪枝", "集成模型剪枝", "选择性集成" },
}
data["ensemble selection"] = {
short = "A greedy procedure that builds an ensemble by iteratively adding (or removing) candidate models from a large library to optimize a validation metric, often with replacement.",
article = nil,
aliases = { "Caruana ensemble selection", "greedy ensemble selection", "forward ensemble selection" },
es = "Procedimiento voraz que construye un ensemble añadiendo (o retirando) iterativamente modelos candidatos de una biblioteca amplia para optimizar una métrica de validación, a menudo con reemplazo.",
zh = "一种贪心过程:从大量候选模型中迭代地添加(或移除)模型以优化验证指标来构建集成,通常允许有放回。",
term_es = "selección de ensemble",
term_zh = "集成选择",
aliases_es = { "selección de ensemble de Caruana", "selección voraz de ensemble", "selección hacia delante de ensemble" },
aliases_zh = { "Caruana集成选择", "贪心集成选择", "前向集成选择" },
}
data["entailment tree"] = {
short = "A structured explanation for a hypothesis represented as a tree whose leaves are retrieved facts and whose internal nodes are intermediate conclusions, each justified by a textual entailment step from its children.",
article = nil,
aliases = { "entailment trees", "textual entailment tree", "proof tree from entailment", "tree-structured entailment explanation" },
es = "Una explicación estructurada de una hipótesis representada como un árbol cuyas hojas son hechos recuperados y cuyos nodos internos son conclusiones intermedias, cada una justificada por un paso de implicación textual a partir de sus hijos.",
zh = "针对某一假设的结构化解释,表示为一棵树:叶子是检索到的事实,内部节点是中间结论,每一步都通过来自其子节点的文本蕴含步骤来证明。",
term_es = "árbol de implicación",
term_zh = "蕴含树",
aliases_es = { "árboles de implicación", "árbol de entailment", "árbol de prueba por implicación" },
aliases_zh = { "蕴含树", "文本蕴含树", "基于蕴含的证明树" },
}
data["entailmentbank"] = {
short = "A dataset by Dalvi et al. (2021) that pairs science questions with hand-authored entailment trees of supporting facts, used to train and evaluate models that produce structured, multi-step explanations.",
article = nil,
aliases = { "EntailmentBank", "Entailment Bank", "EntailmentBank dataset", "AI2 EntailmentBank" },
es = "Un conjunto de datos de Dalvi et al. (2021) que empareja preguntas de ciencia con árboles de implicación de hechos de soporte escritos manualmente, utilizado para entrenar y evaluar modelos que producen explicaciones estructuradas en varios pasos.",
zh = "Dalvi 等人(2021)发布的数据集,将科学问题与人工标注的支持事实蕴含树配对,用于训练和评估生成结构化多步解释的模型。",
term_es = "EntailmentBank",
term_zh = "EntailmentBank",
aliases_es = { "EntailmentBank", "conjunto de datos EntailmentBank", "Entailment Bank" },
aliases_zh = { "EntailmentBank", "Entailment Bank", "EntailmentBank 数据集" },
}
data["entity disambiguation"] = {
short = "The task of mapping a textual mention of an entity to the unique real-world referent it denotes within a fixed knowledge base, given that the mention has already been detected.",
article = nil,
aliases = { "named entity disambiguation", "NED", "entity resolution to KB", "mention disambiguation", "entity sense disambiguation" },
es = "La tarea de mapear una mención textual de una entidad al referente único del mundo real que denota dentro de una base de conocimiento fija, dado que la mención ya ha sido detectada.",
zh = "将文本中已识别出的实体提及映射到固定知识库中所指代的唯一真实世界实体的任务。",
term_es = "desambiguación de entidades",
term_zh = "实体消歧",
aliases_es = { "desambiguación de entidades nombradas", "NED", "desambiguación de menciones" },
aliases_zh = { "命名实体消歧", "NED", "实体提及消歧" },
}
data["entity embedding"] = {
short = "A dense, low-dimensional vector representation of an entity (often from a knowledge graph) learned so that geometric relationships between vectors reflect semantic or relational properties of the entities.",
article = nil,
aliases = { "entity embeddings", "knowledge-graph entity embedding", "entity vector", "entity representation", "KG entity embedding" },
es = "Una representación vectorial densa y de baja dimensión de una entidad (a menudo de un grafo de conocimiento) aprendida de forma que las relaciones geométricas entre vectores reflejen propiedades semánticas o relacionales de las entidades.",
zh = "实体(通常来自知识图)的稠密低维向量表示,通过学习使向量之间的几何关系反映实体的语义或关系属性。",
term_es = "embedding de entidad",
term_zh = "实体嵌入",
aliases_es = { "embeddings de entidades", "vector de entidad", "representación de entidad", "embedding de entidades en grafo de conocimiento" },
aliases_zh = { "实体嵌入向量", "知识图实体嵌入", "实体向量", "实体表示" },
}
data["entity linking"] = {
short = "The task of detecting mentions of entities in text and mapping each one to its corresponding entry in a knowledge base such as Wikipedia or Wikidata, combining mention detection with entity disambiguation.",
article = nil,
aliases = { "EL", "named entity linking", "NEL", "entity grounding", "wikification" },
es = "La tarea de detectar menciones de entidades en un texto y mapear cada una a su correspondiente entrada en una base de conocimiento como Wikipedia o Wikidata, combinando la detección de menciones con la desambiguación de entidades.",
zh = "在文本中检测实体提及,并将每个提及映射到 Wikipedia 或 Wikidata 等知识库中对应条目的任务,结合了提及检测与实体消歧。",
term_es = "enlazado de entidades",
term_zh = "实体链接",
aliases_es = { "enlazamiento de entidades", "EL", "enlazado de entidades nombradas", "wikificación" },
aliases_zh = { "实体链接 (EL)", "命名实体链接", "实体接地", "维基化" },
}
data["entity prediction"] = {
short = "In knowledge-graph completion, the task of predicting the missing head or tail entity of a triple given the relation and the other entity, typically evaluated as a ranking problem over all entities in the graph.",
article = nil,
aliases = { "link prediction (entity)", "tail prediction", "head prediction", "missing entity prediction", "KG entity prediction" },
es = "En la completación de grafos de conocimiento, la tarea de predecir la entidad cabeza o cola faltante de una tripla dada la relación y la otra entidad, evaluada habitualmente como un problema de ranking sobre todas las entidades del grafo.",
zh = "在知识图补全中,给定关系和另一端实体,预测三元组中缺失的头实体或尾实体的任务,通常作为对图中全部实体的排名问题进行评估。",
term_es = "predicción de entidades",
term_zh = "实体预测",
aliases_es = { "predicción de cola", "predicción de cabeza", "predicción de entidad faltante", "predicción de entidades en grafo de conocimiento" },
aliases_zh = { "尾实体预测", "头实体预测", "缺失实体预测", "知识图实体预测" },
}
data["entity resolution federated"] = {
short = "Federated entity resolution: privacy-preserving matching of records that refer to the same real-world entity across data held by different parties, typically using cryptographic protocols or hashing to avoid sharing raw identifiers.",
article = nil,
aliases = { "federated entity resolution", "private entity resolution", "federated record linkage" },
es = "Resolución de entidades federada: emparejamiento, con preservación de la privacidad, de registros que se refieren a la misma entidad real a través de los datos de distintas partes, normalmente mediante protocolos criptográficos o hashing para evitar compartir identificadores en claro.",
zh = "联邦实体解析:在不同方持有的数据之间,以隐私保护方式匹配指向同一真实世界实体的记录,通常借助加密协议或哈希以避免直接共享原始标识符。",
term_es = "resolución de entidades federada",
term_zh = "联邦实体解析",
aliases_es = { "vinculación de registros federada", "resolución privada de entidades" },
aliases_zh = { "联邦记录链接", "隐私保护实体解析" },
}
data["entity typing"] = {
short = "The task of assigning one or more semantic type labels (such as person, location, or fictional character) to a mention of an entity in text or to a node in a knowledge graph, often over fine-grained or hierarchical type systems.",
article = nil,
aliases = { "fine-grained entity typing", "FET", "entity type prediction", "ultra-fine entity typing", "named entity typing" },
es = "La tarea de asignar una o varias etiquetas de tipo semántico (como persona, ubicación o personaje ficticio) a una mención de una entidad en un texto o a un nodo de un grafo de conocimiento, a menudo sobre sistemas de tipos de grano fino o jerárquicos.",
zh = "为文本中的实体提及或知识图中的节点分配一个或多个语义类型标签(如人物、地点、虚构角色)的任务,常基于细粒度或分层的类型体系。",
term_es = "tipificación de entidades",
term_zh = "实体类型分类",
aliases_es = { "tipificación fina de entidades", "FET", "predicción de tipo de entidad", "tipado de entidades nombradas" },
aliases_zh = { "细粒度实体类型分类", "FET", "实体类型预测", "超细粒度实体类型分类" },
}
data["entropy"] = {
short = "In information theory, the Shannon entropy H(X) = −Σ p(x) log p(x) of a discrete random variable, measuring its average uncertainty or the expected number of bits needed to encode samples from its distribution.",
article = nil,
aliases = { "Shannon entropy", "information entropy", "H(X)" },
es = "En teoría de la información, la entropía de Shannon H(X) = −Σ p(x) log p(x) de una variable aleatoria discreta, que mide su incertidumbre promedio o el número esperado de bits necesarios para codificar muestras de su distribución.",
zh = "在信息论中,离散随机变量的香农熵 H(X) = −Σ p(x) log p(x),衡量其平均不确定性,或对其分布的样本进行编码所需的平均比特数。",
term_es = "entropía",
term_zh = "熵",
aliases_es = { "entropía de Shannon", "entropía de la información" },
aliases_zh = { "香农熵", "信息熵" },
}
data["entropy balancing"] = {
short = "A reweighting method (Hainmueller) that finds the maximum-entropy weights subject to exact balance constraints on covariate moments between treated and control groups, avoiding iterative propensity-model specification.",
article = nil,
aliases = { "ebalance", "entropy weighting", "Hainmueller entropy balancing" },
es = "Método de reponderación (Hainmueller) que encuentra los pesos de máxima entropía sujetos a restricciones de balance exacto sobre momentos de covariables entre grupos tratado y control, evitando la especificación iterativa de un modelo de propensión.",
zh = "Hainmueller 提出的重加权方法,在处置组与对照组协变量矩的精确平衡约束下求最大熵权重,从而无需迭代设定倾向得分模型。",
term_es = "balanceo por entropía",
term_zh = "熵平衡",
aliases_es = { "reponderación por entropía", "balance de entropía", "ebalance" },
aliases_zh = { "熵权重平衡", "熵加权", "Hainmueller 熵平衡" },
}
data["entropy search"] = {
short = "A Bayesian optimization acquisition function that selects the next evaluation point to maximally reduce the entropy of the posterior distribution over the location of the global optimum.",
article = nil,
aliases = { "predictive entropy search", "PES", "max-value entropy search", "MES", "information-theoretic acquisition" },
es = "Función de adquisición de optimización bayesiana que selecciona el siguiente punto de evaluación para reducir al máximo la entropía de la distribución posterior sobre la ubicación del óptimo global.",
zh = "贝叶斯优化采集函数,选择下一个评估点以最大程度降低后验分布在全局最优位置上的熵。",
term_es = "búsqueda por entropía",
term_zh = "熵搜索",
aliases_es = { "PES", "MES" },
aliases_zh = { "PES", "MES", "信息论采集函数" },
}
data["environmental sound classification"] = {
short = "The task of assigning a category label (e.g. dog bark, siren, rain) to a short audio clip of a non-speech, non-music environmental sound.",
article = nil,
aliases = { "ESC", "environmental sound recognition", "ambient sound classification" },
es = "Tarea de asignar una etiqueta de categoría (p. ej. ladrido de perro, sirena, lluvia) a un clip corto de audio que contiene un sonido ambiental que no es habla ni música.",
zh = "环境声分类:为不属于语音或音乐的环境声短音频片段(如狗吠、警笛、下雨声)分配类别标签的任务。",
term_es = "clasificación de sonidos ambientales",
term_zh = "环境声分类",
aliases_es = { "ESC", "reconocimiento de sonidos ambientales", "clasificación de sonidos del entorno" },
aliases_zh = { "ESC", "环境声音分类", "环境声识别" },
}
data["envy-free fairness"] = {
short = "An individual-fairness criterion borrowed from fair division: no individual should prefer the prediction or allocation given to another individual over their own when both are evaluated on the recipient's utility.",
article = nil,
aliases = { "envy-freeness", "envy-free criterion", "no-envy fairness" },
es = "Criterio de equidad individual tomado de la división justa: ningún individuo debería preferir la predicción o asignación dada a otro individuo sobre la propia, evaluadas ambas según la utilidad del receptor.",
zh = "源自公平分配理论的个体公平性准则:当以接收者的效用评估时,任何个体都不应更偏好分配给他人的预测或分配结果而非自己的结果。",
term_es = "equidad sin envidia",
term_zh = "无嫉妒公平性",
aliases_es = { "ausencia de envidia", "criterio sin envidia", "no envidia" },
aliases_zh = { "无嫉妒性", "无羡慕公平", "无嫉妒准则" },
}
data["enzyme design"] = {
short = "The computational engineering of protein sequences and active sites that catalyze a desired chemical transformation, increasingly driven by deep-learning models such as ProteinMPNN, RFdiffusion, and ESM-based scoring.",
article = nil,
aliases = { "computational enzyme design", "de novo enzyme design", "enzyme engineering", "catalyst design" },
es = "Ingeniería computacional de secuencias proteicas y sitios activos que catalizan una transformación química deseada, cada vez más impulsada por modelos de aprendizaje profundo como ProteinMPNN, RFdiffusion o puntuaciones basadas en ESM.",
zh = "对催化目标化学反应的蛋白质序列与活性位点进行计算工程设计,近年来越来越多地由 ProteinMPNN、RFdiffusion 以及基于 ESM 的打分等深度学习模型驱动。",
term_es = "diseño de enzimas",
term_zh = "酶设计",
aliases_es = { "diseño computacional de enzimas", "diseño de novo de enzimas", "ingeniería de enzimas" },
aliases_zh = { "酶的计算设计", "从头酶设计", "酶工程" },
}
data["eos token"] = {
short = "An end-of-sequence token appended to outputs to signal that generation should stop in autoregressive language models, also used during training to mark sequence boundaries.",
article = nil,
aliases = { "<eos>", "EOS", "EOS token", "end of sequence", "end-of-sequence", "</s>" },
es = "Token de fin de secuencia que se añade a las salidas para señalar que la generación debe detenerse en modelos de lenguaje autorregresivos; también se usa durante el entrenamiento para marcar los límites de las secuencias.",
zh = "序列结束 token,在自回归语言模型中附加在输出末尾以表示生成应当停止,也在训练中用于标记序列边界。",
term_es = "token EOS",
term_zh = "EOS token",
aliases_es = { "<eos>", "EOS", "token de fin de secuencia", "</s>" },
aliases_zh = { "<eos>", "EOS", "结束标记", "序列结束标记", "</s>" },
}
data["epigenetic clock"] = {
short = "A predictor of biological age built from DNA methylation levels at a selected set of CpG sites, with established versions including Horvath's pan-tissue clock, Hannum's blood clock, GrimAge, and PhenoAge.",
article = nil,
aliases = { "DNA methylation clock", "methylation clock", "DNAm age", "Horvath clock", "biological age clock" },
es = "Predictor de edad biológica construido a partir de los niveles de metilación del ADN en un conjunto seleccionado de sitios CpG, con versiones consolidadas como el reloj pan-tejido de Horvath, el reloj sanguíneo de Hannum, GrimAge y PhenoAge.",
zh = "一种基于选定 CpG 位点 DNA 甲基化水平构建的生物学年龄预测器,常见版本包括 Horvath 跨组织时钟、Hannum 血液时钟、GrimAge 和 PhenoAge。",
term_es = "reloj epigenético",
term_zh = "表观遗传时钟",
aliases_es = { "reloj de metilación del ADN", "reloj de Horvath", "edad DNAm" },
aliases_zh = { "DNA 甲基化时钟", "甲基化时钟", "Horvath 时钟", "DNAm 年龄" },
}
data["episodic training"] = {
short = "A training paradigm common in meta-learning and few-shot learning where each training step samples a small task (episode) consisting of a support set and a query set, mirroring the few-shot evaluation protocol.",
article = nil,
aliases = { "episode-based training", "episodic learning", "episode sampling" },
es = "Paradigma de entrenamiento habitual en metaaprendizaje y aprendizaje con pocos ejemplos, en el que cada paso muestrea una tarea pequeña (episodio) compuesta por un conjunto de soporte y uno de consulta, replicando el protocolo de evaluación few-shot.",
zh = "元学习和少样本学习中常见的训练范式,每个训练步骤从支持集和查询集组成的小任务(情节)中采样,以模拟少样本评估协议。",
term_es = "entrenamiento episódico",
term_zh = "情节式训练",
aliases_es = { "aprendizaje episódico" },
aliases_zh = { "情节训练", "episodic训练" },
}
data["epistemic uncertainty"] = {
short = "Uncertainty due to limited knowledge of the model or data — what could in principle be reduced by collecting more data — as opposed to irreducible noise in the observations.",
article = nil,
aliases = { "model uncertainty", "reducible uncertainty", "knowledge uncertainty", "systematic uncertainty" },
es = "Incertidumbre debida al conocimiento limitado del modelo o de los datos —que en principio podría reducirse recopilando más datos—, en contraposición al ruido irreducible de las observaciones.",
zh = "由于对模型或数据了解有限而产生的不确定性——原则上可以通过收集更多数据来减少——与观测中不可约的噪声相对。",
term_es = "incertidumbre epistémica",
term_zh = "认知不确定性",
aliases_es = { "incertidumbre del modelo", "incertidumbre reducible", "incertidumbre de conocimiento", "incertidumbre sistemática" },
aliases_zh = { "模型不确定性", "可约不确定性", "知识不确定性", "系统不确定性" },
}
data["epitope prediction"] = {
short = "The computational identification of protein regions recognized by antibodies or T-cell receptors, used to guide vaccine design, antibody discovery, and immunogenicity assessment.",
article = nil,
aliases = { "B-cell epitope prediction", "T-cell epitope prediction", "epitope mapping prediction", "antigenic site prediction" },
es = "Identificación computacional de las regiones de una proteína reconocidas por anticuerpos o receptores de células T, utilizada para guiar el diseño de vacunas, el descubrimiento de anticuerpos y la evaluación de inmunogenicidad.",
zh = "通过计算方法识别被抗体或 T 细胞受体识别的蛋白质区域,用于指导疫苗设计、抗体发现及免疫原性评估。",
term_es = "predicción de epítopos",
term_zh = "表位预测",
aliases_es = { "predicción de epítopos B", "predicción de epítopos T", "mapeo de epítopos" },
aliases_zh = { "B 细胞表位预测", "T 细胞表位预测", "抗原位点预测" },
}
data["epoch"] = {
short = "One complete pass of the training algorithm over the entire training dataset; training is typically run for multiple epochs until validation performance stops improving.",
article = nil,
aliases = { "epochs", "training epoch", "pass over the data" },
es = "Una pasada completa del algoritmo de entrenamiento sobre todo el conjunto de datos de entrenamiento; el entrenamiento suele ejecutarse durante varias épocas hasta que el rendimiento en validación deja de mejorar.",
zh = "训练算法对整个训练数据集完成一次完整遍历;训练通常持续多个 epoch,直到验证集性能不再提升。",
term_es = "época",
term_zh = "训练轮次",
aliases_es = { "épocas", "época de entrenamiento", "pasada completa" },
aliases_zh = { "epoch", "迭代轮次", "训练轮", "轮次" },
}
data["epsilon prediction"] = {
short = "A diffusion model parameterization in which the network is trained to predict the noise epsilon added to a clean sample at a given timestep, as opposed to predicting the clean sample x0 or the velocity v.",
article = nil,
aliases = { "epsilon-prediction", "ε-prediction", "noise prediction", "eps-prediction", "epsilon parameterization" },
es = "Parametrización de modelos de difusión en la que la red se entrena para predecir el ruido épsilon añadido a una muestra limpia en un instante dado, en lugar de predecir la muestra limpia x0 o la velocidad v.",
zh = "扩散模型的一种参数化方式,网络被训练去预测在某一时间步加到干净样本上的噪声 ε,而非预测干净样本 x0 或速度 v。",
term_es = "predicción de épsilon",
term_zh = "ε 预测",
aliases_es = { "predicción de ruido", "parametrización ε" },
aliases_zh = { "噪声预测", "epsilon 预测" },
}
data["epsilon-greedy"] = {
short = "An action-selection strategy that picks the greedy (estimated-best) action with probability 1 minus epsilon and a uniformly random action with probability epsilon, providing a simple balance between exploration and exploitation.",
article = nil,
aliases = { "ε-greedy", "epsilon greedy", "eps-greedy", "epsilon-greedy policy", "ε-greedy policy" },
es = "Estrategia de selección de acciones que elige la acción voraz (la mejor estimada) con probabilidad 1 menos epsilon y una acción aleatoria uniforme con probabilidad epsilon, proporcionando un equilibrio sencillo entre exploración y explotación.",
zh = "一种动作选择策略,以 1 减 epsilon 的概率选择贪心(估计最优)动作,以 epsilon 的概率均匀随机地选择动作,从而在探索与利用之间提供简单的平衡。",
term_es = "epsilon-greedy",
term_zh = "ε-贪心",
aliases_es = { "ε-greedy", "voraz con epsilon" },
aliases_zh = { "epsilon-greedy", "ε-greedy", "ε 贪心策略" },
}
data["equal aggregation"] = {
short = "A federated aggregation rule that averages client updates with equal weights regardless of dataset size, in contrast to FedAvg's data-size-weighted average; useful when client samples are similarly representative.",
article = nil,
aliases = { "uniform aggregation", "equal-weight aggregation", "uniform averaging FL" },
es = "Agregación equitativa: regla de agregación en aprendizaje federado que promedia las actualizaciones de los clientes con pesos iguales sin tener en cuenta el tamaño del conjunto de datos, a diferencia del promedio ponderado de FedAvg; útil cuando las muestras de los clientes son igualmente representativas.",
zh = "等权聚合:一种联邦聚合规则,对客户端更新按相同权重求平均,而不像 FedAvg 那样按数据量加权;适用于各客户端样本代表性相近的情形。",
term_es = "agregación equitativa",
term_zh = "等权聚合",
aliases_es = { "agregación uniforme", "promediado uniforme" },
aliases_zh = { "均匀聚合", "等权重聚合" },
}
data["equal error rate"] = {
short = "The operating point of a binary detection system at which the false acceptance rate equals the false rejection rate; commonly reported for speaker, face, and biometric verification.",
article = nil,
aliases = { "EER", "crossover error rate", "CER (biometrics)" },
es = "Punto de operación de un sistema de detección binaria en el que la tasa de falsa aceptación iguala a la de falso rechazo; se utiliza habitualmente para reportar resultados de verificación de hablante, facial y biométrica.",
zh = "等错误率:二元检测系统中误接受率与误拒绝率相等的工作点;常用于报告说话人、人脸和生物特征验证的性能。",
term_es = "tasa de error igual",
term_zh = "等错误率",
aliases_es = { "EER", "tasa de error de cruce" },
aliases_zh = { "EER", "等误率", "交叉错误率" },
}
data["equal opportunity"] = {
short = "A group-fairness criterion (Hardt, Price, Srebro 2016) requiring equal true-positive rates across protected groups conditional on the positive label. A relaxation of equalized odds that constrains only the positive class.",
article = nil,
aliases = { "equal opportunity fairness", "equal-opportunity criterion", "TPR parity", "true-positive-rate parity" },
es = "Criterio de equidad grupal (Hardt, Price, Srebro 2016) que exige tasas iguales de verdaderos positivos entre grupos protegidos, condicional a la etiqueta positiva. Es una relajación de las probabilidades igualadas que restringe solo la clase positiva.",
zh = "一种群体公平性准则(Hardt、Price、Srebro 2016),要求在正标签条件下各受保护群体的真阳性率相等。它是均等机率的一种放宽形式,仅对正类施加约束。",
term_es = "igualdad de oportunidades",
term_zh = "机会均等",
aliases_es = { "equidad de oportunidad", "paridad de TPR", "paridad de tasa de verdaderos positivos" },
aliases_zh = { "机会平等", "真阳性率均等", "TPR 均等" },
}
data["equality of opportunity"] = {
short = "Both a political-philosophy ideal that life prospects should depend on effort and choice rather than circumstance, and (in ML) a synonym for the Hardt-Price-Srebro equal-opportunity criterion of true-positive-rate parity across protected groups.",
article = nil,
aliases = { "equality-of-opportunity criterion", "equal opportunity in supervised learning", "Hardt equality of opportunity" },
es = "Tanto un ideal de la filosofía política según el cual las perspectivas de vida deben depender del esfuerzo y la elección y no de las circunstancias, como (en ML) sinónimo del criterio de igualdad de oportunidades de Hardt-Price-Srebro: paridad de la tasa de verdaderos positivos entre grupos protegidos.",
zh = "既是一种政治哲学理想,认为人生境遇应取决于个人努力与选择而非客观环境;在机器学习中也用作 Hardt-Price-Srebro 提出的『机会均等』准则的同义词,即受保护群体间的真阳性率均等。",
term_es = "igualdad de oportunidades",
term_zh = "机会平等",
aliases_es = { "criterio de igualdad de oportunidades", "igualdad de oportunidad en aprendizaje supervisado" },
aliases_zh = { "机会均等", "监督学习中的机会平等", "Hardt 机会平等" },
}
data["equalized odds"] = {
short = "A group-fairness criterion (Hardt, Price, Srebro 2016) requiring that both true-positive and false-positive rates be equal across protected groups, i.e. the prediction is conditionally independent of the protected attribute given the true label.",
article = nil,
aliases = { "equalised odds", "equal odds", "equal-odds fairness", "TPR-FPR parity" },
es = "Criterio de equidad grupal (Hardt, Price, Srebro 2016) que exige que tanto las tasas de verdaderos positivos como las de falsos positivos sean iguales entre grupos protegidos, es decir, que la predicción sea condicionalmente independiente del atributo protegido dada la etiqueta verdadera.",
zh = "一种群体公平性准则(Hardt、Price、Srebro 2016),要求各受保护群体的真阳性率与假阳性率均相等,即在给定真实标签的条件下,预测与受保护属性条件独立。",
term_es = "probabilidades igualadas",
term_zh = "均等机率",
aliases_es = { "odds igualados", "equal odds", "paridad TPR-FPR", "igualdad de odds" },
aliases_zh = { "均衡机率", "均等几率", "均衡几率", "TPR-FPR 均等" },
}
data["equalized odds postprocessing"] = {
short = "A post-hoc fairness method (Hardt et al. 2016) that derives group-specific decision thresholds — possibly randomized — from a pretrained scorer so that the resulting classifier satisfies equalized odds without retraining the model.",
article = nil,
aliases = { "Hardt postprocessing", "equalized-odds post-processing", "equal odds postprocessing", "post-hoc equalized odds" },
es = "Método de equidad posterior al entrenamiento (Hardt et al. 2016) que deriva umbrales de decisión específicos por grupo — posiblemente aleatorizados — a partir de un clasificador preentrenado, de modo que el clasificador resultante satisfaga las probabilidades igualadas sin reentrenar el modelo.",
zh = "一种后处理公平性方法(Hardt 等 2016),从预训练评分器派生出可能随机化的、按群体设定的决策阈值,使得到的分类器在不重训模型的情况下满足均等机率。",
term_es = "post-procesamiento de probabilidades igualadas",
term_zh = "均等机率后处理",
aliases_es = { "post-procesamiento de Hardt", "post-procesamiento de equal odds", "postprocesamiento de odds igualados" },
aliases_zh = { "Hardt 后处理", "均衡机率后处理", "均等几率后处理" },
}
data["equation discovery"] = {
short = "The automated search for symbolic mathematical expressions, typically equations or differential equations, that fit observed data, often combining sparse regression, genetic programming, or neural symbolic-regression models.",
article = nil,
aliases = { "symbolic equation discovery", "scientific equation discovery", "equation learning", "data-driven equation discovery", "symbolic regression for equations" },
es = "La búsqueda automatizada de expresiones matemáticas simbólicas, típicamente ecuaciones o ecuaciones diferenciales, que se ajusten a datos observados, combinando a menudo regresión dispersa, programación genética o modelos neuronales de regresión simbólica.",
zh = "对能拟合观测数据的符号数学表达式(通常是方程或微分方程)的自动化搜索,常结合稀疏回归、遗传规划或神经符号回归模型。",
term_es = "descubrimiento de ecuaciones",
term_zh = "方程发现",
aliases_es = { "descubrimiento simbólico de ecuaciones", "descubrimiento científico de ecuaciones", "aprendizaje de ecuaciones" },
aliases_zh = { "符号方程发现", "科学方程发现", "数据驱动的方程发现", "面向方程的符号回归" },
}
data["equibind"] = {
short = "A geometric deep-learning model (Stärk et al., 2022) that predicts the binding pose of a ligand to a rigid protein in a single forward pass, using SE(3)-equivariant graph matching instead of iterative search.",
article = nil,
aliases = { "EquiBind", "EquiBind model", "EquiBind docking", "Stärk EquiBind" },
es = "Modelo de aprendizaje profundo geométrico (Stärk et al., 2022) que predice la pose de unión de un ligando a una proteína rígida en una sola pasada hacia adelante, mediante emparejamiento de grafos equivariante SE(3) en lugar de búsqueda iterativa.",
zh = "一种几何深度学习模型(Stärk 等,2022),通过 SE(3) 等变图匹配在单次前向计算中预测配体与刚性蛋白的结合构象,无需迭代搜索。",
term_es = "EquiBind",
term_zh = "EquiBind",
aliases_es = { "EquiBind", "modelo EquiBind", "acoplamiento EquiBind" },
aliases_zh = { "EquiBind", "EquiBind 模型", "EquiBind 对接" },
}
data["equity audit"] = {
short = "A structured review of an algorithmic system's data, model, and outcomes to identify and document disparities across protected or vulnerable groups, typically producing recommendations and remediation steps.",
article = nil,
aliases = { "fairness audit", "algorithmic equity audit", "AI equity audit" },
es = "Revisión estructurada de los datos, el modelo y los resultados de un sistema algorítmico para identificar y documentar disparidades entre grupos protegidos o vulnerables, que suele generar recomendaciones y pasos de remediación.",
zh = "对算法系统的数据、模型与结果进行结构化审查,识别并记录受保护或弱势群体之间的差异,通常会产生建议与整改措施。",
term_es = "auditoría de equidad",
term_zh = "公平性审计",
aliases_es = { "auditoría algorítmica de equidad", "auditoría de IA por equidad" },
aliases_zh = { "公平审计", "算法公平性审计", "AI 公平性审计" },
}
data["equity gap"] = {
short = "A quantified disparity between groups in an outcome of interest (e.g. acceptance rate, model accuracy, healthcare access). Used both as a diagnostic and as a target for closure through policy or model intervention.",
article = nil,
aliases = { "fairness gap", "outcome gap", "disparity gap" },
es = "Disparidad cuantificada entre grupos en un resultado de interés (tasa de aceptación, precisión del modelo, acceso a la salud). Se usa tanto como diagnóstico como objetivo a cerrar mediante intervenciones de política o modelo.",
zh = "在所关注的结果(如录取率、模型准确率、医疗可及性)上群体之间的量化差距,既作为诊断指标,也作为通过政策或模型干预加以缩小的目标。",
term_es = "brecha de equidad",
term_zh = "公平差距",
aliases_es = { "brecha de equidad de resultados", "brecha de disparidad" },
aliases_zh = { "公平性差距", "结果差距", "差距指标" },
}
data["equity-aware allocation"] = {
short = "Resource-allocation algorithms whose objective explicitly includes an equity term — typically penalizing inequality across recipients or weighting underserved groups — in addition to or instead of pure efficiency.",
article = nil,
aliases = { "equity-aware resource allocation", "fairness-aware allocation", "equitable allocation" },
es = "Algoritmos de asignación de recursos cuyo objetivo incluye explícitamente un término de equidad — típicamente penalizando la desigualdad entre los receptores o ponderando a grupos desatendidos — además o en lugar de la eficiencia pura.",
zh = "在目标函数中显式包含公平项的资源分配算法,通常会对受益者之间的不平等进行惩罚或对服务不足群体加权,与纯效率目标共同作用或取而代之。",
term_es = "asignación consciente de la equidad",
term_zh = "公平感知分配",
aliases_es = { "asignación equitativa", "asignación con conciencia de equidad", "asignación con equidad" },
aliases_zh = { "公平意识分配", "面向公平的资源分配", "公平性感知分配" },
}
data["equity-by-design"] = {
short = "A design philosophy that incorporates equity considerations — stakeholder consultation, disaggregated impact assessment, mitigation choices — at every stage of an AI system's lifecycle rather than as a post-hoc compliance step.",
article = nil,
aliases = { "equity by design", "fairness by design", "equity-centered design" },
es = "Filosofía de diseño que incorpora consideraciones de equidad — consulta a partes interesadas, evaluación de impacto desagregada, decisiones de mitigación — en cada etapa del ciclo de vida de un sistema de IA, en lugar de tratarlas como un paso de cumplimiento posterior.",
zh = "一种设计理念,将公平性考量——利益相关者咨询、分组影响评估、缓解决策——融入人工智能系统生命周期的每个阶段,而不是作为事后合规步骤。",
term_es = "equidad por diseño",
term_zh = "设计即公平",
aliases_es = { "equidad desde el diseño", "diseño con equidad", "equidad-centrada en el diseño" },
aliases_zh = { "公平即设计", "公平性内嵌设计", "公平为本设计" },
}
data["equivalence class"] = {
short = "In causal discovery, the set of directed acyclic graphs that are observationally indistinguishable, sharing the same skeleton and v-structures and represented by a completed partially directed acyclic graph (CPDAG).",
article = nil,
aliases = { "Markov equivalence class", "MEC", "CPDAG class" },
es = "En descubrimiento causal, conjunto de grafos acíclicos dirigidos observacionalmente indistinguibles, que comparten el mismo esqueleto y v-estructuras y se representan mediante un grafo parcialmente dirigido acíclico completado (CPDAG).",
zh = "因果发现中,观测上无法区分的有向无环图集合,它们具有相同的骨架与 v 结构,可由完备部分有向无环图(CPDAG)表示。",
term_es = "clase de equivalencia",
term_zh = "等价类",
aliases_es = { "clase de equivalencia de Markov", "MEC", "clase CPDAG" },
aliases_zh = { "马尔可夫等价类", "MEC", "CPDAG 类" },
}
data["equivalence class of bayesian networks"] = {
short = "The set of directed acyclic graphs that encode the same conditional independence statements; two DAGs are Markov equivalent iff they share the same skeleton and v-structures, and the class is uniquely represented by its essential (CPDAG) graph.",
article = nil,
aliases = { "Markov equivalence class", "MEC", "DAG equivalence class", "Markov-equivalent DAGs", "equivalence class of DAGs" },
es = "El conjunto de grafos dirigidos acíclicos que codifican las mismas afirmaciones de independencia condicional; dos DAG son Markov-equivalentes si y solo si comparten el mismo esqueleto y las mismas v-estructuras, y la clase se representa de forma única por su grafo esencial (CPDAG).",
zh = "编码相同条件独立性断言的有向无环图集合;两幅 DAG 当且仅当骨架与 v 结构相同时是马尔可夫等价的,该等价类由其本质图(CPDAG)唯一表示。",
term_es = "clase de equivalencia de redes bayesianas",
term_zh = "贝叶斯网络等价类",
aliases_es = { "clase de equivalencia de Markov", "MEC", "clase de equivalencia de DAG" },
aliases_zh = { "马尔可夫等价类", "MEC", "DAG 等价类" },
}
data["equivalent sample size"] = {
short = "A hyperparameter of conjugate Dirichlet priors over Bayesian network parameters that quantifies, in number of pseudo-observations, how strongly the prior pulls posterior estimates; smaller values yield more data-driven estimates.",
article = nil,
aliases = { "ESS", "prior equivalent sample size", "imaginary sample size", "Dirichlet equivalent sample size", "alpha-ESS" },
es = "Un hiperparámetro de las previas Dirichlet conjugadas sobre los parámetros de una red bayesiana que cuantifica, en número de pseudo-observaciones, cuán fuertemente la previa atrae las estimaciones posteriores; valores menores producen estimaciones más guiadas por los datos.",
zh = "贝叶斯网络参数共轭 Dirichlet 先验的一个超参数,用伪观测数量化先验对后验估计的牵引强度;数值越小,后验越由数据主导。",
term_es = "tamaño de muestra equivalente",
term_zh = "等效样本量",
aliases_es = { "ESS de la previa", "tamaño muestral equivalente", "tamaño imaginario de muestra" },
aliases_zh = { "等价样本量", "先验等效样本量", "想象样本量" },
}
data["equivariant diffusion model"] = {
short = "A diffusion generative model whose denoising network is equivariant to a symmetry group (typically E(3) or SE(3)), so that generated 3D structures such as molecules or proteins respect rotation and translation symmetries.",
article = nil,
aliases = { "equivariant diffusion", "EDM", "E(3)-equivariant diffusion model", "SE(3)-equivariant diffusion model", "equivariant denoising diffusion" },
es = "Modelo generativo por difusión cuya red de denoising es equivariante a un grupo de simetría (típicamente E(3) o SE(3)), de modo que las estructuras 3D generadas, como moléculas o proteínas, respetan las simetrías de rotación y traslación.",
zh = "一种扩散生成模型,其去噪网络对某个对称群(通常为 E(3) 或 SE(3))保持等变,从而使生成的分子、蛋白质等三维结构遵循旋转和平移对称性。",
term_es = "modelo de difusión equivariante",
term_zh = "等变扩散模型",
aliases_es = { "difusión equivariante", "EDM", "modelo de difusión equivariante E(3)" },
aliases_zh = { "等变扩散", "EDM", "E(3) 等变扩散模型" },
}
data["equivariant flow matching"] = {
short = "A flow-matching generative method whose continuous-time vector field is equivariant under a chosen symmetry group, enabling efficient generation of 3D molecular and protein structures with built-in geometric symmetries.",
article = nil,
aliases = { "equivariant flow-matching", "E(3)-equivariant flow matching", "SE(3)-equivariant flow matching", "geometric flow matching" },
es = "Método generativo de flow matching cuyo campo vectorial en tiempo continuo es equivariante bajo un grupo de simetría elegido, lo que permite generar estructuras 3D moleculares y proteicas con simetrías geométricas incorporadas.",
zh = "一种流匹配生成方法,其连续时间向量场对所选对称群保持等变,从而高效生成具有内置几何对称性的分子和蛋白质三维结构。",
term_es = "flow matching equivariante",
term_zh = "等变流匹配",
aliases_es = { "emparejamiento de flujos equivariante", "flow-matching equivariante", "flow matching geométrico" },
aliases_zh = { "等变流配", "几何流匹配", "E(3) 等变流匹配" },
}
data["equivariant graph neural network"] = {
short = "A graph neural network whose internal representations and outputs transform consistently under a symmetry group (typically E(3) or SE(3)) acting on node coordinates, used extensively for molecular and structural data.",
article = nil,
aliases = { "equivariant GNN", "E(3)-equivariant GNN", "SE(3)-equivariant GNN", "EGNN", "geometric equivariant neural network" },
es = "Red neuronal de grafos cuyas representaciones internas y salidas se transforman de manera consistente bajo un grupo de simetría (típicamente E(3) o SE(3)) que actúa sobre las coordenadas de los nodos; ampliamente utilizada para datos moleculares y estructurales.",
zh = "一种图神经网络,其内部表示与输出在作用于节点坐标的对称群(通常为 E(3) 或 SE(3))下保持一致变换,被广泛用于分子和结构数据。",
term_es = "red neuronal de grafos equivariante",
term_zh = "等变图神经网络",
aliases_es = { "GNN equivariante", "red de grafos equivariante E(3)", "red neuronal geométrica equivariante" },
aliases_zh = { "等变 GNN", "E(3) 等变图神经网络", "几何等变神经网络" },
}
data["equivariant transformer"] = {
short = "A Transformer architecture whose attention and feed-forward operations are equivariant to a symmetry group such as E(3) or SE(3), enabling principled handling of 3D molecular and protein inputs.",
article = nil,
aliases = { "SE(3)-Transformer", "SE(3) transformer", "E(3)-equivariant transformer", "geometric transformer", "equivariant attention network" },
es = "Arquitectura tipo Transformer cuyas operaciones de atención y feed-forward son equivariantes bajo un grupo de simetría como E(3) o SE(3), lo que permite tratar de forma consistente entradas moleculares y proteicas en 3D.",
zh = "一种 Transformer 架构,其注意力与前馈运算对 E(3)、SE(3) 等对称群保持等变,能够以合乎物理对称性的方式处理三维分子与蛋白质输入。",
term_es = "Transformer equivariante",
term_zh = "等变 Transformer",
aliases_es = { "SE(3)-Transformer", "Transformer geométrico", "Transformer equivariante E(3)" },
aliases_zh = { "SE(3) Transformer", "几何 Transformer", "E(3) 等变 Transformer" },
}
data["erasure harm"] = {
short = "A representational harm in which a group is rendered invisible by an AI system — through omission from training data, default outputs, taxonomies, or interfaces — denying recognition and downstream service quality.",
article = nil,
aliases = { "erasure", "representational erasure", "invisibility harm" },
es = "Daño representacional por el cual un grupo es invisibilizado por un sistema de IA — mediante su omisión en los datos de entrenamiento, las salidas por defecto, las taxonomías o las interfaces — negándole reconocimiento y calidad de servicio posteriores.",
zh = "一种表征性伤害,指人工智能系统通过在训练数据、默认输出、分类体系或界面中将某一群体排除而使其不可见,剥夺其被识别的机会及后续服务质量。",
term_es = "daño por borrado",
term_zh = "抹除性伤害",
aliases_es = { "borrado representacional", "daño por invisibilización", "borrado" },
aliases_zh = { "抹除", "表征性抹除", "不可见伤害" },
}
data["erasure score"] = {
short = "A quantitative attribution score that measures how much a model's output changes when a specified input feature or token is removed or masked, with larger drops indicating greater importance.",
article = nil,
aliases = { "erasure scores", "feature erasure score", "token erasure score" },
es = "Puntuación cuantitativa de atribución que mide cuánto varía la salida de un modelo al eliminar o enmascarar una variable o token concreto de la entrada; caídas mayores indican mayor importancia.",
zh = "一种定量归因分数,用于度量在移除或遮蔽指定输入特征或 token 时模型输出的变化幅度;变化越大表示该特征越重要。",
term_es = "puntuación de borrado",
term_zh = "擦除分数",
aliases_es = { "puntuación por borrado", "puntuación de borrado de tokens" },
aliases_zh = { "擦除得分", "token 擦除分数" },
}
data["erasure-based attribution"] = {
short = "A family of attribution methods that assign importance to input features by removing or zeroing them and observing the resulting change in the model's prediction. Includes leave-one-out, occlusion, and Comprehensiveness/Sufficiency metrics.",
article = nil,
aliases = { "erasure-based attribution methods", "erasure attribution", "occlusion-based attribution", "leave-one-out attribution" },
es = "Familia de métodos de atribución que asignan importancia a las variables de entrada eliminándolas o anulándolas y observando el cambio resultante en la predicción del modelo. Incluye leave-one-out, oclusión y las métricas de exhaustividad y suficiencia.",
zh = "一类归因方法,通过移除或将输入特征置零并观察模型预测的变化来分配重要性,包括留一法、遮挡法以及完整性/充分性指标。",
term_es = "atribución por borrado",
term_zh = "基于擦除的归因",
aliases_es = { "atribución basada en borrado", "atribución por oclusión" },
aliases_zh = { "擦除归因", "基于遮挡的归因" },
}
data["ergodicity"] = {
short = "A property of a stochastic process under which time averages along a single trajectory converge to ensemble averages; for a Markov chain this means it is irreducible and aperiodic with a unique stationary distribution.",
article = nil,
aliases = { "ergodic", "ergodic property", "ergodic process" },
es = "Propiedad de un proceso estocástico bajo la cual los promedios temporales a lo largo de una única trayectoria convergen a los promedios sobre el conjunto; para una cadena de Markov significa ser irreducible y aperiódica con una distribución estacionaria única.",
zh = "随机过程的一种性质,在该性质下沿单条轨迹的时间平均收敛于集合平均;对马尔可夫链而言意味着不可约、非周期且具有唯一的平稳分布。",
term_es = "ergodicidad",
term_zh = "遍历性",
aliases_es = { "ergódico", "propiedad ergódica", "proceso ergódico" },
aliases_zh = { "各态历经性", "遍历过程", "ergodic" },
}
data["error compensation"] = {
short = "A technique in compressed distributed optimization where the discrepancy between the true gradient and its compressed version is stored locally and added to the next step's gradient, restoring convergence rates of uncompressed SGD.",
article = nil,
aliases = { "error feedback", "error-compensation", "error-feedback compression", "EF" },
es = "Compensación de error: técnica de optimización distribuida con compresión en la que la discrepancia entre el gradiente real y su versión comprimida se almacena localmente y se añade al gradiente del siguiente paso, recuperando las tasas de convergencia del SGD sin compresión.",
zh = "误差补偿:一种压缩分布式优化技术,将真实梯度与其压缩版本之间的差异保存在本地,并加到下一步梯度上,从而恢复未压缩 SGD 的收敛速率。",
term_es = "compensación de error",
term_zh = "误差补偿",
aliases_es = { "retroalimentación de error", "error feedback" },
aliases_zh = { "误差反馈", "压缩误差补偿" },
}
data["error feedback sgd"] = {
short = "Distributed SGD that uses error feedback: each worker compresses its gradient, locally tracks the residual error from compression, and adds this error to the next gradient before compression to preserve convergence.",
article = nil,
aliases = { "error-feedback SGD", "EF-SGD", "SGD with error feedback" },
es = "SGD con retroalimentación de error: variante de SGD distribuido en la que cada trabajador comprime su gradiente, registra localmente el error residual de la compresión y lo añade al gradiente del siguiente paso antes de comprimirlo, preservando la convergencia.",
zh = "带误差反馈的 SGD:一种分布式 SGD 变体,每个工作节点压缩其梯度,本地记录压缩残差,并在下次压缩前将该误差加到下一步梯度上,以保持收敛性。",
term_es = "SGD con retroalimentación de error",
term_zh = "带误差反馈的 SGD",
aliases_es = { "EF-SGD", "SGD con error feedback" },
aliases_zh = { "EF-SGD", "误差反馈随机梯度下降" },
}
data["error rate balance"] = {
short = "A fairness criterion requiring equal classification error rates across protected groups, often decomposed into equal false positive and false negative rates (equalized odds).",
article = nil,
aliases = { "error-rate balance", "balanced error rates", "equal error rates" },
es = "Criterio de equidad que exige tasas de error iguales entre grupos protegidos, a menudo descompuesto en tasas iguales de falsos positivos y falsos negativos.",
zh = "一种公平性准则,要求受保护群体之间的分类错误率相等,通常分解为相等的假阳性率和假阴性率。",
term_es = "balance de tasas de error",
term_zh = "错误率平衡",
aliases_es = { "balance de errores", "tasas de error iguales" },
aliases_zh = { "错误率均衡", "等错误率" },
}
data["esc-50"] = {
short = "A benchmark dataset of 2,000 five-second environmental audio clips labeled across 50 balanced classes, widely used to evaluate environmental sound classification models.",
article = nil,
aliases = { "ESC-50", "ESC50", "ESC-50 dataset" },
es = "Conjunto de datos de referencia con 2.000 clips de audio ambiental de cinco segundos etiquetados en 50 clases balanceadas, ampliamente utilizado para evaluar modelos de clasificación de sonidos ambientales.",
zh = "ESC-50 是一个基准数据集,包含 2 000 段五秒长的环境音频片段,标注于 50 个平衡类别中,广泛用于评估环境声分类模型。",
term_es = "ESC-50",
term_zh = "ESC-50",
aliases_es = { "ESC-50", "conjunto de datos ESC-50" },
aliases_zh = { "ESC-50", "ESC-50 数据集" },
}
data["esm"] = {
short = "Evolutionary Scale Modeling, a family of transformer protein language models from Meta AI (ESM-1b, ESM-2, ESM-3, ESMFold) trained on hundreds of millions of protein sequences and used for representations, structure prediction, and design.",
article = nil,
aliases = { "ESM", "Evolutionary Scale Modeling", "ESM-1b", "ESM-2", "ESM-3", "ESMFold", "Meta protein language model" },
es = "Evolutionary Scale Modeling, una familia de modelos de lenguaje de proteínas basados en transformers de Meta AI (ESM-1b, ESM-2, ESM-3, ESMFold) entrenados en cientos de millones de secuencias proteicas y utilizados para representaciones, predicción de estructura y diseño.",
zh = "Evolutionary Scale Modeling,Meta AI 推出的一系列基于 Transformer 的蛋白质语言模型(ESM-1b、ESM-2、ESM-3、ESMFold),在数亿条蛋白质序列上训练,用于序列表征、结构预测和蛋白质设计。",
term_es = "ESM",
term_zh = "ESM",
aliases_es = { "ESM", "ESM-1b", "ESM-2", "ESM-3", "ESMFold", "modelo de lenguaje de proteínas de Meta" },
aliases_zh = { "ESM", "ESM-1b", "ESM-2", "ESM-3", "ESMFold", "Meta 蛋白质语言模型" },
}
data["esm metagenomic atlas"] = {
short = "A public database of over 600 million predicted protein structures generated by applying ESMFold to metagenomic sequences from the MGnify90 database. Released by Meta AI in 2022, it expands the structural coverage of proteins from environmental and uncultivated organisms.",
article = nil,
aliases = { "ESM Metagenomic Atlas", "ESM Atlas", "ESMAtlas", "ESM metagenomic structure atlas" },
es = "Base de datos pública con más de 600 millones de estructuras proteicas predichas generadas al aplicar ESMFold a secuencias metagenómicas de la base MGnify90. Publicada por Meta AI en 2022, amplía la cobertura estructural de proteínas de organismos ambientales y no cultivados.",
zh = "由 Meta AI 于 2022 年发布的公共数据库,包含通过对 MGnify90 宏基因组数据库的序列运行 ESMFold 得到的 6 亿多个预测蛋白质结构,扩展了来自环境和未培养生物的蛋白质结构覆盖范围。",
term_es = "ESM Metagenomic Atlas",
term_zh = "ESM 宏基因组图谱",
aliases_es = { "Atlas metagenómico ESM", "ESMAtlas" },
aliases_zh = { "ESM Metagenomic Atlas", "ESMAtlas", "ESM 宏基因组结构图谱" },
}
data["esm-1b"] = {
short = "A 650-million-parameter protein language model from Meta AI's Evolutionary Scale Modeling family (Rives et al., 2021), trained with masked language modeling on UniRef50 and widely used for sequence-based protein representations.",
article = nil,
aliases = { "ESM-1b", "ESM1b", "ESM 1b", "Rives ESM-1b" },
es = "Modelo de lenguaje proteico de 650 millones de parámetros de la familia Evolutionary Scale Modeling de Meta AI (Rives et al., 2021), entrenado con modelado de lenguaje enmascarado sobre UniRef50 y ampliamente usado para representaciones proteicas basadas en secuencia.",
zh = "Meta AI Evolutionary Scale Modeling 系列中的 6.5 亿参数蛋白质语言模型(Rives 等,2021),在 UniRef50 上以掩码语言建模训练,被广泛用于基于序列的蛋白质表示。",
term_es = "ESM-1b",
term_zh = "ESM-1b",
aliases_es = { "ESM-1b", "ESM1b" },
aliases_zh = { "ESM-1b", "ESM1b" },
}
data["esm-1v"] = {
short = "A protein language model from the ESM family (Meier et al., 2021) trained on UniRef90 and specialized for zero-shot prediction of variant effects, using masked-marginal log-likelihoods as fitness scores.",
article = nil,
aliases = { "ESM-1v", "ESM1v", "Meier ESM-1v", "ESM 1v" },
es = "Modelo de lenguaje proteico de la familia ESM (Meier et al., 2021), entrenado sobre UniRef90 y especializado en la predicción zero-shot del efecto de variantes, usando log-verosimilitudes marginales enmascaradas como puntuaciones de fitness.",
zh = "ESM 系列中的蛋白质语言模型(Meier 等,2021),在 UniRef90 上训练,专门用于变异效应的零样本预测,以掩码边际对数似然作为适应度评分。",
term_es = "ESM-1v",
term_zh = "ESM-1v",
aliases_es = { "ESM-1v", "ESM1v" },
aliases_zh = { "ESM-1v", "ESM1v" },
}
data["esm-2"] = {
short = "The second generation of Meta AI's protein language model family (Lin et al., 2023), scaled up to 15 billion parameters and trained with masked language modeling on UniRef; the structural backbone of ESMFold.",
article = nil,
aliases = { "ESM-2", "ESM2", "ESM 2", "Lin ESM-2", "ESM-2 protein language model" },
es = "Segunda generación de la familia de modelos de lenguaje proteico de Meta AI (Lin et al., 2023), escalada hasta 15 mil millones de parámetros y entrenada con modelado de lenguaje enmascarado sobre UniRef; constituye la columna vertebral estructural de ESMFold.",
zh = "Meta AI 蛋白质语言模型系列的第二代(Lin 等,2023),参数规模扩展至 150 亿,在 UniRef 上以掩码语言建模训练,是 ESMFold 的核心骨干。",
term_es = "ESM-2",
term_zh = "ESM-2",
aliases_es = { "ESM-2", "ESM2" },
aliases_zh = { "ESM-2", "ESM2" },
}
data["esm-3"] = {
short = "A multimodal generative protein model from EvolutionaryScale (Hayes et al., 2024) that jointly tokenizes sequence, structure, and function, enabling controllable generation and editing of proteins via prompted reasoning.",
article = nil,
aliases = { "ESM-3", "ESM3", "ESM 3", "EvolutionaryScale ESM-3", "ESM3 model" },
es = "Modelo proteico generativo multimodal de EvolutionaryScale (Hayes et al., 2024) que tokeniza conjuntamente secuencia, estructura y función, permitiendo la generación y edición controlables de proteínas mediante razonamiento por prompts.",
zh = "EvolutionaryScale 推出的多模态生成式蛋白模型(Hayes 等,2024),对序列、结构与功能进行联合 token 化,可通过提示推理实现可控的蛋白质生成与编辑。",
term_es = "ESM-3",
term_zh = "ESM-3",
aliases_es = { "ESM-3", "ESM3" },
aliases_zh = { "ESM-3", "ESM3" },
}
data["esm-c"] = {
short = "A compact protein language model released by EvolutionaryScale (2024) as a more efficient successor to ESM-2, achieving comparable representational quality at substantially smaller parameter counts.",
article = nil,
aliases = { "ESM-C", "ESMC", "ESM C", "EvolutionaryScale ESM-C" },
es = "Modelo de lenguaje proteico compacto publicado por EvolutionaryScale (2024) como sucesor más eficiente de ESM-2, que logra una calidad representacional comparable con un número de parámetros sustancialmente menor.",
zh = "EvolutionaryScale 于 2024 年发布的紧凑型蛋白质语言模型,作为 ESM-2 的更高效继任者,在显著更小的参数规模下实现了相当的表征质量。",
term_es = "ESM-C",
term_zh = "ESM-C",
aliases_es = { "ESM-C", "ESMC" },
aliases_zh = { "ESM-C", "ESMC" },
}
data["esm-if"] = {
short = "ESM-IF (inverse folding): a sequence-design model from Meta AI (Hsu et al., 2022) that predicts amino-acid sequences likely to fold into a given protein backbone, trained on AlphaFold-predicted structures.",
article = nil,
aliases = { "ESM-IF", "ESM-IF1", "ESM IF", "ESM inverse folding", "Hsu ESM-IF" },
es = "ESM-IF (plegado inverso): modelo de diseño de secuencias de Meta AI (Hsu et al., 2022) que predice secuencias de aminoácidos con alta probabilidad de plegarse en un esqueleto proteico dado, entrenado sobre estructuras predichas por AlphaFold.",
zh = "ESM-IF(逆折叠):Meta AI 提出的序列设计模型(Hsu 等,2022),预测最可能折叠为给定蛋白主链的氨基酸序列,使用 AlphaFold 预测结构进行训练。",
term_es = "ESM-IF",
term_zh = "ESM-IF",
aliases_es = { "ESM-IF", "ESM-IF1", "plegado inverso ESM" },
aliases_zh = { "ESM-IF", "ESM-IF1", "ESM 逆折叠" },
}
data["esmfold"] = {
short = "A single-sequence protein structure predictor (Lin et al., 2023) built on ESM-2 representations, trading some accuracy for orders-of-magnitude faster inference than AlphaFold2 by skipping multiple sequence alignments.",
article = nil,
aliases = { "ESMFold", "ESM-Fold", "ESM Fold", "Meta ESMFold" },
es = "Predictor de estructura proteica a partir de secuencia única (Lin et al., 2023) construido sobre representaciones de ESM-2, que sacrifica algo de exactitud para ofrecer una inferencia varios órdenes de magnitud más rápida que AlphaFold2 al prescindir de los alineamientos múltiples de secuencias.",
zh = "基于 ESM-2 表示的单序列蛋白质结构预测模型(Lin 等,2023),通过跳过多重序列比对,以略低的精度换取相比 AlphaFold2 数量级的推理加速。",
term_es = "ESMFold",
term_zh = "ESMFold",
aliases_es = { "ESMFold", "ESM-Fold" },
aliases_zh = { "ESMFold", "ESM-Fold" },
}
data["esol dataset"] = {
short = "A benchmark of ~1128 small molecules with measured aqueous solubility (log S) values, introduced by Delaney (2004) and widely used to evaluate molecular property prediction models.",
article = nil,
aliases = { "ESOL", "ESOL benchmark", "Delaney solubility dataset", "Delaney ESOL", "ESOL solubility dataset" },
es = "Conjunto de datos de referencia con aproximadamente 1128 moléculas pequeñas y sus solubilidades acuosas medidas (log S), introducido por Delaney (2004) y ampliamente usado para evaluar modelos de predicción de propiedades moleculares.",
zh = "由 Delaney(2004)提出的小分子水溶解度(log S)基准数据集,约含 1128 个分子,被广泛用于评估分子性质预测模型。",
term_es = "conjunto de datos ESOL",
term_zh = "ESOL 数据集",
aliases_es = { "ESOL", "benchmark ESOL", "conjunto Delaney" },
aliases_zh = { "ESOL", "ESOL 基准", "Delaney 溶解度数据集" },
}
data["espnet"] = {
short = "An open-source end-to-end speech-processing toolkit built on PyTorch supporting ASR, TTS, speech translation, enhancement, and diarization with reproducible recipes.",
article = nil,
aliases = { "ESPnet", "ESPNet", "ESPnet toolkit" },
es = "Kit de herramientas de código abierto para procesamiento del habla de extremo a extremo construido sobre PyTorch, con soporte para ASR, TTS, traducción del habla, mejora y diarización mediante recetas reproducibles.",
zh = "ESPnet 是一个基于 PyTorch 的端到端语音处理开源工具包,支持 ASR、TTS、语音翻译、语音增强和说话人日志,并提供可复现的训练配方。",
term_es = "ESPnet",
term_zh = "ESPnet",
aliases_es = { "ESPnet", "toolkit ESPnet" },
aliases_zh = { "ESPnet", "ESPnet 工具包" },
}
data["essential gene prediction"] = {
short = "The computational task of identifying genes whose loss of function is lethal or causes severe fitness defects in a given organism or cell line, typically using sequence features, evolutionary conservation, network properties, or transfer learning from CRISPR fitness screens.",
article = nil,
aliases = { "essential-gene prediction", "essentiality prediction", "predicting essential genes", "gene essentiality prediction" },
es = "Tarea computacional de identificar genes cuya pérdida de función resulta letal o produce defectos graves de aptitud en un organismo o línea celular, usando habitualmente características de secuencia, conservación evolutiva, propiedades de red o transferencia desde cribados CRISPR de aptitud.",
zh = "通过序列特征、进化保守性、网络属性或迁移自 CRISPR 适应度筛选的方法,识别在特定生物体或细胞系中失活会致死或严重降低适应度的基因的计算任务。",
term_es = "predicción de genes esenciales",
term_zh = "必需基因预测",
aliases_es = { "predicción de esencialidad génica", "identificación computacional de genes esenciales" },
aliases_zh = { "必需基因识别", "基因必需性预测", "essential gene prediction" },
}
data["essential graph"] = {
short = "The unique partially directed acyclic graph (CPDAG) that represents a Markov equivalence class of Bayesian networks: directed edges are those shared by every DAG in the class, and undirected edges are those whose orientation can vary.",
article = nil,
aliases = { "CPDAG", "completed PDAG", "completed partially directed acyclic graph", "pattern graph", "PDAG essential graph" },
es = "El grafo parcialmente dirigido acíclico único (CPDAG) que representa una clase de equivalencia de Markov de redes bayesianas: las aristas dirigidas son las que comparten todos los DAG de la clase y las no dirigidas son aquellas cuya orientación puede variar.",
zh = "唯一表示一组马尔可夫等价贝叶斯网络的部分有向无环图(CPDAG):有向边为该等价类中所有 DAG 共有的边,无向边为方向可变的边。",
term_es = "grafo esencial",
term_zh = "本质图",
aliases_es = { "CPDAG", "PDAG completado", "grafo de patrón" },
aliases_zh = { "CPDAG", "完成部分有向无环图", "模式图" },
}
data["estimating equation"] = {
short = "A moment condition of the form E[ψ(O; θ)] = 0 that defines an estimator implicitly through the empirical equation Σψ(O_i; θ̂) = 0; the foundation of M-estimation and generalized method of moments.",
article = nil,
aliases = { "estimating equations", "moment equation", "M-estimating equation" },
es = "Condición de momento de la forma E[ψ(O; θ)] = 0 que define un estimador implícitamente mediante la ecuación empírica Σψ(O_i; θ̂) = 0; base de la M-estimación y del método generalizado de los momentos.",
zh = "形如 E[ψ(O; θ)] = 0 的矩条件,通过经验方程 Σψ(O_i; θ̂) = 0 隐式定义估计量;是 M 估计与广义矩估计的基础。",
term_es = "ecuación de estimación",
term_zh = "估计方程",
aliases_es = { "ecuaciones de estimación", "ecuación de momentos", "ecuación de M-estimación" },
aliases_zh = { "估计方程组", "矩方程", "M 估计方程" },
}
data["estimator variance"] = {
short = "The variance of an estimator's value across repeated samples drawn from the same distribution, measuring how much its output fluctuates due to sampling noise rather than systematic error.",
article = nil,
aliases = { "variance of an estimator", "sampling variance", "estimator dispersion" },
es = "La varianza del valor de un estimador a lo largo de muestras repetidas extraídas de la misma distribución, que mide cuánto fluctúa su salida debido al ruido de muestreo y no al error sistemático.",
zh = "估计量在从同一分布中重复抽样下其取值的方差,衡量其输出由于抽样噪声而非系统误差所产生的波动程度。",
term_es = "varianza del estimador",
term_zh = "估计量方差",
aliases_es = { "varianza de un estimador", "varianza muestral del estimador" },
aliases_zh = { "估计方差", "估计器方差", "抽样方差" },
}
data["estoi"] = {
short = "Extended Short-Time Objective Intelligibility: an objective metric that predicts the intelligibility of processed speech by correlating short-time temporal envelopes of the clean and degraded signals; an extension of STOI for noise-modulated and reverberant conditions.",
article = nil,
aliases = { "ESTOI", "Extended STOI", "extended short-time objective intelligibility" },
es = "Extended Short-Time Objective Intelligibility: métrica objetiva que predice la inteligibilidad del habla procesada correlacionando envolventes temporales de corto plazo de las señales limpia y degradada; una extensión de STOI para condiciones con ruido modulado y reverberación.",
zh = "扩展短时客观可懂度(ESTOI):通过比较干净信号与受损信号的短时时间包络相关性来预测处理后语音可懂度的客观指标,是 STOI 在调制噪声和混响条件下的扩展。",
term_es = "ESTOI",
term_zh = "ESTOI",
aliases_es = { "ESTOI", "STOI extendido", "inteligibilidad objetiva de corto plazo extendida" },
aliases_zh = { "ESTOI", "扩展 STOI", "扩展短时客观可懂度" },
}
data["ethical ai"] = {
short = "The design, development, and deployment of AI systems guided by moral principles such as fairness, accountability, transparency, privacy, and respect for human autonomy.",
article = nil,
aliases = { "ethical AI", "AI ethics", "ethics in AI", "responsible AI" },
es = "El diseño, desarrollo y despliegue de sistemas de IA guiados por principios morales como la equidad, la rendición de cuentas, la transparencia, la privacidad y el respeto a la autonomía humana.",
zh = "在公平、问责、透明、隐私及尊重人类自主等道德原则指导下的人工智能系统设计、开发与部署。",
term_es = "IA ética",
term_zh = "伦理人工智能",
aliases_es = { "ética de la IA", "inteligencia artificial ética" },
aliases_zh = { "人工智能伦理", "AI 伦理" },
}
data["ethical alignment"] = {
short = "The process of ensuring an AI system's objectives, behaviors, and outputs conform to human moral values and societal norms.",
article = nil,
aliases = { "moral alignment", "value alignment" },
es = "Proceso de garantizar que los objetivos, comportamientos y resultados de un sistema de IA se ajusten a los valores morales humanos y a las normas sociales.",
zh = "确保人工智能系统的目标、行为和输出符合人类道德价值观和社会规范的过程。",
term_es = "alineación ética",
term_zh = "伦理对齐",
aliases_es = { "alineación moral", "alineación de valores" },
aliases_zh = { "道德对齐", "价值观对齐" },
}
data["ethical impact statement"] = {
short = "A document accompanying an AI system or research project that articulates the potential societal, ethical, and human-rights consequences of its deployment.",
article = nil,
aliases = { "ethics impact statement", "broader impact statement" },
es = "Documento que acompaña a un sistema de IA o proyecto de investigación y que articula las posibles consecuencias sociales, éticas y de derechos humanos de su despliegue.",
zh = "随附于人工智能系统或研究项目的文档,阐明其部署可能带来的社会、伦理和人权后果。",
term_es = "declaración de impacto ético",
term_zh = "伦理影响声明",
aliases_es = { "declaración de impacto ético-social", "declaración de impacto más amplio" },
aliases_zh = { "伦理影响陈述", "更广泛影响声明" },
}
data["ethics board"] = {
short = "An institutional committee that reviews AI projects, products, or research for adherence to ethical principles and recommends mitigations or rejections.",
article = nil,
aliases = { "AI ethics board", "ethics committee", "ethics advisory board" },
es = "Comité institucional que revisa proyectos, productos o investigaciones de IA para verificar su cumplimiento de principios éticos y recomienda mitigaciones o rechazos.",
zh = "对人工智能项目、产品或研究进行伦理原则合规审查并提出缓解或拒绝建议的机构委员会。",
term_es = "comité de ética",
term_zh = "伦理委员会",
aliases_es = { "junta de ética", "consejo asesor de ética" },
aliases_zh = { "AI 伦理委员会", "伦理审查委员会" },
}
data["ethics review"] = {
short = "A formal evaluation of an AI system or research project against ethical criteria such as harm, consent, fairness, and societal risk before approval or deployment.",
article = nil,
aliases = { "ethical review", "AI ethics review" },
es = "Evaluación formal de un sistema de IA o proyecto de investigación frente a criterios éticos como daño, consentimiento, equidad y riesgo social antes de su aprobación o despliegue.",
zh = "在批准或部署之前,依据伤害、知情同意、公平性和社会风险等伦理标准对人工智能系统或研究项目进行的正式评估。",
term_es = "revisión ética",
term_zh = "伦理审查",
aliases_es = { "revisión de ética", "evaluación ética" },
aliases_zh = { "伦理评估", "道德审查" },
}
data["etkdg"] = {
short = "Experimental-torsion knowledge distance geometry: a 3D conformer-generation algorithm in RDKit that combines distance-geometry sampling with torsion-angle preferences derived from crystallographic data.",
article = nil,
aliases = { "ETKDG", "ETKDGv2", "ETKDGv3", "experimental-torsion knowledge distance geometry", "experimental torsion knowledge distance geometry" },
es = "Geometría de distancias con conocimiento experimental de torsiones: algoritmo de generación de confórmeros 3D en RDKit que combina muestreo basado en geometría de distancias con preferencias de ángulos de torsión derivadas de datos cristalográficos.",
zh = "实验扭转角知识距离几何:RDKit 中的一种三维构象生成算法,将距离几何采样与源自晶体学数据的扭转角偏好相结合。",
term_es = "ETKDG",
term_zh = "ETKDG",
aliases_es = { "ETKDG", "ETKDGv2", "ETKDGv3", "geometría de distancias con torsiones experimentales" },
aliases_zh = { "ETKDG", "ETKDGv2", "ETKDGv3", "实验扭转知识距离几何" },
}
data["eu ai act"] = {
short = "European Union regulation that classifies AI systems by risk tier (unacceptable, high, limited, minimal) and imposes obligations on providers and deployers, adopted in 2024.",
article = nil,
aliases = { "EU AI Act", "Artificial Intelligence Act", "AI Act", "Regulation (EU) 2024/1689" },
es = "Reglamento de la Unión Europea que clasifica los sistemas de IA por niveles de riesgo (inaceptable, alto, limitado, mínimo) e impone obligaciones a proveedores e implementadores, adoptado en 2024.",
zh = "欧盟法规,按风险等级(不可接受、高、有限、最低)对人工智能系统进行分类,并对提供者和部署者施加义务,于 2024 年通过。",
term_es = "Ley de IA de la UE",
term_zh = "欧盟人工智能法案",
aliases_es = { "Reglamento de IA de la UE", "Ley europea de inteligencia artificial", "Reglamento (UE) 2024/1689" },
aliases_zh = { "欧盟 AI 法案", "人工智能法案", "EU AI Act" },
}
data["euler ancestral"] = {
short = "A stochastic sampler for diffusion models that combines a first-order Euler step with the injection of fresh Gaussian noise at each step, producing more diverse but less reproducible outputs than the deterministic Euler sampler.",
article = nil,
aliases = { "Euler a", "Euler-a", "Euler ancestral sampler", "ancestral Euler" },
es = "Muestreador estocástico para modelos de difusión que combina un paso de Euler de primer orden con la inyección de ruido gaussiano fresco en cada paso, produciendo resultados más diversos pero menos reproducibles que el muestreador Euler determinista.",
zh = "扩散模型的一种随机采样器,在每一步将一阶欧拉步与新注入的高斯噪声相结合,相比确定性 Euler 采样器输出更多样但可复现性更低。",
term_es = "Euler ancestral",
term_zh = "Euler ancestral 采样器",
aliases_es = { "Euler a", "muestreador Euler ancestral" },
aliases_zh = { "Euler a", "祖先 Euler 采样" },
}
data["euler sampler"] = {
short = "A deterministic first-order ODE sampler for diffusion models that integrates the probability flow ODE with Euler's method, producing reproducible samples in a small number of steps.",
article = nil,
aliases = { "Euler", "Euler method sampler", "Euler ODE sampler", "deterministic Euler" },
es = "Muestreador determinista de EDO de primer orden para modelos de difusión que integra la EDO de flujo de probabilidad con el método de Euler, generando muestras reproducibles en pocos pasos.",
zh = "扩散模型的一种确定性一阶 ODE 采样器,使用欧拉方法对概率流 ODE 进行积分,可在少量步数内生成可复现样本。",
term_es = "muestreador Euler",
term_zh = "Euler 采样器",
aliases_es = { "muestreador de Euler", "Euler determinista" },
aliases_zh = { "欧拉采样器", "确定性 Euler" },
}
data["eva-clip"] = {
short = "An improved CLIP-style vision-language model from BAAI that pairs the EVA vision transformer with a CLIP text encoder, achieving stronger zero-shot transfer through better initialization, masked image modeling pretraining, and scaled training recipes.",
article = nil,
aliases = { "EVA-CLIP", "EVA CLIP", "EVA02-CLIP" },
es = "Modelo visión-lenguaje al estilo CLIP mejorado por BAAI que combina el transformer visual EVA con un codificador de texto CLIP, logrando mejor transferencia en cero disparos gracias a una mejor inicialización, preentrenamiento con modelado de imagen enmascarada y recetas de entrenamiento a escala.",
zh = "BAAI提出的改进型CLIP式视觉-语言模型,将EVA视觉Transformer与CLIP文本编码器结合,通过更好的初始化、掩码图像建模预训练和扩展的训练方案,实现更强的零样本迁移性能。",
term_es = "EVA-CLIP",
term_zh = "EVA-CLIP",
aliases_es = { "EVA CLIP", "EVA02-CLIP" },
aliases_zh = { "EVA CLIP", "EVA02-CLIP" },
}
data["evalml"] = {
short = "An open-source AutoML library by Alteryx that automates feature engineering, model selection, and hyperparameter tuning, with a focus on domain-specific objective functions and pipeline interpretability.",
article = nil,
aliases = { "EvalML" },
es = "Biblioteca de AutoML de código abierto de Alteryx que automatiza la ingeniería de características, la selección de modelos y el ajuste de hiperparámetros, con énfasis en funciones objetivo específicas del dominio y la interpretabilidad de los pipelines.",
zh = "由 Alteryx 开发的开源 AutoML 库,自动化特征工程、模型选择和超参数调优,注重领域专用目标函数和管道的可解释性。",
term_es = "EvalML",
term_zh = "EvalML",
aliases_es = { },
aliases_zh = { },
}
data["evaluating attribution"] = {
short = "The task of measuring whether feature-attribution methods accurately reflect a model's decision process, using metrics such as faithfulness, sufficiency, comprehensiveness, sanity checks, and pointing-game accuracy.",
article = nil,
aliases = { "attribution evaluation", "evaluation of attribution methods", "evaluating feature attribution", "attribution method evaluation" },
es = "Tarea consistente en medir si los métodos de atribución de variables reflejan con fidelidad el proceso de decisión de un modelo, utilizando métricas como fidelidad, suficiencia, exhaustividad, pruebas de cordura y precisión de pointing-game.",
zh = "评估特征归因方法是否如实反映模型决策过程的任务,常用指标包括忠实性、充分性、完整性、合理性检查以及 pointing-game 命中率。",
term_es = "evaluación de atribución",
term_zh = "归因评估",
aliases_es = { "evaluación de métodos de atribución", "evaluación de la atribución" },
aliases_zh = { "归因方法评估", "特征归因评估" },
}
data["evaluation bias"] = {
short = "A form of measurement bias arising when benchmarks, test sets, or evaluation protocols disproportionately favor certain groups, model behaviors, or distributions.",
article = nil,
aliases = { "benchmark bias", "test-set bias" },
es = "Forma de sesgo de medición que surge cuando los benchmarks, conjuntos de prueba o protocolos de evaluación favorecen de manera desproporcionada a ciertos grupos, comportamientos o distribuciones.",
zh = "一种测量偏差,当基准、测试集或评估协议不成比例地偏向某些群体、模型行为或数据分布时产生。",
term_es = "sesgo de evaluación",
term_zh = "评估偏差",
aliases_es = { "sesgo en benchmarks", "sesgo del conjunto de prueba" },
aliases_zh = { "基准偏差", "测试集偏差" },
}
data["evaluation budget"] = {
short = "The maximum compute resources (e.g., number of model trainings, total wall-clock time, or GPU hours) allotted to a hyperparameter optimization or neural architecture search run.",
article = nil,
aliases = { "search budget", "compute budget", "trial budget", "training budget" },
es = "Recursos de cómputo máximos (por ejemplo, número de entrenamientos de modelos, tiempo total de reloj u horas de GPU) asignados a una ejecución de optimización de hiperparámetros o búsqueda de arquitecturas neuronales.",
zh = "分配给超参数优化或神经架构搜索运行的最大计算资源(如模型训练次数、总挂钟时间或 GPU 小时数)。",
term_es = "presupuesto de evaluación",
term_zh = "评估预算",
aliases_es = { "presupuesto de búsqueda", "presupuesto de cómputo" },
aliases_zh = { "搜索预算", "计算预算", "试验预算" },
}
data["evasion attack federated"] = {
short = "An attack against a deployed federated model in which an adversary crafts adversarial inputs at inference time to cause misclassification, exploiting the fact that the global model may be trained on heterogeneous, untrusted clients.",
article = nil,
aliases = { "federated evasion attack", "evasion attack on federated learning", "FL evasion attack" },
es = "Ataque de evasión federado: ataque contra un modelo federado desplegado en el que un adversario construye entradas adversarias en tiempo de inferencia para provocar errores de clasificación, aprovechando que el modelo global puede haberse entrenado con clientes heterogéneos y no confiables.",
zh = "联邦逃逸攻击:针对已部署联邦模型的攻击,攻击者在推理阶段构造对抗样本以诱发错误分类,并利用全局模型可能由异构且不可信客户端训练而成的特点。",
term_es = "ataque de evasión federado",
term_zh = "联邦逃逸攻击",
aliases_es = { "ataque de evasión en FL", "evasion attack en aprendizaje federado" },
aliases_zh = { "联邦学习逃逸攻击", "FL 逃逸攻击" },
}
data["event study"] = {
short = "A causal design tracking how an outcome evolves in the periods before and after a treatment event, often estimated via dynamic two-way fixed-effects regressions and used in difference-in-differences with staggered adoption.",
article = nil,
aliases = { "event-study design", "event study regression", "dynamic DiD" },
es = "Diseño causal que rastrea cómo evoluciona un resultado en los periodos antes y después de un evento de tratamiento; se estima frecuentemente mediante regresiones dinámicas de efectos fijos bidireccionales y se utiliza en diferencias en diferencias con adopción escalonada.",
zh = "一种因果研究设计,追踪结果在处置事件前后各时期的演化,通常通过动态双向固定效应回归进行估计,并用于具有错时采纳的差中之差分析。",
term_es = "estudio de eventos",
term_zh = "事件研究",
aliases_es = { "diseño de estudio de eventos", "regresión de estudio de eventos", "DiD dinámico" },
aliases_zh = { "事件研究法", "事件研究设计", "动态 DiD" },
}
data["evidence"] = {
short = "In Bayesian inference, the marginal likelihood P(D) = ∫ P(D|θ) P(θ) dθ — the probability the model assigns to the observed data after integrating out parameters. Used as a Bayesian model-comparison score and approximated by quantities such as the ELBO.",
article = nil,
aliases = { "model evidence", "Bayesian evidence", "marginal likelihood", "P(D)", "Z", "log evidence" },
es = "En inferencia bayesiana, la verosimilitud marginal P(D) = ∫ P(D|θ) P(θ) dθ — la probabilidad que el modelo asigna a los datos observados tras integrar los parámetros. Se usa como puntuación bayesiana para comparar modelos y se aproxima con cantidades como el ELBO.",
zh = "在贝叶斯推断中,边际似然 P(D) = ∫ P(D|θ) P(θ) dθ——模型在对参数积分后赋予观测数据的概率。用作贝叶斯模型比较指标,可由 ELBO 等量近似。",
term_es = "evidencia",
term_zh = "证据",
aliases_es = { "evidencia del modelo", "evidencia bayesiana", "verosimilitud marginal", "P(D)", "log-evidencia" },
aliases_zh = { "模型证据", "贝叶斯证据", "边际似然", "P(D)", "对数证据" },
}
data["evidence lower bound"] = {
short = "A tractable lower bound on the marginal log-likelihood (model evidence), equal to the expected complete-data log-likelihood under a variational distribution minus its KL divergence to the prior; maximizing it is the central objective of variational inference and VAEs.",
article = nil,
aliases = { "ELBO", "variational lower bound", "evidence lower-bound", "negative free energy", "variational free energy" },
es = "Una cota inferior tratable del logaritmo de la verosimilitud marginal (evidencia del modelo), igual a la esperanza del logaritmo de la verosimilitud completa bajo una distribución variacional menos su divergencia KL respecto a la previa; maximizarla es el objetivo central de la inferencia variacional y de los VAE.",
zh = "对边缘对数似然(模型证据)的一种可计算下界,等于变分分布下的完整数据对数似然的期望减去其与先验的 KL 散度;最大化此下界是变分推断和 VAE 的核心目标。",
term_es = "cota inferior de la evidencia",
term_zh = "证据下界",
aliases_es = { "ELBO", "cota variacional", "energía libre variacional negativa" },
aliases_zh = { "ELBO", "变分下界", "变分自由能" },
}
data["evidence propagation"] = {
short = "The process, used in junction-tree and belief propagation algorithms, of incorporating observed values into a graphical model by absorbing them into clique or factor potentials and then propagating the updated information through the network to compute conditional marginals.",
article = nil,
aliases = { "evidence absorption", "evidence entering", "observation propagation", "evidence incorporation" },
es = "El proceso, empleado en los algoritmos de árbol de uniones y de propagación de creencias, mediante el cual los valores observados se incorporan a un modelo gráfico absorbiéndolos en los potenciales de las cliques o factores y propagando luego la información actualizada por la red para calcular marginales condicionales.",
zh = "在联结树和信念传播算法中,将观测值吸收到团或因子势中,并将更新后的信息在网络中传播以计算条件边缘分布的过程。",
term_es = "propagación de evidencia",
term_zh = "证据传播",
aliases_es = { "absorción de evidencia", "incorporación de evidencia" },
aliases_zh = { "证据吸收", "观测传播", "证据合并" },
}
data["evidential classification"] = {
short = "A classification framework in which a network outputs the parameters of a Dirichlet distribution over class probabilities, yielding both predicted class probabilities and an explicit measure of evidential (epistemic) uncertainty in a single forward pass.",
article = nil,
aliases = { "evidential neural network classification", "Dirichlet evidential classification", "EDL classification" },
es = "Marco de clasificación en el que una red genera los parámetros de una distribución Dirichlet sobre las probabilidades de clase, ofreciendo tanto las probabilidades predichas como una medida explícita de incertidumbre evidencial (epistémica) en una sola pasada.",
zh = "一种分类框架,网络输出类别概率上的Dirichlet分布参数,从而在一次前向传播中同时给出预测类别概率和显式的证据(认知)不确定性度量。",
term_es = "clasificación evidencial",
term_zh = "证据分类",
aliases_es = { "clasificación con red evidencial", "clasificación evidencial Dirichlet", "clasificación EDL" },
aliases_zh = { "证据神经网络分类", "Dirichlet证据分类", "EDL分类" },
}
data["evidential deep learning"] = {
short = "A family of deep learning methods, originating with Sensoy et al. (2018), in which the network predicts parameters of a higher-order distribution (e.g. Dirichlet for classification, Normal-Inverse-Gamma for regression) so that aleatoric and epistemic uncertainty can be read off without sampling or ensembling.",
article = nil,
aliases = { "EDL", "evidential learning", "evidential neural networks", "subjective logic deep learning" },
es = "Familia de métodos de deep learning, iniciada por Sensoy et al. (2018), en la que la red predice parámetros de una distribución de orden superior (por ejemplo, Dirichlet en clasificación o Normal-Inversa-Gamma en regresión) de modo que la incertidumbre aleatoria y epistémica se obtienen sin muestreo ni ensembling.",
zh = "一类源于Sensoy等人(2018)的深度学习方法,网络预测高阶分布的参数(如分类中的Dirichlet、回归中的Normal-Inverse-Gamma),从而无需采样或集成即可读取随机性与认知不确定性。",
term_es = "aprendizaje profundo evidencial",
term_zh = "证据深度学习",
aliases_es = { "EDL", "aprendizaje evidencial", "redes neuronales evidenciales", "deep learning de lógica subjetiva" },
aliases_zh = { "EDL", "证据学习", "证据神经网络", "主观逻辑深度学习" },
}
data["evidential regression"] = {
short = "A regression formulation, often via the Deep Evidential Regression of Amini et al. (2020), in which the network outputs the parameters of a Normal-Inverse-Gamma distribution over the target, providing point predictions together with disentangled aleatoric and epistemic variance.",
article = nil,
aliases = { "deep evidential regression", "DER", "evidential neural regression", "NIG evidential regression" },
es = "Formulación de regresión, frecuentemente la Deep Evidential Regression de Amini et al. (2020), en la que la red produce los parámetros de una distribución Normal-Inversa-Gamma sobre el objetivo, ofreciendo predicciones puntuales junto con varianzas aleatoria y epistémica desacopladas.",
zh = "一种回归框架,通常采用Amini等人(2020)的Deep Evidential Regression,网络输出关于目标的Normal-Inverse-Gamma分布参数,提供点预测以及解耦的随机性与认知方差。",
term_es = "regresión evidencial",
term_zh = "证据回归",
aliases_es = { "deep evidential regression", "DER", "regresión neuronal evidencial", "regresión evidencial NIG" },
aliases_zh = { "深度证据回归", "DER", "证据神经回归", "NIG证据回归" },
}
data["evoformer"] = {
short = "The central trunk module of AlphaFold2 (Jumper et al., 2021), a deep stack of attention-based blocks that iteratively refines paired sequence and pair representations to capture co-evolutionary signal.",
article = nil,
aliases = { "Evoformer", "AlphaFold Evoformer", "AlphaFold2 Evoformer", "Evoformer module", "Evoformer block" },
es = "Módulo troncal central de AlphaFold2 (Jumper et al., 2021), una pila profunda de bloques basados en atención que refinan iterativamente representaciones emparejadas de secuencia y de pares para capturar la señal coevolutiva.",
zh = "AlphaFold2(Jumper 等,2021)的核心主干模块,由一系列基于注意力的深层模块构成,迭代精修配对的序列与对表示以捕获共进化信号。",
term_es = "Evoformer",
term_zh = "Evoformer",
aliases_es = { "Evoformer", "Evoformer de AlphaFold", "módulo Evoformer" },
aliases_zh = { "Evoformer", "AlphaFold Evoformer", "Evoformer 模块" },
}
data["evol-instruct"] = {
short = "An instruction-data synthesis method that uses an LLM to iteratively rewrite seed prompts into harder or more diverse versions; introduced in the WizardLM paper to scale up instruction-tuning datasets.",
article = nil,
aliases = { "Evol-Instruct", "Evol Instruct", "EvolInstruct", "WizardLM Evol-Instruct" },
es = "Método de síntesis de datos de instrucción que utiliza un LLM para reescribir iterativamente prompts semilla en versiones más difíciles o diversas; introducido en el artículo de WizardLM para escalar conjuntos de ajuste por instrucciones.",
zh = "一种指令数据合成方法,利用大语言模型迭代地将种子提示改写为更难或更多样的版本;由 WizardLM 论文提出,用于扩展指令微调数据集。",
term_es = "Evol-Instruct",
term_zh = "Evol-Instruct",
aliases_es = { "Evol Instruct" },
aliases_zh = { "Evol Instruct", "进化指令" },
}
data["evolution strategies"] = {
short = "A family of black-box optimization algorithms that maintain a distribution (typically Gaussian) over candidate solutions and iteratively update it using fitness-weighted samples, without requiring gradients of the objective.",
article = nil,
aliases = { "ES", "evolution strategy", "Evolution Strategies", "natural evolution strategies", "NES", "CMA-ES", "covariance matrix adaptation evolution strategy" },
es = "Familia de algoritmos de optimización de caja negra que mantienen una distribución (normalmente gaussiana) sobre soluciones candidatas y la actualizan iterativamente con muestras ponderadas por aptitud, sin requerir gradientes del objetivo.",
zh = "一类黑盒优化算法,维护候选解的分布(通常为高斯分布),通过按适应度加权的样本迭代更新该分布,无需目标函数的梯度。",
term_es = "estrategias evolutivas",
term_zh = "进化策略",
aliases_es = { "ES", "estrategia evolutiva", "CMA-ES" },
aliases_zh = { "ES", "演化策略", "CMA-ES" },
}
data["evolutionary algorithm"] = {
short = "A population-based metaheuristic optimization algorithm inspired by biological evolution, using selection, crossover, and mutation to evolve candidate solutions toward higher fitness.",
article = nil,
aliases = { "EA", "evolutionary algorithms", "genetic algorithm", "GA", "evolutionary computation", "EC" },
es = "Algoritmo de optimización metaheurística basado en poblaciones e inspirado en la evolución biológica, que utiliza selección, cruce y mutación para hacer evolucionar soluciones candidatas hacia mayor aptitud.",
zh = "一种基于种群的元启发式优化算法,受生物进化启发,通过选择、交叉和变异使候选解向更高适应度演化。",
term_es = "algoritmo evolutivo",
term_zh = "进化算法",
aliases_es = { "EA", "algoritmo genético", "AG", "computación evolutiva" },
aliases_zh = { "EA", "遗传算法", "GA", "演化算法", "进化计算" },
}
data["evolutionary nas"] = {
short = "A neural architecture search approach that uses evolutionary algorithms — selection, mutation, and sometimes crossover over architecture encodings — to evolve a population of architectures toward higher validation performance.",
article = nil,
aliases = { "evolutionary NAS", "evolutionary neural architecture search", "neuroevolution", "EvoNAS", "regularized evolution" },
es = "Enfoque de búsqueda de arquitecturas neuronales que utiliza algoritmos evolutivos — selección, mutación y a veces cruce sobre codificaciones de arquitectura — para hacer evolucionar una población de arquitecturas hacia un mejor rendimiento de validación.",
zh = "一种神经架构搜索方法,利用进化算法(在架构编码上的选择、变异以及有时的交叉操作)使架构种群向更高的验证性能演化。",
term_es = "NAS evolutiva",
term_zh = "进化式NAS",
aliases_es = { "búsqueda evolutiva de arquitecturas neuronales", "neuroevolución", "evolución regularizada" },
aliases_zh = { "演化式NAS", "神经进化", "正则化进化" },
}
data["evolutionary scale modeling"] = {
short = "Meta AI's research program on large protein language models (the ESM family), which trains transformers on hundreds of millions of evolutionary protein sequences to learn structural and functional representations.",
article = nil,
aliases = { "ESM", "Evolutionary Scale Modeling", "ESM family", "ESM models", "Meta ESM", "EvolutionaryScale" },
es = "Programa de investigación de Meta AI sobre grandes modelos de lenguaje de proteínas (la familia ESM), que entrena transformers sobre cientos de millones de secuencias proteicas evolutivas para aprender representaciones estructurales y funcionales.",
zh = "Meta AI 关于大规模蛋白质语言模型(ESM 系列)的研究项目,使用数亿条进化蛋白序列训练 Transformer,以学习蛋白的结构与功能表示。",
term_es = "Evolutionary Scale Modeling",
term_zh = "进化规模建模",
aliases_es = { "ESM", "modelado a escala evolutiva", "familia ESM", "modelos ESM" },
aliases_zh = { "ESM", "Evolutionary Scale Modeling", "ESM 系列", "进化尺度建模" },
}
data["evolved gan"] = {
short = "A generative adversarial network whose generator (and sometimes discriminator) architecture is discovered by neural architecture search, often using evolutionary or reinforcement-learning controllers (e.g., AutoGAN, AGAN).",
article = nil,
aliases = { "Evolved GAN", "AutoGAN", "AGAN", "NAS-GAN", "neural architecture search GAN" },
es = "Red generativa adversarial cuya arquitectura del generador (y a veces del discriminador) se descubre mediante búsqueda de arquitecturas neuronales, frecuentemente con controladores evolutivos o de aprendizaje por refuerzo (por ejemplo, AutoGAN, AGAN).",
zh = "通过神经架构搜索(通常采用进化或强化学习控制器,如 AutoGAN、AGAN)发现生成器(有时还包括判别器)架构的生成对抗网络。",
term_es = "GAN evolucionada",
term_zh = "演化GAN",
aliases_es = { "AutoGAN", "GAN basada en NAS" },
aliases_zh = { "AutoGAN", "NAS-GAN", "进化GAN" },
}
data["evolved program search"] = {
short = "An AutoML approach that searches for entire learning algorithms — initialization, gradient computation, optimization steps — by evolving programs over a small set of mathematical primitives, as exemplified by AutoML-Zero.",
article = nil,
aliases = { "AutoML-Zero", "evolutionary program search", "program-level NAS", "algorithm search" },
es = "Enfoque de AutoML que busca algoritmos de aprendizaje completos — inicialización, cálculo de gradientes, pasos de optimización — haciendo evolucionar programas sobre un pequeño conjunto de primitivas matemáticas, como ejemplifica AutoML-Zero.",
zh = "一种 AutoML 方法,通过在少量数学原语上进化程序来搜索完整的学习算法(初始化、梯度计算、优化步骤),AutoML-Zero 是其代表性工作。",
term_es = "búsqueda evolutiva de programas",
term_zh = "演化程序搜索",
aliases_es = { "AutoML-Zero", "búsqueda de algoritmos" },
aliases_zh = { "AutoML-Zero", "算法搜索", "程序级NAS" },
}
data["evolved transformer"] = {
short = "A Transformer architecture variant discovered by evolutionary neural architecture search (So et al., 2019) that achieves better quality-efficiency trade-offs than the original Transformer on machine translation benchmarks.",
article = nil,
aliases = { "Evolved Transformer", "ET" },
es = "Variante de la arquitectura Transformer descubierta mediante búsqueda evolutiva de arquitecturas neuronales (So et al., 2019) que logra mejores compromisos de calidad y eficiencia que el Transformer original en pruebas de traducción automática.",
zh = "由进化式神经架构搜索发现的 Transformer 变体(So 等,2019),在机器翻译基准上比原始 Transformer 取得更优的质量-效率权衡。",
term_es = "Evolved Transformer",
term_zh = "Evolved Transformer",
aliases_es = { "Transformer evolucionado" },
aliases_zh = { "演化Transformer", "进化Transformer" },
}
data["evonorm"] = {
short = "Family of normalization-activation layers discovered via neural architecture search that fuse normalization and nonlinearity into a single op. Improves accuracy at small batch sizes.",
article = nil,
aliases = { "EvoNorm", "Evolving Normalization-Activation Layers" },
es = "Familia de capas de normalización y activación descubierta mediante búsqueda de arquitecturas neuronales que fusiona normalización y no linealidad en una sola operación. Mejora la precisión con batches pequeños.",
zh = "通过神经架构搜索得到的一类归一化-激活融合层,将归一化与非线性合并为单个算子。可在小批量下提升精度。",
term_es = "EvoNorm",
term_zh = "EvoNorm",
aliases_es = { "EvoNorm" },
aliases_zh = { "EvoNorm" },
}
data["exact inference"] = {
short = "Inference algorithms that compute exact marginals or MAP assignments in a probabilistic graphical model—e.g. variable elimination, junction tree, recursive conditioning—whose complexity is exponential in the treewidth of the model.",
article = nil,
aliases = { "exact probabilistic inference", "exact graphical model inference", "exact marginal inference" },
es = "Algoritmos de inferencia que calculan marginales o asignaciones MAP exactas en un modelo gráfico probabilístico —como eliminación de variables, árbol de uniones o conditioning recursivo— cuya complejidad es exponencial en el treewidth del modelo.",
zh = "在概率图模型上精确计算边缘分布或 MAP 配置的推断算法,如变量消去、联结树和递归条件化,其复杂度对模型树宽呈指数增长。",
term_es = "inferencia exacta",
term_zh = "精确推断",
aliases_es = { "inferencia probabilística exacta", "inferencia exacta en modelos gráficos" },
aliases_zh = { "精确推理", "精确概率推断", "图模型精确推断" },
}
data["exact shap"] = {
short = "Exact computation of Shapley values that enumerates all feature coalitions, yielding the unique attribution satisfying the Shapley axioms but with cost exponential in the number of features. Used as ground truth for evaluating SHAP approximations.",
article = nil,
aliases = { "exact SHAP", "exact Shapley values", "exact Shapley value computation" },
es = "Cálculo exacto de valores de Shapley que enumera todas las coaliciones de variables, produciendo la atribución única que satisface los axiomas de Shapley pero con coste exponencial en el número de variables. Se utiliza como verdad de referencia para evaluar aproximaciones SHAP.",
zh = "枚举所有特征联盟以精确计算 Shapley 值的方法,得到满足 Shapley 公理的唯一归因,但代价随特征数指数增长;常作为评估 SHAP 近似方法的真值参考。",
term_es = "SHAP exacto",
term_zh = "精确 SHAP",
aliases_es = { "valores de Shapley exactos", "cálculo exacto de SHAP" },
aliases_zh = { "精确 Shapley 值", "exact SHAP" },
}
data["example-level differential privacy"] = {
short = "A differential-privacy guarantee defined at the granularity of individual training examples: the trained model's distribution changes negligibly when any single example is added, removed, or changed.",
article = nil,
aliases = { "example level DP", "sample-level differential privacy", "record-level DP", "instance-level differential privacy" },
es = "Privacidad diferencial a nivel de ejemplo: garantía de privacidad diferencial definida a la granularidad de ejemplos de entrenamiento individuales; la distribución del modelo entrenado cambia de forma despreciable al añadir, eliminar o modificar un único ejemplo.",
zh = "示例级差分隐私:在单个训练样本粒度上定义的差分隐私保证——添加、删除或修改任意一个样本时,训练得到的模型分布仅有可忽略的变化。",
term_es = "privacidad diferencial a nivel de ejemplo",
term_zh = "示例级差分隐私",
aliases_es = { "DP a nivel de ejemplo", "DP a nivel de muestra", "DP a nivel de registro" },
aliases_zh = { "样本级差分隐私", "记录级差分隐私", "实例级差分隐私" },
}
data["exbert"] = {
short = "An interactive web-based visualization tool for exploring attention patterns and contextual embeddings of BERT and similar transformer encoders. Released by Hoover et al. (2020).",
article = nil,
aliases = { "exBERT", "ExBERT", "exBERT tool" },
es = "Herramienta web interactiva de visualización para explorar patrones de atención e incrustaciones contextuales de BERT y otros codificadores transformer similares. Publicada por Hoover et al. (2020).",
zh = "一个基于网页的交互式可视化工具,用于探索 BERT 及类似 Transformer 编码器的注意力模式与上下文嵌入。由 Hoover 等人(2020)发布。",
term_es = "exBERT",
term_zh = "exBERT",
aliases_es = { "exBERT", "herramienta exBERT" },
aliases_zh = { "exBERT", "exBERT 工具" },
}
data["exchangeability"] = {
short = "A symmetry property of an infinite sequence of random variables stating that its joint distribution is invariant under finite permutations; by de Finetti's theorem any exchangeable binary sequence is a mixture of i.i.d. Bernoulli sequences, motivating Bayesian latent-variable modeling.",
article = nil,
aliases = { "exchangeable sequence", "exchangeable random variables", "de Finetti exchangeability", "permutation invariance" },
es = "Propiedad de simetría de una sucesión infinita de variables aleatorias según la cual su distribución conjunta es invariante bajo permutaciones finitas; por el teorema de de Finetti, cualquier sucesión binaria intercambiable es una mezcla de sucesiones i.i.d. Bernoulli, lo que motiva el modelado bayesiano con variables latentes.",
zh = "无限随机变量序列的一种对称性:其联合分布在有限置换下不变;根据 de Finetti 定理,任何可交换的二元序列都是独立同分布伯努利序列的混合,这为贝叶斯潜变量建模提供了依据。",
term_es = "intercambiabilidad",
term_zh = "可交换性",
aliases_es = { "sucesión intercambiable", "variables intercambiables", "intercambiabilidad de de Finetti" },
aliases_zh = { "可置换性", "de Finetti 可交换性", "可交换序列" },
}
data["exchangeable factor"] = {
short = "In lifted graphical models, a factor whose value is invariant under permutations of a group of identically distributed argument variables, allowing groups of indistinguishable variables to be treated collectively and reducing inference cost.",
article = nil,
aliases = { "permutation-invariant factor", "symmetric factor", "lifted factor", "exchangeable potential" },
es = "En los modelos gráficos elevados, un factor cuyo valor es invariante bajo permutaciones de un grupo de variables argumento idénticamente distribuidas, lo que permite tratar de forma colectiva grupos de variables indistinguibles y reducir el coste de inferencia.",
zh = "在提升图模型中,对一组同分布的参数变量的置换保持不变的因子,使得可以将不可区分的变量集体处理,从而降低推断成本。",
term_es = "factor intercambiable",
term_zh = "可交换因子",
aliases_es = { "factor invariante bajo permutaciones", "factor simétrico", "factor elevado" },
aliases_zh = { "置换不变因子", "对称因子", "提升因子" },
}
data["excitation backpropagation"] = {
short = "A top-down attention visualization method that propagates probabilistic winner-take-all activation through positive weights to identify input regions that most excited a target neuron. Proposed by Zhang et al. (2016).",
article = nil,
aliases = { "excitation backprop", "excitation back-propagation", "EBP" },
es = "Método de visualización de atención descendente que propaga activaciones probabilísticas del tipo «el ganador se lo lleva todo» a través de pesos positivos para identificar las regiones de entrada que más excitaron a una neurona objetivo. Propuesto por Zhang et al. (2016).",
zh = "一种自上而下的注意力可视化方法,通过正权重传播概率化的胜者全得激活,以识别最强烈激发目标神经元的输入区域。由 Zhang 等人(2016)提出。",
term_es = "retropropagación de excitación",
term_zh = "激励反向传播",
aliases_es = { "retropropagación excitatoria", "EBP" },
aliases_zh = { "兴奋反向传播", "EBP" },
}
data["exclusion restriction"] = {
short = "An instrumental-variable identification assumption stating that the instrument affects the outcome only through its effect on the treatment, ruling out direct paths from instrument to outcome.",
article = nil,
aliases = { "exclusion assumption", "IV exclusion restriction" },
es = "Supuesto de identificación de variables instrumentales que establece que el instrumento afecta al resultado únicamente a través de su efecto sobre el tratamiento, descartando rutas directas del instrumento al resultado.",
zh = "工具变量识别中的假设:工具变量仅通过其对处置的影响来作用于结果,排除从工具变量到结果的直接路径。",
term_es = "restricción de exclusión",
term_zh = "排除性约束",
aliases_es = { "supuesto de exclusión", "restricción de exclusión IV" },
aliases_zh = { "排除性限制", "排除约束", "IV 排除性约束" },
}
data["excretion"] = {
short = "The elimination of a drug or its metabolites from the body, predominantly via the kidneys (urine) or liver (bile/feces); the 'E' in ADME and a key determinant of dosing frequency and accumulation risk.",
article = nil,
aliases = { "drug excretion", "elimination", "renal excretion", "biliary excretion", "ADME excretion" },
es = "Eliminación de un fármaco o de sus metabolitos del organismo, principalmente por vía renal (orina) o hepática (bilis/heces); la «E» de ADME y un determinante clave de la frecuencia de dosificación y del riesgo de acumulación.",
zh = "药物及其代谢物从体内的排出过程,主要经肾脏(尿)或肝脏(胆汁/粪便);为 ADME 中的 E,是给药频率与蓄积风险的关键决定因素。",
term_es = "excreción",
term_zh = "排泄",
aliases_es = { "excreción de fármacos", "eliminación", "excreción renal", "excreción biliar" },
aliases_zh = { "药物排泄", "消除", "肾脏排泄", "胆汁排泄" },
}
data["exemplar explanation"] = {
short = "An explanation that justifies a model's prediction by pointing to similar or representative training examples. Includes prototype, criticism, and influence-function-based exemplars.",
article = nil,
aliases = { "exemplar explanations", "example-based explanation", "example based explanation", "exemplar-based explanation" },
es = "Explicación que justifica la predicción de un modelo señalando ejemplos de entrenamiento similares o representativos. Incluye prototipos, críticas y ejemplares basados en funciones de influencia.",
zh = "一种通过指向相似或具代表性的训练样本来为模型预测给出理由的解释方式,涵盖原型、批判样本以及基于影响函数的示例。",
term_es = "explicación por ejemplares",
term_zh = "示例解释",
aliases_es = { "explicación basada en ejemplos", "explicación por prototipos" },
aliases_zh = { "范例解释", "基于示例的解释" },
}
data["exl2 quantization"] = {
short = "A mixed-precision weight quantization format used by ExLlamaV2 that allocates 2 to 8 bits per weight per layer based on calibration error, enabling fine-grained accuracy and size trade-offs for LLMs.",
article = nil,
aliases = { "EXL2", "EXL2 quantization", "exl2 format", "ExLlamaV2 quantization" },
es = "Formato de cuantización de pesos de precisión mixta usado por ExLlamaV2 que asigna entre 2 y 8 bits por peso y por capa según el error de calibración, permitiendo compensaciones finas entre precisión y tamaño en LLM.",
zh = "ExLlamaV2 使用的混合精度权重量化格式,根据每层校准误差为每个权重分配 2 至 8 比特,可在大语言模型中精细权衡精度与体积。",
term_es = "cuantización EXL2",
term_zh = "EXL2 量化",
aliases_es = { "EXL2", "formato EXL2" },
aliases_zh = { "EXL2", "EXL2 格式" },
}
data["exllamav2"] = {
short = "An open-source inference engine for LLaMA-family models on consumer GPUs that combines an EXL2 mixed-precision quantization format with custom CUDA kernels for high-throughput single-GPU generation.",
article = nil,
aliases = { "ExLlamaV2", "ExLlama v2", "exllama2", "ExLlamaV2 engine" },
es = "Motor de inferencia de código abierto para modelos de la familia LLaMA en GPU de consumo que combina el formato de cuantización mixta EXL2 con kernels CUDA personalizados para generación de alto rendimiento en una sola GPU.",
zh = "面向消费级 GPU 的 LLaMA 系列模型开源推理引擎,结合 EXL2 混合精度量化格式和自定义 CUDA 内核,实现单卡高吞吐生成。",
term_es = "ExLlamaV2",
term_zh = "ExLlamaV2",
aliases_es = {},
aliases_zh = {},
}
data["exogeneity"] = {
short = "The property that an explanatory variable is uncorrelated with the regression error term, ensuring unbiased and consistent estimation; a key assumption in instrumental-variable and structural-equation methods.",
article = nil,
aliases = { "exogeneity assumption", "strict exogeneity" },
es = "Propiedad de que una variable explicativa no esté correlacionada con el término de error de la regresión, garantizando estimaciones insesgadas y consistentes; supuesto clave en métodos de variables instrumentales y de ecuaciones estructurales.",
zh = "解释变量与回归误差项不相关的性质,确保估计的无偏与一致性,是工具变量法与结构方程方法中的关键假设。",
term_es = "exogeneidad",
term_zh = "外生性",
aliases_es = { "supuesto de exogeneidad", "exogeneidad estricta" },
aliases_zh = { "外生性假设", "严格外生性" },
}
data["exogenous variable"] = {
short = "A variable whose value is determined outside the model and assumed uncorrelated with the error term, so it can serve as a valid regressor or instrument.",
article = nil,
aliases = { "exogenous regressor", "exogenous covariate" },
es = "Variable cuyo valor se determina fuera del modelo y se supone no correlacionada con el término de error, por lo que puede actuar como regresor o instrumento válido.",
zh = "其取值由模型外部决定、并假定与误差项不相关的变量,可作为有效的回归变量或工具变量。",
term_es = "variable exógena",
term_zh = "外生变量",
aliases_es = { "regresor exógeno", "covariable exógena" },
aliases_zh = { "外生回归元", "外生协变量", "外生解释变量" },
}
data["exome sequencing"] = {
short = "A targeted next-generation sequencing approach that uses hybridization capture probes to enrich the protein-coding regions of the genome (~1-2% of total DNA) before sequencing. Widely used for clinical diagnosis of Mendelian disorders and case-control studies of rare variants.",
article = nil,
aliases = { "WES", "whole exome sequencing", "whole-exome sequencing", "exome-seq", "ExomeSeq" },
es = "Enfoque dirigido de secuenciación de nueva generación que utiliza sondas de captura por hibridación para enriquecer las regiones codificantes del genoma (~1-2% del ADN total) antes de la secuenciación. Se emplea ampliamente en el diagnóstico clínico de trastornos mendelianos y en estudios de casos y controles de variantes raras.",
zh = "一种靶向下一代测序方法,使用杂交捕获探针富集基因组的蛋白编码区域(约占总 DNA 的 1-2%)后进行测序,广泛用于孟德尔遗传病的临床诊断和稀有变异的病例对照研究。",
term_es = "secuenciación del exoma",
term_zh = "外显子组测序",
aliases_es = { "secuenciación exómica", "WES", "secuenciación del exoma completo" },
aliases_zh = { "WES", "全外显子组测序", "外显子测序" },
}
data["exon junction"] = {
short = "The boundary in a mature mRNA where two exons are joined after splicing has removed the intervening intron. RNA-seq reads spanning these junctions provide direct evidence for splicing events and are essential for transcript assembly and isoform quantification.",
article = nil,
aliases = { "exon-exon junction", "splice junction", "exon junction (RNA-seq)", "exon-exon boundary" },
es = "Límite en un ARNm maduro donde dos exones quedan unidos tras la eliminación del intrón interviniente por empalme. Las lecturas de RNA-seq que abarcan estas uniones proporcionan evidencia directa de eventos de empalme y son esenciales para el ensamblaje de transcritos y la cuantificación de isoformas.",
zh = "成熟 mRNA 中两个外显子在剪接除去中间内含子后相连的边界。跨越这些连接的 RNA-seq 读段为剪接事件提供直接证据,是转录本组装和异构体定量的关键依据。",
term_es = "unión de exones",
term_zh = "外显子连接",
aliases_es = { "unión exón-exón", "unión de empalme", "splice junction" },
aliases_zh = { "外显子-外显子连接", "剪接连接", "splice junction" },
}
data["exon-intron boundary"] = {
short = "The genomic position where an exon ends and an intron begins (5' splice site) or where an intron ends and the next exon begins (3' splice site), recognized by the spliceosome through canonical GT/AG dinucleotides and surrounding sequence motifs.",
article = nil,
aliases = { "exon/intron boundary", "splice site", "intron-exon boundary", "splice-site boundary" },
es = "Posición genómica donde termina un exón y comienza un intrón (sitio de empalme 5') o donde termina un intrón y comienza el siguiente exón (sitio de empalme 3'), reconocida por el espliceosoma a través de dinucleótidos canónicos GT/AG y motivos de secuencia adyacentes.",
zh = "基因组中外显子结束、内含子开始(5' 剪接位点),或内含子结束、下一外显子开始(3' 剪接位点)的位置,通过经典的 GT/AG 二核苷酸及周围序列基序被剪接体识别。",
term_es = "frontera exón-intrón",
term_zh = "外显子-内含子边界",
aliases_es = { "límite exón-intrón", "sitio de empalme", "frontera intrón-exón" },
aliases_zh = { "外显子内含子边界", "剪接位点", "内含子-外显子边界" },
}
data["expectation"] = {
short = "The probability-weighted average of a random variable, defined as the integral or sum of x times its density or mass over its support; in machine learning, training objectives are commonly expectations over the data or model distribution.",
article = nil,
aliases = { "expected value", "mean", "E[X]", "expectation operator" },
es = "Promedio ponderado por la probabilidad de una variable aleatoria, definido como la integral o suma de x por su densidad o masa sobre su soporte; en aprendizaje automático, los objetivos de entrenamiento suelen ser esperanzas sobre la distribución de datos o del modelo.",
zh = "随机变量按概率加权的平均,定义为 x 与其密度或质量在其支撑上的积分或求和;在机器学习中,训练目标通常表示为对数据或模型分布的期望。",
term_es = "esperanza",
term_zh = "期望",
aliases_es = { "valor esperado", "media", "esperanza matemática", "E[X]" },
aliases_zh = { "期望值", "数学期望", "均值", "E[X]" },
}
data["expectation propagation"] = {
short = "A deterministic approximate inference algorithm that iteratively refines an approximating distribution in the exponential family by matching moments of the tilted distribution one factor at a time; generalizes assumed-density filtering and is dual to belief propagation.",
article = nil,
aliases = { "EP", "expectation-propagation", "Minka EP", "Minka expectation propagation" },
es = "Un algoritmo determinista de inferencia aproximada que refina iterativamente una distribución aproximante de la familia exponencial igualando los momentos de la distribución inclinada un factor a la vez; generaliza el filtrado de densidad asumida y es dual de la propagación de creencias.",
zh = "一种确定性近似推断算法,通过逐个因子匹配倾斜分布的矩,迭代地细化指数族的近似分布;它推广了假设密度滤波,并与信念传播对偶。",
term_es = "propagación de expectativas",
term_zh = "期望传播",
aliases_es = { "EP", "expectation propagation", "EP de Minka" },
aliases_zh = { "EP", "Minka 期望传播", "期望传播算法" },
}
data["expectation-maximization"] = {
short = "An iterative algorithm for maximum-likelihood (or MAP) estimation in models with latent variables. It alternates an E-step that computes the posterior over latents under current parameters with an M-step that maximizes the expected complete-data log-likelihood, monotonically increasing the data likelihood.",
article = nil,
aliases = { "EM", "EM algorithm", "expectation maximization", "expectation maximisation", "Expectation–Maximization" },
es = "Algoritmo iterativo para estimación por máxima verosimilitud (o MAP) en modelos con variables latentes. Alterna un paso E que calcula la posterior sobre las latentes bajo los parámetros actuales con un paso M que maximiza la log-verosimilitud completa esperada, incrementando monótonamente la verosimilitud de los datos.",
zh = "用于含潜变量模型的最大似然(或 MAP)估计的迭代算法。在 E 步根据当前参数计算潜变量的后验,在 M 步最大化期望完整数据对数似然,从而单调地提高数据似然。",
term_es = "esperanza–maximización",
term_zh = "期望最大化",
aliases_es = { "EM", "algoritmo EM", "esperanza-maximización" },
aliases_zh = { "EM", "EM 算法", "期望最大化算法" },
}
data["expected calibration error"] = {
short = "A miscalibration metric obtained by binning predictions by confidence and averaging |confidence − accuracy| weighted by bin frequency, ECE = Σ_b (|B_b|/N) · |conf(B_b) − acc(B_b)|.",
article = nil,
aliases = { "ECE", "expected-calibration-error" },
es = "Métrica de descalibración obtenida agrupando las predicciones por confianza en bins y promediando |confianza − exactitud| ponderado por la frecuencia del bin: ECE = Σ_b (|B_b|/N) · |conf(B_b) − acc(B_b)|.",
zh = "一种校准误差指标:将预测按置信度分箱,按各箱样本数对 |置信度 − 准确率| 进行加权平均,ECE = Σ_b (|B_b|/N) · |conf(B_b) − acc(B_b)|。",
term_es = "error de calibración esperado",
term_zh = "期望校准误差",
aliases_es = { "ECE", "ECE de calibración" },
aliases_zh = { "ECE", "expected calibration error" },
}
data["expected fisher information"] = {
short = "The Fisher information matrix obtained by taking the expectation of the outer product of log-likelihood gradients (or the negative Hessian of the log-likelihood) under the model's predictive distribution; the population-level curvature used in many Laplace and natural-gradient methods.",
article = nil,
aliases = { "expected Fisher", "true Fisher information", "model Fisher" },
es = "Matriz de información de Fisher obtenida tomando la esperanza del producto exterior de los gradientes de la log-verosimilitud (o el Hessiano negativo) bajo la distribución predictiva del modelo; la curvatura poblacional empleada en numerosos métodos de Laplace y de gradiente natural.",
zh = "在模型预测分布下取对数似然梯度外积(或对数似然负Hessian)的期望所得到的Fisher信息矩阵;许多拉普拉斯方法与自然梯度方法所使用的总体层面曲率。",
term_es = "información de Fisher esperada",
term_zh = "期望Fisher信息",
aliases_es = { "Fisher esperada", "información de Fisher verdadera", "Fisher del modelo" },
aliases_zh = { "期望Fisher", "真实Fisher信息", "模型Fisher" },
}
data["expected gradients"] = {
short = "An attribution method that integrates gradients of the output with respect to the input over a distribution of baselines, generalizing integrated gradients beyond a single reference. Introduced by Erion et al. (2021).",
article = nil,
aliases = { "expected gradient attribution", "expected gradients attribution" },
es = "Método de atribución que integra los gradientes de la salida respecto de la entrada sobre una distribución de líneas base, generalizando los gradientes integrados más allá de una única referencia. Introducido por Erion et al. (2021).",
zh = "一种归因方法,对一组基线分布上的输出对输入梯度进行积分,将积分梯度从单一参考点推广到分布。由 Erion 等人(2021)提出。",
term_es = "gradientes esperados",
term_zh = "期望梯度",
aliases_es = { "atribución por gradientes esperados" },
aliases_zh = { "期望梯度归因", "expected gradients" },
}
data["expected hypervolume improvement"] = {
short = "An acquisition function for multi-objective Bayesian optimization that scores candidate points by the expected increase in the dominated hypervolume of the current Pareto front.",
article = nil,
aliases = { "EHVI", "expected hyper-volume improvement", "qEHVI", "q-expected hypervolume improvement", "hypervolume EI" },
es = "Función de adquisición para optimización bayesiana multiobjetivo que puntúa los puntos candidatos según el incremento esperado del hipervolumen dominado por el frente de Pareto actual.",
zh = "多目标贝叶斯优化的采集函数,根据当前帕累托前沿被支配超体积的期望增益对候选点进行评分。",
term_es = "mejora esperada del hipervolumen",
term_zh = "期望超体积改进",
aliases_es = { "EHVI", "qEHVI" },
aliases_zh = { "EHVI", "qEHVI", "期望超体积提升" },
}
data["expected improvement"] = {
short = "A Bayesian-optimization acquisition function that scores candidate points by the expected positive amount by which the objective is improved over the current best, computable in closed form for Gaussian-process surrogates.",
article = nil,
aliases = { "EI", "expected-improvement acquisition", "Mockus EI" },
es = "Función de adquisición en optimización bayesiana que valora puntos candidatos por la cantidad positiva esperada en que el objetivo mejora respecto del mejor valor actual, computable en forma cerrada para sustitutos de proceso gaussiano.",
zh = "贝叶斯优化中的获取函数,按目标相对当前最优值的期望正向改进量对候选点打分;在高斯过程代理下具有闭式表达式。",
term_es = "mejora esperada",
term_zh = "期望改进",
aliases_es = { "EI", "adquisición de mejora esperada", "EI de Mockus" },
aliases_zh = { "EI", "期望改进获取函数", "Mockus EI" },
}
data["expected information gain"] = {
short = "The expected reduction in entropy of a quantity of interest (e.g. parameters or future predictions) provided by a candidate observation; the central objective of Bayesian experimental design and many active-learning acquisition functions.",
article = nil,
aliases = { "EIG", "expected mutual information", "Lindley information", "BALD-style information gain" },
es = "Reducción esperada de la entropía de una cantidad de interés (por ejemplo, parámetros o predicciones futuras) que aporta una observación candidata; objetivo central del diseño experimental bayesiano y de muchas funciones de adquisición en aprendizaje activo.",
zh = "候选观测对感兴趣量(如参数或未来预测)熵的期望降低;贝叶斯实验设计和许多主动学习获取函数的核心目标。",
term_es = "ganancia de información esperada",
term_zh = "期望信息增益",
aliases_es = { "EIG", "información mutua esperada", "información de Lindley", "ganancia de información estilo BALD" },
aliases_zh = { "EIG", "期望互信息", "Lindley信息", "BALD式信息增益" },
}
data["expected log-likelihood term"] = {
short = "The reconstruction component of the variational lower bound (ELBO): the expectation under the variational posterior of the log-likelihood of the data given the latent variables.",
article = nil,
aliases = { "expected log likelihood", "reconstruction term", "data-fit term", "ELBO likelihood term" },
es = "Componente de reconstrucción de la cota inferior variacional (ELBO): la esperanza, bajo el posterior variacional, de la log-verosimilitud de los datos dadas las variables latentes.",
zh = "变分下界(ELBO)中的重建项:在变分后验下对给定隐变量时数据对数似然的期望。",
term_es = "término de log-verosimilitud esperada",
term_zh = "期望对数似然项",
aliases_es = { "log-verosimilitud esperada", "término de reconstrucción", "término de ajuste a los datos", "término de verosimilitud del ELBO" },
aliases_zh = { "期望对数似然", "重建项", "数据拟合项", "ELBO似然项" },
}
data["expected outcome"] = {
short = "The mean of the outcome variable under specified conditioning or intervention, written E[Y | X] or E[Y(a)]; the basic estimand of regression and causal inference.",
article = nil,
aliases = { "conditional expected outcome", "mean outcome", "expected response" },
es = "Media de la variable de resultado bajo un condicionamiento o intervención especificados, escrita E[Y | X] o E[Y(a)]; estimando básico de la regresión y la inferencia causal.",
zh = "在指定条件化或干预下结果变量的均值,记为 E[Y | X] 或 E[Y(a)],是回归与因果推断的基本估计量。",
term_es = "resultado esperado",
term_zh = "期望结果",
aliases_es = { "resultado esperado condicional", "media del resultado", "respuesta esperada" },
aliases_zh = { "条件期望结果", "期望响应", "结果均值" },
}
data["expected predictive entropy"] = {
short = "The expectation, under a posterior over models, of the entropy of each model's predictive distribution; together with total predictive entropy it decomposes uncertainty into aleatoric (this term) and epistemic parts.",
article = nil,
aliases = { "expected entropy of predictions", "aleatoric entropy term", "expected conditional entropy" },
es = "Esperanza, bajo un posterior sobre modelos, de la entropía de la distribución predictiva de cada modelo; junto con la entropía predictiva total descompone la incertidumbre en componentes aleatoria (este término) y epistémica.",
zh = "在模型的后验分布下对每个模型预测分布熵的期望;与总预测熵一起,将不确定性分解为随机性(此项)与认知不确定性两部分。",
term_es = "entropía predictiva esperada",
term_zh = "期望预测熵",
aliases_es = { "esperanza de la entropía de las predicciones", "término de entropía aleatoria", "entropía condicional esperada" },
aliases_zh = { "预测熵期望", "随机熵项", "期望条件熵" },
}
data["expected sufficient statistics"] = {
short = "Posterior expectations of the sufficient statistics of a model under a current parameter or variational estimate; computed in the E-step of the EM algorithm and used to update parameters in closed form during the M-step for exponential-family models.",
article = nil,
aliases = { "ESS", "expected statistics", "posterior expected sufficient statistics", "soft counts", "expected counts" },
es = "Esperanzas posteriores de los estadísticos suficientes de un modelo bajo un parámetro o estimación variacional actual; se calculan en el paso E del algoritmo EM y permiten actualizar los parámetros en forma cerrada durante el paso M para modelos de la familia exponencial.",
zh = "在当前参数或变分估计下,对模型充分统计量取后验期望;在 EM 算法的 E 步中计算,并在指数族模型的 M 步中用于以闭式更新参数。",
term_es = "estadísticos suficientes esperados",
term_zh = "期望充分统计量",
aliases_es = { "ESS", "estadísticos esperados", "conteos esperados", "conteos suaves" },
aliases_zh = { "ESS", "期望统计量", "软计数", "期望计数" },
}
data["expected uncertainty calibration error"] = {
short = "A variant of expected calibration error (ECE) that compares predicted total uncertainty against observed error rates across bins, used to evaluate calibration of uncertainty estimates beyond mere class-probability calibration.",
article = nil,
aliases = { "EUCE", "expected calibration error of uncertainty", "uncertainty ECE" },
es = "Variante del error de calibración esperado (ECE) que compara la incertidumbre total predicha con la tasa de error observada por bins, usada para evaluar la calibración de las estimaciones de incertidumbre más allá de la mera calibración de probabilidades de clase.",
zh = "期望校准误差(ECE)的一种变体,按分桶比较预测的总不确定性与观察错误率,用于评估超越纯类别概率校准的不确定性估计的校准性。",
term_es = "error de calibración esperado de la incertidumbre",
term_zh = "期望不确定性校准误差",
aliases_es = { "EUCE", "ECE de la incertidumbre", "ECE de incertidumbre" },
aliases_zh = { "EUCE", "不确定性的期望校准误差", "不确定性ECE" },
}
data["experience replay"] = {
short = "A technique that stores past data or interactions in a buffer and re-samples them during training, used in reinforcement learning and continual learning to break temporal correlations and reduce forgetting.",
article = nil,
aliases = { "replay buffer", "experience replay buffer", "memory replay" },
es = "Técnica que almacena datos o interacciones pasadas en un búfer y los vuelve a muestrear durante el entrenamiento; se utiliza en aprendizaje por refuerzo y aprendizaje continuo para romper correlaciones temporales y reducir el olvido.",
zh = "一种将过往数据或交互存入缓冲区并在训练时重新采样的技术,用于强化学习和持续学习,以打破时间相关性并减轻遗忘。",
term_es = "repetición de experiencias",
term_zh = "经验回放",
aliases_es = { "experience replay", "búfer de repetición", "memoria de repetición" },
aliases_zh = { "experience replay", "回放缓冲区", "记忆回放" },
}
data["expert choice routing"] = {
short = "A mixture-of-experts routing scheme in which each expert selects its top-k tokens at each layer, in contrast to token-choice routing where each token selects experts; this enforces perfect load balance by construction.",
article = nil,
aliases = { "expert-choice routing", "expert choice", "expert-choice", "EC routing" },
es = "Esquema de enrutamiento en mezclas de expertos en el que cada experto elige sus k tokens principales en cada capa, en contraste con el enrutamiento por token donde cada token elige expertos; impone equilibrio de carga perfecto por construcción.",
zh = "一种专家混合(MoE)路由方式,每一层由每个专家选择自己最匹配的前 k 个 token,与每个 token 选择专家的 token-choice 路由相反,天然实现完美负载均衡。",
term_es = "enrutamiento por elección de experto",
term_zh = "专家选择路由",
aliases_es = { "expert-choice routing", "ruteo expert-choice" },
aliases_zh = { "expert-choice 路由", "EC 路由" },
}
data["expert parallelism"] = {
short = "A parallelism strategy for Mixture-of-Experts models that places different experts on different devices and routes each token's MLP computation to the device hosting its assigned expert, requiring all-to-all communication of activations.",
article = nil,
aliases = { "EP", "expert parallel", "MoE parallelism" },
es = "Estrategia de paralelismo para modelos Mixture-of-Experts que coloca distintos expertos en distintos dispositivos y enruta el cálculo del MLP de cada token al dispositivo que aloja su experto asignado, requiriendo comunicación all-to-all de activaciones.",
zh = "针对 Mixture-of-Experts 模型的并行策略:将不同专家分别放置在不同设备上,把每个 token 的 MLP 计算路由到对应专家所在设备,需要在激活上进行 all-to-all 通信。",
term_es = "paralelismo de expertos",
term_zh = "专家并行",
aliases_es = { "EP", "paralelismo MoE" },
aliases_zh = { "EP", "MoE 并行", "专家并行化" },
}
data["explainability"] = {
short = "The capacity to provide human-understandable accounts of why a model produced a particular output, typically via post-hoc methods that approximate or summarize the model's behavior.",
article = nil,
aliases = { "XAI", "explainable AI", "explainable artificial intelligence", "model explainability" },
es = "Capacidad de ofrecer explicaciones comprensibles para una persona sobre por qué un modelo produjo una salida concreta, típicamente mediante métodos post-hoc que aproximan o resumen el comportamiento del modelo.",
zh = "为模型产生特定输出的原因提供人类可理解解释的能力,通常通过近似或概括模型行为的事后方法实现。",
term_es = "explicabilidad",
term_zh = "可解释性",
aliases_es = { "IA explicable", "XAI", "inteligencia artificial explicable" },
aliases_zh = { "可解释人工智能", "XAI", "解释性" },
}
data["explainability evaluation"] = {
short = "The meta-task of measuring the quality of explanations along axes such as faithfulness, plausibility, stability, simulatability, and human-utility, often through both automatic metrics and user studies.",
article = nil,
aliases = { "evaluation of explainability", "evaluating explainability", "explanation evaluation", "evaluating explanations" },
es = "Metatarea consistente en medir la calidad de las explicaciones según ejes como fidelidad, plausibilidad, estabilidad, simulabilidad y utilidad para humanos, a menudo mediante métricas automáticas y estudios con usuarios.",
zh = "评估解释质量的元任务,常从忠实性、合理性、稳定性、可模拟性和对人类的实用性等维度进行衡量,并结合自动指标与用户研究。",
term_es = "evaluación de la explicabilidad",
term_zh = "可解释性评估",
aliases_es = { "evaluación de explicabilidad", "evaluación de explicaciones" },
aliases_zh = { "解释性评估", "解释评估" },
}
data["explainable ai"] = {
short = "A research field and set of techniques aimed at producing AI systems whose decisions humans can understand, audit, and contest. Encompasses interpretable model design and post-hoc explanation methods.",
article = nil,
aliases = { "XAI", "explainable AI", "explainable artificial intelligence" },
es = "Campo de investigación y conjunto de técnicas orientado a producir sistemas de IA cuyas decisiones puedan ser comprendidas, auditadas y cuestionadas por personas. Abarca el diseño de modelos interpretables y los métodos de explicación post-hoc.",
zh = "致力于让人类能够理解、审计并质疑 AI 决策的研究领域与技术集合,涵盖可解释模型设计与事后解释方法。",
term_es = "IA explicable",
term_zh = "可解释人工智能",
aliases_es = { "XAI", "inteligencia artificial explicable" },
aliases_zh = { "XAI", "可解释 AI" },
}
data["explainable boosting machine"] = {
short = "A glass-box model in the InterpretML library that fits a generalized additive model with pairwise interactions (GA²M) using cyclic gradient boosting on shallow trees, achieving accuracy competitive with black-box ensembles while remaining inspectable.",
article = nil,
aliases = { "EBM", "Explainable Boosting Machine", "EBMs", "GA2M boosting" },
es = "Modelo de caja transparente de la biblioteca InterpretML que ajusta un modelo aditivo generalizado con interacciones por pares (GA²M) mediante boosting cíclico de árboles superficiales, alcanzando una precisión competitiva con la de ensambles de caja negra y manteniéndose inspeccionable.",
zh = "InterpretML 库中的玻璃盒模型,使用浅层决策树的循环梯度提升来拟合带成对交互的广义加性模型(GA²M),在保持可检视的同时取得与黑盒集成相竞争的精度。",
term_es = "máquina de boosting explicable",
term_zh = "可解释 boosting 机器",
aliases_es = { "EBM", "máquina de boosting explicable (EBM)" },
aliases_zh = { "EBM", "可解释提升机" },
}
data["explainable nlp"] = {
short = "The application of explainability techniques to natural-language processing models, including rationale extraction, attention analysis, attribution methods, and natural-language explanation generation.",
article = nil,
aliases = { "explainable NLP", "interpretable NLP", "explainability for NLP", "XAI for NLP" },
es = "Aplicación de técnicas de explicabilidad a modelos de procesamiento de lenguaje natural, incluida la extracción de racionales, el análisis de atención, los métodos de atribución y la generación de explicaciones en lenguaje natural.",
zh = "将可解释性技术应用于自然语言处理模型的研究方向,包括理由抽取、注意力分析、归因方法以及自然语言解释生成。",
term_es = "PLN explicable",
term_zh = "可解释 NLP",
aliases_es = { "PLN interpretable", "explicabilidad en PLN" },
aliases_zh = { "可解释自然语言处理", "NLP 可解释性" },
}
data["explainable rl"] = {
short = "Explainability research focused on reinforcement-learning agents, covering policy and value-function interpretation, reward decomposition, saliency over states, and natural-language rationales for chosen actions.",
article = nil,
aliases = { "XRL", "explainable RL", "explainable reinforcement learning", "interpretable RL", "interpretable reinforcement learning" },
es = "Línea de investigación en explicabilidad centrada en agentes de aprendizaje por refuerzo, que abarca la interpretación de políticas y funciones de valor, la descomposición de recompensas, la saliencia sobre estados y los racionales en lenguaje natural para las acciones elegidas.",
zh = "面向强化学习智能体的可解释性研究方向,涵盖策略与价值函数解释、奖励分解、状态显著性以及对所选动作的自然语言解释。",
term_es = "aprendizaje por refuerzo explicable",
term_zh = "可解释强化学习",
aliases_es = { "RL explicable", "XRL", "aprendizaje por refuerzo interpretable" },
aliases_zh = { "XRL", "可解释 RL", "可解释强化学习" },
}
data["explainerdashboard"] = {
short = "An open-source Python library that builds an interactive web dashboard for inspecting scikit-learn-compatible classifiers and regressors, exposing SHAP values, permutation importance, partial-dependence plots, and what-if analyses.",
article = nil,
aliases = { "ExplainerDashboard", "explainer dashboard", "explainerdashboard library" },
es = "Biblioteca de Python de código abierto que construye un panel web interactivo para inspeccionar clasificadores y regresores compatibles con scikit-learn, exponiendo valores SHAP, importancia por permutación, gráficas de dependencia parcial y análisis what-if.",
zh = "一个开源 Python 库,可为兼容 scikit-learn 的分类器和回归模型构建交互式网页仪表盘,提供 SHAP 值、置换重要性、部分依赖图和情景分析。",
term_es = "explainerdashboard",
term_zh = "explainerdashboard",
aliases_es = { "ExplainerDashboard", "panel explainerdashboard" },
aliases_zh = { "ExplainerDashboard", "解释仪表盘" },
}
data["explanation aggregation"] = {
short = "Combining multiple per-instance or per-method explanations into a single summary — for example, averaging attribution maps across a dataset to obtain global feature importance, or pooling counterfactuals into representative groups.",
article = nil,
aliases = { "aggregating explanations", "aggregated explanation", "global explanation aggregation" },
es = "Combinación de múltiples explicaciones —por instancia o por método— en un único resumen; por ejemplo, promediar mapas de atribución sobre un conjunto de datos para obtener importancia global de variables, o agrupar contrafactuales en grupos representativos.",
zh = "将多条按样本或按方法生成的解释汇总为单一摘要的过程,例如对数据集上的归因图取平均以得到全局特征重要性,或将反事实归并为代表性群组。",
term_es = "agregación de explicaciones",
term_zh = "解释聚合",
aliases_es = { "agregación de explicaciones global", "explicación agregada" },
aliases_zh = { "解释汇总", "全局解释聚合" },
}
data["explanation alignment"] = {
short = "Quantifying or enforcing agreement between explanations — across different methods, models, modalities, or against human-annotated rationales — to assess consistency or to guide training toward human-aligned reasoning.",
article = nil,
aliases = { "alignment of explanations", "explanation-human alignment", "explanation agreement" },
es = "Cuantificar o imponer la concordancia entre explicaciones —procedentes de distintos métodos, modelos, modalidades o frente a racionales anotados por humanos— para evaluar la consistencia o para guiar el entrenamiento hacia un razonamiento alineado con los humanos.",
zh = "对来自不同方法、模型、模态之间,或与人工标注理由相比较的解释一致性进行量化或加以约束,以评估一致性或在训练中引导模型向人类一致的推理靠拢。",
term_es = "alineación de explicaciones",
term_zh = "解释对齐",
aliases_es = { "alineamiento de explicaciones", "concordancia de explicaciones" },
aliases_zh = { "解释一致性", "解释与人类对齐" },
}
data["explanation completeness"] = {
short = "The degree to which an explanation accounts for all of the model behavior or evidence relevant to a prediction, leaving no important factor unexplained. Often traded off against simplicity.",
article = nil,
aliases = { "completeness of explanation", "explanation coverage" },
es = "Grado en que una explicación da cuenta de todo el comportamiento del modelo o de la evidencia relevante para una predicción, sin dejar factores importantes sin explicar. Suele contraponerse a la simplicidad.",
zh = "解释覆盖模型行为或与预测相关证据的完整程度,要求不遗漏任何重要因素;通常需要与简洁性进行权衡。",
term_es = "completitud de la explicación",
term_zh = "解释完整性",
aliases_es = { "cobertura de la explicación", "completitud explicativa" },
aliases_zh = { "解释完备性", "解释覆盖度" },
}
data["explanation consistency"] = {
short = "The property that an XAI method produces similar explanations for similar inputs or for models that compute the same function, used as a sanity check on attribution methods.",
article = nil,
aliases = { "consistency of explanations", "consistent attribution" },
es = "Propiedad por la cual un método de explicabilidad produce explicaciones similares para entradas similares o para modelos que computan la misma función; se usa como prueba de coherencia para métodos de atribución.",
zh = "可解释性方法对相似输入或计算相同函数的模型给出相似解释的性质,常作为归因方法的合理性检查。",
term_es = "consistencia de la explicación",
term_zh = "解释一致性",
aliases_es = { "consistencia explicativa", "atribución consistente" },
aliases_zh = { "解释的一致性", "一致归因" },
}
data["explanation continuity"] = {
short = "The requirement that small perturbations of the input produce only small changes in the resulting explanation, i.e. that the attribution map is a smooth function of the input.",
article = nil,
aliases = { "continuity of explanations", "smooth explanation", "Lipschitz explanation" },
es = "Requisito de que pequeñas perturbaciones de la entrada produzcan solo cambios pequeños en la explicación resultante, es decir, que el mapa de atribución sea una función suave de la entrada.",
zh = "要求输入发生微小扰动时解释结果仅产生微小变化的性质,即归因图作为输入的函数应当平滑。",
term_es = "continuidad de la explicación",
term_zh = "解释连续性",
aliases_es = { "explicación suave", "continuidad explicativa" },
aliases_zh = { "解释的连续性", "光滑解释" },
}
data["explanation diversity"] = {
short = "The property that a set of explanations (e.g., multiple rationales or counterfactuals) covers a varied range of features or reasoning paths rather than redundantly highlighting the same aspect.",
article = nil,
aliases = { "diverse explanations", "explanation coverage diversity" },
es = "Propiedad por la cual un conjunto de explicaciones (por ejemplo, varias justificaciones o contrafactuales) cubre una variedad de características o caminos de razonamiento en vez de resaltar redundantemente el mismo aspecto.",
zh = "一组解释(如多条理由或反事实)覆盖多样化特征或推理路径而非冗余地强调同一方面的性质。",
term_es = "diversidad de la explicación",
term_zh = "解释多样性",
aliases_es = { "explicaciones diversas", "diversidad explicativa" },
aliases_zh = { "多样化解释", "解释多样化" },
}
data["explanation evaluation benchmark"] = {
short = "A standardized dataset and protocol for measuring properties of explanation methods, such as faithfulness, plausibility, stability, or simulatability across models and tasks.",
article = nil,
aliases = { "XAI benchmark", "explainability benchmark", "interpretability benchmark" },
es = "Conjunto de datos y protocolo estandarizado para medir propiedades de los métodos de explicación, como fidelidad, plausibilidad, estabilidad o simulabilidad en distintos modelos y tareas.",
zh = "用于测量解释方法在不同模型和任务上忠实度、合理性、稳定性或可模拟性等属性的标准化数据集与评测协议。",
term_es = "benchmark de evaluación de explicaciones",
term_zh = "解释评估基准",
aliases_es = { "benchmark de explicabilidad", "benchmark XAI" },
aliases_zh = { "可解释性基准", "XAI 基准" },
}
data["explanation faithfulness"] = {
short = "The degree to which an explanation accurately reflects the true reasoning process or computations of the underlying model, as opposed to merely sounding plausible to humans.",
article = nil,
aliases = { "faithfulness", "explanation fidelity to model", "faithful explanation property" },
es = "Grado en que una explicación refleja con precisión el proceso de razonamiento real o los cálculos del modelo subyacente, en contraposición a sonar simplemente plausible para los humanos.",
zh = "解释准确反映底层模型真实推理过程或计算的程度,与仅在人类看来合理相对。",
term_es = "fidelidad de la explicación",
term_zh = "解释忠实性",
aliases_es = { "fidelidad explicativa", "fidelidad al modelo" },
aliases_zh = { "解释的忠实度", "忠实性" },
}
data["explanation fidelity"] = {
short = "A quantitative measure of agreement between an explanation (often a surrogate or attribution map) and the predictions or behavior of the original model on a chosen distribution.",
article = nil,
aliases = { "fidelity", "model fidelity", "surrogate fidelity" },
es = "Medida cuantitativa de la concordancia entre una explicación (a menudo un sustituto o mapa de atribución) y las predicciones o el comportamiento del modelo original sobre una distribución elegida.",
zh = "解释(常为代理模型或归因图)与原模型在某一分布上的预测或行为之间一致程度的量化指标。",
term_es = "fidelidad de la explicación",
term_zh = "解释保真度",
aliases_es = { "fidelidad del modelo sustituto", "fidelidad" },
aliases_zh = { "保真度", "代理模型保真度" },
}
data["explanation generation"] = {
short = "The task of producing an explanation — natural-language rationale, attribution map, counterfactual, or example — for the prediction of a machine-learning model.",
article = nil,
aliases = { "generating explanations", "rationale generation", "explanation production" },
es = "Tarea de producir una explicación —justificación en lenguaje natural, mapa de atribución, contrafactual o ejemplo— para la predicción de un modelo de aprendizaje automático.",
zh = "为机器学习模型的预测生成解释(自然语言理由、归因图、反事实或示例)的任务。",
term_es = "generación de explicaciones",
term_zh = "解释生成",
aliases_es = { "producción de explicaciones", "generación de justificaciones" },
aliases_zh = { "生成解释", "理由生成" },
}
data["explanation invariance"] = {
short = "The property that an explanation does not change under transformations of the input that leave the model's prediction unchanged, such as label-preserving symmetries.",
article = nil,
aliases = { "invariance of explanations", "invariant attribution" },
es = "Propiedad por la cual una explicación no cambia bajo transformaciones de la entrada que dejan inalterada la predicción del modelo, como simetrías que preservan la etiqueta.",
zh = "在不改变模型预测的输入变换(如保持标签不变的对称变换)下解释保持不变的性质。",
term_es = "invariancia de la explicación",
term_zh = "解释不变性",
aliases_es = { "invariancia explicativa", "atribución invariante" },
aliases_zh = { "解释的不变性", "不变归因" },
}
data["explanation locality"] = {
short = "The property that a local explanation describes the model's behavior only in a neighborhood of a specific input, rather than globally across the whole input space.",
article = nil,
aliases = { "local explanation", "locality of explanations", "local fidelity" },
es = "Propiedad por la cual una explicación local describe el comportamiento del modelo solo en una vecindad de una entrada específica, en lugar de hacerlo globalmente en todo el espacio de entradas.",
zh = "局部解释仅描述模型在特定输入邻域内的行为,而非在整个输入空间上的全局行为的性质。",
term_es = "localidad de la explicación",
term_zh = "解释局部性",
aliases_es = { "explicación local", "fidelidad local" },
aliases_zh = { "局部解释", "局部保真度" },
}
data["explanation pitfall"] = {
short = "A known failure mode of XAI methods — for example, sensitivity to baselines, susceptibility to adversarial manipulation, or producing visually compelling but unfaithful saliency maps.",
article = nil,
aliases = { "XAI pitfall", "interpretability pitfall", "explanation failure mode" },
es = "Modo de fallo conocido de los métodos de explicabilidad —por ejemplo, sensibilidad a las líneas base, susceptibilidad a la manipulación adversarial, o producir mapas de saliencia visualmente convincentes pero no fieles.",
zh = "可解释性方法的已知失败模式,例如对基线敏感、易受对抗性操纵,或产生看起来合理却并不忠实的显著性图。",
term_es = "trampa de la explicación",
term_zh = "解释陷阱",
aliases_es = { "trampa de la explicabilidad", "modo de fallo de la explicación" },
aliases_zh = { "可解释性陷阱", "解释方法失败模式" },
}
data["explanation plausibility"] = {
short = "The extent to which an explanation appears reasonable, intuitive, or convincing to a human evaluator, regardless of whether it is faithful to the model's actual computation.",
article = nil,
aliases = { "plausibility", "human plausibility", "plausible explanation" },
es = "Grado en que una explicación parece razonable, intuitiva o convincente para un evaluador humano, independientemente de si es fiel a los cálculos reales del modelo.",
zh = "解释在人类评估者看来合理、直观或令人信服的程度,与是否忠实于模型实际计算无关。",
term_es = "plausibilidad de la explicación",
term_zh = "解释合理性",
aliases_es = { "plausibilidad", "explicación plausible" },
aliases_zh = { "解释的合理性", "解释可信度" },
}
data["explanation quality"] = {
short = "An umbrella term for desirable properties of explanations — including faithfulness, plausibility, sparsity, stability, and simulatability — and metrics that aggregate these.",
article = nil,
aliases = { "quality of explanation", "explanation goodness" },
es = "Término genérico para las propiedades deseables de las explicaciones —fidelidad, plausibilidad, escasez, estabilidad y simulabilidad— y para las métricas que las agregan.",
zh = "对解释期望具备的诸多属性(忠实性、合理性、稀疏性、稳定性、可模拟性等)及其综合指标的统称。",
term_es = "calidad de la explicación",
term_zh = "解释质量",
aliases_es = { "calidad explicativa", "bondad de la explicación" },
aliases_zh = { "解释优良度", "解释的质量" },
}
data["explanation regularization"] = {
short = "Auxiliary loss terms added during training that penalize undesirable properties of model explanations (e.g., non-sparsity, instability) to obtain models whose explanations behave well.",
article = nil,
aliases = { "explanation-based regularization", "attribution regularization", "right for the right reasons" },
es = "Términos de pérdida auxiliares añadidos durante el entrenamiento que penalizan propiedades no deseadas de las explicaciones del modelo (por ejemplo, falta de escasez o inestabilidad) para obtener modelos cuyas explicaciones se comportan bien.",
zh = "在训练时加入的辅助损失项,对模型解释的不良属性(如不稀疏、不稳定)进行惩罚,以得到解释行为良好的模型。",
term_es = "regularización por explicaciones",
term_zh = "解释正则化",
aliases_es = { "regularización basada en explicaciones", "regularización de atribuciones" },
aliases_zh = { "基于解释的正则化", "归因正则化" },
}
data["explanation robustness"] = {
short = "The stability of an explanation under adversarial or random perturbations of the input or model parameters; robust explanations cannot be drastically altered without changing the prediction.",
article = nil,
aliases = { "robust explanation", "robustness of explanations", "adversarial robustness of explanations" },
es = "Estabilidad de una explicación bajo perturbaciones adversariales o aleatorias de la entrada o de los parámetros del modelo; las explicaciones robustas no pueden alterarse drásticamente sin cambiar la predicción.",
zh = "解释在输入或模型参数遭受对抗或随机扰动时的稳定性;鲁棒的解释不应在不改变预测的前提下被显著改变。",
term_es = "robustez de la explicación",
term_zh = "解释鲁棒性",
aliases_es = { "robustez explicativa", "robustez adversarial de la explicación" },
aliases_zh = { "解释的鲁棒性", "解释对抗鲁棒性" },
}
data["explanation sensitivity"] = {
short = "A measure of how much an explanation changes in response to perturbations of input features or model parameters; high sensitivity may indicate either useful informativeness or undesirable instability.",
article = nil,
aliases = { "sensitivity of explanations", "max-sensitivity", "attribution sensitivity" },
es = "Medida de cuánto cambia una explicación en respuesta a perturbaciones de las características de entrada o de los parámetros del modelo; una alta sensibilidad puede indicar informatividad útil o inestabilidad no deseada.",
zh = "衡量解释对输入特征或模型参数扰动响应程度的指标;高敏感度可能意味着有用的信息量,也可能意味着不良的不稳定性。",
term_es = "sensibilidad de la explicación",
term_zh = "解释敏感性",
aliases_es = { "sensibilidad explicativa", "max-sensitivity" },
aliases_zh = { "解释的敏感性", "归因敏感度" },
}
data["explanation simulatability"] = {
short = "The degree to which a human, after seeing an explanation, can predict the model's output on new inputs; a key behavioral test for whether an explanation actually conveys model behavior.",
article = nil,
aliases = { "simulatability", "forward simulatability", "human simulatability" },
es = "Grado en que una persona, tras ver una explicación, puede predecir la salida del modelo sobre nuevas entradas; una prueba conductual clave para determinar si la explicación transmite efectivamente el comportamiento del modelo.",
zh = "人类在看到解释后能在新输入上预测模型输出的程度;用于检验解释是否真正传达了模型行为的关键行为学测试。",
term_es = "simulabilidad de la explicación",
term_zh = "解释可模拟性",
aliases_es = { "simulabilidad", "simulabilidad humana" },
aliases_zh = { "可模拟性", "人类可模拟性" },
}
data["explanation sparsity"] = {
short = "The property that an explanation cites only a small subset of input features or reasoning steps, making it easier for humans to inspect and trust.",
article = nil,
aliases = { "sparse explanation", "sparsity of explanations", "compactness" },
es = "Propiedad por la cual una explicación menciona solo un subconjunto pequeño de características de entrada o pasos de razonamiento, lo que la hace más fácil de inspeccionar y de confiar para los humanos.",
zh = "解释只引用少量输入特征或推理步骤的性质,使人类更容易审视和信任。",
term_es = "escasez de la explicación",
term_zh = "解释稀疏性",
aliases_es = { "explicación dispersa", "compacidad de la explicación" },
aliases_zh = { "稀疏解释", "解释紧致性" },
}
data["explanation stability"] = {
short = "The property that explanations remain similar across re-runs, retraining, or small perturbations of the input or model — a prerequisite for trusting and reproducing them.",
article = nil,
aliases = { "stable explanation", "stability of explanations", "explanation reproducibility" },
es = "Propiedad por la cual las explicaciones permanecen similares ante reejecuciones, reentrenamiento o pequeñas perturbaciones de la entrada o del modelo; un prerrequisito para confiar en ellas y reproducirlas.",
zh = "解释在重复运行、重新训练或对输入/模型进行微小扰动时保持相似的性质,是信任和复现解释的前提。",
term_es = "estabilidad de la explicación",
term_zh = "解释稳定性",
aliases_es = { "explicación estable", "reproducibilidad de la explicación" },
aliases_zh = { "稳定解释", "解释可复现性" },
}
data["explanation sufficiency"] = {
short = "The property that the features cited by an explanation are by themselves sufficient to recover the model's prediction; commonly evaluated by feeding only those features back to the model.",
article = nil,
aliases = { "sufficiency", "sufficient explanation", "sufficient rationale" },
es = "Propiedad por la cual las características citadas en una explicación bastan por sí solas para recuperar la predicción del modelo; se evalúa habitualmente alimentando solo esas características al modelo.",
zh = "解释所引用的特征单独足以重现模型预测的性质;通常通过仅将这些特征输入模型来评估。",
term_es = "suficiencia de la explicación",
term_zh = "解释充分性",
aliases_es = { "suficiencia", "explicación suficiente" },
aliases_zh = { "充分性", "充分解释" },
}
data["explanation taxonomy"] = {
short = "A classification of explanation methods along axes such as local vs. global, model-specific vs. model-agnostic, post-hoc vs. intrinsic, and feature attribution vs. example-based.",
article = nil,
aliases = { "taxonomy of explanations", "XAI taxonomy", "explainability taxonomy" },
es = "Clasificación de los métodos de explicación según ejes como local frente a global, específico del modelo frente a agnóstico, post-hoc frente a intrínseco, o basado en atribución de características frente a basado en ejemplos.",
zh = "依据局部/全局、模型相关/模型无关、事后/内在、基于特征归因/基于示例等维度对解释方法进行的分类体系。",
term_es = "taxonomía de explicaciones",
term_zh = "解释方法分类",
aliases_es = { "taxonomía XAI", "taxonomía de la explicabilidad" },
aliases_zh = { "XAI 分类法", "可解释性方法分类" },
}
data["explicit solvent"] = {
short = "A molecular simulation setup in which individual solvent molecules, typically water, are represented atomistically and propagated alongside the solute, in contrast to implicit-solvent continuum models.",
article = nil,
aliases = { "explicit solvation", "explicit water model", "explicit solvent simulation" },
es = "Configuración de simulación molecular en la que las moléculas de disolvente, normalmente agua, se representan de forma atomística y evolucionan junto con el soluto, en contraste con los modelos continuos de solvatación implícita.",
zh = "一种分子模拟设置,其中溶剂分子(通常为水)以原子级别显式表示并与溶质一起演化,区别于隐式溶剂的连续介质模型。",
term_es = "disolvente explícito",
term_zh = "显式溶剂",
aliases_es = { "solvente explícito", "solvatación explícita", "modelo de aguas explícitas" },
aliases_zh = { "显式水模型", "显式溶剂模拟", "显溶剂" },
}
data["exploitation"] = {
short = "In reinforcement learning, the act of selecting actions believed to be best given current value estimates in order to maximize immediate expected reward, in contrast to exploration.",
article = nil,
aliases = { "greedy action", "exploitative action" },
es = "En aprendizaje por refuerzo, la acción de elegir las acciones que se consideran mejores según las estimaciones de valor actuales para maximizar la recompensa esperada inmediata, en contraste con la exploración.",
zh = "在强化学习中,根据当前的价值估计选择被认为最佳的动作以最大化即时期望奖励的行为,与探索相对。",
term_es = "explotación",
term_zh = "利用",
aliases_es = { "acción voraz", "acción explotadora" },
aliases_zh = { "开发", "贪心动作" },
}
data["exploration"] = {
short = "In reinforcement learning, the act of selecting actions to gather information about the environment in order to discover better long-term strategies, as opposed to exploiting current knowledge.",
article = nil,
aliases = { "exploration strategy", "exploratory action" },
es = "En aprendizaje por refuerzo, la acción de elegir acciones para recopilar información sobre el entorno con el fin de descubrir mejores estrategias a largo plazo, en contraposición a explotar el conocimiento actual.",
zh = "在强化学习中,选择动作以收集关于环境的信息,从而发现更优的长期策略,而非利用当前已有知识的行为。",
term_es = "exploración",
term_zh = "探索",
aliases_es = { "estrategia de exploración" },
aliases_zh = { "探索策略" },
}
data["exponential decay"] = {
short = "A learning rate schedule that multiplies the rate by a fixed factor less than one at every step, producing a smooth exponential decrease over time.",
article = nil,
aliases = { "exponential learning rate decay", "exponential decay schedule" },
es = "Programación de tasa de aprendizaje que multiplica la tasa por un factor fijo menor que uno en cada paso, produciendo una disminución exponencial suave a lo largo del tiempo.",
zh = "一种学习率调度策略,在每一步将学习率乘以一个小于 1 的固定因子,产生随时间平滑的指数下降。",
term_es = "decaimiento exponencial",
term_zh = "指数衰减",
aliases_es = { "decaimiento exponencial de la tasa de aprendizaje" },
aliases_zh = { "指数学习率衰减" },
}
data["exponential family"] = {
short = "A broad class of probability distributions whose densities can be written as p(x|η) = h(x) exp(η·T(x) − A(η)), with natural parameter η, sufficient statistic T(x), and log-partition A(η). Members include Gaussian, Bernoulli, Poisson, gamma, beta, Dirichlet and categorical distributions.",
article = nil,
aliases = { "exponential family of distributions", "natural exponential family", "exp family" },
es = "Amplia clase de distribuciones de probabilidad cuyas densidades pueden escribirse como p(x|η) = h(x) exp(η·T(x) − A(η)), con parámetro natural η, estadístico suficiente T(x) y log-partición A(η). Incluye las distribuciones Gaussiana, Bernoulli, Poisson, gamma, beta, Dirichlet y categórica.",
zh = "一大类概率分布,其密度可写为 p(x|η) = h(x) exp(η·T(x) − A(η)),其中 η 为自然参数,T(x) 为充分统计量,A(η) 为对数配分函数。包含高斯、Bernoulli、Poisson、gamma、beta、Dirichlet 和类别分布等成员。",
term_es = "familia exponencial",
term_zh = "指数族",
aliases_es = { "familia exponencial natural", "familia exp" },
aliases_zh = { "指数分布族", "自然指数族" },
}
data["exponential family graphical model"] = {
short = "A graphical model whose joint distribution belongs to the exponential family, with sufficient statistics defined over cliques or factors; this includes Gaussian, Bernoulli, and discrete log-linear MRFs, and admits convex surrogate likelihoods and dual variational formulations.",
article = nil,
aliases = { "exponential family graphical models", "log-linear graphical model", "exponential family Markov random field", "exponential family MRF" },
es = "Un modelo gráfico cuya distribución conjunta pertenece a la familia exponencial, con estadísticos suficientes definidos sobre cliques o factores; abarca los MRF gaussianos, de Bernoulli y log-lineales discretos, y admite surrogados de verosimilitud convexos y formulaciones variacionales duales.",
zh = "联合分布属于指数族的图模型,充分统计量定义在团或因子上;涵盖高斯、伯努利和离散对数线性 MRF,允许凸的替代似然和对偶变分形式。",
term_es = "modelo gráfico de familia exponencial",
term_zh = "指数族图模型",
aliases_es = { "modelo gráfico log-lineal", "MRF de familia exponencial" },
aliases_zh = { "对数线性图模型", "指数族马尔可夫随机场", "指数族 MRF" },
}
data["exponential graph topology"] = {
short = "A communication topology for decentralized SGD in which each node connects to peers at exponentially increasing distances (1, 2, 4, ...), giving logarithmic-diameter graphs that mix gossip averages efficiently.",
article = nil,
aliases = { "exponential graph", "exponential topology", "exponential gossip topology", "one-peer exponential graph" },
es = "Topología de grafo exponencial: topología de comunicación para SGD descentralizado en la que cada nodo se conecta con pares a distancias que crecen exponencialmente (1, 2, 4, ...), produciendo grafos de diámetro logarítmico que mezclan promedios de gossip de forma eficiente.",
zh = "指数图拓扑:一种用于去中心化 SGD 的通信拓扑,每个节点按指数递增的距离(1、2、4、…)与其他节点相连,得到对数直径的图,可高效地进行 gossip 平均混合。",
term_es = "topología de grafo exponencial",
term_zh = "指数图拓扑",
aliases_es = { "grafo exponencial", "topología exponencial" },
aliases_zh = { "指数图", "指数拓扑", "指数 gossip 拓扑" },
}
data["exponential moving average weights"] = {
short = "A copy of the model parameters maintained as a running exponential moving average of the training trajectory; widely used as a free regularizer and as a base for stochastic-weight-averaging variants and self-distillation targets.",
article = nil,
aliases = { "EMA weights", "Polyak averaging", "Polyak-Ruppert averaging", "weight EMA", "shadow weights" },
es = "Copia de los parámetros del modelo mantenida como media móvil exponencial de la trayectoria de entrenamiento; se usa de manera generalizada como regularizador gratuito y como base de variantes de promediado estocástico de pesos y de objetivos de autodestilación.",
zh = "以训练轨迹的指数滑动平均维护的模型参数副本;被广泛用作免费的正则项,并作为随机权重平均变体与自蒸馏目标的基础。",
term_es = "pesos de media móvil exponencial",
term_zh = "指数移动平均权重",
aliases_es = { "pesos EMA", "promediado de Polyak", "promediado de Polyak-Ruppert", "EMA de pesos", "pesos sombra" },
aliases_zh = { "EMA权重", "Polyak平均", "Polyak-Ruppert平均", "权重EMA", "影子权重" },
}
data["exponentiated gradient reduction"] = {
short = "A fairness algorithm by Agarwal et al. (2018) that reduces fair classification under group constraints to a sequence of cost-sensitive learning problems solved via the exponentiated gradient method.",
article = nil,
aliases = { "exponentiated gradient", "EG reduction", "Agarwal reduction" },
es = "Algoritmo de equidad de Agarwal et al. (2018) que reduce la clasificación justa con restricciones de grupo a una secuencia de problemas de aprendizaje sensible al costo resueltos mediante el método de gradiente exponenciado.",
zh = "Agarwal 等人 (2018) 提出的公平算法,将带群体约束的公平分类问题归约为一系列代价敏感学习问题,并通过指数化梯度方法求解。",
term_es = "reducción por gradiente exponenciado",
term_zh = "指数化梯度归约",
aliases_es = { "reducción de gradiente exponenciado", "reducción EG" },
aliases_zh = { "指数梯度归约", "EG 归约" },
}
data["exposure mapping"] = {
short = "A function specifying how each unit's potential outcomes depend on the treatment assignment vector of all units, used to model interference and spillovers in causal inference.",
article = nil,
aliases = { "exposure map", "interference exposure mapping" },
es = "Función que especifica cómo los resultados potenciales de cada unidad dependen del vector de asignación de tratamientos de todas las unidades; se usa para modelar interferencia y efectos de derrame.",
zh = "一个函数,用于刻画每个单位的潜在结果如何依赖所有单位的处理分配向量,用于在因果推断中建模干扰与溢出效应。",
term_es = "mapeo de exposición",
term_zh = "暴露映射",
aliases_es = { "función de exposición" },
aliases_zh = { "暴露函数", "exposure mapping" },
}
data["exposure-based fairness"] = {
short = "A fairness criterion in ranking that allocates user attention or position-weighted exposure across items or groups in proportion to their relevance or merit.",
article = nil,
aliases = { "exposure fairness", "fairness of exposure" },
es = "Criterio de equidad en ranking que asigna la atención del usuario o la exposición ponderada por posición entre ítems o grupos en proporción a su relevancia o mérito.",
zh = "排序中的一种公平性准则,按照项目或群体的相关性或贡献,比例地分配用户注意力或按位置加权的曝光量。",
term_es = "equidad basada en exposición",
term_zh = "基于曝光的公平性",
aliases_es = { "justicia de exposición", "equidad de exposición" },
aliases_zh = { "曝光公平性", "曝光度公平" },
}
data["expression imputation"] = {
short = "Computational prediction of unmeasured gene expression values, either to fill missing entries in a single-cell expression matrix (e.g. MAGIC, scImpute, SAVER) or to predict tissue-specific expression from genotype using reference panels (e.g. PrediXcan, FUSION) for transcriptome-wide association studies.",
article = nil,
aliases = { "gene expression imputation", "imputation of expression", "expression value imputation", "TWAS imputation" },
es = "Predicción computacional de valores de expresión génica no medidos, ya sea para rellenar entradas faltantes en una matriz de expresión de célula única (por ejemplo, MAGIC, scImpute, SAVER) o para predecir la expresión específica de tejido a partir del genotipo usando paneles de referencia (por ejemplo, PrediXcan, FUSION) en estudios de asociación a escala del transcriptoma.",
zh = "通过计算方法预测未测得的基因表达值,可用于填补单细胞表达矩阵中的缺失值(如 MAGIC、scImpute、SAVER),或基于参考面板从基因型预测组织特异性表达(如 PrediXcan、FUSION),以用于全转录组关联研究。",
term_es = "imputación de expresión",
term_zh = "表达水平填补",
aliases_es = { "imputación de expresión génica", "imputación de valores de expresión", "imputación TWAS" },
aliases_zh = { "基因表达填补", "表达值填补", "表达水平推断", "TWAS 表达填补" },
}
data["expression quantitative trait locus"] = {
short = "A genomic region whose genotype is statistically associated with the expression level of one or more genes (cis-eQTLs act on nearby genes; trans-eQTLs act on distant genes). eQTL mapping is foundational to interpreting GWAS variants and to colocalization and TWAS methods.",
article = nil,
aliases = { "eQTL", "eQTLs", "cis-eQTL", "trans-eQTL", "expression QTL" },
es = "Región genómica cuyo genotipo se asocia estadísticamente con el nivel de expresión de uno o más genes (los cis-eQTL actúan sobre genes cercanos; los trans-eQTL sobre genes distantes). El mapeo de eQTL es fundamental para interpretar variantes de GWAS y para los métodos de colocalización y TWAS.",
zh = "基因型与一个或多个基因表达水平在统计上相关的基因组区域(cis-eQTL 作用于附近基因,trans-eQTL 作用于远端基因)。eQTL 定位是解释 GWAS 变异以及共定位和 TWAS 方法的基础。",
term_es = "locus de carácter cuantitativo de expresión",
term_zh = "表达数量性状位点",
aliases_es = { "eQTL", "QTL de expresión", "locus eQTL" },
aliases_zh = { "eQTL", "表达 QTL", "顺式 eQTL", "反式 eQTL" },
}
data["expressive posterior"] = {
short = "A variational or amortized posterior whose family is rich enough — for example via normalizing flows, mixtures, or implicit distributions — to capture multimodality and strong correlations that mean-field Gaussians cannot represent.",
article = nil,
aliases = { "rich posterior", "flexible posterior", "structured posterior", "non-Gaussian posterior" },
es = "Posterior variacional o amortizado cuya familia es lo bastante rica —por ejemplo mediante flujos normalizantes, mezclas o distribuciones implícitas— como para capturar multimodalidad y correlaciones fuertes que los gaussianos de campo medio no pueden representar.",
zh = "其分布族足够丰富的变分或摊销后验——例如通过归一化流、混合分布或隐式分布——能够捕捉均值场高斯无法表达的多模性与强相关性。",
term_es = "posterior expresiva",
term_zh = "表达性后验",
aliases_es = { "posterior rica", "posterior flexible", "posterior estructurada", "posterior no gaussiana" },
aliases_zh = { "丰富后验", "灵活后验", "结构化后验", "非高斯后验" },
}
data["expressive tts"] = {
short = "Text-to-speech synthesis that conveys prosody, emotion, or speaking style beyond a flat neutral reading, often via reference audio, style tokens, or explicit emotion conditioning.",
article = nil,
aliases = { "expressive text-to-speech", "expressive speech synthesis", "emotional TTS", "prosody-controllable TTS" },
es = "Síntesis de texto a voz que transmite prosodia, emoción o estilo de habla más allá de una lectura neutra, normalmente mediante audio de referencia, tokens de estilo o condicionamiento explícito de emoción.",
zh = "一类能够表达韵律、情感或说话风格的文本到语音合成,通常通过参考音频、风格标记或显式情感条件实现,超越平淡的中性朗读。",
term_es = "TTS expresivo",
term_zh = "表现力语音合成",
aliases_es = { "síntesis de voz expresiva", "TTS emocional" },
aliases_zh = { "情感TTS", "富有表现力的TTS", "表达性语音合成" },
}
data["extended connectivity fingerprint"] = {
short = "A circular molecular fingerprint that encodes each atom's environment up to a fixed bond radius using an iterative Morgan-like hashing scheme, producing fixed-length bit or count vectors widely used for similarity search and QSAR.",
article = nil,
aliases = { "ECFP", "ECFP4", "ECFP6", "Morgan fingerprint", "circular fingerprint" },
es = "Huella molecular circular que codifica el entorno de cada átomo hasta un radio de enlaces fijo mediante un esquema iterativo de hash al estilo Morgan, produciendo vectores de bits o conteos de longitud fija ampliamente usados en búsqueda por similitud y QSAR.",
zh = "一种圆形分子指纹,通过类似Morgan的迭代哈希方案将每个原子在固定键半径内的环境编码为定长的比特或计数向量,广泛用于相似性搜索和QSAR建模。",
term_es = "huella de conectividad extendida",
term_zh = "扩展连接性指纹",
aliases_es = { "ECFP", "ECFP4", "ECFP6", "huella Morgan", "huella circular" },
aliases_zh = { "ECFP", "ECFP4", "ECFP6", "摩根指纹", "圆形指纹" },
}
data["extended kalman filter"] = {
short = "An extension of the Kalman filter to nonlinear dynamics or observation models that linearizes the system around the current estimate via a first-order Taylor expansion (Jacobians) and applies the standard Kalman update; widely used in robotics and tracking.",
article = nil,
aliases = { "EKF", "extended Kalman filtering", "extended Kalman" },
es = "Una extensión del filtro de Kalman a dinámicas o modelos de observación no lineales que linealiza el sistema en torno a la estimación actual mediante una expansión de Taylor de primer orden (jacobianos) y aplica la actualización estándar de Kalman; muy usado en robótica y seguimiento.",
zh = "卡尔曼滤波在非线性动力学或观测模型下的扩展,通过在当前估计附近的一阶泰勒展开(雅可比矩阵)对系统线性化,然后应用标准卡尔曼更新;在机器人学和目标跟踪中广泛应用。",
term_es = "filtro de Kalman extendido",
term_zh = "扩展卡尔曼滤波",
aliases_es = { "EKF", "filtro Kalman extendido", "filtrado de Kalman extendido" },
aliases_zh = { "EKF", "扩展卡尔曼滤波器", "EKF 滤波" },
}
data["extended kalman filter training"] = {
short = "A second-order online training method for neural networks that treats weight updates as a state-estimation problem and applies the extended Kalman filter to linearize the network around current parameters.",
article = nil,
aliases = { "EKF training", "extended Kalman filter learning", "EKF backpropagation", "Kalman filter neural network training" },
es = "Método de entrenamiento online de segundo orden para redes neuronales que trata las actualizaciones de pesos como un problema de estimación de estado y aplica el filtro de Kalman extendido para linealizar la red en torno a los parámetros actuales.",
zh = "一种用于神经网络的二阶在线训练方法,将权重更新视为状态估计问题,并采用扩展卡尔曼滤波器在当前参数附近对网络进行线性化。",
term_es = "entrenamiento con filtro de Kalman extendido",
term_zh = "扩展卡尔曼滤波训练",
aliases_es = { "entrenamiento EKF", "aprendizaje con filtro de Kalman extendido", "retropropagación EKF", "entrenamiento de redes con filtro de Kalman" },
aliases_zh = { "EKF训练", "扩展卡尔曼滤波学习", "EKF反向传播", "卡尔曼滤波神经网络训练" },
}
data["external validity"] = {
short = "The extent to which the causal conclusions of a study generalize beyond its specific sample, setting, treatment version, and time period to other populations and contexts.",
article = nil,
aliases = { "generalizability", "transportability of effects" },
es = "Grado en que las conclusiones causales de un estudio se generalizan más allá de su muestra, contexto, versión del tratamiento y período específicos a otras poblaciones y contextos.",
zh = "研究的因果结论能够推广到其特定样本、环境、处理版本与时间段之外的其他人群和情境的程度。",
term_es = "validez externa",
term_zh = "外部效度",
aliases_es = { "generalizabilidad" },
aliases_zh = { "外部有效性", "可推广性" },
}
data["extracted rationale"] = {
short = "A rationale obtained by reading out information from a model's internal states or attention patterns, in contrast to one produced by re-prompting or generation.",
article = nil,
aliases = { "extracted rationales", "internal-state rationale" },
es = "Justificación obtenida leyendo información de los estados internos o de los patrones de atención de un modelo, en contraposición a la producida mediante reprompting o generación.",
zh = "通过读取模型内部状态或注意力模式所获得的解释依据,与通过重新提示或生成得到的解释相对。",
term_es = "justificación extraída",
term_zh = "抽取式理由",
aliases_es = { "racional extraído", "justificación de estados internos" },
aliases_zh = { "抽取的理由", "基于内部状态的理由" },
}
data["extractive rationale"] = {
short = "An explanation that consists of a selected subset of input tokens (a hard mask) deemed sufficient by the model to make its prediction; central to select-then-predict architectures.",
article = nil,
aliases = { "extractive rationales", "rationale extraction", "selected rationale" },
es = "Explicación que consiste en un subconjunto seleccionado de tokens de entrada (una máscara dura) que el modelo considera suficiente para hacer su predicción; central en las arquitecturas seleccionar-luego-predecir.",
zh = "由输入中被选取的若干词元(硬掩码)组成、被模型视为足以做出预测的解释;是先选择再预测架构的核心。",
term_es = "justificación extractiva",
term_zh = "抽取式理由",
aliases_es = { "racional extractivo", "extracción de racionales" },
aliases_zh = { "抽取式解释", "抽取的理由" },
}
data["f-beta score"] = {
short = "Weighted harmonic mean of precision and recall, F_β = (1+β²)·P·R/(β²·P + R). Setting β > 1 favors recall and β < 1 favors precision; F1 is the special case β = 1.",
article = nil,
aliases = { "F-beta", "Fβ score", "F_β", "weighted F-score", "F-beta measure" },
es = "Media armónica ponderada entre precisión y exhaustividad, F_β = (1+β²)·P·R/(β²·P + R). Con β > 1 se da más peso a la exhaustividad y con β < 1 a la precisión; F1 es el caso particular β = 1.",
zh = "精确率与召回率的加权调和平均,F_β = (1+β²)·P·R/(β²·P + R)。β > 1 时偏向召回率,β < 1 时偏向精确率;β = 1 即为 F1。",
term_es = "puntuación F-beta",
term_zh = "F-beta 分数",
aliases_es = { "F_β", "F-beta", "medida F-beta" },
aliases_zh = { "Fβ 分数", "F-β 值", "F-beta", "F_β" },
}
data["f0 estimation"] = {
short = "The task of extracting the fundamental frequency (pitch) contour of a speech or music signal over time, used in TTS, voice conversion, and music information retrieval.",
article = nil,
aliases = { "pitch estimation", "pitch tracking", "fundamental frequency estimation", "F0 extraction", "F0 tracking" },
es = "Tarea de extraer el contorno de la frecuencia fundamental (tono) de una señal de habla o música a lo largo del tiempo, utilizada en TTS, conversión de voz y recuperación de información musical.",
zh = "从语音或音乐信号中提取随时间变化的基频(音高)轮廓的任务,广泛用于语音合成、语音转换和音乐信息检索。",
term_es = "estimación de F0",
term_zh = "基频估计",
aliases_es = { "estimación de tono", "extracción de F0", "seguimiento de tono" },
aliases_zh = { "音高估计", "F0提取", "音高跟踪", "基频跟踪" },
}
data["f0 rmse"] = {
short = "Root-mean-square error between predicted and reference fundamental frequency contours, a standard objective metric for evaluating pitch accuracy in TTS and voice conversion.",
article = nil,
aliases = { "F0 RMSE", "pitch RMSE", "fundamental frequency RMSE", "F0 root mean square error" },
es = "Error cuadrático medio entre los contornos de frecuencia fundamental predicho y de referencia; métrica objetiva estándar para evaluar la precisión del tono en TTS y conversión de voz.",
zh = "预测基频轮廓与参考基频轮廓之间的均方根误差,是评估TTS和语音转换中音高准确性的标准客观指标。",
term_es = "F0 RMSE",
term_zh = "F0 RMSE",
aliases_es = { "RMSE de F0", "RMSE de tono" },
aliases_zh = { "基频均方根误差", "音高RMSE" },
}
data["f1 score"] = {
short = "The harmonic mean of precision and recall, F1 = 2·P·R/(P+R). Balances both metrics in a single score and is widely used for imbalanced classification where accuracy is uninformative.",
article = nil,
aliases = { "F1", "F-score", "F-measure", "F1-score", "balanced F-score" },
es = "Media armónica entre precisión y exhaustividad, F1 = 2·P·R/(P+R). Combina ambas métricas en un solo valor y se utiliza ampliamente en clasificación desbalanceada, donde la exactitud no es informativa.",
zh = "精确率与召回率的调和平均,F1 = 2·P·R/(P+R)。它在单一指标中平衡两者,常用于类别不均衡的分类任务,此时仅用准确率难以反映性能。",
term_es = "puntuación F1",
term_zh = "F1 分数",
aliases_es = { "F1", "medida F", "puntaje F1", "F-score" },
aliases_zh = { "F1", "F1 值", "F 度量", "F-score" },
}
data["f5-tts"] = {
short = "A non-autoregressive zero-shot text-to-speech system based on flow matching over a diffusion transformer, capable of cloning a voice from a few seconds of reference audio.",
article = nil,
aliases = { "F5-TTS", "F5 TTS" },
es = "Sistema de síntesis de voz no autoregresivo y zero-shot basado en flow matching sobre un transformer de difusión, capaz de clonar una voz a partir de unos segundos de audio de referencia.",
zh = "一种基于扩散 Transformer 上流匹配的非自回归零样本文本转语音系统,可根据数秒参考音频克隆说话人的声音。",
term_es = "F5-TTS",
term_zh = "F5-TTS",
aliases_es = {},
aliases_zh = {},
}
data["face recognition bias"] = {
short = "Systematic disparities in face-recognition accuracy across demographic groups (e.g., skin tone, gender, age), often documented through audits such as the NIST FRVT and Gender Shades study.",
article = nil,
aliases = { "facial recognition bias", "face recognition disparity", "demographic bias in face recognition" },
es = "Disparidades sistemáticas en la precisión del reconocimiento facial entre grupos demográficos (por ejemplo, tono de piel, género, edad), documentadas mediante auditorías como NIST FRVT y el estudio Gender Shades.",
zh = "人脸识别在不同人口群体(如肤色、性别、年龄)之间准确率的系统性差异,常通过 NIST FRVT 和 Gender Shades 等审计加以记录。",
term_es = "sesgo en reconocimiento facial",
term_zh = "人脸识别偏差",
aliases_es = { "sesgo del reconocimiento facial", "disparidad demográfica en reconocimiento facial" },
aliases_zh = { "人脸识别偏见", "面部识别偏差" },
}
data["facebook denoiser"] = {
short = "An open-source real-time speech enhancement model from Meta AI based on a causal U-Net architecture operating on raw waveforms, designed to remove background noise from speech.",
article = nil,
aliases = { "Facebook Denoiser", "Meta Denoiser", "Demucs Denoiser", "denoiser (Facebook)" },
es = "Modelo de mejora de voz en tiempo real y de código abierto de Meta AI, basado en una arquitectura U-Net causal que opera sobre formas de onda crudas y elimina el ruido de fondo del habla.",
zh = "Meta AI 发布的开源实时语音增强模型,基于因果 U-Net 架构直接在原始波形上运行,用于去除语音中的背景噪声。",
term_es = "Facebook Denoiser",
term_zh = "Facebook Denoiser",
aliases_es = { "Meta Denoiser", "denoiser de Facebook" },
aliases_zh = { "Meta 降噪器", "Facebook 降噪器" },
}
data["fact verification"] = {
short = "The task of automatically determining whether a textual claim is supported, refuted, or has insufficient evidence, given a corpus of trusted documents such as Wikipedia, popularized by the FEVER shared task.",
article = nil,
aliases = { "claim verification", "automated fact-checking", "fact checking", "FEVER task", "textual fact verification" },
es = "La tarea de determinar automáticamente si una afirmación textual está respaldada, refutada o tiene evidencia insuficiente, dado un corpus de documentos de confianza como Wikipedia, popularizada por la tarea compartida FEVER.",
zh = "在给定 Wikipedia 等可信文档语料的条件下,自动判定文本声明是被支持、反驳还是证据不足的任务,以 FEVER 共享任务而广为人知。",
term_es = "verificación de hechos",
term_zh = "事实验证",
aliases_es = { "verificación de afirmaciones", "verificación automática de hechos", "fact-checking automatizado", "tarea FEVER" },
aliases_zh = { "声明验证", "自动事实核查", "事实核查", "FEVER 任务" },
}
data["factor analysis"] = {
short = "A latent-variable model that explains observed continuous variables as linear combinations of a smaller number of unobserved Gaussian factors plus independent Gaussian noise; closely related to PCA but with a probabilistic generative formulation and noise model.",
article = nil,
aliases = { "FA", "classical factor analysis", "Gaussian factor analysis", "probabilistic factor analysis" },
es = "Un modelo de variables latentes que explica las variables continuas observadas como combinaciones lineales de un número menor de factores gaussianos no observados más ruido gaussiano independiente; estrechamente relacionado con el PCA pero con una formulación generativa probabilística y un modelo de ruido.",
zh = "一种潜变量模型,将观测到的连续变量解释为少量未观测高斯因子的线性组合加独立高斯噪声;与 PCA 密切相关,但具有概率生成式表述和噪声模型。",
term_es = "análisis factorial",
term_zh = "因子分析",
aliases_es = { "FA", "análisis factorial clásico", "análisis factorial probabilístico" },
aliases_zh = { "FA", "因子分析法", "高斯因子分析" },
}
data["factor graph"] = {
short = "A bipartite graph with variable nodes and factor nodes, where each factor node is connected to the variables it depends on; encodes any factorization of a global function (such as a probability distribution) and underlies the sum-product and max-product algorithms.",
article = nil,
aliases = { "factor graphs", "Forney factor graph", "bipartite factor graph", "Tanner graph" },
es = "Un grafo bipartito con nodos de variable y nodos de factor, en el que cada nodo de factor se conecta con las variables de las que depende; codifica cualquier factorización de una función global (como una distribución de probabilidad) y sustenta los algoritmos suma-producto y máx-producto.",
zh = "一种由变量节点和因子节点构成的二部图,每个因子节点与其依赖的变量相连;可编码任何全局函数(如概率分布)的分解,是和-积与最大-积算法的基础。",
term_es = "grafo de factores",
term_zh = "因子图",
aliases_es = { "factor graph", "grafo de factores de Forney", "grafo de Tanner" },
aliases_zh = { "因子图模型", "Forney 因子图", "Tanner 图" },
}
data["factorial hidden markov model"] = {
short = "A hidden Markov model with multiple independent latent Markov chains whose states jointly generate the observations through a common emission distribution; provides a distributed state representation but renders exact inference intractable in the number of chains.",
article = nil,
aliases = { "FHMM", "factorial HMM", "Ghahramani Jordan FHMM", "factorial hidden Markov models" },
es = "Un modelo oculto de Markov con varias cadenas latentes de Markov independientes cuyos estados generan conjuntamente las observaciones a través de una distribución de emisión común; ofrece una representación de estado distribuida, pero hace intratable la inferencia exacta al crecer el número de cadenas.",
zh = "一种隐马尔可夫模型,具有多条相互独立的潜在马尔可夫链,其状态通过共同的发射分布共同生成观测;提供分布式状态表示,但精确推断的复杂度随链数指数增长。",
term_es = "modelo oculto de Markov factorial",
term_zh = "因子隐马尔可夫模型",
aliases_es = { "FHMM", "HMM factorial", "modelo factorial HMM" },
aliases_zh = { "FHMM", "因子 HMM", "因子化隐马尔可夫模型" },
}
data["factorization machines"] = {
short = "A model class that captures interactions between features via low-rank factorization of pairwise interaction terms. Widely used in recommender systems and CTR prediction.",
article = "Factorization Machines",
aliases = { "factorization machine", "FM" },
es = "Clase de modelos que captura interacciones entre características mediante factorización de bajo rango de los términos de interacción por pares. Ampliamente utilizada en sistemas de recomendación y predicción de CTR.",
zh = "通过对成对交互项进行低秩分解来捕获特征间交互的模型类。广泛用于推荐系统和点击率预测。",
term_es = "máquinas de factorización",
term_zh = "因子分解机",
aliases_es = { "FM", "máquina de factorización" },
aliases_zh = { "FM" },
}
data["factsheet for ai"] = {
short = "A standardized documentation template proposed by IBM that records an AI service's purpose, training data, performance, fairness metrics, intended use, and known limitations.",
article = nil,
aliases = { "AI FactSheet", "FactSheets for AI", "AI factsheet" },
es = "Plantilla de documentación estandarizada propuesta por IBM que registra el propósito, datos de entrenamiento, rendimiento, métricas de equidad, uso previsto y limitaciones conocidas de un servicio de IA.",
zh = "由 IBM 提出的标准化文档模板,用于记录人工智能服务的用途、训练数据、性能、公平性指标、预期用途和已知局限。",
term_es = "ficha técnica para IA",
term_zh = "AI 事实清单",
aliases_es = { "FactSheet de IA", "ficha de hechos para IA" },
aliases_zh = { "AI FactSheet", "人工智能事实表" },
}
data["fad"] = {
short = "Fréchet Audio Distance: a reference-free quality metric for generated audio that measures the distance between Gaussian-modeled embeddings of generated and reference audio, typically using VGGish features.",
article = nil,
aliases = { "FAD", "Fréchet Audio Distance", "Frechet Audio Distance" },
es = "Distancia Audio de Fréchet: métrica de calidad sin referencia para audio generado que mide la distancia entre embeddings modelados como gaussianas del audio generado y de referencia, normalmente usando características VGGish.",
zh = "Fréchet 音频距离:一种无需参考样本的生成音频质量评估指标,通过对生成音频和参考音频的嵌入(通常使用 VGGish 特征)建模为高斯分布并计算其距离来衡量。",
term_es = "FAD",
term_zh = "FAD",
aliases_es = { "distancia audio de Fréchet", "distancia de Fréchet para audio" },
aliases_zh = { "Fréchet音频距离", "弗雷歇音频距离" },
}
data["faenet"] = {
short = "A frame-averaging equivariant graph neural network for atomistic systems that achieves SE(3)-invariant or equivariant predictions by averaging a non-equivariant backbone over canonical frames, trading exact equivariance for substantially lower computational cost.",
article = nil,
aliases = { "FAENet", "Frame Averaging Equivariant Network", "frame averaging GNN" },
es = "Red neuronal de grafos equivariante por promediado de marcos para sistemas atomísticos que obtiene predicciones invariantes o equivariantes a SE(3) promediando una red base no equivariante sobre marcos canónicos, sacrificando equivarianza exacta a cambio de un coste computacional mucho menor.",
zh = "一种基于帧平均的等变图神经网络,用于原子系统建模,通过在规范坐标系上对非等变主干进行平均来获得SE(3)不变或等变的预测,以放弃严格等变换取显著降低的计算成本。",
term_es = "FAENet",
term_zh = "FAENet",
aliases_es = { "FAENet", "red equivariante por promediado de marcos" },
aliases_zh = { "FAENet", "帧平均等变网络" },
}
data["fair active learning"] = {
short = "Active learning strategies that select queries to label so as to improve model accuracy while satisfying or improving fairness across protected groups.",
article = nil,
aliases = { "fairness-aware active learning", "fair query selection" },
es = "Estrategias de aprendizaje activo que seleccionan consultas para etiquetar con el fin de mejorar la precisión del modelo a la vez que satisfacen o mejoran la equidad entre grupos protegidos.",
zh = "主动学习策略,在选择待标注样本时既提升模型准确率,又满足或改善受保护群体之间的公平性。",
term_es = "aprendizaje activo justo",
term_zh = "公平主动学习",
aliases_es = { "aprendizaje activo equitativo", "aprendizaje activo con conciencia de equidad" },
aliases_zh = { "公平性感知主动学习", "公平查询选择" },
}
data["fair allocation"] = {
short = "The problem of dividing scarce resources, opportunities, or burdens among agents according to fairness criteria such as proportionality, envy-freeness, or equitability.",
article = nil,
aliases = { "fair division", "fair resource allocation", "equitable allocation" },
es = "Problema de dividir recursos escasos, oportunidades o cargas entre agentes según criterios de equidad como proporcionalidad, ausencia de envidia o equitatividad.",
zh = "在多个主体之间根据比例性、无嫉妒、公平等准则分配稀缺资源、机会或负担的问题。",
term_es = "asignación justa",
term_zh = "公平分配",
aliases_es = { "división justa", "asignación equitativa de recursos" },
aliases_zh = { "公平划分", "公平资源分配" },
}
data["fair annotation"] = {
short = "Data labeling protocols designed to mitigate annotator bias, ensure diverse annotator pools, and produce ground-truth labels that do not encode discriminatory assumptions.",
article = nil,
aliases = { "fair labeling", "fairness-aware annotation", "bias-aware annotation" },
es = "Protocolos de etiquetado de datos diseñados para mitigar el sesgo de los anotadores, asegurar grupos diversos de anotadores y producir etiquetas de referencia que no codifiquen suposiciones discriminatorias.",
zh = "旨在缓解标注者偏见、确保标注者群体多样性,并产生不编码歧视性假设的真实标签的数据标注协议。",
term_es = "anotación justa",
term_zh = "公平标注",
aliases_es = { "etiquetado justo", "anotación con conciencia de equidad" },
aliases_zh = { "公平数据标注", "偏差感知标注" },
}
data["fair classifier"] = {
short = "A classification model trained or constrained to satisfy a quantitative fairness criterion such as demographic parity, equalized odds, or calibration across protected groups.",
article = nil,
aliases = { "fairness-aware classifier", "fair classification model" },
es = "Modelo de clasificación entrenado o restringido para satisfacer un criterio cuantitativo de equidad como paridad demográfica, igualdad de oportunidades o calibración entre grupos protegidos.",
zh = "经过训练或施加约束以满足人口统计学平等、机会均等或群体校准等定量公平性准则的分类模型。",
term_es = "clasificador justo",
term_zh = "公平分类器",
aliases_es = { "clasificador con conciencia de equidad", "modelo de clasificación justa" },
aliases_zh = { "公平性感知分类器", "公平分类模型" },
}
data["fair clustering"] = {
short = "Clustering algorithms constrained so that each cluster has balanced or proportional representation of protected groups, often formalized via balance or proportionality constraints.",
article = nil,
aliases = { "fairness-aware clustering", "balanced clustering" },
es = "Algoritmos de agrupamiento con restricciones para que cada grupo tenga una representación equilibrada o proporcional de los grupos protegidos, formalizadas mediante restricciones de balance o proporcionalidad.",
zh = "对每个聚类簇施加约束,使受保护群体在簇内具有均衡或按比例的代表性,通常通过平衡或比例约束加以形式化。",
term_es = "agrupamiento justo",
term_zh = "公平聚类",
aliases_es = { "clustering justo", "agrupamiento equilibrado" },
aliases_zh = { "公平性感知聚类", "均衡聚类" },
}
data["fair data collection"] = {
short = "Practices for gathering training and evaluation data that ensure adequate representation across demographic groups, informed consent, and minimization of selection bias.",
article = nil,
aliases = { "equitable data collection", "fairness-aware data collection" },
es = "Prácticas de recolección de datos de entrenamiento y evaluación que aseguran una representación adecuada de los grupos demográficos, el consentimiento informado y la minimización del sesgo de selección.",
zh = "训练和评估数据的采集实践,确保不同人口群体获得充分代表、获得知情同意并尽量减少选择偏差。",
term_es = "recolección de datos justa",
term_zh = "公平数据收集",
aliases_es = { "recolección equitativa de datos", "recopilación de datos justa" },
aliases_zh = { "公平数据采集", "公平性感知数据收集" },
}
data["fair encoder"] = {
short = "A representation learning model trained so that its learned embeddings are predictive of the target task while remaining uninformative about protected attributes.",
article = nil,
aliases = { "fair representation encoder", "debiased encoder" },
es = "Modelo de aprendizaje de representaciones entrenado para que sus embeddings predigan la tarea objetivo mientras permanecen poco informativos sobre los atributos protegidos.",
zh = "经过训练使所学嵌入对目标任务具有预测性、同时对受保护属性保持无信息性的表示学习模型。",
term_es = "codificador justo",
term_zh = "公平编码器",
aliases_es = { "encoder justo", "codificador debiased" },
aliases_zh = { "公平表示编码器", "去偏编码器" },
}
data["fair erm"] = {
short = "Fair empirical risk minimization: a learning framework that minimizes empirical loss subject to one or more fairness constraints expressed as functions of the predictor and protected attributes.",
article = nil,
aliases = { "Fair ERM", "fair empirical risk minimization", "constrained ERM for fairness" },
es = "Minimización empírica del riesgo justa: marco de aprendizaje que minimiza la pérdida empírica sujeta a una o más restricciones de equidad expresadas como funciones del predictor y los atributos protegidos.",
zh = "公平经验风险最小化:在最小化经验损失的同时,对预测器与受保护属性的函数施加一项或多项公平性约束的学习框架。",
term_es = "ERM justo",
term_zh = "公平经验风险最小化",
aliases_es = { "minimización empírica del riesgo justa", "ERM con restricciones de equidad" },
aliases_zh = { "公平 ERM", "带公平约束的经验风险最小化" },
}
data["fair federated learning"] = {
short = "Federated learning that explicitly optimizes for performance fairness across clients or demographic groups, rather than only mean accuracy, often via reweighting, minimax objectives, or constrained optimization.",
article = nil,
aliases = { "fairness in federated learning", "fairness-aware federated learning", "FFL", "equitable federated learning" },
es = "Aprendizaje federado justo: aprendizaje federado que optimiza explícitamente la equidad de rendimiento entre clientes o grupos demográficos, en lugar de únicamente la precisión media, normalmente mediante reponderación, objetivos minimax u optimización con restricciones.",
zh = "公平联邦学习:在联邦学习中显式优化各客户端或人口群体之间性能公平性的方法,而不仅仅追求平均准确率,常通过重加权、极小极大目标或带约束优化实现。",
term_es = "aprendizaje federado justo",
term_zh = "公平联邦学习",
aliases_es = { "FL justo", "equidad en aprendizaje federado" },
aliases_zh = { "公平的联邦学习", "联邦学习公平性" },
}
data["fair generative model"] = {
short = "A generative model whose samples are constrained or trained to be balanced across protected attributes, avoiding amplification of representation biases present in the training data.",
article = nil,
aliases = { "fairness-aware generative model", "debiased generative model" },
es = "Modelo generativo cuyas muestras están restringidas o entrenadas para ser equilibradas entre atributos protegidos, evitando amplificar los sesgos de representación presentes en los datos de entrenamiento.",
zh = "其生成样本在受保护属性间被约束或训练以保持均衡的生成模型,避免放大训练数据中的表示偏差。",
term_es = "modelo generativo justo",
term_zh = "公平生成模型",
aliases_es = { "modelo generativo con conciencia de equidad", "modelo generativo debiased" },
aliases_zh = { "公平性感知生成模型", "去偏生成模型" },
}
data["fair lagrangian"] = {
short = "A Lagrangian formulation of fair learning in which fairness constraints are added to the loss with multipliers updated by saddle-point optimization, yielding constrained-fair classifiers.",
article = nil,
aliases = { "Lagrangian fairness", "fair Lagrangian method" },
es = "Formulación lagrangiana del aprendizaje justo en la que las restricciones de equidad se agregan a la pérdida con multiplicadores actualizados mediante optimización en punto silla, produciendo clasificadores justos con restricciones.",
zh = "公平学习的拉格朗日表述,将公平性约束作为带乘子的项加入损失函数,并通过鞍点优化更新乘子,从而得到带约束的公平分类器。",
term_es = "lagrangiano justo",
term_zh = "公平拉格朗日方法",
aliases_es = { "método lagrangiano de equidad", "formulación lagrangiana justa" },
aliases_zh = { "拉格朗日公平性", "公平拉格朗日法" },
}
data["fair lending"] = {
short = "The legal and regulatory principle that credit must be extended without discrimination based on protected attributes; in the United States enforced through statutes such as the Equal Credit Opportunity Act and Fair Housing Act.",
article = nil,
aliases = { "fair lending laws", "non-discriminatory lending", "ECOA compliance" },
es = "Principio legal y regulatorio según el cual el crédito debe otorgarse sin discriminación por atributos protegidos; en Estados Unidos se aplica mediante leyes como la Equal Credit Opportunity Act y la Fair Housing Act.",
zh = "信贷应当在不基于受保护属性歧视的前提下发放的法律与监管原则;在美国通过《平等信用机会法》和《公平住房法》等法规加以执行。",
term_es = "préstamos justos",
term_zh = "公平信贷",
aliases_es = { "crédito justo", "leyes de préstamos justos" },
aliases_zh = { "公平借贷", "非歧视信贷" },
}
data["fair pagerank"] = {
short = "Variants of the PageRank algorithm that constrain the stationary distribution to allocate a target share of importance to nodes belonging to protected groups.",
article = nil,
aliases = { "Fair PageRank", "fairness-aware PageRank" },
es = "Variantes del algoritmo PageRank que restringen la distribución estacionaria para asignar una proporción objetivo de importancia a los nodos que pertenecen a grupos protegidos.",
zh = "PageRank 算法的变体,对其平稳分布施加约束,使受保护群体节点获得目标份额的重要性。",
term_es = "PageRank justo",
term_zh = "公平 PageRank",
aliases_es = { "PageRank con conciencia de equidad", "PageRank equitativo" },
aliases_zh = { "公平性感知 PageRank", "公平网页排名" },
}
data["fair pca"] = {
short = "Variants of principal component analysis that minimize a worst-case or balanced reconstruction-error gap across protected groups, ensuring no group's variance is sacrificed disproportionately.",
article = nil,
aliases = { "Fair PCA", "fair principal component analysis", "fairness-aware PCA" },
es = "Variantes del análisis de componentes principales que minimizan la brecha de error de reconstrucción peor caso o equilibrada entre grupos protegidos, garantizando que ninguna varianza de grupo se sacrifique de manera desproporcionada.",
zh = "主成分分析的变体,最小化受保护群体之间最坏情形或均衡的重建误差差距,确保没有任一群体的方差被不成比例地牺牲。",
term_es = "PCA justo",
term_zh = "公平 PCA",
aliases_es = { "análisis de componentes principales justo", "PCA con conciencia de equidad" },
aliases_zh = { "公平主成分分析", "公平性感知 PCA" },
}
data["fair ranking"] = {
short = "Ranking algorithms that allocate exposure, position, or selection probability across items so that protected groups receive treatment proportional to their relevance or representation.",
article = nil,
aliases = { "fairness in ranking", "fairness-aware ranking", "fair ordering" },
es = "Algoritmos de ranking que asignan exposición, posición o probabilidad de selección entre ítems de modo que los grupos protegidos reciban un trato proporcional a su relevancia o representación.",
zh = "排序算法,在各项目之间分配曝光度、位置或被选概率,使受保护群体获得与其相关性或代表性成比例的对待。",
term_es = "ranking justo",
term_zh = "公平排序",
aliases_es = { "ordenamiento justo", "ranking con conciencia de equidad" },
aliases_zh = { "公平排名", "公平性感知排序" },
}
data["fair regression"] = {
short = "Regression methods that constrain or penalize the predictor so that conditional mean error, prediction distribution, or calibration is balanced across protected groups.",
article = nil,
aliases = { "fairness-aware regression", "fair regression model" },
es = "Métodos de regresión que restringen o penalizan el predictor para que el error medio condicional, la distribución de predicciones o la calibración estén equilibrados entre grupos protegidos.",
zh = "回归方法,对预测器施加约束或惩罚,使条件均值误差、预测分布或校准在受保护群体之间保持均衡。",
term_es = "regresión justa",
term_zh = "公平回归",
aliases_es = { "regresión con conciencia de equidad", "modelo de regresión justa" },
aliases_zh = { "公平性感知回归", "公平回归模型" },
}
data["fair representation learning"] = {
short = "Learning embeddings from data such that they remain predictive of downstream tasks while removing or limiting information about protected attributes, often via adversarial or information-theoretic objectives.",
article = nil,
aliases = { "FRL", "learning fair representations", "LFR", "fairness-aware representation learning" },
es = "Aprendizaje de embeddings a partir de datos de modo que sigan siendo predictivos para tareas posteriores eliminando o limitando la información sobre atributos protegidos, a menudo mediante objetivos adversariales o teórico-informativos.",
zh = "从数据中学习嵌入,使其在保留对下游任务预测能力的同时,去除或限制关于受保护属性的信息,常通过对抗或信息论目标实现。",
term_es = "aprendizaje de representaciones justas",
term_zh = "公平表示学习",
aliases_es = { "FRL", "aprendizaje de representaciones equitativas" },
aliases_zh = { "FRL", "公平表征学习", "公平性感知表示学习" },
}
data["fair top-k"] = {
short = "Top-k selection algorithms that, when picking the k highest-scoring items, also enforce minimum or proportional representation of protected groups in the chosen subset.",
article = nil,
aliases = { "FA*IR", "fair top-k selection", "fair top-k ranking" },
es = "Algoritmos de selección top-k que, al elegir los k ítems con mayor puntuación, también imponen una representación mínima o proporcional de los grupos protegidos en el subconjunto seleccionado.",
zh = "top-k 选择算法,在挑选得分最高的 k 个项目时,对所选子集中受保护群体的最低或按比例代表性加以强制。",
term_es = "top-k justo",
term_zh = "公平 top-k",
aliases_es = { "FA*IR", "selección top-k justa" },
aliases_zh = { "FA*IR", "公平前 k 选择", "公平 top-k 排序" },
}
data["fair-darts"] = {
short = "A variant of DARTS that addresses the unfair advantage of skip connections in differentiable architecture search by using sigmoid (rather than softmax) operation weights so candidate operations compete independently.",
article = nil,
aliases = { "Fair DARTS", "FairDARTS", "Fair-DARTS", "fair differentiable architecture search" },
es = "Variante de DARTS que aborda la ventaja injusta de las conexiones residuales en la búsqueda diferenciable de arquitecturas usando pesos de operación con sigmoide (en lugar de softmax) para que las operaciones candidatas compitan de forma independiente.",
zh = "DARTS 的变体,通过对操作权重使用 sigmoid(而非 softmax),让候选操作独立竞争,从而解决可微分架构搜索中跳跃连接的不公平优势问题。",
term_es = "Fair-DARTS",
term_zh = "Fair-DARTS",
aliases_es = { "Fair DARTS", "DARTS justo" },
aliases_zh = { "Fair DARTS", "公平DARTS" },
}
data["fairgan"] = {
short = "A generative adversarial network architecture that learns to produce synthetic data satisfying demographic parity or related fairness constraints, by augmenting the discriminator with a fairness-aware loss term.",
article = nil,
aliases = { "FairGAN", "fair GAN", "fairness GAN" },
es = "Arquitectura de red generativa adversaria que aprende a producir datos sintéticos que satisfacen restricciones de paridad demográfica u otras restricciones de equidad, mediante un término de pérdida sensible a la equidad en el discriminador.",
zh = "一种生成对抗网络架构,通过在判别器中加入公平性损失项,学习生成满足人口统计学奇偶性或相关公平性约束的合成数据。",
term_es = "FairGAN",
term_zh = "FairGAN",
aliases_es = { "FairGAN", "GAN justa" },
aliases_zh = { "FairGAN", "公平生成对抗网络" },
}
data["fairlearn"] = {
short = "An open-source Python toolkit developed by Microsoft for assessing and mitigating fairness-related harms in machine learning systems, providing metrics, mitigation algorithms, and visualization dashboards.",
article = nil,
aliases = { "Fairlearn", "fairlearn library", "fairlearn toolkit" },
es = "Conjunto de herramientas de Python de código abierto desarrollado por Microsoft para evaluar y mitigar daños relacionados con la equidad en sistemas de aprendizaje automático, con métricas, algoritmos de mitigación y paneles de visualización.",
zh = "由微软开发的开源Python工具包,用于评估和缓解机器学习系统中与公平性相关的危害,提供度量指标、缓解算法和可视化仪表板。",
term_es = "Fairlearn",
term_zh = "Fairlearn",
aliases_es = { "Fairlearn", "biblioteca Fairlearn" },
aliases_zh = { "Fairlearn", "Fairlearn 工具包" },
}
data["fairnas"] = {
short = "A NAS supernet training method that enforces strict fairness across candidate operations by uniformly sampling and updating each operation an equal number of times per training step, improving rank correlation between supernet and standalone evaluations.",
article = nil,
aliases = { "FairNAS", "Fair NAS", "fair neural architecture search" },
es = "Método de entrenamiento de supernet de NAS que impone equidad estricta entre operaciones candidatas, muestreando y actualizando uniformemente cada operación el mismo número de veces por paso de entrenamiento, lo que mejora la correlación de ranking entre la supernet y la evaluación independiente.",
zh = "一种 NAS 超网络训练方法,在每个训练步骤中均匀采样并更新每个候选操作相同的次数,强制在候选操作之间实现严格公平,从而改善超网络与独立评估之间的排名相关性。",
term_es = "FairNAS",
term_zh = "FairNAS",
aliases_es = { "NAS justo" },
aliases_zh = { "公平NAS" },
}
data["fairness"] = {
short = "A set of criteria and methods for ensuring that machine learning systems do not produce systematically disparate outcomes across protected groups. Common formalizations include demographic parity, equalized odds, and individual fairness.",
article = nil,
aliases = { "algorithmic fairness", "ML fairness", "fairness in machine learning" },
es = "Conjunto de criterios y métodos para asegurar que los sistemas de aprendizaje automático no produzcan resultados sistemáticamente desiguales entre grupos protegidos. Formalizaciones comunes incluyen la paridad demográfica, las probabilidades igualadas y la equidad individual.",
zh = "一组用于确保机器学习系统不会在受保护群体之间产生系统性差异结果的标准与方法。常见形式化包括人口统计学均等、机会均等以及个体公平性。",
term_es = "equidad",
term_zh = "公平性",
aliases_es = { "justicia algorítmica", "equidad algorítmica", "equidad en aprendizaje automático" },
aliases_zh = { "算法公平性", "机器学习公平性", "公正性" },
}
data["fairness audit"] = {
short = "A systematic examination of a machine learning system to identify disparate performance, bias, or harm across demographic groups, typically using fairness metrics and structured reporting.",
article = nil,
aliases = { "fairness auditing", "algorithmic fairness audit", "bias audit" },
es = "Examen sistemático de un sistema de aprendizaje automático para identificar diferencias de rendimiento, sesgo o daño entre grupos demográficos, generalmente mediante métricas de equidad e informes estructurados.",
zh = "对机器学习系统进行系统性检查,以识别在不同人口群体之间的性能差异、偏见或危害,通常使用公平性度量和结构化报告。",
term_es = "auditoría de equidad",
term_zh = "公平性审计",
aliases_es = { "auditoría de equidad", "auditoría de sesgo", "auditoría algorítmica de equidad" },
aliases_zh = { "公平性审计", "公平审计", "算法公平审计", "偏见审计" },
}
data["fairness benchmark"] = {
short = "A standardized dataset and evaluation protocol used to compare fairness properties of machine learning models, typically reporting both accuracy and group-disaggregated fairness metrics.",
article = nil,
aliases = { "fairness benchmarks", "fairness evaluation benchmark" },
es = "Conjunto de datos y protocolo de evaluación estandarizados que se utilizan para comparar las propiedades de equidad de modelos de aprendizaje automático, reportando tanto exactitud como métricas de equidad desagregadas por grupo.",
zh = "用于比较机器学习模型公平性属性的标准化数据集和评估协议,通常同时报告准确度和按群体细分的公平性指标。",
term_es = "benchmark de equidad",
term_zh = "公平性基准",
aliases_es = { "benchmark de equidad", "punto de referencia de equidad" },
aliases_zh = { "公平性基准", "公平基准测试" },
}
data["fairness constraint"] = {
short = "An explicit mathematical condition imposed during model training or post-processing that bounds disparities in predictions or errors across protected groups, such as demographic parity or equalized odds.",
article = nil,
aliases = { "fairness constraints", "constrained fairness" },
es = "Condición matemática explícita impuesta durante el entrenamiento o el postprocesado del modelo que limita las disparidades en predicciones o errores entre grupos protegidos, como la paridad demográfica o las probabilidades igualadas.",
zh = "在模型训练或后处理阶段施加的显式数学条件,用于限制预测或误差在受保护群体之间的差异,例如人口统计学奇偶性或均等几率。",
term_es = "restricción de equidad",
term_zh = "公平性约束",
aliases_es = { "restricción de equidad", "restricciones de equidad" },
aliases_zh = { "公平性约束", "公平约束" },
}
data["fairness criterion"] = {
short = "A formal definition of what it means for a classifier or decision rule to be fair with respect to a protected attribute, such as independence, separation, or sufficiency.",
article = nil,
aliases = { "fairness criteria", "fairness definition", "fairness definitions" },
es = "Definición formal de lo que significa que un clasificador o regla de decisión sea justo con respecto a un atributo protegido, como la independencia, la separación o la suficiencia.",
zh = "对分类器或决策规则在受保护属性上是否公平的形式化定义,例如独立性、分离性或充分性。",
term_es = "criterio de equidad",
term_zh = "公平性准则",
aliases_es = { "criterio de equidad", "criterios de equidad", "definición de equidad" },
aliases_zh = { "公平性准则", "公平准则", "公平性定义" },
}
data["fairness dashboard"] = {
short = "An interactive visualization interface that displays fairness metrics and disaggregated performance across demographic groups, helping practitioners diagnose and compare bias in machine learning models.",
article = nil,
aliases = { "fairness dashboards", "fairness visualization dashboard" },
es = "Interfaz interactiva de visualización que muestra métricas de equidad y rendimiento desagregado entre grupos demográficos, ayudando a los profesionales a diagnosticar y comparar sesgos en modelos de aprendizaje automático.",
zh = "一种交互式可视化界面,展示公平性指标和按人口群体细分的性能,帮助从业者诊断并比较机器学习模型中的偏见。",
term_es = "panel de equidad",
term_zh = "公平性仪表板",
aliases_es = { "panel de equidad", "tablero de equidad", "dashboard de equidad" },
aliases_zh = { "公平性仪表板", "公平性仪表盘", "公平仪表板" },
}
data["fairness gap"] = {
short = "The numerical difference between a fairness metric computed across two demographic groups, used to quantify how disparately a model treats those groups.",
article = nil,
aliases = { "disparity gap", "group disparity", "fairness disparity" },
es = "Diferencia numérica entre una métrica de equidad calculada para dos grupos demográficos, utilizada para cuantificar el trato dispar que un modelo aplica a esos grupos.",
zh = "在两个人口群体上计算的公平性度量之间的数值差异,用于量化模型对这些群体的差别对待程度。",
term_es = "brecha de equidad",
term_zh = "公平性差距",
aliases_es = { "brecha de equidad", "diferencia de equidad", "disparidad entre grupos" },
aliases_zh = { "公平性差距", "公平差距", "群体差距" },
}
data["fairness impact assessment"] = {
short = "A structured pre-deployment review of a machine learning system's potential to produce disparate outcomes, drawing on stakeholder analysis, fairness metrics, and risk documentation.",
article = nil,
aliases = { "FIA", "algorithmic fairness impact assessment", "AI fairness impact assessment" },
es = "Revisión estructurada previa al despliegue del potencial de un sistema de aprendizaje automático para producir resultados dispares, basada en análisis de partes interesadas, métricas de equidad y documentación de riesgos.",
zh = "对机器学习系统在部署前可能产生差别结果的结构化审查,结合利益相关者分析、公平性指标和风险文档。",
term_es = "evaluación de impacto en la equidad",
term_zh = "公平性影响评估",
aliases_es = { "evaluación de impacto en la equidad", "evaluación del impacto sobre la equidad" },
aliases_zh = { "公平性影响评估", "公平影响评估" },
}
data["fairness impossibility"] = {
short = "The result that several intuitive group-fairness criteria — typically demographic parity, equalized odds, and calibration — cannot all be satisfied simultaneously except in degenerate cases, formalized by Chouldechova and Kleinberg et al.",
article = nil,
aliases = { "impossibility theorem of fairness", "fairness impossibility theorem", "Kleinberg impossibility", "Chouldechova impossibility" },
es = "Resultado según el cual varios criterios intuitivos de equidad de grupo —típicamente paridad demográfica, probabilidades igualadas y calibración— no pueden satisfacerse simultáneamente salvo en casos degenerados, formalizado por Chouldechova y Kleinberg et al.",
zh = "一项结果表明,若干直观的群体公平性准则——通常是人口统计学奇偶性、均等几率和校准——除退化情形外不能同时满足,由Chouldechova及Kleinberg等人形式化证明。",
term_es = "imposibilidad de la equidad",
term_zh = "公平性不可能性",
aliases_es = { "teorema de imposibilidad de la equidad", "imposibilidad de la equidad" },
aliases_zh = { "公平性不可能性", "公平不可能性定理", "公平性不可能定理" },
}
data["fairness metric"] = {
short = "A quantitative measure of how predictions or errors of a model are distributed across demographic groups, such as demographic parity difference, equal opportunity difference, or disparate impact ratio.",
article = nil,
aliases = { "fairness metrics", "fairness measure", "group fairness metric" },
es = "Medida cuantitativa de cómo se distribuyen las predicciones o los errores de un modelo entre grupos demográficos, como la diferencia de paridad demográfica, la diferencia de igualdad de oportunidades o la razón de impacto dispar.",
zh = "对模型预测或误差在不同人口群体之间分布的定量度量,例如人口统计学奇偶性差异、机会均等差异或差别影响比率。",
term_es = "métrica de equidad",
term_zh = "公平性度量",
aliases_es = { "métrica de equidad", "métricas de equidad", "medida de equidad" },
aliases_zh = { "公平性度量", "公平性指标", "公平度量" },
}
data["fairness through awareness"] = {
short = "A fairness paradigm proposed by Dwork et al. that explicitly uses sensitive attributes during training to enforce that similar individuals receive similar predictions, formalized through a task-specific similarity metric.",
article = nil,
aliases = { "FTA", "individual fairness through awareness", "Dwork fairness through awareness" },
es = "Paradigma de equidad propuesto por Dwork et al. que utiliza explícitamente los atributos sensibles durante el entrenamiento para garantizar que individuos similares reciban predicciones similares, formalizado mediante una métrica de similitud específica de la tarea.",
zh = "由Dwork等人提出的公平性范式,在训练中显式使用敏感属性,通过任务特定的相似性度量来确保相似个体获得相似的预测。",
term_es = "equidad mediante conciencia",
term_zh = "通过感知实现公平",
aliases_es = { "equidad mediante conciencia", "equidad consciente", "fairness through awareness" },
aliases_zh = { "通过感知实现公平", "意识公平", "fairness through awareness" },
}
data["fairness through unawareness"] = {
short = "A naive fairness approach that excludes sensitive attributes such as race or gender from model inputs; widely shown to be insufficient because correlated proxy features can still encode the protected attribute.",
article = nil,
aliases = { "FTU", "blindness", "fairness by blindness", "anti-classification" },
es = "Enfoque ingenuo de equidad que excluye atributos sensibles como raza o género de las entradas del modelo; ampliamente demostrado insuficiente porque los atributos proxy correlacionados aún pueden codificar el atributo protegido.",
zh = "一种朴素的公平性方法,将种族或性别等敏感属性从模型输入中排除;已被广泛证明并不充分,因为相关的代理特征仍可能编码受保护属性。",
term_es = "equidad mediante ignorancia",
term_zh = "通过无知实现公平",
aliases_es = { "equidad mediante ignorancia", "equidad por desconocimiento", "fairness through unawareness" },
aliases_zh = { "通过无知实现公平", "无意识公平", "盲目公平", "fairness through unawareness" },
}
data["fairness toolkit"] = {
short = "A software library that bundles fairness metrics, bias-mitigation algorithms, and reporting utilities so practitioners can audit and improve machine learning models, examples include AIF360, Fairlearn, and What-If Tool.",
article = nil,
aliases = { "fairness toolkits", "fairness library", "bias toolkit" },
es = "Biblioteca de software que reúne métricas de equidad, algoritmos de mitigación de sesgo y utilidades de informes para que los profesionales auditen y mejoren modelos de aprendizaje automático; entre los ejemplos están AIF360, Fairlearn y What-If Tool.",
zh = "一种软件库,整合公平性度量、偏见缓解算法和报告工具,便于从业者审计和改进机器学习模型,例如AIF360、Fairlearn和What-If Tool。",
term_es = "kit de herramientas de equidad",
term_zh = "公平性工具包",
aliases_es = { "kit de herramientas de equidad", "biblioteca de equidad", "toolkit de equidad" },
aliases_zh = { "公平性工具包", "公平工具包", "公平性工具集" },
}
data["fairness-aware machine learning"] = {
short = "A subfield of machine learning that explicitly incorporates fairness objectives or constraints into model design, training, or evaluation to mitigate disparate outcomes across demographic groups.",
article = nil,
aliases = { "fairness aware machine learning", "fair machine learning", "fair ML", "fairness-aware ML" },
es = "Subcampo del aprendizaje automático que incorpora explícitamente objetivos o restricciones de equidad en el diseño, entrenamiento o evaluación del modelo para mitigar resultados dispares entre grupos demográficos.",
zh = "机器学习的一个子领域,在模型设计、训练或评估中显式纳入公平性目标或约束,以缓解不同人口群体之间的差别结果。",
term_es = "aprendizaje automático consciente de la equidad",
term_zh = "公平性感知机器学习",
aliases_es = { "aprendizaje automático consciente de la equidad", "aprendizaje automático justo", "ML justo" },
aliases_zh = { "公平性感知机器学习", "公平机器学习", "公平感知机器学习" },
}
data["fairness-aware regularization"] = {
short = "A training technique that adds a penalty term to the loss function to discourage disparities in predictions or errors across protected groups, trading off accuracy against group-fairness objectives.",
article = nil,
aliases = { "fairness aware regularization", "fairness regularization", "fairness regulariser", "fairness-aware regulariser" },
es = "Técnica de entrenamiento que añade un término de penalización a la función de pérdida para desincentivar disparidades en predicciones o errores entre grupos protegidos, equilibrando la exactitud con los objetivos de equidad de grupo.",
zh = "一种训练技术,在损失函数中加入惩罚项以抑制预测或误差在受保护群体之间的差异,从而在准确度与群体公平性目标之间进行权衡。",
term_es = "regularización consciente de la equidad",
term_zh = "公平性感知正则化",
aliases_es = { "regularización consciente de la equidad", "regularización por equidad", "regularización de equidad" },
aliases_zh = { "公平性感知正则化", "公平正则化", "公平性正则化" },
}
data["fairness-utility tradeoff"] = {
short = "The empirical observation that enforcing stricter fairness constraints typically reduces a model's predictive utility (accuracy or revenue), giving rise to a Pareto frontier between fairness and utility objectives.",
article = nil,
aliases = { "fairness utility tradeoff", "fairness-accuracy tradeoff", "fairness accuracy tradeoff", "accuracy-fairness tradeoff" },
es = "Observación empírica de que imponer restricciones de equidad más estrictas suele reducir la utilidad predictiva de un modelo (exactitud o ingresos), dando lugar a una frontera de Pareto entre los objetivos de equidad y utilidad.",
zh = "一种经验性观察:施加更严格的公平性约束通常会降低模型的预测效用(准确度或收益),从而在公平性与效用目标之间形成帕累托前沿。",
term_es = "compromiso entre equidad y utilidad",
term_zh = "公平性与效用权衡",
aliases_es = { "compromiso entre equidad y utilidad", "compensación entre equidad y exactitud", "trade-off equidad-utilidad" },
aliases_zh = { "公平性与效用权衡", "公平性-准确度权衡", "公平-效用权衡" },
}
data["fairscale"] = {
short = "FairScale: a PyTorch library by Meta providing model-parallel training primitives such as Fully Sharded Data Parallel (FSDP), pipeline parallelism, and offloading for large-scale neural network training.",
article = nil,
aliases = { "FairScale", "fairscale library", "Meta FairScale" },
es = "FairScale: biblioteca de PyTorch desarrollada por Meta que proporciona primitivas de entrenamiento paralelo de modelos como Fully Sharded Data Parallel (FSDP), paralelismo de pipeline y descarga para el entrenamiento de redes neuronales a gran escala.",
zh = "FairScale:Meta 推出的 PyTorch 库,提供完全分片数据并行(FSDP)、流水线并行以及参数外存等大规模神经网络训练的模型并行原语。",
term_es = "FairScale",
term_zh = "FairScale",
aliases_es = { "biblioteca FairScale" },
aliases_zh = { "FairScale 库", "Meta FairScale" },
}
data["faithful chain-of-thought"] = {
short = "A chain-of-thought trace that genuinely reflects the steps a model uses to reach its answer, so that perturbing or removing intermediate steps changes the final prediction in a corresponding way.",
article = nil,
aliases = { "faithful CoT", "faithful reasoning chain", "process-faithful chain-of-thought" },
es = "Cadena de pensamiento que refleja genuinamente los pasos que un modelo usa para llegar a su respuesta, de modo que perturbar o eliminar pasos intermedios cambia la predicción final de manera correspondiente.",
zh = "真正反映模型得出答案所使用步骤的思维链,使得扰动或删除中间步骤会相应地改变最终预测。",
term_es = "cadena de pensamiento fiel",
term_zh = "忠实思维链",
aliases_es = { "CoT fiel", "razonamiento fiel" },
aliases_zh = { "忠实 CoT", "忠实推理链" },
}
data["faithful explanation"] = {
short = "An explanation that accurately represents the actual decision process or computation of the model it explains, as opposed to one that is merely plausible or post-hoc rationalized.",
article = nil,
aliases = { "faithful explanations", "model-faithful explanation" },
es = "Explicación que representa con precisión el proceso real de decisión o el cálculo del modelo que explica, en contraposición a una que es meramente plausible o racionalizada a posteriori.",
zh = "准确反映被解释模型实际决策过程或计算的解释,与仅在事后看来合理的解释相对。",
term_es = "explicación fiel",
term_zh = "忠实解释",
aliases_es = { "explicación fiel al modelo", "explicaciones fieles" },
aliases_zh = { "忠实于模型的解释", "忠实性解释" },
}
data["faithful rationale"] = {
short = "A rationale (typically a subset of input tokens) that is causally responsible for the model's prediction, so removing it would change the output and keeping it suffices to reproduce it.",
article = nil,
aliases = { "faithful rationales", "causally faithful rationale" },
es = "Justificación (típicamente un subconjunto de tokens de entrada) causalmente responsable de la predicción del modelo, de modo que eliminarla cambiaría la salida y conservarla basta para reproducirla.",
zh = "对模型预测具有因果作用的理由(通常是输入词元的子集):去掉会改变输出,保留则足以重现预测。",
term_es = "justificación fiel",
term_zh = "忠实理由",
aliases_es = { "racional fiel", "justificación causalmente fiel" },
aliases_zh = { "因果忠实理由", "忠实的解释依据" },
}
data["faithful reasoning"] = {
short = "A property of an explanation or chain of thought in which the stated reasoning steps actually determine the model's final answer, so that the surface explanation accurately reflects the internal computation rather than being a post-hoc rationalization.",
article = nil,
aliases = { "faithful chain-of-thought", "faithful explanations", "faithful reasoning chains", "reasoning faithfulness", "faithful CoT" },
es = "Una propiedad de una explicación o cadena de razonamiento en la que los pasos enunciados determinan realmente la respuesta final del modelo, de modo que la explicación superficial refleja con fidelidad el cómputo interno en lugar de ser una racionalización a posteriori.",
zh = "一种解释或推理链条的属性,要求其中所陈述的推理步骤真正决定模型的最终答案,从而使表面解释如实反映内部计算,而非事后的合理化说辞。",
term_es = "razonamiento fiel",
term_zh = "忠实推理",
aliases_es = { "cadena de pensamiento fiel", "explicaciones fieles", "fidelidad del razonamiento", "CoT fiel" },
aliases_zh = { "忠实思维链", "忠实解释", "推理忠实性", "忠实 CoT" },
}
data["faithfulness"] = {
short = "A causal-inference assumption that a probability distribution exhibits exactly the conditional independencies entailed by the d-separations of an underlying DAG—no additional independencies arise from coincidental parameter cancellations—enabling structure learning algorithms like PC and FCI.",
article = nil,
aliases = { "faithfulness assumption", "causal faithfulness", "Markov faithfulness", "stability assumption" },
es = "Un supuesto de inferencia causal según el cual una distribución de probabilidad exhibe exactamente las independencias condicionales implicadas por las d-separaciones de un DAG subyacente —sin independencias adicionales por cancelaciones casuales de parámetros—, lo que permite algoritmos de aprendizaje de estructura como PC y FCI.",
zh = "一种因果推断假设:概率分布所展现的条件独立性恰好等于其底层 DAG 的 d-分离所蕴含的独立性,不存在由参数偶然抵消产生的额外独立性,从而使 PC、FCI 等结构学习算法成为可能。",
term_es = "fidelidad",
term_zh = "忠实性",
aliases_es = { "supuesto de fidelidad", "fidelidad causal", "fidelidad de Markov" },
aliases_zh = { "忠实性假设", "因果忠实性", "马尔可夫忠实性" },
}
data["faithfulness assumption"] = {
short = "In causal discovery, the assumption that all and only the conditional independencies present in the observed distribution are entailed by the underlying causal graph, ruling out cancellations among paths.",
article = nil,
aliases = { "faithfulness", "stability assumption", "causal faithfulness" },
es = "En descubrimiento causal, la suposición de que todas y solo las independencias condicionales presentes en la distribución observada se derivan del grafo causal subyacente, descartando cancelaciones entre caminos.",
zh = "在因果发现中,假设观测分布中存在的条件独立性恰好与底层因果图所蕴含的一致,排除路径之间的相互抵消。",
term_es = "supuesto de fidelidad",
term_zh = "忠实性假设",
aliases_es = { "fidelidad causal", "supuesto de estabilidad" },
aliases_zh = { "忠实性", "稳定性假设" },
}
data["falcon"] = {
short = "A family of open-weight autoregressive transformer language models released by the Technology Innovation Institute in 2023, ranging from 7B to 180B parameters and trained primarily on the RefinedWeb corpus.",
article = nil,
aliases = { "Falcon", "Falcon LLM", "Falcon 7B", "Falcon 40B", "Falcon 180B" },
es = "Familia de modelos de lenguaje transformer autorregresivos de pesos abiertos publicada por el Technology Innovation Institute en 2023, con tamaños de 7.000 a 180.000 millones de parámetros y entrenada principalmente con el corpus RefinedWeb.",
zh = "由 Technology Innovation Institute 于 2023 年发布的开放权重自回归 Transformer 语言模型家族,参数规模从 70 亿到 1800 亿,主要在 RefinedWeb 语料上训练。",
term_es = "Falcon",
term_zh = "Falcon",
aliases_es = { "Falcon", "Falcon LLM", "Falcon 7B", "Falcon 40B", "Falcon 180B" },
aliases_zh = { "Falcon", "Falcon LLM", "猎鹰", "Falcon 7B", "Falcon 40B", "Falcon 180B" },
}
data["false negative rate parity"] = {
short = "A group-fairness criterion requiring that the false negative rate of a classifier be equal across protected groups, i.e. the probability of a missed positive prediction is the same regardless of group membership.",
article = nil,
aliases = { "FNR parity", "equal false negative rate", "FNR equality" },
es = "Criterio de equidad de grupo que exige que la tasa de falsos negativos de un clasificador sea igual entre los grupos protegidos, es decir, la probabilidad de pasar por alto un positivo es la misma con independencia del grupo.",
zh = "一种群体公平性准则,要求分类器在受保护群体之间的假阴性率相等,即漏掉正例的概率与群体归属无关。",
term_es = "paridad de tasa de falsos negativos",
term_zh = "假阴性率均等",
aliases_es = { "paridad de tasa de falsos negativos", "igualdad de tasa de falsos negativos", "paridad de FNR" },
aliases_zh = { "假阴性率均等", "假阴性率奇偶性", "假阴性率平等", "FNR均等" },
}
data["false positive rate"] = {
short = "Probability that an actual negative is predicted positive, FP/(FP+TN). Equals 1 − specificity; the x-axis of a ROC curve.",
article = nil,
aliases = { "FPR", "fall-out", "false alarm rate", "type I error rate" },
es = "Probabilidad de que un negativo real sea predicho como positivo, FP/(FP+TN). Equivale a 1 − especificidad y constituye el eje horizontal de la curva ROC.",
zh = "真实为负的样本被预测为正的概率,FP/(FP+TN)。等于 1 − 特异度,是 ROC 曲线的横轴。",
term_es = "tasa de falsos positivos",
term_zh = "假阳性率",
aliases_es = { "TFP", "FPR", "tasa de falsa alarma" },
aliases_zh = { "FPR", "假正率", "误报率" },
}
data["false positive rate parity"] = {
short = "A group-fairness criterion requiring that the false positive rate of a classifier be equal across protected groups, i.e. the probability of an erroneous positive prediction is the same regardless of group membership.",
article = nil,
aliases = { "FPR parity", "equal false positive rate", "FPR equality", "predictive equality" },
es = "Criterio de equidad de grupo que exige que la tasa de falsos positivos de un clasificador sea igual entre los grupos protegidos, es decir, la probabilidad de una predicción positiva errónea es la misma con independencia del grupo.",
zh = "一种群体公平性准则,要求分类器在受保护群体之间的假阳性率相等,即错误正例预测的概率与群体归属无关。",
term_es = "paridad de tasa de falsos positivos",
term_zh = "假阳性率均等",
aliases_es = { "paridad de tasa de falsos positivos", "igualdad de tasa de falsos positivos", "paridad de FPR", "igualdad predictiva" },
aliases_zh = { "假阳性率均等", "假阳性率奇偶性", "假阳性率平等", "FPR均等", "预测平等" },
}
data["fape"] = {
short = "Frame-Aligned Point Error: a permutation- and rotation-invariant loss used in AlphaFold2 that measures the distance between predicted and true atom positions after expressing them in the local reference frame of every residue. Designed to enforce both global and local geometric accuracy.",
article = nil,
aliases = { "FAPE", "Frame-Aligned Point Error", "frame aligned point error", "FAPE loss" },
es = "Frame-Aligned Point Error: pérdida invariante a permutaciones y rotaciones utilizada en AlphaFold2 que mide la distancia entre las posiciones atómicas predichas y verdaderas tras expresarlas en el marco de referencia local de cada residuo. Está diseñada para imponer precisión geométrica tanto global como local.",
zh = "Frame-Aligned Point Error(帧对齐点误差):AlphaFold2 中使用的对置换和旋转不变的损失函数,将预测原子位置与真实位置都转换到每个残基的局部参考系下后再衡量距离,旨在同时强化全局和局部几何精度。",
term_es = "FAPE",
term_zh = "FAPE",
aliases_es = { "Frame-Aligned Point Error", "error de puntos alineados por marco", "pérdida FAPE" },
aliases_zh = { "FAPE 损失", "帧对齐点误差", "Frame-Aligned Point Error" },
}
data["fast autoaugment"] = {
short = "A data-augmentation policy search method that finds augmentation policies via density matching between augmented and unaugmented validation distributions, achieving AutoAugment-quality policies orders of magnitude faster.",
article = nil,
aliases = { "Fast AutoAugment", "FAA" },
es = "Método de búsqueda de políticas de aumento de datos que las encuentra mediante coincidencia de densidad entre las distribuciones de validación aumentadas y no aumentadas, logrando políticas de calidad equivalente a AutoAugment con un coste órdenes de magnitud menor.",
zh = "一种数据增强策略搜索方法,通过匹配增强与未增强验证分布的密度来寻找策略,能以数量级更快的速度获得与 AutoAugment 相当质量的策略。",
term_es = "Fast AutoAugment",
term_zh = "Fast AutoAugment",
aliases_es = { "FAA" },
aliases_zh = { "FAA", "快速AutoAugment" },
}
data["fast conformer"] = {
short = "An efficiency-optimized variant of the Conformer ASR encoder, introduced by NVIDIA NeMo, that increases the subsampling factor from 4× to 8× to reduce compute and memory cost while maintaining accuracy.",
article = nil,
aliases = { "Fast Conformer", "FastConformer", "NeMo Fast Conformer" },
es = "Variante optimizada en eficiencia del codificador ASR Conformer, introducida por NVIDIA NeMo, que aumenta el factor de submuestreo de 4× a 8× para reducir el cómputo y la memoria manteniendo la precisión.",
zh = "NVIDIA NeMo 提出的高效 Conformer ASR 编码器变体,将下采样因子从 4× 提升至 8×,在保持精度的同时显著降低计算与内存开销。",
term_es = "Fast Conformer",
term_zh = "Fast Conformer",
aliases_es = { "FastConformer", "Conformer rápido" },
aliases_zh = { "FastConformer", "快速Conformer" },
}
data["fast geometric ensembling"] = {
short = "An ensembling method that trains a single network with a cyclical learning-rate schedule, collects snapshots at low-loss endpoints connected by linear-mode-connectivity paths, and averages their predictions.",
article = nil,
aliases = { "FGE", "Fast Geometric Ensembling", "geometric ensembling", "cyclic snapshot ensembling" },
es = "Método de ensembling que entrena una sola red con un calendario de tasa de aprendizaje cíclico, recoge instantáneas en puntos de baja pérdida conectados por trayectorias de conectividad de modo lineal y promedia sus predicciones.",
zh = "一种集成方法:使用循环学习率训练单个网络,在以线性模式连通路径相连的低损失端点处采集快照,并对其预测取平均。",
term_es = "ensembling geométrico rápido",
term_zh = "快速几何集成",
aliases_es = { "FGE", "ensembling geométrico", "ensembling cíclico de instantáneas" },
aliases_zh = { "FGE", "几何集成", "循环快照集成" },
}
data["fast laplace"] = {
short = "Variants of the Laplace approximation that avoid forming or inverting the full Hessian by exploiting Kronecker-factored, diagonal, or low-rank curvature approximations, enabling Laplace inference on modern deep networks.",
article = nil,
aliases = { "fast Laplace approximation", "scalable Laplace", "efficient Laplace approximation", "approximate Laplace" },
es = "Variantes de la aproximación de Laplace que evitan formar o invertir el Hessiano completo aprovechando aproximaciones de la curvatura factorizadas por Kronecker, diagonales o de rango bajo, lo que permite inferencia Laplace en redes profundas modernas.",
zh = "拉普拉斯近似的变体,通过利用Kronecker分解、对角或低秩曲率近似避免构造或求逆完整的Hessian,从而在现代深度网络上实现拉普拉斯推断。",
term_es = "Laplace rápida",
term_zh = "快速拉普拉斯",
aliases_es = { "aproximación de Laplace rápida", "Laplace escalable", "aproximación de Laplace eficiente", "Laplace aproximada" },
aliases_zh = { "快速拉普拉斯近似", "可扩展拉普拉斯", "高效拉普拉斯近似", "近似拉普拉斯" },
}
data["fast persistent contrastive divergence"] = {
short = "A variant of persistent contrastive divergence for training restricted Boltzmann machines that augments the model parameters with a fast-weight overlay updated at a higher learning rate, helping the persistent Markov chains mix and avoid getting stuck in modes.",
article = nil,
aliases = { "FPCD", "fast PCD", "fast persistent CD", "Tieleman Hinton FPCD" },
es = "Una variante de la divergencia contrastiva persistente para entrenar máquinas de Boltzmann restringidas que añade a los parámetros del modelo una capa de pesos rápidos actualizados con una tasa de aprendizaje mayor, ayudando a que las cadenas de Markov persistentes se mezclen y no queden atrapadas en modos.",
zh = "一种用于训练受限玻尔兹曼机的持久对比散度变体,在模型参数之上加入以更高学习率更新的快速权重,帮助持久马尔可夫链充分混合并避免陷入某些模式。",
term_es = "divergencia contrastiva persistente rápida",
term_zh = "快速持久对比散度",
aliases_es = { "FPCD", "PCD rápida", "divergencia contrastiva persistente rápida" },
aliases_zh = { "FPCD", "快速 PCD", "快速持久 CD" },
}
data["fasta format"] = {
short = "A simple text-based file format for representing nucleotide or amino-acid sequences, in which each record begins with a single '>' header line followed by one or more lines of sequence characters. The de facto standard for sequence exchange in bioinformatics.",
article = nil,
aliases = { "FASTA", "FASTA format", ".fasta", ".fa", "FASTA file" },
es = "Formato de archivo de texto sencillo para representar secuencias de nucleótidos o aminoácidos, en el que cada registro comienza con una línea de encabezado que empieza por '>' seguida de una o más líneas con la secuencia. Es el estándar de facto para el intercambio de secuencias en bioinformática.",
zh = "一种简单的基于文本的文件格式,用于表示核苷酸或氨基酸序列,每条记录以 '>' 开头的标题行开始,后接一行或多行序列字符。它是生物信息学中序列交换的事实标准。",
term_es = "formato FASTA",
term_zh = "FASTA 格式",
aliases_es = { "FASTA", "archivo FASTA", "formato .fasta" },
aliases_zh = { "FASTA", "FASTA 文件", ".fasta", ".fa" },
}
data["faster r-cnn"] = {
short = "A two-stage object detector introduced by Ren et al. in 2015 that adds a Region Proposal Network sharing convolutional features with the detection head, replacing the slower selective search used in Fast R-CNN.",
article = nil,
aliases = { "Faster R-CNN", "Faster RCNN", "Faster-RCNN" },
es = "Detector de objetos de dos etapas presentado por Ren et al. en 2015 que añade una Region Proposal Network que comparte características convolucionales con la cabeza de detección, reemplazando la búsqueda selectiva más lenta utilizada en Fast R-CNN.",
zh = "由 Ren 等人于 2015 年提出的两阶段目标检测器,添加了与检测头共享卷积特征的区域提议网络(RPN),取代了 Fast R-CNN 中较慢的选择性搜索。",
term_es = "Faster R-CNN",
term_zh = "Faster R-CNN",
aliases_es = { "Faster RCNN" },
aliases_zh = { "Faster RCNN" },
}
data["faster-whisper"] = {
short = "A reimplementation of OpenAI's Whisper speech recognition model using CTranslate2, providing 4× faster inference and lower memory usage than the reference implementation while preserving accuracy.",
article = nil,
aliases = { "Faster-Whisper", "faster_whisper", "CTranslate2 Whisper" },
es = "Reimplementación del modelo de reconocimiento de voz Whisper de OpenAI usando CTranslate2, que ofrece una inferencia 4× más rápida y menor uso de memoria que la implementación de referencia conservando la precisión.",
zh = "基于 CTranslate2 重新实现的 OpenAI Whisper 语音识别模型,在保持精度的同时相比参考实现提供约 4 倍的推理加速和更低的显存占用。",
term_es = "faster-whisper",
term_zh = "faster-whisper",
aliases_es = { "Faster-Whisper", "faster_whisper" },
aliases_zh = { "Faster-Whisper", "更快的Whisper" },
}
data["fastp trimming"] = {
short = "The use of the fastp tool to perform quality control, adapter detection and removal, and quality trimming of FASTQ reads in a single all-in-one pass. Designed for speed via multithreading and SIMD, it produces JSON/HTML reports alongside trimmed output.",
article = nil,
aliases = { "fastp", "fastp adapter trimming", "fastp QC", "fastp preprocessing" },
es = "Uso de la herramienta fastp para realizar control de calidad, detección y eliminación de adaptadores y recorte por calidad de lecturas FASTQ en una única pasada integrada. Diseñada para alta velocidad mediante multihilos y SIMD, produce informes en JSON/HTML junto con la salida recortada.",
zh = "使用 fastp 工具在单次集成流程中对 FASTQ 读段执行质控、接头检测与去除以及质量修剪。该工具借助多线程和 SIMD 实现高速处理,并在输出修剪后的读段同时生成 JSON/HTML 报告。",
term_es = "recorte con fastp",
term_zh = "fastp 修剪",
aliases_es = { "fastp", "preprocesamiento con fastp", "control de calidad con fastp" },
aliases_zh = { "fastp", "fastp 接头修剪", "fastp 预处理", "fastp 质量控制" },
}
data["fastpitch"] = {
short = "A non-autoregressive parallel TTS acoustic model from NVIDIA based on FastSpeech that conditions mel-spectrogram generation on explicitly predicted per-phoneme pitch (F0), enabling controllable pitch synthesis.",
article = nil,
aliases = { "FastPitch", "Fast Pitch" },
es = "Modelo acústico TTS paralelo y no autorregresivo de NVIDIA, basado en FastSpeech, que condiciona la generación del mel-espectrograma a un tono (F0) predicho por fonema, permitiendo síntesis con tono controlable.",
zh = "NVIDIA 提出的非自回归并行 TTS 声学模型,基于 FastSpeech,通过显式预测每个音素的基频(F0)来调节梅尔频谱生成,从而实现可控音高合成。",
term_es = "FastPitch",
term_zh = "FastPitch",
aliases_es = { "FastPitch" },
aliases_zh = { "FastPitch" },
}
data["fastq format"] = {
short = "A text-based file format for storing raw sequencing reads with per-base quality scores. Each record consists of four lines: a '@' header, the sequence, a '+' separator, and ASCII-encoded Phred quality values. Standard output of Illumina and most other sequencers.",
article = nil,
aliases = { "FASTQ", "FASTQ format", ".fastq", ".fq", "fastq.gz" },
es = "Formato de archivo de texto para almacenar lecturas brutas de secuenciación junto con puntuaciones de calidad por base. Cada registro consta de cuatro líneas: una cabecera '@', la secuencia, un separador '+' y los valores Phred de calidad codificados en ASCII. Es la salida estándar de Illumina y de la mayoría de secuenciadores.",
zh = "一种基于文本的文件格式,用于存储带逐碱基质量分数的原始测序读段。每条记录包含四行:以 '@' 开头的标题、序列、'+' 分隔符以及以 ASCII 编码的 Phred 质量值。它是 Illumina 及大多数测序仪的标准输出格式。",
term_es = "formato FASTQ",
term_zh = "FASTQ 格式",
aliases_es = { "FASTQ", "archivo FASTQ", "formato .fastq" },
aliases_zh = { "FASTQ", "FASTQ 文件", ".fastq", ".fq", "fastq.gz" },
}
data["fastshap"] = {
short = "An amortized SHAP-value estimator that trains a neural network to predict Shapley values for any input in a single forward pass, replacing per-instance Monte-Carlo sampling.",
article = nil,
aliases = { "FastSHAP", "amortized SHAP", "fast SHAP" },
es = "Estimador amortizado de valores SHAP que entrena una red neuronal para predecir los valores de Shapley de cualquier entrada en un solo paso hacia adelante, reemplazando el muestreo Monte Carlo por instancia.",
zh = "一种摊销式 SHAP 值估计器,训练神经网络在单次前向传播中预测任意输入的 Shapley 值,取代逐样本的蒙特卡罗采样。",
term_es = "FastSHAP",
term_zh = "FastSHAP",
aliases_es = { "SHAP amortizado", "FastShap" },
aliases_zh = { "摊销 SHAP", "fast SHAP" },
}
data["fastspeech"] = {
short = "A non-autoregressive transformer-based TTS acoustic model that generates mel-spectrograms in parallel using a length regulator driven by phoneme durations distilled from an autoregressive teacher.",
article = nil,
aliases = { "FastSpeech", "FastSpeech 1", "Fast Speech" },
es = "Modelo acústico TTS no autorregresivo basado en transformer que genera mel-espectrogramas en paralelo mediante un regulador de longitud guiado por duraciones de fonemas destiladas de un profesor autorregresivo.",
zh = "一种基于 Transformer 的非自回归 TTS 声学模型,使用由自回归教师模型蒸馏出的音素时长驱动的长度调节器并行生成梅尔频谱。",
term_es = "FastSpeech",
term_zh = "FastSpeech",
aliases_es = { "FastSpeech 1" },
aliases_zh = { "FastSpeech 1" },
}
data["fastspeech 2"] = {
short = "A non-autoregressive TTS model that improves on FastSpeech by training directly on ground-truth mel-spectrograms and conditioning on explicit pitch, energy, and duration predictors instead of relying on teacher distillation.",
article = nil,
aliases = { "FastSpeech 2", "FastSpeech2", "FastSpeech-2", "FS2" },
es = "Modelo TTS no autorregresivo que mejora FastSpeech al entrenarse directamente con mel-espectrogramas reales y condicionar a predictores explícitos de tono, energía y duración, evitando la destilación del profesor.",
zh = "对 FastSpeech 的改进型非自回归 TTS 模型,直接基于真实梅尔频谱训练,并显式引入音高、能量和时长预测器,从而摆脱对教师模型蒸馏的依赖。",
term_es = "FastSpeech 2",
term_zh = "FastSpeech 2",
aliases_es = { "FastSpeech2", "FS2" },
aliases_zh = { "FastSpeech2", "FS2" },
}
data["fasttext"] = {
short = "A library and word embedding method from Facebook AI that extends word2vec by representing each word as a sum of its character n-gram embeddings, enabling representations for out-of-vocabulary words.",
article = nil,
aliases = { "fastText", "FastText", "fast text", "fastText embeddings" },
es = "Biblioteca y método de embeddings de palabras de Facebook AI que extiende word2vec representando cada palabra como la suma de los embeddings de sus n-gramas de caracteres, permitiendo representaciones para palabras fuera del vocabulario.",
zh = "Facebook AI 推出的词嵌入库和方法,扩展了 word2vec,将每个词表示为其字符 n-gram 嵌入之和,从而可以为词表外的词生成表示。",
term_es = "fastText",
term_zh = "fastText",
aliases_es = { "fastText", "FastText" },
aliases_zh = { "fastText", "FastText", "fastText 词向量" },
}
data["fate federated ai"] = {
short = "FATE (Federated AI Technology Enabler): an open-source industrial-grade federated learning framework originated by WeBank, supporting horizontal, vertical, and transfer-learning federated training with secure multi-party computation.",
article = nil,
aliases = { "FATE", "Federated AI Technology Enabler", "WeBank FATE" },
es = "FATE (Federated AI Technology Enabler): marco de aprendizaje federado de código abierto y de nivel industrial creado por WeBank, que soporta entrenamiento federado horizontal, vertical y por transferencia con cómputo multipartito seguro.",
zh = "FATE(联邦 AI 技术使能器):由微众银行发起的开源工业级联邦学习框架,支持横向、纵向和迁移联邦训练,并集成安全多方计算。",
term_es = "FATE",
term_zh = "FATE",
aliases_es = { "Federated AI Technology Enabler", "FATE de WeBank" },
aliases_zh = { "联邦 AI 技术使能器", "微众银行 FATE" },
}
data["fate framework"] = {
short = "A research initiative and conceptual framework — Fairness, Accountability, Transparency, and Ethics — used by Microsoft Research and others to organize sociotechnical questions about responsible AI.",
article = nil,
aliases = { "FATE", "FATE framework", "fairness accountability transparency ethics", "FATE in AI" },
es = "Iniciativa de investigación y marco conceptual —Equidad, Responsabilidad, Transparencia y Ética— utilizado por Microsoft Research y otros para organizar las cuestiones sociotécnicas sobre la IA responsable.",
zh = "微软研究院等提出的研究倡议和概念框架——公平、问责、透明与伦理(FATE)——用于组织关于负责任人工智能的社会技术议题。",
term_es = "marco FATE",
term_zh = "FATE 框架",
aliases_es = { "marco FATE", "FATE", "marco de equidad, responsabilidad, transparencia y ética" },
aliases_zh = { "FATE 框架", "FATE", "公平问责透明伦理框架" },
}
data["fb15k"] = {
short = "A standard knowledge-graph completion benchmark of about 15,000 entities and 1,345 relations, sampled from Freebase, used to evaluate link prediction models such as TransE, DistMult, and ComplEx.",
article = nil,
aliases = { "FB15k", "FB15K", "FB15k dataset", "Freebase 15k", "Freebase-15k" },
es = "Un punto de referencia estándar de completación de grafos de conocimiento con unas 15 000 entidades y 1345 relaciones, extraído de Freebase, utilizado para evaluar modelos de predicción de enlaces como TransE, DistMult y ComplEx.",
zh = "一个标准的知识图补全基准,从 Freebase 采样得到,约含 15,000 个实体和 1,345 种关系,用于评估 TransE、DistMult、ComplEx 等链接预测模型。",
term_es = "FB15k",
term_zh = "FB15k",
aliases_es = { "FB15k", "FB15K", "conjunto FB15k", "Freebase 15k" },
aliases_zh = { "FB15k", "FB15K", "FB15k 数据集", "Freebase 15k" },
}
data["fb15k-237"] = {
short = "A revised version of FB15k by Toutanova and Chen (2015) with 237 relations, in which inverse and symmetric relations have been removed from train/test to prevent trivial test-leakage from FB15k.",
article = nil,
aliases = { "FB15k-237", "FB15K-237", "FB15K 237", "FB15k237", "Freebase 15k-237" },
es = "Una versión revisada de FB15k por Toutanova y Chen (2015) con 237 relaciones, en la que se eliminan del conjunto de entrenamiento y prueba las relaciones inversas y simétricas para evitar la fuga trivial de información presente en FB15k.",
zh = "Toutanova 与 Chen(2015)发布的 FB15k 修订版,包含 237 种关系,从训练/测试集中移除了逆关系和对称关系,以避免 FB15k 中存在的平凡测试泄漏。",
term_es = "FB15k-237",
term_zh = "FB15k-237",
aliases_es = { "FB15k-237", "FB15K-237", "Freebase 15k-237" },
aliases_zh = { "FB15k-237", "FB15K-237", "FB15k237", "Freebase 15k-237" },
}
data["fbank features"] = {
short = "Log mel-filterbank energies: a frame-level acoustic feature obtained by applying a bank of mel-scaled triangular filters to the magnitude spectrum and taking the log, widely used as input for ASR and speaker recognition.",
article = nil,
aliases = { "FBANK", "fbank", "log-mel filterbank features", "log mel filterbank", "mel filterbank features", "log-fbank" },
es = "Energías logarítmicas del banco de filtros mel: característica acústica a nivel de trama obtenida al aplicar un banco de filtros triangulares en escala mel al espectro de magnitud y tomar el logaritmo; muy utilizada como entrada en ASR y reconocimiento de hablante.",
zh = "对数梅尔滤波器组能量:一种帧级声学特征,通过对幅度谱应用一组梅尔尺度三角滤波器并取对数得到,广泛用作语音识别与说话人识别的输入。",
term_es = "características fbank",
term_zh = "fbank特征",
aliases_es = { "FBANK", "filterbank logarítmico mel", "energías de filterbank mel" },
aliases_zh = { "FBANK", "对数梅尔滤波器组特征", "梅尔滤波器组特征" },
}
data["fbnet"] = {
short = "A differentiable, latency-aware neural architecture search framework from Facebook that searches over a layerwise factorized supernet to produce hardware-efficient mobile CNN architectures.",
article = nil,
aliases = { "FBNet", "Facebook-Berkeley Network" },
es = "Marco de NAS diferenciable y consciente de la latencia, desarrollado por Facebook, que busca sobre una supernet factorizada por capas para producir arquitecturas de CNN móviles eficientes en hardware.",
zh = "Facebook 提出的可微分、感知延迟的神经架构搜索框架,在按层分解的超网络上搜索,产出面向硬件高效的移动端 CNN 架构。",
term_es = "FBNet",
term_zh = "FBNet",
aliases_es = { },
aliases_zh = { },
}
data["fbnetv2"] = {
short = "An extension of FBNet that adds differentiable channel-count and input-resolution search via masking-based supernets, expanding the search space beyond per-layer operation choices.",
article = nil,
aliases = { "FBNetV2", "FBNet V2", "FBNet-V2" },
es = "Extensión de FBNet que añade búsqueda diferenciable del número de canales y de la resolución de entrada mediante supernets basadas en enmascaramiento, ampliando el espacio de búsqueda más allá de las operaciones por capa.",
zh = "FBNet 的扩展,通过基于掩码的超网络增加对通道数和输入分辨率的可微分搜索,将搜索空间扩展到逐层操作选择之外。",
term_es = "FBNetV2",
term_zh = "FBNetV2",
aliases_es = { "FBNet V2" },
aliases_zh = { "FBNet V2" },
}
data["fbnetv3"] = {
short = "An evolution of the FBNet family that jointly searches architectures and training recipes (hyperparameters) via a predictor-based pipeline, producing accuracy-latency Pareto-optimal mobile networks.",
article = nil,
aliases = { "FBNetV3", "FBNet V3", "FBNet-V3", "JointNAS" },
es = "Evolución de la familia FBNet que busca de forma conjunta arquitecturas y recetas de entrenamiento (hiperparámetros) mediante una canalización basada en predictores, produciendo redes móviles Pareto-óptimas en precisión y latencia.",
zh = "FBNet 系列的演进版本,通过基于预测器的流水线联合搜索架构与训练配方(超参数),生成精度-延迟帕累托最优的移动网络。",
term_es = "FBNetV3",
term_zh = "FBNetV3",
aliases_es = { "FBNet V3", "JointNAS" },
aliases_zh = { "FBNet V3", "联合NAS" },
}
data["fcfp"] = {
short = "Functional-class fingerprint, a variant of the extended connectivity fingerprint that replaces atom-type identifiers with pharmacophoric role labels (donor, acceptor, hydrophobic, etc.) so that bioisosteric atoms hash to the same feature.",
article = nil,
aliases = { "FCFP", "FCFP4", "FCFP6", "functional class fingerprint", "functional-class fingerprint" },
es = "Huella de clase funcional, variante de la huella de conectividad extendida que sustituye los identificadores de tipo de átomo por etiquetas de papel farmacofórico (donador, aceptor, hidrofóbico, etc.) de modo que átomos bioisostéricos producen el mismo rasgo.",
zh = "功能类指纹,扩展连接性指纹的一种变体,用药效团角色标签(供体、受体、疏水等)替代原子类型标识符,使生物电子等排原子映射到相同的特征。",
term_es = "FCFP",
term_zh = "FCFP",
aliases_es = { "FCFP", "FCFP4", "FCFP6", "huella de clase funcional" },
aliases_zh = { "FCFP", "FCFP4", "FCFP6", "功能类分子指纹" },
}
data["fci algorithm"] = {
short = "The Fast Causal Inference algorithm: a constraint-based causal-discovery procedure that, under faithfulness, returns a partial ancestral graph (PAG) representing the equivalence class of causal structures consistent with the observed independencies, allowing for latent confounders and selection bias.",
article = nil,
aliases = { "FCI", "Fast Causal Inference", "FCI causal discovery", "Spirtes FCI", "FCI algorithm" },
es = "El algoritmo Fast Causal Inference: un procedimiento de descubrimiento causal basado en restricciones que, bajo fidelidad, devuelve un grafo parcial ancestral (PAG) que representa la clase de equivalencia de estructuras causales compatibles con las independencias observadas, admitiendo confusores latentes y sesgo de selección.",
zh = "Fast Causal Inference 算法:一种基于约束的因果发现方法,在忠实性假设下返回部分祖先图(PAG),用以表示与观测独立性相容的因果结构等价类,允许存在潜变量混杂和选择偏倚。",
term_es = "algoritmo FCI",
term_zh = "FCI 算法",
aliases_es = { "FCI", "Fast Causal Inference", "descubrimiento causal FCI" },
aliases_zh = { "FCI", "快速因果推断算法", "Fast Causal Inference" },
}
data["feasibility-aware counterfactual"] = {
short = "A counterfactual explanation that respects realistic constraints on input features — such as immutability, monotonicity, causal relationships, or data-manifold proximity — instead of producing physically impossible inputs.",
article = nil,
aliases = { "feasible counterfactual", "actionable counterfactual", "realistic counterfactual" },
es = "Explicación contrafactual que respeta restricciones realistas sobre las características de entrada —como inmutabilidad, monotonía, relaciones causales o proximidad a la variedad de datos— en lugar de producir entradas físicamente imposibles.",
zh = "尊重输入特征现实约束(不可变性、单调性、因果关系或数据流形邻近性等)的反事实解释,避免产生物理上不可能的输入。",
term_es = "contrafactual factible",
term_zh = "可行反事实",
aliases_es = { "contrafactual realista", "contrafactual accionable" },
aliases_zh = { "可行的反事实解释", "现实反事实" },
}
data["feature ablation"] = {
short = "An attribution technique that measures a feature's importance by removing or zeroing it (or replacing it with a baseline) and observing the resulting change in the model's prediction.",
article = nil,
aliases = { "ablation", "feature removal", "leave-one-feature-out" },
es = "Técnica de atribución que mide la importancia de una característica eliminándola o poniéndola a cero (o reemplazándola por una línea base) y observando el cambio resultante en la predicción del modelo.",
zh = "一种归因技术,通过移除特征或将其置零(或替换为基线值)并观察模型预测的变化来衡量该特征的重要性。",
term_es = "ablación de características",
term_zh = "特征消融",
aliases_es = { "ablación", "eliminación de características", "remoción de características" },
aliases_zh = { "特征移除", "留一特征法", "消融" },
}
data["feature absorption"] = {
short = "A failure mode in sparse-autoencoder-based interpretability where one feature direction implicitly captures a more specific concept that should ideally be represented by a separate latent.",
article = nil,
aliases = { "absorption", "feature absorption in SAEs", "latent absorption" },
es = "Modo de fallo en la interpretabilidad basada en autocodificadores dispersos en el que una dirección de característica captura implícitamente un concepto más específico que idealmente debería estar representado por un latente separado.",
zh = "稀疏自编码器可解释性中的一种失败模式:某个特征方向隐式吸收了本应由独立潜变量表示的更具体概念。",
term_es = "absorción de características",
term_zh = "特征吸收",
aliases_es = { "absorción", "absorción latente", "absorción en SAE" },
aliases_zh = { "吸收", "潜变量吸收", "SAE 中的特征吸收" },
}
data["feature attribution"] = {
short = "An explainability technique that assigns a numeric score to each input feature indicating its contribution to a model's prediction for a specific instance.",
article = nil,
aliases = { "attribution method", "feature attributions", "input attribution" },
es = "Técnica de explicabilidad que asigna una puntuación numérica a cada característica de entrada indicando su contribución a la predicción del modelo para una instancia específica.",
zh = "一种可解释性技术,为每个输入特征分配一个数值分数,表示其对模型在特定实例上预测结果的贡献。",
term_es = "atribución de características",
term_zh = "特征归因",
aliases_es = { "método de atribución", "atribución de entrada" },
aliases_zh = { "归因方法", "输入归因" },
}
data["feature contribution"] = {
short = "The signed quantitative effect of an individual feature on a model's output, often computed via Shapley values, gradients, or perturbation-based methods.",
article = nil,
aliases = { "feature contributions", "per-feature contribution" },
es = "Efecto cuantitativo con signo de una característica individual sobre la salida del modelo, calculado a menudo mediante valores de Shapley, gradientes o métodos basados en perturbaciones.",
zh = "单个特征对模型输出的有符号定量影响,通常通过 Shapley 值、梯度或基于扰动的方法计算。",
term_es = "contribución de características",
term_zh = "特征贡献",
aliases_es = { "contribución por característica" },
aliases_zh = { "单特征贡献" },
}
data["feature dictionary"] = {
short = "In sparse autoencoder interpretability, the learned set of decoder vectors (atoms) whose sparse linear combinations reconstruct model activations, with each atom interpreted as a monosemantic feature.",
article = nil,
aliases = { "dictionary of features", "SAE dictionary", "feature codebook" },
es = "En interpretabilidad mediante autoencoders dispersos, conjunto aprendido de vectores decodificadores (átomos) cuyas combinaciones lineales dispersas reconstruyen activaciones del modelo; cada átomo se interpreta como una característica monosemántica.",
zh = "在稀疏自编码器可解释性中,学习得到的解码器向量(原子)集合,其稀疏线性组合可重构模型激活,每个原子被解释为单义特征。",
term_es = "diccionario de características",
term_zh = "特征字典",
aliases_es = { "diccionario SAE", "libro de códigos de características" },
aliases_zh = { "SAE 字典", "特征码本" },
}
data["feature distillation"] = {
short = "A knowledge-distillation variant where the student is supervised on intermediate hidden representations or feature maps of the teacher, encouraging similar internal geometry rather than only matching final outputs.",
article = nil,
aliases = { "feature-based distillation", "hint-based distillation", "intermediate distillation", "representation distillation" },
es = "Variante de destilación de conocimiento en la que el estudiante se supervisa con las representaciones ocultas intermedias o mapas de características del maestro, fomentando una geometría interna similar en lugar de igualar solo las salidas finales.",
zh = "知识蒸馏的一种变体,学生模型以教师的中间隐藏表示或特征图作为监督信号,促使内部几何结构相似,而不仅仅匹配最终输出。",
term_es = "destilación de características",
term_zh = "特征蒸馏",
aliases_es = { "destilación basada en características", "destilación de representaciones", "destilación intermedia" },
aliases_zh = { "基于特征的蒸馏", "中间层蒸馏", "表示蒸馏", "提示蒸馏" },
}
data["feature distribution skew"] = {
short = "A form of statistical heterogeneity in federated learning where clients share the same label space but the marginal distribution of input features differs across clients, e.g. due to different sensors or environments.",
article = nil,
aliases = { "feature skew", "covariate shift across clients", "feature distribution heterogeneity" },
es = "Sesgo de distribución de características: forma de heterogeneidad estadística en aprendizaje federado en la que los clientes comparten el mismo espacio de etiquetas pero la distribución marginal de las características de entrada difiere entre ellos, p. ej., por sensores o entornos distintos.",
zh = "特征分布偏斜:联邦学习中的一种统计异质性形式,客户端共享相同的标签空间,但输入特征的边缘分布在不同客户端之间存在差异,例如由于传感器或环境不同。",
term_es = "sesgo de distribución de características",
term_zh = "特征分布偏斜",
aliases_es = { "sesgo de características", "desplazamiento covariante entre clientes" },
aliases_zh = { "特征偏斜", "客户端协变量偏移", "特征分布异质性" },
}
data["feature engineering"] = {
short = "The manual process of designing, selecting, and transforming raw input variables into features that improve a model's predictive performance, traditionally a key step in classical machine learning pipelines.",
article = nil,
aliases = { "feature-engineering", "hand-crafted features", "handcrafted features", "manual feature design" },
es = "Proceso manual de diseñar, seleccionar y transformar variables de entrada brutas en características que mejoran el rendimiento predictivo de un modelo; tradicionalmente un paso clave en las tuberías de aprendizaje automático clásico.",
zh = "手动设计、选择和转换原始输入变量以构造能够提升模型预测性能的特征的过程,传统上是经典机器学习流水线中的关键步骤。",
term_es = "ingeniería de características",
term_zh = "特征工程",
aliases_es = { "ingeniería de rasgos", "diseño manual de características", "características diseñadas a mano" },
aliases_zh = { "feature engineering", "人工特征设计", "手工特征" },
}
data["feature flipping test"] = {
short = "An evaluation protocol for attribution methods that progressively replaces or perturbs the most important features and measures the resulting drop in model accuracy or confidence.",
article = nil,
aliases = { "feature flipping", "pixel flipping", "flipping evaluation" },
es = "Protocolo de evaluación para métodos de atribución que reemplaza o perturba progresivamente las características más importantes y mide la caída resultante en la precisión o confianza del modelo.",
zh = "一种归因方法评估协议,逐步替换或扰动最重要的特征,并测量由此导致的模型精度或置信度下降。",
term_es = "prueba de inversión de características",
term_zh = "特征翻转测试",
aliases_es = { "inversión de características", "flipping de píxeles" },
aliases_zh = { "特征翻转", "像素翻转" },
}
data["feature function"] = {
short = "In log-linear and conditional random field models, a real-valued function over an input-output pair (or clique configuration) whose weighted sum forms the unnormalized log-probability; feature functions encode domain knowledge and may be binary indicators or continuous statistics.",
article = nil,
aliases = { "feature functions", "log-linear feature", "CRF feature", "indicator feature", "feature template instantiation" },
es = "En los modelos log-lineales y los campos aleatorios condicionales, una función con valores reales sobre un par entrada-salida (o configuración de clique) cuya suma ponderada constituye el logaritmo no normalizado de la probabilidad; las funciones de característica codifican conocimiento del dominio y pueden ser indicadores binarios o estadísticos continuos.",
zh = "在对数线性模型和条件随机场中,定义在输入-输出对(或团配置)上的实值函数,其加权和构成未归一化的对数概率;特征函数用以编码领域知识,可以是二值指示函数或连续统计量。",
term_es = "función de característica",
term_zh = "特征函数",
aliases_es = { "función de rasgo", "característica log-lineal", "característica CRF", "indicador" },
aliases_zh = { "特征函数模板", "对数线性特征", "CRF 特征", "指示特征" },
}
data["feature inversion"] = {
short = "An interpretability technique that reconstructs an input image (or other signal) from a network's intermediate activations to visualize what information a layer preserves.",
article = nil,
aliases = { "activation inversion", "representation inversion" },
es = "Técnica de interpretabilidad que reconstruye una imagen de entrada (u otra señal) a partir de las activaciones intermedias de una red para visualizar qué información preserva una capa.",
zh = "一种可解释性技术,从网络中间激活重构输入图像(或其他信号),以可视化某层所保留的信息。",
term_es = "inversión de características",
term_zh = "特征反演",
aliases_es = { "inversión de activaciones", "inversión de representaciones" },
aliases_zh = { "激活反演", "表示反演" },
}
data["feature learning"] = {
short = "The process by which a model automatically discovers and extracts informative features from raw data during training, replacing or augmenting hand-engineered features; closely related to representation learning.",
article = nil,
aliases = { "feature-learning", "automatic feature extraction", "learned features" },
es = "Proceso por el cual un modelo descubre y extrae automáticamente características informativas a partir de datos brutos durante el entrenamiento, sustituyendo o complementando las características diseñadas manualmente; está estrechamente relacionado con el aprendizaje de representaciones.",
zh = "模型在训练过程中自动从原始数据中发现并提取信息丰富特征的过程,取代或补充人工设计的特征;与表示学习密切相关。",
term_es = "aprendizaje de características",
term_zh = "特征学习",
aliases_es = { "aprendizaje de rasgos", "extracción automática de características" },
aliases_zh = { "特征学习方法", "feature learning", "自动特征提取" },
}
data["feature map"] = {
short = "The output produced by applying a filter (or set of filters) to an input in a convolutional layer. Each channel of a feature map encodes the spatial response of one filter across the input.",
article = nil,
aliases = { "activation map", "feature maps", "channel" },
es = "Salida producida al aplicar un filtro (o conjunto de filtros) a una entrada en una capa convolucional. Cada canal de un mapa de características codifica la respuesta espacial de un filtro a lo largo de la entrada.",
zh = "在卷积层中将滤波器(或一组滤波器)应用于输入所产生的输出。特征图的每个通道编码一个滤波器在输入上的空间响应。",
term_es = "mapa de características",
term_zh = "特征图",
aliases_es = { "mapa de activación", "feature map" },
aliases_zh = { "feature map", "激活图" },
}
data["feature occlusion"] = {
short = "An attribution technique that masks or zeros out regions or features of an input and measures the change in the model's output to estimate each region's importance.",
article = nil,
aliases = { "occlusion sensitivity", "occlusion analysis", "occlusion-based attribution" },
es = "Técnica de atribución que enmascara o anula regiones o características de una entrada y mide el cambio en la salida del modelo para estimar la importancia de cada región.",
zh = "一种归因技术,遮蔽或将输入的区域或特征置零,并测量模型输出的变化以估计每个区域的重要性。",
term_es = "oclusión de características",
term_zh = "特征遮挡",
aliases_es = { "sensibilidad por oclusión", "análisis de oclusión" },
aliases_zh = { "遮挡敏感性", "遮挡分析", "基于遮挡的归因" },
}
data["feature pyramid network"] = {
short = "A general-purpose feature extractor introduced by Lin et al. in 2017 that builds a top-down pathway with lateral connections from a backbone CNN, producing multi-scale feature maps with high-level semantics at every level.",
article = nil,
aliases = { "FPN", "feature pyramid", "Feature Pyramid Network", "PANet", "BiFPN" },
es = "Extractor de características de propósito general presentado por Lin et al. en 2017 que construye una vía descendente con conexiones laterales a partir de una CNN troncal, produciendo mapas de características multiescala con semántica de alto nivel en todos los niveles.",
zh = "由 Lin 等人于 2017 年提出的通用特征提取器,从主干 CNN 构建带有横向连接的自顶向下路径,生成在每个层级都具有高层语义的多尺度特征图。",
term_es = "feature pyramid network",
term_zh = "特征金字塔网络",
aliases_es = { "FPN", "red piramidal de características", "pirámide de características" },
aliases_zh = { "FPN", "feature pyramid network" },
}
data["feature ranking"] = {
short = "An ordered list of input features sorted by their estimated importance to a model's predictions, used for interpretation and feature selection.",
article = nil,
aliases = { "variable ranking", "importance ranking" },
es = "Lista ordenada de características de entrada clasificadas según su importancia estimada para las predicciones del modelo, utilizada para interpretación y selección de características.",
zh = "按对模型预测的估计重要性排序的输入特征列表,用于解释和特征选择。",
term_es = "ranking de características",
term_zh = "特征排序",
aliases_es = { "clasificación de variables", "clasificación por importancia" },
aliases_zh = { "变量排序", "重要性排序" },
}
data["feature relevance"] = {
short = "A measure of how strongly a feature influences a model's output for an individual prediction or across a dataset, used as a synonym for attribution or importance.",
article = nil,
aliases = { "relevance score", "feature relevance score" },
es = "Medida del grado en que una característica influye en la salida de un modelo para una predicción individual o en todo un conjunto de datos; se usa como sinónimo de atribución o importancia.",
zh = "衡量某一特征对模型在单个预测或整个数据集上的输出影响程度的指标,常作为归因或重要性的同义词使用。",
term_es = "relevancia de características",
term_zh = "特征相关性",
aliases_es = { "puntuación de relevancia" },
aliases_zh = { "相关性分数", "特征相关性分数" },
}
data["feature splitting"] = {
short = "A phenomenon in sparse autoencoders where increasing dictionary size causes a single coarse feature to split into multiple finer-grained, more specific features.",
article = nil,
aliases = { "feature splits", "sparse feature splitting" },
es = "Fenómeno observado en autoencoders dispersos en el que aumentar el tamaño del diccionario hace que una característica gruesa se divida en múltiples características más finas y específicas.",
zh = "在稀疏自编码器中观察到的一种现象:增大字典规模会导致单个粗粒度特征分裂为多个更细粒度、更具体的特征。",
term_es = "división de características",
term_zh = "特征分裂",
aliases_es = { "splits de características" },
aliases_zh = { "稀疏特征分裂" },
}
data["feature steering"] = {
short = "A technique that modifies a model's behavior by adding or scaling specific interpretable features (e.g. SAE directions) in its hidden activations during inference.",
article = nil,
aliases = { "activation steering", "feature-based steering", "SAE steering" },
es = "Técnica que modifica el comportamiento de un modelo añadiendo o escalando características interpretables específicas (por ejemplo, direcciones SAE) en sus activaciones ocultas durante la inferencia.",
zh = "一种技术,通过在推理时向隐藏激活添加或缩放特定的可解释特征(如 SAE 方向)来修改模型行为。",
term_es = "dirección de características",
term_zh = "特征引导",
aliases_es = { "dirección de activaciones", "steering de características" },
aliases_zh = { "激活引导", "基于特征的引导", "SAE 引导" },
}
data["feature template"] = {
short = "A parameterized pattern from which many concrete feature functions are instantiated by binding template variables to observed values; widely used in NLP CRFs and structured prediction to compactly specify large feature sets such as word-tag combinations or n-gram contexts.",
article = nil,
aliases = { "feature templates", "feature schema", "template feature", "feature pattern" },
es = "Un patrón parametrizado a partir del cual se instancian numerosas funciones de característica concretas ligando variables del patrón a valores observados; muy usado en CRF para PLN y en predicción estructurada para especificar de forma compacta conjuntos amplios de características, como combinaciones palabra-etiqueta o contextos de n-gramas.",
zh = "一种参数化模式,通过将模板变量绑定到观测值来实例化大量具体特征函数;在自然语言处理的 CRF 和结构化预测中广泛用于紧凑地定义大规模特征集合,如词-标签组合或 n-gram 上下文。",
term_es = "plantilla de características",
term_zh = "特征模板",
aliases_es = { "esquema de características", "patrón de característica", "plantilla de rasgos" },
aliases_zh = { "特征模板模式", "特征模式", "特征模板规则" },
}
data["feature visualization"] = {
short = "An interpretability technique that synthesizes inputs (typically by gradient ascent on a chosen activation) which maximally activate a neuron, channel, or feature direction in a network.",
article = nil,
aliases = { "activation maximization", "neuron visualization", "feature vis" },
es = "Técnica de interpretabilidad que sintetiza entradas (típicamente mediante ascenso de gradiente sobre una activación elegida) que activan al máximo una neurona, canal o dirección de característica en una red.",
zh = "一种可解释性技术,通过合成输入(通常对所选激活进行梯度上升)来最大化激活网络中的某个神经元、通道或特征方向。",
term_es = "visualización de características",
term_zh = "特征可视化",
aliases_es = { "maximización de activaciones", "visualización de neuronas" },
aliases_zh = { "激活最大化", "神经元可视化" },
}
data["featurecounts"] = {
short = "A read-summarization program from the Subread package that assigns aligned RNA-seq, ChIP-seq, or ATAC-seq reads to genomic features (typically genes or exons defined by a GTF/SAF file) and produces a count matrix used as input to differential analysis tools.",
article = nil,
aliases = { "featureCounts", "FeatureCounts", "Subread featureCounts", "Rsubread::featureCounts" },
es = "Programa de resumen de lecturas del paquete Subread que asigna lecturas alineadas de RNA-seq, ChIP-seq o ATAC-seq a características genómicas (habitualmente genes o exones definidos en un archivo GTF/SAF) y produce una matriz de conteos que sirve de entrada a herramientas de análisis diferencial.",
zh = "Subread 软件包中的读段汇总工具,将比对后的 RNA-seq、ChIP-seq 或 ATAC-seq 读段分配到基因组特征(通常是 GTF/SAF 文件定义的基因或外显子),生成可作为差异分析工具输入的计数矩阵。",
term_es = "featureCounts",
term_zh = "featureCounts",
aliases_es = { "featureCounts", "FeatureCounts", "featureCounts de Subread" },
aliases_zh = { "featureCounts", "FeatureCounts", "Subread featureCounts", "Rsubread featureCounts" },
}
data["fedadagrad"] = {
short = "FedAdagrad: a federated optimization algorithm that applies the Adagrad adaptive learning-rate rule on the server side to aggregated client deltas, improving convergence under heterogeneous data compared to FedAvg.",
article = nil,
aliases = { "FedAdagrad", "Federated Adagrad", "Adagrad federated" },
es = "FedAdagrad: algoritmo de optimización federada que aplica la regla de tasa de aprendizaje adaptativa de Adagrad en el servidor sobre los incrementos agregados de los clientes, mejorando la convergencia con datos heterogéneos respecto a FedAvg.",
zh = "FedAdagrad:一种联邦优化算法,在服务器端对聚合后的客户端增量应用 Adagrad 自适应学习率规则,在异质数据下相较 FedAvg 改善收敛性。",
term_es = "FedAdagrad",
term_zh = "FedAdagrad",
aliases_es = { "Adagrad federado" },
aliases_zh = { "联邦 Adagrad" },
}
data["fedadam"] = {
short = "FedAdam: a federated optimization algorithm that uses Adam-style adaptive moments on the server to combine aggregated client updates, providing better stability and accuracy than FedAvg under data heterogeneity.",
article = nil,
aliases = { "FedAdam", "Federated Adam", "Adam federated" },
es = "FedAdam: algoritmo de optimización federada que usa momentos adaptativos al estilo de Adam en el servidor para combinar las actualizaciones agregadas de los clientes, ofreciendo mejor estabilidad y precisión que FedAvg ante heterogeneidad de datos.",
zh = "FedAdam:一种联邦优化算法,在服务器端采用 Adam 风格的自适应动量来组合聚合后的客户端更新,在数据异质场景下比 FedAvg 提供更好的稳定性与精度。",
term_es = "FedAdam",
term_zh = "FedAdam",
aliases_es = { "Adam federado" },
aliases_zh = { "联邦 Adam" },
}
data["fedasync"] = {
short = "FedAsync: an asynchronous federated learning algorithm where the server updates the global model immediately upon receiving each client's update, weighting stale contributions by a staleness-dependent factor.",
article = nil,
aliases = { "FedAsync", "Asynchronous Federated Averaging", "asynchronous FedAvg" },
es = "FedAsync: algoritmo de aprendizaje federado asíncrono en el que el servidor actualiza el modelo global inmediatamente al recibir la actualización de cada cliente, ponderando las contribuciones obsoletas por un factor dependiente del retraso.",
zh = "FedAsync:一种异步联邦学习算法,服务器在收到每个客户端更新时即刻更新全局模型,并根据陈旧度对滞后贡献加以加权。",
term_es = "FedAsync",
term_zh = "FedAsync",
aliases_es = { "FedAvg asíncrono", "promediado federado asíncrono" },
aliases_zh = { "异步 FedAvg", "异步联邦平均" },
}
data["fedaux"] = {
short = "FedAux: a federated learning method that exploits an auxiliary unlabeled public dataset to align client representations and weight client contributions, improving aggregation under non-IID data.",
article = nil,
aliases = { "FedAux", "Federated Auxiliary", "FedAux algorithm" },
es = "FedAux: método de aprendizaje federado que aprovecha un conjunto público auxiliar sin etiquetar para alinear las representaciones de los clientes y ponderar sus contribuciones, mejorando la agregación con datos no IID.",
zh = "FedAux:一种联邦学习方法,利用辅助的无标注公共数据集来对齐各客户端的表征并对其贡献加权,从而在非独立同分布数据下改进聚合。",
term_es = "FedAux",
term_zh = "FedAux",
aliases_es = { "FedAux", "método FedAux" },
aliases_zh = { "FedAux 算法", "联邦辅助算法" },
}
data["fedavg"] = {
short = "Federated Averaging: the canonical federated learning algorithm in which clients run multiple local SGD steps on their data and the server averages the resulting model parameters, weighted by client dataset size.",
article = nil,
aliases = { "FedAvg", "Federated Averaging", "federated averaging" },
es = "FedAvg (promediado federado): algoritmo canónico de aprendizaje federado en el que los clientes ejecutan varios pasos locales de SGD sobre sus datos y el servidor promedia los parámetros resultantes, ponderados por el tamaño del conjunto de datos de cada cliente.",
zh = "FedAvg(联邦平均):经典的联邦学习算法,客户端在本地数据上执行多步 SGD,服务器再按客户端数据量加权平均所得模型参数。",
term_es = "FedAvg",
term_zh = "FedAvg",
aliases_es = { "promediado federado", "Federated Averaging" },
aliases_zh = { "联邦平均", "联邦平均算法" },
}
data["fedavgm"] = {
short = "FedAvgM: FedAvg with server-side momentum, where the server maintains a momentum buffer over aggregated client updates to accelerate convergence and improve robustness under heterogeneous data.",
article = nil,
aliases = { "FedAvgM", "FedAvg with momentum", "Federated Averaging with Momentum" },
es = "FedAvgM: variante de FedAvg con momento en el servidor, donde el servidor mantiene un buffer de momento sobre las actualizaciones agregadas de los clientes para acelerar la convergencia y mejorar la robustez con datos heterogéneos.",
zh = "FedAvgM:在 FedAvg 基础上加入服务器端动量的变体,服务器对聚合后的客户端更新维护动量缓存,以加速收敛并提高在异质数据下的稳健性。",
term_es = "FedAvgM",
term_zh = "FedAvgM",
aliases_es = { "FedAvg con momento", "promediado federado con momento" },
aliases_zh = { "带动量的 FedAvg", "带动量的联邦平均" },
}
data["fedbabu"] = {
short = "FedBABU: a federated learning method that trains the feature extractor with FedAvg while keeping the classifier head fixed during federation, then fine-tunes the head per client to improve personalization.",
article = nil,
aliases = { "FedBABU", "Federated Body Aggregation Body Update" },
es = "FedBABU: método de aprendizaje federado que entrena el extractor de características con FedAvg manteniendo fijo el cabezal clasificador durante la federación y luego ajusta el cabezal por cliente para mejorar la personalización.",
zh = "FedBABU:一种联邦学习方法,在联邦阶段使用 FedAvg 训练特征提取器并保持分类头固定,随后对每个客户端微调分类头以提升个性化效果。",
term_es = "FedBABU",
term_zh = "FedBABU",
aliases_es = { "método FedBABU" },
aliases_zh = { "FedBABU 算法" },
}
data["fedbn"] = {
short = "FedBN: a federated learning algorithm that excludes batch normalization parameters from server aggregation, letting each client maintain its own BN statistics to handle feature-distribution skew across clients.",
article = nil,
aliases = { "FedBN", "Federated Batch Normalization", "FedBN algorithm" },
es = "FedBN: algoritmo de aprendizaje federado que excluye los parámetros de normalización por lotes de la agregación en el servidor, permitiendo que cada cliente mantenga sus propios estadísticos de BN para manejar el sesgo de distribución de características entre clientes.",
zh = "FedBN:一种联邦学习算法,将批归一化参数排除在服务器聚合之外,使每个客户端保留自己的 BN 统计量,以应对各客户端之间的特征分布偏斜。",
term_es = "FedBN",
term_zh = "FedBN",
aliases_es = { "normalización por lotes federada" },
aliases_zh = { "联邦批归一化", "FedBN 算法" },
}
data["fedboost"] = {
short = "FedBoost: a federated boosting framework that learns an ensemble of weak models contributed by clients, training successive learners on residuals while keeping client data local.",
article = nil,
aliases = { "FedBoost", "Federated Boosting", "federated gradient boosting" },
es = "FedBoost: marco de boosting federado que aprende un ensamble de modelos débiles aportados por los clientes, entrenando aprendices sucesivos sobre los residuos mientras los datos de cada cliente permanecen locales.",
zh = "FedBoost:一种联邦提升框架,学习由各客户端贡献的弱模型集成,在客户端数据保持本地的前提下,逐步在残差上训练新的学习器。",
term_es = "FedBoost",
term_zh = "FedBoost",
aliases_es = { "boosting federado", "gradient boosting federado" },
aliases_zh = { "联邦提升", "联邦梯度提升" },
}
data["feddf"] = {
short = "FedDF: a federated learning method that aggregates client models on the server via ensemble distillation on a public unlabeled dataset, allowing heterogeneous client architectures and improving robustness to non-IID data.",
article = nil,
aliases = { "FedDF", "Federated Distillation Fusion", "Federated Ensemble Distillation" },
es = "FedDF: método de aprendizaje federado que agrega modelos cliente en el servidor mediante destilación de ensamble sobre un conjunto público sin etiquetar, permitiendo arquitecturas heterogéneas de clientes y mejorando la robustez ante datos no IID.",
zh = "FedDF:一种联邦学习方法,在服务器端通过对公共无标注数据集进行集成蒸馏来聚合客户端模型,支持异构客户端架构并提升对非独立同分布数据的稳健性。",
term_es = "FedDF",
term_zh = "FedDF",
aliases_es = { "fusión por destilación federada", "destilación federada FedDF" },
aliases_zh = { "联邦蒸馏融合", "FedDF 算法" },
}
data["feddyn"] = {
short = "FedDyn: a federated optimization method that adds a dynamic regularizer to each client's local objective so that local minima coincide with the global stationary point, improving convergence under data heterogeneity.",
article = nil,
aliases = { "FedDyn", "Federated Dynamic Regularization", "Dynamic FedAvg" },
es = "FedDyn: método de optimización federada que añade un regularizador dinámico al objetivo local de cada cliente para que los mínimos locales coincidan con el punto estacionario global, mejorando la convergencia bajo heterogeneidad de datos.",
zh = "FedDyn:一种联邦优化方法,为每个客户端的本地目标添加动态正则项,使本地极小点与全局稳定点一致,从而在数据异质条件下改善收敛性。",
term_es = "FedDyn",
term_zh = "FedDyn",
aliases_es = { "regularización federada dinámica" },
aliases_zh = { "联邦动态正则化", "动态 FedAvg" },
}
data["fedensemble"] = {
short = "A federated learning algorithm that maintains an ensemble of models on the server, with each client training one ensemble member; predictions aggregate over the ensemble rather than averaging weights, mitigating the effect of client heterogeneity.",
article = nil,
aliases = { "FedEnsemble", "Fed-Ensemble", "federated ensemble" },
es = "Algoritmo de aprendizaje federado que mantiene un ensamble de modelos en el servidor, con cada cliente entrenando un miembro del ensamble; las predicciones se agregan sobre el ensamble en lugar de promediar pesos, mitigando la heterogeneidad entre clientes.",
zh = "一种联邦学习算法,在服务器端维护模型集成,每个客户端训练集成中的一个成员;预测通过集成聚合而非权重平均,从而缓解客户端异构性的影响。",
term_es = "FedEnsemble",
term_zh = "FedEnsemble",
aliases_es = { "Fed-Ensemble", "ensamble federado" },
aliases_zh = { "Fed-Ensemble", "联邦集成" },
}
data["federated analytics"] = {
short = "The application of data-science queries (counts, histograms, top-k, quantiles) to data that remains on user devices, computing aggregate statistics without centralizing raw records, often with differential privacy guarantees.",
article = nil,
aliases = { "Federated Analytics", "FA", "federated statistics" },
es = "Aplicación de consultas de ciencia de datos (conteos, histogramas, top-k, cuantiles) a datos que permanecen en los dispositivos de los usuarios, calculando estadísticas agregadas sin centralizar los registros, a menudo con garantías de privacidad diferencial.",
zh = "将数据科学查询(计数、直方图、Top-K、分位数)应用于保留在用户设备上的数据,在不集中原始记录的情况下计算聚合统计,通常带有差分隐私保证。",
term_es = "analítica federada",
term_zh = "联邦分析",
aliases_es = { "estadística federada", "federated analytics" },
aliases_zh = { "Federated Analytics", "FA", "联邦统计" },
}
data["federated averaging"] = {
short = "The canonical federated learning algorithm (McMahan et al., 2017) in which clients run multiple local SGD epochs and the server averages the resulting weight updates, weighted by client dataset size, to produce a new global model.",
article = nil,
aliases = { "FedAvg", "Federated Averaging", "FederatedAveraging", "federated averaging algorithm" },
es = "Algoritmo canónico de aprendizaje federado (McMahan et al., 2017) en el que los clientes ejecutan varias épocas locales de SGD y el servidor promedia las actualizaciones de pesos resultantes, ponderadas por el tamaño del conjunto de datos de cada cliente, para producir un nuevo modelo global.",
zh = "联邦学习的经典算法(McMahan 等,2017),客户端在本地运行多轮 SGD,服务器按各客户端数据集大小对权重更新进行加权平均,得到新的全局模型。",
term_es = "promedio federado",
term_zh = "联邦平均",
aliases_es = { "FedAvg", "Federated Averaging" },
aliases_zh = { "FedAvg", "联邦平均算法" },
}
data["federated cifar"] = {
short = "Federated learning benchmarks built on CIFAR-10/100 by partitioning the images across simulated clients, typically with non-IID label skew, used to evaluate aggregation algorithms on image classification.",
article = nil,
aliases = { "Federated CIFAR", "FederatedCIFAR", "CIFAR federated", "federated CIFAR-10", "federated CIFAR-100" },
es = "Benchmarks de aprendizaje federado construidos sobre CIFAR-10/100 al particionar las imágenes entre clientes simulados, típicamente con sesgo no-IID en las etiquetas, usados para evaluar algoritmos de agregación en clasificación de imágenes.",
zh = "基于 CIFAR-10/100 构建的联邦学习基准,将图像划分到模拟客户端,通常采用非独立同分布的标签偏斜,用于评估图像分类中的聚合算法。",
term_es = "Federated CIFAR",
term_zh = "Federated CIFAR",
aliases_es = { "CIFAR federado", "Federated CIFAR-10", "Federated CIFAR-100" },
aliases_zh = { "联邦 CIFAR", "Federated CIFAR-10", "Federated CIFAR-100" },
}
data["federated continual learning"] = {
short = "A federated learning setting in which clients see a stream of tasks over time and must learn new tasks without catastrophically forgetting previous ones while still benefiting from collaborative aggregation.",
article = nil,
aliases = { "FCL", "Federated Continual Learning", "continual federated learning" },
es = "Configuración de aprendizaje federado en la que los clientes observan un flujo de tareas a lo largo del tiempo y deben aprender nuevas tareas sin olvidar catastróficamente las anteriores, beneficiándose a la vez de la agregación colaborativa.",
zh = "联邦学习的一种设置,客户端随时间观察任务流,必须在不灾难性遗忘先前任务的前提下学习新任务,同时享受协作聚合的收益。",
term_es = "aprendizaje continuo federado",
term_zh = "联邦持续学习",
aliases_es = { "FCL", "federated continual learning", "aprendizaje federado continuo" },
aliases_zh = { "FCL", "持续联邦学习" },
}
data["federated convergence analysis"] = {
short = "The theoretical study of how fast federated learning algorithms approach a stationary point or optimum, characterizing convergence rates as functions of client heterogeneity, local steps, partial participation, and communication rounds.",
article = nil,
aliases = { "convergence analysis of federated learning", "FedAvg convergence analysis", "federated learning convergence" },
es = "Estudio teórico de la velocidad con la que los algoritmos de aprendizaje federado se acercan a un punto estacionario u óptimo, caracterizando las tasas de convergencia en función de la heterogeneidad de clientes, los pasos locales, la participación parcial y las rondas de comunicación.",
zh = "对联邦学习算法收敛到驻点或最优解速度的理论分析,依据客户端异构性、本地步数、部分参与与通信轮数刻画收敛率。",
term_es = "análisis de convergencia federado",
term_zh = "联邦收敛分析",
aliases_es = { "análisis de convergencia de aprendizaje federado", "convergencia de FedAvg" },
aliases_zh = { "联邦学习收敛分析", "FedAvg 收敛分析" },
}
data["federated cross-validation"] = {
short = "A model-selection procedure for federated learning in which validation folds are formed across clients (cross-silo or cross-device) so that hyperparameters and model checkpoints generalize without requiring centralized validation data.",
article = nil,
aliases = { "Federated Cross-Validation", "federated CV", "cross-client validation" },
es = "Procedimiento de selección de modelos para aprendizaje federado en el que los pliegues de validación se forman a través de los clientes (cross-silo o cross-device), de modo que los hiperparámetros y los checkpoints generalicen sin requerir datos de validación centralizados.",
zh = "联邦学习中的模型选择方法,将验证折划分到客户端之间(跨机构或跨设备),从而在无需集中验证数据的情况下使超参数和模型检查点具备泛化能力。",
term_es = "validación cruzada federada",
term_zh = "联邦交叉验证",
aliases_es = { "CV federada", "validación cruzada entre clientes" },
aliases_zh = { "联邦 CV", "跨客户端验证" },
}
data["federated distillation"] = {
short = "A communication-efficient federated learning approach in which clients exchange model outputs (logits or soft predictions on a public reference set) rather than weights, and a global model is trained by knowledge distillation on the aggregated outputs.",
article = nil,
aliases = { "FD", "Federated Distillation", "federated knowledge distillation" },
es = "Enfoque de aprendizaje federado eficiente en comunicación en el que los clientes intercambian salidas del modelo (logits o predicciones suaves sobre un conjunto público de referencia) en lugar de pesos, y un modelo global se entrena mediante destilación de conocimiento sobre las salidas agregadas.",
zh = "一种通信高效的联邦学习方法:客户端交换模型输出(在公共参考集上的 logits 或软预测)而非权重,全局模型通过对聚合输出的知识蒸馏进行训练。",
term_es = "destilación federada",
term_zh = "联邦蒸馏",
aliases_es = { "FD", "destilación de conocimiento federada" },
aliases_zh = { "FD", "Federated Distillation", "联邦知识蒸馏" },
}
data["federated dropout"] = {
short = "A communication-reduction technique in which the server sends each client only a randomly selected sub-network (analogous to dropout) so that uplink bandwidth and on-device compute scale with the sub-network size rather than the full model.",
article = nil,
aliases = { "Federated Dropout", "FedDropout" },
es = "Técnica para reducir la comunicación en aprendizaje federado en la que el servidor envía a cada cliente sólo una subred seleccionada aleatoriamente (análoga a dropout), de modo que el ancho de banda de subida y el cómputo en el dispositivo escalan con el tamaño de la subred en lugar del modelo completo.",
zh = "一种降低联邦学习通信开销的技术:服务器只向每个客户端发送随机选取的子网络(类似于 dropout),使上行带宽和设备端算力随子网络大小而非整体模型大小扩展。",
term_es = "dropout federado",
term_zh = "联邦 Dropout",
aliases_es = { "FedDropout", "Federated Dropout" },
aliases_zh = { "FedDropout", "Federated Dropout", "联邦丢弃" },
}
data["federated edge computing"] = {
short = "An execution model that combines federated learning with edge computing, training models cooperatively across edge servers and end devices so that data, computation, and aggregation stay close to the source rather than in a central cloud.",
article = nil,
aliases = { "Federated Edge Computing", "FEC", "edge federated learning" },
es = "Modelo de ejecución que combina aprendizaje federado con computación de borde, entrenando modelos cooperativamente entre servidores edge y dispositivos finales de modo que los datos, el cómputo y la agregación permanezcan cerca de la fuente en lugar de en una nube central.",
zh = "一种执行模式,将联邦学习与边缘计算结合,在边缘服务器和终端设备之间协同训练模型,使数据、计算和聚合保留在数据源附近,而非集中到云端。",
term_es = "computación de borde federada",
term_zh = "联邦边缘计算",
aliases_es = { "FEC", "aprendizaje federado en el borde" },
aliases_zh = { "FEC", "边缘联邦学习" },
}
data["federated emnist"] = {
short = "A canonical federated learning benchmark built on Extended MNIST, partitioning handwritten digit and character images by writer so that each client (writer) has a naturally non-IID local distribution.",
article = nil,
aliases = { "Federated EMNIST", "FederatedEMNIST", "FEMNIST", "EMNIST federated" },
es = "Benchmark canónico de aprendizaje federado construido sobre Extended MNIST, particionando imágenes de dígitos y caracteres manuscritos por escritor de modo que cada cliente (escritor) tiene una distribución local naturalmente no-IID.",
zh = "基于 Extended MNIST 构建的经典联邦学习基准,按书写者划分手写数字和字符图像,使每个客户端(书写者)天然具备非独立同分布的本地数据。",
term_es = "Federated EMNIST",
term_zh = "Federated EMNIST",
aliases_es = { "FEMNIST", "EMNIST federado" },
aliases_zh = { "FEMNIST", "联邦 EMNIST" },
}
data["federated feature engineering"] = {
short = "The construction or selection of features across clients in a federated setting without exchanging raw data, typically by computing local statistics or transformations and securely aggregating them so that the resulting features are usable by downstream federated models.",
article = nil,
aliases = { "Federated Feature Engineering", "FedFE", "feature engineering for federated learning" },
es = "Construcción o selección de características entre clientes en un entorno federado sin intercambiar datos en bruto, típicamente calculando estadísticas o transformaciones locales y agregándolas de forma segura para que los atributos resultantes sean utilizables por modelos federados.",
zh = "在不交换原始数据的前提下,跨客户端进行联邦化的特征构造或选择,通常通过计算本地统计量或变换,并对其进行安全聚合,使得到的特征可被下游联邦模型使用。",
term_es = "ingeniería de características federada",
term_zh = "联邦特征工程",
aliases_es = { "FedFE", "feature engineering federada" },
aliases_zh = { "FedFE", "联邦特征构造" },
}
data["federated few-shot learning"] = {
short = "A federated learning setting where each client has only a handful of labeled examples per class, requiring algorithms (often combining meta-learning with FedAvg) that learn efficiently across clients despite scarce local data.",
article = nil,
aliases = { "FedFSL", "Federated Few-Shot Learning", "few-shot federated learning" },
es = "Entorno de aprendizaje federado en el que cada cliente dispone únicamente de unos pocos ejemplos etiquetados por clase, lo que requiere algoritmos (a menudo combinando meta-aprendizaje con FedAvg) capaces de aprender eficientemente entre clientes pese a la escasez de datos locales.",
zh = "联邦学习的一种设置,每个客户端只有每类极少量的标注样本,需要能在本地数据稀缺情况下跨客户端高效学习的算法(通常将元学习与 FedAvg 结合)。",
term_es = "aprendizaje federado con pocos ejemplos",
term_zh = "联邦小样本学习",
aliases_es = { "FedFSL", "few-shot federado" },
aliases_zh = { "FedFSL", "小样本联邦学习" },
}
data["federated game theory"] = {
short = "The application of game-theoretic models (cooperative games, Shapley values, Stackelberg games, mechanism design) to federated learning to analyze incentives, fair reward allocation, and equilibria among self-interested clients.",
article = nil,
aliases = { "game theory for federated learning", "federated learning game theory" },
es = "Aplicación de modelos de teoría de juegos (juegos cooperativos, valores de Shapley, juegos de Stackelberg, diseño de mecanismos) al aprendizaje federado para analizar incentivos, asignación justa de recompensas y equilibrios entre clientes con intereses propios.",
zh = "将博弈论模型(合作博弈、Shapley 值、Stackelberg 博弈、机制设计)应用于联邦学习,用以分析自利客户端之间的激励、公平奖励分配与均衡。",
term_es = "teoría de juegos federada",
term_zh = "联邦博弈论",
aliases_es = { "teoría de juegos para aprendizaje federado" },
aliases_zh = { "联邦学习博弈论", "用于联邦学习的博弈论" },
}
data["federated keyboard prediction"] = {
short = "Training next-word and emoji prediction models for mobile keyboards (notably Google's Gboard) directly on phones via federated learning, so that user keystrokes never leave the device while the global language model improves.",
article = nil,
aliases = { "federated next-word prediction", "Gboard federated learning", "federated mobile keyboard" },
es = "Entrenamiento de modelos de predicción de siguiente palabra y emoji para teclados móviles (notablemente Gboard de Google) directamente en los teléfonos mediante aprendizaje federado, de modo que las pulsaciones de los usuarios nunca abandonan el dispositivo mientras el modelo de lenguaje global mejora.",
zh = "通过联邦学习直接在手机上训练移动键盘(尤其是 Google Gboard)的下一词与表情预测模型,使用户击键不离开设备的同时改进全局语言模型。",
term_es = "predicción federada de teclado",
term_zh = "联邦键盘预测",
aliases_es = { "predicción de siguiente palabra federada", "aprendizaje federado en Gboard" },
aliases_zh = { "联邦下一词预测", "Gboard 联邦学习", "联邦移动键盘" },
}
data["federated knowledge distillation"] = {
short = "A federated training paradigm in which clients and server transfer knowledge through soft predictions rather than weights, allowing heterogeneous client architectures and reducing per-round communication compared with FedAvg.",
article = nil,
aliases = { "FedKD", "Federated Knowledge Distillation", "knowledge distillation in federated learning" },
es = "Paradigma de entrenamiento federado en el que clientes y servidor transfieren conocimiento mediante predicciones suaves en lugar de pesos, permitiendo arquitecturas heterogéneas entre clientes y reduciendo la comunicación por ronda en comparación con FedAvg.",
zh = "一种联邦训练范式,客户端与服务器通过软预测而非权重传递知识,从而支持异构客户端架构,并在每轮通信上比 FedAvg 更轻量。",
term_es = "destilación de conocimiento federada",
term_zh = "联邦知识蒸馏",
aliases_es = { "FedKD", "destilación federada de conocimiento" },
aliases_zh = { "FedKD", "联邦学习中的知识蒸馏" },
}
data["federated learning"] = {
short = "A distributed machine-learning paradigm in which many clients (devices or organizations) collaboratively train a shared model under coordination of a central server while keeping their training data local, exchanging only model updates.",
article = nil,
aliases = { "FL", "Federated Learning", "federated machine learning", "collaborative learning" },
es = "Paradigma de aprendizaje automático distribuido en el que numerosos clientes (dispositivos u organizaciones) entrenan colaborativamente un modelo compartido bajo la coordinación de un servidor central, manteniendo locales sus datos de entrenamiento e intercambiando únicamente actualizaciones del modelo.",
zh = "一种分布式机器学习范式:多个客户端(设备或机构)在中央服务器协调下协同训练共享模型,训练数据保留在本地,仅交换模型更新。",
term_es = "aprendizaje federado",
term_zh = "联邦学习",
aliases_es = { "FL", "Federated Learning", "aprendizaje automático federado" },
aliases_zh = { "FL", "Federated Learning", "联邦机器学习", "协同学习" },
}
data["federated learning at scale"] = {
short = "The systems-engineering practice of running federated learning across millions of heterogeneous clients in production, addressing client selection, fault tolerance, secure aggregation throughput, and privacy budgeting at deployment scale.",
article = nil,
aliases = { "FL at scale", "production federated learning", "large-scale federated learning" },
es = "Práctica de ingeniería de sistemas para ejecutar aprendizaje federado a través de millones de clientes heterogéneos en producción, abordando la selección de clientes, la tolerancia a fallos, el rendimiento de la agregación segura y la gestión del presupuesto de privacidad a escala de despliegue.",
zh = "在生产环境中跨数百万异构客户端运行联邦学习的系统工程实践,涉及客户端选择、容错、安全聚合吞吐量以及大规模部署下的隐私预算管理。",
term_es = "aprendizaje federado a gran escala",
term_zh = "大规模联邦学习",
aliases_es = { "FL a escala", "aprendizaje federado en producción" },
aliases_zh = { "大规模 FL", "生产环境联邦学习", "联邦学习规模化" },
}
data["federated learning incentive"] = {
short = "Mechanisms that reward clients for honest participation and high-quality data contributions in federated learning, typically using contracts, auctions, or Shapley-value-based payments to align self-interest with global model utility.",
article = nil,
aliases = { "FL incentive", "federated learning incentives", "incentive mechanism for federated learning" },
es = "Mecanismos que recompensan a los clientes por su participación honesta y por contribuciones de datos de alta calidad en aprendizaje federado, típicamente mediante contratos, subastas o pagos basados en el valor de Shapley para alinear el interés propio con la utilidad del modelo global.",
zh = "在联邦学习中奖励客户端诚实参与和高质量数据贡献的机制,通常采用合约、拍卖或基于 Shapley 值的支付,使个体利益与全局模型效用保持一致。",
term_es = "incentivos en aprendizaje federado",
term_zh = "联邦学习激励",
aliases_es = { "incentivo FL", "mecanismo de incentivos para aprendizaje federado" },
aliases_zh = { "FL 激励", "联邦学习激励机制" },
}
data["federated learning lifecycle"] = {
short = "The end-to-end stages of a federated learning system: problem formulation, simulation, client onboarding, training rounds, evaluation, deployment, monitoring, and retirement of model versions.",
article = nil,
aliases = { "FL lifecycle", "federated lifecycle", "lifecycle of federated learning" },
es = "Etapas de extremo a extremo de un sistema de aprendizaje federado: formulación del problema, simulación, incorporación de clientes, rondas de entrenamiento, evaluación, despliegue, monitorización y retiro de versiones del modelo.",
zh = "联邦学习系统的端到端阶段:问题定义、仿真、客户端接入、训练轮次、评估、部署、监控以及模型版本下线。",
term_es = "ciclo de vida del aprendizaje federado",
term_zh = "联邦学习生命周期",
aliases_es = { "ciclo de vida FL", "lifecycle de FL" },
aliases_zh = { "FL 生命周期", "联邦学习生命周期管理" },
}
data["federated learning on iot"] = {
short = "Federated learning deployed across Internet-of-Things devices (sensors, wearables, smart-home appliances) under tight memory, energy, and intermittent-connectivity constraints, often paired with model compression and asynchronous aggregation.",
article = nil,
aliases = { "FL on IoT", "IoT federated learning", "federated learning for IoT" },
es = "Aprendizaje federado desplegado en dispositivos de Internet de las Cosas (sensores, wearables, electrodomésticos inteligentes) bajo restricciones estrictas de memoria, energía y conectividad intermitente, a menudo combinado con compresión de modelos y agregación asíncrona.",
zh = "在物联网设备(传感器、可穿戴设备、智能家电)上部署的联邦学习,受内存、能耗和间歇连接的严格约束,通常结合模型压缩和异步聚合。",
term_es = "aprendizaje federado en IoT",
term_zh = "物联网联邦学习",
aliases_es = { "FL en IoT", "aprendizaje federado para IoT" },
aliases_zh = { "IoT 联邦学习", "用于物联网的联邦学习" },
}
data["federated learning on smartphones"] = {
short = "The cross-device flavor of federated learning where smartphones serve as clients, training on local user data when the device is idle, charging, and on Wi-Fi; the original deployment context studied by Google for Gboard and other apps.",
article = nil,
aliases = { "smartphone federated learning", "mobile federated learning", "FL on smartphones" },
es = "Variante cross-device de aprendizaje federado en la que los teléfonos inteligentes actúan como clientes, entrenando con datos locales del usuario mientras el dispositivo está inactivo, cargando y conectado a Wi-Fi; el contexto original de despliegue estudiado por Google para Gboard y otras aplicaciones.",
zh = "联邦学习的跨设备形态,以智能手机作为客户端,在设备空闲、充电并连接 Wi-Fi 时基于本地用户数据训练;这是 Google 最初为 Gboard 等应用研究的部署场景。",
term_es = "aprendizaje federado en smartphones",
term_zh = "智能手机上的联邦学习",
aliases_es = { "aprendizaje federado en móviles", "FL en smartphones" },
aliases_zh = { "手机联邦学习", "移动端联邦学习" },
}
data["federated learning regret"] = {
short = "An online-learning measure of federated optimization quality that bounds the cumulative loss of the federated algorithm relative to the best fixed model in hindsight, capturing the cost of distributed, partial-participation training over rounds.",
article = nil,
aliases = { "FL regret", "regret in federated learning", "federated regret" },
es = "Medida de aprendizaje en línea de la calidad de la optimización federada que acota la pérdida acumulada del algoritmo federado respecto al mejor modelo fijo en retrospectiva, capturando el costo del entrenamiento distribuido con participación parcial a lo largo de las rondas.",
zh = "联邦优化质量的在线学习度量,界定联邦算法相对于事后最佳固定模型的累计损失,刻画了分布式、部分参与训练在多轮中的代价。",
term_es = "arrepentimiento en aprendizaje federado",
term_zh = "联邦学习遗憾",
aliases_es = { "regret federado", "regret en FL" },
aliases_zh = { "FL 遗憾", "联邦遗憾" },
}
data["federated learning workflow"] = {
short = "The orchestrated sequence of operations within a federated learning round: client selection, model broadcast, local training, secure update upload, server aggregation, evaluation, and checkpointing.",
article = nil,
aliases = { "FL workflow", "federated workflow", "federated training workflow" },
es = "Secuencia orquestada de operaciones dentro de una ronda de aprendizaje federado: selección de clientes, transmisión del modelo, entrenamiento local, subida segura de actualizaciones, agregación en servidor, evaluación y checkpointing.",
zh = "联邦学习一轮内的有序操作流程:客户端选择、模型下发、本地训练、安全上传更新、服务器聚合、评估与检查点保存。",
term_es = "flujo de trabajo federado",
term_zh = "联邦学习工作流",
aliases_es = { "workflow FL", "flujo de entrenamiento federado" },
aliases_zh = { "FL 工作流", "联邦训练流程" },
}
data["federated logging"] = {
short = "Privacy-preserving collection of telemetry across clients in a federated system, recording aggregate metrics (round losses, participation rates, errors) without exposing per-user logs, often combined with secure aggregation or differential privacy.",
article = nil,
aliases = { "Federated Logging", "federated telemetry" },
es = "Recopilación de telemetría con preservación de privacidad entre clientes de un sistema federado, registrando métricas agregadas (pérdidas por ronda, tasas de participación, errores) sin exponer registros por usuario, a menudo combinada con agregación segura o privacidad diferencial.",
zh = "联邦系统中跨客户端的隐私保护遥测收集,仅记录聚合指标(轮次损失、参与率、错误等)而不暴露每用户日志,通常与安全聚合或差分隐私结合。",
term_es = "registro federado",
term_zh = "联邦日志记录",
aliases_es = { "logging federado", "telemetría federada" },
aliases_zh = { "联邦遥测", "Federated Logging" },
}
data["federated lower bound"] = {
short = "Information-theoretic or optimization-theoretic limits on what any federated learning algorithm can achieve given communication budget, client heterogeneity, privacy constraints, or partial participation, used to certify the optimality of proposed methods.",
article = nil,
aliases = { "lower bound for federated learning", "federated learning lower bound", "FL lower bound" },
es = "Límites teóricos (de la teoría de la información o de la optimización) sobre lo que puede lograr cualquier algoritmo de aprendizaje federado dado un presupuesto de comunicación, heterogeneidad entre clientes, restricciones de privacidad o participación parcial, utilizados para certificar la optimalidad de los métodos propuestos.",
zh = "在给定通信预算、客户端异构性、隐私约束或部分参与的条件下,对任何联邦学习算法能达到的性能给出的(信息论或优化论)下界,用于证明所提方法的最优性。",
term_es = "cota inferior federada",
term_zh = "联邦下界",
aliases_es = { "cota inferior para aprendizaje federado", "lower bound federado" },
aliases_zh = { "联邦学习下界", "FL 下界" },
}
data["federated marketplace"] = {
short = "A platform in which data holders trade access to their data, models, or compute through federated learning, with mechanisms for pricing, quality verification, and incentive payments while keeping raw data local.",
article = nil,
aliases = { "Federated Marketplace", "data marketplace for federated learning", "federated data marketplace" },
es = "Plataforma en la que poseedores de datos negocian el acceso a sus datos, modelos o cómputo a través de aprendizaje federado, con mecanismos de precios, verificación de calidad y pagos de incentivos, manteniendo locales los datos en bruto.",
zh = "一种平台,数据持有者通过联邦学习交易其数据、模型或算力的访问权,配备定价、质量验证和激励支付机制,同时保持原始数据本地存储。",
term_es = "mercado federado",
term_zh = "联邦市场",
aliases_es = { "marketplace federado", "mercado de datos federado" },
aliases_zh = { "联邦数据市场", "Federated Marketplace" },
}
data["federated meta-learning"] = {
short = "The combination of meta-learning (e.g. MAML) with federated training, where the global model is optimized so that each client can quickly adapt it to its local distribution with a few gradient steps.",
article = nil,
aliases = { "FedMeta", "Federated Meta-Learning", "meta-learning for federated learning" },
es = "Combinación de meta-aprendizaje (por ejemplo, MAML) con entrenamiento federado, en la que el modelo global se optimiza para que cada cliente pueda adaptarlo rápidamente a su distribución local con unos pocos pasos de gradiente.",
zh = "将元学习(如 MAML)与联邦训练相结合,使全局模型经过优化后,每个客户端只需少量梯度步即可快速适配到本地分布。",
term_es = "meta-aprendizaje federado",
term_zh = "联邦元学习",
aliases_es = { "FedMeta", "meta-learning federado" },
aliases_zh = { "FedMeta", "用于联邦学习的元学习" },
}
data["federated multi-task learning"] = {
short = "A federated learning formulation in which each client trains a related but distinct task and the algorithm explicitly models task relationships (often via a regularized multi-task objective) instead of forcing a single global model on all clients.",
article = nil,
aliases = { "FMTL", "Federated Multi-Task Learning", "MOCHA", "federated MTL" },
es = "Formulación de aprendizaje federado en la que cada cliente entrena una tarea relacionada pero distinta y el algoritmo modela explícitamente las relaciones entre tareas (a menudo mediante un objetivo multitarea regularizado), en lugar de imponer un único modelo global a todos los clientes.",
zh = "一种联邦学习构造:每个客户端训练相关但不同的任务,算法显式建模任务关系(通常通过带正则的多任务目标),而不是对所有客户端强制使用单一全局模型。",
term_es = "aprendizaje federado multitarea",
term_zh = "联邦多任务学习",
aliases_es = { "FMTL", "MOCHA", "MTL federado" },
aliases_zh = { "FMTL", "MOCHA", "联邦 MTL" },
}
data["federated proximal regularization"] = {
short = "The proximal term added to local objectives in FedProx, which penalizes the squared distance between local weights and the latest global weights and stabilizes federated training under client heterogeneity and partial participation.",
article = nil,
aliases = { "FedProx regularization", "proximal regularization in federated learning", "FedProx proximal term", "proximal term FedProx" },
es = "Término proximal añadido a los objetivos locales en FedProx, que penaliza la distancia al cuadrado entre los pesos locales y los pesos globales más recientes y estabiliza el entrenamiento federado bajo heterogeneidad de clientes y participación parcial.",
zh = "FedProx 在本地目标中加入的近端项,对本地权重与最新全局权重之间的平方距离进行惩罚,在客户端异构和部分参与的条件下稳定联邦训练。",
term_es = "regularización proximal federada",
term_zh = "联邦近端正则化",
aliases_es = { "regularización proximal de FedProx", "término proximal de FedProx" },
aliases_zh = { "FedProx 正则化", "联邦学习中的近端正则化", "FedProx 近端项" },
}
data["feed-forward transformer tts"] = {
short = "A transformer-based TTS architecture that replaces autoregressive decoding with stacked self-attention feed-forward blocks operating in parallel over the full phoneme sequence; introduced in FastSpeech.",
article = nil,
aliases = { "FFT TTS", "feed forward transformer TTS", "FFT block TTS", "feed-forward transformer", "FFT-based TTS" },
es = "Arquitectura TTS basada en transformer que sustituye la decodificación autorregresiva por bloques de auto-atención y feed-forward apilados que operan en paralelo sobre toda la secuencia de fonemas; introducida en FastSpeech.",
zh = "一种基于 Transformer 的 TTS 架构,使用堆叠的自注意力前馈模块在整个音素序列上并行处理,取代了自回归解码;最早在 FastSpeech 中提出。",
term_es = "TTS de transformer feed-forward",
term_zh = "前馈Transformer TTS",
aliases_es = { "FFT TTS", "transformer feed-forward para TTS" },
aliases_zh = { "FFT TTS", "前馈式Transformer语音合成" },
}
data["feedback loop bias"] = {
short = "A self-reinforcing bias that arises when a deployed model's outputs influence the data used to retrain it, amplifying initial disparities over successive iterations, common in recommenders and predictive policing.",
article = nil,
aliases = { "feedback loop", "feedback bias", "runaway feedback loop", "self-reinforcing bias" },
es = "Sesgo autorreforzado que surge cuando las salidas de un modelo desplegado influyen en los datos utilizados para reentrenarlo, amplificando las disparidades iniciales en iteraciones sucesivas, frecuente en recomendadores y vigilancia predictiva.",
zh = "一种自我强化的偏见,当部署模型的输出影响其再训练所用的数据时产生,在多次迭代中放大初始差异,常见于推荐系统和预测性执法。",
term_es = "sesgo de bucle de retroalimentación",
term_zh = "反馈循环偏见",
aliases_es = { "sesgo de bucle de retroalimentación", "sesgo de retroalimentación", "bucle de retroalimentación", "sesgo autorreforzado" },
aliases_zh = { "反馈循环偏见", "反馈回路偏见", "反馈偏见", "自我强化偏见" },
}
data["feedforward neural network"] = {
short = "A neural network in which information flows in one direction from inputs to outputs through a directed acyclic graph of layers, with no recurrent connections.",
article = "Neural Networks",
aliases = { "feed-forward neural network", "feedforward network", "FFN", "FNN", "acyclic neural network" },
es = "Red neuronal en la que la información fluye en una sola dirección desde las entradas hasta las salidas a través de un grafo dirigido acíclico de capas, sin conexiones recurrentes.",
zh = "一种神经网络,其信息按有向无环图的方向从输入流向输出,不含循环连接。",
term_es = "red neuronal feedforward",
term_zh = "前馈神经网络",
aliases_es = { "red neuronal de propagación hacia adelante", "red feedforward", "FFN" },
aliases_zh = { "前向神经网络", "FFN", "FNN" },
}
data["fep+"] = {
short = "Schrödinger's commercial implementation of relative-binding free energy perturbation, combining OPLS force fields, replica-exchange solute tempering, and automated cycle setup to predict ligand affinity changes from explicit-solvent molecular dynamics.",
article = nil,
aliases = { "FEP+", "FEP plus", "Schrodinger FEP+", "Schrödinger FEP+" },
es = "Implementación comercial de Schrödinger de la perturbación de energía libre relativa de unión, que combina campos de fuerzas OPLS, replica exchange con templado del soluto y montaje automatizado del ciclo para predecir cambios de afinidad de ligandos a partir de dinámica molecular en disolvente explícito.",
zh = "Schrödinger公司商用的相对结合自由能微扰实现,结合OPLS力场、溶质温度副本交换以及自动化的循环搭建,从显式溶剂分子动力学中预测配体亲和力的变化。",
term_es = "FEP+",
term_zh = "FEP+",
aliases_es = { "FEP+", "FEP plus", "FEP+ de Schrödinger" },
aliases_zh = { "FEP+", "FEP plus", "薛定谔FEP+" },
}
data["ferret"] = {
short = "A multimodal large language model from Apple that supports referring and grounding at arbitrary spatial granularities, including points, boxes, and free-form regions, by representing regions with a hybrid coordinate-and-feature scheme.",
article = nil,
aliases = { "Ferret", "Ferret MLLM", "Ferret model" },
es = "Modelo de lenguaje multimodal grande de Apple que admite referencia y anclaje espacial con granularidad arbitraria, incluyendo puntos, cajas y regiones de forma libre, representando las regiones mediante un esquema híbrido de coordenadas y características.",
zh = "Apple提出的多模态大语言模型,支持任意空间粒度的指代与定位,包括点、框和自由形状区域,通过混合坐标-特征方案来表示区域。",
term_es = "Ferret",
term_zh = "Ferret",
aliases_es = { "modelo Ferret" },
aliases_zh = { "Ferret模型" },
}
data["few-shot learning"] = {
short = "Learning to perform a task from only a small number of labeled examples per class, often by leveraging prior knowledge from pre-training, meta-learning, or in-context conditioning.",
article = nil,
aliases = { "few shot learning", "fewshot learning", "FSL", "few-shot classification" },
es = "Aprendizaje de una tarea a partir de un número reducido de ejemplos etiquetados por clase, frecuentemente aprovechando conocimiento previo del preentrenamiento, meta-aprendizaje o condicionamiento en contexto.",
zh = "仅依靠每类少量带标签样本来完成任务的学习方式,通常借助预训练、元学习或上下文条件中的先验知识。",
term_es = "aprendizaje few-shot",
term_zh = "小样本学习",
aliases_es = { "aprendizaje con pocos ejemplos", "few-shot", "FSL" },
aliases_zh = { "few-shot learning", "少样本学习", "FSL" },
}
data["few-shot nas"] = {
short = "A NAS technique that splits a single weight-sharing supernet into a small number of sub-supernets, each covering a subset of operations, to mitigate co-adaptation interference and improve correlation between supernet rankings and standalone accuracy.",
article = nil,
aliases = { "Few-shot NAS", "few-shot neural architecture search", "few shot NAS" },
es = "Técnica de NAS que divide una única supernet con pesos compartidos en un pequeño número de sub-supernets, cada una cubriendo un subconjunto de operaciones, para mitigar la interferencia por coadaptación y mejorar la correlación entre los rankings de la supernet y la precisión en evaluación independiente.",
zh = "一种 NAS 技术,将单一权重共享的超网络拆分为少量子超网络,每个子超网络覆盖一部分操作,以减轻共适应干扰并改善超网络排名与独立评估准确率之间的相关性。",
term_es = "few-shot NAS",
term_zh = "少样本NAS",
aliases_es = { "NAS de pocas tomas" },
aliases_zh = { "few-shot NAS", "小样本NAS" },
}
data["few-shot prompting"] = {
short = "Prompting a language model to perform a task by including a small number of input-output demonstrations in the prompt, relying on in-context learning to generalize to a new query.",
article = nil,
aliases = { "Few-Shot Prompting", "few shot prompting", "few-shot learning", "few-shot in-context learning", "k-shot prompting" },
es = "Estrategia de prompting que indica a un modelo de lenguaje cómo realizar una tarea incluyendo un pequeño número de ejemplos de entrada-salida en el prompt, apoyándose en el aprendizaje en contexto para generalizar a una nueva consulta.",
zh = "通过在提示中包含少量输入-输出示例来引导语言模型完成任务的提示方式,依赖上下文学习能力对新查询进行泛化。",
term_es = "prompting con pocos ejemplos",
term_zh = "少样本提示",
aliases_es = { "few-shot prompting", "prompting few-shot", "aprendizaje con pocos ejemplos", "k-shot prompting" },
aliases_zh = { "few-shot prompting", "小样本提示", "少样本提示学习", "k 样本提示" },
}
data["few-shot supernet"] = {
short = "A supernet variant used in few-shot NAS that partitions the operation search space into multiple disjoint sub-supernets, each trained separately, to reduce gradient conflicts during weight sharing.",
article = nil,
aliases = { "few-shot super-net", "Few-shot supernet", "sub-supernets", "partitioned supernet" },
es = "Variante de supernet utilizada en few-shot NAS que particiona el espacio de búsqueda de operaciones en varias sub-supernets disjuntas, entrenadas por separado, para reducir los conflictos de gradiente durante el reparto de pesos.",
zh = "用于 few-shot NAS 的超网络变体,将操作搜索空间划分为多个互不相交、分别训练的子超网络,以减少权重共享期间的梯度冲突。",
term_es = "supernet few-shot",
term_zh = "少样本超网络",
aliases_es = { "sub-supernets", "supernet particionada" },
aliases_zh = { "子超网络", "few-shot超网络", "分区超网络" },
}
data["few-shot voice cloning"] = {
short = "Voice cloning techniques that adapt or condition a TTS model to mimic a target speaker from only a few seconds to a few minutes of reference audio, typically without retraining the full model.",
article = nil,
aliases = { "few shot voice cloning", "low-resource voice cloning", "speaker adaptation TTS", "few-shot speaker cloning" },
es = "Técnicas de clonación de voz que adaptan o condicionan un modelo TTS para imitar a un hablante objetivo a partir de solo unos segundos a unos minutos de audio de referencia, normalmente sin reentrenar el modelo completo.",
zh = "仅利用数秒到数分钟参考音频对 TTS 模型进行适配或条件化以模仿目标说话人的语音克隆技术,通常无需重新训练整个模型。",
term_es = "clonación de voz con pocos ejemplos",
term_zh = "少样本语音克隆",
aliases_es = { "voice cloning few-shot", "clonación de voz few-shot", "adaptación de hablante TTS" },
aliases_zh = { "少样本声音克隆", "少样本说话人克隆", "few-shot语音克隆" },
}
data["fid clip"] = {
short = "A variant of the Fréchet Inception Distance for evaluating generated images that replaces the Inception network's feature space with CLIP image features, better correlating with human judgments of fidelity and diversity for modern generators.",
article = nil,
aliases = { "FID-CLIP", "CLIP-FID", "FID CLIP", "clip fid" },
es = "Variante de la Distancia Fréchet de Inception para evaluar imágenes generadas que reemplaza el espacio de características de la red Inception por características de imagen de CLIP, correlacionando mejor con los juicios humanos de fidelidad y diversidad para los generadores modernos.",
zh = "用于评估生成图像的Fréchet Inception距离变体,使用CLIP图像特征替代Inception网络的特征空间,对现代生成模型在保真度和多样性方面与人类判断的相关性更强。",
term_es = "FID-CLIP",
term_zh = "FID-CLIP",
aliases_es = { "CLIP-FID", "FID CLIP" },
aliases_zh = { "CLIP-FID", "FID CLIP" },
}
data["fidelity gap"] = {
short = "The discrepancy between an explanation method's predicted outputs (e.g. via a surrogate or attribution sum) and the true model's outputs, quantifying how faithfully the explanation reflects the model.",
article = nil,
aliases = { "explanation fidelity gap", "infidelity" },
es = "Discrepancia entre las salidas predichas por un método de explicación (por ejemplo, mediante un sustituto o la suma de atribuciones) y las salidas reales del modelo; cuantifica con qué fidelidad la explicación refleja al modelo.",
zh = "解释方法的预测输出(例如通过代理模型或归因之和)与真实模型输出之间的差异,用于量化解释对模型的忠实程度。",
term_es = "brecha de fidelidad",
term_zh = "保真度差距",
aliases_es = { "infidelidad", "brecha de fidelidad de la explicación" },
aliases_zh = { "解释保真度差距", "不忠实度" },
}
data["fidelity hierarchy"] = {
short = "A multi-fidelity optimization concept where evaluations can be performed at multiple cost-accuracy trade-off levels (e.g., training epochs, dataset size, image resolution), forming an ordered hierarchy used by methods like Hyperband and BOHB.",
article = nil,
aliases = { "fidelity levels", "multi-fidelity hierarchy", "fidelity ladder", "fidelity rungs" },
es = "Concepto de optimización multifidelidad en el que las evaluaciones pueden realizarse en múltiples niveles de compromiso entre coste y precisión (por ejemplo, épocas de entrenamiento, tamaño del conjunto de datos, resolución de imagen), formando una jerarquía ordenada utilizada por métodos como Hyperband y BOHB.",
zh = "多保真度优化中的概念,评估可在成本与精度的多种权衡层级上进行(如训练轮次、数据集大小、图像分辨率),形成有序层级,被 Hyperband 和 BOHB 等方法使用。",
term_es = "jerarquía de fidelidades",
term_zh = "保真度层级",
aliases_es = { "niveles de fidelidad", "jerarquía multifidelidad" },
aliases_zh = { "保真度层次", "多保真度层级", "保真度阶梯" },
}
data["fidelity-sparsity tradeoff"] = {
short = "The inherent tension in interpretable models and explanations between matching the original model's predictions accurately (fidelity) and using few features or rules (sparsity).",
article = nil,
aliases = { "sparsity-fidelity tradeoff", "fidelity vs sparsity", "sparsity fidelity trade-off" },
es = "Tensión inherente en modelos interpretables y explicaciones entre reproducir con precisión las predicciones del modelo original (fidelidad) y usar pocas características o reglas (esparcidad).",
zh = "可解释模型与解释中固有的权衡:在准确匹配原模型预测(保真度)与仅使用少量特征或规则(稀疏性)之间的张力。",
term_es = "compromiso fidelidad-esparcidad",
term_zh = "保真度-稀疏性权衡",
aliases_es = { "compromiso esparcidad-fidelidad" },
aliases_zh = { "稀疏性-保真度权衡" },
}
data["figaro language"] = {
short = "A probabilistic programming language implemented as a Scala library that supports object-oriented modeling and a wide range of inference algorithms over generative models.",
article = nil,
aliases = { "Figaro", "Figaro PPL", "Figaro probabilistic programming language" },
es = "Lenguaje de programación probabilística implementado como una biblioteca de Scala que admite modelado orientado a objetos y diversos algoritmos de inferencia sobre modelos generativos.",
zh = "一种以 Scala 库形式实现的概率编程语言,支持面向对象的建模以及对生成模型的多种推断算法。",
term_es = "Figaro",
term_zh = "Figaro 语言",
aliases_es = { "Figaro", "lenguaje Figaro" },
aliases_zh = { "Figaro", "Figaro 概率编程语言" },
}
data["filip"] = {
short = "A vision-language pretraining method that augments CLIP-style global contrastive learning with token-level fine-grained alignment between image patches and text tokens, improving region-text understanding.",
article = nil,
aliases = { "FILIP", "Fine-grained Interactive Language-Image Pre-training" },
es = "Método de preentrenamiento visión-lenguaje que complementa el aprendizaje contrastivo global al estilo CLIP con un alineamiento de grano fino a nivel de token entre parches de imagen y tokens de texto, mejorando la comprensión de regiones y texto.",
zh = "一种视觉-语言预训练方法,在CLIP式全局对比学习之外,引入图像patch与文本token之间的细粒度token级对齐,提升区域-文本理解能力。",
term_es = "FILIP",
term_zh = "FILIP",
aliases_es = { "preentrenamiento FILIP" },
aliases_zh = { "FILIP模型", "细粒度交互式语言-图像预训练" },
}
data["fill-in-the-middle"] = {
short = "A training objective for autoregressive language models in which a portion of the document is moved to the end and the model learns to generate it conditioned on the surrounding prefix and suffix. Common in code models.",
article = nil,
aliases = { "FIM", "fill in the middle", "Fill-in-the-Middle", "infilling" },
es = "Objetivo de entrenamiento para modelos de lenguaje autorregresivos en el que una porción del documento se traslada al final y el modelo aprende a generarla condicionada al prefijo y al sufijo circundantes. Común en modelos de código.",
zh = "一种自回归语言模型的训练目标,将文档中间的一段移到末尾,模型学习在给定前缀和后缀的条件下生成该段。常用于代码模型。",
term_es = "fill-in-the-middle",
term_zh = "fill-in-the-middle",
aliases_es = { "FIM", "rellenar en medio", "infilling" },
aliases_zh = { "FIM", "中间填充", "填空式训练", "infilling" },
}
data["filter"] = {
short = "In convolutional networks, a learnable weight tensor (often a 3D stack of 2D kernels across input channels) that detects a specific pattern in the input. Used interchangeably with kernel.",
article = nil,
aliases = { "convolutional filter", "conv filter" },
es = "En redes convolucionales, un tensor de pesos aprendibles (a menudo una pila 3D de núcleos 2D a través de los canales de entrada) que detecta un patrón específico en la entrada. Se usa indistintamente con kernel.",
zh = "在卷积神经网络中,一个可学习的权重张量(通常为跨输入通道的二维核组成的三维堆叠),用于检测输入中的特定模式。与卷积核可互换使用。",
term_es = "filtro",
term_zh = "滤波器",
aliases_es = { "filtro convolucional" },
aliases_zh = { "卷积滤波器", "filter" },
}
data["filter response normalization"] = {
short = "Per-sample, per-channel normalization that divides activations by the root-mean-square over spatial dimensions, paired with a thresholded linear unit. Independent of batch size.",
article = nil,
aliases = { "FRN", "Filter Response Normalization", "filter response norm" },
es = "Normalización por muestra y por canal que divide las activaciones por la raíz cuadrática media sobre las dimensiones espaciales, combinada con una unidad lineal con umbral. Independiente del tamaño del batch.",
zh = "对每个样本、每个通道在空间维度上按均方根进行归一化,并搭配带阈值的线性单元。与批大小无关。",
term_es = "normalización por respuesta de filtro",
term_zh = "滤波器响应归一化",
aliases_es = { "FRN", "normalización FRN" },
aliases_zh = { "FRN", "滤波响应归一化" },
}
data["filterbank features"] = {
short = "Frame-level acoustic features computed by passing the signal spectrum through a bank of band-pass filters (typically mel-scaled) and taking the log energy of each band; the most common input representation for modern speech models.",
article = nil,
aliases = { "filter bank features", "filter-bank features", "mel filterbank features", "log mel filterbank features", "FBANK features", "filterbank energies" },
es = "Características acústicas a nivel de trama obtenidas al pasar el espectro de la señal por un banco de filtros pasa-banda (normalmente en escala mel) y tomar la energía logarítmica de cada banda; la representación de entrada más habitual para los modelos de voz modernos.",
zh = "通过将信号频谱送入一组带通滤波器(通常采用梅尔尺度)并取每个频带的对数能量得到的帧级声学特征,是现代语音模型最常见的输入表示。",
term_es = "características de banco de filtros",
term_zh = "滤波器组特征",
aliases_es = { "FBANK", "características fbank", "energías de filterbank" },
aliases_zh = { "FBANK特征", "梅尔滤波器组特征", "滤波器组能量" },
}
data["filtered ranking"] = {
short = "An evaluation protocol for knowledge-graph link prediction in which other true triples already known in the graph are removed from the candidate ranking before computing metrics such as MRR or Hits@k, isolating the model's score for the held-out triple.",
article = nil,
aliases = { "filtered setting", "filtered evaluation", "filtered metric", "filtered MRR", "filtered Hits@k" },
es = "Un protocolo de evaluación para la predicción de enlaces en grafos de conocimiento en el que las demás triplas verdaderas ya conocidas en el grafo se eliminan del ranking de candidatos antes de calcular métricas como MRR o Hits@k, aislando la puntuación del modelo para la tripla retenida.",
zh = "知识图链接预测的一种评估协议:在计算 MRR 或 Hits@k 等指标之前,从候选排名中剔除图中其他已知为真的三元组,以单独考察模型对被屏蔽三元组的评分。",
term_es = "ranking filtrado",
term_zh = "过滤式排名",
aliases_es = { "evaluación filtrada", "métrica filtrada", "MRR filtrado", "Hits@k filtrado" },
aliases_zh = { "过滤评估", "过滤指标", "过滤 MRR", "过滤 Hits@k", "filtered setting" },
}
data["fine-grained alignment multimodal"] = {
short = "Multimodal training and inference techniques that align local elements across modalities — such as image regions to noun phrases or video segments to subtitles — rather than only aligning global representations.",
article = nil,
aliases = { "fine-grained multimodal alignment", "fine grained alignment", "local multimodal alignment", "region-phrase alignment" },
es = "Técnicas de entrenamiento e inferencia multimodal que alinean elementos locales entre modalidades, como regiones de imagen con frases nominales o segmentos de vídeo con subtítulos, en lugar de solo alinear representaciones globales.",
zh = "在模态间对局部元素进行对齐的多模态训练与推理技术,例如将图像区域与名词短语对齐、将视频片段与字幕对齐,而不仅是对齐全局表示。",
term_es = "alineación multimodal de grano fino",
term_zh = "细粒度多模态对齐",
aliases_es = { "alineamiento multimodal de grano fino", "alineación local multimodal", "alineación región-frase" },
aliases_zh = { "细粒度跨模态对齐", "局部多模态对齐", "区域-短语对齐" },
}
data["fine-grained moe"] = {
short = "A mixture-of-experts design that splits each feed-forward block into many small experts and activates several per token, improving specialization and parameter efficiency relative to coarse MoE with few large experts.",
article = nil,
aliases = { "fine-grained mixture-of-experts", "fine-grained MoE", "fine grained MoE", "DeepSeekMoE-style MoE" },
es = "Diseño de mezclas de expertos que divide cada bloque feed-forward en muchos expertos pequeños y activa varios por token, mejorando la especialización y la eficiencia de parámetros respecto a MoE gruesos con pocos expertos grandes.",
zh = "一种专家混合设计,将每个前馈模块拆分为大量小专家,并对每个 token 激活若干个,相比少量大专家的粗粒度 MoE 提升专业化与参数效率。",
term_es = "MoE de grano fino",
term_zh = "细粒度 MoE",
aliases_es = { "mezcla de expertos de grano fino", "MoE fine-grained" },
aliases_zh = { "细粒度专家混合", "fine-grained MoE" },
}
data["fine-grained vqa"] = {
short = "Visual question answering tasks and benchmarks that require recognition of subtle visual details, attributes, or part-level distinctions rather than coarse object or scene categories.",
article = nil,
aliases = { "fine grained VQA", "fine-grained visual question answering", "FGVQA" },
es = "Tareas y pruebas de referencia de respuesta a preguntas visuales que requieren reconocer detalles visuales sutiles, atributos o distinciones a nivel de partes, en lugar de categorías generales de objetos o escenas.",
zh = "要求识别细微视觉细节、属性或部件级差异(而非粗粒度物体或场景类别)的视觉问答任务与基准。",
term_es = "VQA de grano fino",
term_zh = "细粒度视觉问答",
aliases_es = { "respuesta a preguntas visuales de grano fino", "VQA fina" },
aliases_zh = { "细粒度VQA", "细粒度图像问答" },
}
data["fine-tuning"] = {
short = "The process of further training a pre-trained model on a downstream task or domain-specific dataset, typically with a smaller learning rate, to adapt its parameters to the new objective.",
article = nil,
aliases = { "finetuning", "fine tuning", "model fine-tuning", "supervised fine-tuning", "SFT" },
es = "Proceso de continuar el entrenamiento de un modelo preentrenado sobre una tarea posterior o un conjunto de datos específico de dominio, normalmente con una tasa de aprendizaje más baja, para adaptar sus parámetros al nuevo objetivo.",
zh = "在预训练模型上使用下游任务或特定领域的数据集继续训练的过程,通常采用较小的学习率,以将参数适应到新目标。",
term_es = "fine-tuning",
term_zh = "微调",
aliases_es = { "ajuste fino", "afinamiento", "fine tuning", "ajuste supervisado", "SFT" },
aliases_zh = { "fine-tuning", "精调", "有监督微调", "SFT" },
}
data["fineweb"] = {
short = "A 15-trillion-token English pretraining corpus released by Hugging Face, derived from CommonCrawl with deduplication, quality filtering, and ablation-driven processing decisions.",
article = nil,
aliases = { "FineWeb", "Fine Web", "FineWeb corpus", "FineWeb dataset" },
es = "Corpus de preentrenamiento en inglés de 15 billones de tokens publicado por Hugging Face, derivado de CommonCrawl con deduplicación, filtrado de calidad y decisiones de procesamiento guiadas por ablaciones.",
zh = "Hugging Face 发布的 15 万亿 tokens 英文预训练语料库,基于 CommonCrawl 经过去重、质量过滤以及由消融实验指导的处理流程构建。",
term_es = "FineWeb",
term_zh = "FineWeb",
aliases_es = { "corpus FineWeb" },
aliases_zh = { "FineWeb 数据集", "FineWeb 语料库" },
}
data["fineweb-edu"] = {
short = "A subset of FineWeb filtered to educational content using an LLM-based classifier, intended to improve reasoning and knowledge benchmarks when used as pretraining data.",
article = nil,
aliases = { "FineWeb-Edu", "FineWeb Edu", "FineWebEdu" },
es = "Subconjunto de FineWeb filtrado a contenido educativo mediante un clasificador basado en LLM, pensado para mejorar los benchmarks de razonamiento y conocimiento cuando se usa como datos de preentrenamiento.",
zh = "FineWeb 的子集,使用基于大语言模型的分类器筛选出教育类内容,作为预训练数据可改善推理与知识类基准表现。",
term_es = "FineWeb-Edu",
term_zh = "FineWeb-Edu",
aliases_es = { "FineWeb Edu" },
aliases_zh = { "FineWeb Edu" },
}
data["finite scalar quantization for audio"] = {
short = "Use of finite scalar quantization (FSQ), which independently quantizes each latent dimension to a small fixed grid, as a tokenizer for audio in neural codecs and speech language models, replacing residual vector quantization.",
article = nil,
aliases = { "FSQ for audio", "FSQ audio tokens", "finite scalar quantisation for audio", "audio FSQ" },
es = "Uso de la cuantización escalar finita (FSQ), que cuantiza cada dimensión latente de forma independiente a una rejilla fija pequeña, como tokenizador de audio en códecs neuronales y modelos de lenguaje de voz, en sustitución de la cuantización vectorial residual.",
zh = "将有限标量量化(FSQ)——对每个潜在维度独立量化到一个小型固定网格——用作神经音频编解码器和语音语言模型的音频分词器,以替代残差向量量化。",
term_es = "FSQ para audio",
term_zh = "音频有限标量量化",
aliases_es = { "cuantización escalar finita para audio", "FSQ audio" },
aliases_zh = { "FSQ音频", "音频FSQ", "用于音频的有限标量量化" },
}
data["firefly model"] = {
short = "Adobe's family of commercial generative AI models for image, vector, and design generation, trained on Adobe Stock and licensed content and integrated across Photoshop, Illustrator, and Express.",
article = nil,
aliases = { "Adobe Firefly", "Firefly", "Adobe Firefly model" },
es = "Familia de modelos comerciales de IA generativa de Adobe para la generación de imágenes, gráficos vectoriales y diseño, entrenados con contenido de Adobe Stock y material con licencia e integrados en Photoshop, Illustrator y Express.",
zh = "Adobe推出的商用生成式AI模型家族,面向图像、矢量与设计生成,基于Adobe Stock及授权内容训练,并集成于Photoshop、Illustrator和Express等产品中。",
term_es = "Adobe Firefly",
term_zh = "Adobe Firefly",
aliases_es = { "Firefly", "modelo Firefly" },
aliases_zh = { "Firefly", "Firefly模型" },
}
data["first-order logic"] = {
short = "A formal logic that extends propositional logic with predicates, functions, and quantifiers over individuals (∀, ∃), used as a foundation for mathematical reasoning, knowledge representation, and many neuro-symbolic systems.",
article = nil,
aliases = { "FOL", "predicate logic", "first order logic", "first-order predicate logic", "predicate calculus" },
es = "Una lógica formal que extiende la lógica proposicional con predicados, funciones y cuantificadores sobre individuos (∀, ∃), usada como base del razonamiento matemático, la representación del conocimiento y muchos sistemas neuro-simbólicos.",
zh = "在命题逻辑基础上引入谓词、函数以及对个体的量词(∀、∃)的形式逻辑,是数学推理、知识表示以及众多神经符号系统的基础。",
term_es = "lógica de primer orden",
term_zh = "一阶逻辑",
aliases_es = { "FOL", "lógica de predicados", "cálculo de predicados", "lógica de primer orden con predicados" },
aliases_zh = { "FOL", "谓词逻辑", "一阶谓词逻辑", "谓词演算" },
}
data["first-order maml"] = {
short = "A simplification of Model-Agnostic Meta-Learning that drops second-order gradient terms in the meta-update, treating the inner-loop adapted parameters as constants and using only first-order derivatives, trading exact gradients for substantial speedups.",
article = nil,
aliases = { "FOMAML", "first order MAML", "first-order Model-Agnostic Meta-Learning", "first-order MAML" },
es = "Simplificación de MAML que descarta los términos de gradiente de segundo orden en la actualización meta, tratando los parámetros adaptados del bucle interno como constantes y utilizando solo derivadas de primer orden, sacrificando exactitud por una ganancia sustancial de velocidad.",
zh = "MAML 的简化版本,在元更新中舍弃二阶梯度项,将内循环自适应参数视为常量,仅使用一阶导数,以精度换取显著的速度提升。",
term_es = "MAML de primer orden",
term_zh = "一阶 MAML",
aliases_es = { "FOMAML", "MAML de primer orden", "first-order MAML" },
aliases_zh = { "FOMAML", "一阶 MAML", "First-order MAML" },
}
data["first-order method"] = {
short = "An optimization method that uses only function values and first derivatives (gradients), not second derivatives. Examples include gradient descent, SGD, Adam, and RMSProp.",
article = nil,
aliases = { "first order method", "first-order optimization", "gradient-based method" },
es = "Método de optimización que utiliza solo valores de la función y sus primeras derivadas (gradientes), sin derivadas segundas. Incluye el descenso de gradiente, SGD, Adam y RMSProp.",
zh = "仅使用函数值和一阶导数(梯度)而不使用二阶导数的优化方法,包括梯度下降、SGD、Adam 和 RMSProp 等。",
term_es = "método de primer orden",
term_zh = "一阶方法",
aliases_es = { "optimización de primer orden", "método basado en gradiente" },
aliases_zh = { "一阶优化方法", "基于梯度的方法" },
}
data["first-order probabilistic inference"] = {
short = "Inference in probabilistic models expressed in first-order logic, exploiting symmetries among indistinguishable objects to reason at the level of predicates and variables rather than ground propositions.",
article = nil,
aliases = { "first order probabilistic inference", "lifted first-order inference", "first-order lifted inference" },
es = "Inferencia en modelos probabilísticos expresados en lógica de primer orden que aprovecha las simetrías entre objetos indistinguibles para razonar a nivel de predicados y variables en lugar de proposiciones aterrizadas.",
zh = "在以一阶逻辑表示的概率模型上进行的推断,通过利用不可区分对象之间的对称性,在谓词和变量层面而非具体命题层面进行推理。",
term_es = "inferencia probabilística de primer orden",
term_zh = "一阶概率推断",
aliases_es = { "inferencia probabilística de primer orden", "inferencia lifted de primer orden" },
aliases_zh = { "一阶概率推断", "一阶提升推断" },
}
data["fisher information"] = {
short = "The expected curvature of the log-likelihood with respect to model parameters: I(θ) = E[(∂ log p(x;θ)/∂θ)(∂ log p(x;θ)/∂θ)^T]. It bounds the variance of unbiased estimators (Cramér-Rao) and defines the natural-gradient metric.",
article = nil,
aliases = { "Fisher information", "Fisher information matrix", "FIM", "expected Fisher information" },
es = "Curvatura esperada de la log-verosimilitud respecto de los parámetros del modelo: I(θ) = E[(∂ log p(x;θ)/∂θ)(∂ log p(x;θ)/∂θ)^T]. Acota la varianza de los estimadores insesgados (Cramér-Rao) y define la métrica del gradiente natural.",
zh = "对数似然对模型参数的期望曲率:I(θ) = E[(∂ log p(x;θ)/∂θ)(∂ log p(x;θ)/∂θ)^T]。它给出无偏估计的方差下界(Cramér-Rao),并定义了自然梯度的度量。",
term_es = "información de Fisher",
term_zh = "Fisher 信息",
aliases_es = { "matriz de información de Fisher", "información de Fisher esperada" },
aliases_zh = { "Fisher 信息矩阵", "费舍尔信息", "FIM" },
}
data["fista"] = {
short = "Fast Iterative Shrinkage-Thresholding Algorithm, an accelerated variant of ISTA that adds Nesterov-style momentum to attain an O(1/k^2) convergence rate on convex problems.",
article = nil,
aliases = { "FISTA", "Fast Iterative Shrinkage-Thresholding Algorithm", "Fast ISTA" },
es = "Variante acelerada de ISTA que incorpora momento al estilo de Nesterov, logrando una tasa de convergencia O(1/k^2) en problemas convexos.",
zh = "ISTA的加速版本(FISTA),通过引入Nesterov式动量在凸问题上达到O(1/k^2)的收敛率。",
term_es = "FISTA",
term_zh = "FISTA",
aliases_es = { "ISTA acelerado", "Fast ISTA" },
aliases_zh = { "快速ISTA", "Fast ISTA" },
}
data["fitc"] = {
short = "A sparse Gaussian-process approximation, due to Snelson and Ghahramani (2006), that uses a fully-independent training-conditional likelihood given inducing points; one of the standard sparse GP frameworks alongside DTC and VFE.",
article = nil,
aliases = { "FITC", "Fully Independent Training Conditional", "fully-independent training conditional", "FITC approximation", "Snelson-Ghahramani sparse GP" },
es = "Aproximación dispersa de procesos gaussianos, debida a Snelson y Ghahramani (2006), que asume una verosimilitud condicional de entrenamiento completamente independiente dados los puntos inducidos; uno de los marcos estándar de GP dispersos junto con DTC y VFE.",
zh = "Snelson与Ghahramani(2006)提出的稀疏高斯过程近似,在给定诱导点的条件下采用完全独立的训练条件似然;与DTC和VFE并列为标准稀疏GP框架之一。",
term_es = "FITC",
term_zh = "FITC",
aliases_es = { "FITC", "condicional de entrenamiento totalmente independiente", "aproximación FITC", "GP disperso de Snelson-Ghahramani" },
aliases_zh = { "FITC", "完全独立训练条件", "FITC近似", "Snelson-Ghahramani稀疏GP" },
}
data["fitted q evaluation"] = {
short = "An off-policy evaluation method that estimates the value of a target policy by iteratively fitting a regression model to the Bellman backup of the target policy on logged data.",
article = nil,
aliases = { "FQE", "fitted Q evaluation", "fitted-Q evaluation" },
es = "Método de evaluación fuera de política que estima el valor de una política objetivo ajustando iterativamente un modelo de regresión al respaldo de Bellman de dicha política sobre datos registrados.",
zh = "一种离策略评估方法,通过在记录数据上对目标策略的贝尔曼回溯反复拟合回归模型,来估计目标策略的价值。",
term_es = "evaluación Q ajustada",
term_zh = "拟合 Q 评估",
aliases_es = { "FQE" },
aliases_zh = { "FQE", "fitted Q evaluation" },
}
data["fixed-backbone design"] = {
short = "A protein-design setting in which the backbone coordinates are held constant and only the amino-acid sequence and side-chain rotamers are optimized, used by Rosetta-style methods and sequence-only models such as ProteinMPNN.",
article = nil,
aliases = { "fixed backbone design", "fixed-bb design", "sequence design on a fixed backbone" },
es = "Configuración de diseño de proteínas en la que las coordenadas del esqueleto se mantienen fijas y solo se optimizan la secuencia de aminoácidos y los rotámeros de cadenas laterales, utilizada por métodos al estilo Rosetta y modelos de solo secuencia como ProteinMPNN.",
zh = "一种蛋白质设计设定,其中骨架坐标保持固定,仅优化氨基酸序列和侧链旋转异构体,被Rosetta风格的方法以及ProteinMPNN等仅序列模型采用。",
term_es = "diseño con esqueleto fijo",
term_zh = "固定骨架设计",
aliases_es = { "diseño de esqueleto fijo", "diseño de secuencia sobre esqueleto fijo", "fixed-backbone design" },
aliases_zh = { "固定主链设计", "固定骨架蛋白质设计", "fixed-backbone design" },
}
data["fixmatch"] = {
short = "A semi-supervised learning algorithm that pseudo-labels weakly augmented unlabeled images when the model is confident, then trains the model to match those pseudo-labels on strongly augmented versions of the same images.",
article = nil,
aliases = { "FixMatch" },
es = "Algoritmo de aprendizaje semisupervisado que asigna pseudo-etiquetas a imágenes no etiquetadas con aumento débil cuando el modelo es confiado, y luego entrena al modelo para que coincida con esas pseudo-etiquetas sobre versiones fuertemente aumentadas de las mismas imágenes.",
zh = "一种半监督学习算法,当模型对弱增强后的未标注图像具有高置信度时为其生成伪标签,然后训练模型在同一图像的强增强版本上匹配这些伪标签。",
term_es = "FixMatch",
term_zh = "FixMatch",
aliases_es = { "algoritmo FixMatch" },
aliases_zh = { "FixMatch 算法" },
}
data["fixup initialization"] = {
short = "A residual-network initialization scheme that rescales certain weights and adds learnable biases so deep ResNets train stably without batch normalization.",
article = nil,
aliases = { "Fixup", "Fixup init", "fixed-update initialization" },
es = "Esquema de inicialización para redes residuales que reescala ciertos pesos y añade sesgos aprendibles, permitiendo entrenar ResNets profundas de forma estable sin normalización por lotes.",
zh = "一种针对残差网络的初始化方法,对部分权重进行重新缩放并加入可学习偏置,使深层 ResNet 无需批归一化即可稳定训练。",
term_es = "inicialización Fixup",
term_zh = "Fixup 初始化",
aliases_es = { "Fixup" },
aliases_zh = { "Fixup", "固定更新初始化" },
}
data["flamingo"] = {
short = "A few-shot visual language model from DeepMind that interleaves frozen pretrained vision and language backbones with trainable cross-attention layers and a Perceiver Resampler, enabling in-context learning over images, video, and text.",
article = nil,
aliases = { "Flamingo", "DeepMind Flamingo", "Flamingo VLM" },
es = "Modelo visión-lenguaje de pocos disparos de DeepMind que intercala columnas vertebrales preentrenadas y congeladas de visión y lenguaje con capas entrenables de atención cruzada y un Perceiver Resampler, permitiendo aprendizaje en contexto sobre imágenes, vídeo y texto.",
zh = "DeepMind提出的少样本视觉语言模型,将冻结的预训练视觉与语言主干通过可训练的交叉注意力层与Perceiver Resampler交错连接,实现对图像、视频和文本的上下文学习。",
term_es = "Flamingo",
term_zh = "Flamingo",
aliases_es = { "Flamingo de DeepMind", "modelo Flamingo" },
aliases_zh = { "Flamingo模型", "DeepMind Flamingo" },
}
data["flaml"] = {
short = "A fast and lightweight AutoML library from Microsoft Research that uses cost-frugal hyperparameter optimization to find good models with limited compute, adaptively allocating budget across estimators based on observed performance.",
article = nil,
aliases = { "FLAML", "Fast Lightweight AutoML" },
es = "Biblioteca de AutoML rápida y ligera de Microsoft Research que utiliza optimización de hiperparámetros eficiente en coste para encontrar buenos modelos con un presupuesto de cómputo limitado, asignando recursos adaptativamente entre estimadores según el rendimiento observado.",
zh = "微软研究院推出的快速轻量 AutoML 库,采用低成本超参数优化策略,通过依据已观测到的性能在不同估计器之间自适应分配预算,在有限算力下寻找优秀模型。",
term_es = "FLAML",
term_zh = "FLAML",
aliases_es = { "FLAML", "AutoML ligero de Microsoft" },
aliases_zh = { "FLAML", "微软快速轻量 AutoML" },
}
data["flan-palm"] = {
short = "A version of Google's PaLM model fine-tuned on the Flan instruction collection, demonstrating that scaling instruction tuning across many tasks substantially improves zero- and few-shot performance on held-out benchmarks.",
article = nil,
aliases = { "Flan-PaLM", "FLAN-PaLM", "Flan PaLM" },
es = "Versión del modelo PaLM de Google ajustada con la colección de instrucciones Flan, que demostró que escalar el ajuste por instrucciones en muchas tareas mejora notablemente el rendimiento zero-shot y few-shot en benchmarks no vistos.",
zh = "Google PaLM 模型在 Flan 指令集合上微调得到的版本,证明在大量任务上扩展指令微调可显著提升模型在未见基准上的零样本和少样本表现。",
term_es = "Flan-PaLM",
term_zh = "Flan-PaLM",
aliases_es = {},
aliases_zh = {},
}
data["flan-t5"] = {
short = "An instruction-tuned version of T5 trained on the Flan collection, available in sizes from small to xxl and widely used as a strong open baseline for zero- and few-shot text-to-text tasks.",
article = nil,
aliases = { "Flan-T5", "FLAN-T5", "Flan T5" },
es = "Versión de T5 ajustada con instrucciones entrenada en la colección Flan, disponible en tamaños de small a xxl y ampliamente utilizada como sólida línea base abierta para tareas texto-a-texto en zero-shot y few-shot.",
zh = "在 Flan 指令集合上微调得到的 T5 模型,提供从 small 到 xxl 的多个规模,被广泛用作零样本和少样本文本到文本任务的强开源基线。",
term_es = "Flan-T5",
term_zh = "Flan-T5",
aliases_es = {},
aliases_zh = {},
}
data["flashattention"] = {
short = "An IO-aware exact attention algorithm that tiles the attention computation in SRAM and avoids materializing the full attention matrix in HBM, yielding large speedups and memory savings on GPUs.",
article = nil,
aliases = { "FlashAttention", "Flash Attention", "FlashAttention-2", "FlashAttention-3", "flash-attention" },
es = "Algoritmo de atención exacta consciente de E/S que mosaiquea el cálculo de la atención en SRAM y evita materializar la matriz de atención completa en HBM, logrando grandes aceleraciones y ahorros de memoria en GPU.",
zh = "一种 IO 感知的精确注意力算法,在 SRAM 中分块计算注意力,避免在 HBM 中物化完整的注意力矩阵,在 GPU 上带来显著的加速和显存节省。",
term_es = "FlashAttention",
term_zh = "FlashAttention",
aliases_es = { "FlashAttention", "Flash Attention", "FlashAttention-2", "FlashAttention-3" },
aliases_zh = { "FlashAttention", "Flash Attention", "FlashAttention-2", "FlashAttention-3", "闪存注意力" },
}
data["flashfill"] = {
short = "A programming-by-example feature in Microsoft Excel, based on Sumit Gulwani's work, that synthesizes string-manipulation programs in a domain-specific language from one or two user-provided input/output examples.",
article = nil,
aliases = { "FlashFill", "Flash Fill", "Excel FlashFill", "Excel Flash Fill", "Gulwani FlashFill" },
es = "Una funcionalidad de programación por ejemplos en Microsoft Excel, basada en el trabajo de Sumit Gulwani, que sintetiza programas de manipulación de cadenas en un lenguaje de dominio específico a partir de uno o dos ejemplos de entrada/salida proporcionados por el usuario.",
zh = "Microsoft Excel 中基于 Sumit Gulwani 工作的按示例编程功能,可根据用户提供的一两个输入/输出示例,在领域特定语言中合成字符串处理程序。",
term_es = "FlashFill",
term_zh = "FlashFill",
aliases_es = { "FlashFill", "Flash Fill", "Excel FlashFill", "Relleno rápido (Excel)" },
aliases_zh = { "FlashFill", "Flash Fill", "Excel FlashFill", "Excel 快速填充" },
}
data["flat minimum"] = {
short = "A minimum of the loss surrounded by low curvature, so small perturbations of the parameters change the loss only slightly. Often associated with better generalization.",
article = nil,
aliases = { "flat minima" },
es = "Mínimo de la pérdida rodeado de baja curvatura, donde pequeñas perturbaciones de los parámetros cambian la pérdida solo ligeramente. Suele asociarse a mejor generalización.",
zh = "损失曲面上曲率较小的极小值,参数的微小扰动仅引起损失的轻微变化,通常与较好的泛化能力相关。",
term_es = "mínimo plano",
term_zh = "平坦极小值",
aliases_es = { "mínimos planos" },
aliases_zh = { "宽极小值" },
}
data["flava"] = {
short = "A foundational multimodal model from Meta that jointly trains a vision encoder, a text encoder, and a multimodal encoder with a combination of contrastive, masked image modeling, masked language modeling, and image-text matching objectives.",
article = nil,
aliases = { "FLAVA", "Foundational Language And Vision Alignment" },
es = "Modelo multimodal fundacional de Meta que entrena conjuntamente un codificador de visión, un codificador de texto y un codificador multimodal con una combinación de objetivos contrastivos, modelado de imagen enmascarada, modelado de lenguaje enmascarado y emparejamiento imagen-texto.",
zh = "Meta提出的基础多模态模型,联合训练视觉编码器、文本编码器与多模态编码器,目标融合对比学习、掩码图像建模、掩码语言建模和图文匹配。",
term_es = "FLAVA",
term_zh = "FLAVA",
aliases_es = { "modelo FLAVA" },
aliases_zh = { "FLAVA模型" },
}
data["fleiss kappa"] = {
short = "A generalization of Cohen's kappa for measuring agreement among three or more raters on categorical items, comparing observed agreement to that expected if raters labeled at random with the marginal class frequencies.",
article = nil,
aliases = { "Fleiss' kappa", "Fleiss kappa", "Fleiss' κ", "Fleiss multi-rater kappa" },
es = "Generalización de la kappa de Cohen para medir el acuerdo entre tres o más evaluadores en ítems categóricos, comparando el acuerdo observado con el esperado si etiquetaran al azar con las frecuencias marginales de clase.",
zh = "Cohen κ 的推广,用于衡量三位及以上评分者在分类项目上的一致性,将观察一致性与按边际类别频率随机标注时的期望一致性进行比较。",
term_es = "kappa de Fleiss",
term_zh = "Fleiss κ 系数",
aliases_es = { "kappa de Fleiss", "κ de Fleiss" },
aliases_zh = { "Fleiss kappa", "Fleiss 卡帕系数" },
}
data["fleurs"] = {
short = "Few-shot Learning Evaluation of Universal Representations of Speech: a multilingual speech benchmark from Google covering 102 languages with parallel read-speech utterances, used for ASR, speech-to-text translation, and language ID.",
article = nil,
aliases = { "FLEURS", "Fleurs", "Few-shot Learning Evaluation of Universal Representations of Speech" },
es = "Few-shot Learning Evaluation of Universal Representations of Speech: benchmark multilingüe de voz de Google que cubre 102 idiomas con enunciados leídos paralelos, utilizado para ASR, traducción de voz a texto e identificación de idioma.",
zh = "FLEURS:Google 提出的多语言语音基准,覆盖 102 种语言的平行朗读语料,用于语音识别、语音翻译和语言识别等任务。",
term_es = "FLEURS",
term_zh = "FLEURS",
aliases_es = { "Fleurs", "benchmark FLEURS" },
aliases_zh = { "FLEURS基准", "FLEURS数据集" },
}
data["flexible docking"] = {
short = "A molecular docking protocol that allows partial conformational change of the receptor, typically by sampling side-chain rotamers or selected backbone segments, in addition to the ligand's torsions, to better account for induced fit.",
article = nil,
aliases = { "flexible-receptor docking", "induced-fit docking", "receptor-flexible docking" },
es = "Protocolo de acoplamiento molecular que permite un cambio conformacional parcial del receptor, típicamente muestreando rotámeros de cadenas laterales o segmentos de esqueleto seleccionados, además de las torsiones del ligando, para reflejar mejor el ajuste inducido.",
zh = "一种分子对接方案,除了配体的扭转角之外,还允许受体发生部分构象变化,通常通过采样侧链旋转异构体或选定的骨架片段,以更好地反映诱导契合效应。",
term_es = "acoplamiento flexible",
term_zh = "柔性对接",
aliases_es = { "docking flexible", "acoplamiento de receptor flexible", "acoplamiento por ajuste inducido" },
aliases_zh = { "柔性受体对接", "诱导契合对接", "受体柔性对接" },
}
data["flickr30k"] = {
short = "An image captioning dataset with 31,783 images from Flickr, each annotated with five English captions, widely used as a benchmark for image-text retrieval and caption generation.",
article = nil,
aliases = { "Flickr30K", "Flickr 30K", "Flickr30k dataset" },
es = "Conjunto de datos de subtitulado de imágenes con 31 783 imágenes de Flickr, cada una anotada con cinco leyendas en inglés, ampliamente utilizado como prueba de referencia para recuperación imagen-texto y generación de leyendas.",
zh = "图像描述数据集,包含来自Flickr的31,783张图像,每张配有五条英文描述,是图文检索与图像描述生成的常用基准。",
term_es = "Flickr30k",
term_zh = "Flickr30k",
aliases_es = { "Flickr 30K", "conjunto Flickr30k" },
aliases_zh = { "Flickr30K", "Flickr30k数据集" },
}
data["flickr30k entities"] = {
short = "An extension of Flickr30k that adds entity-phrase grounding annotations, linking noun phrases in the captions to bounding boxes in the corresponding images for evaluating phrase localization.",
article = nil,
aliases = { "Flickr30K Entities", "Flickr30kEntities", "Flickr30k-Entities" },
es = "Extensión de Flickr30k que añade anotaciones de anclaje entre entidades y frases, vinculando frases nominales en las leyendas con cajas delimitadoras en las imágenes correspondientes para evaluar la localización de frases.",
zh = "Flickr30k的扩展版本,增加了实体-短语定位标注,将描述中的名词短语与对应图像中的边界框相链接,用于评估短语定位任务。",
term_es = "Flickr30k Entities",
term_zh = "Flickr30k Entities",
aliases_es = { "Flickr30K Entities" },
aliases_zh = { "Flickr30K Entities", "Flickr30k实体数据集" },
}
data["flickr8k"] = {
short = "An early image captioning dataset of 8,000 Flickr images, each annotated with five English captions, historically used as a small benchmark for caption generation and image-text retrieval.",
article = nil,
aliases = { "Flickr8K", "Flickr 8K", "Flickr8k dataset" },
es = "Primer conjunto de datos de subtitulado de imágenes con 8 000 imágenes de Flickr, cada una anotada con cinco leyendas en inglés, utilizado históricamente como prueba de referencia pequeña para generación de leyendas y recuperación imagen-texto.",
zh = "早期的图像描述数据集,包含来自Flickr的8,000张图像,每张配有五条英文描述,历史上常作为图像描述生成与图文检索的小型基准。",
term_es = "Flickr8k",
term_zh = "Flickr8k",
aliases_es = { "Flickr 8K", "conjunto Flickr8k" },
aliases_zh = { "Flickr8K", "Flickr8k数据集" },
}
data["flipout estimator"] = {
short = "A pseudo-independent perturbation scheme due to Wen et al. (2018) that decorrelates weight-noise samples within a minibatch in mean-field variational Bayesian neural networks, lowering gradient variance without increasing memory.",
article = nil,
aliases = { "Flipout", "Flipout gradient estimator", "Flipout perturbation", "Wen Flipout" },
es = "Esquema de perturbación pseudo-independiente, debido a Wen et al. (2018), que decorrelaciona las muestras de ruido de pesos dentro de un minibatch en redes neuronales bayesianas variacionales de campo medio, reduciendo la varianza del gradiente sin aumentar el consumo de memoria.",
zh = "Wen等人(2018)提出的伪独立扰动方案,在均值场变分贝叶斯神经网络中对小批量内的权重噪声样本进行去相关,在不增加内存的前提下降低梯度方差。",
term_es = "estimador Flipout",
term_zh = "Flipout估计器",
aliases_es = { "Flipout", "estimador de gradiente Flipout", "perturbación Flipout", "Flipout de Wen" },
aliases_zh = { "Flipout", "Flipout梯度估计器", "Flipout扰动", "Wen Flipout" },
}
data["flops-aware nas"] = {
short = "Neural architecture search that incorporates floating-point operation counts as an explicit objective or constraint, biasing the search toward architectures that meet a target compute budget.",
article = nil,
aliases = { "FLOPs-aware NAS", "FLOPs aware NAS", "FLOPs-constrained NAS", "compute-aware NAS" },
es = "Búsqueda de arquitecturas neuronales que incorpora el número de operaciones de punto flotante como objetivo o restricción explícitos, sesgando la búsqueda hacia arquitecturas que cumplen un presupuesto de cómputo objetivo.",
zh = "将浮点运算量作为显式目标或约束的神经架构搜索,引导搜索过程偏向满足给定计算预算的架构。",
term_es = "NAS consciente de FLOPs",
term_zh = "FLOPs 感知 NAS",
aliases_es = { "FLOPs-aware NAS", "NAS con restricción de FLOPs", "NAS consciente del cómputo" },
aliases_zh = { "FLOPs-aware NAS", "FLOPs 约束 NAS", "计算感知 NAS" },
}
data["florence"] = {
short = "A vision foundation model from Microsoft trained on web-scale image-text pairs that produces general visual representations transferable to classification, retrieval, detection, captioning, and VQA via lightweight task-specific adapters.",
article = nil,
aliases = { "Florence", "Microsoft Florence", "Florence model" },
es = "Modelo fundacional de visión de Microsoft entrenado con pares imagen-texto a escala web que produce representaciones visuales generales transferibles a clasificación, recuperación, detección, subtitulado y VQA mediante adaptadores ligeros específicos de la tarea.",
zh = "Microsoft提出的视觉基础模型,在网络规模的图文对上训练,可通过轻量级任务适配器迁移到分类、检索、检测、描述生成和视觉问答等任务。",
term_es = "Florence",
term_zh = "Florence",
aliases_es = { "Florence de Microsoft", "modelo Florence" },
aliases_zh = { "Florence模型", "Microsoft Florence" },
}
data["florence-2"] = {
short = "A unified vision foundation model from Microsoft that handles a wide range of image understanding tasks — captioning, detection, segmentation, OCR, grounding — through a single sequence-to-sequence interface with task-specific prompt tokens.",
article = nil,
aliases = { "Florence-2", "Florence 2", "Florence2" },
es = "Modelo fundacional unificado de visión de Microsoft que aborda una amplia gama de tareas de comprensión de imagen — subtitulado, detección, segmentación, OCR, anclaje — mediante una única interfaz secuencia a secuencia con tokens de instrucción específicos de cada tarea.",
zh = "Microsoft推出的统一视觉基础模型,通过带有任务专用提示token的单一序列到序列接口,处理包括描述生成、检测、分割、OCR和定位在内的多种图像理解任务。",
term_es = "Florence-2",
term_zh = "Florence-2",
aliases_es = { "Florence 2", "modelo Florence-2" },
aliases_zh = { "Florence 2", "Florence2" },
}
data["flow cytometry"] = {
short = "A laser-based technique that measures the optical and fluorescent properties of single cells flowing in a hydrodynamically focused stream, used to quantify cell-surface and intracellular markers, viability, cell cycle, and rare populations at thousands of events per second.",
article = nil,
aliases = { "FCM", "FACS", "flow-cytometry", "fluorescence-activated cell sorting", "flow cytometric analysis" },
es = "Técnica basada en láser que mide las propiedades ópticas y de fluorescencia de células individuales en un flujo hidrodinámicamente enfocado, utilizada para cuantificar marcadores de superficie e intracelulares, viabilidad, ciclo celular y poblaciones raras a miles de eventos por segundo.",
zh = "基于激光的技术,对在水力聚焦流中通过的单个细胞测量光学与荧光特性,可用于以每秒数千事件的通量定量细胞表面和胞内标志物、活性、细胞周期及稀有细胞群体。",
term_es = "citometría de flujo",
term_zh = "流式细胞术",
aliases_es = { "FCM", "FACS", "clasificación celular activada por fluorescencia" },
aliases_zh = { "流式细胞分析", "FACS", "荧光激活细胞分选", "流式分析" },
}
data["flow matching for molecules"] = {
short = "A simulation-free generative modeling approach that trains a neural vector field to transport a simple prior to the data distribution along learned probability paths, applied to molecular conformations, ligands, and protein structures as a faster alternative to diffusion.",
article = nil,
aliases = { "molecular flow matching", "flow matching molecules", "FM for molecules" },
es = "Enfoque generativo sin simulación que entrena un campo vectorial neuronal para transportar un prior sencillo hasta la distribución de datos a lo largo de trayectorias de probabilidad aprendidas, aplicado a conformaciones moleculares, ligandos y estructuras proteicas como alternativa más rápida a la difusión.",
zh = "一种无需模拟的生成建模方法,训练神经向量场沿学习到的概率路径将简单先验输运到数据分布,应用于分子构象、配体和蛋白质结构生成,是扩散模型更快速的替代方案。",
term_es = "flow matching para moléculas",
term_zh = "面向分子的流匹配",
aliases_es = { "emparejamiento de flujos para moléculas", "flow matching molecular" },
aliases_zh = { "分子流匹配", "用于分子的流匹配" },
}
data["flow-based model"] = {
short = "A class of generative model that defines an invertible transformation f between data and a tractable base distribution, allowing exact log-likelihood evaluation via the change-of-variables formula log p(x) = log p(f(x)) + log|det ∂f/∂x| and exact sampling.",
article = nil,
aliases = { "normalizing flow", "normalising flow", "flow model", "invertible generative model" },
es = "Familia de modelos generativos que define una transformación invertible f entre los datos y una distribución base tratable, permitiendo evaluar la log-verosimilitud exacta mediante la fórmula del cambio de variables log p(x) = log p(f(x)) + log|det ∂f/∂x| y muestrear de forma exacta.",
zh = "一类生成模型:在数据与可处理的基分布之间定义可逆变换 f,借助换元公式 log p(x) = log p(f(x)) + log|det ∂f/∂x| 实现精确对数似然计算和精确采样。",
term_es = "modelo basado en flujos",
term_zh = "基于流的模型",
aliases_es = { "flujo normalizador", "modelo de flujo", "modelo generativo invertible" },
aliases_zh = { "归一化流", "标准化流", "可逆生成模型", "流模型" },
}
data["flow-based posterior"] = {
short = "A variational posterior parameterized by a normalizing flow, which transforms a simple base distribution through a sequence of invertible mappings to obtain a flexible, tractable density over weights or latents.",
article = nil,
aliases = { "normalizing-flow posterior", "flow posterior", "invertible-flow variational posterior", "NF posterior" },
es = "Posterior variacional parametrizado por un flujo normalizante, que transforma una distribución base simple mediante una sucesión de aplicaciones invertibles para obtener una densidad flexible y tratable sobre pesos o variables latentes.",
zh = "由归一化流参数化的变分后验,通过一系列可逆映射将简单基分布变换为对权重或潜变量的灵活且可处理的密度。",
term_es = "posterior basada en flujos",
term_zh = "基于流的后验",
aliases_es = { "posterior con flujo normalizante", "posterior por flujos", "posterior variacional con flujos invertibles", "posterior NF" },
aliases_zh = { "归一化流后验", "流后验", "可逆流变分后验", "NF后验" },
}
data["flow-tts"] = {
short = "A non-autoregressive TTS model that uses a normalizing flow to generate mel-spectrograms conditioned on text, enabling parallel sampling and exact likelihood training.",
article = nil,
aliases = { "Flow-TTS", "FlowTTS", "Flow TTS" },
es = "Modelo TTS no autorregresivo que utiliza un flujo normalizador para generar mel-espectrogramas condicionados al texto, permitiendo muestreo en paralelo y entrenamiento por verosimilitud exacta.",
zh = "一种非自回归 TTS 模型,使用归一化流(normalizing flow)以文本为条件生成梅尔频谱,可并行采样并支持精确似然训练。",
term_es = "Flow-TTS",
term_zh = "Flow-TTS",
aliases_es = { "FlowTTS" },
aliases_zh = { "FlowTTS", "流式TTS(Flow-TTS)" },
}
data["fltrust"] = {
short = "A Byzantine-robust federated aggregation rule that maintains a small server-side trust dataset and weights each client update by the cosine similarity between its gradient and a server-computed bootstrap gradient.",
article = nil,
aliases = { "FLTrust", "FL-Trust", "FLTrust aggregation" },
es = "Regla de agregación federada robusta a clientes bizantinos que mantiene un pequeño conjunto de confianza en el servidor y pondera cada actualización mediante la similitud coseno entre el gradiente del cliente y un gradiente de referencia calculado por el servidor.",
zh = "一种拜占庭鲁棒的联邦聚合规则,在服务器端保留一个小型可信数据集,并按客户端梯度与服务器自举梯度之间的余弦相似度对其更新进行加权。",
term_es = "FLTrust",
term_zh = "FLTrust",
aliases_es = { "FLTrust", "agregación FLTrust" },
aliases_zh = { "FLTrust", "FL-Trust", "FLTrust 聚合" },
}
data["fluorescence microscopy"] = {
short = "A family of optical microscopy techniques that visualizes specimens labeled with fluorophores by exciting them with light of a specific wavelength and detecting the longer-wavelength emission. Variants include confocal, widefield, light-sheet, super-resolution, and multiphoton microscopy.",
article = nil,
aliases = { "fluorescence microscope", "epifluorescence microscopy", "confocal fluorescence microscopy" },
es = "Familia de técnicas de microscopía óptica que visualiza especímenes marcados con fluoróforos al excitarlos con luz de una longitud de onda específica y detectar la emisión de longitud de onda mayor. Sus variantes incluyen microscopía confocal, de campo amplio, de hoja de luz, de superresolución y multifotónica.",
zh = "一类光学显微技术,通过用特定波长的光激发标记有荧光团的样品并检测其更长波长的发射光来成像。其变体包括共聚焦、宽场、光片、超分辨和多光子显微术等。",
term_es = "microscopía de fluorescencia",
term_zh = "荧光显微术",
aliases_es = { "microscopía fluorescente", "microscopía de epifluorescencia", "microscopía confocal de fluorescencia" },
aliases_zh = { "荧光显微镜", "落射荧光显微术", "共聚焦荧光显微术" },
}
data["flux"] = {
short = "A family of open-weight rectified-flow text-to-image diffusion transformer models from Black Forest Labs, available in pro, dev, and schnell variants targeting different quality-latency trade-offs.",
article = nil,
aliases = { "FLUX", "FLUX.1", "Flux model", "Black Forest Labs FLUX" },
es = "Familia de modelos de difusión de texto a imagen de tipo transformer con flujo rectificado y pesos abiertos de Black Forest Labs, disponibles en variantes pro, dev y schnell que ofrecen distintos compromisos entre calidad y latencia.",
zh = "Black Forest Labs发布的开放权重文本到图像整流流扩散Transformer模型家族,提供pro、dev和schnell等变体,在质量与延迟之间提供不同折衷。",
term_es = "FLUX",
term_zh = "FLUX",
aliases_es = { "FLUX.1", "modelo FLUX" },
aliases_zh = { "FLUX.1", "FLUX模型" },
}
data["flux dev"] = {
short = "The open-weight, non-distilled developer variant of the FLUX.1 text-to-image model from Black Forest Labs, intended for research and non-commercial fine-tuning with quality close to the proprietary FLUX.1 [pro].",
article = nil,
aliases = { "FLUX.1 [dev]", "FLUX.1-dev", "FLUX dev", "flux.1 dev" },
es = "Variante de desarrollador no destilada y de pesos abiertos del modelo de texto a imagen FLUX.1 de Black Forest Labs, destinada a investigación y ajuste fino no comercial con una calidad cercana al FLUX.1 [pro] propietario.",
zh = "Black Forest Labs发布的FLUX.1文本到图像模型的非蒸馏、开放权重开发者版本,面向研究与非商用微调,质量接近闭源的FLUX.1 [pro]。",
term_es = "FLUX.1 [dev]",
term_zh = "FLUX.1 [dev]",
aliases_es = { "FLUX.1-dev", "FLUX dev" },
aliases_zh = { "FLUX.1-dev", "FLUX dev" },
}
data["flux pro"] = {
short = "The closed top-tier text-to-image model in Black Forest Labs' FLUX family, a 12B-parameter rectified-flow transformer offered through API and known for high prompt fidelity and image quality.",
article = nil,
aliases = { "FLUX.1 [pro]", "FLUX Pro", "FLUX.1 Pro", "Flux.1 pro", "flux.1-pro" },
es = "Modelo texto-a-imagen cerrado de gama alta de la familia FLUX de Black Forest Labs, un transformer de flujo rectificado de 12 mil millones de parámetros disponible por API, reconocido por su alta fidelidad al prompt y calidad de imagen.",
zh = "Black Forest Labs FLUX 家族中闭源旗舰文生图模型,是一款约 120 亿参数的 rectified-flow Transformer,通过 API 提供,以高提示忠实度和图像质量著称。",
term_es = "FLUX Pro",
term_zh = "FLUX Pro",
aliases_es = { "FLUX.1 [pro]", "FLUX.1 Pro" },
aliases_zh = { "FLUX.1 [pro]", "FLUX.1 Pro" },
}
data["flux schnell"] = {
short = "A distilled, few-step variant of the FLUX.1 text-to-image model from Black Forest Labs released under Apache 2.0 that trades some quality for very fast generation, typically requiring only one to four sampling steps.",
article = nil,
aliases = { "FLUX.1 [schnell]", "FLUX.1-schnell", "FLUX schnell", "flux.1 schnell" },
es = "Variante destilada y de pocos pasos del modelo de texto a imagen FLUX.1 de Black Forest Labs publicada bajo Apache 2.0 que sacrifica algo de calidad por una generación muy rápida, requiriendo típicamente solo entre uno y cuatro pasos de muestreo.",
zh = "Black Forest Labs在Apache 2.0许可下发布的FLUX.1文本到图像模型的蒸馏少步版本,以一定的质量换取极快的生成速度,通常只需1到4步采样。",
term_es = "FLUX.1 [schnell]",
term_zh = "FLUX.1 [schnell]",
aliases_es = { "FLUX.1-schnell", "FLUX schnell" },
aliases_zh = { "FLUX.1-schnell", "FLUX schnell" },
}
data["flye assembler"] = {
short = "A de novo long-read genome assembler that uses repeat graphs to handle the high error rates of Oxford Nanopore and PacBio reads, producing contiguous assemblies of bacterial, fungal, plant, and metagenomic samples without prior polishing.",
article = nil,
aliases = { "Flye", "Flye assembler", "metaFlye", "Flye long-read assembler" },
es = "Ensamblador de genomas de novo para lecturas largas que utiliza grafos de repeticiones para manejar las altas tasas de error de las lecturas de Oxford Nanopore y PacBio, produciendo ensamblajes contiguos de muestras bacterianas, fúngicas, vegetales y metagenómicas sin pulido previo.",
zh = "一种从头长读长基因组组装器,利用重复图处理 Oxford Nanopore 和 PacBio 读段的高错误率,无需预先打磨即可获得细菌、真菌、植物及宏基因组样本的连续组装结果。",
term_es = "ensamblador Flye",
term_zh = "Flye 组装器",
aliases_es = { "Flye", "metaFlye", "ensamblador de lecturas largas Flye" },
aliases_zh = { "Flye", "metaFlye", "Flye 长读长组装器" },
}
data["focal loss"] = {
short = "Modified cross-entropy that down-weights well-classified examples via a (1−p)^γ factor, designed to address extreme class imbalance in dense object detection.",
article = nil,
aliases = { "Focal Loss" },
es = "Variante de la entropía cruzada que reduce el peso de los ejemplos bien clasificados mediante un factor (1−p)^γ, diseñada para abordar el fuerte desequilibrio de clases en la detección densa de objetos.",
zh = "改进的交叉熵损失,通过 (1−p)^γ 因子降低易分类样本的权重,专为解决密集目标检测中的严重类别不平衡而设计。",
term_es = "pérdida focal",
term_zh = "Focal 损失",
aliases_es = { "focal loss" },
aliases_zh = { "focal loss", "焦点损失" },
}
data["focal loss calibration"] = {
short = "The use of focal loss — instead of standard cross-entropy — as a training objective that empirically yields better calibrated confidence estimates by down-weighting easy, well-classified examples.",
article = nil,
aliases = { "focal-loss calibration", "calibration with focal loss", "focal cross-entropy calibration" },
es = "Uso de la focal loss —en lugar de la entropía cruzada estándar— como objetivo de entrenamiento que empíricamente produce estimaciones de confianza mejor calibradas al ponderar a la baja los ejemplos fáciles y bien clasificados.",
zh = "使用焦点损失(而非标准交叉熵)作为训练目标,通过降低易分、已被正确分类样本的权重,实证上得到校准更好的置信度估计。",
term_es = "calibración con focal loss",
term_zh = "焦点损失校准",
aliases_es = { "calibración por focal loss", "calibración con pérdida focal", "calibración por entropía cruzada focal" },
aliases_zh = { "焦点损失校准", "用焦点损失进行校准", "焦点交叉熵校准" },
}
data["focal training"] = {
short = "A training scheme that uses focal loss to down-weight the contribution of easy, well-classified examples and concentrate learning on hard, misclassified ones; widely used to address foreground/background imbalance in dense object detection.",
article = nil,
aliases = { "focal-loss training", "training with focal loss", "focal loss training" },
es = "Esquema de entrenamiento que utiliza la pérdida focal para reducir el peso de los ejemplos fáciles y bien clasificados y concentrar el aprendizaje en los difíciles y mal clasificados; muy utilizado para abordar el desbalance entre primer plano y fondo en la detección de objetos densa.",
zh = "一种使用 focal loss 的训练方案,通过降低容易且分类良好的样本的损失权重,将学习重点集中在困难、被错分的样本上;常用于解决密集目标检测中前景与背景的不平衡问题。",
term_es = "entrenamiento focal",
term_zh = "focal 训练",
aliases_es = { "entrenamiento con pérdida focal", "entrenamiento focal-loss", "focal training" },
aliases_zh = { "focal loss 训练", "焦点训练", "焦点损失训练" },
}
data["fold recognition"] = {
short = "A class of protein structure prediction methods that match a query sequence to known structural folds in a template library when no close sequence homolog is available, also called threading. Scoring combines sequence-profile alignment with structure-derived features.",
article = nil,
aliases = { "threading", "protein threading", "protein fold recognition", "fold-recognition" },
es = "Clase de métodos de predicción de estructura proteica que empareja una secuencia consulta con plegamientos estructurales conocidos en una biblioteca de plantillas cuando no hay homólogos de secuencia cercanos, también llamada threading. La puntuación combina alineamiento de perfil de secuencia con rasgos derivados de estructura.",
zh = "一类蛋白质结构预测方法,在没有近源序列同源时,将查询序列与模板库中已知的结构折叠进行匹配,也称为穿线法。评分结合了序列谱比对与结构衍生特征。",
term_es = "reconocimiento de plegamiento",
term_zh = "折叠识别",
aliases_es = { "threading", "threading de proteínas", "reconocimiento de plegamientos proteicos" },
aliases_zh = { "蛋白质折叠识别", "穿线法", "蛋白质穿线", "threading" },
}
data["foldingdiff"] = {
short = "A diffusion-based generative model for protein backbones that operates on internal angle representations and denoises sequences of dihedral angles to sample plausible folds without explicit Cartesian coordinates.",
article = nil,
aliases = { "FoldingDiff", "Foldingdiff", "folding diff" },
es = "Modelo generativo basado en difusión para esqueletos proteicos que opera sobre representaciones de ángulos internos y elimina ruido de secuencias de ángulos diedros para muestrear plegamientos plausibles sin usar explícitamente coordenadas cartesianas.",
zh = "一种用于蛋白质骨架生成的基于扩散的模型,作用于内部角度表示,对二面角序列进行去噪以采样合理的折叠结构,而无需显式的笛卡尔坐标。",
term_es = "FoldingDiff",
term_zh = "FoldingDiff",
aliases_es = { "FoldingDiff" },
aliases_zh = { "FoldingDiff", "蛋白质折叠扩散模型" },
}
data["foldseek"] = {
short = "A fast structural alignment search tool that encodes 3D protein structures as sequences over a structural alphabet (3Di) and applies sequence-search algorithms to enable structure comparison at the scale of millions of entries, orders of magnitude faster than DALI or TM-align.",
article = nil,
aliases = { "Foldseek", "FoldSeek", "Foldseek structural search", "3Di alphabet" },
es = "Herramienta rápida de búsqueda por alineamiento estructural que codifica estructuras 3D de proteínas como secuencias sobre un alfabeto estructural (3Di) y aplica algoritmos de búsqueda de secuencias, permitiendo comparaciones estructurales a escala de millones de entradas, órdenes de magnitud más rápido que DALI o TM-align.",
zh = "一款快速的结构比对搜索工具,将三维蛋白质结构编码为基于结构字母表(3Di)的序列,并应用序列搜索算法,可在百万级条目规模上进行结构比较,比 DALI 或 TM-align 快若干个数量级。",
term_es = "Foldseek",
term_zh = "Foldseek",
aliases_es = { "Foldseek", "búsqueda estructural Foldseek" },
aliases_zh = { "Foldseek", "FoldSeek", "Foldseek 结构搜索", "3Di 字母表" },
}
data["folio benchmark"] = {
short = "An expert-written benchmark of natural-language reasoning problems paired with first-order logic annotations, used to evaluate logical reasoning in language models on tasks requiring multi-step deduction.",
article = nil,
aliases = { "FOLIO", "FOLIO benchmark", "FOLIO dataset", "First-Order Logic Inference Over Natural Language" },
es = "Un benchmark escrito por expertos con problemas de razonamiento en lenguaje natural acompañados de anotaciones en lógica de primer orden, utilizado para evaluar el razonamiento lógico en modelos de lenguaje en tareas que requieren deducción de varios pasos.",
zh = "一个由专家编写的自然语言推理基准,配有一阶逻辑标注,用于评估语言模型在需要多步演绎的任务上的逻辑推理能力。",
term_es = "benchmark FOLIO",
term_zh = "FOLIO 基准",
aliases_es = { "FOLIO", "conjunto FOLIO", "benchmark FOLIO" },
aliases_zh = { "FOLIO", "FOLIO 数据集", "FOLIO 推理基准" },
}
data["fomaml"] = {
short = "Acronym for First-Order MAML — a variant of Model-Agnostic Meta-Learning that approximates the meta-gradient by dropping the second-order Hessian-vector products of the inner-loop update.",
article = nil,
aliases = { "FOMAML", "first-order MAML", "first order MAML", "first-order Model-Agnostic Meta-Learning" },
es = "Acrónimo de MAML de Primer Orden, una variante de Model-Agnostic Meta-Learning que aproxima el meta-gradiente descartando los productos Hessiano-vector de segundo orden del bucle interno.",
zh = "First-Order MAML 的缩写,是一种 MAML 变体,通过舍弃内循环更新中的二阶 Hessian-向量积来近似元梯度。",
term_es = "FOMAML",
term_zh = "FOMAML",
aliases_es = { "FOMAML", "MAML de primer orden", "first-order MAML" },
aliases_zh = { "FOMAML", "一阶 MAML", "First-order MAML" },
}
data["foolsgold"] = {
short = "A Byzantine-robust federated aggregation defense against Sybil attacks that downweights clients whose gradient histories are highly similar to one another, on the assumption that genuine clients have distinct non-IID data.",
article = nil,
aliases = { "FoolsGold", "Fools Gold", "FoolsGold defense" },
es = "Defensa de agregación federada robusta a ataques Sybil que reduce el peso de los clientes cuyas historias de gradientes son muy similares entre sí, partiendo del supuesto de que los clientes legítimos tienen datos no IID distintos.",
zh = "一种针对女巫攻击的拜占庭鲁棒联邦聚合防御方法,通过降低梯度历史彼此高度相似的客户端权重来抵御攻击,前提是真实客户端拥有彼此不同的非独立同分布数据。",
term_es = "FoolsGold",
term_zh = "FoolsGold",
aliases_es = { "FoolsGold", "defensa FoolsGold" },
aliases_zh = { "FoolsGold", "FoolsGold 防御" },
}
data["footprinting analysis"] = {
short = "Analysis of short regions of protected DNA inside open chromatin, identified from ATAC-seq or DNase-seq read coverage profiles, that mark sites where transcription factors are bound. Used to infer TF activity and binding without performing ChIP-seq.",
article = nil,
aliases = { "TF footprinting", "transcription factor footprinting", "ATAC-seq footprinting", "DNase footprinting", "DNase-seq footprinting" },
es = "Análisis de regiones cortas de ADN protegido dentro de la cromatina abierta, identificadas a partir de los perfiles de cobertura de ATAC-seq o DNase-seq, que marcan sitios donde se unen factores de transcripción. Se utiliza para inferir la actividad y unión de TF sin realizar ChIP-seq.",
zh = "通过分析 ATAC-seq 或 DNase-seq 覆盖度谱中位于开放染色质内的短片段保护区,识别转录因子结合位点的方法,用于在不进行 ChIP-seq 的情况下推断 TF 的活性和结合。",
term_es = "análisis de footprinting",
term_zh = "足迹分析",
aliases_es = { "footprinting", "footprinting de TF", "footprinting de ATAC-seq", "footprinting de DNasa" },
aliases_zh = { "TF 足迹分析", "转录因子足迹分析", "ATAC-seq 足迹分析", "DNase 足迹分析" },
}
data["forced alignment"] = {
short = "The process of automatically aligning a known transcript to its corresponding audio at the phoneme or word level, producing precise time boundaries; typically performed with HMM or CTC-based aligners.",
article = nil,
aliases = { "forced-alignment", "speech-text alignment", "phoneme alignment", "audio-text alignment" },
es = "Proceso de alinear automáticamente una transcripción conocida con su audio correspondiente a nivel de fonema o palabra, produciendo límites temporales precisos; normalmente se realiza con alineadores basados en HMM o CTC.",
zh = "将已知文本转写自动对齐到对应音频的过程,可在音素或词级别提供精确的时间边界,通常通过基于 HMM 或 CTC 的对齐器实现。",
term_es = "alineación forzada",
term_zh = "强制对齐",
aliases_es = { "forced alignment", "alineamiento forzado", "alineación texto-audio" },
aliases_zh = { "强迫对齐", "音频文本对齐", "音素对齐" },
}
data["forcing variable"] = {
short = "In regression discontinuity designs, the continuous variable whose value relative to a known cutoff determines treatment assignment; also called the running or assignment variable.",
article = nil,
aliases = { "running variable", "assignment variable", "score variable" },
es = "En diseños de regresión discontinua, la variable continua cuyo valor respecto a un umbral conocido determina la asignación al tratamiento; también llamada variable de selección o de puntaje.",
zh = "在断点回归设计中,其取值相对于已知阈值决定处理分配的连续变量;也称为运行变量或分配变量。",
term_es = "variable de asignación",
term_zh = "驱动变量",
aliases_es = { "variable de selección", "variable de puntaje", "variable forzante" },
aliases_zh = { "运行变量", "分配变量", "强制变量" },
}
data["forecast attribution"] = {
short = "The decomposition of a time-series forecast into contributions from individual input features, lags, covariates, or model components, often via Shapley values or integrated gradients.",
article = nil,
aliases = { "forecasting attribution", "time-series attribution" },
es = "Descomposición de un pronóstico de series temporales en contribuciones de características de entrada individuales, rezagos, covariables o componentes del modelo, a menudo mediante valores de Shapley o gradientes integrados.",
zh = "将时间序列预测分解为来自单个输入特征、滞后项、协变量或模型组件的贡献,通常通过 Shapley 值或积分梯度实现。",
term_es = "atribución de pronósticos",
term_zh = "预测归因",
aliases_es = { "atribución de series temporales" },
aliases_zh = { "预测的归因", "时间序列归因" },
}
data["formant"] = {
short = "A resonant frequency of the vocal tract that appears as a concentration of acoustic energy in a speech spectrum; the lowest formants (F1, F2, F3) primarily distinguish vowel identity.",
article = nil,
aliases = { "formants", "vocal tract resonance", "vocal formant" },
es = "Frecuencia de resonancia del tracto vocal que aparece como una concentración de energía acústica en el espectro del habla; las formantes más bajas (F1, F2, F3) determinan principalmente la identidad de la vocal.",
zh = "声道的共振频率,在语音频谱中表现为声能集中区域;最低的几个共振峰(F1、F2、F3)主要决定元音的辨识。",
term_es = "formante",
term_zh = "共振峰",
aliases_es = { "formantes", "resonancia del tracto vocal" },
aliases_zh = { "共振峰频率", "formant", "声道共振" },
}
data["formant synthesis"] = {
short = "A rule-based speech synthesis approach that generates speech by exciting a parametric source signal through a cascade or parallel set of resonators tuned to formant frequencies, dominant before concatenative and neural TTS.",
article = nil,
aliases = { "formant-based synthesis", "formant TTS", "rule-based formant synthesis", "Klatt synthesizer" },
es = "Enfoque de síntesis de voz basado en reglas que genera habla excitando una señal fuente paramétrica a través de un conjunto en cascada o paralelo de resonadores ajustados a las frecuencias de las formantes; dominante antes de la síntesis concatenativa y neuronal.",
zh = "一种基于规则的语音合成方法,通过将参数化的激励源信号经过一组级联或并联、按共振峰频率调谐的谐振器生成语音;曾是拼接合成与神经 TTS 出现之前的主流方法。",
term_es = "síntesis de formantes",
term_zh = "共振峰合成",
aliases_es = { "síntesis por formantes", "TTS de formantes", "síntesis Klatt" },
aliases_zh = { "共振峰语音合成", "基于共振峰的合成" },
}
data["formant tracking"] = {
short = "The estimation of formant frequency trajectories over time from a speech signal, typically via LPC root analysis, peak picking on smoothed spectra, or trained neural models.",
article = nil,
aliases = { "formant estimation", "formant trajectory estimation" },
es = "Estimación de las trayectorias de frecuencia de las formantes a lo largo del tiempo a partir de una señal de habla, normalmente mediante análisis de raíces LPC, selección de picos en espectros suavizados o modelos neuronales entrenados.",
zh = "从语音信号中估计共振峰频率随时间变化轨迹的过程,常用方法包括 LPC 根分析、平滑频谱峰值检测或经过训练的神经网络模型。",
term_es = "seguimiento de formantes",
term_zh = "共振峰跟踪",
aliases_es = { "estimación de formantes", "rastreo de formantes" },
aliases_zh = { "共振峰追踪", "共振峰估计", "共振峰轨迹估计" },
}
data["forward algorithm"] = {
short = "Dynamic-programming recursion in hidden Markov models that computes the joint probability of an observation sequence and the current hidden state by marginalizing previous states forward in time.",
article = nil,
aliases = { "HMM forward algorithm", "forward recursion", "forward pass (HMM)" },
es = "Recursión de programación dinámica en modelos ocultos de Markov que calcula la probabilidad conjunta de una secuencia de observaciones y el estado oculto actual marginalizando los estados previos hacia adelante en el tiempo.",
zh = "隐马尔可夫模型中的动态规划递推算法,通过沿时间向前对先前状态进行边缘化,计算观测序列与当前隐藏状态的联合概率。",
term_es = "algoritmo hacia adelante",
term_zh = "前向算法",
aliases_es = { "algoritmo forward", "algoritmo hacia adelante de HMM", "recursión hacia adelante" },
aliases_zh = { "前向算法", "HMM 前向算法", "前向递推" },
}
data["forward chaining"] = {
short = "A data-driven inference strategy used in rule-based systems that repeatedly applies modus ponens to known facts and rule antecedents to derive new conclusions until a goal is reached or no new facts can be produced.",
article = nil,
aliases = { "data-driven inference", "forward reasoning", "forward inference", "forward-chaining" },
es = "Una estrategia de inferencia dirigida por datos, usada en sistemas basados en reglas, que aplica reiteradamente modus ponens a hechos conocidos y a los antecedentes de reglas para derivar nuevas conclusiones hasta alcanzar un objetivo o agotar los hechos derivables.",
zh = "一种用于基于规则的系统的数据驱动推理策略,反复对已知事实和规则前件应用肯定前件式,以推导新结论,直至到达目标或无法再产生新事实。",
term_es = "encadenamiento hacia adelante",
term_zh = "正向链推理",
aliases_es = { "razonamiento hacia adelante", "inferencia dirigida por datos", "encadenamiento progresivo" },
aliases_zh = { "前向推理", "正向推理", "数据驱动推理" },
}
data["forward filtering backward sampling"] = {
short = "An MCMC technique for state-space models that first runs the forward filter to obtain filtered distributions and then draws a joint sample of the latent state trajectory by sampling backward conditioned on those filtered distributions.",
article = nil,
aliases = { "FFBS", "forward-filtering backward-sampling", "forward filter backward sampler" },
es = "Técnica de MCMC para modelos en espacio de estados que primero ejecuta el filtro hacia adelante para obtener las distribuciones filtradas y después genera una muestra conjunta de la trayectoria latente muestreando hacia atrás condicionada en dichas distribuciones.",
zh = "用于状态空间模型的 MCMC 方法:先运行前向滤波得到滤波分布,再以这些分布为条件向后采样,从而联合抽取隐状态轨迹的样本。",
term_es = "filtrado hacia adelante y muestreo hacia atrás",
term_zh = "前向滤波后向采样",
aliases_es = { "FFBS", "filtrado hacia adelante con muestreo hacia atrás" },
aliases_zh = { "FFBS", "前向滤波-后向采样" },
}
data["forward reaction prediction"] = {
short = "The task of predicting the major products of a chemical reaction given its reactants and reagents, typically formulated as sequence-to-sequence translation on SMILES or as graph editing on molecular graphs.",
article = nil,
aliases = { "reaction product prediction", "forward synthesis prediction", "reactant-to-product prediction" },
es = "Tarea de predecir los productos principales de una reacción química a partir de sus reactivos y reactantes, formulada habitualmente como traducción secuencia a secuencia sobre SMILES o como edición de grafos moleculares.",
zh = "在给定反应物和试剂的情况下预测化学反应主要产物的任务,通常被表述为对SMILES的序列到序列翻译或对分子图的图编辑问题。",
term_es = "predicción de reacciones directas",
term_zh = "正向反应预测",
aliases_es = { "predicción de productos de reacción", "predicción de síntesis directa" },
aliases_zh = { "反应产物预测", "正向合成预测", "反应物到产物预测" },
}
data["forward sampling"] = {
short = "Ancestral sampling in a directed graphical model that draws each variable from its conditional distribution given already-sampled parents, traversing the network in topological order.",
article = nil,
aliases = { "ancestral sampling", "prior sampling", "logic sampling" },
es = "Muestreo ancestral en un modelo gráfico dirigido que extrae cada variable de su distribución condicional dados los padres ya muestreados, recorriendo la red en orden topológico.",
zh = "在有向图模型中按拓扑顺序遍历网络,对每个变量根据已采样父节点的条件分布进行抽样的祖先采样方法。",
term_es = "muestreo hacia adelante",
term_zh = "前向采样",
aliases_es = { "muestreo ancestral", "muestreo a priori", "muestreo lógico" },
aliases_zh = { "前向采样", "祖先采样", "逻辑采样" },
}
data["forward simulation"] = {
short = "An evaluation protocol where humans, given an explanation, must predict the model's output on new inputs; high accuracy indicates the explanation conveys the model's decision logic.",
article = nil,
aliases = { "simulatability", "human forward simulation", "forward simulatability" },
es = "Protocolo de evaluación en el que humanos, dada una explicación, deben predecir la salida del modelo sobre nuevas entradas; una alta precisión indica que la explicación transmite la lógica de decisión del modelo.",
zh = "一种评估协议:在给定解释后,人类需对新输入预测模型的输出;高准确率表明解释传达了模型的决策逻辑。",
term_es = "simulación hacia adelante",
term_zh = "前向模拟",
aliases_es = { "simulabilidad", "simulación humana hacia adelante" },
aliases_zh = { "可模拟性", "人类前向模拟" },
}
data["forward-backward algorithm"] = {
short = "An algorithm for hidden Markov models that combines a forward pass and a backward pass to compute the posterior marginal distribution of each hidden state given the entire observation sequence.",
article = nil,
aliases = { "forward backward algorithm", "Baum-Welch forward-backward", "HMM smoothing algorithm" },
es = "Algoritmo para modelos ocultos de Markov que combina una pasada hacia adelante y otra hacia atrás para calcular la distribución marginal a posteriori de cada estado oculto dada la secuencia completa de observaciones.",
zh = "针对隐马尔可夫模型的算法,通过结合前向传递与后向传递,计算给定整段观测序列时每个隐藏状态的后验边缘分布。",
term_es = "algoritmo hacia adelante y hacia atrás",
term_zh = "前向-后向算法",
aliases_es = { "algoritmo forward-backward", "algoritmo de suavizado de HMM" },
aliases_zh = { "前向后向算法", "HMM 平滑算法" },
}
data["four-fifths rule"] = {
short = "A US Equal Employment Opportunity Commission guideline stating that a selection rate for a protected group below 80% (four-fifths) of the rate for the most-favored group constitutes evidence of disparate impact.",
article = nil,
aliases = { "4/5 rule", "80% rule", "eighty percent rule", "EEOC four-fifths rule" },
es = "Directriz de la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU. según la cual una tasa de selección para un grupo protegido inferior al 80 % (cuatro quintos) de la tasa del grupo más favorecido constituye prueba de impacto dispar.",
zh = "美国平等就业机会委员会的指导原则:当受保护群体的选拔率低于最受青睐群体选拔率的80%(五分之四)时,构成差别影响的证据。",
term_es = "regla de los cuatro quintos",
term_zh = "五分之四规则",
aliases_es = { "regla de los cuatro quintos", "regla del 80%", "regla del ochenta por ciento", "regla 4/5" },
aliases_zh = { "五分之四规则", "80% 规则", "百分之八十规则", "4/5 规则" },
}
data["fp16"] = {
short = "IEEE 754 half-precision binary floating-point format with 1 sign bit, 5 exponent bits and 10 mantissa bits. Its narrow dynamic range (~10⁻⁵ to 65504) makes loss scaling necessary during training to avoid gradient underflow.",
article = nil,
aliases = { "FP16", "float16", "half precision", "half-precision floating point", "binary16" },
es = "Formato de punto flotante binario de media precisión IEEE 754 con 1 bit de signo, 5 de exponente y 10 de mantisa. Su rango dinámico estrecho (≈10⁻⁵ a 65504) obliga a usar escalado de pérdidas durante el entrenamiento para evitar el subdesbordamiento de gradientes.",
zh = "IEEE 754 半精度二进制浮点格式:1 位符号、5 位指数、10 位尾数。其动态范围较窄(约 10⁻⁵ 至 65504),训练时通常需要损失缩放以避免梯度下溢。",
term_es = "FP16",
term_zh = "FP16",
aliases_es = { "float16", "media precisión", "punto flotante de media precisión" },
aliases_zh = { "float16", "半精度浮点", "16 位浮点" },
}
data["fp32"] = {
short = "IEEE 754 single-precision binary floating-point format with 1 sign bit, 8 exponent bits and 23 mantissa bits, giving roughly 7 decimal digits of precision. It is the historical default numerical format for deep-learning training.",
article = nil,
aliases = { "FP32", "float32", "single precision", "single-precision floating point", "binary32" },
es = "Formato de punto flotante binario de precisión simple IEEE 754 con 1 bit de signo, 8 de exponente y 23 de mantisa, lo que ofrece aproximadamente 7 dígitos decimales de precisión. Es el formato numérico históricamente predeterminado para el entrenamiento en aprendizaje profundo.",
zh = "IEEE 754 单精度二进制浮点格式:1 位符号、8 位指数、23 位尾数,约 7 位十进制有效数字。是深度学习训练长期以来的默认数值格式。",
term_es = "FP32",
term_zh = "FP32",
aliases_es = { "float32", "precisión simple", "punto flotante de precisión simple" },
aliases_zh = { "float32", "单精度浮点", "32 位浮点" },
}
data["fp8"] = {
short = "An 8-bit floating-point format used for low-precision deep-learning training and inference, typically in two variants — E4M3 (4 exponent, 3 mantissa bits) for activations/weights and E5M2 (5 exponent, 2 mantissa bits) for gradients — supported on H100 and later GPUs.",
article = nil,
aliases = { "FP8", "float8", "8-bit floating point", "E4M3", "E5M2" },
es = "Formato de punto flotante de 8 bits para entrenamiento e inferencia de baja precisión en aprendizaje profundo, normalmente en dos variantes — E4M3 (4 bits de exponente, 3 de mantisa) para activaciones y pesos, y E5M2 (5 de exponente, 2 de mantisa) para gradientes — soportado en GPU H100 y posteriores.",
zh = "用于低精度深度学习训练与推理的 8 位浮点格式,通常分两种变体:E4M3(4 位指数、3 位尾数)用于激活和权重,E5M2(5 位指数、2 位尾数)用于梯度,受 H100 及后续 GPU 支持。",
term_es = "FP8",
term_zh = "FP8",
aliases_es = { "float8", "punto flotante de 8 bits" },
aliases_zh = { "float8", "8 位浮点", "E4M3", "E5M2" },
}
data["fp8 quantization"] = {
short = "Quantization of weights and activations to 8-bit floating-point formats, typically the E4M3 and E5M2 variants of IEEE FP8, used to accelerate training and inference of large neural networks on modern GPUs.",
article = nil,
aliases = { "FP8 quantization", "FP8", "8-bit float quantization", "fp8", "E4M3", "E5M2" },
es = "Cuantización de pesos y activaciones a formatos de punto flotante de 8 bits, típicamente las variantes E4M3 y E5M2 de FP8 IEEE, utilizada para acelerar entrenamiento e inferencia de grandes redes neuronales en GPU modernas.",
zh = "将权重和激活量化到 8 位浮点格式(通常是 IEEE FP8 的 E4M3 与 E5M2 变体),用于在现代 GPU 上加速大型神经网络的训练和推理。",
term_es = "cuantización FP8",
term_zh = "FP8 量化",
aliases_es = { "FP8", "cuantización en 8 bits flotante" },
aliases_zh = { "FP8", "8 位浮点量化", "E4M3", "E5M2" },
}
data["fpkm"] = {
short = "Fragments Per Kilobase of transcript per Million mapped fragments: a within-sample normalization for paired-end RNA-seq that scales fragment counts by transcript length and library size, used to compare expression of different genes within one sample.",
article = nil,
aliases = { "FPKM", "Fragments Per Kilobase per Million", "FPKM normalization", "log2(FPKM)" },
es = "Fragments Per Kilobase of transcript per Million mapped fragments: normalización dentro de la muestra para RNA-seq de extremos pareados que escala los conteos de fragmentos por la longitud del transcrito y por el tamaño de la biblioteca, usada para comparar la expresión de genes distintos dentro de una sola muestra.",
zh = "Fragments Per Kilobase of transcript per Million mapped fragments:用于双端 RNA-seq 的样本内标准化指标,按转录本长度和文库大小对片段计数进行缩放,主要用于在同一样本内比较不同基因的表达水平。",
term_es = "FPKM",
term_zh = "FPKM",
aliases_es = { "Fragments Per Kilobase per Million", "normalización FPKM" },
aliases_zh = { "FPKM", "每千碱基每百万比对片段数", "FPKM 标准化" },
}
data["fpocket"] = {
short = "An open-source geometry-based algorithm that detects and ranks putative ligand-binding pockets on protein surfaces using Voronoi tessellation and alpha-sphere clustering, widely used as a fast pocket-finding baseline.",
article = nil,
aliases = { "Fpocket", "fpocket", "FPocket" },
es = "Algoritmo geométrico de código abierto que detecta y clasifica posibles bolsillos de unión de ligandos en superficies proteicas mediante teselación de Voronoi y agrupamiento de alfa-esferas, ampliamente utilizado como referencia rápida para la detección de bolsillos.",
zh = "一种开源的基于几何的算法,利用Voronoi镶嵌和α-球聚类在蛋白质表面检测并排序潜在的配体结合口袋,被广泛用作快速口袋检测的基线工具。",
term_es = "Fpocket",
term_zh = "Fpocket",
aliases_es = { "Fpocket", "FPocket" },
aliases_zh = { "Fpocket", "FPocket" },
}
data["fraction sp3"] = {
short = "A medicinal-chemistry descriptor defined as the ratio of sp3-hybridized carbons to the total number of carbons in a molecule; higher values are correlated with improved solubility and clinical success.",
article = nil,
aliases = { "Fsp3", "fsp3", "Fraction Sp3", "sp3 fraction", "fraction of sp3 carbons" },
es = "Descriptor de química medicinal definido como la proporción de carbonos con hibridación sp3 respecto al número total de carbonos de una molécula; valores más altos se correlacionan con mejor solubilidad y mayor éxito clínico.",
zh = "一种药物化学描述符,定义为分子中sp3杂化碳原子数与碳原子总数之比;较高的取值与更好的水溶性和更高的临床成功率相关。",
term_es = "fracción sp3",
term_zh = "sp3碳分数",
aliases_es = { "Fsp3", "fsp3", "fracción de carbonos sp3" },
aliases_zh = { "Fsp3", "fsp3", "sp3比例", "sp3碳比例" },
}
data["fractional belief propagation"] = {
short = "A generalization of loopy belief propagation that introduces fractional counting numbers (one per edge or region) to control the entropy approximation, recovering standard BP, tree-reweighted BP, and related variants as special cases.",
article = nil,
aliases = { "fractional BP", "reweighted belief propagation" },
es = "Generalización de la propagación de creencias con bucles que introduce números de conteo fraccionarios (uno por arista o región) para controlar la aproximación de entropía, recuperando como casos particulares la BP estándar, la BP reponderada por árboles y variantes afines.",
zh = "对带环的信念传播的推广,通过为每条边或每个区域引入分数计数权重来控制熵近似,标准 BP、树重加权 BP 等方法均可作为其特例。",
term_es = "propagación de creencias fraccionaria",
term_zh = "分数信念传播",
aliases_es = { "BP fraccionaria", "propagación de creencias reponderada" },
aliases_zh = { "分数信念传播", "分数 BP", "重加权信念传播" },
}
data["fragment growing"] = {
short = "A fragment-based drug design strategy in which a weakly binding fragment is iteratively elaborated with additional functional groups directed at neighboring sub-pockets to improve potency while preserving the original binding mode.",
article = nil,
aliases = { "fragment elaboration", "growing strategy", "fragment-growing" },
es = "Estrategia de diseño de fármacos basada en fragmentos en la que un fragmento de unión débil se elabora iterativamente con grupos funcionales adicionales orientados hacia subbolsillos vecinos, mejorando la potencia y conservando el modo de unión original.",
zh = "基于片段的药物设计策略,将一个弱结合的片段逐步引入指向邻近亚口袋的官能团进行迭代延伸,在保持原有结合模式的同时提高活性。",
term_es = "crecimiento de fragmentos",
term_zh = "片段生长",
aliases_es = { "elaboración de fragmentos", "estrategia de crecimiento de fragmentos" },
aliases_zh = { "片段延伸", "片段扩展", "片段生长策略" },
}
data["fragment linking"] = {
short = "A fragment-based drug design strategy in which two fragments bound to adjacent sub-pockets of the same target are joined by a designed linker to yield a single ligand whose affinity ideally exceeds the sum of the parts.",
article = nil,
aliases = { "fragment-linking", "linking strategy", "linker-based fragment design" },
es = "Estrategia de diseño de fármacos basada en fragmentos en la que dos fragmentos unidos a subbolsillos adyacentes del mismo blanco se conectan mediante un enlazador diseñado, dando lugar a un único ligando cuya afinidad idealmente supera la suma de las partes.",
zh = "基于片段的药物设计策略,将结合在同一靶标相邻亚口袋上的两个片段通过设计的连接子连接为单一配体,其亲和力理想情况下超过单个片段亲和力之和。",
term_es = "enlazado de fragmentos",
term_zh = "片段连接",
aliases_es = { "unión de fragmentos", "estrategia de enlace de fragmentos" },
aliases_zh = { "片段连接策略", "片段拼接", "连接子片段设计" },
}
data["fragment-based drug design"] = {
short = "A drug-discovery paradigm that screens libraries of low-molecular-weight fragments for weak binding, then grows, links, or merges hits into lead compounds, exploiting higher hit rates and better ligand efficiency than full HTS libraries.",
article = nil,
aliases = { "FBDD", "fragment based drug design", "fragment-based lead discovery", "FBLD" },
es = "Paradigma de descubrimiento de fármacos que cribra bibliotecas de fragmentos de bajo peso molecular en busca de uniones débiles y luego los hace crecer, enlaza o fusiona en compuestos líderes, aprovechando tasas de aciertos más altas y mejor eficiencia de ligando que las bibliotecas completas de HTS.",
zh = "一种药物发现范式,先对低分子量片段库进行弱结合筛选,再通过生长、连接或合并将命中片段发展为先导化合物,相比全规模高通量筛选具有更高的命中率和更好的配体效率。",
term_es = "diseño de fármacos basado en fragmentos",
term_zh = "基于片段的药物设计",
aliases_es = { "FBDD", "diseño basado en fragmentos", "descubrimiento de líderes basado en fragmentos", "FBLD" },
aliases_zh = { "FBDD", "片段药物设计", "基于片段的先导化合物发现", "FBLD" },
}
data["frame sampling"] = {
short = "The process of selecting a subset of frames from a video to feed into a model, using strategies such as uniform, dense, random, or stride-based sampling to balance temporal coverage against compute budget.",
article = nil,
aliases = { "video frame sampling", "temporal sampling", "frame subsampling" },
es = "Proceso de seleccionar un subconjunto de fotogramas de un vídeo para alimentar a un modelo, usando estrategias como muestreo uniforme, denso, aleatorio o por paso fijo para equilibrar la cobertura temporal y el presupuesto de cómputo.",
zh = "从视频中选取部分帧输入模型的过程,常用均匀采样、密集采样、随机采样或步长采样等策略,在时间覆盖与计算预算之间取得平衡。",
term_es = "muestreo de fotogramas",
term_zh = "帧采样",
aliases_es = { "muestreo de cuadros", "muestreo temporal de fotogramas", "submuestreo de fotogramas" },
aliases_zh = { "视频帧采样", "时序采样", "帧子采样" },
}
data["frame selection"] = {
short = "Choosing the most informative frames from a video — often via learned scorers, content-aware heuristics, or query-conditioned attention — to summarize the clip or answer a downstream question with limited context.",
article = nil,
aliases = { "keyframe selection", "video frame selection", "informative frame selection" },
es = "Elección de los fotogramas más informativos de un vídeo, a menudo mediante puntuadores aprendidos, heurísticas conscientes del contenido o atención condicionada por la consulta, para resumir el clip o responder a una pregunta posterior con contexto limitado.",
zh = "从视频中挑选最具信息量的帧,通常借助学习到的打分器、内容感知启发式或查询条件下的注意力机制,用于在有限上下文下对视频进行摘要或回答下游问题。",
term_es = "selección de fotogramas",
term_zh = "帧选择",
aliases_es = { "selección de fotogramas clave", "selección de cuadros clave" },
aliases_zh = { "关键帧选择", "视频帧选择", "信息帧选择" },
}
data["framediff"] = {
short = "An SE(3)-equivariant diffusion model for protein backbone generation that denoises a sequence of rigid-body frames (translations and rotations per residue), enabling unconditional and motif-conditioned protein design.",
article = nil,
aliases = { "FrameDiff", "Frame Diff", "frame diff", "SE(3) frame diffusion" },
es = "Modelo de difusión equivariante a SE(3) para la generación del esqueleto proteico que elimina ruido de una secuencia de marcos rígidos (traslaciones y rotaciones por residuo), permitiendo el diseño de proteínas incondicional y condicionado por motivos.",
zh = "一种用于蛋白质骨架生成的SE(3)等变扩散模型,对每个残基的刚体坐标系(平移和旋转)序列进行去噪,从而支持无条件以及基于motif条件的蛋白质设计。",
term_es = "FrameDiff",
term_zh = "FrameDiff",
aliases_es = { "FrameDiff", "difusión de marcos SE(3)" },
aliases_zh = { "FrameDiff", "SE(3)坐标系扩散", "刚体框架扩散" },
}
data["framenet"] = {
short = "A lexical database of English built around the theory of frame semantics, in which words are grouped into semantic frames that describe stereotyped situations together with their participants and props (frame elements).",
article = nil,
aliases = { "FrameNet", "Berkeley FrameNet", "FrameNet project", "FN" },
es = "Una base de datos léxica del inglés construida a partir de la teoría de la semántica de marcos, en la que las palabras se agrupan en marcos semánticos que describen situaciones estereotipadas junto con sus participantes y elementos.",
zh = "一个基于框架语义学理论构建的英语词汇资源库,其中词语被组织到语义框架中,框架描述定型化的情景及其参与者和角色(框架元素)。",
term_es = "FrameNet",
term_zh = "FrameNet",
aliases_es = { "FrameNet", "FrameNet de Berkeley", "proyecto FrameNet" },
aliases_zh = { "FrameNet", "Berkeley FrameNet", "框架语义资源库" },
}
data["free energy"] = {
short = "In variational inference, the negative ELBO: the sum of expected negative log-likelihood and KL divergence between the variational posterior and prior. Minimizing free energy is equivalent to maximizing the ELBO.",
article = nil,
aliases = { "variational free energy", "Helmholtz free energy", "negative ELBO" },
es = "En inferencia variacional, el ELBO negativo: la suma de la log-verosimilitud negativa esperada y la divergencia KL entre el posterior variacional y el prior. Minimizar la energía libre equivale a maximizar el ELBO.",
zh = "在变分推断中,即 ELBO 的负值:期望负对数似然与变分后验和先验之间 KL 散度之和。最小化自由能等价于最大化 ELBO。",
term_es = "energía libre",
term_zh = "自由能",
aliases_es = { "energía libre variacional", "energía libre de Helmholtz", "ELBO negativo" },
aliases_zh = { "变分自由能", "亥姆霍兹自由能", "负 ELBO" },
}
data["free energy minimization"] = {
short = "A variational principle that recasts probabilistic inference as minimizing a free-energy functional combining expected energy and negative entropy, yielding the true posterior at the global minimum.",
article = nil,
aliases = { "variational free energy minimization", "free-energy minimization", "minimization of variational free energy" },
es = "Principio variacional que reformula la inferencia probabilística como la minimización de un funcional de energía libre que combina la energía esperada y la entropía negativa, alcanzando la verdadera distribución a posteriori en el mínimo global.",
zh = "一种变分原理,将概率推断重新表述为最小化结合期望能量与负熵的自由能泛函,其全局最小值对应真实后验分布。",
term_es = "minimización de la energía libre",
term_zh = "自由能最小化",
aliases_es = { "minimización de energía libre", "minimización de la energía libre variacional" },
aliases_zh = { "自由能最小化", "变分自由能最小化" },
}
data["free energy perturbation"] = {
short = "An alchemical free-energy method that estimates the difference in free energy between two states by gradually transforming one Hamiltonian into another along a coupling parameter, sampling each window with molecular dynamics or Monte Carlo.",
article = nil,
aliases = { "FEP", "alchemical FEP", "Zwanzig equation method", "free-energy perturbation" },
es = "Método de energía libre alquímica que estima la diferencia de energía libre entre dos estados transformando gradualmente un Hamiltoniano en otro a lo largo de un parámetro de acoplamiento, muestreando cada ventana con dinámica molecular o Monte Carlo.",
zh = "一种炼金式自由能方法,通过沿耦合参数逐步将一个哈密顿量转换为另一个,并对每个窗口用分子动力学或蒙特卡罗采样,从而估计两个状态间的自由能差。",
term_es = "perturbación de energía libre",
term_zh = "自由能微扰",
aliases_es = { "FEP", "FEP alquímica", "perturbación de la energía libre" },
aliases_zh = { "FEP", "炼金自由能微扰", "自由能扰动法" },
}
data["free-rider attack"] = {
short = "An attack in federated learning where a client participates in training without contributing useful updates—e.g., submitting random, stale, or trivially perturbed parameters—while still receiving the jointly trained global model.",
article = nil,
aliases = { "free rider attack", "free-riding attack", "freerider attack", "free-rider client" },
es = "Ataque en aprendizaje federado en el que un cliente participa en el entrenamiento sin aportar actualizaciones útiles —por ejemplo enviando parámetros aleatorios, obsoletos o perturbados de forma trivial— y aun así recibe el modelo global entrenado conjuntamente.",
zh = "联邦学习中的一种攻击:客户端参与训练但不贡献有效更新(例如提交随机、过期或仅做微小扰动的参数),却仍接收联合训练得到的全局模型。",
term_es = "ataque de gorrón",
term_zh = "搭便车攻击",
aliases_es = { "ataque free-rider", "ataque de free riding", "cliente free-rider" },
aliases_zh = { "free-rider 攻击", "搭便车客户端", "免费搭车攻击" },
}
data["free-wilson analysis"] = {
short = "A classical QSAR technique that decomposes the activity of analogue series as an additive sum of substituent contributions at each substitution position, fit by linear regression to deconvolute structure-activity relationships.",
article = nil,
aliases = { "Free-Wilson analysis", "Free Wilson analysis", "Free-Wilson model", "Free–Wilson analysis" },
es = "Técnica QSAR clásica que descompone la actividad de series de análogos como la suma aditiva de contribuciones de sustituyentes en cada posición de sustitución, ajustada por regresión lineal para descomponer las relaciones estructura-actividad.",
zh = "一种经典的QSAR方法,将一系列类似物的活性分解为每个取代位置上取代基贡献的加和,通过线性回归拟合以解析结构-活性关系。",
term_es = "análisis Free-Wilson",
term_zh = "Free-Wilson分析",
aliases_es = { "análisis Free–Wilson", "modelo Free-Wilson", "método Free-Wilson" },
aliases_zh = { "Free-Wilson分析", "Free-Wilson方法", "Free–Wilson模型" },
}
data["freebase"] = {
short = "A large collaborative knowledge graph of structured tuples (subject, predicate, object) about real-world entities, originally developed by Metaweb and acquired by Google, widely used as a benchmark for knowledge graph embeddings and question answering despite being shut down in 2016.",
article = nil,
aliases = { "Freebase", "FB", "Freebase KG", "Freebase knowledge graph" },
es = "Un gran grafo de conocimiento colaborativo formado por tuplas estructuradas (sujeto, predicado, objeto) sobre entidades del mundo real, desarrollado originalmente por Metaweb y adquirido por Google; se usa ampliamente como referencia para incrustaciones de grafos de conocimiento y preguntas-respuestas, aunque se cerró en 2016.",
zh = "一个由结构化三元组(主语、谓语、宾语)构成的大型协作式知识图谱,最初由 Metaweb 开发,后被 Google 收购,虽于 2016 年关闭,但仍被广泛用作知识图谱嵌入与问答研究的基准。",
term_es = "Freebase",
term_zh = "Freebase",
aliases_es = { "Freebase", "grafo de conocimiento Freebase" },
aliases_zh = { "Freebase", "Freebase 知识图谱" },
}
data["freebayes"] = {
short = "A Bayesian haplotype-based variant caller that detects SNPs, indels, and small complex events from aligned short-read data by considering all possible local haplotypes within a window. Often used as a complement or alternative to GATK HaplotypeCaller.",
article = nil,
aliases = { "FreeBayes", "freebayes variant caller", "FreeBayes variant caller" },
es = "Llamador de variantes bayesiano basado en haplotipos que detecta SNP, indels y pequeños eventos complejos a partir de datos alineados de lecturas cortas considerando todos los haplotipos locales posibles dentro de una ventana. Se utiliza con frecuencia como complemento o alternativa a GATK HaplotypeCaller.",
zh = "基于贝叶斯单倍型的变异检测器,通过在窗口内考虑所有可能的局部单倍型,从短读长比对数据中检测 SNP、插入缺失和小型复杂事件,常作为 GATK HaplotypeCaller 的补充或替代方案使用。",
term_es = "freebayes",
term_zh = "FreeBayes",
aliases_es = { "FreeBayes", "llamador de variantes FreeBayes" },
aliases_zh = { "FreeBayes", "freebayes 变异检测器" },
}
data["freesolv"] = {
short = "A benchmark dataset of experimental and calculated hydration free energies for several hundred neutral small molecules in water, widely used to evaluate solvation models, force fields, and molecular property predictors.",
article = nil,
aliases = { "FreeSolv", "FreeSolv database", "FreeSolv dataset" },
es = "Conjunto de datos de referencia con energías libres de hidratación experimentales y calculadas para varios cientos de moléculas pequeñas neutras en agua, ampliamente utilizado para evaluar modelos de solvatación, campos de fuerza y predictores de propiedades moleculares.",
zh = "一个包含数百种中性小分子在水中的实验与计算水合自由能的基准数据集,广泛用于评估溶剂化模型、力场以及分子性质预测器。",
term_es = "FreeSolv",
term_zh = "FreeSolv",
aliases_es = { "FreeSolv", "base de datos FreeSolv", "conjunto de datos FreeSolv" },
aliases_zh = { "FreeSolv", "FreeSolv数据集", "FreeSolv数据库" },
}
data["freevc"] = {
short = "A high-quality any-to-any voice conversion model based on VITS that disentangles content and speaker information without requiring text supervision, using bottleneck features extracted from a pretrained speech model.",
article = nil,
aliases = { "FreeVC", "Free VC" },
es = "Modelo de conversión de voz de alta calidad de cualquiera-a-cualquiera basado en VITS que desentrelaza la información de contenido y de hablante sin necesidad de supervisión textual, usando características de cuello de botella extraídas de un modelo de voz preentrenado.",
zh = "一种基于 VITS 的高质量任意-到-任意语音转换模型,无需文本监督即可解耦内容与说话人信息,所用的瓶颈特征来自预训练语音模型。",
term_es = "FreeVC",
term_zh = "FreeVC",
aliases_es = { "FreeVC" },
aliases_zh = { "FreeVC" },
}
data["freeze-thaw bayesian optimization"] = {
short = "A Bayesian optimization strategy for iterative training jobs that pauses (freezes) and resumes (thaws) candidate models based on predicted future loss curves, allocating budget toward the most promising configurations.",
article = nil,
aliases = { "freeze-thaw BO", "freeze thaw bayesian optimization", "freeze/thaw BO", "Freeze-Thaw Bayesian Optimization" },
es = "Estrategia de optimización bayesiana para trabajos de entrenamiento iterativos que pausa (congela) y reanuda (descongela) modelos candidatos según las curvas de pérdida futuras predichas, asignando el presupuesto a las configuraciones más prometedoras.",
zh = "针对迭代训练任务的贝叶斯优化策略:根据预测的未来损失曲线对候选模型执行冻结与解冻操作,将预算分配给最有潜力的配置。",
term_es = "optimización bayesiana freeze-thaw",
term_zh = "冻结-解冻贝叶斯优化",
aliases_es = { "freeze-thaw BO", "BO freeze-thaw", "optimización bayesiana de congelar y descongelar" },
aliases_zh = { "freeze-thaw BO", "Freeze-Thaw 贝叶斯优化", "冻结解冻贝叶斯优化" },
}
data["frequency penalty"] = {
short = "A decoding-time logit adjustment that subtracts a penalty proportional to how often a token has already appeared in the context, discouraging both verbatim repetition and over-use of common tokens.",
article = nil,
aliases = { "Frequency Penalty", "frequency-penalty", "frequency_penalty" },
es = "Ajuste de logits en tiempo de decodificación que resta una penalización proporcional al número de veces que un token ya ha aparecido en el contexto, desincentivando tanto la repetición literal como el sobreuso de tokens comunes.",
zh = "一种解码阶段的 logit 调整,按 token 在上下文中已出现的次数比例减去惩罚值,从而抑制逐字重复以及对常见 token 的过度使用。",
term_es = "penalización por frecuencia",
term_zh = "频率惩罚",
aliases_es = { "frequency penalty", "penalización de frecuencia", "frequency_penalty" },
aliases_zh = { "frequency penalty", "frequency_penalty", "频次惩罚", "频率罚分" },
}
data["friction coefficient"] = {
short = "In stochastic-gradient MCMC samplers such as SGHMC and SGNHT, a damping term that dissipates kinetic energy so that injected gradient noise cancels with friction, keeping the sampler invariant to the target distribution.",
article = nil,
aliases = { "friction term", "damping coefficient", "SGHMC friction", "friction parameter" },
es = "En muestreadores MCMC con gradiente estocástico como SGHMC y SGNHT, término de amortiguamiento que disipa la energía cinética de modo que el ruido del gradiente inyectado se cancele con la fricción y el muestreador permanezca invariante respecto a la distribución objetivo.",
zh = "在SGHMC、SGNHT等随机梯度MCMC采样器中用于耗散动能的阻尼项,使注入的梯度噪声与摩擦相互抵消,从而保持采样器对目标分布的不变性。",
term_es = "coeficiente de fricción",
term_zh = "摩擦系数",
aliases_es = { "término de fricción", "coeficiente de amortiguamiento", "fricción de SGHMC" },
aliases_zh = { "摩擦项", "阻尼系数", "SGHMC摩擦项" },
}
data["friedman h-statistic"] = {
short = "A measure of pairwise interaction strength between features in a black-box model, defined as the share of variance in partial dependence explained by feature interaction beyond main effects.",
article = nil,
aliases = { "h-statistic", "Friedman's H", "H-statistic", "Friedman interaction statistic" },
es = "Medida de la fuerza de interacción por pares entre características en un modelo de caja negra, definida como la proporción de varianza en la dependencia parcial explicada por la interacción más allá de los efectos principales.",
zh = "黑盒模型中特征之间成对交互强度的度量,定义为部分依赖中由特征交互(超出主效应部分)所解释的方差比例。",
term_es = "estadístico H de Friedman",
term_zh = "Friedman H 统计量",
aliases_es = { "estadístico H", "H de Friedman" },
aliases_zh = { "H 统计量", "Friedman 的 H", "Friedman 交互统计量" },
}
data["frobenius norm"] = {
short = "A matrix norm equal to the square root of the sum of squared entries, ||A||_F = √Σ|a_{ij}|². Equivalently the Euclidean norm of the matrix flattened into a vector, and equal to the square root of tr(AᵀA).",
article = nil,
aliases = { "Frobenius norm", "Hilbert-Schmidt norm", "Schur norm", "||A||_F" },
es = "Norma matricial igual a la raíz cuadrada de la suma de los cuadrados de los elementos, ||A||_F = √Σ|a_{ij}|². Equivale a la norma euclidiana de la matriz aplanada como vector, y a la raíz cuadrada de tr(AᵀA).",
zh = "矩阵范数,等于矩阵元素平方和的平方根,||A||_F = √Σ|a_{ij}|²。等价于将矩阵展平为向量后的欧几里得范数,也等于 tr(AᵀA) 的平方根。",
term_es = "norma de Frobenius",
term_zh = "Frobenius 范数",
aliases_es = { "norma matricial de Frobenius", "norma de Hilbert-Schmidt" },
aliases_zh = { "弗罗贝尼乌斯范数", "Hilbert-Schmidt 范数" },
}
data["fromp"] = {
short = "Functional Regularisation of Memorable Past — a continual-learning method that prevents catastrophic forgetting by penalising changes in the network's predictive distribution over a small set of memorable inducing points from previous tasks, using a Gaussian-process view of the trained Bayesian network.",
article = nil,
aliases = { "FROMP", "functional regularisation of memorable past", "functional regularization of memorable past" },
es = "Functional Regularisation of Memorable Past — método de aprendizaje continuo que evita el olvido catastrófico penalizando los cambios en la distribución predictiva de la red sobre un conjunto reducido de puntos inducidos memorables de tareas anteriores, mediante una visión de proceso gaussiano de la red bayesiana entrenada.",
zh = "Functional Regularisation of Memorable Past(FROMP)——一种持续学习方法,将训练后的贝叶斯网络视为高斯过程,通过惩罚网络在过往任务少量\"可记忆\"诱导点上的预测分布变化来缓解灾难性遗忘。",
term_es = "FROMP",
term_zh = "FROMP",
aliases_es = { "FROMP", "regularización funcional de pasado memorable" },
aliases_zh = { "FROMP", "可记忆过往的函数式正则化" },
}
data["front-door adjustment"] = {
short = "An identification strategy that estimates a causal effect through a fully mediating variable when the front-door criterion holds, even if the treatment-outcome relationship is confounded by unobserved variables.",
article = nil,
aliases = { "front door adjustment", "frontdoor adjustment", "front-door formula" },
es = "Estrategia de identificación que estima un efecto causal a través de una variable mediadora completa cuando se cumple el criterio de puerta delantera, incluso si la relación tratamiento-resultado está confundida por variables no observadas.",
zh = "一种识别策略,当满足前门准则时,通过一个完全中介变量来估计因果效应,即使处理与结果之间存在未观测混杂。",
term_es = "ajuste por puerta delantera",
term_zh = "前门调整",
aliases_es = { "fórmula de puerta delantera" },
aliases_zh = { "前门公式", "前门校正" },
}
data["front-door criterion"] = {
short = "Pearl's graphical condition that licenses front-door adjustment: a set of variables intercepts all directed paths from treatment to outcome, has no unblocked back-door path from treatment, and all back-door paths from it to outcome are blocked by treatment.",
article = nil,
aliases = { "front door criterion", "frontdoor criterion" },
es = "Condición gráfica de Pearl que justifica el ajuste por puerta delantera: un conjunto de variables intercepta todos los caminos dirigidos del tratamiento al resultado, no tiene caminos de puerta trasera desde el tratamiento y todos sus caminos de puerta trasera al resultado están bloqueados por el tratamiento.",
zh = "Pearl 提出的图形准则,为前门调整提供依据:一组变量截断从处理到结果的所有有向路径,与处理之间不存在未阻断的后门路径,且其指向结果的所有后门路径都被处理所阻断。",
term_es = "criterio de puerta delantera",
term_zh = "前门准则",
aliases_es = { "criterio frontdoor" },
aliases_zh = { "前门判据", "前门条件" },
}
data["front-end speech processing"] = {
short = "The set of preprocessing steps applied to a raw audio signal before recognition or synthesis, typically including framing, windowing, pre-emphasis, voice activity detection, and feature extraction.",
article = nil,
aliases = { "speech front-end", "speech frontend", "audio front-end processing", "front-end processing", "front end speech processing" },
es = "Conjunto de pasos de preprocesamiento aplicados a una señal de audio cruda antes del reconocimiento o la síntesis; suele incluir enventanado, segmentación en tramas, pre-énfasis, detección de actividad de voz y extracción de características.",
zh = "在语音识别或合成之前对原始音频信号进行的一系列预处理步骤,通常包括分帧、加窗、预加重、语音活动检测和特征提取。",
term_es = "procesamiento de voz front-end",
term_zh = "语音前端处理",
aliases_es = { "front-end de voz", "preprocesamiento de voz", "front end de voz" },
aliases_zh = { "语音前端", "音频前端处理", "前端语音处理" },
}
data["frozen language model multimodal"] = {
short = "A multimodal architecture pattern in which a pretrained language model's parameters are kept fixed and visual or audio inputs are injected through trainable adapters, projection layers, or cross-attention, preserving the LM's text capabilities while adding new modalities.",
article = nil,
aliases = { "frozen LM multimodal", "frozen language backbone", "frozen LLM in VLM" },
es = "Patrón arquitectónico multimodal en el que los parámetros de un modelo de lenguaje preentrenado se mantienen fijos y las entradas visuales o de audio se inyectan mediante adaptadores entrenables, capas de proyección o atención cruzada, conservando las capacidades de texto del LM al añadir nuevas modalidades.",
zh = "一种多模态架构范式:保持预训练语言模型的参数冻结,通过可训练的适配器、投影层或交叉注意力将视觉或音频输入注入模型,从而在引入新模态的同时保留语言模型原有的文本能力。",
term_es = "modelo de lenguaje congelado multimodal",
term_zh = "冻结语言模型(多模态)",
aliases_es = { "LM congelado multimodal", "columna vertebral de lenguaje congelada" },
aliases_zh = { "冻结LLM", "冻结语言主干", "冻结语言模型" },
}
data["frozen vision encoder"] = {
short = "A multimodal training setup in which a pretrained vision encoder, typically a ViT or CLIP image tower, is held fixed while only a connector module and possibly the language model are updated, reducing compute and preserving visual representation quality.",
article = nil,
aliases = { "frozen visual encoder", "frozen image encoder", "frozen ViT", "frozen CLIP encoder" },
es = "Configuración de entrenamiento multimodal en la que un codificador de visión preentrenado, típicamente una ViT o la torre de imagen de CLIP, se mantiene fijo mientras solo se actualizan un módulo conector y, opcionalmente, el modelo de lenguaje, reduciendo el cómputo y preservando la calidad de la representación visual.",
zh = "一种多模态训练设置:保持预训练的视觉编码器(通常是ViT或CLIP图像塔)参数冻结,仅更新连接模块以及可能的语言模型,从而降低计算开销并保留视觉表示质量。",
term_es = "codificador visual congelado",
term_zh = "冻结视觉编码器",
aliases_es = { "codificador de imagen congelado", "ViT congelada", "codificador CLIP congelado" },
aliases_zh = { "冻结视觉主干", "冻结图像编码器", "冻结ViT", "冻结CLIP编码器" },
}
data["fréchet audio distance"] = {
short = "A reference-free quality metric for generated audio that fits Gaussian distributions to embeddings (typically VGGish) of generated and reference audio sets and computes the Fréchet distance between them; the audio analogue of FID.",
article = nil,
aliases = { "FAD", "Fréchet Audio Distance", "Frechet Audio Distance", "frechet audio distance" },
es = "Métrica de calidad sin referencia para audio generado que ajusta distribuciones gaussianas a los embeddings (normalmente VGGish) de los conjuntos de audio generado y de referencia, y calcula la distancia de Fréchet entre ambas; análogo en audio del FID.",
zh = "一种无需参考样本的生成音频质量评估指标,对生成音频和参考音频的嵌入(通常为 VGGish)拟合高斯分布并计算二者之间的 Fréchet 距离,相当于音频领域的 FID。",
term_es = "distancia audio de Fréchet",
term_zh = "Fréchet音频距离",
aliases_es = { "FAD", "distancia de Fréchet para audio", "distancia Fréchet audio" },
aliases_zh = { "FAD", "弗雷歇音频距离", "音频Fréchet距离" },
}
data["fsd50k"] = {
short = "FSD50K (Freesound Dataset 50K): an open dataset of about 51,000 audio clips from Freesound annotated with 200 sound classes from the AudioSet ontology, used for general-purpose sound event recognition.",
article = nil,
aliases = { "FSD50K", "Freesound Dataset 50K", "Freesound 50K", "Freesound50K" },
es = "FSD50K (Freesound Dataset 50K): conjunto de datos abierto de unos 51 000 clips de audio de Freesound anotados con 200 clases sonoras de la ontología AudioSet, utilizado para reconocimiento general de eventos sonoros.",
zh = "FSD50K(Freesound Dataset 50K):来自 Freesound 的约 5.1 万段音频开放数据集,依据 AudioSet 本体标注了 200 个声音类别,常用于通用声音事件识别。",
term_es = "FSD50K",
term_zh = "FSD50K",
aliases_es = { "Freesound Dataset 50K", "Freesound 50K" },
aliases_zh = { "FSD50K数据集", "Freesound 50K" },
}
data["fsq tokens"] = {
short = "Discrete audio or visual tokens produced by Finite Scalar Quantization, where each latent dimension is independently rounded to one of a small fixed set of values, yielding compact codebooks without the collapse issues of VQ.",
article = nil,
aliases = { "FSQ tokens", "finite scalar quantization tokens", "FSQ codes", "finite scalar quantisation tokens" },
es = "Tokens discretos de audio o imagen producidos por Cuantización Escalar Finita, donde cada dimensión latente se redondea de forma independiente a uno de un pequeño conjunto fijo de valores, generando libros de códigos compactos sin los problemas de colapso de la VQ.",
zh = "由有限标量量化(FSQ)生成的离散音频或视觉标记,每个潜在维度独立地被映射到一小组固定值之一,可得到紧凑的码本而无需面对 VQ 的码本崩塌问题。",
term_es = "tokens FSQ",
term_zh = "FSQ标记",
aliases_es = { "tokens de cuantización escalar finita", "códigos FSQ" },
aliases_zh = { "FSQ tokens", "有限标量量化标记", "FSQ编码" },
}
data["fst statistic"] = {
short = "A measure of genetic differentiation between populations, defined as the proportion of total genetic variance attributable to between-population differences. Values close to 0 indicate panmixia and values close to 1 indicate strong divergence; widely used in population genetics and selection scans.",
article = nil,
aliases = { "Fst", "FST", "Wright's Fst", "fixation index", "F-statistic Fst" },
es = "Medida de diferenciación genética entre poblaciones, definida como la proporción de la varianza genética total atribuible a diferencias entre poblaciones. Valores cercanos a 0 indican panmixia y valores cercanos a 1 indican una divergencia fuerte; se usa ampliamente en genética de poblaciones y en escaneos de selección.",
zh = "群体间遗传分化的度量,定义为可归因于群体间差异的遗传方差占总遗传方差的比例。接近 0 表示完全混合,接近 1 表示强烈分化;广泛用于群体遗传学和选择扫描分析。",
term_es = "estadístico Fst",
term_zh = "Fst 统计量",
aliases_es = { "Fst", "FST", "Fst de Wright", "índice de fijación" },
aliases_zh = { "Fst", "FST", "固定指数", "Wright 的 Fst", "群体分化指数" },
}
data["full client participation"] = {
short = "A federated learning setting in which every client takes part in every training round, in contrast to partial participation where the server samples a subset of clients per round.",
article = nil,
aliases = { "full participation", "full device participation", "all-clients participation" },
es = "Configuración de aprendizaje federado en la que todos los clientes participan en cada ronda de entrenamiento, en contraste con la participación parcial en la que el servidor muestrea un subconjunto de clientes por ronda.",
zh = "联邦学习中的一种设置:每一轮训练所有客户端均参与,与每轮服务器仅抽样部分客户端的部分参与方式相对。",
term_es = "participación total de clientes",
term_zh = "全客户端参与",
aliases_es = { "participación completa", "participación total", "participación de todos los clientes" },
aliases_zh = { "完全客户端参与", "全部客户端参与", "全设备参与" },
}
data["full fine-tuning"] = {
short = "A fine-tuning regime in which all parameters of a pretrained model are updated on the downstream task, in contrast to parameter-efficient methods that update only a small subset.",
article = nil,
aliases = { "full finetuning", "full fine tuning", "full-parameter fine-tuning", "full FT", "FFT" },
es = "Régimen de ajuste fino en el que se actualizan todos los parámetros de un modelo preentrenado para la tarea posterior, en contraste con los métodos eficientes en parámetros que actualizan solo un subconjunto reducido.",
zh = "一种微调方式,对预训练模型的所有参数在下游任务上进行更新;与仅更新少量参数的参数高效方法相对。",
term_es = "ajuste fino completo",
term_zh = "全量微调",
aliases_es = { "fine-tuning completo", "ajuste fino de todos los parámetros", "FFT" },
aliases_zh = { "全参数微调", "完整微调", "full fine-tuning" },
}
data["full-covariance posterior"] = {
short = "A variational or Laplace approximation in which the posterior over weights is a Gaussian with an unrestricted covariance matrix, capturing all pairwise correlations between parameters at the cost of O(d^2) storage.",
article = nil,
aliases = { "full covariance posterior", "full-covariance Gaussian posterior", "dense covariance posterior" },
es = "Aproximación variacional o de Laplace en la que la posterior sobre los pesos es una gaussiana con matriz de covarianza sin restricciones, capturando todas las correlaciones entre parámetros a costa de un almacenamiento O(d^2).",
zh = "权重后验为协方差矩阵无任何结构限制的高斯分布的变分或拉普拉斯近似,能捕捉参数间所有两两相关性,代价是O(d²)的存储开销。",
term_es = "posterior de covarianza completa",
term_zh = "全协方差后验",
aliases_es = { "posterior gaussiana de covarianza completa", "posterior con covarianza densa" },
aliases_zh = { "全协方差高斯后验", "稠密协方差后验" },
}
data["fullgrad"] = {
short = "A saliency method that aggregates the input gradient and bias-gradient terms across all layers to produce a complete, locally faithful attribution map for a neural network.",
article = nil,
aliases = { "FullGrad", "full-gradient saliency", "full gradient" },
es = "Método de saliencia que agrega los términos del gradiente respecto a la entrada y a los sesgos a través de todas las capas para producir un mapa de atribución completo y localmente fiel para una red neuronal.",
zh = "一种显著性方法,将所有层中关于输入和偏置的梯度项聚合起来,为神经网络生成完整且局部忠实的归因图。",
term_es = "FullGrad",
term_zh = "FullGrad",
aliases_es = { "saliencia de gradiente completo", "gradiente completo" },
aliases_zh = { "完整梯度显著性", "完整梯度" },
}
data["fullsubnet"] = {
short = "A hybrid full-band and sub-band fusion neural network for single-channel speech enhancement that jointly models global spectral context and local sub-band detail, achieving strong noise suppression performance.",
article = nil,
aliases = { "FullSubNet", "Full-SubNet", "Full SubNet" },
es = "Red neuronal híbrida de fusión de banda completa y subbandas para mejora de voz monocanal que modela conjuntamente el contexto espectral global y el detalle local de subbanda, logrando un fuerte rendimiento en supresión de ruido.",
zh = "一种用于单通道语音增强的全带与子带融合混合神经网络,同时建模全局频谱上下文与局部子带细节,在降噪任务上表现优异。",
term_es = "FullSubNet",
term_zh = "FullSubNet",
aliases_es = { "Full-SubNet" },
aliases_zh = { "FullSubNet", "全带子带融合网络" },
}
data["fully bayesian gp"] = {
short = "A Gaussian process treatment in which kernel hyperparameters are also given priors and integrated out via MCMC or nested sampling, rather than fixed at maximum-marginal-likelihood values.",
article = nil,
aliases = { "fully Bayesian Gaussian process", "fully Bayesian GP", "MCMC GP", "marginalised GP hyperparameters" },
es = "Tratamiento de un proceso gaussiano en el que los hiperparámetros del kernel también reciben prioris y se integran mediante MCMC o muestreo anidado, en lugar de fijarse al valor de máxima verosimilitud marginal.",
zh = "对高斯过程的完全贝叶斯处理,将核函数超参数也视为带先验的随机变量,通过MCMC或嵌套采样将其积分掉,而非固定为最大边缘似然估计。",
term_es = "GP totalmente bayesiano",
term_zh = "完全贝叶斯高斯过程",
aliases_es = { "proceso gaussiano totalmente bayesiano", "GP con MCMC sobre hiperparámetros" },
aliases_zh = { "全贝叶斯GP", "超参数边缘化的GP" },
}
data["fully connected crf"] = {
short = "A conditional random field whose pairwise potentials connect every pair of variables, often used in semantic image segmentation and made tractable by mean-field inference with Gaussian edge potentials.",
article = nil,
aliases = { "dense CRF", "fully-connected CRF", "DenseCRF", "fully connected conditional random field" },
es = "Campo aleatorio condicional cuyos potenciales por pares conectan todos los pares de variables; se utiliza con frecuencia en segmentación semántica de imágenes y se vuelve tratable mediante inferencia por campo medio con potenciales de borde gaussianos.",
zh = "成对势函数连接每一对变量的条件随机场,常用于图像语义分割,通常借助具有高斯边势的均场推断来实现高效推理。",
term_es = "CRF totalmente conectado",
term_zh = "全连接条件随机场",
aliases_es = { "CRF denso", "campo aleatorio condicional totalmente conectado", "DenseCRF" },
aliases_zh = { "全连接 CRF", "稠密 CRF", "DenseCRF", "全连接条件随机场" },
}
data["fully homomorphic encryption"] = {
short = "An encryption scheme that supports arbitrary computation directly on ciphertexts so that decrypting the result yields the same value as performing the computation on the plaintexts. Used in privacy-preserving and federated learning protocols.",
article = nil,
aliases = { "FHE", "fully-homomorphic encryption", "homomorphic encryption (fully)" },
es = "Esquema de cifrado que permite realizar computación arbitraria directamente sobre los textos cifrados, de modo que al descifrar el resultado se obtiene el mismo valor que si la operación se hubiera hecho sobre los textos en claro. Se utiliza en protocolos de aprendizaje federado y preservación de privacidad.",
zh = "一种加密方案,支持直接在密文上进行任意计算,解密后所得结果与在明文上执行相同运算的结果一致。常用于隐私保护与联邦学习协议。",
term_es = "cifrado totalmente homomórfico",
term_zh = "全同态加密",
aliases_es = { "FHE", "cifrado completamente homomórfico", "encriptación totalmente homomórfica" },
aliases_zh = { "FHE", "完全同态加密", "全同态加密方案" },
}
data["fully sharded data parallel"] = {
short = "A PyTorch native data-parallel training strategy that shards a model's parameters, gradients and optimizer states across ranks (analogous to ZeRO Stage 3), all-gathering full parameters only when each layer is needed for the forward or backward pass.",
article = nil,
aliases = { "FSDP", "Fully Sharded Data Parallel", "torch.distributed.fsdp", "PyTorch FSDP" },
es = "Estrategia de paralelismo de datos nativa de PyTorch que distribuye los parámetros, gradientes y estados del optimizador del modelo entre los rangos (análoga a ZeRO Etapa 3), reuniendo (all-gather) los parámetros completos solo cuando cada capa los necesita en el paso hacia adelante o hacia atrás.",
zh = "PyTorch 原生的数据并行训练策略:将模型的参数、梯度和优化器状态切分到各进程(类似 ZeRO Stage 3),仅在每一层前向或反向传播需要时再 all-gather 完整参数。",
term_es = "FSDP",
term_zh = "FSDP",
aliases_es = { "Fully Sharded Data Parallel", "paralelismo de datos totalmente fragmentado" },
aliases_zh = { "完全分片数据并行", "全分片数据并行", "PyTorch FSDP" },
}
data["function calling"] = {
short = "A capability provided by LLM APIs whereby the model emits a structured JSON object naming a function and its arguments according to a developer-supplied schema, allowing programmatic dispatch to backend code.",
article = nil,
aliases = { "Function Calling", "function-calling", "function call", "FC", "tool calling" },
es = "Capacidad ofrecida por las APIs de LLM en la que el modelo emite un objeto JSON estructurado con el nombre de una función y sus argumentos según un esquema definido por el desarrollador, permitiendo despachar a código de backend.",
zh = "LLM API 提供的一种能力,模型按照开发者定义的模式输出结构化的 JSON 对象,给出函数名及其参数,供后端代码以编程方式分发执行。",
term_es = "function calling",
term_zh = "函数调用",
aliases_es = { "function calling", "function-calling", "llamada a funciones", "invocación de funciones" },
aliases_zh = { "function calling", "FC", "函数调用能力", "函数调用接口" },
}
data["function sample"] = {
short = "A draw from a stochastic process or Bayesian predictive distribution evaluated at a finite set of inputs, representing one plausible function under the model. Used for visualising posterior uncertainty in BNNs and GPs.",
article = nil,
aliases = { "posterior function sample", "function-space sample", "sampled function", "predictive function sample" },
es = "Realización de un proceso estocástico o de la distribución predictiva bayesiana evaluada en un conjunto finito de entradas, que representa una función plausible bajo el modelo. Se usa para visualizar la incertidumbre posterior en BNN y GP.",
zh = "在有限输入点上对随机过程或贝叶斯预测分布的一次抽样,代表模型下一种可能的函数实现,常用于可视化BNN和GP的后验不确定性。",
term_es = "muestra de función",
term_zh = "函数样本",
aliases_es = { "muestra de función posterior", "muestra en el espacio de funciones", "función muestreada" },
aliases_zh = { "后验函数样本", "函数空间样本", "采样函数" },
}
data["function vector"] = {
short = "A direction in a transformer's hidden activation space, extracted from in-context learning examples, that encodes a specific input-output function and can be added to activations to elicit that behavior.",
article = nil,
aliases = { "function vectors", "FV", "task vector" },
es = "Dirección en el espacio de activaciones ocultas de un transformer, extraída de ejemplos de aprendizaje en contexto, que codifica una función específica entrada-salida y puede añadirse a las activaciones para inducir ese comportamiento.",
zh = "从上下文学习示例中提取的 Transformer 隐藏激活空间中的一个方向,编码特定的输入-输出函数,可加到激活上以诱导该行为。",
term_es = "vector de función",
term_zh = "函数向量",
aliases_es = { "FV", "vector de tarea" },
aliases_zh = { "FV", "任务向量" },
}
data["functional bnn"] = {
short = "A Bayesian neural network whose prior, posterior, and inference objective are formulated directly over the space of functions f(x) rather than over weights, sidestepping over-parameterisation symmetries and enabling meaningful function-space priors.",
article = nil,
aliases = { "functional BNN", "function-space BNN", "functional Bayesian neural network", "function-space Bayesian neural network" },
es = "Red neuronal bayesiana cuyo priori, posterior y objetivo de inferencia se formulan directamente sobre el espacio de funciones f(x) en lugar de sobre los pesos, evitando las simetrías de la sobreparametrización y permitiendo priors significativos en el espacio de funciones.",
zh = "在函数空间f(x)而非权重空间上定义先验、后验和推断目标的贝叶斯神经网络,可绕开过参数化引入的对称性问题,并允许指定有实际意义的函数空间先验。",
term_es = "BNN funcional",
term_zh = "函数式贝叶斯神经网络",
aliases_es = { "BNN en espacio de funciones", "red neuronal bayesiana funcional" },
aliases_zh = { "函数空间BNN", "functional BNN" },
}
data["functional causal model"] = {
short = "A causal model in which each variable is written as a deterministic function of its causal parents and an independent exogenous noise term, providing a structural account of interventions and counterfactuals.",
article = nil,
aliases = { "structural causal model", "SCM", "structural equation model (causal)", "non-parametric structural equation model" },
es = "Modelo causal en el que cada variable se expresa como una función determinista de sus padres causales y de un término de ruido exógeno independiente, proporcionando una descripción estructural de las intervenciones y los contrafactuales.",
zh = "一种因果模型,将每个变量表示为其因果父节点与独立外生噪声项的确定性函数,为干预与反事实推理提供结构化描述。",
term_es = "modelo causal funcional",
term_zh = "函数式因果模型",
aliases_es = { "modelo causal estructural", "SCM", "modelo de ecuaciones estructurales causal" },
aliases_zh = { "函数式因果模型", "结构因果模型", "SCM" },
}
data["functional encryption"] = {
short = "A public-key encryption paradigm in which decryption keys are bound to a function f, so that decrypting a ciphertext of x with the key for f reveals only the value f(x) and nothing else about x.",
article = nil,
aliases = { "FE", "functional encryption scheme" },
es = "Paradigma de cifrado de clave pública en el que las claves de descifrado están ligadas a una función f, de modo que al descifrar un texto cifrado de x con la clave correspondiente a f sólo se revela f(x) y nada más sobre x.",
zh = "一种公钥加密范式,解密密钥与函数 f 绑定,使用 f 对应的密钥对 x 的密文进行解密,仅会得到 f(x) 的值,而不泄露关于 x 的其他信息。",
term_es = "cifrado funcional",
term_zh = "函数加密",
aliases_es = { "FE", "esquema de cifrado funcional", "encriptación funcional" },
aliases_zh = { "FE", "功能加密", "函数式加密" },
}
data["functional enrichment"] = {
short = "Statistical testing of whether a set of genes (e.g. differentially expressed, in a CRISPR hit list) is over-represented in predefined functional categories such as GO terms, KEGG/Reactome pathways, or transcription-factor target sets. Implemented in tools like clusterProfiler, GSEA, Enrichr, and DAVID.",
article = nil,
aliases = { "functional enrichment analysis", "pathway enrichment", "GO enrichment", "gene set enrichment", "enrichment analysis" },
es = "Prueba estadística de si un conjunto de genes (por ejemplo, diferencialmente expresados o procedentes de una lista de aciertos CRISPR) está sobre-representado en categorías funcionales predefinidas como términos GO, rutas KEGG/Reactome o conjuntos de dianas de factores de transcripción. Está implementada en herramientas como clusterProfiler, GSEA, Enrichr y DAVID.",
zh = "对一组基因(例如差异表达基因或 CRISPR 命中列表)在 GO 条目、KEGG/Reactome 通路或转录因子靶基因集等预定义功能类别中是否过表示进行统计检验,常见实现包括 clusterProfiler、GSEA、Enrichr 和 DAVID 等工具。",
term_es = "enriquecimiento funcional",
term_zh = "功能富集",
aliases_es = { "análisis de enriquecimiento funcional", "enriquecimiento de rutas", "enriquecimiento GO", "análisis de enriquecimiento de conjuntos de genes" },
aliases_zh = { "功能富集分析", "通路富集", "GO 富集", "基因集富集分析", "富集分析" },
}
data["functional prior"] = {
short = "A prior distribution placed on the function realised by a model — e.g. a Gaussian-process prior or a prior elicited via samples on a reference dataset — rather than on the weights of the underlying parametric model.",
article = nil,
aliases = { "function-space prior", "prior over functions", "GP-style prior", "function prior" },
es = "Distribución a priori definida sobre la función realizada por un modelo —por ejemplo, un priori de proceso gaussiano o uno elicitado mediante muestras en un conjunto de datos de referencia— en lugar de sobre los pesos del modelo paramétrico subyacente.",
zh = "对模型所实现的函数本身施加的先验分布,例如高斯过程先验或在参考数据集上通过采样诱导的先验,而非对底层参数模型权重的先验。",
term_es = "priori funcional",
term_zh = "函数式先验",
aliases_es = { "priori en el espacio de funciones", "priori sobre funciones" },
aliases_zh = { "函数空间先验", "函数先验" },
}
data["functional protein design"] = {
short = "The design of protein sequences and structures intended to perform a defined biochemical function such as binding, catalysis, or signaling, in contrast to designing only for fold stability or for backbone diversity.",
article = nil,
aliases = { "functional design of proteins", "function-conditioned protein design", "function-guided protein design" },
es = "Diseño de secuencias y estructuras proteicas con el objetivo de desempeñar una función bioquímica definida como unión, catálisis o señalización, en contraste con el diseño orientado únicamente a la estabilidad del plegamiento o a la diversidad del esqueleto.",
zh = "面向特定生化功能(如结合、催化或信号转导)的蛋白质序列和结构设计,与仅追求折叠稳定性或骨架多样性的设计相对。",
term_es = "diseño funcional de proteínas",
term_zh = "功能性蛋白质设计",
aliases_es = { "diseño de proteínas funcionales", "diseño de proteínas condicionado por función" },
aliases_zh = { "功能蛋白设计", "功能导向的蛋白质设计", "功能条件蛋白质设计" },
}
data["functional regularization"] = {
short = "Regularization expressed as a divergence between predictive distributions on a set of reference inputs, rather than as a penalty on weights. Used to mitigate forgetting in continual learning and to enforce function-space priors in BNNs.",
article = nil,
aliases = { "functional regularisation", "function-space regularization", "function-space regularisation", "predictive-distribution regularization" },
es = "Regularización expresada como una divergencia entre distribuciones predictivas en un conjunto de entradas de referencia, en lugar de una penalización sobre los pesos. Se usa para mitigar el olvido en aprendizaje continuo y para imponer priors funcionales en BNN.",
zh = "以参考输入集上预测分布之间的散度作为正则项,而非对权重施加惩罚的一种正则化方法,常用于缓解持续学习中的遗忘以及在BNN中施加函数空间先验。",
term_es = "regularización funcional",
term_zh = "函数式正则化",
aliases_es = { "regularización en el espacio de funciones", "regularización de la distribución predictiva" },
aliases_zh = { "函数空间正则化", "预测分布正则化" },
}
data["functional variational inference"] = {
short = "Variational inference performed in the space of functions: the variational family approximates a stochastic process and the KL divergence to a function-space prior is estimated on a finite measurement set. Avoids weight-space symmetries.",
article = nil,
aliases = { "fVI", "function-space variational inference", "FVI", "functional VI" },
es = "Inferencia variacional realizada en el espacio de funciones: la familia variacional aproxima un proceso estocástico y la divergencia KL respecto a un priori funcional se estima en un conjunto finito de mediciones. Evita las simetrías del espacio de pesos.",
zh = "在函数空间上进行的变分推断:变分族近似一个随机过程,并在有限测量集上估计与函数空间先验之间的KL散度,从而避免权重空间的对称性问题。",
term_es = "inferencia variacional funcional",
term_zh = "函数式变分推断",
aliases_es = { "fVI", "inferencia variacional en espacio de funciones" },
aliases_zh = { "函数空间变分推断", "fVI", "FVI" },
}
data["fundamental frequency"] = {
short = "The lowest periodic frequency of a quasi-periodic signal, denoted F0; in voiced speech it corresponds to the rate of vocal fold vibration and is perceived as pitch.",
article = nil,
aliases = { "F0", "f0", "pitch frequency", "fundamental tone", "F_0" },
es = "Frecuencia periódica más baja de una señal cuasi-periódica, denotada F0; en el habla sonora corresponde a la tasa de vibración de las cuerdas vocales y se percibe como tono.",
zh = "准周期信号最低的周期性频率,记作 F0;在浊音语音中对应声带振动的频率,听感上即为音高。",
term_es = "frecuencia fundamental",
term_zh = "基频",
aliases_es = { "F0", "tono fundamental", "frecuencia de tono" },
aliases_zh = { "F0", "基本频率", "基音频率" },
}
data["fusion move"] = {
short = "A discrete optimization move that combines a current labeling with a proposal labeling by solving a binary graph-cut problem that, at each pixel or node, chooses between the two candidate labels.",
article = nil,
aliases = { "fusion moves", "fusion-move algorithm" },
es = "Movimiento de optimización discreta que combina una etiquetación actual con una etiquetación propuesta resolviendo un problema binario de corte de grafo que, en cada píxel o nodo, elige entre las dos etiquetas candidatas.",
zh = "一种离散优化移动,通过求解一个二值图割问题,在每个像素或节点上从当前标号与候选标号之间二选一,从而将两种标号融合。",
term_es = "movimiento de fusión",
term_zh = "融合移动",
aliases_es = { "movimiento de fusión", "movimientos de fusión" },
aliases_zh = { "融合移动", "融合移动算法" },
}
data["fuyu"] = {
short = "A family of decoder-only multimodal models from Adept (Fuyu-8B) that processes images by linearly projecting raw image patches into the language model's embedding space, eliminating the need for a separate vision encoder.",
article = nil,
aliases = { "Fuyu", "Fuyu-8B", "Adept Fuyu" },
es = "Familia de modelos multimodales solo decodificadores de Adept (Fuyu-8B) que procesa imágenes proyectando linealmente los parches de imagen al espacio de embeddings del modelo de lenguaje, eliminando la necesidad de un codificador visual separado.",
zh = "Adept 推出的仅解码器多模态模型系列(Fuyu-8B),通过将原始图像分块线性投影到语言模型的嵌入空间来处理图像,无需独立的视觉编码器。",
term_es = "Fuyu",
term_zh = "Fuyu",
aliases_es = { "Fuyu-8B", "Fuyu de Adept" },
aliases_zh = { "Fuyu-8B", "Adept Fuyu" },
}
data["fuzzy logic"] = {
short = "A many-valued logic in which truth values range continuously over the interval [0,1] rather than being restricted to true and false, used to model degrees of membership and approximate reasoning under vagueness.",
article = nil,
aliases = { "fuzzy reasoning", "fuzzy set logic", "Zadeh logic", "many-valued logic" },
es = "Una lógica multivaluada en la que los valores de verdad varían de forma continua en el intervalo [0,1], en lugar de restringirse a verdadero y falso, utilizada para modelar grados de pertenencia y razonamiento aproximado en presencia de vaguedad.",
zh = "一种多值逻辑,其真值在区间 [0,1] 上连续取值,而不局限于真和假,用于在模糊性下建模隶属度与近似推理。",
term_es = "lógica difusa",
term_zh = "模糊逻辑",
aliases_es = { "lógica borrosa", "lógica de Zadeh", "razonamiento difuso" },
aliases_zh = { "模糊推理", "Zadeh 逻辑", "多值逻辑" },
}
data["fuzzy regression discontinuity"] = {
short = "A regression discontinuity design in which crossing the cutoff changes the probability of treatment by less than one, identifying a local average treatment effect for compliers via instrumental variables.",
article = nil,
aliases = { "fuzzy RD", "fuzzy RDD", "fuzzy regression discontinuity design" },
es = "Diseño de regresión discontinua en el que cruzar el umbral cambia la probabilidad de tratamiento en menos de uno, identificando un efecto promedio local del tratamiento para los cumplidores mediante variables instrumentales.",
zh = "一种断点回归设计,跨过阈值会使接受处理的概率发生小于 1 的变化,通过工具变量识别遵从者的局部平均处理效应。",
term_es = "regresión discontinua difusa",
term_zh = "模糊断点回归",
aliases_es = { "RD difusa", "RDD difusa" },
aliases_zh = { "模糊 RD", "模糊断点回归设计" },
}
data["g-computation"] = {
short = "A causal inference method that estimates the marginal effect of a treatment by fitting an outcome model conditional on treatment and confounders, then averaging predicted outcomes under hypothetical treatment regimes.",
article = nil,
aliases = { "g computation", "g-formula", "standardization", "parametric g-formula" },
es = "Método de inferencia causal que estima el efecto marginal de un tratamiento ajustando un modelo de resultado condicional al tratamiento y a los confusores, y promediando luego los resultados predichos bajo regímenes hipotéticos de tratamiento.",
zh = "一种因果推断方法,通过拟合以处理与混杂因子为条件的结果模型,再在假设的处理方案下对预测结果取平均,来估计处理的边际效应。",
term_es = "g-computación",
term_zh = "g-计算",
aliases_es = { "estandarización", "fórmula g paramétrica" },
aliases_zh = { "g-formula", "标准化方法" },
}
data["g-estimation"] = {
short = "A semiparametric method from Robins's g-methods that fits structural nested models for the effect of time-varying treatments, using estimating equations that exploit conditional independence under no unmeasured confounding.",
article = nil,
aliases = { "g estimation", "structural nested model estimation", "g-estimation of SNMs" },
es = "Método semiparamétrico de los g-métodos de Robins que ajusta modelos estructurales anidados para el efecto de tratamientos variables en el tiempo, usando ecuaciones de estimación que explotan la independencia condicional bajo el supuesto de ausencia de confusión no medida.",
zh = "Robins 的 g-方法中的一种半参数方法,通过结构嵌套模型拟合随时间变化的处理效应,在无未观测混杂的假设下利用条件独立性的估计方程。",
term_es = "g-estimación",
term_zh = "g-估计",
aliases_es = { "estimación de modelos estructurales anidados" },
aliases_zh = { "g 估计", "结构嵌套模型估计" },
}
data["g-formula"] = {
short = "Robins's generalized formula for the distribution of potential outcomes under a treatment regime, expressed as an iterated expectation over time-varying confounders; the basis for g-computation.",
article = nil,
aliases = { "g formula", "Robins g-formula", "generalized formula", "g-computation formula" },
es = "Fórmula generalizada de Robins para la distribución de los resultados potenciales bajo un régimen de tratamiento, expresada como una esperanza iterada sobre confusores variables en el tiempo; base de la g-computación.",
zh = "Robins 提出的广义公式,用于刻画在某一处理方案下潜在结果的分布,表示为对时变混杂因子的迭代期望,是 g-计算的基础。",
term_es = "fórmula g",
term_zh = "g-公式",
aliases_es = { "fórmula generalizada", "fórmula g de Robins" },
aliases_zh = { "g 公式", "Robins g-公式" },
}
data["g-method"] = {
short = "A family of causal inference methods developed by James Robins for time-varying exposures and treatment-confounder feedback, including the g-formula, g-estimation of structural nested models, and inverse probability weighting of marginal structural models.",
article = nil,
aliases = { "g methods", "g-methods", "Robins g-methods" },
es = "Familia de métodos de inferencia causal desarrollados por James Robins para exposiciones variables en el tiempo y retroalimentación tratamiento-confusor, que incluye la fórmula g, la g-estimación de modelos estructurales anidados y la ponderación por probabilidad inversa en modelos estructurales marginales.",
zh = "James Robins 提出的一类因果推断方法,用于处理时变暴露与处理—混杂反馈,包括 g-公式、结构嵌套模型的 g-估计以及边缘结构模型的逆概率加权。",
term_es = "método g",
term_zh = "g-方法",
aliases_es = { "g-métodos", "métodos g de Robins" },
aliases_zh = { "g 方法", "Robins g-方法" },
}
data["ga2m"] = {
short = "Generalized Additive Model plus pairwise Interactions: an interpretable model that sums per-feature shape functions and a small number of selected pairwise interaction terms.",
article = nil,
aliases = { "GA2M", "GAM with interactions", "GA²M", "generalized additive model with pairwise interactions" },
es = "Modelo aditivo generalizado más interacciones por pares: un modelo interpretable que suma funciones de forma por característica y un pequeño número de términos de interacción por pares seleccionados.",
zh = "广义可加模型加成对交互项:一种可解释模型,对每个特征的形状函数求和,并加入少量经过选择的成对交互项。",
term_es = "GA2M",
term_zh = "GA2M",
aliases_es = { "GAM con interacciones", "modelo aditivo con interacciones por pares" },
aliases_zh = { "带成对交互的 GAM", "广义可加交互模型" },
}
data["galactica"] = {
short = "A 120B-parameter language model from Meta trained on scientific papers, code, and reference material; released in 2022 and quickly withdrawn after it produced confidently wrong scientific text.",
article = nil,
aliases = { "Galactica", "Galactica LLM", "Meta Galactica" },
es = "Modelo de lenguaje de 120 mil millones de parámetros de Meta entrenado en artículos científicos, código y material de referencia; lanzado en 2022 y retirado poco después por generar texto científico erróneo con tono seguro.",
zh = "Meta 推出的约 1200 亿参数语言模型,基于科学论文、代码和参考资料训练;于 2022 年发布,因生成自信但错误的科学文本而很快被撤回。",
term_es = "Galactica",
term_zh = "Galactica",
aliases_es = { "Galactica de Meta" },
aliases_zh = { "Meta Galactica" },
}
data["galactica chemistry"] = {
short = "The chemistry-and-biology subset of Meta's Galactica large language model, pretrained on scientific text augmented with SMILES, IUPAC names, protein sequences and reaction equations to perform tasks such as property prediction and reaction completion.",
article = nil,
aliases = { "Galactica chemistry", "Galactica for chemistry", "Galactica molecular" },
es = "Subconjunto de química y biología del gran modelo de lenguaje Galactica de Meta, preentrenado en texto científico ampliado con SMILES, nombres IUPAC, secuencias de proteínas y ecuaciones de reacciones para realizar tareas como predicción de propiedades y completado de reacciones.",
zh = "Meta公司Galactica大型语言模型在化学与生物方向的子集,预训练语料在科学文本之外加入了SMILES、IUPAC命名、蛋白质序列和反应方程式,可执行性质预测、反应补全等任务。",
term_es = "Galactica química",
term_zh = "Galactica化学",
aliases_es = { "Galactica para química", "Galactica molecular" },
aliases_zh = { "Galactica化学", "化学Galactica", "Galactica分子" },
}
data["gamma distribution"] = {
short = "A continuous distribution on the positive reals with density p(x) ∝ x^(k−1) e^(−x/θ) (shape k, scale θ), or equivalently shape α and rate β. It is the conjugate prior of the precision (inverse variance) of a Gaussian with known mean and of the Poisson rate parameter.",
article = nil,
aliases = { "Gamma", "Gamma(α,β)", "Gamma(k,θ)", "Gamma distribution" },
es = "Distribución continua sobre los reales positivos con densidad p(x) ∝ x^(k−1) e^(−x/θ) (forma k, escala θ), o equivalentemente forma α y tasa β. Es la prior conjugada de la precisión (inversa de la varianza) de una gaussiana con media conocida y del parámetro de tasa de Poisson.",
zh = "定义在正实数上的连续分布,密度为 p(x) ∝ x^(k−1) e^(−x/θ)(形状 k、尺度 θ),或等价地形状 α、率 β。它是已知均值高斯分布的精度(方差倒数)以及 Poisson 率参数的共轭先验。",
term_es = "distribución Gamma",
term_zh = "Gamma 分布",
aliases_es = { "Gamma", "Gamma(α,β)", "Gamma(k,θ)" },
aliases_zh = { "伽玛分布", "Gamma", "Gamma(α,β)", "Gamma(k,θ)" },
}
data["gamma process"] = {
short = "A Lévy process with independent gamma-distributed increments, widely used as a prior in Bayesian nonparametrics, including as the underlying random measure for the Dirichlet process.",
article = nil,
aliases = { "Gamma process", "Γ process", "completely random gamma measure" },
es = "Proceso de Lévy con incrementos independientes distribuidos según una gamma, ampliamente utilizado como distribución a priori en estadística bayesiana no paramétrica, incluyendo su papel como medida aleatoria subyacente al proceso de Dirichlet.",
zh = "具有独立伽马分布增量的莱维过程,被广泛用作贝叶斯非参数模型中的先验,并构成狄利克雷过程所依赖的随机测度。",
term_es = "proceso gamma",
term_zh = "伽马过程",
aliases_es = { "proceso Gamma", "proceso Γ" },
aliases_zh = { "伽马过程", "Gamma 过程", "Γ 过程" },
}
data["gammatone filterbank"] = {
short = "A bank of band-pass filters whose impulse responses follow the gammatone function, modeling the frequency selectivity of the human cochlea; widely used as a biologically motivated alternative to mel filterbanks.",
article = nil,
aliases = { "gammatone filter bank", "gammatone filter-bank", "gammatone features", "gammatone filters" },
es = "Banco de filtros pasa-banda cuyas respuestas al impulso siguen la función gammatone, modelando la selectividad en frecuencia de la cóclea humana; muy utilizado como alternativa biológicamente motivada al banco de filtros mel.",
zh = "一组带通滤波器,其冲激响应服从 gammatone 函数,用以模拟人耳耳蜗的频率选择特性,是相对于梅尔滤波器组在生物学上更具动机的替代方案。",
term_es = "banco de filtros gammatone",
term_zh = "gammatone滤波器组",
aliases_es = { "filtros gammatone", "filterbank gammatone" },
aliases_zh = { "伽马通滤波器组", "Gammatone滤波器组", "gammatone滤波器" },
}
data["ganite"] = {
short = "Generative Adversarial Nets for Inference of Treatment Effects, a deep learning model that uses GANs to impute counterfactual outcomes and estimate individualized treatment effects from observational data.",
article = nil,
aliases = { "GANITE", "Generative Adversarial Nets for ITE" },
es = "Generative Adversarial Nets for Inference of Treatment Effects, un modelo de aprendizaje profundo que usa GAN para imputar resultados contrafactuales y estimar efectos de tratamiento individualizados a partir de datos observacionales.",
zh = "GANITE,即用于推断处理效应的生成对抗网络,通过 GAN 在观测数据上插补反事实结果,从而估计个体化处理效应。",
term_es = "GANITE",
term_zh = "GANITE",
aliases_es = { "GAN para efectos de tratamiento individuales" },
aliases_zh = { "用于处理效应推断的生成对抗网络" },
}
data["gansynth"] = {
short = "A GAN-based audio synthesis model from Google Magenta that generates high-fidelity musical instrument tones by predicting log-magnitude and instantaneous frequency spectrograms in parallel.",
article = nil,
aliases = { "GANSynth", "GAN Synth", "GAN-Synth" },
es = "Modelo de síntesis de audio basado en GAN de Google Magenta que genera tonos de instrumentos musicales de alta fidelidad prediciendo en paralelo espectrogramas de magnitud logarítmica y frecuencia instantánea.",
zh = "Google Magenta 提出的基于 GAN 的音频合成模型,通过并行预测对数幅度谱与瞬时频率谱来生成高保真的乐器音色。",
term_es = "GANSynth",
term_zh = "GANSynth",
aliases_es = { "GAN Synth" },
aliases_zh = { "GANSynth", "GAN-Synth" },
}
data["garbled circuits"] = {
short = "A cryptographic primitive due to Yao for secure two-party computation in which one party encrypts (\"garbles\") a Boolean circuit with random wire labels and the other obliviously evaluates it without learning intermediate values.",
article = nil,
aliases = { "garbled circuit", "Yao's garbled circuits", "Yao's protocol", "GC" },
es = "Primitiva criptográfica debida a Yao para computación segura entre dos partes, en la que una parte cifra (\"ofusca\") un circuito booleano con etiquetas aleatorias en los cables y la otra lo evalúa de forma oblivia sin aprender los valores intermedios.",
zh = "由姚期智提出的安全两方计算密码学原语:一方使用随机线标签对布尔电路进行\"乱码\"加密,另一方在不获得中间值的情况下进行盲求值。",
term_es = "circuitos ofuscados",
term_zh = "混淆电路",
aliases_es = { "circuito ofuscado", "circuitos confusos de Yao", "protocolo de Yao", "GC" },
aliases_zh = { "Yao 混淆电路", "姚氏混淆电路", "乱码电路", "GC" },
}
data["gated cross-attention"] = {
short = "A cross-attention layer whose output is multiplied by a learned gate (often initialized to zero with a tanh) so that visual or auxiliary information is injected gradually into a frozen language model. Introduced in Flamingo.",
article = nil,
aliases = { "tanh-gated cross-attention", "gated xattn-dense", "Flamingo gated cross-attention" },
es = "Capa de atención cruzada cuya salida se multiplica por una compuerta aprendida (frecuentemente inicializada en cero con una tanh) para inyectar gradualmente información visual o auxiliar en un modelo de lenguaje congelado. Introducida en Flamingo.",
zh = "一种交叉注意力层,其输出乘以可学习的门控(通常用 tanh 并初始化为零),从而将视觉或辅助信息逐步注入冻结的语言模型。由 Flamingo 提出。",
term_es = "atención cruzada con compuerta",
term_zh = "门控交叉注意力",
aliases_es = { "atención cruzada gated", "gated cross-attention" },
aliases_zh = { "tanh 门控交叉注意力", "Flamingo 门控交叉注意力" },
}
data["gated recurrent unit"] = {
short = "A recurrent neural network unit that uses reset and update gates to control information flow, achieving capabilities similar to LSTM with fewer parameters.",
article = nil,
aliases = { "GRU", "GRU cell", "GRU unit", "gated recurrent network" },
es = "Unidad de red neuronal recurrente que utiliza compuertas de reinicio y de actualización para controlar el flujo de información, logrando capacidades similares a las LSTM con menos parámetros.",
zh = "一种循环神经网络单元,通过重置门与更新门控制信息流动,以更少的参数实现与 LSTM 相近的能力。",
term_es = "unidad recurrente con compuertas",
term_zh = "门控循环单元",
aliases_es = { "GRU", "unidad GRU" },
aliases_zh = { "GRU", "门控循环网络" },
}
data["gated sae"] = {
short = "A sparse autoencoder variant that uses a separate gating mechanism to decide which features fire and a magnitude branch to set their values, decoupling sparsity selection from value estimation.",
article = nil,
aliases = { "Gated SAE", "gated sparse autoencoder" },
es = "Variante de autoencoder disperso que usa un mecanismo de compuerta separado para decidir qué características se activan y una rama de magnitud para fijar sus valores, desacoplando la selección de esparcidad de la estimación del valor.",
zh = "一种稀疏自编码器变体,使用独立的门控机制决定哪些特征激活,并通过幅度分支设置其取值,从而将稀疏性选择与数值估计解耦。",
term_es = "SAE con compuerta",
term_zh = "门控 SAE",
aliases_es = { "autoencoder disperso con compuerta" },
aliases_zh = { "门控稀疏自编码器" },
}
data["gather operation"] = {
short = "A collective communication primitive that collects tensors from every worker into a single root rank; the dual of scatter and a building block of all-gather.",
article = nil,
aliases = { "gather", "gather collective", "gather primitive", "MPI_Gather" },
es = "Primitiva de comunicación colectiva que reúne tensores de todos los procesos en un único rango raíz; es la operación dual de scatter y bloque de construcción de all-gather.",
zh = "一种集合通信原语,将各个工作节点上的张量汇集到单个根节点,是 scatter 的对偶操作,也是 all-gather 的构建块。",
term_es = "operación gather",
term_zh = "gather 操作",
aliases_es = { "gather", "operación de recolección", "primitiva gather", "MPI_Gather" },
aliases_zh = { "gather", "汇集操作", "聚集操作", "MPI_Gather" },
}
data["gatk"] = {
short = "Genome Analysis Toolkit: a Broad Institute software suite for variant discovery in high-throughput sequencing data, providing the standard germline (HaplotypeCaller, GenotypeGVCFs) and somatic (Mutect2) calling pipelines along with the BQSR, VQSR, and CNV calling tools.",
article = nil,
aliases = { "GATK", "GATK4", "Genome Analysis Toolkit", "GATK pipeline", "Broad GATK" },
es = "Genome Analysis Toolkit: conjunto de software del Broad Institute para el descubrimiento de variantes en datos de secuenciación de alto rendimiento, que ofrece los flujos estándar de llamado germinal (HaplotypeCaller, GenotypeGVCFs) y somático (Mutect2) junto con herramientas de BQSR, VQSR y llamado de CNV.",
zh = "Genome Analysis Toolkit:Broad Institute 推出的高通量测序数据变异发现软件套件,提供标准的种系(HaplotypeCaller、GenotypeGVCFs)和体细胞(Mutect2)变异调用流程,以及 BQSR、VQSR 和 CNV 检测等工具。",
term_es = "GATK",
term_zh = "GATK",
aliases_es = { "Genome Analysis Toolkit", "GATK4", "pipeline GATK" },
aliases_zh = { "GATK", "GATK4", "基因组分析工具包", "Broad GATK" },
}
data["gauss-newton hessian"] = {
short = "A positive semi-definite approximation to the loss Hessian formed from outer products of per-example Jacobians, J^T J, valid for losses that are quadratic in the network output. Underlies many Laplace-approximation BNNs.",
article = nil,
aliases = { "Gauss-Newton matrix", "Gauss-Newton approximation", "Gauss Newton Hessian", "GN Hessian", "GN matrix" },
es = "Aproximación semidefinida positiva del hessiano de la pérdida formada por productos exteriores de jacobianos por ejemplo, J^T J, válida para pérdidas cuadráticas en la salida de la red. Es la base de muchas BNN basadas en aproximación de Laplace.",
zh = "由每样本雅可比矩阵的外积J^T J构成的损失Hessian正半定近似,对网络输出为二次形式的损失成立,是众多基于Laplace近似的贝叶斯神经网络的基础。",
term_es = "hessiano de Gauss-Newton",
term_zh = "Gauss-Newton Hessian",
aliases_es = { "matriz de Gauss-Newton", "aproximación de Gauss-Newton" },
aliases_zh = { "Gauss-Newton矩阵", "高斯-牛顿Hessian", "GN矩阵" },
}
data["gaussian distribution"] = {
short = "A continuous probability distribution on the real line with density p(x) = (1/√(2πσ²)) exp(−(x−μ)²/(2σ²)), parameterized by mean μ and variance σ². It is the limiting distribution of normalized sums (central limit theorem) and the maximum-entropy distribution with given mean and variance.",
article = nil,
aliases = { "normal distribution", "Gaussian", "normal", "univariate Gaussian", "bell curve", "N(μ,σ²)" },
es = "Distribución de probabilidad continua sobre la recta real con densidad p(x) = (1/√(2πσ²)) exp(−(x−μ)²/(2σ²)), parametrizada por la media μ y la varianza σ². Es la distribución límite de sumas normalizadas (teorema central del límite) y la de máxima entropía con media y varianza dadas.",
zh = "实轴上的连续概率分布,密度为 p(x) = (1/√(2πσ²)) exp(−(x−μ)²/(2σ²)),由均值 μ 和方差 σ² 参数化。它是规范化求和的极限分布(中心极限定理),也是给定均值和方差时熵最大的分布。",
term_es = "distribución gaussiana",
term_zh = "高斯分布",
aliases_es = { "distribución normal", "normal", "gaussiana", "campana de Gauss", "N(μ,σ²)" },
aliases_zh = { "正态分布", "高斯", "钟形曲线", "N(μ,σ²)" },
}
data["gaussian graphical model"] = {
short = "An undirected graphical model whose joint distribution is multivariate Gaussian, with missing edges corresponding to zero entries in the precision (inverse covariance) matrix and encoding conditional independence between variables.",
article = nil,
aliases = { "GGM", "Gaussian graphical model", "Gaussian Markov random field model" },
es = "Modelo gráfico no dirigido cuya distribución conjunta es gaussiana multivariante, en el que las aristas ausentes corresponden a entradas nulas de la matriz de precisión (inversa de la covarianza) y codifican la independencia condicional entre variables.",
zh = "联合分布为多元高斯的无向图模型;缺失的边对应于精度矩阵(协方差矩阵的逆)中的零元素,编码变量之间的条件独立关系。",
term_es = "modelo gráfico gaussiano",
term_zh = "高斯图模型",
aliases_es = { "GGM", "modelo gráfico Gaussiano" },
aliases_zh = { "高斯图模型", "GGM", "高斯图形模型" },
}
data["gaussian markov random field"] = {
short = "A Markov random field whose joint distribution is multivariate Gaussian and whose conditional independence structure is encoded in the sparsity pattern of the precision matrix.",
article = nil,
aliases = { "GMRF", "Gaussian MRF", "Gauss-Markov random field" },
es = "Campo aleatorio de Markov cuya distribución conjunta es gaussiana multivariante y cuya estructura de independencia condicional queda codificada en el patrón de dispersión de la matriz de precisión.",
zh = "联合分布为多元高斯的马尔可夫随机场,其条件独立结构由精度矩阵的稀疏模式所编码。",
term_es = "campo aleatorio de Markov gaussiano",
term_zh = "高斯马尔可夫随机场",
aliases_es = { "GMRF", "MRF gaussiano" },
aliases_zh = { "高斯马尔可夫随机场", "GMRF", "高斯 MRF" },
}
data["gaussian mechanism"] = {
short = "A differential privacy mechanism that releases a noisy version of a real-valued query by adding Gaussian noise calibrated to the query's L2 sensitivity, achieving (ε,δ)-differential privacy.",
article = nil,
aliases = { "Gaussian mechanism", "Gaussian DP mechanism", "Gaussian noise mechanism" },
es = "Mecanismo de privacidad diferencial que publica una versión ruidosa de una consulta de valor real añadiendo ruido gaussiano calibrado según la sensibilidad L2 de la consulta, logrando privacidad diferencial (ε,δ).",
zh = "一种差分隐私机制:对实值查询输出添加按其 L2 敏感度校准的高斯噪声以发布扰动结果,实现 (ε,δ) 差分隐私。",
term_es = "mecanismo gaussiano",
term_zh = "高斯机制",
aliases_es = { "mecanismo de Gauss", "mecanismo de ruido gaussiano", "mecanismo de DP gaussiano" },
aliases_zh = { "Gaussian mechanism", "高斯噪声机制", "高斯差分隐私机制" },
}
data["gaussian mixture model"] = {
short = "A mixture model whose K components are multivariate Gaussians, p(x) = Σ_k π_k N(x | μ_k, Σ_k). Parameters are typically fit by expectation–maximization and the model is widely used for clustering and density estimation.",
article = nil,
aliases = { "GMM", "mixture of Gaussians", "MoG", "Gaussian mixture", "Gaussian mixture density" },
es = "Modelo de mezcla cuyas K componentes son gaussianas multivariadas, p(x) = Σ_k π_k N(x | μ_k, Σ_k). Sus parámetros suelen ajustarse mediante esperanza–maximización y se usa ampliamente para clustering y estimación de densidades.",
zh = "K 个分量均为多元高斯的混合模型,p(x) = Σ_k π_k N(x | μ_k, Σ_k)。参数通常用期望–最大化算法估计,广泛用于聚类与密度估计。",
term_es = "modelo de mezcla gaussiana",
term_zh = "高斯混合模型",
aliases_es = { "GMM", "mezcla de gaussianas", "MoG", "mezcla gaussiana" },
aliases_zh = { "GMM", "高斯混合", "高斯混合分布" },
}
data["gaussian noise injection"] = {
short = "A regularization or training-time technique in which zero-mean Gaussian noise is added to weights, activations, gradients, or inputs. It can be interpreted as a variational approximation, a smoothing prior, or as Langevin dynamics.",
article = nil,
aliases = { "Gaussian noise injection", "additive Gaussian noise", "weight noise injection", "activation noise injection" },
es = "Técnica de regularización o de entrenamiento en la que se añade ruido gaussiano de media cero a pesos, activaciones, gradientes o entradas. Puede interpretarse como una aproximación variacional, un priori suavizante o dinámica de Langevin.",
zh = "向权重、激活、梯度或输入添加零均值高斯噪声的训练或正则化技术,可解释为一种变分近似、平滑先验或Langevin动力学。",
term_es = "inyección de ruido gaussiano",
term_zh = "高斯噪声注入",
aliases_es = { "ruido gaussiano aditivo", "inyección de ruido en pesos", "inyección de ruido en activaciones" },
aliases_zh = { "加性高斯噪声", "权重噪声注入", "激活噪声注入" },
}
data["gaussian prior"] = {
short = "A zero-mean (or weight-decay-style) Gaussian distribution placed on neural-network weights, equivalent to an L2 penalty in MAP estimation and the default isotropic prior in most Bayesian neural networks.",
article = nil,
aliases = { "Gaussian prior", "isotropic Gaussian prior", "Normal prior", "N(0, sigma^2 I) prior", "weight-decay prior" },
es = "Distribución gaussiana de media cero (o tipo weight decay) impuesta sobre los pesos de una red neuronal, equivalente a una penalización L2 en la estimación MAP y priori isotrópico por defecto en la mayoría de redes neuronales bayesianas.",
zh = "施加在神经网络权重上的零均值(或权重衰减式)高斯分布,在MAP估计下等价于L2正则,是大多数贝叶斯神经网络的默认各向同性先验。",
term_es = "priori gaussiano",
term_zh = "高斯先验",
aliases_es = { "priori normal", "priori gaussiano isotrópico", "priori N(0, sigma^2 I)" },
aliases_zh = { "正态先验", "各向同性高斯先验", "N(0, σ²I)先验" },
}
data["gaussian process"] = {
short = "A stochastic process such that any finite collection of function values has a joint Gaussian distribution, fully specified by a mean function and a covariance kernel. Provides a non-parametric Bayesian prior over functions.",
article = nil,
aliases = { "GP", "Gaussian process", "Gaussian Process" },
es = "Proceso estocástico tal que cualquier colección finita de valores de la función tiene una distribución conjunta gaussiana, especificado completamente por una función media y un kernel de covarianza. Proporciona un priori bayesiano no paramétrico sobre funciones.",
zh = "一种随机过程,函数在任意有限点集上的联合分布均为高斯分布,由均值函数和协方差核完全确定,提供函数上的非参数贝叶斯先验。",
term_es = "proceso gaussiano",
term_zh = "高斯过程",
aliases_es = { "GP", "proceso gaussiano (GP)" },
aliases_zh = { "GP", "高斯随机过程" },
}
data["gaussian process classification"] = {
short = "A Gaussian process model for classification in which a latent GP is mapped through a non-Gaussian likelihood (Bernoulli, softmax) to class probabilities. Posterior inference uses Laplace, expectation propagation, or variational methods.",
article = nil,
aliases = { "GP classification", "GPC", "Gaussian-process classifier", "GP classifier" },
es = "Modelo de proceso gaussiano para clasificación en el que un GP latente se transforma mediante una verosimilitud no gaussiana (Bernoulli, softmax) en probabilidades de clase. La inferencia posterior emplea Laplace, propagación de expectativas o métodos variacionales.",
zh = "用于分类的高斯过程模型,潜在GP通过非高斯似然(伯努利、softmax)映射为类别概率,后验推断采用Laplace近似、期望传播或变分方法。",
term_es = "clasificación con procesos gaussianos",
term_zh = "高斯过程分类",
aliases_es = { "GPC", "clasificador GP", "clasificación GP" },
aliases_zh = { "GP分类", "GPC", "高斯过程分类器" },
}
data["gaussian process regression"] = {
short = "Bayesian regression with a Gaussian-process prior and Gaussian likelihood, yielding a closed-form Gaussian posterior over functions. The predictive mean is a kernel-weighted combination of training targets and the variance quantifies uncertainty.",
article = nil,
aliases = { "GP regression", "GPR", "Gaussian-process regression", "kriging" },
es = "Regresión bayesiana con priori de proceso gaussiano y verosimilitud gaussiana, que produce una posterior gaussiana cerrada sobre funciones. La media predictiva es una combinación de los objetivos de entrenamiento ponderada por el kernel y la varianza cuantifica la incertidumbre.",
zh = "采用高斯过程先验和高斯似然的贝叶斯回归,可得到关于函数的闭式高斯后验:预测均值是训练目标在核函数下的加权组合,预测方差表征不确定性。",
term_es = "regresión con procesos gaussianos",
term_zh = "高斯过程回归",
aliases_es = { "GPR", "regresión GP", "kriging" },
aliases_zh = { "GP回归", "GPR", "克里金法" },
}
data["gaussian process surrogate"] = {
short = "A Gaussian process model used as a cheap-to-evaluate stand-in for an expensive black-box objective in Bayesian optimization, providing both predictions and calibrated uncertainty to drive acquisition functions.",
article = nil,
aliases = { "GP surrogate", "Gaussian process model", "GP surrogate model", "Gaussian Process surrogate" },
es = "Modelo de proceso gaussiano que actúa como sustituto barato de evaluar para una función objetivo costosa de tipo caja negra en optimización bayesiana, aportando predicciones e incertidumbre calibrada para guiar las funciones de adquisición.",
zh = "在贝叶斯优化中用作昂贵黑盒目标函数低成本代理的高斯过程模型,可同时提供预测值与校准的不确定性,用于驱动采集函数。",
term_es = "modelo sustituto de proceso gaussiano",
term_zh = "高斯过程代理模型",
aliases_es = { "GP surrogate", "modelo GP", "sustituto GP" },
aliases_zh = { "GP 代理模型", "高斯过程替代模型", "GP surrogate" },
}
data["gaussian rbm"] = {
short = "A restricted Boltzmann machine in which the visible units are continuous Gaussian variables and the hidden units remain binary, allowing the model to capture distributions over real-valued inputs such as natural images.",
article = nil,
aliases = { "Gaussian RBM", "Gaussian-Bernoulli RBM", "GRBM", "Gaussian restricted Boltzmann machine" },
es = "Máquina de Boltzmann restringida en la que las unidades visibles son variables continuas gaussianas y las unidades ocultas permanecen binarias, lo que permite modelar distribuciones sobre entradas con valores reales como imágenes naturales.",
zh = "一种受限玻尔兹曼机,其可见单元为连续的高斯变量、隐藏单元仍为二值,能够对自然图像等实值输入的分布进行建模。",
term_es = "RBM gaussiana",
term_zh = "高斯受限玻尔兹曼机",
aliases_es = { "RBM Gaussiana", "RBM gaussiana-Bernoulli", "GRBM", "máquina de Boltzmann restringida gaussiana" },
aliases_zh = { "高斯 RBM", "高斯-伯努利 RBM", "GRBM", "高斯受限玻尔兹曼机" },
}
data["gaussian splatting"] = {
short = "A 3D scene representation that explicitly models the scene as a large set of anisotropic 3D Gaussians with position, covariance, opacity, and view-dependent color, rendered by projecting and blending them onto the image plane to enable real-time photorealistic novel-view synthesis.",
article = nil,
aliases = { "3D Gaussian Splatting", "3DGS", "Gaussian splatting", "gaussian splat" },
es = "Representación 3D de una escena que la modela explícitamente como un gran conjunto de gaussianas 3D anisótropas con posición, covarianza, opacidad y color dependiente de la vista, renderizadas proyectándolas y mezclándolas sobre el plano de la imagen para lograr síntesis de vistas nuevas fotorrealista en tiempo real.",
zh = "一种三维场景表示,将场景显式建模为一大组具有位置、协方差、不透明度和视角相关颜色的各向异性三维高斯,通过投影并在图像平面上混合渲染,实现实时照片级真实感的新视角合成。",
term_es = "Gaussian Splatting",
term_zh = "高斯溅射",
aliases_es = { "3DGS", "splatting gaussiano" },
aliases_zh = { "3DGS", "Gaussian Splatting", "三维高斯溅射" },
}
data["gboard federated dataset"] = {
short = "An internal Google dataset of mobile keyboard typing logs from the Gboard application, used in early federated learning case studies of on-device next-word prediction and query suggestion.",
article = nil,
aliases = { "Gboard dataset", "Gboard FL dataset", "Gboard next-word dataset" },
es = "Conjunto de datos interno de Google con registros de tecleo en la aplicación Gboard, utilizado en estudios pioneros de aprendizaje federado para predicción de la siguiente palabra y sugerencia de consultas en el dispositivo.",
zh = "Google 内部的一个数据集,源自 Gboard 移动键盘应用的输入日志,曾用于设备端下一词预测和查询推荐方向的早期联邦学习案例研究。",
term_es = "conjunto de datos federado de Gboard",
term_zh = "Gboard 联邦数据集",
aliases_es = { "dataset de Gboard", "dataset federado Gboard", "conjunto de datos Gboard" },
aliases_zh = { "Gboard 数据集", "Gboard 联邦学习数据集", "Gboard 下一词数据集" },
}
data["gcg attack"] = {
short = "Greedy Coordinate Gradient attack, a white-box jailbreak method that searches over adversarial suffixes by iteratively replacing tokens using gradient information to maximize the probability of harmful continuations in aligned LLMs.",
article = nil,
aliases = { "GCG", "GCG attack", "Greedy Coordinate Gradient", "Greedy Coordinate Gradient attack", "Zou et al. GCG" },
es = "Ataque GCG (Greedy Coordinate Gradient), un método de jailbreak de caja blanca que busca sufijos adversariales reemplazando tokens iterativamente con información del gradiente para maximizar la probabilidad de continuaciones dañinas en LLM alineados.",
zh = "GCG 攻击(贪心坐标梯度攻击),一种白盒越狱方法,利用梯度信息迭代替换 token 来搜索对抗性后缀,最大化对齐大语言模型生成有害续写的概率。",
term_es = "ataque GCG",
term_zh = "GCG 攻击",
aliases_es = { "GCG", "ataque Greedy Coordinate Gradient" },
aliases_zh = { "GCG", "贪心坐标梯度攻击" },
}
data["gcn predictor"] = {
short = "A graph convolutional network used as a performance predictor in neural architecture search, taking the architecture's computation graph as input and regressing accuracy or another quality score.",
article = nil,
aliases = { "GCN predictor", "graph convolutional network predictor", "GCN-based predictor", "GCN architecture predictor" },
es = "Red convolucional sobre grafos usada como predictor de desempeño en búsqueda de arquitecturas neuronales, que toma el grafo de cómputo de la arquitectura como entrada y regresa precisión u otra puntuación de calidad.",
zh = "用作神经架构搜索性能预测器的图卷积网络,将架构的计算图作为输入,回归准确率或其他质量指标。",
term_es = "predictor GCN",
term_zh = "GCN 预测器",
aliases_es = { "GCN predictor", "predictor basado en GCN", "predictor de arquitectura GCN" },
aliases_zh = { "GCN 预测器", "图卷积网络预测器", "基于 GCN 的预测器" },
}
data["gdas"] = {
short = "Gradient-based search using Differentiable Architecture Sampler — a one-shot NAS method that samples a single discrete architecture each step via the Gumbel-softmax trick, training only that path while keeping the search differentiable.",
article = nil,
aliases = { "GDAS", "Gradient-based search using Differentiable Architecture Sampler", "Differentiable Architecture Sampler" },
es = "Búsqueda basada en gradientes con un muestreador diferenciable de arquitecturas: método NAS one-shot que muestrea una única arquitectura discreta en cada paso mediante el truco Gumbel-softmax, entrenando solo esa ruta mientras la búsqueda permanece diferenciable.",
zh = "基于可微分架构采样器的梯度搜索方法,是一种 one-shot NAS:每步通过 Gumbel-softmax 技巧采样单个离散架构,仅训练该路径,同时保持搜索的可微性。",
term_es = "GDAS",
term_zh = "GDAS",
aliases_es = { "GDAS", "muestreador diferenciable de arquitecturas" },
aliases_zh = { "GDAS", "可微分架构采样器" },
}
data["gdpr"] = {
short = "The General Data Protection Regulation (EU 2016/679), a European Union law governing the processing of personal data, with provisions on consent, data subject rights, automated decision-making, and cross-border transfers.",
article = nil,
aliases = { "GDPR", "General Data Protection Regulation", "EU GDPR", "Regulation (EU) 2016/679" },
es = "Reglamento General de Protección de Datos (UE 2016/679), ley de la Unión Europea que regula el tratamiento de datos personales, con disposiciones sobre consentimiento, derechos del interesado, decisiones automatizadas y transferencias internacionales.",
zh = "《通用数据保护条例》(欧盟2016/679号),欧盟关于个人数据处理的法律,涵盖同意、数据主体权利、自动化决策和跨境传输等条款。",
term_es = "RGPD",
term_zh = "GDPR",
aliases_es = { "RGPD", "GDPR", "Reglamento General de Protección de Datos", "Reglamento (UE) 2016/679" },
aliases_zh = { "GDPR", "通用数据保护条例", "一般资料保护规定", "欧盟通用数据保护条例" },
}
data["gdt-ts"] = {
short = "Global Distance Test - Total Score, a structural similarity metric used in CASP that averages the percentage of residues in a model whose Cα atoms fall within 1, 2, 4, and 8 Å of the experimental structure after optimal superposition.",
article = nil,
aliases = { "GDT_TS", "GDT-TS", "Global Distance Test Total Score", "GDT total score" },
es = "Global Distance Test – Total Score, una métrica de similitud estructural utilizada en CASP que promedia el porcentaje de residuos del modelo cuyos átomos Cα quedan dentro de 1, 2, 4 y 8 Å de la estructura experimental tras la superposición óptima.",
zh = "Global Distance Test – Total Score,一种CASP中使用的结构相似性指标,对最佳叠合后模型中Cα原子分别落在1、2、4和8 Å误差内的残基比例取平均。",
term_es = "GDT-TS",
term_zh = "GDT-TS",
aliases_es = { "GDT_TS", "puntuación total GDT", "puntuación GDT total" },
aliases_zh = { "GDT_TS", "全局距离测试总分", "GDT总分" },
}
data["gelman-rubin diagnostic"] = {
short = "An MCMC convergence diagnostic that compares the within-chain and between-chain variance of multiple parallel chains, summarized by the potential scale reduction factor R̂, with values close to 1 indicating convergence.",
article = nil,
aliases = { "Gelman-Rubin diagnostic", "Gelman-Rubin statistic", "R-hat", "Rhat", "potential scale reduction factor", "PSRF" },
es = "Diagnóstico de convergencia para MCMC que compara la varianza dentro de las cadenas con la varianza entre cadenas paralelas, resumido por el factor de reducción de escala potencial R̂; valores cercanos a 1 indican convergencia.",
zh = "一种 MCMC 收敛诊断方法,通过比较多条并行链的链内方差与链间方差,并以潜在尺度缩减因子 R̂ 进行总结,R̂ 接近 1 表示已收敛。",
term_es = "diagnóstico de Gelman-Rubin",
term_zh = "Gelman-Rubin 诊断",
aliases_es = { "estadístico de Gelman-Rubin", "R-sombrero", "factor de reducción de escala potencial", "PSRF" },
aliases_zh = { "Gelman-Rubin 诊断", "Gelman-Rubin 统计量", "R-hat", "潜在尺度缩减因子", "PSRF" },
}
data["gelu"] = {
short = "Gaussian Error Linear Unit activation, defined as x · Φ(x) where Φ is the standard normal CDF. Smooth, non-monotonic, and widely used in transformer architectures such as BERT and GPT.",
article = nil,
aliases = { "GELU", "Gaussian Error Linear Unit", "gaussian error linear unit" },
es = "Activación Gaussian Error Linear Unit, definida como x · Φ(x) con Φ la CDF normal estándar. Suave, no monótona y de uso común en transformadores como BERT y GPT.",
zh = "高斯误差线性单元激活函数,定义为 x · Φ(x),其中 Φ 为标准正态分布的累积分布函数。平滑、非单调,广泛用于 BERT、GPT 等 Transformer 架构。",
term_es = "GELU",
term_zh = "GELU",
aliases_es = { "GELU", "unidad lineal de error gaussiano" },
aliases_zh = { "GELU", "高斯误差线性单元" },
}
data["gem geometry-enhanced model"] = {
short = "A geometry-enhanced molecular representation framework that combines bond-length, bond-angle and dihedral information in a graph neural network with self-supervised pretext tasks to improve molecular property prediction.",
article = nil,
aliases = { "GEM", "Geometry-Enhanced Model", "geometry enhanced molecular representation", "GEM molecular" },
es = "Marco de representación molecular mejorado geométricamente que combina información de longitudes de enlace, ángulos de enlace y diedros en una red neuronal de grafos con tareas autosupervisadas auxiliares para mejorar la predicción de propiedades moleculares.",
zh = "一种几何增强的分子表示框架,将键长、键角和二面角信息融入图神经网络,并结合自监督前置任务,以提升分子性质预测性能。",
term_es = "GEM (modelo geométricamente mejorado)",
term_zh = "GEM几何增强模型",
aliases_es = { "GEM", "modelo geométricamente mejorado", "representación molecular GEM" },
aliases_zh = { "GEM", "几何增强分子模型", "几何增强分子表示" },
}
data["gemini"] = {
short = "Google DeepMind's family of natively multimodal foundation models (Nano, Pro, Ultra, and later 1.5/2.0 generations) trained jointly on text, images, audio, and video and supporting long-context reasoning across modalities.",
article = nil,
aliases = { "Gemini", "Google Gemini", "Gemini family" },
es = "Familia de modelos de fundación nativamente multimodales de Google DeepMind (Nano, Pro, Ultra y generaciones posteriores 1.5/2.0) entrenados conjuntamente con texto, imágenes, audio y video y con razonamiento de contexto largo entre modalidades.",
zh = "Google DeepMind 推出的原生多模态基础模型系列(Nano、Pro、Ultra 以及后续 1.5/2.0 代),在文本、图像、音频和视频上联合训练,支持跨模态长上下文推理。",
term_es = "Gemini",
term_zh = "Gemini",
aliases_es = { "Google Gemini", "familia Gemini" },
aliases_zh = { "Google Gemini", "Gemini 系列" },
}
data["gemini 1.5 flash"] = {
short = "A lightweight, low-latency multimodal model in Google's Gemini 1.5 family, designed for high-throughput tasks with a long context window of up to one million tokens.",
article = nil,
aliases = { "Gemini 1.5 Flash", "Gemini-1.5-Flash" },
es = "Modelo multimodal ligero y de baja latencia de la familia Gemini 1.5 de Google, diseñado para tareas de alto rendimiento con una ventana de contexto de hasta un millón de tokens.",
zh = "谷歌 Gemini 1.5 系列中的轻量级低延迟多模态模型,专为高吞吐任务设计,支持最长一百万 token 的上下文窗口。",
term_es = "Gemini 1.5 Flash",
term_zh = "Gemini 1.5 Flash",
aliases_es = { "Gemini 1.5 Flash" },
aliases_zh = { "Gemini 1.5 Flash" },
}
data["gemini 1.5 pro"] = {
short = "A high-capability multimodal model in Google's Gemini 1.5 family that supports context windows of up to one to two million tokens, enabling long-document and long-video reasoning.",
article = nil,
aliases = { "Gemini 1.5 Pro", "Gemini-1.5-Pro" },
es = "Modelo multimodal de alta capacidad de la familia Gemini 1.5 de Google, que admite ventanas de contexto de hasta uno o dos millones de tokens, permitiendo razonar sobre documentos y vídeos extensos.",
zh = "谷歌 Gemini 1.5 系列中的高性能多模态模型,支持最长一至两百万 token 的上下文窗口,可对长文档和长视频进行推理。",
term_es = "Gemini 1.5 Pro",
term_zh = "Gemini 1.5 Pro",
aliases_es = { "Gemini 1.5 Pro" },
aliases_zh = { "Gemini 1.5 Pro" },
}
data["gemini 2.0 flash"] = {
short = "A multimodal model in Google's Gemini 2.0 generation optimized for low latency and agentic use cases, with native tool use and image generation capabilities.",
article = nil,
aliases = { "Gemini 2.0 Flash", "Gemini-2.0-Flash" },
es = "Modelo multimodal de la generación Gemini 2.0 de Google, optimizado para baja latencia y casos de uso agénticos, con capacidades nativas de uso de herramientas y generación de imágenes.",
zh = "谷歌 Gemini 2.0 系列中的多模态模型,专为低延迟和智能体场景优化,原生支持工具调用和图像生成。",
term_es = "Gemini 2.0 Flash",
term_zh = "Gemini 2.0 Flash",
aliases_es = { "Gemini 2.0 Flash" },
aliases_zh = { "Gemini 2.0 Flash" },
}
data["gemini 2.5 pro"] = {
short = "A frontier multimodal reasoning model in Google's Gemini 2.5 family, featuring a long context window and built-in extended-thinking capability for complex problem solving.",
article = nil,
aliases = { "Gemini 2.5 Pro", "Gemini-2.5-Pro" },
es = "Modelo multimodal de razonamiento de vanguardia de la familia Gemini 2.5 de Google, con una ventana de contexto extensa y capacidad integrada de pensamiento prolongado para resolver problemas complejos.",
zh = "谷歌 Gemini 2.5 系列中的前沿多模态推理模型,具有长上下文窗口和内置的延伸思考能力,可处理复杂问题。",
term_es = "Gemini 2.5 Pro",
term_zh = "Gemini 2.5 Pro",
aliases_es = { "Gemini 2.5 Pro" },
aliases_zh = { "Gemini 2.5 Pro" },
}
data["gemini nano"] = {
short = "The most compact model in Google's Gemini family, designed to run on-device (e.g., Pixel phones) for offline multimodal tasks with low resource consumption.",
article = nil,
aliases = { "Gemini Nano", "Gemini-Nano" },
es = "Modelo más compacto de la familia Gemini de Google, diseñado para ejecutarse en el dispositivo (por ejemplo, teléfonos Pixel) en tareas multimodales sin conexión y con bajo consumo de recursos.",
zh = "谷歌 Gemini 系列中最紧凑的模型,专为在设备端(如 Pixel 手机)运行而设计,可在离线场景中以低资源消耗完成多模态任务。",
term_es = "Gemini Nano",
term_zh = "Gemini Nano",
aliases_es = { "Gemini Nano" },
aliases_zh = { "Gemini Nano" },
}
data["gemini pro vision"] = {
short = "The vision-enabled variant of Gemini Pro released in late 2023, accepting interleaved text and images as input and producing text outputs. Superseded by the unified Gemini 1.5 Pro multimodal endpoint.",
article = nil,
aliases = { "Gemini Pro Vision", "gemini-pro-vision", "Gemini 1.0 Pro Vision" },
es = "Variante con capacidades visuales de Gemini Pro lanzada a finales de 2023, que acepta texto e imágenes intercalados como entrada y produce salidas de texto. Reemplazada por el punto de acceso multimodal unificado Gemini 1.5 Pro.",
zh = "2023 年底发布的 Gemini Pro 视觉版本,接受交错的文本和图像作为输入并生成文本输出,后被统一的 Gemini 1.5 Pro 多模态接口取代。",
term_es = "Gemini Pro Vision",
term_zh = "Gemini Pro Vision",
aliases_es = { "gemini-pro-vision", "Gemini 1.0 Pro Vision" },
aliases_zh = { "gemini-pro-vision", "Gemini 1.0 Pro Vision" },
}
data["gemini ultra"] = {
short = "The largest and highest-capability tier of the original Gemini 1.0 family, designed for complex multimodal reasoning tasks and the first model reported to exceed human expert performance on the MMLU benchmark.",
article = nil,
aliases = { "Gemini Ultra", "Gemini 1.0 Ultra" },
es = "Nivel más grande y de mayor capacidad de la familia original Gemini 1.0, diseñado para tareas complejas de razonamiento multimodal y primer modelo reportado en superar el desempeño humano experto en el benchmark MMLU.",
zh = "原始 Gemini 1.0 系列中规模最大、能力最强的版本,专为复杂多模态推理任务设计,并被报告为首个在 MMLU 基准上超越人类专家水平的模型。",
term_es = "Gemini Ultra",
term_zh = "Gemini Ultra",
aliases_es = { "Gemini 1.0 Ultra" },
aliases_zh = { "Gemini 1.0 Ultra" },
}
data["gemini vision"] = {
short = "The visual understanding component of Google's Gemini models, enabling them to process images and video frames natively alongside text inputs.",
article = nil,
aliases = { "Gemini Vision", "Gemini Pro Vision" },
es = "Componente de comprensión visual de los modelos Gemini de Google, que permite procesar imágenes y fotogramas de vídeo de forma nativa junto con texto.",
zh = "谷歌 Gemini 模型的视觉理解组件,可原生处理图像和视频帧,并与文本输入一起进行推理。",
term_es = "Gemini Vision",
term_zh = "Gemini Vision",
aliases_es = { "Gemini Vision" },
aliases_zh = { "Gemini Vision" },
}
data["gemma"] = {
short = "A family of open-weight language models released by Google DeepMind, derived from the same research and technology used to create the Gemini models. Available in multiple sizes for both text and instruction-tuned use.",
article = nil,
aliases = { "Gemma", "Gemma model", "Gemma family", "Google Gemma" },
es = "Familia de modelos de lenguaje de pesos abiertos publicados por Google DeepMind, derivados de la misma investigación y tecnología utilizadas para crear los modelos Gemini. Disponible en varios tamaños para uso general y ajustado por instrucciones.",
zh = "由 Google DeepMind 发布的开放权重语言模型系列,源自与 Gemini 模型相同的研究和技术,提供多种规模的基础版和指令微调版。",
term_es = "Gemma",
term_zh = "Gemma",
aliases_es = { "modelo Gemma", "familia Gemma" },
aliases_zh = { "Gemma 模型", "Gemma 系列" },
}
data["gemnet"] = {
short = "A directional message-passing graph neural network for molecules and materials that incorporates two- and three-hop geometric features such as bond angles and dihedrals, achieving high accuracy on energy and force prediction benchmarks.",
article = nil,
aliases = { "GemNet", "GemNet-T", "GemNet-Q", "Gemnet" },
es = "Red neuronal de grafos con paso de mensajes direccionales para moléculas y materiales que incorpora rasgos geométricos de dos y tres saltos, como ángulos de enlace y diedros, alcanzando alta precisión en pruebas de predicción de energía y fuerzas.",
zh = "一种用于分子和材料的方向性消息传递图神经网络,融入两跳和三跳几何特征(如键角和二面角),在能量和力预测基准上实现高精度。",
term_es = "GemNet",
term_zh = "GemNet",
aliases_es = { "GemNet", "GemNet-T", "GemNet-Q" },
aliases_zh = { "GemNet", "GemNet-T", "GemNet-Q" },
}
data["gemnet-xl"] = {
short = "An extra-large variant of GemNet, scaled up in width and depth and trained on the full Open Catalyst dataset to push state-of-the-art on catalyst energy and force prediction.",
article = nil,
aliases = { "GemNet-XL", "GemNetXL", "GemNet XL" },
es = "Variante de gran tamaño de GemNet, ampliada en anchura y profundidad y entrenada con el conjunto de datos Open Catalyst completo para llevar al estado del arte la predicción de energías y fuerzas de catalizadores.",
zh = "GemNet的超大规模变体,在宽度和深度上进行了扩展,并在完整的Open Catalyst数据集上训练,以推动催化剂能量和力预测的最新水平。",
term_es = "GemNet-XL",
term_zh = "GemNet-XL",
aliases_es = { "GemNet-XL", "GemNetXL" },
aliases_zh = { "GemNet-XL", "GemNetXL", "超大GemNet" },
}
data["gen-1"] = {
short = "Runway's first video-to-video diffusion model (2023) that re-styles or restructures an input video conditioned on a text prompt, image, or another video while preserving motion and structure.",
article = nil,
aliases = { "Gen-1", "Runway Gen-1", "Gen 1" },
es = "Primer modelo de difusión video a video de Runway (2023) que reestiliza o reestructura un video de entrada condicionado por un prompt de texto, una imagen u otro video, preservando movimiento y estructura.",
zh = "Runway 于 2023 年推出的首个视频到视频扩散模型,可根据文本提示、图像或另一段视频对输入视频进行重新风格化或重构,同时保留运动与结构。",
term_es = "Gen-1",
term_zh = "Gen-1",
aliases_es = { "Runway Gen-1", "Gen 1" },
aliases_zh = { "Runway Gen-1", "Gen 1" },
}
data["gen-2"] = {
short = "Runway's text-to-video and image-to-video diffusion model (2023) that synthesizes short clips directly from text prompts or single reference images without requiring a source video.",
article = nil,
aliases = { "Gen-2", "Runway Gen-2", "Gen 2" },
es = "Modelo de difusión texto a video e imagen a video de Runway (2023) que sintetiza clips cortos directamente a partir de prompts de texto o imágenes de referencia, sin requerir un video fuente.",
zh = "Runway 于 2023 年推出的文本到视频和图像到视频的扩散模型,可直接根据文本提示或单张参考图像合成短视频,无需源视频。",
term_es = "Gen-2",
term_zh = "Gen-2",
aliases_es = { "Runway Gen-2", "Gen 2" },
aliases_zh = { "Runway Gen-2", "Gen 2" },
}
data["gen-3 alpha"] = {
short = "Runway's third-generation video diffusion model (2024) trained on a larger joint video-and-image dataset, producing higher-fidelity, longer, and more controllable clips than Gen-2 with improved temporal consistency.",
article = nil,
aliases = { "Gen-3 Alpha", "Runway Gen-3", "Gen-3", "Gen 3 Alpha" },
es = "Modelo de difusión de video de tercera generación de Runway (2024), entrenado en un conjunto conjunto más grande de video e imagen, que produce clips de mayor fidelidad, más largos y más controlables que Gen-2 con mejor consistencia temporal.",
zh = "Runway 于 2024 年推出的第三代视频扩散模型,在更大的视频与图像联合数据集上训练,相比 Gen-2 生成保真度更高、时长更长、可控性更强且时间一致性更好的视频片段。",
term_es = "Gen-3 Alpha",
term_zh = "Gen-3 Alpha",
aliases_es = { "Runway Gen-3", "Gen-3" },
aliases_zh = { "Runway Gen-3", "Gen-3" },
}
data["gencode annotation"] = {
short = "A high-quality, manually-curated reference gene annotation for the human and mouse genomes produced by the GENCODE consortium, integrating Ensembl/Havana gene models. The de facto standard reference for transcript structures, biotypes, and lncRNA/pseudogene catalogs.",
article = nil,
aliases = { "GENCODE", "GENCODE annotation", "GENCODE GTF", "GENCODE reference annotation", "GENCODE gene set" },
es = "Anotación génica de referencia de alta calidad y curada manualmente para los genomas humano y de ratón producida por el consorcio GENCODE, que integra los modelos génicos de Ensembl/Havana. Es la referencia de facto para estructuras de transcritos, biotipos y catálogos de lncRNA y pseudogenes.",
zh = "由 GENCODE 联盟为人类和小鼠基因组编制的高质量、人工策划的参考基因注释,整合了 Ensembl/Havana 的基因模型,是转录本结构、基因类型以及 lncRNA 和假基因目录的事实标准参考。",
term_es = "anotación GENCODE",
term_zh = "GENCODE 注释",
aliases_es = { "GENCODE", "anotación de referencia GENCODE", "GTF de GENCODE" },
aliases_zh = { "GENCODE", "GENCODE 基因注释", "GENCODE GTF", "GENCODE 参考注释" },
}
data["gender bias"] = {
short = "Systematic disparity in a machine learning system's predictions or representations between genders, often arising from imbalanced training data, biased labels, or societal stereotypes encoded in features.",
article = nil,
aliases = { "gender bias in AI", "gender bias in machine learning", "sex bias" },
es = "Disparidad sistemática en las predicciones o representaciones de un sistema de aprendizaje automático entre géneros, frecuentemente debida a datos de entrenamiento desequilibrados, etiquetas sesgadas o estereotipos sociales codificados en las variables.",
zh = "机器学习系统在不同性别之间的预测或表示中出现的系统性差异,常源于训练数据不平衡、标签偏见或编码到特征中的社会刻板印象。",
term_es = "sesgo de género",
term_zh = "性别偏见",
aliases_es = { "sesgo de género", "sesgo de género en IA", "sesgo de género en aprendizaje automático" },
aliases_zh = { "性别偏见", "性别偏差", "人工智能中的性别偏见" },
}
data["gender bias in translation"] = {
short = "The tendency of machine translation systems to default to stereotypical gendered forms when source language is gender-neutral, e.g. translating English \"the doctor\" into masculine forms in gendered target languages.",
article = nil,
aliases = { "translation gender bias", "MT gender bias", "machine translation gender bias", "gendered translation bias" },
es = "Tendencia de los sistemas de traducción automática a optar por formas con género estereotipadas cuando el idioma origen es neutro respecto al género, por ejemplo traducir el inglés \"the doctor\" a la forma masculina en lenguas con género gramatical.",
zh = "机器翻译系统在源语言性别中性时倾向于默认使用刻板化性别形式的现象,例如将英语\"the doctor\"翻译为目标语言中阳性形式。",
term_es = "sesgo de género en la traducción",
term_zh = "翻译中的性别偏见",
aliases_es = { "sesgo de género en la traducción", "sesgo de género en traducción automática", "sesgo de género en MT" },
aliases_zh = { "翻译中的性别偏见", "机器翻译性别偏见", "翻译性别偏差" },
}
data["gender bias in word embeddings"] = {
short = "The empirical finding that distributed word representations such as word2vec or GloVe encode and reproduce gender stereotypes from training corpora, e.g. \"man:doctor :: woman:nurse\" analogies, as documented by Bolukbasi et al. (2016).",
article = nil,
aliases = { "embedding gender bias", "word embedding gender bias", "Bolukbasi gender bias", "stereotypes in word embeddings" },
es = "Hallazgo empírico de que las representaciones distribuidas de palabras como word2vec o GloVe codifican y reproducen estereotipos de género presentes en los corpus de entrenamiento, por ejemplo analogías \"hombre:doctor :: mujer:enfermera\", documentado por Bolukbasi et al. (2016).",
zh = "经验性发现:word2vec或GloVe等分布式词表示会编码并再现训练语料中的性别刻板印象,例如\"男人:医生 :: 女人:护士\"这类类比,由Bolukbasi等人(2016)记录。",
term_es = "sesgo de género en embeddings de palabras",
term_zh = "词嵌入中的性别偏见",
aliases_es = { "sesgo de género en embeddings", "sesgo de género en representaciones de palabras", "estereotipos en embeddings de palabras" },
aliases_zh = { "词嵌入中的性别偏见", "词向量中的性别偏见", "词嵌入性别偏差" },
}
data["gender shades"] = {
short = "A 2018 study by Joy Buolamwini and Timnit Gebru showing that commercial face-analysis systems have substantially higher error rates on darker-skinned women than on lighter-skinned men, motivating intersectional fairness audits.",
article = nil,
aliases = { "Gender Shades", "Gender Shades study", "Buolamwini Gebru study", "Gender Shades project" },
es = "Estudio de 2018 de Joy Buolamwini y Timnit Gebru que mostró que los sistemas comerciales de análisis facial tienen tasas de error sustancialmente más altas en mujeres de piel oscura que en hombres de piel clara, motivando auditorías de equidad interseccional.",
zh = "Joy Buolamwini和Timnit Gebru于2018年发表的研究,揭示商业人脸分析系统对深色皮肤女性的错误率显著高于浅色皮肤男性,推动了交叉性公平审计。",
term_es = "Gender Shades",
term_zh = "Gender Shades",
aliases_es = { "Gender Shades", "estudio Gender Shades", "proyecto Gender Shades" },
aliases_zh = { "Gender Shades", "Gender Shades 研究", "Gender Shades 项目" },
}
data["gender swap augmentation"] = {
short = "A data augmentation technique that creates additional training examples by substituting gendered words with their counterparts (e.g. he↔she, actor↔actress) to mitigate gender bias in NLP models.",
article = nil,
aliases = { "gender swapping", "gender swap data augmentation", "counterfactual gender augmentation", "gender substitution augmentation" },
es = "Técnica de aumento de datos que crea ejemplos de entrenamiento adicionales sustituyendo palabras con género por sus contrapartes (p. ej. él↔ella, actor↔actriz) para mitigar el sesgo de género en modelos de PLN.",
zh = "一种数据增强技术,通过将带有性别的词替换为其对应词(如he↔she,actor↔actress)来创建额外的训练样本,以缓解自然语言处理模型中的性别偏见。",
term_es = "aumento por intercambio de género",
term_zh = "性别交换数据增强",
aliases_es = { "aumento por intercambio de género", "intercambio de género", "aumento de datos por intercambio de género", "aumento contrafactual de género" },
aliases_zh = { "性别交换数据增强", "性别交换增强", "性别替换增强", "反事实性别增强" },
}
data["gender-neutral pronouns"] = {
short = "Pronouns that do not specify gender, such as English singular \"they\" or Spanish neopronouns \"elle\"; their handling is a recurring challenge in NLP, machine translation, and bias-mitigation research.",
article = nil,
aliases = { "gender neutral pronouns", "non-binary pronouns", "neopronouns", "singular they" },
es = "Pronombres que no especifican el género, como el \"they\" singular en inglés o los neopronombres en español \"elle\"; su tratamiento es un desafío recurrente en PLN, traducción automática e investigación sobre mitigación de sesgos.",
zh = "不指明性别的代词,例如英语的单数\"they\"或西班牙语的新代词\"elle\";它们的处理是自然语言处理、机器翻译和偏见缓解研究中持续存在的挑战。",
term_es = "pronombres de género neutro",
term_zh = "性别中性代词",
aliases_es = { "pronombres neutros", "pronombres de género neutro", "pronombres no binarios", "neopronombres" },
aliases_zh = { "性别中性代词", "中性代词", "非二元代词", "新代词" },
}
data["gene essentiality"] = {
short = "The property that a gene is required for cell viability or fitness in a given context (organism, cell line, growth condition). Estimated experimentally by transposon mutagenesis in microbes or by genome-wide CRISPR knockout screens (DepMap) in mammalian cells.",
article = nil,
aliases = { "essential genes", "gene essentiality screen", "essentiality (genetics)", "genetic essentiality" },
es = "Propiedad de que un gen sea necesario para la viabilidad o aptitud celular en un contexto dado (organismo, línea celular, condición de crecimiento). Se estima experimentalmente mediante mutagénesis por transposones en microbios o cribados de noqueo CRISPR a escala del genoma (DepMap) en células de mamífero.",
zh = "基因在特定背景(生物体、细胞系或生长条件)下对细胞活力或适应度的必需程度。常通过微生物中的转座子诱变或哺乳动物细胞中的全基因组 CRISPR 敲除筛选(DepMap)实验性评估。",
term_es = "esencialidad génica",
term_zh = "基因必需性",
aliases_es = { "esencialidad de genes", "genes esenciales", "cribado de esencialidad génica" },
aliases_zh = { "基因必需性", "必需基因", "基因必需性筛选", "遗传必需性" },
}
data["gene expression matrix"] = {
short = "A two-dimensional table whose rows are genes (or transcripts) and columns are samples or cells, with entries giving expression abundance such as raw counts, TPM, or normalized values; the standard input for downstream transcriptomic analysis.",
article = nil,
aliases = { "expression matrix", "count matrix", "gene-by-sample matrix", "gene-by-cell matrix" },
es = "Tabla bidimensional cuyas filas son genes (o transcritos) y columnas son muestras o células, con entradas que indican la abundancia de expresión (conteos crudos, TPM o valores normalizados); es la entrada estándar para el análisis transcriptómico.",
zh = "二维表格,行为基因(或转录本),列为样本或细胞,元素表示表达丰度(原始计数、TPM 或归一化值),是下游转录组分析的标准输入。",
term_es = "matriz de expresión génica",
term_zh = "基因表达矩阵",
aliases_es = { "matriz de expresión", "matriz de conteos", "matriz gen-muestra", "matriz gen-célula" },
aliases_zh = { "表达矩阵", "计数矩阵", "基因-样本矩阵", "基因-细胞矩阵" },
}
data["gene fusion detection"] = {
short = "Computational identification of chimeric transcripts or rearranged DNA in which segments of two distinct genes are joined, typically from RNA-seq read pairs that span fusion junctions; tools include STAR-Fusion, Arriba, and FusionCatcher.",
article = nil,
aliases = { "fusion gene detection", "chimeric transcript detection", "fusion calling", "RNA fusion detection" },
es = "Identificación computacional de transcritos quiméricos o ADN reordenado donde se unen segmentos de dos genes distintos, típicamente a partir de pares de lecturas RNA-seq que abarcan los puntos de fusión; herramientas como STAR-Fusion, Arriba y FusionCatcher.",
zh = "通过计算方法识别两个不同基因片段拼接而成的嵌合转录本或重排DNA,通常基于跨越融合断点的RNA-seq配对读段;常用工具包括 STAR-Fusion、Arriba 和 FusionCatcher。",
term_es = "detección de fusiones génicas",
term_zh = "基因融合检测",
aliases_es = { "detección de genes de fusión", "detección de transcritos quiméricos", "llamado de fusiones" },
aliases_zh = { "融合基因检测", "嵌合转录本检测", "融合调用" },
}
data["gene ontology"] = {
short = "A standardized, hierarchical vocabulary describing gene-product attributes across three orthogonal aspects: biological process, molecular function, and cellular component; widely used to annotate genes and to test functional enrichment.",
article = nil,
aliases = { "GO", "Gene Ontology", "GO terms", "GO annotation" },
es = "Vocabulario jerárquico estandarizado que describe los atributos de los productos génicos en tres aspectos ortogonales: proceso biológico, función molecular y componente celular; se utiliza para anotar genes y evaluar enriquecimiento funcional.",
zh = "一个标准化的分层词汇表,从生物过程、分子功能和细胞组分三个正交维度描述基因产物属性,广泛用于基因功能注释和富集分析。",
term_es = "Gene Ontology",
term_zh = "基因本体",
aliases_es = { "GO", "ontología génica", "términos GO", "anotación GO" },
aliases_zh = { "GO", "Gene Ontology", "GO 术语", "GO 注释" },
}
data["gene ontology prediction"] = {
short = "The supervised task of assigning Gene Ontology terms to proteins or genes from sequence, structure, or interaction features; benchmarked by community challenges such as CAFA and addressed by methods like DeepGO and NetGO.",
article = nil,
aliases = { "GO prediction", "protein function prediction", "GO term prediction", "automated function prediction" },
es = "Tarea supervisada de asignar términos de Gene Ontology a proteínas o genes a partir de características de secuencia, estructura o interacción; evaluada en desafíos comunitarios como CAFA y abordada por métodos como DeepGO y NetGO.",
zh = "根据蛋白质或基因的序列、结构或相互作用特征自动分配 Gene Ontology 术语的有监督任务,通过 CAFA 等社区基准评测,代表方法包括 DeepGO 和 NetGO。",
term_es = "predicción de Gene Ontology",
term_zh = "基因本体预测",
aliases_es = { "predicción de GO", "predicción de función proteica", "predicción de términos GO" },
aliases_zh = { "GO 预测", "蛋白质功能预测", "GO 术语预测", "自动功能预测" },
}
data["gene regulatory network"] = {
short = "A directed graph in which nodes are genes (or transcription factors and their targets) and edges encode regulatory influences inferred from expression, chromatin, or perturbation data; central to systems biology and cell-fate modeling.",
article = nil,
aliases = { "GRN", "regulatory network", "transcriptional regulatory network", "TRN" },
es = "Grafo dirigido en el que los nodos son genes (o factores de transcripción y sus dianas) y las aristas codifican influencias regulatorias inferidas a partir de datos de expresión, cromatina o perturbación; es central en biología de sistemas y modelado del destino celular.",
zh = "有向图,节点是基因(或转录因子及其靶基因),边表示从表达、染色质或扰动数据中推断的调控关系;是系统生物学和细胞命运建模的核心。",
term_es = "red reguladora génica",
term_zh = "基因调控网络",
aliases_es = { "GRN", "red regulatoria", "red regulatoria transcripcional", "TRN" },
aliases_zh = { "GRN", "调控网络", "转录调控网络", "TRN" },
}
data["gene set enrichment analysis"] = {
short = "A statistical method that determines whether a predefined set of genes shows statistically significant, concordant differences between two biological states, by ranking all genes and computing a running enrichment score along the ranked list.",
article = nil,
aliases = { "GSEA", "gene-set enrichment", "enrichment analysis", "functional enrichment analysis" },
es = "Método estadístico que determina si un conjunto predefinido de genes muestra diferencias significativas y concordantes entre dos estados biológicos, ordenando todos los genes y calculando una puntuación de enriquecimiento acumulada a lo largo de la lista.",
zh = "一种统计方法,用于检验预定义的基因集合在两个生物状态之间是否表现出显著且一致的差异;做法是对所有基因排序,并沿排序列表计算累积富集得分。",
term_es = "análisis de enriquecimiento de conjuntos génicos",
term_zh = "基因集富集分析",
aliases_es = { "GSEA", "enriquecimiento de conjuntos génicos", "análisis de enriquecimiento", "análisis de enriquecimiento funcional" },
aliases_zh = { "GSEA", "基因集富集", "富集分析", "功能富集分析" },
}
data["geneformer"] = {
short = "A transformer-based foundation model for single-cell transcriptomics, pretrained on tens of millions of human single-cell expression profiles using a rank-value encoding so genes are tokenized by their relative expression within each cell.",
article = nil,
aliases = { "Geneformer", "Geneformer model" },
es = "Modelo fundacional basado en transformer para transcriptómica unicelular, preentrenado sobre decenas de millones de perfiles humanos de expresión unicelular mediante una codificación de valor por rango, donde los genes se tokenizan según su expresión relativa dentro de cada célula.",
zh = "面向单细胞转录组学的 Transformer 基础模型,基于数千万个人类单细胞表达谱预训练,采用基于秩的值编码,将基因按其在每个细胞中的相对表达水平进行词元化。",
term_es = "Geneformer",
term_zh = "Geneformer",
aliases_es = { "modelo Geneformer" },
aliases_zh = { "Geneformer 模型" },
}
data["generalization"] = {
short = "The ability of a trained model to perform well on unseen data drawn from the same (or a related) distribution as the training data, typically measured by performance on a held-out test set.",
article = nil,
aliases = { "generalisation", "generalization ability", "out-of-sample performance" },
es = "Capacidad de un modelo entrenado para desempeñarse bien sobre datos no vistos extraídos de la misma distribución (o una relacionada) que los datos de entrenamiento, típicamente medida por el rendimiento en un conjunto de prueba apartado.",
zh = "已训练模型在与训练数据来自相同(或相关)分布的未见数据上表现良好的能力,通常通过在留出测试集上的性能来衡量。",
term_es = "generalización",
term_zh = "泛化",
aliases_es = { "capacidad de generalización", "rendimiento fuera de muestra" },
aliases_zh = { "泛化能力", "generalization", "推广能力" },
}
data["generalization bound federated"] = {
short = "A theoretical bound on the gap between empirical and population loss in federated learning that explicitly accounts for client sampling, statistical heterogeneity across clients, and partial participation.",
article = nil,
aliases = { "federated generalization bound", "FL generalization bound", "generalization bound for federated learning" },
es = "Cota teórica sobre la diferencia entre la pérdida empírica y la poblacional en aprendizaje federado que tiene en cuenta de manera explícita el muestreo de clientes, la heterogeneidad estadística entre ellos y la participación parcial.",
zh = "联邦学习中关于经验损失与总体损失之差的理论界,显式考虑客户端采样、客户端间的统计异构性以及部分参与等因素。",
term_es = "cota de generalización federada",
term_zh = "联邦学习泛化界",
aliases_es = { "cota de generalización en aprendizaje federado", "cota de generalización para FL" },
aliases_zh = { "联邦泛化界", "FL 泛化界", "联邦学习泛化界限" },
}
data["generalized additive model"] = {
short = "A regression model that predicts a response as the sum of smooth, possibly nonlinear shape functions of individual predictors, retaining additivity for interpretability.",
article = nil,
aliases = { "GAM", "additive model", "generalised additive model" },
es = "Modelo de regresión que predice una respuesta como la suma de funciones de forma suaves y posiblemente no lineales de predictores individuales, conservando la aditividad para la interpretabilidad.",
zh = "一种回归模型,将响应预测为各个预测变量的平滑(可能非线性)形状函数之和,保持可加性以便于解释。",
term_es = "modelo aditivo generalizado",
term_zh = "广义可加模型",
aliases_es = { "GAM", "modelo aditivo" },
aliases_zh = { "GAM", "可加模型" },
}
data["generalized advantage estimation"] = {
short = "An advantage estimator that interpolates between high-bias one-step temporal-difference residuals and high-variance Monte Carlo returns through an exponentially weighted sum of TD residuals controlled by a parameter λ ∈ [0,1], trading off bias and variance in policy-gradient methods.",
article = nil,
aliases = { "GAE", "generalised advantage estimation" },
es = "Estimador de ventaja que interpola entre los residuos de diferencia temporal de un paso (alta tendencia) y los retornos de Monte Carlo (alta varianza) mediante una suma ponderada exponencialmente de residuos TD controlada por un parámetro λ ∈ [0,1], equilibrando sesgo y varianza en los métodos de gradiente de política.",
zh = "一种优势估计器,通过由参数 λ ∈ [0,1] 控制的 TD 残差指数加权和,在高偏差的单步时序差分残差与高方差的蒙特卡罗回报之间进行插值,从而在策略梯度方法中权衡偏差与方差。",
term_es = "GAE",
term_zh = "GAE",
aliases_es = { "GAE", "estimación generalizada de ventaja" },
aliases_zh = { "GAE", "广义优势估计" },
}
data["generalized belief propagation"] = {
short = "A region-based message-passing algorithm that extends loopy belief propagation by exchanging messages between clusters of variables and minimizing the Kikuchi free energy, often improving accuracy on graphs with many short loops.",
article = nil,
aliases = { "GBP", "generalised belief propagation", "Kikuchi belief propagation", "region-based belief propagation" },
es = "Algoritmo de paso de mensajes basado en regiones que extiende la propagación de creencias con bucles intercambiando mensajes entre conjuntos de variables y minimizando la energía libre de Kikuchi, mejorando con frecuencia la precisión en grafos con muchos bucles cortos.",
zh = "一种基于区域的消息传递算法,通过在变量簇之间交换消息并最小化菊池自由能,对带环信念传播进行推广,常在含有大量短环的图上获得更高的精度。",
term_es = "propagación de creencias generalizada",
term_zh = "广义信念传播",
aliases_es = { "GBP", "propagación de creencias de Kikuchi", "propagación de creencias basada en regiones" },
aliases_zh = { "广义信念传播", "GBP", "菊池信念传播", "基于区域的信念传播" },
}
data["generalized born"] = {
short = "An implicit-solvent model that approximates the electrostatic component of solvation free energy by treating each atom as a Born sphere with an effective radius, providing a fast alternative to Poisson-Boltzmann calculations.",
article = nil,
aliases = { "GB", "generalized Born", "Generalized Born model", "GB solvent model", "Generalised Born" },
es = "Modelo de solvatación implícita que aproxima la componente electrostática de la energía libre de solvatación tratando cada átomo como una esfera de Born con un radio efectivo, ofreciendo una alternativa rápida a los cálculos de Poisson-Boltzmann.",
zh = "一种隐式溶剂模型,通过将每个原子视为具有有效半径的Born球来近似溶剂化自由能的静电部分,是Poisson-Boltzmann计算的快速替代方案。",
term_es = "Born generalizado",
term_zh = "广义Born模型",
aliases_es = { "GB", "modelo Born generalizado", "modelo de Born generalizado" },
aliases_zh = { "GB", "广义玻恩模型", "GB溶剂模型" },
}
data["generalized em"] = {
short = "A variant of the EM algorithm in which the M-step only needs to increase, rather than maximize, the expected complete-data log-likelihood, while still guaranteeing monotonic improvement of the observed-data likelihood.",
article = nil,
aliases = { "GEM", "generalized EM", "generalised EM", "generalized expectation maximization" },
es = "Variante del algoritmo EM en la que el paso M solo necesita incrementar, en lugar de maximizar, la log-verosimilitud esperada de los datos completos, manteniendo aun así la mejora monótona de la verosimilitud de los datos observados.",
zh = "EM 算法的一种变体,其 M 步只需增加(而非最大化)完整数据对数似然的期望,同时仍能保证观测数据似然的单调提升。",
term_es = "EM generalizado",
term_zh = "广义 EM",
aliases_es = { "GEM", "EM generalizada", "maximización de expectativas generalizada" },
aliases_zh = { "广义 EM", "GEM", "广义期望最大化" },
}
data["generalized entropy index"] = {
short = "A family of inequality measures parameterized by a sensitivity parameter α; in fairness research, used to quantify benefit inequality across individuals or groups, with special cases including the Theil index and the mean log deviation.",
article = nil,
aliases = { "GEI", "generalised entropy index", "GE index", "generalized entropy inequality index" },
es = "Familia de medidas de desigualdad parametrizadas por un parámetro de sensibilidad α; en investigación de equidad, se utiliza para cuantificar la desigualdad de beneficios entre individuos o grupos, con casos especiales como el índice de Theil y la desviación logarítmica media.",
zh = "由敏感度参数α参数化的一族不平等度量;在公平性研究中用于量化个体或群体之间的收益不平等,特例包括泰尔指数和均值对数偏差。",
term_es = "índice de entropía generalizada",
term_zh = "广义熵指数",
aliases_es = { "índice de entropía generalizada", "índice de entropía generalizado", "índice GE" },
aliases_zh = { "广义熵指数", "广义熵不平等指数", "GE 指数" },
}
data["generalized gauss-newton"] = {
short = "An extension of the Gauss-Newton approximation to networks with arbitrary output transformations and exponential-family likelihoods: H_GGN = J^T R J, where R is the Hessian of the log-likelihood with respect to the network output. Forms the basis of K-FAC and most Laplace-approximation BNNs.",
article = nil,
aliases = { "GGN", "generalised Gauss-Newton", "generalized Gauss Newton", "Generalized Gauss-Newton" },
es = "Extensión de la aproximación de Gauss-Newton a redes con transformaciones de salida arbitrarias y verosimilitudes de familia exponencial: H_GGN = J^T R J, donde R es el hessiano de la log-verosimilitud respecto a la salida de la red. Base de K-FAC y de la mayoría de BNN basadas en aproximación de Laplace.",
zh = "Gauss-Newton近似的推广形式,适用于具有任意输出变换和指数族似然的网络:H_GGN = J^T R J,其中R为对数似然关于网络输出的Hessian。它是K-FAC及多数基于Laplace近似的BNN的基础。",
term_es = "Gauss-Newton generalizado",
term_zh = "广义Gauss-Newton",
aliases_es = { "GGN", "Gauss-Newton generalizada" },
aliases_zh = { "GGN", "广义高斯-牛顿", "广义高斯牛顿矩阵" },
}
data["generalized iou loss"] = {
short = "Extension of IoU loss that adds a penalty proportional to the smallest enclosing box, providing useful gradients even when predicted and ground-truth boxes do not overlap.",
article = nil,
aliases = { "GIoU loss", "GIoU", "generalised IoU loss" },
es = "Extensión de la pérdida IoU que añade una penalización proporcional al menor recuadro envolvente, proporcionando gradientes útiles incluso cuando las cajas no se solapan.",
zh = "IoU 损失的扩展,加入与最小外接框成正比的惩罚项,即使预测框与真实框不相交也能提供有用梯度。",
term_es = "pérdida GIoU",
term_zh = "GIoU 损失",
aliases_es = { "GIoU", "IoU generalizada" },
aliases_zh = { "GIoU", "广义 IoU 损失" },
}
data["generalized posterior"] = {
short = "A modified Bayesian posterior in which the likelihood is raised to a temperature or replaced by a generic loss-based score, including cold and tempered posteriors as well as PAC-Bayes Gibbs posteriors. Useful when the model is misspecified or stochastic.",
article = nil,
aliases = { "generalised posterior", "Gibbs posterior", "tempered posterior", "loss-based posterior", "fractional posterior" },
es = "Posterior bayesiana modificada en la que la verosimilitud se eleva a una temperatura o se sustituye por una puntuación genérica basada en pérdida; incluye posteriores fríos y atemperados, así como los Gibbs de PAC-Bayes. Útil cuando el modelo está mal especificado o es estocástico.",
zh = "一种经过修改的贝叶斯后验:将似然提升到某个温度幂次,或用一般的基于损失的评分替代,涵盖冷后验、温度后验以及PAC-Bayes中的Gibbs后验,常用于模型设定不当或似然为随机量的情形。",
term_es = "posterior generalizada",
term_zh = "广义后验",
aliases_es = { "posterior atemperada", "posterior de Gibbs", "posterior basada en pérdida", "posterior fraccionaria" },
aliases_zh = { "Gibbs后验", "温度化后验", "基于损失的后验", "分数后验" },
}
data["generalized propensity score"] = {
short = "An extension of the propensity score to non-binary treatments, defined as the conditional density of the treatment given covariates, used to adjust for confounding with continuous or multi-valued treatments.",
article = nil,
aliases = { "GPS", "generalised propensity score", "Hirano-Imbens GPS" },
es = "Extensión del puntaje de propensión a tratamientos no binarios, definida como la densidad condicional del tratamiento dado los covariables; se usa para ajustar por confusión con tratamientos continuos o de múltiples valores.",
zh = "倾向得分在非二元处理情形下的推广,定义为给定协变量时处理变量的条件密度,用于在连续或多值处理下校正混杂。",
term_es = "puntaje de propensión generalizado",
term_zh = "广义倾向得分",
aliases_es = { "GPS", "índice de propensión generalizado" },
aliases_zh = { "GPS", "广义倾向性得分" },
}
data["generalized random forest"] = {
short = "A random forest framework that estimates heterogeneous quantities defined by local moment conditions, including conditional average treatment effects and instrumental variable estimates, with valid asymptotic inference.",
article = nil,
aliases = { "GRF", "generalised random forest", "generalized random forests" },
es = "Marco de bosques aleatorios que estima cantidades heterogéneas definidas por condiciones de momento locales, incluyendo efectos medios condicionales del tratamiento y estimaciones por variables instrumentales, con inferencia asintótica válida.",
zh = "一种随机森林框架,用于估计由局部矩条件定义的异质量,包括条件平均处理效应和工具变量估计,并提供有效的渐近推断。",
term_es = "bosque aleatorio generalizado",
term_zh = "广义随机森林",
aliases_es = { "GRF", "bosques aleatorios generalizados" },
aliases_zh = { "GRF", "广义随机森林算法" },
}
data["generalized reparameterization"] = {
short = "A reparameterization-style gradient estimator (G-REP) that handles distributions with parameter-dependent supports or non-invertible transformations by combining a partial reparameterization with a residual score-function correction.",
article = nil,
aliases = { "G-REP", "generalised reparameterization", "generalized reparameterization gradient", "GREP" },
es = "Estimador de gradiente tipo reparametrización (G-REP) que maneja distribuciones con soportes dependientes de los parámetros o transformaciones no invertibles combinando una reparametrización parcial con una corrección residual basada en la función score.",
zh = "一种推广的重参数化梯度估计器(G-REP),通过结合部分重参数化和残差评分函数修正项,处理支撑集依赖于参数或变换不可逆的分布。",
term_es = "reparametrización generalizada",
term_zh = "广义重参数化",
aliases_es = { "G-REP", "gradiente de reparametrización generalizada" },
aliases_zh = { "G-REP", "广义重参数化梯度" },
}
data["generalized synthetic control"] = {
short = "A method that combines synthetic control with interactive fixed effects to estimate counterfactual outcomes for multiple treated units across time, allowing time-varying unobserved heterogeneity.",
article = nil,
aliases = { "GSC", "generalised synthetic control", "Xu generalized synthetic control" },
es = "Método que combina el control sintético con efectos fijos interactivos para estimar resultados contrafactuales de múltiples unidades tratadas a lo largo del tiempo, permitiendo heterogeneidad no observada variable en el tiempo.",
zh = "将合成控制法与交互固定效应相结合的方法,用于估计多个被处理单位在时间维度上的反事实结果,允许存在随时间变化的未观测异质性。",
term_es = "control sintético generalizado",
term_zh = "广义合成控制法",
aliases_es = { "GSC" },
aliases_zh = { "GSC", "广义合成控制" },
}
data["generative adversarial network"] = {
short = "A generative model framework in which a generator network and a discriminator network are trained jointly in a minimax game: the generator produces samples and the discriminator tries to distinguish them from real data.",
article = nil,
aliases = { "GAN", "GANs", "generative adversarial networks", "adversarial generative network" },
es = "Marco de modelado generativo en el que una red generadora y una red discriminadora se entrenan conjuntamente en un juego minimax: la generadora produce muestras y la discriminadora intenta distinguirlas de datos reales.",
zh = "一种生成建模框架,由生成器网络与判别器网络在极小极大博弈中联合训练:生成器产生样本,判别器试图将其与真实数据区分开。",
term_es = "red generativa adversarial",
term_zh = "生成对抗网络",
aliases_es = { "GAN", "redes generativas adversariales", "red generativa antagónica" },
aliases_zh = { "GAN", "对抗生成网络", "生成式对抗网络" },
}
data["generative captioning"] = {
short = "Image or video captioning approaches that produce free-form natural-language descriptions via an autoregressive decoder, rather than retrieving captions from a fixed pool. Includes models such as SimVLM, BLIP, and GIT.",
article = nil,
aliases = { "generative caption generation", "generative image captioning", "generative video captioning" },
es = "Enfoques de descripción de imágenes o videos que producen descripciones en lenguaje natural de forma libre mediante un decodificador autorregresivo, en lugar de recuperarlas de un conjunto fijo. Incluye modelos como SimVLM, BLIP y GIT.",
zh = "通过自回归解码器生成自由形式自然语言描述的图像或视频字幕方法,而非从固定集合中检索字幕。代表性模型包括 SimVLM、BLIP 和 GIT。",
term_es = "subtitulado generativo",
term_zh = "生成式字幕",
aliases_es = { "generación generativa de subtítulos", "captioning generativo" },
aliases_zh = { "生成式图像字幕", "生成式描述生成" },
}
data["generative counterfactual"] = {
short = "A counterfactual explanation produced by a generative model (e.g. VAE, diffusion, or GAN) that synthesizes a realistic, in-distribution input which would change the model's prediction.",
article = nil,
aliases = { "generative counterfactuals", "generative counterfactual explanation" },
es = "Explicación contrafactual producida por un modelo generativo (por ejemplo, VAE, difusión o GAN) que sintetiza una entrada realista y dentro de la distribución que cambiaría la predicción del modelo.",
zh = "由生成模型(如 VAE、扩散模型或 GAN)生成的反事实解释,合成一个真实且符合分布的输入,使模型的预测发生改变。",
term_es = "contrafactual generativo",
term_zh = "生成式反事实",
aliases_es = { "explicación contrafactual generativa" },
aliases_zh = { "生成式反事实解释" },
}
data["generative model"] = {
short = "A model that learns the joint distribution of inputs (and optionally labels) so it can generate new samples and assign probabilities, in contrast to discriminative models that only model the conditional label distribution.",
article = nil,
aliases = { "generative models", "generative probabilistic model" },
es = "Modelo que aprende la distribución conjunta de las entradas (y opcionalmente las etiquetas) de modo que puede generar nuevas muestras y asignar probabilidades, en contraste con los modelos discriminativos que solo modelan la distribución condicional de la etiqueta.",
zh = "一种学习输入(以及可选标签)联合分布的模型,能够生成新样本并赋予概率;与仅建模标签条件分布的判别模型形成对比。",
term_es = "modelo generativo",
term_zh = "生成模型",
aliases_es = { "modelos generativos", "modelo probabilístico generativo" },
aliases_zh = { "生成式模型", "概率生成模型" },
}
data["genetic algorithm"] = {
short = "A population-based metaheuristic that evolves candidate solutions through selection, crossover, and mutation operators inspired by biological evolution, widely used for combinatorial optimization and neural architecture search.",
article = nil,
aliases = { "GA", "genetic algorithms", "evolutionary algorithm", "Genetic Algorithm" },
es = "Metaheurística basada en poblaciones que evoluciona soluciones candidatas mediante operadores de selección, cruce y mutación inspirados en la evolución biológica; se usa ampliamente para optimización combinatoria y búsqueda de arquitecturas neuronales.",
zh = "一类基于种群的元启发式算法,通过模拟生物进化的选择、交叉和变异算子演化候选解,广泛应用于组合优化和神经架构搜索。",
term_es = "algoritmo genético",
term_zh = "遗传算法",
aliases_es = { "GA", "algoritmos genéticos", "algoritmo evolutivo" },
aliases_zh = { "GA", "Genetic Algorithm", "进化算法" },
}
data["genetic instrument"] = {
short = "A genetic variant used as an instrumental variable in Mendelian randomization studies to estimate the causal effect of an exposure on an outcome, leveraging random allele inheritance to mimic randomization.",
article = nil,
aliases = { "Mendelian randomization instrument", "MR instrument", "genetic IV" },
es = "Variante genética usada como variable instrumental en estudios de aleatorización mendeliana para estimar el efecto causal de una exposición sobre un resultado, aprovechando la herencia aleatoria de alelos para imitar la aleatorización.",
zh = "在孟德尔随机化研究中用作工具变量的遗传变异,利用等位基因的随机遗传来模拟随机化,从而估计暴露对结果的因果效应。",
term_es = "instrumento genético",
term_zh = "遗传工具变量",
aliases_es = { "instrumento de aleatorización mendeliana" },
aliases_zh = { "孟德尔随机化工具", "遗传 IV" },
}
data["genetic matching"] = {
short = "A multivariate matching method that uses a genetic search algorithm to choose a weighted distance metric over covariates, optimizing post-matching balance for causal effect estimation.",
article = nil,
aliases = { "GenMatch", "genetic matching algorithm" },
es = "Método de emparejamiento multivariante que utiliza un algoritmo de búsqueda genética para elegir una métrica de distancia ponderada sobre las covariables, optimizando el balance posterior al emparejamiento para la estimación de efectos causales.",
zh = "一种多变量匹配方法,使用遗传搜索算法在协变量上选择加权距离度量,以优化匹配后的协变量平衡,用于因果效应估计。",
term_es = "emparejamiento genético",
term_zh = "遗传匹配",
aliases_es = { "GenMatch", "matching genético" },
aliases_zh = { "GenMatch", "遗传匹配算法" },
}
data["genetic programming"] = {
short = "An evolutionary computation technique that automatically discovers programs—usually represented as trees of operators and operands—by applying selection, crossover, and mutation to a population evaluated against a fitness function.",
article = nil,
aliases = { "GP", "genetic program synthesis", "evolutionary program synthesis", "Koza genetic programming" },
es = "Una técnica de computación evolutiva que descubre programas de forma automática —representados habitualmente como árboles de operadores y operandos— aplicando selección, cruce y mutación a una población evaluada con una función de aptitud.",
zh = "一种进化计算技术,通过对依据适应度函数评估的种群应用选择、交叉和变异,自动发现程序(通常以算子和操作数构成的树表示)。",
term_es = "programación genética",
term_zh = "遗传编程",
aliases_es = { "GP", "síntesis evolutiva de programas", "programación evolutiva de programas" },
aliases_zh = { "GP", "遗传程序设计", "进化程序合成" },
}
data["genie protein"] = {
short = "A diffusion-based generative model for protein backbones that denoises Cα coordinates with an SE(3)-equivariant network, producing diverse and designable structures usable as scaffolds for downstream sequence design.",
article = nil,
aliases = { "Genie", "Genie protein", "Genie protein diffusion", "Genie protein generator" },
es = "Modelo generativo basado en difusión para esqueletos proteicos que elimina ruido de coordenadas Cα con una red equivariante a SE(3), produciendo estructuras diversas y diseñables que pueden servir como andamios para el diseño posterior de secuencias.",
zh = "一种用于蛋白质骨架生成的扩散模型,使用SE(3)等变网络对Cα坐标进行去噪,能够生成多样且可设计的结构,可作为下游序列设计的支架。",
term_es = "Genie (proteínas)",
term_zh = "Genie蛋白质生成模型",
aliases_es = { "Genie", "modelo Genie de proteínas", "difusión Genie" },
aliases_zh = { "Genie", "Genie蛋白质", "Genie蛋白扩散模型" },
}
data["genie3"] = {
short = "A gene regulatory network inference algorithm that, for each target gene, trains a tree-based ensemble (random forest or extra-trees) to predict its expression from the expression of all other genes and ranks regulators by feature importance.",
article = nil,
aliases = { "GENIE3", "GEne Network Inference with Ensemble of trees" },
es = "Algoritmo de inferencia de redes reguladoras génicas que, para cada gen diana, entrena un ensamble basado en árboles (random forest o extra-trees) para predecir su expresión a partir de la del resto de genes y clasifica los reguladores por importancia de las características.",
zh = "一种基因调控网络推断算法:对每个目标基因训练基于树的集成模型(随机森林或极端随机树),由其他基因的表达预测其表达,并按特征重要性对调控因子进行排名。",
term_es = "GENIE3",
term_zh = "GENIE3",
aliases_es = { "GENIE3" },
aliases_zh = { "GENIE3 算法" },
}
data["genome assembly"] = {
short = "The reconstruction of a complete or near-complete genomic sequence from many shorter sequencing reads via overlap detection, contig building, and scaffolding; can be reference-guided or de novo.",
article = nil,
aliases = { "de novo assembly", "genome reconstruction", "sequence assembly", "whole-genome assembly" },
es = "Reconstrucción de una secuencia genómica completa o casi completa a partir de muchas lecturas de secuenciación más cortas mediante detección de solapamientos, construcción de contigs y andamiaje; puede ser de novo o guiada por referencia.",
zh = "通过重叠检测、contig 构建和支架化,将大量较短的测序读段重建成完整或近完整的基因组序列的过程;可分为从头组装和参考引导组装。",
term_es = "ensamblaje de genomas",
term_zh = "基因组组装",
aliases_es = { "ensamblaje de novo", "reconstrucción de genoma", "ensamblaje de secuencias", "ensamblaje del genoma completo" },
aliases_zh = { "从头组装", "基因组重建", "序列组装", "全基因组组装" },
}
data["genome graph"] = {
short = "A graph-based representation of a population of genomes in which nodes are sequence segments and edges encode alternative paths through variants, enabling unbiased read mapping and variant analysis without privileging a single linear reference.",
article = nil,
aliases = { "pangenome graph", "variation graph", "graph genome", "sequence graph" },
es = "Representación basada en grafos de una población de genomas en la que los nodos son segmentos de secuencia y las aristas codifican caminos alternativos a través de variantes, permitiendo un mapeo de lecturas y análisis de variantes sin sesgo hacia una única referencia lineal.",
zh = "以图结构表示基因组群体的方法:节点为序列片段,边表示通过变异的可选路径,从而在不偏向单一线性参考序列的前提下进行无偏的读段比对和变异分析。",
term_es = "grafo del genoma",
term_zh = "基因组图",
aliases_es = { "grafo del pangenoma", "grafo de variación", "genoma en grafo", "grafo de secuencias" },
aliases_zh = { "泛基因组图", "变异图", "图基因组", "序列图" },
}
data["genome-wide association study"] = {
short = "An observational study that scans millions of genetic variants, typically common SNPs, across many individuals to identify those statistically associated with a trait or disease, with significance assessed against a stringent genome-wide threshold (commonly p < 5e-8).",
article = nil,
aliases = { "GWAS", "genome wide association study", "association scan", "whole-genome association study" },
es = "Estudio observacional que examina millones de variantes genéticas, típicamente SNPs comunes, en muchos individuos para identificar aquellas asociadas estadísticamente con un rasgo o enfermedad, con significación evaluada frente a un umbral estricto a escala genómica (habitualmente p < 5e-8).",
zh = "一种观察性研究,对大量个体扫描数百万个遗传变异(通常是常见 SNP),以识别在统计上与某性状或疾病相关的位点,显著性以严格的全基因组阈值(通常 p < 5e-8)评估。",
term_es = "estudio de asociación de genoma completo",
term_zh = "全基因组关联研究",
aliases_es = { "GWAS", "estudio de asociación a escala genómica", "barrido de asociación", "estudio de asociación de todo el genoma" },
aliases_zh = { "GWAS", "全基因组关联分析", "关联扫描", "全基因组关联性研究" },
}
data["genre classification"] = {
short = "An audio classification task that assigns a musical genre label (e.g., rock, jazz, classical) to a music recording, typically using spectrogram features and a learned classifier.",
article = nil,
aliases = { "music genre classification", "musical genre classification", "music genre recognition", "MGR" },
es = "Tarea de clasificación de audio que asigna una etiqueta de género musical (por ejemplo, rock, jazz, clásica) a una grabación musical, normalmente utilizando características espectrales y un clasificador entrenado.",
zh = "一项音频分类任务,将音乐流派标签(如摇滚、爵士、古典)分配给音乐录音,通常使用频谱特征和训练好的分类器。",
term_es = "clasificación de género musical",
term_zh = "音乐流派分类",
aliases_es = { "clasificación de géneros musicales", "reconocimiento de género musical" },
aliases_zh = { "音乐类型分类", "流派识别", "音乐流派识别" },
}
data["geodiff"] = {
short = "A geometric diffusion model that generates 3D molecular conformations by denoising atomic coordinates with an SE(3)-equivariant network, jointly capturing roto-translation invariance and chemical-graph constraints.",
article = nil,
aliases = { "GeoDiff", "Geo Diff", "geometric diffusion model" },
es = "Modelo de difusión geométrica que genera conformaciones moleculares en 3D eliminando ruido de las coordenadas atómicas con una red equivariante a SE(3), capturando simultáneamente la invarianza rotacional-traslacional y las restricciones del grafo químico.",
zh = "一种几何扩散模型,通过SE(3)等变网络对原子坐标去噪来生成三维分子构象,同时兼顾旋转-平移不变性与化学图约束。",
term_es = "GeoDiff",
term_zh = "GeoDiff",
aliases_es = { "GeoDiff", "modelo de difusión geométrica" },
aliases_zh = { "GeoDiff", "几何扩散模型", "几何分子扩散模型" },
}
data["geographic regression discontinuity"] = {
short = "A regression discontinuity design in which treatment status changes at a geographic boundary, identifying causal effects by comparing units on either side of the border under continuity assumptions.",
article = nil,
aliases = { "geographic RD", "geographic RDD", "spatial regression discontinuity", "boundary discontinuity" },
es = "Diseño de regresión discontinua en el que el estado de tratamiento cambia en una frontera geográfica, identificando efectos causales al comparar unidades a ambos lados del límite bajo supuestos de continuidad.",
zh = "一种断点回归设计,处理状态在地理边界处发生变化,在连续性假设下通过比较边界两侧的单位来识别因果效应。",
term_es = "regresión discontinua geográfica",
term_zh = "地理断点回归",
aliases_es = { "RD geográfica", "RDD geográfica", "regresión discontinua espacial" },
aliases_zh = { "地理 RD", "空间断点回归", "边界断点回归" },
}
data["geometric median"] = {
short = "The point in a metric space that minimizes the sum of Euclidean distances to a set of input points; used as a Byzantine-robust aggregator in federated learning because it tolerates a bounded fraction of arbitrary outliers.",
article = nil,
aliases = { "1-median", "Fermat-Weber point", "geometric median aggregator", "spatial median" },
es = "Punto de un espacio métrico que minimiza la suma de distancias euclidianas a un conjunto de puntos dado; se utiliza como agregador robusto a clientes bizantinos en aprendizaje federado porque tolera una fracción acotada de valores atípicos arbitrarios.",
zh = "度量空间中使到一组给定点的欧氏距离之和最小的点;在联邦学习中用作拜占庭鲁棒的聚合算子,因为它能容忍有界比例的任意异常值。",
term_es = "mediana geométrica",
term_zh = "几何中位数",
aliases_es = { "1-mediana", "punto de Fermat-Weber", "mediana espacial", "agregador de mediana geométrica" },
aliases_zh = { "1-中位数", "Fermat-Weber 点", "空间中位数", "几何中位数聚合" },
}
data["geonames"] = {
short = "A free, openly licensed geographical database that contains over eleven million place names with coordinates, administrative hierarchies, populations, and feature codes, widely used as a gazetteer in NLP and knowledge graph systems.",
article = nil,
aliases = { "GeoNames", "GeoNames gazetteer", "geonames.org" },
es = "Una base de datos geográfica gratuita y de licencia abierta que contiene más de once millones de nombres de lugares con coordenadas, jerarquías administrativas, poblaciones y códigos de tipo, ampliamente utilizada como gazeta en sistemas de PLN y grafos de conocimiento.",
zh = "一个免费开源许可的地理数据库,收录超过一千一百万个地名及其坐标、行政层级、人口和地物代码,广泛用作 NLP 和知识图谱系统中的地名词典。",
term_es = "GeoNames",
term_zh = "GeoNames",
aliases_es = { "GeoNames", "gazeta GeoNames", "base GeoNames" },
aliases_zh = { "GeoNames", "GeoNames 地名库", "GeoNames 数据库" },
}
data["germline variant"] = {
short = "A genetic variant present in the heritable, gametic DNA and therefore inherited and shared by essentially all cells of an organism, contrasted with somatic variants that arise post-zygotically and are confined to a subset of cells.",
article = nil,
aliases = { "germline mutation", "inherited variant", "constitutional variant", "hereditary variant" },
es = "Variante genética presente en el ADN germinal heredable y, por tanto, transmitida y compartida por prácticamente todas las células del organismo, en contraste con las variantes somáticas que surgen tras la fecundación y se limitan a un subconjunto de células.",
zh = "存在于可遗传的生殖细胞 DNA 中的遗传变异,因此被生物体几乎所有细胞共享并可遗传给后代;与受精后产生、仅存在于部分细胞的体细胞变异相对。",
term_es = "variante germinal",
term_zh = "胚系变异",
aliases_es = { "mutación germinal", "variante heredada", "variante constitucional", "variante hereditaria" },
aliases_zh = { "胚系突变", "遗传变异", "种系变异", "生殖系变异" },
}
data["ges algorithm"] = {
short = "The Greedy Equivalence Search algorithm, a score-based causal-discovery method that searches over the space of Markov equivalence classes (CPDAGs) by greedily adding and then removing edges to optimize a decomposable score.",
article = nil,
aliases = { "GES", "GES algorithm", "Greedy Equivalence Search", "greedy equivalence search algorithm" },
es = "Algoritmo de Búsqueda Voraz por Equivalencia, un método de descubrimiento causal basado en puntajes que recorre el espacio de clases de equivalencia de Markov (CPDAGs) añadiendo y luego eliminando aristas de forma voraz para optimizar un puntaje descomponible.",
zh = "贪心等价搜索算法(GES),一种基于评分的因果发现方法,在马尔可夫等价类(CPDAG)空间中通过贪心地添加再删除边来优化可分解评分。",
term_es = "algoritmo GES",
term_zh = "GES 算法",
aliases_es = { "GES", "Búsqueda Voraz por Equivalencia", "algoritmo de búsqueda voraz por equivalencia" },
aliases_zh = { "GES 算法", "GES", "贪心等价搜索", "贪心等价搜索算法" },
}
data["gff3 format"] = {
short = "A nine-column tab-delimited text format for genome feature annotations (genes, transcripts, exons, CDS), where the ninth column carries structured key=value attributes including parent-child relationships that encode the feature hierarchy.",
article = nil,
aliases = { "GFF3", "GFF version 3", "Generic Feature Format 3", ".gff3", "gff3" },
es = "Formato de texto delimitado por tabuladores de nueve columnas para anotaciones de características genómicas (genes, transcritos, exones, CDS); la novena columna contiene atributos estructurados clave=valor, incluidas relaciones padre-hijo que codifican la jerarquía de las características.",
zh = "一种以制表符分隔的九列文本格式,用于基因组特征注释(基因、转录本、外显子、CDS);第九列以 key=value 形式存储结构化属性,包括父子关系以编码特征层级。",
term_es = "formato GFF3",
term_zh = "GFF3 格式",
aliases_es = { "GFF3", "GFF versión 3", "Generic Feature Format 3", ".gff3" },
aliases_zh = { "GFF3", "GFF 第三版", "通用特征格式 3", ".gff3 文件" },
}
data["gfpgan"] = {
short = "A face restoration model that uses a generative facial prior derived from a pretrained StyleGAN to restore degraded face images while preserving identity and detail.",
article = nil,
aliases = { "GFPGAN", "Generative Facial Prior GAN" },
es = "Modelo de restauración facial que utiliza un prior facial generativo derivado de una StyleGAN preentrenada para restaurar imágenes faciales degradadas, conservando la identidad y los detalles.",
zh = "一种人脸修复模型,利用预训练 StyleGAN 提取的生成式人脸先验来修复退化的人脸图像,同时保留身份和细节。",
term_es = "GFPGAN",
term_zh = "GFPGAN",
aliases_es = { "GFPGAN" },
aliases_zh = { "GFPGAN" },
}
data["ggml"] = {
short = "A C tensor library by Georgi Gerganov for on-device CPU/GPU inference of large neural networks, and the legacy single-file model format (now superseded by GGUF) used by llama.cpp and whisper.cpp.",
article = nil,
aliases = { "GGML", ".ggml" },
es = "Biblioteca de tensores en C creada por Georgi Gerganov para la inferencia local en CPU y GPU de redes neuronales grandes, así como el antiguo formato de modelo en un solo archivo (hoy sustituido por GGUF) utilizado por llama.cpp y whisper.cpp.",
zh = "Georgi Gerganov 编写的 C 张量库,用于在本地 CPU/GPU 上推理大型神经网络;同时也是 llama.cpp、whisper.cpp 早期使用的单文件模型格式(已被 GGUF 取代)。",
term_es = "GGML",
term_zh = "GGML",
aliases_es = { "biblioteca GGML", ".ggml" },
aliases_zh = { "GGML 库", ".ggml" },
}
data["gguf"] = {
short = "GPT-Generated Unified Format: a single-file binary container used by llama.cpp to package model weights, tokenizer and metadata together, with built-in support for multiple quantization schemes. Successor to GGML.",
article = nil,
aliases = { "GGUF", "GPT-Generated Unified Format", ".gguf" },
es = "GPT-Generated Unified Format: contenedor binario en un solo archivo utilizado por llama.cpp para empaquetar pesos del modelo, tokenizador y metadatos, con soporte integrado para múltiples esquemas de cuantización. Es el sucesor de GGML.",
zh = "GPT-Generated Unified Format:llama.cpp 使用的单文件二进制容器格式,将模型权重、分词器和元数据打包在一起,原生支持多种量化方案,是 GGML 的继任者。",
term_es = "GGUF",
term_zh = "GGUF",
aliases_es = { "formato GGUF", ".gguf" },
aliases_zh = { "GGUF 格式", ".gguf" },
}
data["ghn-2"] = {
short = "Graph HyperNetwork v2 — a hypernetwork that, given any neural architecture's computational graph, predicts its trained-quality weights in a single forward pass, enabling rapid architecture evaluation without training.",
article = nil,
aliases = { "GHN-2", "GHN2", "Graph HyperNetwork 2", "Graph HyperNetwork v2" },
es = "Graph HyperNetwork v2: hiperred que, dado el grafo de cómputo de cualquier arquitectura neuronal, predice sus pesos de calidad entrenada en un solo paso hacia adelante, permitiendo evaluar arquitecturas rápidamente sin entrenarlas.",
zh = "Graph HyperNetwork 第二版:一种超网络,输入任意神经网络架构的计算图后,可在单次前向传播中预测其训练后的权重,从而无需训练即可快速评估架构。",
term_es = "GHN-2",
term_zh = "GHN-2",
aliases_es = { "GHN-2", "Graph HyperNetwork v2", "GHN2" },
aliases_zh = { "GHN-2", "Graph HyperNetwork 2", "GHN2" },
}
data["ghose filter"] = {
short = "A drug-likeness rule set proposed by Ghose, Viswanadhan and Wendoloski that constrains molecular weight, logP, molar refractivity and atom count to ranges typical of marketed oral drugs, used to filter virtual libraries.",
article = nil,
aliases = { "Ghose filter", "Ghose rule", "Ghose et al. filter", "Ghose drug-likeness filter" },
es = "Conjunto de reglas de similitud a fármaco propuesto por Ghose, Viswanadhan y Wendoloski que restringe el peso molecular, logP, refractividad molar y número de átomos a rangos típicos de fármacos orales comercializados, utilizado para filtrar bibliotecas virtuales.",
zh = "由Ghose、Viswanadhan和Wendoloski提出的类药性规则集,将分子量、logP、摩尔折射率和原子数限制在已上市口服药典型的范围内,用于过滤虚拟分子库。",
term_es = "filtro de Ghose",
term_zh = "Ghose过滤器",
aliases_es = { "regla de Ghose", "filtro de Ghose et al." },
aliases_zh = { "Ghose规则", "Ghose类药性过滤器", "Ghose筛选规则" },
}
data["gibbs classifier bound"] = {
short = "A PAC-Bayes generalization bound that controls the expected loss of the Gibbs classifier — which draws a fresh hypothesis from the posterior for each prediction — in terms of the KL divergence between posterior and prior plus a sample-size term.",
article = nil,
aliases = { "Gibbs classifier bound", "Gibbs predictor bound", "PAC-Bayes Gibbs bound", "Gibbs risk bound" },
es = "Cota de generalización PAC-Bayes que acota la pérdida esperada del clasificador de Gibbs —el que extrae una hipótesis fresca de la posterior para cada predicción— en términos de la divergencia KL entre posterior y priori más un término dependiente del tamaño de la muestra.",
zh = "一种PAC-Bayes泛化界,用于约束Gibbs分类器(每次预测都从后验中独立抽取一个假设)的期望损失,其形式为后验与先验之间的KL散度加一个与样本量相关的项。",
term_es = "cota del clasificador de Gibbs",
term_zh = "Gibbs分类器界",
aliases_es = { "cota de Gibbs", "cota PAC-Bayes de Gibbs" },
aliases_zh = { "Gibbs预测器界", "PAC-Bayes Gibbs界", "Gibbs风险界" },
}
data["gibbs distribution"] = {
short = "A probability distribution of the form p(x) ∝ exp(-E(x)/T), where E is an energy function and T is a temperature; it arises naturally in statistical physics and is the form taken by Markov random fields.",
article = nil,
aliases = { "Gibbs distribution", "Boltzmann distribution", "Boltzmann-Gibbs distribution", "Gibbs measure" },
es = "Distribución de probabilidad de la forma p(x) ∝ exp(-E(x)/T), donde E es una función de energía y T una temperatura; surge de manera natural en la física estadística y es la forma que adoptan los campos aleatorios de Markov.",
zh = "形如 p(x) ∝ exp(-E(x)/T) 的概率分布,其中 E 为能量函数、T 为温度;它在统计物理中自然出现,并且是马尔可夫随机场所采用的形式。",
term_es = "distribución de Gibbs",
term_zh = "吉布斯分布",
aliases_es = { "distribución de Boltzmann", "distribución de Boltzmann-Gibbs", "medida de Gibbs" },
aliases_zh = { "吉布斯分布", "玻尔兹曼分布", "玻尔兹曼-吉布斯分布", "吉布斯测度" },
}
data["gibbs random field"] = {
short = "A random field whose joint distribution is a Gibbs distribution defined by a sum of clique potentials; by the Hammersley-Clifford theorem, the class of strictly positive Gibbs random fields coincides with that of Markov random fields.",
article = nil,
aliases = { "Gibbs random field", "GRF", "Gibbs field", "Gibbs Markov random field" },
es = "Campo aleatorio cuya distribución conjunta es una distribución de Gibbs definida por una suma de potenciales de clique; por el teorema de Hammersley-Clifford, la clase de campos aleatorios de Gibbs estrictamente positivos coincide con la de los campos aleatorios de Markov.",
zh = "其联合分布为由团势函数之和定义的吉布斯分布的随机场;根据 Hammersley-Clifford 定理,严格正的吉布斯随机场与马尔可夫随机场是同一类模型。",
term_es = "campo aleatorio de Gibbs",
term_zh = "吉布斯随机场",
aliases_es = { "GRF", "campo de Gibbs" },
aliases_zh = { "吉布斯随机场", "GRF", "吉布斯场" },
}
data["gibbs sampling"] = {
short = "An MCMC algorithm that samples from a high-dimensional joint distribution by iteratively drawing each variable from its full conditional given the current values of the others. It is a special case of Metropolis–Hastings whose proposals are always accepted.",
article = nil,
aliases = { "Gibbs sampler", "Gibbs", "Gibbs sampling algorithm", "blocked Gibbs sampling", "collapsed Gibbs sampling" },
es = "Algoritmo MCMC que muestrea de una distribución conjunta de alta dimensión extrayendo iterativamente cada variable de su condicional completa dado el resto. Es un caso particular de Metropolis–Hastings en el que las propuestas siempre se aceptan.",
zh = "一种 MCMC 算法,通过依次从每个变量在其余变量当前取值下的完全条件分布中抽样,从而对高维联合分布采样。它是建议总是被接受的 Metropolis–Hastings 特例。",
term_es = "muestreo de Gibbs",
term_zh = "Gibbs 采样",
aliases_es = { "muestreador de Gibbs", "Gibbs", "Gibbs sampling", "Gibbs colapsado", "Gibbs por bloques" },
aliases_zh = { "Gibbs 抽样", "吉布斯采样", "块 Gibbs 采样", "塌缩 Gibbs 采样" },
}
data["gigagan"] = {
short = "A large-scale generative adversarial network (Kang et al., 2023) that scales StyleGAN-style architectures to text-to-image synthesis at high resolution, demonstrating that GANs can remain competitive with diffusion models at billion-parameter scales.",
article = nil,
aliases = { "GigaGAN", "Giga-GAN" },
es = "Red generativa antagónica a gran escala (Kang et al., 2023) que escala arquitecturas tipo StyleGAN a la síntesis texto a imagen en alta resolución, demostrando que las GAN pueden seguir siendo competitivas con los modelos de difusión a escalas de miles de millones de parámetros.",
zh = "由 Kang 等人于 2023 年提出的大规模生成对抗网络,将 StyleGAN 风格架构扩展到高分辨率文本到图像生成,证明 GAN 在十亿参数规模下仍可与扩散模型竞争。",
term_es = "GigaGAN",
term_zh = "GigaGAN",
aliases_es = { "Giga-GAN" },
aliases_zh = { "Giga-GAN" },
}
data["gigaspeech"] = {
short = "A large multi-domain English speech recognition corpus released by SpeechColab, comprising about 10,000 hours of transcribed audio drawn from audiobooks, podcasts, and YouTube.",
article = nil,
aliases = { "GigaSpeech", "GigaSpeech corpus", "GigaSpeech dataset" },
es = "Corpus a gran escala de reconocimiento de voz en inglés y multidominio publicado por SpeechColab, con aproximadamente 10 000 horas de audio transcrito procedentes de audiolibros, pódcasts y YouTube.",
zh = "由 SpeechColab 发布的大规模多领域英语语音识别语料库,包含约 10000 小时的转录音频,来源于有声书、播客和 YouTube。",
term_es = "GigaSpeech",
term_zh = "GigaSpeech",
aliases_es = { "corpus GigaSpeech", "conjunto de datos GigaSpeech" },
aliases_zh = { "GigaSpeech 语料库", "GigaSpeech 数据集" },
}
data["gini importance"] = {
short = "A feature-importance measure for tree ensembles, equal to the total decrease in node Gini impurity (weighted by samples reaching the node) attributed to each feature, summed across all trees.",
article = nil,
aliases = { "Gini importance", "mean decrease in impurity", "MDI", "mean decrease impurity" },
es = "Medida de importancia de características para conjuntos de árboles, igual a la disminución total de la impureza Gini en los nodos (ponderada por las muestras que llegan al nodo) atribuida a cada característica, sumada en todos los árboles.",
zh = "树集成模型中的特征重要性度量,等于每个特征所带来的节点 Gini 不纯度下降总量(按到达该节点的样本数加权),并在所有树上求和。",
term_es = "importancia de Gini",
term_zh = "Gini 重要性",
aliases_es = { "disminución media de impureza", "MDI" },
aliases_zh = { "平均不纯度下降", "MDI" },
}
data["github copilot"] = {
short = "An AI coding assistant developed by GitHub and OpenAI that suggests code completions, functions, and chat-based explanations directly inside the developer's editor.",
article = nil,
aliases = { "GitHub Copilot", "Copilot" },
es = "Asistente de programación basado en IA desarrollado por GitHub y OpenAI que sugiere autocompletados de código, funciones y explicaciones en chat directamente dentro del editor del desarrollador.",
zh = "由 GitHub 与 OpenAI 联合开发的 AI 编程助手,可在开发者的编辑器内直接提供代码补全、函数生成以及基于聊天的解释。",
term_es = "GitHub Copilot",
term_zh = "GitHub Copilot",
aliases_es = { "GitHub Copilot", "Copilot" },
aliases_zh = { "GitHub Copilot", "Copilot" },
}
data["glass-box model"] = {
short = "A predictive model whose structure is fully inspectable and human-interpretable by design, such as linear models, decision trees, rule lists, or generalized additive models.",
article = nil,
aliases = { "glass box model", "transparent model", "interpretable model", "white-box model" },
es = "Modelo predictivo cuya estructura es totalmente inspeccionable e interpretable por humanos por diseño, como modelos lineales, árboles de decisión, listas de reglas o modelos aditivos generalizados.",
zh = "其结构在设计上完全可检查且对人类可解释的预测模型,如线性模型、决策树、规则列表或广义可加模型。",
term_es = "modelo de caja transparente",
term_zh = "玻璃盒模型",
aliases_es = { "modelo transparente", "modelo interpretable", "modelo de caja blanca" },
aliases_zh = { "透明模型", "可解释模型", "白盒模型" },
}
data["glide"] = {
short = "A text-to-image diffusion model from OpenAI (Nichol et al., 2021) that compares classifier and classifier-free guidance, with the latter producing photorealistic samples and inspiring the design of subsequent systems such as DALL-E 2.",
article = nil,
aliases = { "GLIDE", "Guided Language-to-Image Diffusion for Generation and Editing" },
es = "Modelo de difusión texto a imagen de OpenAI (Nichol et al., 2021) que compara la guía con clasificador y la guía sin clasificador, siendo esta última la que produce muestras fotorrealistas e inspiró el diseño de sistemas posteriores como DALL-E 2.",
zh = "OpenAI 于 2021 年提出的文本到图像扩散模型(Nichol 等),比较分类器引导与无分类器引导,后者可生成逼真样本并启发了 DALL-E 2 等后续系统的设计。",
term_es = "GLIDE",
term_zh = "GLIDE",
aliases_es = { "Guided Language-to-Image Diffusion for Generation and Editing" },
aliases_zh = { "Guided Language-to-Image Diffusion for Generation and Editing" },
}
data["glide docking"] = {
short = "Schrödinger's commercial molecular-docking program that combines hierarchical pose enumeration with empirical and physics-based scoring (SP, XP and HTVS modes) to predict ligand binding poses and rank virtual-screening hits.",
article = nil,
aliases = { "Glide", "Glide SP", "Glide XP", "Glide HTVS", "Schrödinger Glide", "Schrodinger Glide" },
es = "Programa comercial de acoplamiento molecular de Schrödinger que combina enumeración jerárquica de poses con funciones de puntuación empíricas y físicas (modos SP, XP y HTVS) para predecir poses de unión de ligandos y clasificar candidatos en cribados virtuales.",
zh = "Schrödinger公司商用的分子对接程序,将分级位姿枚举与经验型及基于物理的评分函数(SP、XP和HTVS模式)相结合,用于预测配体结合位姿并对虚拟筛选命中进行排序。",
term_es = "acoplamiento Glide",
term_zh = "Glide对接",
aliases_es = { "Glide", "Glide SP", "Glide XP", "Glide HTVS", "docking de Glide" },
aliases_zh = { "Glide", "Glide SP", "Glide XP", "Glide HTVS", "薛定谔Glide" },
}
data["glip"] = {
short = "Grounded Language-Image Pretraining (Li et al., 2022): a vision-language model that unifies object detection and phrase grounding by aligning region features with text token embeddings via contrastive learning, enabling zero-shot detection.",
article = nil,
aliases = { "GLIP", "Grounded Language-Image Pretraining" },
es = "Grounded Language-Image Pretraining (Li et al., 2022): modelo visión-lenguaje que unifica detección de objetos y grounding de frases alineando características de región con embeddings de tokens de texto mediante aprendizaje contrastivo, permitiendo detección zero-shot.",
zh = "Grounded Language-Image Pretraining(Li 等,2022):通过对比学习将区域特征与文本词元嵌入对齐,统一目标检测与短语定位的视觉-语言模型,可实现零样本检测。",
term_es = "GLIP",
term_zh = "GLIP",
aliases_es = { "Grounded Language-Image Pretraining", "preentrenamiento lenguaje-imagen anclado" },
aliases_zh = { "基于语言-图像的接地预训练", "Grounded Language-Image Pretraining" },
}
data["glipv2"] = {
short = "An extension of GLIP that adds a language-aware deep fusion encoder and unifies localization (detection, segmentation) with vision-language understanding tasks (VQA, captioning) under a single contrastive and generative objective.",
article = nil,
aliases = { "GLIPv2", "GLIP v2", "GLIP-v2" },
es = "Extensión de GLIP que añade un codificador de fusión profunda consciente del lenguaje y unifica la localización (detección, segmentación) con tareas de comprensión visión-lenguaje (VQA, subtitulado) bajo un único objetivo contrastivo y generativo.",
zh = "GLIP 的扩展版本,加入语言感知的深度融合编码器,并将定位任务(检测、分割)与视觉-语言理解任务(VQA、字幕生成)统一在单一对比与生成目标下。",
term_es = "GLIPv2",
term_zh = "GLIPv2",
aliases_es = { "GLIP v2" },
aliases_zh = { "GLIP v2", "GLIP-v2" },
}
data["glm-4"] = {
short = "A family of bilingual (Chinese-English) large language models developed by Zhipu AI and Tsinghua University, with chat, long-context, and multimodal variants.",
article = nil,
aliases = { "GLM-4", "GLM4", "ChatGLM-4" },
es = "Familia de grandes modelos de lenguaje bilingües (chino-inglés) desarrollados por Zhipu AI y la Universidad de Tsinghua, con variantes de chat, contexto largo y multimodales.",
zh = "由智谱 AI 与清华大学联合开发的中英双语大型语言模型系列,包含对话、长上下文和多模态等多种版本。",
term_es = "GLM-4",
term_zh = "GLM-4",
aliases_es = { "GLM-4", "GLM4" },
aliases_zh = { "GLM-4", "GLM4" },
}
data["glm-4v"] = {
short = "The vision-language variant of Zhipu AI's GLM-4 model that accepts image inputs alongside text and supports bilingual (Chinese-English) multimodal reasoning, document understanding, and chart parsing.",
article = nil,
aliases = { "GLM-4V", "GLM4V", "ChatGLM-4V" },
es = "Variante visión-lenguaje del modelo GLM-4 de Zhipu AI que acepta entradas de imagen junto con texto y soporta razonamiento multimodal bilingüe (chino-inglés), comprensión de documentos y análisis de gráficas.",
zh = "智谱 AI GLM-4 模型的视觉-语言版本,可接受图像与文本输入,支持中英双语多模态推理、文档理解和图表解析。",
term_es = "GLM-4V",
term_zh = "GLM-4V",
aliases_es = { "GLM4V", "ChatGLM-4V" },
aliases_zh = { "GLM4V", "ChatGLM-4V" },
}
data["global aggregation step"] = {
short = "The server-side phase of a federated learning round in which client updates are combined—typically by weighted averaging—into a new global model that is then broadcast back to the clients.",
article = nil,
aliases = { "global aggregation", "server aggregation step", "aggregation step", "server update step" },
es = "Fase del servidor en una ronda de aprendizaje federado en la que las actualizaciones de los clientes se combinan —normalmente mediante un promedio ponderado— en un nuevo modelo global que luego se difunde a los clientes.",
zh = "联邦学习一轮训练中的服务器端阶段:将各客户端的更新(通常通过加权平均)合并为新的全局模型,再将其广播回客户端。",
term_es = "paso de agregación global",
term_zh = "全局聚合步骤",
aliases_es = { "agregación global", "paso de agregación en el servidor", "etapa de agregación", "paso de actualización del servidor" },
aliases_zh = { "全局聚合", "服务器聚合步骤", "聚合步骤", "服务器更新步骤" },
}
data["global average pooling"] = {
short = "A pooling operation that averages each feature map over its entire spatial extent, producing a single scalar per channel. Commonly replaces fully connected layers before classification heads.",
article = nil,
aliases = { "GAP", "global avg pooling", "global pooling" },
es = "Operación de pooling que promedia cada mapa de características sobre toda su extensión espacial, produciendo un único escalar por canal. Suele reemplazar a las capas completamente conectadas antes de las cabeceras de clasificación.",
zh = "一种池化操作,对每个特征图的整个空间范围求平均,每个通道产生一个标量。常用于替代分类头之前的全连接层。",
term_es = "global average pooling",
term_zh = "全局平均池化",
aliases_es = { "GAP", "agrupación promedio global", "pooling promedio global" },
aliases_zh = { "GAP", "全局均值池化" },
}
data["global explanation"] = {
short = "An explanation that describes a model's overall behavior across the input distribution, in contrast to local explanations that target a single prediction.",
article = nil,
aliases = { "global explanations", "global interpretation", "model-level explanation" },
es = "Explicación que describe el comportamiento general de un modelo en toda la distribución de entrada, en contraste con las explicaciones locales que se centran en una sola predicción.",
zh = "描述模型在整个输入分布上整体行为的解释,与针对单次预测的局部解释相对。",
term_es = "explicación global",
term_zh = "全局解释",
aliases_es = { "interpretación global", "explicación a nivel de modelo" },
aliases_zh = { "全局可解释性", "模型级解释" },
}
data["global feature importance"] = {
short = "A scalar score per feature summarizing its overall contribution to a model's predictions across the entire dataset, computed via permutation, mean |SHAP|, or impurity-based measures.",
article = nil,
aliases = { "global importance", "dataset-level feature importance", "overall feature importance" },
es = "Puntuación escalar por característica que resume su contribución global a las predicciones de un modelo en todo el conjunto de datos, calculada mediante permutación, |SHAP| medio o medidas basadas en impureza.",
zh = "对每个特征给出的标量分数,概括其在整个数据集上对模型预测的整体贡献,可通过置换、平均 |SHAP| 或基于不纯度的指标计算。",
term_es = "importancia global de características",
term_zh = "全局特征重要性",
aliases_es = { "importancia global", "importancia de características a nivel de conjunto" },
aliases_zh = { "全局重要性", "数据集级特征重要性" },
}
data["global markov property"] = {
short = "A property of a graphical model stating that any two disjoint sets of variables are conditionally independent given a third set that graphically separates them in the underlying graph.",
article = nil,
aliases = { "global Markov property", "global Markov condition" },
es = "Propiedad de un modelo gráfico que afirma que dos conjuntos disjuntos de variables son condicionalmente independientes dado un tercer conjunto que los separa gráficamente en el grafo subyacente.",
zh = "图模型的一种性质:在底层图中若第三个变量集合在图上分隔了两个互不相交的变量集合,则后两者在该集合给定时条件独立。",
term_es = "propiedad global de Markov",
term_zh = "全局马尔可夫性",
aliases_es = { "propiedad global de Markov", "condición global de Markov" },
aliases_zh = { "全局马尔可夫性", "全局马尔可夫性质", "全局马尔可夫条件" },
}
data["global minimum"] = {
short = "The point in parameter space at which the loss attains its lowest value over the entire domain.",
article = nil,
aliases = { "global minima", "global optimum" },
es = "El punto del espacio de parámetros en el que la pérdida alcanza su valor más bajo sobre todo el dominio.",
zh = "参数空间中损失函数在整个定义域上取得最小值的点。",
term_es = "mínimo global",
term_zh = "全局最小值",
aliases_es = { "óptimo global" },
aliases_zh = { "全局极小值", "全局最优" },
}
data["global model"] = {
short = "In federated learning, the single shared model maintained on the central server and broadcast to participating clients each round; clients train it locally and the server aggregates their updates back into it.",
article = nil,
aliases = { "global FL model", "shared global model", "server model", "central model" },
es = "En aprendizaje federado, el único modelo compartido que se mantiene en el servidor central y se difunde a los clientes participantes en cada ronda; los clientes lo entrenan localmente y el servidor agrega sus actualizaciones de vuelta al modelo.",
zh = "联邦学习中由中心服务器维护并在每一轮广播给参与客户端的单一共享模型;客户端在本地对其进行训练,服务器再将各方更新聚合回该模型。",
term_es = "modelo global",
term_zh = "全局模型",
aliases_es = { "modelo federado global", "modelo compartido", "modelo del servidor", "modelo central" },
aliases_zh = { "全局 FL 模型", "共享全局模型", "服务器模型", "中央模型" },
}
data["global model summary"] = {
short = "A compact, human-readable description of a model's overall behavior, typically via global feature importances, partial dependence plots, surrogate models, or extracted rule sets.",
article = nil,
aliases = { "model summary", "global summary", "model-level summary" },
es = "Descripción compacta y legible para humanos del comportamiento global de un modelo, típicamente mediante importancias globales de características, gráficos de dependencia parcial, modelos sustitutos o conjuntos de reglas extraídos.",
zh = "对模型整体行为的紧凑、人类可读的描述,通常通过全局特征重要性、部分依赖图、代理模型或提取的规则集呈现。",
term_es = "resumen global del modelo",
term_zh = "全局模型摘要",
aliases_es = { "resumen del modelo", "resumen a nivel de modelo" },
aliases_zh = { "模型摘要", "全局摘要" },
}
data["global parameter independence"] = {
short = "An assumption in Bayesian parameter learning for graphical models that the parameter vectors of different conditional distributions are mutually independent a priori, allowing the posterior to factorize across families.",
article = nil,
aliases = { "global parameter independence assumption" },
es = "Suposición en el aprendizaje bayesiano de parámetros de modelos gráficos según la cual los vectores de parámetros de las distintas distribuciones condicionales son mutuamente independientes a priori, lo que permite que la distribución a posteriori se factorice por familias.",
zh = "图模型贝叶斯参数学习中的一种假设:不同条件分布的参数向量在先验上相互独立,从而后验分布可在各条件分布族之间因式分解。",
term_es = "independencia global de parámetros",
term_zh = "全局参数独立性",
aliases_es = { "independencia global de los parámetros", "supuesto de independencia global de parámetros" },
aliases_zh = { "全局参数独立性", "全局参数独立假设" },
}
data["global sensitivity analysis"] = {
short = "A family of methods that quantifies how variation in a model's outputs can be apportioned to variation in its inputs across the entire input space, e.g. Sobol or Morris indices.",
article = nil,
aliases = { "GSA", "Sobol analysis", "variance-based sensitivity analysis" },
es = "Familia de métodos que cuantifica cómo la variación en las salidas de un modelo puede atribuirse a la variación en sus entradas a lo largo de todo el espacio de entrada, por ejemplo, índices de Sobol o de Morris.",
zh = "一类方法,用于量化模型输出的变化在整个输入空间中如何归因于其输入的变化,如 Sobol 或 Morris 指数。",
term_es = "análisis de sensibilidad global",
term_zh = "全局敏感性分析",
aliases_es = { "GSA", "análisis de Sobol", "análisis de sensibilidad basado en varianza" },
aliases_zh = { "GSA", "Sobol 分析", "基于方差的敏感性分析" },
}
data["global style tokens"] = {
short = "A bank of learnable embeddings used in expressive text-to-speech that captures latent prosodic and stylistic factors, allowing style transfer and unsupervised style control at synthesis time.",
article = nil,
aliases = { "GST", "GSTs", "global style token", "style tokens" },
es = "Conjunto de embeddings entrenables empleados en síntesis de voz expresiva que captura factores prosódicos y estilísticos latentes, permitiendo la transferencia de estilo y el control no supervisado del estilo durante la síntesis.",
zh = "一组可学习的嵌入,用于表达性语音合成,捕捉潜在的韵律和风格因素,可在合成时实现风格迁移与无监督风格控制。",
term_es = "global style tokens",
term_zh = "全局风格标记",
aliases_es = { "GST", "tokens de estilo globales" },
aliases_zh = { "GST", "全局风格 token", "全局风格嵌入" },
}
data["gloo backend"] = {
short = "A collective communications library originally developed at Facebook providing all-reduce, broadcast, and gather primitives over CPU and GPU; one of the backends supported by PyTorch's torch.distributed.",
article = nil,
aliases = { "Gloo", "Gloo backend", "Facebook Gloo", "torch.distributed gloo backend" },
es = "Biblioteca de comunicaciones colectivas desarrollada originalmente en Facebook que ofrece primitivas como all-reduce, broadcast y gather sobre CPU y GPU; es uno de los backends soportados por torch.distributed de PyTorch.",
zh = "最初由 Facebook 开发的集合通信库,提供面向 CPU 和 GPU 的 all-reduce、broadcast、gather 等原语,是 PyTorch torch.distributed 支持的后端之一。",
term_es = "backend Gloo",
term_zh = "Gloo 后端",
aliases_es = { "Gloo", "Gloo de Facebook", "backend gloo de torch.distributed" },
aliases_zh = { "Gloo", "Facebook Gloo", "torch.distributed gloo 后端" },
}
data["glorot initialization"] = {
short = "Alternate name for Xavier initialization, after its author Xavier Glorot. Samples weights with variance 2 / (fan_in + fan_out) to keep activations and gradients from exploding or vanishing in shallow networks.",
article = nil,
aliases = { "Glorot init", "Glorot initialisation", "Xavier initialization", "Xavier init", "Xavier-Glorot initialization" },
es = "Nombre alternativo para la inicialización de Xavier, en honor a su autor Xavier Glorot. Muestrea los pesos con varianza 2 / (fan_in + fan_out) para evitar la explosión o el desvanecimiento de activaciones y gradientes en redes poco profundas.",
zh = "Xavier 初始化的另一种称呼,得名于其作者 Xavier Glorot。以方差 2 / (fan_in + fan_out) 采样权重,可在浅层网络中防止激活与梯度爆炸或消失。",
term_es = "inicialización de Glorot",
term_zh = "Glorot 初始化",
aliases_es = { "inicialización Glorot", "inicialización Xavier", "inicialización Xavier-Glorot" },
aliases_zh = { "Glorot 初始化", "Xavier 初始化", "Xavier-Glorot 初始化" },
}
data["glove"] = {
short = "Global Vectors for Word Representation: an unsupervised method by Pennington et al. that learns word embeddings by factorizing the logarithm of a global word-word co-occurrence matrix.",
article = nil,
aliases = { "GloVe", "Global Vectors", "Global Vectors for Word Representation", "GloVe embeddings" },
es = "Global Vectors for Word Representation: método no supervisado de Pennington et al. que aprende embeddings de palabras factorizando el logaritmo de una matriz global de coocurrencia palabra-palabra.",
zh = "Global Vectors for Word Representation:Pennington 等人提出的无监督方法,通过对全局词-词共现矩阵的对数进行矩阵分解来学习词嵌入。",
term_es = "GloVe",
term_zh = "GloVe",
aliases_es = { "GloVe", "Global Vectors", "embeddings GloVe" },
aliases_zh = { "GloVe", "GloVe 词向量", "全局词向量" },
}
data["glow"] = {
short = "A normalizing-flow generative model (Kingma & Dhariwal, 2018) that extends Real NVP with invertible 1×1 convolutions in place of fixed channel permutations, plus actnorm layers, achieving high-quality image synthesis with exact log-likelihood.",
article = nil,
aliases = { "Glow", "GLOW" },
es = "Modelo generativo de flujo normalizador (Kingma & Dhariwal, 2018) que extiende Real NVP con convoluciones 1×1 invertibles en lugar de permutaciones fijas de canales y capas actnorm, logrando síntesis de imagen de alta calidad con log-verosimilitud exacta.",
zh = "Kingma 与 Dhariwal 于 2018 年提出的归一化流生成模型:用可逆 1×1 卷积取代 Real NVP 中固定的通道置换,并引入 actnorm 层,在保持精确对数似然的同时实现高质量图像合成。",
term_es = "Glow",
term_zh = "Glow",
aliases_es = {},
aliases_zh = {},
}
data["glow-tts"] = {
short = "A flow-based parallel text-to-speech model that uses monotonic alignment search to learn text-to-mel alignment without an external aligner, generating mel-spectrograms in a single forward pass.",
article = nil,
aliases = { "Glow-TTS", "GlowTTS" },
es = "Modelo de síntesis de voz paralela basado en flujos normalizadores que utiliza búsqueda de alineamiento monotónica para aprender la alineación texto-mel sin alineador externo, generando mel-espectrogramas en una sola pasada.",
zh = "一种基于归一化流的并行文本到语音模型,使用单调对齐搜索学习文本到梅尔的对齐,无需外部对齐器,可在单次前向传播中生成梅尔频谱图。",
term_es = "Glow-TTS",
term_zh = "Glow-TTS",
aliases_es = { "GlowTTS" },
aliases_zh = { "GlowTTS" },
}
data["gnina"] = {
short = "An open-source molecular docking program built on AutoDock Vina that integrates convolutional neural network scoring to rank protein-ligand poses.",
article = nil,
aliases = { "GNINA" },
es = "Programa de docking molecular de código abierto basado en AutoDock Vina que integra puntuación con redes neuronales convolucionales para clasificar poses proteína-ligando.",
zh = "基于 AutoDock Vina 的开源分子对接程序,通过卷积神经网络打分对蛋白质-配体构象进行排序。",
term_es = "GNINA",
term_zh = "GNINA",
aliases_es = { "gnina" },
aliases_zh = { "gnina" },
}
data["gnn-lrp"] = {
short = "An extension of Layer-wise Relevance Propagation to graph neural networks that decomposes a GNN's prediction into relevance scores for nodes, edges, and walks in the input graph.",
article = nil,
aliases = { "GNN-LRP", "graph LRP", "GNN layer-wise relevance propagation" },
es = "Extensión de Layer-wise Relevance Propagation a redes neuronales de grafos que descompone la predicción de una GNN en puntuaciones de relevancia para nodos, aristas y caminos del grafo de entrada.",
zh = "层级相关性传播在图神经网络上的扩展,将 GNN 的预测分解为输入图中节点、边和游走路径的相关性分数。",
term_es = "GNN-LRP",
term_zh = "GNN-LRP",
aliases_es = { "LRP para grafos", "propagación de relevancia por capas para GNN" },
aliases_zh = { "图 LRP", "GNN 层级相关性传播" },
}
data["gnnexplainer"] = {
short = "A model-agnostic explainability method for graph neural networks that learns a compact subgraph and feature mask which jointly maximize mutual information with the GNN's prediction.",
article = nil,
aliases = { "GNNExplainer", "GNN Explainer" },
es = "Método de explicabilidad agnóstico al modelo para redes neuronales de grafos que aprende un subgrafo compacto y una máscara de características que maximizan conjuntamente la información mutua con la predicción de la GNN.",
zh = "一种与模型无关的图神经网络可解释性方法,学习一个紧凑的子图和特征掩码,使其与 GNN 预测的互信息最大化。",
term_es = "GNNExplainer",
term_zh = "GNNExplainer",
aliases_es = { "explicador de GNN" },
aliases_zh = { "GNN 解释器" },
}
data["gnomad"] = {
short = "The Genome Aggregation Database, a public catalog of harmonized exome and genome sequencing data from hundreds of thousands of unrelated individuals, providing population-level allele frequencies and constraint metrics widely used in variant interpretation.",
article = nil,
aliases = { "gnomAD", "Genome Aggregation Database", "ExAC successor" },
es = "Genome Aggregation Database: catálogo público de datos armonizados de secuenciación de exoma y genoma de cientos de miles de individuos no emparentados, que proporciona frecuencias alélicas a nivel poblacional y métricas de restricción ampliamente usadas en la interpretación de variantes.",
zh = "Genome Aggregation Database 的简称,一个公开的、整合了数十万无亲缘关系个体外显子和全基因组测序数据的数据库,提供群体等位基因频率和约束度指标,广泛用于变异解读。",
term_es = "gnomAD",
term_zh = "gnomAD",
aliases_es = { "gnomAD", "Genome Aggregation Database", "base de datos gnomAD" },
aliases_zh = { "gnomAD", "基因组聚合数据库", "Genome Aggregation Database" },
}
data["godel t-norm"] = {
short = "The minimum t-norm in fuzzy logic, defined as T(a,b) = min(a,b), used as one of the three principal continuous t-norms (alongside Łukasiewicz and product) for combining fuzzy truth values in conjunctions.",
article = nil,
aliases = { "Gödel t-norm", "minimum t-norm", "Goedel t-norm", "min t-norm", "Gödel conjunction" },
es = "La t-norma del mínimo en lógica difusa, definida como T(a,b) = mín(a,b), una de las tres t-normas continuas principales (junto con Łukasiewicz y producto) para combinar valores de verdad difusos en conjunciones.",
zh = "模糊逻辑中的最小 t-范数,定义为 T(a,b) = min(a,b),与 Łukasiewicz 和乘积 t-范数并列为三种主要的连续 t-范数,用于组合合取式中的模糊真值。",
term_es = "t-norma de Gödel",
term_zh = "Gödel t-范数",
aliases_es = { "t-norma de Gödel", "t-norma del mínimo", "conjunción de Gödel" },
aliases_zh = { "Gödel t-范数", "最小 t-范数", "Gödel 合取" },
}
data["gold docking"] = {
short = "A commercial molecular docking program that uses a genetic algorithm to explore ligand conformations and binding orientations within a protein active site.",
article = nil,
aliases = { "GOLD", "GOLD docking", "Genetic Optimisation for Ligand Docking" },
es = "Programa comercial de docking molecular que utiliza un algoritmo genético para explorar conformaciones y orientaciones de unión de ligandos en el sitio activo de una proteína.",
zh = "一款商业分子对接程序,使用遗传算法在蛋白质活性位点内搜索配体的构象与结合方向。",
term_es = "GOLD",
term_zh = "GOLD",
aliases_es = { "docking GOLD", "GOLD docking" },
aliases_zh = { "GOLD 对接" },
}
data["gold-nas"] = {
short = "A one-shot neural architecture search method that gradually prunes a fully connected supernet using continuous architecture parameters and an explicit gradient signal, converging to a sparse final architecture.",
article = nil,
aliases = { "GOLD-NAS", "Gradual One-Level Differentiable NAS", "Gold-NAS" },
es = "Método NAS one-shot que poda gradualmente una supernet totalmente conectada utilizando parámetros de arquitectura continuos y una señal de gradiente explícita, convergiendo a una arquitectura final esparsa.",
zh = "一种 one-shot 神经架构搜索方法:通过连续架构参数和显式梯度信号,对全连接超网逐步剪枝,最终收敛到稀疏架构。",
term_es = "GOLD-NAS",
term_zh = "GOLD-NAS",
aliases_es = { "GOLD-NAS" },
aliases_zh = { "GOLD-NAS" },
}
data["google vizier"] = {
short = "Google's internal black-box optimization service for tuning machine-learning hyperparameters and other system parameters, providing Bayesian-optimization-based study management at scale; an open-source variant is published as OSS Vizier.",
article = nil,
aliases = { "Google Vizier", "Vizier", "OSS Vizier", "Open Source Vizier" },
es = "Servicio interno de Google de optimización de caja negra para ajustar hiperparámetros de aprendizaje automático y otros parámetros de sistema, que ofrece gestión de estudios basados en optimización bayesiana a gran escala; existe una variante de código abierto llamada OSS Vizier.",
zh = "谷歌内部的黑盒优化服务,用于调优机器学习超参数及其他系统参数,提供基于贝叶斯优化的大规模实验管理;其开源版本称为 OSS Vizier。",
term_es = "Google Vizier",
term_zh = "Google Vizier",
aliases_es = { "Google Vizier", "Vizier", "OSS Vizier" },
aliases_zh = { "Google Vizier", "Vizier", "OSS Vizier", "开源 Vizier" },
}
data["googlenet"] = {
short = "A 22-layer convolutional network introduced by Google in 2014 that won the ImageNet challenge using stacked Inception modules and global average pooling instead of fully connected layers.",
article = nil,
aliases = { "GoogLeNet", "GoogleNet", "Inception v1", "Inception-v1", "InceptionV1" },
es = "Red convolucional de 22 capas presentada por Google en 2014 que ganó el desafío ImageNet utilizando módulos Inception apilados y pooling promedio global en lugar de capas completamente conectadas.",
zh = "由 Google 于 2014 年提出的 22 层卷积网络,使用堆叠的 Inception 模块和全局平均池化(取代全连接层),赢得了 ImageNet 挑战赛。",
term_es = "GoogLeNet",
term_zh = "GoogLeNet",
aliases_es = { "GoogLeNet", "Inception v1" },
aliases_zh = { "GoogLeNet", "Inception v1", "Inception-v1" },
}
data["gopher"] = {
short = "A 280-billion-parameter autoregressive transformer language model introduced by DeepMind in 2021, used to study scaling behavior and downstream task performance.",
article = nil,
aliases = { "Gopher", "DeepMind Gopher" },
es = "Modelo de lenguaje transformer autorregresivo de 280 mil millones de parámetros presentado por DeepMind en 2021, utilizado para estudiar el comportamiento de escalado y el rendimiento en tareas posteriores.",
zh = "DeepMind 于 2021 年发布的 2800 亿参数自回归 Transformer 语言模型,用于研究扩展行为及下游任务表现。",
term_es = "Gopher",
term_zh = "Gopher",
aliases_es = { "Gopher" },
aliases_zh = { "Gopher" },
}
data["gossip learning"] = {
short = "A decentralized peer-to-peer learning paradigm in which nodes asynchronously exchange model updates with random neighbors instead of communicating with a central server, eventually converging on a shared model.",
article = nil,
aliases = { "gossip-based learning", "decentralized gossip learning", "P2P gossip learning" },
es = "Paradigma de aprendizaje descentralizado entre pares en el que los nodos intercambian de forma asíncrona actualizaciones de modelo con vecinos aleatorios en lugar de comunicarse con un servidor central, convergiendo eventualmente a un modelo compartido.",
zh = "一种去中心化的对等学习范式:节点不与中心服务器通信,而是异步地与随机选择的邻居交换模型更新,最终收敛到一个共享模型。",
term_es = "aprendizaje por gossip",
term_zh = "gossip 学习",
aliases_es = { "aprendizaje basado en gossip", "aprendizaje gossip descentralizado", "aprendizaje P2P por gossip" },
aliases_zh = { "gossip learning", "基于 gossip 的学习", "去中心化 gossip 学习", "对等 gossip 学习" },
}
data["gossip sgd"] = {
short = "A decentralized variant of stochastic gradient descent in which each worker periodically averages its parameters with those of randomly chosen peers between local steps, converging without a central aggregator.",
article = nil,
aliases = { "Gossip SGD", "gossip-SGD", "decentralized gossip SGD" },
es = "Variante descentralizada del descenso de gradiente estocástico en la que cada trabajador promedia periódicamente sus parámetros con los de pares elegidos aleatoriamente entre pasos locales, convergiendo sin necesidad de un agregador central.",
zh = "随机梯度下降的一种去中心化变体:各工作节点在本地若干步之间,定期与随机选定的对等节点对参数进行平均,无需中心聚合器即可收敛。",
term_es = "SGD por gossip",
term_zh = "gossip SGD",
aliases_es = { "Gossip SGD", "SGD-gossip", "SGD gossip descentralizado" },
aliases_zh = { "Gossip SGD", "gossip-SGD", "去中心化 gossip SGD" },
}
data["gp calibration"] = {
short = "The property and procedure by which the predictive variance of a Gaussian process matches empirical residual spread, often assessed via reliability diagrams, expected calibration error, or scoring rules. Miscalibration is corrected by hyperparameter tuning, beta-recalibration, or noise inflation.",
article = nil,
aliases = { "Gaussian process calibration", "GP uncertainty calibration", "GP-calibration", "calibration of GP" },
es = "Propiedad y procedimiento por los cuales la varianza predictiva de un proceso gaussiano coincide con la dispersión empírica de los residuos, evaluada mediante diagramas de fiabilidad, error de calibración esperado o reglas de puntuación. La mala calibración se corrige ajustando hiperparámetros, recalibración beta o inflación de ruido.",
zh = "高斯过程预测方差与经验残差离散度相匹配的性质及对应过程,常通过可靠性图、期望校准误差或评分规则评估,可通过超参数调优、beta重校准或噪声膨胀进行修正。",
term_es = "calibración de GP",
term_zh = "GP校准",
aliases_es = { "calibración del proceso gaussiano", "calibración de incertidumbre de GP" },
aliases_zh = { "高斯过程校准", "GP不确定性校准" },
}
data["gp marginal likelihood"] = {
short = "The probability of the observed targets under a Gaussian-process model with kernel hyperparameters integrated over the latent function, available in closed form as a multivariate Gaussian. Maximised to learn kernel hyperparameters (Type-II MLE).",
article = nil,
aliases = { "Gaussian process marginal likelihood", "GP evidence", "GP log-marginal likelihood", "GP type-II likelihood", "log marginal likelihood GP" },
es = "Probabilidad de los objetivos observados bajo un modelo de proceso gaussiano con la función latente integrada, disponible en forma cerrada como una gaussiana multivariante. Se maximiza para aprender los hiperparámetros del kernel (MLE tipo II).",
zh = "在高斯过程模型下观测目标的概率,潜在函数已被边缘化,具有多元高斯的闭式表达,常被最大化以学习核函数超参数(Type-II MLE)。",
term_es = "verosimilitud marginal del GP",
term_zh = "GP边缘似然",
aliases_es = { "evidencia del GP", "log-verosimilitud marginal del GP", "verosimilitud tipo II del GP" },
aliases_zh = { "高斯过程边缘似然", "GP证据", "GP对数边缘似然", "GP第二类似然" },
}
data["gp posterior"] = {
short = "The conditional Gaussian process given observed input-output pairs: a new Gaussian process whose mean and covariance are closed-form functions of the prior kernel and the data, used for prediction and uncertainty quantification.",
article = nil,
aliases = { "Gaussian process posterior", "posterior GP", "conditional GP", "posterior Gaussian process" },
es = "Proceso gaussiano condicionado a pares observados de entrada-salida: un nuevo proceso gaussiano cuya media y covarianza son funciones cerradas del kernel a priori y de los datos, utilizado para predecir y cuantificar incertidumbre.",
zh = "在已观测输入-输出对下的条件高斯过程:其均值和协方差是先验核与数据的闭式函数,可直接用于预测和不确定性量化。",
term_es = "posterior del GP",
term_zh = "GP后验",
aliases_es = { "posterior del proceso gaussiano", "GP condicional" },
aliases_zh = { "高斯过程后验", "条件高斯过程", "后验高斯过程" },
}
data["gpcr ligand design"] = {
short = "The computational design of small molecules that bind G protein-coupled receptors, often using structure-based modeling, pharmacophore screening, or generative models tailored to GPCR binding pockets.",
article = nil,
aliases = { "GPCR ligand design", "G protein-coupled receptor ligand design" },
es = "Diseño computacional de pequeñas moléculas que se unen a receptores acoplados a proteínas G, a menudo mediante modelado basado en estructura, cribado farmacofórico o modelos generativos adaptados a sitios de unión de GPCR.",
zh = "针对 G 蛋白偶联受体设计能与之结合的小分子,常采用基于结构的建模、药效团筛选或针对 GPCR 结合口袋的生成模型。",
term_es = "diseño de ligandos GPCR",
term_zh = "GPCR 配体设计",
aliases_es = { "diseño de ligandos para GPCR" },
aliases_zh = { "G 蛋白偶联受体配体设计" },
}
data["gpqa"] = {
short = "Graduate-Level Google-Proof Q&A: a benchmark of 448 multiple-choice questions in biology, physics, and chemistry written by domain PhDs to be hard even with web search.",
article = nil,
aliases = { "GPQA", "Graduate-Level Google-Proof Q&A", "GPQA Diamond" },
es = "Graduate-Level Google-Proof Q&A: conjunto de evaluación con 448 preguntas de opción múltiple en biología, física y química redactadas por doctores en cada área para ser difíciles incluso con búsqueda web.",
zh = "Graduate-Level Google-Proof Q&A,由各领域博士撰写的 448 道生物、物理和化学多项选择题组成的基准,即使可使用网络搜索仍具有挑战性。",
term_es = "GPQA",
term_zh = "GPQA",
aliases_es = { "GPQA" },
aliases_zh = { "GPQA" },
}
data["gprofiler"] = {
short = "A web service and toolset for functional enrichment analysis and identifier mapping over Gene Ontology, pathways (KEGG, Reactome), regulatory motifs, and other annotation sources, supporting many species and ordered or unordered gene lists.",
article = nil,
aliases = { "g:Profiler", "gProfiler", "g profiler", "gprofiler2" },
es = "Servicio web y conjunto de herramientas para análisis de enriquecimiento funcional y mapeo de identificadores sobre Gene Ontology, rutas (KEGG, Reactome), motivos reguladores y otras fuentes de anotación, con soporte para muchas especies y listas de genes ordenadas o no ordenadas.",
zh = "一个用于功能富集分析和标识符映射的网络服务与工具集,覆盖 Gene Ontology、通路(KEGG、Reactome)、调控基序等多种注释来源,支持多物种以及有序或无序的基因列表。",
term_es = "g:Profiler",
term_zh = "g:Profiler",
aliases_es = { "gProfiler", "g:Profiler", "gprofiler2" },
aliases_zh = { "gProfiler", "g:Profiler", "gprofiler2" },
}
data["gpt"] = {
short = "An autoregressive transformer decoder pretrained on large text corpora to predict the next token, foundational for the GPT model family used in language generation and few-shot learning.",
article = nil,
aliases = { "GPT", "Generative Pre-trained Transformer", "generative pre-trained transformer", "GPT-1" },
es = "Decodificador transformer autorregresivo preentrenado en grandes corpus de texto para predecir el siguiente token, base de la familia de modelos GPT utilizada en generación de lenguaje y aprendizaje de pocos ejemplos.",
zh = "一种在大规模文本语料上以预测下一个 token 进行预训练的自回归 Transformer 解码器,是用于语言生成和少样本学习的 GPT 模型家族的基础。",
term_es = "GPT",
term_zh = "GPT",
aliases_es = { "GPT", "transformer generativo preentrenado", "GPT-1" },
aliases_zh = { "GPT", "生成式预训练 Transformer", "GPT-1" },
}
data["gpt-2"] = {
short = "OpenAI's 2019 successor to GPT, a 1.5-billion-parameter autoregressive transformer language model trained on WebText that demonstrated strong unconditional and zero-shot generation across diverse domains.",
article = nil,
aliases = { "GPT-2", "GPT2", "gpt2" },
es = "Sucesor de GPT publicado por OpenAI en 2019, un modelo de lenguaje transformer autorregresivo de 1.500 millones de parámetros entrenado en WebText que demostró una sólida generación incondicional y de cero ejemplos en diversos dominios.",
zh = "OpenAI 于 2019 年发布的 GPT 后续模型,参数规模 15 亿,在 WebText 上训练的自回归 Transformer 语言模型,展示了在多种领域上强大的无条件生成和零样本生成能力。",
term_es = "GPT-2",
term_zh = "GPT-2",
aliases_es = { "GPT-2", "GPT2" },
aliases_zh = { "GPT-2", "GPT2" },
}
data["gpt-3"] = {
short = "OpenAI's 2020 175-billion-parameter autoregressive transformer language model that established in-context and few-shot learning as primary interfaces for large language models.",
article = nil,
aliases = { "GPT-3", "GPT3", "gpt3" },
es = "Modelo de lenguaje transformer autorregresivo de 175.000 millones de parámetros publicado por OpenAI en 2020, que estableció el aprendizaje en contexto y de pocos ejemplos como interfaces principales de los grandes modelos de lenguaje.",
zh = "OpenAI 于 2020 年发布的 1750 亿参数自回归 Transformer 语言模型,确立了上下文学习和少样本学习作为大语言模型的主要交互方式。",
term_es = "GPT-3",
term_zh = "GPT-3",
aliases_es = { "GPT-3", "GPT3" },
aliases_zh = { "GPT-3", "GPT3" },
}
data["gpt-3.5"] = {
short = "A family of OpenAI language models released in 2022 (including text-davinci-003 and gpt-3.5-turbo) that powered the original ChatGPT and offered improved instruction-following over GPT-3.",
article = nil,
aliases = { "GPT-3.5", "GPT3.5", "gpt-3.5-turbo", "ChatGPT 3.5" },
es = "Familia de modelos de lenguaje de OpenAI lanzada en 2022 (incluye text-davinci-003 y gpt-3.5-turbo) que dio vida al ChatGPT original y mejoró el seguimiento de instrucciones respecto a GPT-3.",
zh = "OpenAI 于 2022 年发布的语言模型系列(包括 text-davinci-003 与 gpt-3.5-turbo),驱动了最初的 ChatGPT,并在指令遵循方面优于 GPT-3。",
term_es = "GPT-3.5",
term_zh = "GPT-3.5",
aliases_es = { "GPT-3.5", "gpt-3.5-turbo" },
aliases_zh = { "GPT-3.5", "gpt-3.5-turbo" },
}
data["gpt-4"] = {
short = "OpenAI's 2023 multimodal large language model and successor to GPT-3.5, exhibiting strong reasoning, instruction-following, and image understanding, with architecture and training details largely undisclosed.",
article = nil,
aliases = { "GPT-4", "GPT4", "gpt4" },
es = "Gran modelo de lenguaje multimodal publicado por OpenAI en 2023 y sucesor de GPT-3.5, que muestra fuertes capacidades de razonamiento, seguimiento de instrucciones y comprensión de imágenes, con detalles de arquitectura y entrenamiento en gran parte no divulgados.",
zh = "OpenAI 于 2023 年发布的多模态大语言模型,是 GPT-3.5 的后继版本,具备强大的推理、指令遵循和图像理解能力,其架构和训练细节大多未公开。",
term_es = "GPT-4",
term_zh = "GPT-4",
aliases_es = { "GPT-4", "GPT4" },
aliases_zh = { "GPT-4", "GPT4" },
}
data["gpt-4 turbo"] = {
short = "A faster, more cost-efficient variant of OpenAI's GPT-4 with a 128k-token context window and updated knowledge cutoff, released in late 2023.",
article = nil,
aliases = { "GPT-4 Turbo", "GPT-4-Turbo", "gpt-4-turbo" },
es = "Variante más rápida y rentable de GPT-4 de OpenAI, con una ventana de contexto de 128 mil tokens y un corte de conocimiento actualizado, lanzada a finales de 2023.",
zh = "OpenAI 于 2023 年末发布的 GPT-4 改进版本,速度更快、成本更低,支持 12.8 万 token 的上下文窗口,并更新了知识截止日期。",
term_es = "GPT-4 Turbo",
term_zh = "GPT-4 Turbo",
aliases_es = { "GPT-4 Turbo" },
aliases_zh = { "GPT-4 Turbo" },
}
data["gpt-4.5"] = {
short = "An OpenAI large language model released in 2025 as a research preview, positioned between GPT-4 and the o-series reasoning models with broader world knowledge and improved alignment.",
article = nil,
aliases = { "GPT-4.5", "GPT4.5", "Orion" },
es = "Modelo de lenguaje de OpenAI lanzado en 2025 como vista previa de investigación, situado entre GPT-4 y los modelos de razonamiento de la serie o, con un conocimiento del mundo más amplio y una alineación mejorada.",
zh = "OpenAI 于 2025 年作为研究预览发布的大型语言模型,定位介于 GPT-4 与 o 系列推理模型之间,具有更广的世界知识和更好的对齐表现。",
term_es = "GPT-4.5",
term_zh = "GPT-4.5",
aliases_es = { "GPT-4.5" },
aliases_zh = { "GPT-4.5" },
}
data["gpt-4o"] = {
short = "OpenAI's omni-modal GPT-4 variant (May 2024) trained end-to-end across text, audio, and vision tokens, enabling low-latency speech and image conversations within a single model.",
article = nil,
aliases = { "GPT-4o", "GPT4o", "GPT-4 omni", "gpt-4o" },
es = "Variante omnimodal de GPT-4 de OpenAI (mayo de 2024) entrenada de extremo a extremo sobre tokens de texto, audio y visión, permitiendo conversaciones por voz e imagen de baja latencia en un único modelo.",
zh = "OpenAI 于 2024 年 5 月发布的 GPT-4 全模态版本,跨文本、音频和视觉词元进行端到端训练,可在单一模型中实现低延迟的语音与图像对话。",
term_es = "GPT-4o",
term_zh = "GPT-4o",
aliases_es = { "GPT4o", "GPT-4 omni" },
aliases_zh = { "GPT4o", "GPT-4 omni" },
}
data["gpt-4o mini"] = {
short = "A small, low-cost variant of OpenAI's GPT-4o multimodal model, designed to deliver competitive accuracy at a fraction of the latency and price of the full GPT-4o.",
article = nil,
aliases = { "GPT-4o mini", "GPT-4o-mini", "gpt-4o-mini" },
es = "Variante pequeña y de bajo coste del modelo multimodal GPT-4o de OpenAI, diseñada para ofrecer una precisión competitiva con una fracción de la latencia y el precio del GPT-4o completo.",
zh = "OpenAI GPT-4o 多模态模型的小型低成本版本,旨在以远低于完整 GPT-4o 的延迟和价格提供具有竞争力的精度。",
term_es = "GPT-4o mini",
term_zh = "GPT-4o mini",
aliases_es = { "GPT-4o mini" },
aliases_zh = { "GPT-4o mini" },
}
data["gpt-4v"] = {
short = "The vision-enabled extension of GPT-4 (introduced 2023) that accepts images interleaved with text prompts and answers questions, describes scenes, reads documents, and reasons about visual content.",
article = nil,
aliases = { "GPT-4V", "GPT-4 Vision", "GPT4V", "GPT-4 with vision" },
es = "Extensión con capacidades visuales de GPT-4 (introducida en 2023) que acepta imágenes intercaladas con prompts de texto y responde preguntas, describe escenas, lee documentos y razona sobre contenido visual.",
zh = "GPT-4 于 2023 年推出的视觉扩展版本,可接受与文本提示交错的图像输入,能够回答问题、描述场景、阅读文档并对视觉内容进行推理。",
term_es = "GPT-4V",
term_zh = "GPT-4V",
aliases_es = { "GPT-4 Vision", "GPT4V", "GPT-4 con visión" },
aliases_zh = { "GPT-4 Vision", "GPT4V" },
}
data["gpt-f"] = {
short = "An automated theorem prover for the Metamath formal library that uses a generative transformer language model to predict next proof steps, introduced by OpenAI as the first deep-learning system to find new short proofs adopted by the Metamath community.",
article = nil,
aliases = { "GPT-f", "GPT-F", "GPTf", "OpenAI GPT-f", "Metamath GPT-f" },
es = "Un demostrador automático de teoremas para la biblioteca formal Metamath que usa un modelo de lenguaje transformer generativo para predecir el siguiente paso de la demostración, presentado por OpenAI como el primer sistema de aprendizaje profundo en hallar nuevas demostraciones cortas adoptadas por la comunidad Metamath.",
zh = "一个面向 Metamath 形式化库的自动定理证明系统,使用生成式 Transformer 语言模型预测下一步证明步骤;由 OpenAI 提出,是首个被 Metamath 社区采纳新短证明的深度学习系统。",
term_es = "GPT-f",
term_zh = "GPT-f",
aliases_es = { "GPT-f", "GPT-F", "GPT-f de OpenAI" },
aliases_zh = { "GPT-f", "GPT-F", "OpenAI GPT-f" },
}
data["gpt-neox"] = {
short = "An open-source autoregressive transformer language model and training framework released by EleutherAI, including the 20-billion-parameter GPT-NeoX-20B checkpoint.",
article = nil,
aliases = { "GPT-NeoX", "GPT-NeoX-20B", "GPTNeoX" },
es = "Modelo de lenguaje transformer autorregresivo de código abierto y su marco de entrenamiento, publicados por EleutherAI, incluyendo el checkpoint GPT-NeoX-20B con 20 mil millones de parámetros.",
zh = "EleutherAI 发布的开源自回归 Transformer 语言模型及训练框架,包含 200 亿参数的 GPT-NeoX-20B 检查点。",
term_es = "GPT-NeoX",
term_zh = "GPT-NeoX",
aliases_es = { "GPT-NeoX", "GPT-NeoX-20B" },
aliases_zh = { "GPT-NeoX", "GPT-NeoX-20B" },
}
data["gptq"] = {
short = "A post-training weight-only quantization method (Frantar et al., 2022) that quantizes one column of a weight matrix at a time while updating the remaining columns to compensate, using approximate second-order information from a small calibration set.",
article = nil,
aliases = { "GPTQ", "GPT Quantization", "Generative Pre-trained Transformer Quantization" },
es = "Método de cuantización solo de pesos posterior al entrenamiento (Frantar et al., 2022) que cuantiza una columna de la matriz de pesos a la vez y actualiza las restantes para compensar el error, utilizando información aproximada de segundo orden a partir de un pequeño conjunto de calibración.",
zh = "Frantar 等人于 2022 年提出的训练后仅权重量化方法:每次量化权重矩阵的一列,并基于少量校准数据的近似二阶信息更新其余列以补偿误差。",
term_es = "GPTQ",
term_zh = "GPTQ",
aliases_es = { "cuantización GPTQ" },
aliases_zh = { "GPTQ 量化" },
}
data["gpyopt"] = {
short = "An open-source Python library from the University of Sheffield for Bayesian optimization of black-box functions, built on top of GPy and supporting Gaussian-process surrogates with various acquisition functions.",
article = nil,
aliases = { "GPyOpt" },
es = "Biblioteca de código abierto en Python de la Universidad de Sheffield para optimización bayesiana de funciones de caja negra, construida sobre GPy y compatible con sustitutos de proceso gaussiano y varias funciones de adquisición.",
zh = "由谢菲尔德大学开发的开源 Python 贝叶斯优化库,基于 GPy 构建,支持高斯过程代理模型和多种采集函数。",
term_es = "GPyOpt",
term_zh = "GPyOpt",
aliases_es = { "GPyOpt" },
aliases_zh = { "GPyOpt" },
}
data["gqa benchmark"] = {
short = "A large-scale visual question answering benchmark built on Visual Genome scene graphs, with compositional questions and balanced answer distributions designed to test grounded reasoning over real images.",
article = nil,
aliases = { "GQA", "GQA dataset", "GQA benchmark", "GQA VQA" },
es = "Un benchmark a gran escala de preguntas-respuestas visuales construido sobre los grafos de escena de Visual Genome, con preguntas composicionales y distribuciones de respuesta balanceadas, diseñado para evaluar el razonamiento anclado en imágenes reales.",
zh = "一个基于 Visual Genome 场景图构建的大规模视觉问答基准,具有组合式问题和均衡的答案分布,用于评估对真实图像的基于实证的推理能力。",
term_es = "benchmark GQA",
term_zh = "GQA 基准",
aliases_es = { "GQA", "conjunto GQA", "benchmark GQA" },
aliases_zh = { "GQA", "GQA 数据集", "GQA 视觉问答基准" },
}
data["gqa grounding"] = {
short = "Use of the GQA dataset's scene-graph annotations to evaluate phrase grounding — whether a model can localize the image regions referenced by a question or answer — beyond simple answer accuracy.",
article = nil,
aliases = { "GQA grounding", "GQA grounded VQA" },
es = "Uso de las anotaciones de grafos de escena del conjunto GQA para evaluar el grounding de frases — si un modelo puede localizar las regiones de imagen referenciadas por una pregunta o respuesta — más allá de la simple precisión de respuesta.",
zh = "利用 GQA 数据集的场景图标注评估短语接地(grounding),即模型能否定位问题或答案所指代的图像区域,而不仅是回答准确率。",
term_es = "grounding en GQA",
term_zh = "GQA 接地",
aliases_es = { "anclaje GQA", "GQA grounding" },
aliases_zh = { "GQA grounding", "GQA 接地评估" },
}
data["grad-cam"] = {
short = "Gradient-weighted Class Activation Mapping: a visualization technique that uses the gradients of a target class flowing into the final convolutional layer to produce a coarse localization map highlighting image regions important for the prediction.",
article = nil,
aliases = { "Grad-CAM", "GradCAM", "gradient-weighted class activation mapping", "gradient class activation map" },
es = "Mapeo de Activación de Clase Ponderado por Gradiente: técnica de visualización que utiliza los gradientes de una clase objetivo que llegan a la última capa convolucional para producir un mapa de localización aproximado que resalta las regiones de la imagen importantes para la predicción.",
zh = "梯度加权类激活映射:一种可视化技术,利用目标类别流入最后一层卷积层的梯度,生成突出预测重要图像区域的粗略定位图。",
term_es = "Grad-CAM",
term_zh = "Grad-CAM",
aliases_es = { "Grad-CAM", "mapeo de activación de clase ponderado por gradiente" },
aliases_zh = { "GradCAM", "梯度加权类激活映射", "梯度类激活图" },
}
data["gradcam plus plus"] = {
short = "An extension of Grad-CAM that uses a weighted combination of positive partial derivatives of the target class score with respect to feature map activations to produce sharper, more localized class-discriminative saliency maps, especially when multiple instances of a class appear in an image.",
article = nil,
aliases = { "Grad-CAM++", "GradCAM++", "Grad-CAM Plus Plus", "gradcam++" },
es = "Extensión de Grad-CAM que usa una combinación ponderada de derivadas parciales positivas de la puntuación de la clase objetivo respecto a los mapas de activación, produciendo mapas de saliencia más nítidos y mejor localizados, especialmente con múltiples instancias de la misma clase.",
zh = "Grad-CAM 的扩展方法,利用目标类别得分对特征图激活的正向偏导数的加权组合,生成更清晰、更具区分性的类别显著性图,尤其在图像中出现同一类别的多个实例时表现更好。",
term_es = "Grad-CAM++",
term_zh = "Grad-CAM++",
aliases_es = { "Grad-CAM Plus Plus", "GradCAM++" },
aliases_zh = { "Grad-CAM 加加", "梯度类激活映射++" },
}
data["gradient accumulation"] = {
short = "A technique that sums gradients across several forward-backward passes before performing a single optimizer step, simulating a larger effective batch size when memory is limited.",
article = nil,
aliases = { "gradient accumulation steps", "accumulated gradients" },
es = "Técnica que suma gradientes a lo largo de varias pasadas hacia adelante y hacia atrás antes de ejecutar un único paso del optimizador, simulando un tamaño de lote efectivo mayor cuando la memoria es limitada.",
zh = "一种将多次前向-反向传播的梯度累加后再执行单次优化器更新的技术,可在显存有限时模拟更大的有效批量。",
term_es = "acumulación de gradientes",
term_zh = "梯度累积",
aliases_es = { "pasos de acumulación de gradiente" },
aliases_zh = { "梯度累加", "累积梯度" },
}
data["gradient accumulation steps"] = {
short = "A hyperparameter specifying the number of consecutive micro-batches over which gradients are summed before a single optimizer update, effectively scaling the global batch size without increasing per-step memory.",
article = nil,
aliases = { "accumulation steps", "grad accum steps", "gradient_accumulation_steps", "accum steps" },
es = "Hiperparámetro que indica el número de microlotes consecutivos sobre los que se suman los gradientes antes de una única actualización del optimizador, escalando así el tamaño de lote global sin aumentar la memoria por paso.",
zh = "一个超参数,指定在执行一次优化器更新前累加梯度的连续微批量数量,从而在不增加单步显存的情况下扩大全局批量大小。",
term_es = "pasos de acumulación de gradiente",
term_zh = "梯度累积步数",
aliases_es = { "pasos de acumulación", "gradient_accumulation_steps" },
aliases_zh = { "累积步数", "gradient accumulation steps" },
}
data["gradient bucketing"] = {
short = "A distributed-training optimization that groups multiple gradient tensors into contiguous buffers (\"buckets\") so they can be all-reduced as one message, overlapping communication with the backward pass.",
article = nil,
aliases = { "bucketing", "gradient bucket", "all-reduce bucketing", "DDP gradient bucketing" },
es = "Optimización de entrenamiento distribuido que agrupa varios tensores de gradiente en búferes contiguos (\"buckets\") para poder reducirlos con all-reduce como un único mensaje, solapando la comunicación con la pasada hacia atrás.",
zh = "分布式训练中的一种优化:将多个梯度张量打包到连续的缓冲区(桶)中,以便作为单条消息进行 all-reduce,从而与反向传播过程重叠通信。",
term_es = "agrupación de gradientes",
term_zh = "梯度分桶",
aliases_es = { "bucketing de gradientes", "bucket de gradientes", "bucketing de all-reduce", "bucketing en DDP" },
aliases_zh = { "梯度桶", "gradient bucketing", "all-reduce 分桶", "DDP 梯度分桶" },
}
data["gradient checkpointing"] = {
short = "A memory-saving training technique that discards intermediate activations during the forward pass and recomputes them on demand during the backward pass, trading roughly 30% extra compute for substantially lower memory.",
article = nil,
aliases = { "gradient checkpoint", "rematerialization", "checkpointing", "activation rematerialization" },
es = "Técnica de entrenamiento que ahorra memoria descartando las activaciones intermedias durante el paso hacia adelante y recalculándolas bajo demanda durante el paso hacia atrás, intercambiando aproximadamente un 30% de cómputo extra por una memoria considerablemente menor.",
zh = "一种节省显存的训练技术:在前向传播时丢弃中间激活,在反向传播时按需重新计算,以约 30% 的额外计算换取显著降低的显存占用。",
term_es = "checkpointing de gradientes",
term_zh = "梯度检查点",
aliases_es = { "rematerialización", "rematerialización de activaciones" },
aliases_zh = { "梯度检查点技术", "重计算", "激活重计算" },
}
data["gradient clipping"] = {
short = "A technique that caps gradients (by value or by norm) before each parameter update to prevent exploding gradients, especially in recurrent networks and large language models.",
article = nil,
aliases = { "gradient norm clipping", "clip gradients", "clip-grad", "gradient clip" },
es = "Técnica que limita los gradientes (por valor o por norma) antes de cada actualización de parámetros para prevenir gradientes explosivos, especialmente en redes recurrentes y modelos de lenguaje grandes.",
zh = "一种在每次参数更新前对梯度进行裁剪(按数值或按范数)的技术,用于防止梯度爆炸,尤其适用于循环网络和大型语言模型。",
term_es = "recorte de gradiente",
term_zh = "梯度裁剪",
aliases_es = { "recorte de la norma del gradiente", "clipping de gradiente" },
aliases_zh = { "梯度剪裁", "梯度范数裁剪" },
}
data["gradient codes"] = {
short = "Coding-theoretic schemes for distributed training that introduce redundancy across workers' gradient computations so the parameter server can recover the exact aggregate gradient even when a bounded number of workers straggle or fail.",
article = nil,
aliases = { "gradient coding", "coded gradient computation", "gradient codes for stragglers" },
es = "Esquemas basados en la teoría de códigos para entrenamiento distribuido que introducen redundancia en los cálculos de gradiente de los trabajadores, de modo que el servidor de parámetros pueda recuperar el gradiente agregado exacto aun cuando un número acotado de trabajadores se retrase o falle.",
zh = "分布式训练中的一类编码理论方案:在各工作节点的梯度计算中引入冗余,使参数服务器即使在有限数量的节点延迟或失败时也能精确恢复聚合梯度。",
term_es = "códigos de gradiente",
term_zh = "梯度编码",
aliases_es = { "codificación de gradientes", "cálculo de gradiente codificado", "códigos de gradiente para stragglers" },
aliases_zh = { "gradient codes", "梯度编码方案", "应对掉队者的梯度编码" },
}
data["gradient compression"] = {
short = "Any technique that reduces the size of gradient messages exchanged in distributed or federated training, including quantization, sparsification, sketching, and low-rank approximation.",
article = nil,
aliases = { "compressed gradients", "gradient message compression", "communication-efficient gradients" },
es = "Cualquier técnica que reduce el tamaño de los mensajes de gradiente intercambiados en entrenamiento distribuido o federado, incluyendo cuantización, esparsificación, sketching y aproximación de bajo rango.",
zh = "任何用于减小分布式或联邦训练中交换的梯度消息大小的技术,包括量化、稀疏化、sketch 草图和低秩近似等。",
term_es = "compresión de gradientes",
term_zh = "梯度压缩",
aliases_es = { "gradientes comprimidos", "compresión de mensajes de gradiente", "gradientes eficientes en comunicación" },
aliases_zh = { "压缩梯度", "梯度消息压缩", "通信高效梯度" },
}
data["gradient delay compensation"] = {
short = "A correction used in asynchronous SGD that adjusts a stale gradient using information about the parameter updates that occurred between the time the gradient was computed and the time it is applied.",
article = nil,
aliases = { "DC-ASGD", "delay-compensated SGD", "stale gradient compensation", "asynchronous gradient delay compensation" },
es = "Corrección utilizada en SGD asíncrono que ajusta un gradiente obsoleto empleando información sobre las actualizaciones de parámetros que ocurrieron entre el momento en que se calculó el gradiente y el momento en que se aplica.",
zh = "异步 SGD 中的一种修正方法:利用从计算梯度时到应用该梯度时之间发生的参数更新信息,对过期梯度进行调整。",
term_es = "compensación del retardo de gradiente",
term_zh = "梯度延迟补偿",
aliases_es = { "DC-ASGD", "SGD con compensación de retardo", "compensación de gradientes obsoletos", "compensación del retardo de gradiente asíncrono" },
aliases_zh = { "DC-ASGD", "延迟补偿 SGD", "过期梯度补偿", "异步梯度延迟补偿" },
}
data["gradient descent"] = {
short = "A first-order optimization algorithm that iteratively updates parameters in the direction of the negative gradient of an objective function to find a local minimum.",
article = "Gradient Descent",
aliases = { "GD", "steepest descent", "batch gradient descent", "full-batch gradient descent" },
es = "Algoritmo de optimización de primer orden que actualiza iterativamente los parámetros en la dirección del gradiente negativo de una función objetivo para encontrar un mínimo local.",
zh = "一种一阶优化算法,沿目标函数负梯度方向迭代更新参数以寻找局部最小值。",
term_es = "descenso de gradiente",
term_zh = "梯度下降",
aliases_es = { "GD", "descenso por gradiente", "descenso más pronunciado" },
aliases_zh = { "GD", "最速下降法", "批量梯度下降" },
}
data["gradient direction"] = {
short = "The direction of the gradient vector at a point, which points toward the locally steepest increase of the function. Gradient descent moves in the opposite direction.",
article = nil,
aliases = { "direction of steepest ascent" },
es = "Dirección del vector gradiente en un punto, que apunta hacia el ascenso local más pronunciado de la función. El descenso de gradiente se mueve en la dirección opuesta.",
zh = "某一点处梯度向量的方向,指向函数局部上升最陡的方向;梯度下降沿其相反方向移动。",
term_es = "dirección del gradiente",
term_zh = "梯度方向",
aliases_es = { "dirección de máximo ascenso" },
aliases_zh = { "最速上升方向" },
}
data["gradient flow"] = {
short = "The continuous-time ordinary differential equation obtained as the limit of gradient descent when the learning rate tends to zero, used to analyze optimization dynamics.",
article = nil,
aliases = { "gradient flow ODE" },
es = "Ecuación diferencial ordinaria en tiempo continuo obtenida como límite del descenso de gradiente cuando la tasa de aprendizaje tiende a cero, usada para analizar la dinámica de la optimización.",
zh = "学习率趋于零时梯度下降的连续时间极限所对应的常微分方程,常用于分析优化过程的动力学。",
term_es = "flujo de gradiente",
term_zh = "梯度流",
aliases_es = {},
aliases_zh = {},
}
data["gradient inspection"] = {
short = "The practice of examining client-supplied gradient updates on the server to detect anomalies, identify malicious or low-quality contributions, or to study training dynamics in distributed and federated settings.",
article = nil,
aliases = { "gradient auditing", "server-side gradient inspection", "update inspection" },
es = "Práctica de examinar en el servidor las actualizaciones de gradiente provistas por los clientes para detectar anomalías, identificar contribuciones maliciosas o de baja calidad, o estudiar la dinámica de entrenamiento en escenarios distribuidos y federados.",
zh = "在服务器端对客户端提交的梯度更新进行检查的做法,用于检测异常、识别恶意或低质量贡献,以及研究分布式和联邦训练的动态。",
term_es = "inspección de gradientes",
term_zh = "梯度检查",
aliases_es = { "auditoría de gradientes", "inspección de gradientes en el servidor", "inspección de actualizaciones" },
aliases_zh = { "梯度审计", "服务器端梯度检查", "更新检查" },
}
data["gradient inversion attack"] = {
short = "A privacy attack that reconstructs a client's private training inputs from observed gradient updates, typically by solving an optimization problem that finds inputs whose gradient under the model matches the observed one.",
article = nil,
aliases = { "gradient inversion", "deep leakage from gradients", "DLG attack", "input reconstruction from gradients" },
es = "Ataque de privacidad que reconstruye las entradas privadas de entrenamiento de un cliente a partir de las actualizaciones de gradiente observadas, normalmente resolviendo un problema de optimización que busca entradas cuyo gradiente bajo el modelo coincida con el observado.",
zh = "一种隐私攻击:从观察到的梯度更新中重构客户端的私有训练输入,通常通过求解一个优化问题,寻找在模型下其梯度与观察到的梯度相匹配的输入。",
term_es = "ataque de inversión de gradientes",
term_zh = "梯度反演攻击",
aliases_es = { "inversión de gradientes", "fuga profunda a partir de gradientes", "ataque DLG", "reconstrucción de entradas a partir de gradientes" },
aliases_zh = { "梯度反演", "梯度深度泄露", "DLG 攻击", "从梯度重构输入" },
}
data["gradient leakage"] = {
short = "The privacy phenomenon by which gradient updates exchanged during training reveal information about the underlying training data, enabling attacks such as membership inference and gradient inversion.",
article = nil,
aliases = { "gradient information leakage", "leakage from gradients", "deep leakage from gradients" },
es = "Fenómeno de privacidad por el cual las actualizaciones de gradiente intercambiadas durante el entrenamiento revelan información sobre los datos de entrenamiento subyacentes, habilitando ataques como inferencia de pertenencia e inversión de gradientes.",
zh = "训练过程中交换的梯度更新会泄露底层训练数据信息的隐私现象,使成员推断、梯度反演等攻击成为可能。",
term_es = "fuga de gradientes",
term_zh = "梯度泄露",
aliases_es = { "fuga de información a través de gradientes", "fuga de información de gradientes", "fuga profunda a partir de gradientes" },
aliases_zh = { "梯度信息泄露", "来自梯度的泄露", "梯度深度泄露" },
}
data["gradient noise injection"] = {
short = "A regularization technique that adds Gaussian noise (typically with decaying variance) to gradients during training, improving optimization of deep networks and helping escape sharp minima.",
article = nil,
aliases = { "gradient noise", "noisy gradients", "added gradient noise" },
es = "Técnica de regularización que añade ruido gaussiano (normalmente con varianza decreciente) a los gradientes durante el entrenamiento, mejorando la optimización de redes profundas y ayudando a escapar de mínimos pronunciados.",
zh = "一种正则化技术,在训练过程中向梯度添加高斯噪声(通常方差递减),可改善深层网络的优化并有助于逃离尖锐最小值。",
term_es = "inyección de ruido en el gradiente",
term_zh = "梯度噪声注入",
aliases_es = { "ruido de gradiente", "gradientes ruidosos" },
aliases_zh = { "梯度噪声", "噪声梯度", "添加梯度噪声" },
}
data["gradient penalty"] = {
short = "A regularization term added to the WGAN critic loss that penalizes deviation of the gradient norm from one, evaluated at points interpolated between real and generated samples. Enforces the 1-Lipschitz constraint without weight clipping.",
article = nil,
aliases = { "GP", "WGAN-GP penalty", "WGAN gradient penalty", "Lipschitz gradient penalty" },
es = "Término de regularización añadido a la pérdida del crítico WGAN que penaliza la desviación de la norma del gradiente respecto a uno, evaluada en puntos interpolados entre muestras reales y generadas. Impone la restricción 1-Lipschitz sin recorte de pesos.",
zh = "在 WGAN 判别器损失中加入的正则项,对真实样本与生成样本之间插值点的梯度范数偏离 1 的程度进行惩罚,从而无需权重裁剪即可强制 1-Lipschitz 约束。",
term_es = "penalización de gradiente",
term_zh = "梯度惩罚",
aliases_es = { "GP", "penalización WGAN-GP", "penalización Lipschitz" },
aliases_zh = { "GP", "WGAN-GP 惩罚", "Lipschitz 梯度惩罚" },
}
data["gradient perturbation"] = {
short = "A differential privacy technique in which calibrated noise is added to gradient updates before they are shared or applied; it is the core building block of DP-SGD and differentially private federated learning.",
article = nil,
aliases = { "noisy gradient", "DP gradient perturbation", "noisy gradient method" },
es = "Técnica de privacidad diferencial en la que se añade ruido calibrado a las actualizaciones de gradiente antes de compartirlas o aplicarlas; es el bloque fundamental de DP-SGD y del aprendizaje federado con privacidad diferencial.",
zh = "一种差分隐私技术:在共享或应用梯度更新前向其添加经校准的噪声,是 DP-SGD 和差分隐私联邦学习的核心构件。",
term_es = "perturbación de gradientes",
term_zh = "梯度扰动",
aliases_es = { "gradiente ruidoso", "perturbación de gradiente DP", "método de gradiente ruidoso" },
aliases_zh = { "噪声梯度", "DP 梯度扰动", "噪声梯度方法" },
}
data["gradient quantization"] = {
short = "Compression of gradient updates by representing each component using fewer bits—e.g., 1-bit SGD, QSGD, or TernGrad—often with stochastic rounding so that the quantized estimator is unbiased.",
article = nil,
aliases = { "quantized gradients", "quantized SGD", "QSGD", "1-bit SGD", "TernGrad" },
es = "Compresión de las actualizaciones de gradiente representando cada componente con menos bits —por ejemplo 1-bit SGD, QSGD o TernGrad— a menudo con redondeo estocástico para que el estimador cuantizado sea insesgado.",
zh = "通过用更少比特表示每个梯度分量来压缩梯度更新(如 1-bit SGD、QSGD、TernGrad),通常采用随机舍入以保证量化估计无偏。",
term_es = "cuantización de gradientes",
term_zh = "梯度量化",
aliases_es = { "gradientes cuantizados", "SGD cuantizado", "QSGD", "1-bit SGD", "TernGrad" },
aliases_zh = { "量化梯度", "量化 SGD", "QSGD", "1-bit SGD", "TernGrad" },
}
data["gradient reversal for fairness"] = {
short = "A debiasing technique that inserts a gradient reversal layer between a feature encoder and an adversary predicting protected attributes, so the encoder learns representations that are uninformative about those attributes.",
article = nil,
aliases = { "gradient reversal layer fairness", "GRL fairness", "adversarial gradient reversal" },
es = "Técnica de mitigación de sesgo que coloca una capa de inversión de gradiente entre el codificador de características y un adversario que predice atributos protegidos, forzando representaciones invariantes a esos atributos.",
zh = "一种公平性去偏方法,在特征编码器与预测受保护属性的对抗器之间插入梯度反转层,使编码器学习对这些属性不敏感的表示。",
term_es = "inversión de gradiente para equidad",
term_zh = "面向公平性的梯度反转",
aliases_es = { "capa de inversión de gradiente", "GRL", "gradient reversal" },
aliases_zh = { "梯度反转层", "GRL", "对抗式去偏" },
}
data["gradient saturation"] = {
short = "A phenomenon in attribution methods where gradients of the model output with respect to the input become near-zero in regions where the activation function plateaus, causing simple gradient-based explanations to underestimate feature importance.",
article = nil,
aliases = { "saturated gradients", "gradient saturation problem" },
es = "Fenómeno en métodos de atribución en el que los gradientes de la salida del modelo respecto a la entrada se aproximan a cero en regiones donde la función de activación se estabiliza, causando que las explicaciones basadas en gradientes subestimen la importancia de las características.",
zh = "归因方法中的一种现象:在激活函数趋于饱和的区域,模型输出对输入的梯度接近零,导致基于梯度的解释方法低估特征的重要性。",
term_es = "saturación de gradiente",
term_zh = "梯度饱和",
aliases_es = { "saturación de gradientes", "gradientes saturados" },
aliases_zh = { "梯度饱和现象", "饱和梯度" },
}
data["gradient sensitivity"] = {
short = "An attribution method that uses the magnitude (absolute value or square) of the gradient of the model output with respect to each input feature as a measure of local importance, capturing how strongly small perturbations of that feature affect the prediction.",
article = nil,
aliases = { "sensitivity analysis", "gradient-based sensitivity", "saliency" },
es = "Método de atribución que usa la magnitud (valor absoluto o cuadrado) del gradiente de la salida del modelo respecto a cada característica de entrada como medida de importancia local, capturando cómo afectan a la predicción pequeñas perturbaciones de esa característica.",
zh = "一种归因方法,使用模型输出对每个输入特征的梯度大小(绝对值或平方)作为局部重要性的度量,反映该特征的小幅扰动对预测结果的影响程度。",
term_es = "sensibilidad de gradiente",
term_zh = "梯度敏感性",
aliases_es = { "análisis de sensibilidad", "sensibilidad basada en gradientes" },
aliases_zh = { "敏感性分析", "梯度灵敏度" },
}
data["gradient shap"] = {
short = "An attribution method that approximates SHAP values by averaging gradients of the model output computed at random points along paths from sampled background examples to the input, combining ideas from Integrated Gradients and SHAP.",
article = nil,
aliases = { "GradientSHAP", "Gradient SHAP", "gradient shapley" },
es = "Método de atribución que aproxima los valores SHAP promediando gradientes de la salida del modelo calculados en puntos aleatorios a lo largo de trayectorias desde ejemplos de fondo muestreados hasta la entrada, combinando ideas de Integrated Gradients y SHAP.",
zh = "一种归因方法,通过对从采样的背景样本到输入之间路径上随机点处计算的模型输出梯度取平均,近似 SHAP 值,结合了 Integrated Gradients 与 SHAP 的思想。",
term_es = "Gradient SHAP",
term_zh = "Gradient SHAP",
aliases_es = { "SHAP de gradiente", "GradientSHAP" },
aliases_zh = { "梯度 SHAP", "GradientSHAP" },
}
data["gradient sketching"] = {
short = "Compression of gradients via a random linear projection or hashing scheme applied on the worker side; the server then recovers an unbiased estimate of the aggregate gradient from the lower-dimensional sketches.",
article = nil,
aliases = { "sketched gradients", "gradient sketch", "count-sketch SGD", "FetchSGD" },
es = "Compresión de gradientes mediante una proyección lineal aleatoria o un esquema de hashing aplicado en el trabajador; el servidor recupera luego un estimador insesgado del gradiente agregado a partir de los sketches de menor dimensión.",
zh = "在工作节点端通过随机线性投影或哈希方案对梯度进行压缩,服务器再从低维 sketch 中恢复聚合梯度的无偏估计。",
term_es = "sketching de gradientes",
term_zh = "梯度 sketch",
aliases_es = { "gradientes con sketch", "sketch de gradientes", "SGD con count-sketch", "FetchSGD" },
aliases_zh = { "梯度 sketching", "sketch 梯度", "count-sketch SGD", "FetchSGD" },
}
data["gradient sparsification"] = {
short = "Compression of gradients by transmitting only a subset of components—typically the top-k by magnitude—while accumulating the residual locally for inclusion in later updates.",
article = nil,
aliases = { "sparsified gradients", "top-k SGD", "top-k sparsification", "deep gradient compression" },
es = "Compresión de gradientes transmitiendo únicamente un subconjunto de componentes —normalmente los k mayores en magnitud— y acumulando localmente el residuo para incluirlo en actualizaciones posteriores.",
zh = "通过仅传输梯度的部分分量(通常是按幅值排序的 top-k)来压缩梯度,并在本地累积残差以并入后续更新。",
term_es = "esparsificación de gradientes",
term_zh = "梯度稀疏化",
aliases_es = { "gradientes esparsos", "SGD top-k", "esparsificación top-k", "compresión profunda de gradientes" },
aliases_zh = { "稀疏化梯度", "top-k SGD", "top-k 稀疏化", "深度梯度压缩" },
}
data["gradient times input"] = {
short = "An attribution method that computes the element-wise product of the gradient of the model output with respect to the input and the input itself, providing a first-order Taylor approximation of the contribution of each feature to the prediction.",
article = nil,
aliases = { "Gradient × Input", "GradxInput", "Grad*Input", "input times gradient", "input x gradient" },
es = "Método de atribución que calcula el producto elemento a elemento entre el gradiente de la salida del modelo respecto a la entrada y la propia entrada, proporcionando una aproximación de Taylor de primer orden a la contribución de cada característica a la predicción.",
zh = "一种归因方法,计算模型输出对输入的梯度与输入本身的逐元素乘积,提供每个特征对预测贡献的一阶泰勒近似。",
term_es = "Gradient × Input",
term_zh = "Gradient × Input",
aliases_es = { "gradiente por entrada", "GradxInput" },
aliases_zh = { "梯度乘输入", "Grad×Input", "输入乘梯度" },
}
data["gradient variance reduction"] = {
short = "A family of techniques — control variates, Rao-Blackwellisation, common random numbers, sticking the landing — that lower the variance of stochastic gradient estimators in variational inference and reinforcement learning without biasing them.",
article = nil,
aliases = { "variance reduction", "stochastic gradient variance reduction", "low-variance gradient estimator", "variance-reduced gradient", "control variate gradients" },
es = "Familia de técnicas —variables de control, Rao-Blackwellización, números aleatorios comunes, sticking the landing— que reducen la varianza de estimadores de gradiente estocástico en inferencia variacional y aprendizaje por refuerzo sin introducir sesgo.",
zh = "一类不引入偏差地降低随机梯度估计器方差的技术,包括控制变量、Rao-Blackwell化、共同随机数、sticking the landing等,广泛用于变分推断和强化学习。",
term_es = "reducción de varianza del gradiente",
term_zh = "梯度方差缩减",
aliases_es = { "reducción de varianza", "estimador de gradiente de baja varianza", "variables de control para gradientes" },
aliases_zh = { "方差缩减", "低方差梯度估计", "控制变量梯度" },
}
data["gradient-based hyperparameter optimization"] = {
short = "Hyperparameter optimization that uses gradients of a validation loss with respect to hyperparameters — typically obtained by differentiating through training or via implicit differentiation — instead of treating the inner training as black-box.",
article = nil,
aliases = { "gradient based hyperparameter optimization", "gradient-based HPO", "hypergradient optimization", "differentiable hyperparameter optimization" },
es = "Optimización de hiperparámetros que utiliza gradientes de la pérdida de validación con respecto a los hiperparámetros, obtenidos típicamente diferenciando a través del entrenamiento o mediante diferenciación implícita, en lugar de tratar el entrenamiento interno como una caja negra.",
zh = "通过对验证损失关于超参数求梯度(通常通过反传训练过程或隐式微分获得)来调优的超参数优化方法,不再将内部训练视为黑盒。",
term_es = "optimización de hiperparámetros basada en gradientes",
term_zh = "基于梯度的超参数优化",
aliases_es = { "HPO basada en gradientes", "optimización por hipergradientes", "gradient-based HPO" },
aliases_zh = { "梯度超参数优化", "Hypergradient 优化", "gradient-based HPO" },
}
data["gradient-based meta-learning"] = {
short = "A family of meta-learning methods that learn an initialization, learning rate, or update rule such that a small number of gradient-descent steps on a new task yields good performance, exemplified by MAML and its variants.",
article = nil,
aliases = { "gradient based meta-learning", "MAML-family meta-learning", "optimization-based meta-learning", "gradient-based meta learning" },
es = "Familia de métodos de meta-aprendizaje que aprenden una inicialización, una tasa de aprendizaje o una regla de actualización tales que unos pocos pasos de descenso de gradiente sobre una tarea nueva producen buen rendimiento; ejemplificada por MAML y sus variantes.",
zh = "一类元学习方法:通过学习一个初始化、学习率或更新规则,使得在新任务上仅需若干步梯度下降即可获得良好表现,代表方法包括 MAML 及其各种变体。",
term_es = "meta-aprendizaje basado en gradientes",
term_zh = "基于梯度的元学习",
aliases_es = { "meta-learning basado en gradientes", "meta-aprendizaje de optimización", "MAML y variantes" },
aliases_zh = { "梯度元学习", "基于优化的元学习", "MAML 类元学习" },
}
data["gradient-free optimization"] = {
short = "Optimization techniques that do not require derivatives of the objective and instead query function values directly; includes evolutionary strategies, Bayesian optimization, simulated annealing and pattern search.",
article = nil,
aliases = { "gradient free optimization", "derivative-free optimization", "black-box optimization", "zeroth-order optimization" },
es = "Técnicas de optimización que no requieren derivadas de la función objetivo y consultan directamente sus valores; incluyen estrategias evolutivas, optimización bayesiana, recocido simulado y búsqueda por patrones.",
zh = "不依赖目标函数导数、仅通过查询函数值进行优化的方法,包括进化策略、贝叶斯优化、模拟退火和模式搜索等。",
term_es = "optimización sin gradientes",
term_zh = "无梯度优化",
aliases_es = { "optimización libre de derivadas", "optimización de caja negra", "optimización de orden cero" },
aliases_zh = { "无导数优化", "黑盒优化", "零阶优化" },
}
data["gradnorm ood score"] = {
short = "An out-of-distribution detection score that uses the L1 norm of gradients of the cross-entropy with respect to the penultimate layer features (or weights), evaluated against a uniform target. Larger gradients indicate in-distribution inputs.",
article = nil,
aliases = { "GradNorm OOD score", "GradNorm", "GradNorm score", "gradient-norm OOD detector", "GradNorm OOD" },
es = "Puntuación de detección fuera de distribución que utiliza la norma L1 de los gradientes de la entropía cruzada respecto a las características de la penúltima capa (o de los pesos), evaluada frente a un objetivo uniforme; gradientes mayores indican entradas dentro de la distribución.",
zh = "一种分布外检测评分,使用交叉熵相对于倒数第二层特征(或权重)梯度的L1范数,对均匀目标分布求值;梯度越大表明输入越可能来自训练分布。",
term_es = "puntuación OOD GradNorm",
term_zh = "GradNorm OOD评分",
aliases_es = { "GradNorm", "puntuación GradNorm", "detector OOD por norma de gradiente" },
aliases_zh = { "GradNorm", "GradNorm评分", "梯度范数OOD检测", "GradNorm分布外检测" },
}
data["graf zero-cost"] = {
short = "A zero-cost neural architecture search proxy that scores candidate architectures from cheap graph-level features of their computational graph — such as connectivity statistics and operator distributions — without any training or gradient computation.",
article = nil,
aliases = { "GRAF zero-cost", "GRAF proxy", "GRAF zero cost", "graph-feature zero-cost proxy" },
es = "Proxy de coste cero para búsqueda de arquitecturas neuronales que puntúa arquitecturas candidatas a partir de características baratas a nivel de grafo de su grafo de cómputo — como estadísticas de conectividad y distribución de operadores — sin ningún entrenamiento ni cálculo de gradientes.",
zh = "一种零开销神经架构搜索代理:仅利用计算图的低成本图级特征(如连通性统计、算子分布)来评分候选架构,无需任何训练或梯度计算。",
term_es = "GRAF zero-cost",
term_zh = "GRAF 零开销代理",
aliases_es = { "GRAF zero-cost", "proxy GRAF", "GRAF" },
aliases_zh = { "GRAF zero-cost", "GRAF 代理", "GRAF 零成本代理" },
}
data["grailqa"] = {
short = "A large-scale knowledge base question answering dataset over Freebase with three levels of generalization—i.i.d., compositional, and zero-shot—designed to test the ability of semantic parsers to handle unseen schema items and query structures.",
article = nil,
aliases = { "GrailQA", "GRAILQA", "GrailQA dataset", "GrailQA benchmark" },
es = "Un conjunto a gran escala de preguntas-respuestas sobre la base de conocimiento Freebase, con tres niveles de generalización —i.i.d., composicional y zero-shot—, diseñado para evaluar la capacidad de los analizadores semánticos para manejar elementos de esquema y estructuras de consulta no vistas.",
zh = "一个基于 Freebase 的大规模知识库问答数据集,设有 i.i.d.、组合式和零样本三种泛化层级,用于评估语义解析器处理未见过的模式项与查询结构的能力。",
term_es = "GrailQA",
term_zh = "GrailQA",
aliases_es = { "GrailQA", "conjunto GrailQA", "benchmark GrailQA" },
aliases_zh = { "GrailQA", "GrailQA 数据集", "GrailQA 基准" },
}
data["grammar vae"] = {
short = "A variational autoencoder that encodes and decodes discrete structured objects (such as molecules in SMILES) using a context-free grammar, ensuring that decoded sequences are syntactically valid.",
article = nil,
aliases = { "Grammar VAE", "GVAE" },
es = "Autoencoder variacional que codifica y decodifica objetos discretos estructurados (como moléculas en SMILES) usando una gramática libre de contexto, garantizando que las secuencias decodificadas sean sintácticamente válidas.",
zh = "一种变分自编码器,使用上下文无关文法对离散结构化对象(如 SMILES 表示的分子)进行编解码,保证解码序列在语法上始终有效。",
term_es = "Grammar VAE",
term_zh = "Grammar VAE",
aliases_es = { "VAE gramatical", "autoencoder variacional gramatical" },
aliases_zh = { "语法 VAE", "文法变分自编码器" },
}
data["graph attention network"] = {
short = "A graph neural network that aggregates neighbor features using learned attention weights, allowing each node to assign different importance to different neighbors.",
article = nil,
aliases = { "GAT", "GATs", "graph attention networks" },
es = "Red neuronal de grafos que agrega las características de los vecinos mediante pesos de atención aprendidos, permitiendo que cada nodo asigne distinta importancia a diferentes vecinos.",
zh = "一种图神经网络,使用学习到的注意力权重聚合邻居节点的特征,使每个节点能够对不同邻居赋予不同的重要性。",
term_es = "red de atención de grafos",
term_zh = "图注意力网络",
aliases_es = { "GAT", "GATs", "redes de atención sobre grafos" },
aliases_zh = { "GAT", "图注意力神经网络" },
}
data["graph attribution"] = {
short = "Explanation methods for graph neural networks that assign importance scores to nodes, edges, or subgraphs of the input graph to indicate which structural elements drive a model's prediction.",
article = nil,
aliases = { "GNN attribution", "graph explanation", "graph explainability" },
es = "Métodos de explicación para redes neuronales de grafos que asignan puntuaciones de importancia a nodos, aristas o subgrafos de la entrada para indicar qué elementos estructurales determinan la predicción del modelo.",
zh = "针对图神经网络的解释方法,为输入图中的节点、边或子图分配重要性分数,以指示哪些结构元素驱动了模型的预测。",
term_es = "atribución de grafos",
term_zh = "图归因",
aliases_es = { "explicación de grafos", "atribución para GNN" },
aliases_zh = { "图神经网络归因", "图解释", "GNN 归因" },
}
data["graph convolutional network"] = {
short = "A graph neural network that generalizes the convolution operation to graphs, aggregating neighbor features through a normalized adjacency matrix at each layer.",
article = nil,
aliases = { "GCN", "GCNs", "graph convolutional networks", "graph convolution network" },
es = "Red neuronal de grafos que generaliza la operación de convolución a grafos, agregando las características de los vecinos en cada capa mediante una matriz de adyacencia normalizada.",
zh = "一种图神经网络,将卷积运算推广到图上,在每一层通过归一化邻接矩阵聚合邻居节点的特征。",
term_es = "red convolucional de grafos",
term_zh = "图卷积网络",
aliases_es = { "GCN", "GCNs", "redes convolucionales de grafos" },
aliases_zh = { "GCN", "图卷积神经网络" },
}
data["graph counterfactual explanation"] = {
short = "An explanation for a graph neural network's prediction that identifies a minimal modification to the input graph — adding, removing, or changing nodes or edges — that would flip the model's output to a different class.",
article = nil,
aliases = { "GNN counterfactual", "counterfactual graph explanation", "graph CF explanation" },
es = "Explicación para una predicción de una red neuronal de grafos que identifica una modificación mínima del grafo de entrada — añadir, eliminar o cambiar nodos o aristas — que cambiaría la salida del modelo a otra clase.",
zh = "针对图神经网络预测的一种解释方法,识别对输入图的最小修改(添加、删除或更改节点或边)以使模型输出翻转到不同类别。",
term_es = "explicación contrafactual de grafos",
term_zh = "图反事实解释",
aliases_es = { "contrafactual de grafos", "explicación contrafactual para GNN" },
aliases_zh = { "图反事实", "GNN 反事实解释" },
}
data["graph cut"] = {
short = "A partition of the vertices of a graph into two disjoint subsets; the cost of the cut is the total weight of the edges crossing the partition, and minimum-cut/maximum-flow algorithms compute the cheapest such partition efficiently.",
article = nil,
aliases = { "graph-cut", "min-cut", "minimum cut", "min-cut/max-flow" },
es = "Partición de los vértices de un grafo en dos subconjuntos disjuntos; el coste del corte es el peso total de las aristas que cruzan la partición, y los algoritmos de corte mínimo y flujo máximo calculan de forma eficiente la partición más barata.",
zh = "将图的顶点划分为两个互不相交子集的操作;其代价为跨越划分的边权之和,最小割/最大流算法可高效地求得代价最小的划分。",
term_es = "corte de grafo",
term_zh = "图割",
aliases_es = { "corte mínimo", "min-corte", "corte mínimo/flujo máximo" },
aliases_zh = { "图割", "最小割", "最小割/最大流" },
}
data["graph cut inference"] = {
short = "MAP inference in pairwise Markov random fields with binary variables and submodular potentials, performed exactly by reducing the energy minimization to a minimum s-t cut on a constructed graph.",
article = nil,
aliases = { "graph-cut inference", "graph cuts inference", "graph cut MAP inference", "min-cut inference" },
es = "Inferencia MAP en campos aleatorios de Markov por pares con variables binarias y potenciales submodulares, realizada de forma exacta al reducir la minimización de la energía a un corte mínimo s-t en un grafo construido para tal fin.",
zh = "在具有二值变量与子模势函数的成对马尔可夫随机场上进行的 MAP 推断,通过将能量最小化问题归约为构造图上的最小 s-t 割来精确求解。",
term_es = "inferencia por corte de grafo",
term_zh = "图割推断",
aliases_es = { "inferencia mediante cortes de grafo", "inferencia MAP por corte de grafo" },
aliases_zh = { "图割推断", "基于图割的推断", "图割 MAP 推断" },
}
data["graph edge attribution"] = {
short = "Attribution at the edge level in a graph neural network: each edge of the input graph receives an importance score reflecting its contribution to the model's prediction, often used to identify critical relations or interactions.",
article = nil,
aliases = { "edge attribution", "edge importance", "edge-level attribution" },
es = "Atribución a nivel de arista en una red neuronal de grafos: cada arista del grafo de entrada recibe una puntuación de importancia que refleja su contribución a la predicción del modelo, usada habitualmente para identificar relaciones o interacciones críticas.",
zh = "图神经网络中的边级归因:为输入图的每条边分配反映其对模型预测贡献的重要性分数,通常用于识别关键的关系或交互。",
term_es = "atribución de aristas",
term_zh = "边归因",
aliases_es = { "importancia de aristas", "atribución a nivel de arista" },
aliases_zh = { "边重要性", "边级归因" },
}
data["graph hypernetwork"] = {
short = "A hypernetwork that consumes a neural architecture represented as a directed acyclic graph and outputs the weights for that architecture, allowing weights to be predicted across many architectures from a single shared model.",
article = nil,
aliases = { "graph hyper-network", "graph-based hypernetwork", "GHN", "Graph HyperNetwork" },
es = "Hiperred que consume una arquitectura neuronal representada como un grafo acíclico dirigido y produce los pesos de esa arquitectura, permitiendo predecir pesos para muchas arquitecturas con un único modelo compartido.",
zh = "以有向无环图形式表示的神经网络架构作为输入,并输出对应权重的超网络,可由单一共享模型为许多架构预测权重。",
term_es = "hiperred sobre grafos",
term_zh = "图超网络",
aliases_es = { "graph hypernetwork", "hiperred basada en grafos", "GHN" },
aliases_zh = { "Graph Hypernetwork", "GHN", "基于图的超网络" },
}
data["graph isomorphism network"] = {
short = "A graph neural network architecture whose neighborhood aggregation function is provably as discriminative as the Weisfeiler-Lehman graph isomorphism test, achieving maximal expressive power among message-passing GNNs.",
article = nil,
aliases = { "GIN", "Graph Isomorphism Network" },
es = "Arquitectura de red neuronal de grafos cuya función de agregación de vecindad es demostrablemente tan discriminativa como el test de isomorfismo de grafos de Weisfeiler-Lehman, alcanzando la máxima expresividad entre las GNN de paso de mensajes.",
zh = "一种图神经网络架构,其邻域聚合函数在表达能力上可证明与 Weisfeiler-Lehman 图同构检验等价,在消息传递型 GNN 中具有最强的判别能力。",
term_es = "GIN",
term_zh = "GIN",
aliases_es = { "red de isomorfismo de grafos" },
aliases_zh = { "图同构网络" },
}
data["graph neural network"] = {
short = "A class of neural networks that operate on graph-structured data by iteratively updating node representations from the features of their neighbors.",
article = nil,
aliases = { "GNN", "GNNs", "graph neural networks" },
es = "Clase de redes neuronales que operan sobre datos estructurados como grafos actualizando iterativamente las representaciones de cada nodo a partir de las características de sus vecinos.",
zh = "一类在图结构数据上运行的神经网络,通过迭代地从邻居节点的特征更新每个节点的表示。",
term_es = "red neuronal de grafos",
term_zh = "图神经网络",
aliases_es = { "GNN", "GNNs", "redes neuronales de grafos", "red neuronal sobre grafos" },
aliases_zh = { "GNN", "图神经网路" },
}
data["graph neural network predictor"] = {
short = "A graph neural network used to predict the accuracy or another performance metric of a neural architecture from its computation graph, used as a cheap surrogate inside neural architecture search loops.",
article = nil,
aliases = { "GNN predictor", "graph neural network performance predictor", "GNN-based architecture predictor", "GNN architecture predictor" },
es = "Red neuronal sobre grafos utilizada para predecir la precisión u otra métrica de desempeño de una arquitectura neuronal a partir de su grafo de cómputo, empleada como sustituto barato dentro de bucles de búsqueda de arquitecturas neuronales.",
zh = "使用图神经网络根据神经网络架构的计算图预测其准确率或其他性能指标,在神经架构搜索循环中充当低成本代理。",
term_es = "predictor con red neuronal sobre grafos",
term_zh = "图神经网络预测器",
aliases_es = { "predictor GNN", "predictor de arquitectura basado en GNN" },
aliases_zh = { "GNN 预测器", "基于 GNN 的架构预测器", "图神经网络架构预测器" },
}
data["graph node attribution"] = {
short = "Attribution at the node level in a graph neural network: each node of the input graph receives an importance score reflecting its contribution to the model's prediction, used to identify which entities most influence the output.",
article = nil,
aliases = { "node attribution", "node importance", "node-level attribution" },
es = "Atribución a nivel de nodo en una red neuronal de grafos: cada nodo del grafo de entrada recibe una puntuación de importancia que refleja su contribución a la predicción del modelo, usada para identificar qué entidades influyen más en la salida.",
zh = "图神经网络中的节点级归因:为输入图的每个节点分配反映其对模型预测贡献的重要性分数,用于识别哪些实体对输出影响最大。",
term_es = "atribución de nodos",
term_zh = "节点归因",
aliases_es = { "importancia de nodos", "atribución a nivel de nodo" },
aliases_zh = { "节点重要性", "节点级归因" },
}
data["graph of thoughts"] = {
short = "A prompting framework that organizes large-language-model reasoning as a directed graph, allowing thoughts to be combined, refined, and aggregated rather than only extended linearly or as a tree.",
article = nil,
aliases = { "GoT", "Graph of Thoughts", "graph-of-thoughts prompting" },
es = "Marco de prompting que organiza el razonamiento de un gran modelo de lenguaje como un grafo dirigido, permitiendo combinar, refinar y agregar pensamientos en lugar de extenderlos solo de forma lineal o en árbol.",
zh = "一种提示框架,将大型语言模型的推理组织为有向图,使思维可以被组合、细化和聚合,而不仅是线性或树状扩展。",
term_es = "Graph of Thoughts",
term_zh = "思维图",
aliases_es = { "GoT", "Graph of Thoughts" },
aliases_zh = { "GoT", "Graph of Thoughts", "思想图" },
}
data["graph rag"] = {
short = "A retrieval-augmented generation variant that builds a knowledge graph over the corpus and traverses or summarizes graph structure to answer queries that require global or multi-hop reasoning.",
article = nil,
aliases = { "GraphRAG", "Graph RAG", "graph-based RAG" },
es = "Variante de generación aumentada con recuperación que construye un grafo de conocimiento sobre el corpus y recorre o resume su estructura para responder consultas que requieren razonamiento global o de múltiples saltos.",
zh = "一种检索增强生成的变体,先在语料上构建知识图,然后通过遍历或总结图结构来回答需要全局或多跳推理的问题。",
term_es = "Graph RAG",
term_zh = "Graph RAG",
aliases_es = { "GraphRAG", "Graph RAG" },
aliases_zh = { "GraphRAG", "Graph RAG", "图谱 RAG" },
}
data["graph vae"] = {
short = "A variational autoencoder that learns a continuous latent representation of graphs, with a decoder that reconstructs an adjacency matrix and node and edge attributes; commonly used for molecular generation.",
article = nil,
aliases = { "GraphVAE", "Graph VAE" },
es = "Autoencoder variacional que aprende una representación latente continua de grafos, con un decodificador que reconstruye la matriz de adyacencia y los atributos de nodos y aristas; se usa con frecuencia para generación molecular.",
zh = "一种变分自编码器,学习图的连续潜在表示,解码器重建邻接矩阵以及节点与边的属性,常用于分子生成。",
term_es = "GraphVAE",
term_zh = "GraphVAE",
aliases_es = { "VAE de grafos", "autoencoder variacional de grafos" },
aliases_zh = { "图变分自编码器", "图 VAE" },
}
data["graph-structured prior"] = {
short = "A prior distribution defined over the structure of a graph, such as the directed acyclic graph of a Bayesian network or the edge set of a Markov random field, used to encode beliefs about model topology.",
article = nil,
aliases = { "graph structured prior", "structural prior over graphs", "prior over graph structure" },
es = "Distribución a priori definida sobre la estructura de un grafo, como el grafo acíclico dirigido de una red bayesiana o el conjunto de aristas de un campo aleatorio de Markov, utilizada para codificar creencias sobre la topología del modelo.",
zh = "定义在图结构(如贝叶斯网络的有向无环图或马尔可夫随机场的边集)上的先验分布,用于编码对模型拓扑的先验信念。",
term_es = "a priori sobre la estructura del grafo",
term_zh = "图结构先验",
aliases_es = { "prior sobre estructura de grafo", "a priori estructural sobre grafos" },
aliases_zh = { "图结构先验", "图上结构先验" },
}
data["graph2tac"] = {
short = "A graph neural network–based tactic prediction system for the Coq proof assistant that represents the proof state as a graph of terms and definitions and recommends the next tactic to apply, supporting online learning from a user's libraries.",
article = nil,
aliases = { "Graph2Tac", "graph-to-tactic", "Graph2Tac Coq", "Tactician Graph2Tac" },
es = "Un sistema de predicción de tácticas para el asistente de demostración Coq basado en redes neuronales de grafos, que representa el estado de la demostración como un grafo de términos y definiciones y recomienda la siguiente táctica a aplicar, con aprendizaje en línea sobre las librerías del usuario.",
zh = "一个面向 Coq 证明助手的基于图神经网络的策略预测系统,将证明状态表示为术语与定义构成的图,并推荐下一条要应用的策略,支持基于用户库的在线学习。",
term_es = "Graph2Tac",
term_zh = "Graph2Tac",
aliases_es = { "Graph2Tac", "grafo-a-táctica" },
aliases_zh = { "Graph2Tac", "图到策略", "Graph2Tac Coq" },
}
data["graph2vec"] = {
short = "An unsupervised whole-graph embedding method that learns fixed-length distributed representations of entire graphs by treating rooted subgraphs as the analogue of words in a doc2vec-style skip-gram objective.",
article = nil,
aliases = { "Graph2Vec", "graph2vec embedding", "graph-to-vector embedding" },
es = "Un método no supervisado de incrustación de grafos completos que aprende representaciones distribuidas de longitud fija para grafos enteros, tratando los subgrafos enraizados como análogos de las palabras en un objetivo skip-gram al estilo de doc2vec.",
zh = "一种无监督的整图嵌入方法,采用类似 doc2vec 的 skip-gram 目标,将有根子图视为词的对应物,为整个图学习固定长度的分布式表示。",
term_es = "graph2vec",
term_zh = "graph2vec",
aliases_es = { "Graph2Vec", "embedding graph2vec" },
aliases_zh = { "Graph2Vec", "graph2vec 嵌入", "图到向量嵌入" },
}
data["graphaf"] = {
short = "An autoregressive flow-based generative model for molecular graphs that adds atoms and bonds sequentially while supporting exact likelihood and reinforcement-learning fine-tuning for property optimization.",
article = nil,
aliases = { "GraphAF" },
es = "Modelo generativo basado en flujos autorregresivos para grafos moleculares que añade átomos y enlaces de forma secuencial, admitiendo verosimilitud exacta y ajuste por aprendizaje por refuerzo para optimización de propiedades.",
zh = "一种基于自回归流的分子图生成模型,逐步添加原子与化学键,支持精确似然计算并可通过强化学习微调以优化分子性质。",
term_es = "GraphAF",
term_zh = "GraphAF",
aliases_es = { "graphaf" },
aliases_zh = { "graphaf" },
}
data["graphdf"] = {
short = "A discrete flow-based generative model for molecular graphs that operates directly on categorical atom and bond variables, avoiding dequantization artifacts present in continuous flow approaches.",
article = nil,
aliases = { "GraphDF" },
es = "Modelo generativo basado en flujos discretos para grafos moleculares que opera directamente sobre variables categóricas de átomos y enlaces, evitando los artefactos de descuantización propios de los flujos continuos.",
zh = "一种针对分子图的离散流生成模型,直接在类别型的原子与键变量上操作,避免了连续流方法中的反量化伪影。",
term_es = "GraphDF",
term_zh = "GraphDF",
aliases_es = { "graphdf" },
aliases_zh = { "graphdf" },
}
data["graphical criterion"] = {
short = "Any rule defined on a causal graph that determines identifiability or independence properties, such as the back-door, front-door, or single-door criteria for adjustment set selection.",
article = nil,
aliases = { "graph criterion", "graphical identification criterion" },
es = "Cualquier regla definida sobre un grafo causal que determina propiedades de identificabilidad o de independencia, como los criterios de puerta trasera, puerta delantera o puerta única para la selección de conjuntos de ajuste.",
zh = "在因果图上定义的任意规则,用于判定可识别性或独立性,例如用于选择调整集的后门、前门或单门准则。",
term_es = "criterio gráfico",
term_zh = "图形准则",
aliases_es = { "criterio gráfico de identificación" },
aliases_zh = { "图准则", "图形识别准则" },
}
data["graphical lasso"] = {
short = "An algorithm for sparse Gaussian graphical model estimation that maximizes the Gaussian log-likelihood with an L1 penalty on the precision matrix, yielding a sparse estimate of conditional independence structure.",
article = nil,
aliases = { "graphical lasso", "graphical Lasso", "GLasso", "glasso", "sparse inverse covariance estimation" },
es = "Algoritmo para la estimación dispersa de modelos gráficos gaussianos que maximiza la log-verosimilitud gaussiana con una penalización L1 sobre la matriz de precisión, produciendo una estimación dispersa de la estructura de independencia condicional.",
zh = "用于稀疏高斯图模型估计的算法,在高斯对数似然上对精度矩阵施加 L1 惩罚来最大化目标,从而得到条件独立结构的稀疏估计。",
term_es = "graphical lasso",
term_zh = "图形 Lasso",
aliases_es = { "lasso gráfico", "GLasso", "estimación dispersa de la covarianza inversa" },
aliases_zh = { "图形 Lasso", "graphical lasso", "GLasso", "稀疏逆协方差估计" },
}
data["graphical model"] = {
short = "A probabilistic model whose conditional independence structure is encoded by a graph, with nodes representing random variables and edges representing direct probabilistic dependencies; includes Bayesian networks and Markov random fields.",
article = nil,
aliases = { "probabilistic graphical model", "PGM", "graphical models" },
es = "Modelo probabilístico cuya estructura de independencia condicional se codifica mediante un grafo, con nodos que representan variables aleatorias y aristas que representan dependencias probabilísticas directas; incluye las redes bayesianas y los campos aleatorios de Markov.",
zh = "一种概率模型,其条件独立结构由图编码,节点表示随机变量、边表示直接的概率依赖;包括贝叶斯网络与马尔可夫随机场。",
term_es = "modelo gráfico",
term_zh = "图模型",
aliases_es = { "modelo gráfico probabilístico", "PGM", "modelos gráficos" },
aliases_zh = { "图模型", "概率图模型", "PGM" },
}
data["graphical separation"] = {
short = "A graph-theoretic criterion (such as ordinary separation in undirected graphs or d-separation in directed acyclic graphs) that, when satisfied, implies conditional independence between the corresponding sets of variables in the graphical model.",
article = nil,
aliases = { "graph separation", "graphical separation criterion", "separation in graphical models" },
es = "Criterio de teoría de grafos (como la separación ordinaria en grafos no dirigidos o la d-separación en grafos acíclicos dirigidos) que, cuando se cumple, implica la independencia condicional entre los conjuntos de variables correspondientes en el modelo gráfico.",
zh = "一种图论准则(如无向图中的普通分隔或有向无环图中的 d-分隔);当其成立时,可推出图模型中相应变量集合之间的条件独立性。",
term_es = "separación gráfica",
term_zh = "图分隔",
aliases_es = { "separación en grafos", "criterio de separación gráfica" },
aliases_zh = { "图分隔", "图分离", "图模型中的分隔" },
}
data["graphlime"] = {
short = "A local explainability method for graph neural networks that explains a node's prediction by fitting a sparse nonlinear surrogate model (HSIC Lasso) over its N-hop neighborhood features, generalizing LIME to graph-structured data.",
article = nil,
aliases = { "GraphLIME", "Graph LIME" },
es = "Método de explicabilidad local para redes neuronales de grafos que explica la predicción de un nodo ajustando un modelo sustituto disperso no lineal (HSIC Lasso) sobre las características del vecindario de N saltos, generalizando LIME a datos estructurados como grafo.",
zh = "一种针对图神经网络的局部可解释性方法,通过在节点的 N 跳邻域特征上拟合稀疏非线性代理模型(HSIC Lasso)来解释该节点的预测,将 LIME 推广到图结构数据。",
term_es = "GraphLIME",
term_zh = "GraphLIME",
aliases_es = { "Graph LIME" },
aliases_zh = { "图 LIME", "Graph LIME" },
}
data["graphmask"] = {
short = "A post-hoc explainability method for graph neural networks that learns binary masks indicating which messages between nodes at each layer are necessary for the model's prediction, while preserving model behavior on a held-out distribution.",
article = nil,
aliases = { "GraphMask", "Graph Mask" },
es = "Método de explicabilidad post-hoc para redes neuronales de grafos que aprende máscaras binarias indicando qué mensajes entre nodos en cada capa son necesarios para la predicción del modelo, preservando el comportamiento del modelo sobre una distribución reservada.",
zh = "一种针对图神经网络的事后可解释性方法,学习二值掩码以指示每层节点之间哪些消息对模型预测是必要的,同时在保留分布上保持模型行为不变。",
term_es = "GraphMask",
term_zh = "GraphMask",
aliases_es = { "Graph Mask" },
aliases_zh = { "图掩码", "Graph Mask" },
}
data["graphoid"] = {
short = "An axiomatic system characterizing properties of conditional independence relations through axioms such as symmetry, decomposition, weak union, contraction, and (for positive distributions) intersection.",
article = nil,
aliases = { "graphoid axioms", "semi-graphoid", "graphoid structure" },
es = "Sistema axiomático que caracteriza las propiedades de las relaciones de independencia condicional mediante axiomas como simetría, descomposición, unión débil, contracción y (para distribuciones positivas) intersección.",
zh = "一种公理系统,通过对称性、分解、弱并、收缩以及(对正分布而言的)交等公理刻画条件独立关系的性质。",
term_es = "graphoide",
term_zh = "图样公理体系",
aliases_es = { "axiomas de graphoide", "semigraphoide", "estructura de graphoide" },
aliases_zh = { "图样公理体系", "graphoid", "半图样体系", "图样结构" },
}
data["graphoid axiom"] = {
short = "One of a set of axioms (symmetry, decomposition, weak union, contraction, intersection) characterizing the formal properties of conditional independence relations in probabilistic graphical models.",
article = nil,
aliases = { "graphoid axioms", "graphoid", "semi-graphoid axioms" },
es = "Conjunto de axiomas (simetría, descomposición, unión débil, contracción, intersección) que caracterizan las propiedades formales de las relaciones de independencia condicional en modelos gráficos probabilísticos.",
zh = "刻画概率图模型中条件独立关系形式性质的一组公理(对称性、分解、弱并、收缩、交集)。",
term_es = "axioma de grafoide",
term_zh = "图样公理",
aliases_es = { "axiomas de grafoide", "grafoide", "axiomas de semigrafoide" },
aliases_zh = { "图样公理", "半图样公理", "graphoid 公理" },
}
data["graphormer for molecules"] = {
short = "An adaptation of the Graphormer transformer architecture to molecular graphs, using centrality, spatial, and edge-bias encodings so attention captures graph structure for property prediction tasks.",
article = nil,
aliases = { "Graphormer", "Molecular Graphormer" },
es = "Adaptación de la arquitectura transformer Graphormer a grafos moleculares, utilizando codificaciones de centralidad, espaciales y de sesgo de aristas para que la atención capture la estructura del grafo en tareas de predicción de propiedades.",
zh = "将 Graphormer 变换器架构应用于分子图,通过中心性、空间和边偏置编码使注意力机制能够捕捉图结构,用于分子性质预测任务。",
term_es = "Graphormer",
term_zh = "Graphormer",
aliases_es = { "Graphormer molecular" },
aliases_zh = { "分子 Graphormer" },
}
data["graphsage"] = {
short = "An inductive graph neural network framework that learns node embeddings by sampling and aggregating features from a fixed-size neighborhood, enabling generalization to previously unseen nodes and graphs.",
article = nil,
aliases = { "GraphSAGE", "SAGE", "Graph SAmple and aggreGatE" },
es = "Marco inductivo de redes neuronales de grafos que aprende incrustaciones de nodos muestreando y agregando características de un vecindario de tamaño fijo, permitiendo generalizar a nodos y grafos no vistos previamente.",
zh = "一种归纳式图神经网络框架,通过对固定大小邻域的特征进行采样与聚合来学习节点嵌入,可推广到此前未见的节点与图。",
term_es = "GraphSAGE",
term_zh = "GraphSAGE",
aliases_es = { "graphsage" },
aliases_zh = { "graphsage" },
}
data["greedy decoding"] = {
short = "A decoding strategy that selects the highest-probability token at each step. Deterministic and fast, but prone to repetition and locally optimal but globally suboptimal sequences.",
article = nil,
aliases = { "Greedy Decoding", "greedy search", "greedy decoding strategy", "argmax decoding" },
es = "Estrategia de decodificación que selecciona en cada paso el token de mayor probabilidad. Es determinista y rápida, pero tiende a producir repeticiones y secuencias localmente óptimas pero globalmente subóptimas.",
zh = "一种解码策略,在每一步选择概率最高的 token。它确定性强、速度快,但容易出现重复,并产生局部最优但整体次优的序列。",
term_es = "decodificación voraz",
term_zh = "贪婪解码",
aliases_es = { "greedy decoding", "decodificación greedy", "búsqueda voraz", "decodificación argmax" },
aliases_zh = { "greedy decoding", "贪心解码", "贪婪搜索", "argmax 解码" },
}
data["greedy decoding for asr"] = {
short = "A simple decoding strategy in automatic speech recognition that selects the highest-probability token at each output step without considering future context or lexical constraints.",
article = nil,
aliases = { "greedy decoding", "greedy search ASR", "argmax decoding", "best-path decoding" },
es = "Estrategia de decodificación sencilla en reconocimiento automático de voz que selecciona el token de mayor probabilidad en cada paso de salida sin considerar el contexto futuro ni restricciones léxicas.",
zh = "自动语音识别中的一种简单解码策略,在每个输出步骤选择概率最高的标记,不考虑未来上下文或词汇约束。",
term_es = "decodificación voraz para ASR",
term_zh = "ASR 贪心解码",
aliases_es = { "decodificación voraz", "búsqueda voraz", "decodificación argmax" },
aliases_zh = { "贪心解码", "贪婪解码", "argmax 解码", "最佳路径解码" },
}
data["greedy equivalence search"] = {
short = "A two-phase score-based causal discovery algorithm by Chickering that adds edges greedily to improve a model score, then removes edges, searching the space of Markov equivalence classes of DAGs.",
article = nil,
aliases = { "GES", "GES algorithm", "Chickering GES" },
es = "Algoritmo de descubrimiento causal basado en puntuación, en dos fases, propuesto por Chickering, que agrega aristas de forma codiciosa para mejorar la puntuación del modelo y luego las elimina, recorriendo el espacio de clases de equivalencia de Markov de DAG.",
zh = "Chickering 提出的两阶段、基于评分的因果发现算法,先贪心地添加边以提高模型评分,再删除边,在 DAG 的马尔可夫等价类空间中搜索。",
term_es = "búsqueda codiciosa por equivalencia",
term_zh = "贪心等价搜索",
aliases_es = { "GES", "algoritmo GES" },
aliases_zh = { "GES", "GES 算法" },
}
data["grid search"] = {
short = "A hyperparameter optimization strategy that exhaustively evaluates every combination of values from a discretized grid over the hyperparameter space.",
article = nil,
aliases = { "grid-search", "exhaustive grid search" },
es = "Estrategia de optimización de hiperparámetros que evalúa exhaustivamente todas las combinaciones de valores de una rejilla discreta sobre el espacio de hiperparámetros.",
zh = "一种超参数优化策略,对超参数空间上离散网格的每一种取值组合进行穷举评估。",
term_es = "búsqueda en rejilla",
term_zh = "网格搜索",
aliases_es = { "grid search", "búsqueda en cuadrícula", "búsqueda exhaustiva en rejilla" },
aliases_zh = { "grid search", "网格法搜索" },
}
data["griffin-lim algorithm"] = {
short = "An iterative phase reconstruction algorithm that estimates a time-domain signal from a magnitude short-time Fourier transform by alternating between STFT and inverse STFT projections.",
article = nil,
aliases = { "Griffin-Lim", "Griffin Lim algorithm", "GLA", "Griffin & Lim algorithm" },
es = "Algoritmo iterativo de reconstrucción de fase que estima una señal en el dominio del tiempo a partir de la magnitud de la transformada de Fourier de tiempo corto, alternando entre proyecciones STFT y STFT inversa.",
zh = "一种迭代相位重建算法,通过在 STFT 与逆 STFT 投影之间交替,从短时傅里叶变换的幅度估计时域信号。",
term_es = "algoritmo de Griffin-Lim",
term_zh = "Griffin-Lim 算法",
aliases_es = { "Griffin-Lim", "GLA" },
aliases_zh = { "Griffin-Lim", "GLA", "格里芬-林算法" },
}
data["grimage clock"] = {
short = "A DNA-methylation-based predictor of mortality risk that combines surrogate methylation estimates of plasma proteins and smoking pack-years with chronological age; an extension of epigenetic age clocks shown to outperform earlier clocks for predicting lifespan.",
article = nil,
aliases = { "GrimAge", "GrimAge clock", "DNAm GrimAge", "GrimAge2" },
es = "Predictor de riesgo de mortalidad basado en metilación del ADN que combina estimaciones subrogadas por metilación de proteínas plasmáticas y de paquetes-año de tabaquismo con la edad cronológica; una extensión de los relojes de edad epigenética que supera a relojes anteriores para predecir la longevidad.",
zh = "一种基于 DNA 甲基化的死亡风险预测器,将甲基化推断的血浆蛋白替代指标、吸烟包年与生理年龄结合起来;属于表观遗传年龄时钟的扩展,在预测寿命方面优于早期时钟。",
term_es = "reloj GrimAge",
term_zh = "GrimAge 时钟",
aliases_es = { "GrimAge", "reloj epigenético GrimAge", "DNAm GrimAge", "GrimAge2" },
aliases_zh = { "GrimAge", "GrimAge 表观遗传时钟", "DNAm GrimAge", "GrimAge2" },
}
data["grit dataset"] = {
short = "A grounded image-text dataset (Peng et al., 2023) released with the Kosmos-2 model that pairs image–text captions with bounding-box annotations for noun phrases, enabling training of MLLMs with localization capabilities.",
article = nil,
aliases = { "GRIT", "GRIT dataset", "Grounded Image-Text dataset" },
es = "Conjunto de datos de imagen-texto anclado (Peng et al., 2023) publicado junto con el modelo Kosmos-2, que empareja descripciones de imágenes con anotaciones de cuadros delimitadores para sintagmas nominales, permitiendo entrenar MLLM con capacidades de localización.",
zh = "由 Peng 等人于 2023 年随 Kosmos-2 模型发布的接地图像-文本数据集,将图文对的名词短语与边界框标注关联,用于训练具备定位能力的多模态大模型。",
term_es = "conjunto de datos GRIT",
term_zh = "GRIT 数据集",
aliases_es = { "GRIT", "dataset GRIT", "conjunto Grounded Image-Text" },
aliases_zh = { "GRIT", "Grounded Image-Text 数据集" },
}
data["grnboost2"] = {
short = "A scalable gene regulatory network inference algorithm that, like GENIE3, regresses each gene's expression on candidate regulators using gradient-boosted trees (XGBoost) with early stopping, designed for large single-cell datasets and used inside SCENIC.",
article = nil,
aliases = { "GRNBoost2", "GRNBoost", "grnboost" },
es = "Algoritmo escalable de inferencia de redes reguladoras génicas que, al igual que GENIE3, regresa la expresión de cada gen sobre reguladores candidatos usando árboles potenciados por gradiente (XGBoost) con parada temprana; diseñado para grandes conjuntos de datos unicelulares y empleado dentro de SCENIC.",
zh = "一种可扩展的基因调控网络推断算法,与 GENIE3 类似,对每个基因的表达使用带提前停止的梯度提升树(XGBoost)针对候选调控因子进行回归,专为大规模单细胞数据集设计,常作为 SCENIC 的组成部分。",
term_es = "GRNBoost2",
term_zh = "GRNBoost2",
aliases_es = { "GRNBoost", "GRNBoost2" },
aliases_zh = { "GRNBoost", "GRNBoost2" },
}
data["grok-2"] = {
short = "A large language model developed by xAI and released in 2024, integrated into the X platform with real-time web access and image-generation capabilities.",
article = nil,
aliases = { "Grok-2", "Grok 2", "Grok2" },
es = "Gran modelo de lenguaje desarrollado por xAI y lanzado en 2024, integrado en la plataforma X con acceso web en tiempo real y capacidades de generación de imágenes.",
zh = "由 xAI 开发并于 2024 年发布的大型语言模型,已集成到 X 平台,支持实时网页访问和图像生成。",
term_es = "Grok-2",
term_zh = "Grok-2",
aliases_es = { "Grok-2", "Grok 2" },
aliases_zh = { "Grok-2", "Grok 2" },
}
data["grok-3"] = {
short = "A large language model from xAI released in 2025, featuring a Think mode for extended chain-of-thought reasoning and a DeepSearch mode that combines retrieval with reasoning.",
article = nil,
aliases = { "Grok-3", "Grok 3", "Grok3" },
es = "Gran modelo de lenguaje de xAI lanzado en 2025, con un modo Think para razonamiento extendido por cadena de pensamiento y un modo DeepSearch que combina recuperación y razonamiento.",
zh = "xAI 于 2025 年发布的大型语言模型,提供用于延伸思维链推理的 Think 模式以及结合检索与推理的 DeepSearch 模式。",
term_es = "Grok-3",
term_zh = "Grok-3",
aliases_es = { "Grok-3", "Grok 3" },
aliases_zh = { "Grok-3", "Grok 3" },
}
data["grokking"] = {
short = "A learning phenomenon in which a neural network's training loss saturates long before its validation loss suddenly drops, indicating delayed generalization well after apparent overfitting.",
article = nil,
aliases = { "grokking phenomenon", "delayed generalization" },
es = "Fenómeno de aprendizaje en el que la pérdida de entrenamiento de una red neuronal se satura mucho antes de que su pérdida de validación caiga súbitamente, indicando una generalización retrasada tras un aparente sobreajuste.",
zh = "一种学习现象:神经网络的训练损失早已饱和,但验证损失在很久之后突然下降,表明在表面过拟合之后出现了延迟的泛化。",
term_es = "grokking",
term_zh = "grokking",
aliases_es = { "grokking" },
aliases_zh = { "grokking", "顿悟现象" },
}
data["grokking circuit"] = {
short = "A discrete sub-network or computational pattern inside a neural network that emerges during the grokking phase transition, mediating the model's switch from memorization to generalization on an algorithmic task.",
article = nil,
aliases = { "grokking circuits", "grok circuit" },
es = "Subred discreta o patrón computacional dentro de una red neuronal que emerge durante la transición de fase del grokking, mediando el cambio del modelo de memorización a generalización en una tarea algorítmica.",
zh = "在 grokking 相变过程中神经网络内部出现的离散子网络或计算模式,介导模型在算法任务上从记忆到泛化的转变。",
term_es = "circuito de grokking",
term_zh = "grokking 电路",
aliases_es = { "circuitos de grokking" },
aliases_zh = { "grokking 回路", "顿悟电路" },
}
data["groma"] = {
short = "A grounded multimodal large language model (Ma et al., 2024) that integrates a region tokenizer into the visual encoder so that the LLM can natively output bounding boxes and reference image regions during dialogue.",
article = nil,
aliases = { "Groma", "Groma MLLM" },
es = "Modelo multimodal grande con grounding (Ma et al., 2024) que integra un tokenizador de regiones en el codificador visual para que el LLM pueda emitir cuadros delimitadores de forma nativa y referirse a regiones de imagen durante el diálogo.",
zh = "由 Ma 等人于 2024 年提出的接地式多模态大语言模型,在视觉编码器中集成区域分词器,使大模型可在对话中原生输出边界框并引用图像区域。",
term_es = "Groma",
term_zh = "Groma",
aliases_es = { "MLLM Groma" },
aliases_zh = { "Groma 多模态大模型" },
}
data["gromacs"] = {
short = "An open-source, high-performance molecular dynamics package widely used for simulating biomolecules such as proteins, lipids, and nucleic acids, with strong CPU and GPU parallelization.",
article = nil,
aliases = { "GROMACS", "GROningen MAchine for Chemical Simulations" },
es = "Paquete de dinámica molecular de código abierto y alto rendimiento, ampliamente usado para simular biomoléculas como proteínas, lípidos y ácidos nucleicos, con fuerte paralelización en CPU y GPU.",
zh = "一款开源高性能分子动力学软件包,广泛用于模拟蛋白质、脂质与核酸等生物分子,具有出色的 CPU 与 GPU 并行性能。",
term_es = "GROMACS",
term_zh = "GROMACS",
aliases_es = { "gromacs" },
aliases_zh = { "gromacs" },
}
data["ground bayesian network"] = {
short = "The propositional Bayesian network obtained by instantiating all logical variables of a relational or first-order probabilistic model with concrete entities, producing a fully grounded directed graphical model.",
article = nil,
aliases = { "grounded bayesian network", "ground BN", "propositionalized bayesian network" },
es = "Red bayesiana proposicional obtenida al instanciar todas las variables lógicas de un modelo probabilístico relacional o de primer orden con entidades concretas, produciendo un modelo gráfico dirigido completamente fundamentado.",
zh = "通过将关系型或一阶概率模型中的所有逻辑变量用具体实体实例化而得到的命题贝叶斯网络,是完全基化的有向图模型。",
term_es = "red bayesiana fundamentada",
term_zh = "基化贝叶斯网络",
aliases_es = { "red bayesiana proposicionalizada", "BN fundamentada" },
aliases_zh = { "实例化贝叶斯网络", "命题贝叶斯网络", "ground BN" },
}
data["ground inference"] = {
short = "Inference performed over ground (variable-free) formulas obtained by instantiating universally quantified rules with constants from the domain, common in propositional reasoning, datalog evaluation, and grounded probabilistic logic programming.",
article = nil,
aliases = { "grounded inference", "propositional grounding", "ground reasoning", "ground-level inference" },
es = "Inferencia realizada sobre fórmulas básicas (sin variables) obtenidas al instanciar reglas universalmente cuantificadas con constantes del dominio; es habitual en razonamiento proposicional, evaluación de datalog y programación lógica probabilística aterrizada.",
zh = "对通过用领域常量实例化全称量化规则而得到的基(无变量)公式所进行的推理,在命题推理、Datalog 求值和基化概率逻辑程序设计中常见。",
term_es = "inferencia básica",
term_zh = "基化推理",
aliases_es = { "razonamiento básico", "inferencia aterrizada", "inferencia sin variables" },
aliases_zh = { "基础推理", "命题化推理", "无变量推理" },
}
data["ground-anything"] = {
short = "A class of open-vocabulary visual grounding systems — exemplified by Grounding DINO and Grounded SAM — that localize arbitrary text-described objects or regions without a closed label set, often by combining detection backbones with vision-language pretraining.",
article = nil,
aliases = { "Ground Anything", "ground anything", "open-vocabulary grounding" },
es = "Clase de sistemas de grounding visual de vocabulario abierto — ejemplificados por Grounding DINO y Grounded SAM — que localizan objetos o regiones descritos por texto arbitrario sin un conjunto cerrado de etiquetas, normalmente combinando backbones de detección con preentrenamiento visión-lenguaje.",
zh = "一类开放词汇的视觉接地系统(以 Grounding DINO 和 Grounded SAM 为代表),无需封闭标签集即可定位任意文本描述的对象或区域,通常将检测骨干与视觉-语言预训练结合。",
term_es = "ground-anything",
term_zh = "Ground-Anything",
aliases_es = { "Ground Anything", "grounding de vocabulario abierto" },
aliases_zh = { "Ground Anything", "开放词汇接地" },
}
data["grounding"] = {
short = "Tying a model's outputs to verifiable external evidence — retrieved documents, structured data, sensor inputs, or real-world references — so that claims can be traced and checked rather than freely generated.",
article = nil,
aliases = { "Grounding", "model grounding", "grounded generation", "factual grounding" },
es = "Anclaje de las salidas de un modelo a evidencia externa verificable —documentos recuperados, datos estructurados, entradas de sensores o referencias del mundo real— de modo que las afirmaciones puedan rastrearse y verificarse en lugar de generarse libremente.",
zh = "将模型输出与可验证的外部证据(检索到的文档、结构化数据、传感器输入或现实世界引用)绑定,使其结论可以被追溯和核实,而不是凭空生成。",
term_es = "grounding",
term_zh = "事实接地",
aliases_es = { "anclaje", "anclaje factual", "grounding" },
aliases_zh = { "grounding", "模型接地", "事实落地", "知识接地" },
}
data["grounding dino"] = {
short = "An open-set object detector (Liu et al., 2023) that combines the DINO transformer detection architecture with text-aware feature fusion, allowing detection of arbitrary categories specified by free-form language at inference time.",
article = nil,
aliases = { "Grounding DINO", "GroundingDINO", "G-DINO" },
es = "Detector de objetos de conjunto abierto (Liu et al., 2023) que combina la arquitectura de detección transformer DINO con fusión de características consciente del texto, permitiendo detectar categorías arbitrarias especificadas en lenguaje libre en tiempo de inferencia.",
zh = "由 Liu 等人于 2023 年提出的开放集合目标检测器,将 DINO Transformer 检测架构与文本感知特征融合结合,可在推理时检测由自由文本指定的任意类别。",
term_es = "Grounding DINO",
term_zh = "Grounding DINO",
aliases_es = { "GroundingDINO", "G-DINO" },
aliases_zh = { "GroundingDINO", "G-DINO" },
}
data["group attribution"] = {
short = "Assigning model outputs, errors, or contributions to demographic or other subgroups in order to audit disparate performance or impact across those groups.",
article = nil,
aliases = { "subgroup attribution", "demographic attribution" },
es = "Asignación de las salidas, errores o contribuciones de un modelo a subgrupos demográficos u otros con el fin de auditar diferencias de desempeño o impacto entre ellos.",
zh = "将模型的输出、错误或贡献归因到不同人口或其他子群体,以审计各子群体之间的性能或影响差异。",
term_es = "atribución por grupo",
term_zh = "群体归因",
aliases_es = { "atribución por subgrupo", "atribución demográfica" },
aliases_zh = { "子群体归因", "分组归因" },
}
data["group attribution disparity"] = {
short = "A fairness diagnostic that measures the difference in feature attribution distributions across demographic or protected groups, used to detect whether a model relies on different signals when predicting for different subpopulations.",
article = nil,
aliases = { "attribution disparity", "group disparity in attributions" },
es = "Diagnóstico de equidad que mide la diferencia en las distribuciones de atribución de características entre grupos demográficos o protegidos, usado para detectar si un modelo se apoya en señales distintas al predecir sobre subpoblaciones diferentes.",
zh = "一种公平性诊断指标,衡量不同人口或受保护群体之间特征归因分布的差异,用于检测模型在预测不同子群体时是否依赖不同的信号。",
term_es = "disparidad de atribución entre grupos",
term_zh = "群体归因差异",
aliases_es = { "disparidad de atribución", "disparidad de atribuciones por grupo" },
aliases_zh = { "归因差异", "组间归因差异" },
}
data["group dro"] = {
short = "Group distributionally robust optimization: a training objective that minimizes the worst-case loss over a set of predefined groups, improving robustness to subpopulation shift and reducing performance disparities.",
article = nil,
aliases = { "Group DRO", "GroupDRO", "group distributionally robust optimization", "distributionally robust optimization over groups" },
es = "Optimización distribucionalmente robusta por grupos: objetivo de entrenamiento que minimiza la pérdida en el peor de un conjunto de grupos predefinidos, mejorando la robustez ante cambios de subpoblación y reduciendo disparidades de desempeño.",
zh = "Group DRO(按组的分布鲁棒优化):在预定义的若干群体上最小化最差情形损失的训练目标,可提升对子群体分布偏移的鲁棒性并缩小群体间的性能差距。",
term_es = "Group DRO",
term_zh = "Group DRO",
aliases_es = { "DRO por grupos", "optimización distribucionalmente robusta por grupos" },
aliases_zh = { "群体分布鲁棒优化", "按组分布鲁棒优化", "GroupDRO" },
}
data["group exposure"] = {
short = "In ranking and recommendation, the share of attention, impressions, or top-k slots received by items associated with a particular group; used to measure and constrain fairness of exposure.",
article = nil,
aliases = { "exposure by group", "demographic exposure", "group-level exposure" },
es = "En ranking y recomendación, la proporción de atención, impresiones o posiciones top-k que reciben los ítems asociados con un grupo determinado; se utiliza para medir y restringir la equidad de exposición.",
zh = "在排序和推荐中,与某一群体相关的项目所获得的注意力、曝光或前 k 位的份额;用于衡量并约束曝光公平性。",
term_es = "exposición por grupo",
term_zh = "群体曝光",
aliases_es = { "exposición demográfica", "exposición a nivel de grupo" },
aliases_zh = { "分组曝光", "群体级曝光" },
}
data["group fairness"] = {
short = "A family of fairness criteria requiring that statistical properties of model predictions (such as positive rate, error rates, or calibration) be approximately equal across predefined demographic groups.",
article = nil,
aliases = { "statistical fairness", "demographic fairness", "group-level fairness" },
es = "Familia de criterios de equidad que exige que ciertas propiedades estadísticas de las predicciones del modelo (tasa de positivos, tasas de error, calibración) sean aproximadamente iguales entre grupos demográficos predefinidos.",
zh = "一类公平性准则,要求模型预测的某些统计属性(如正例率、错误率或校准度)在预先定义的人口群体之间近似相等。",
term_es = "equidad de grupo",
term_zh = "群体公平性",
aliases_es = { "equidad estadística", "equidad demográfica", "equidad a nivel de grupo" },
aliases_zh = { "统计公平性", "人口群体公平性", "分组公平性" },
}
data["group normalization"] = {
short = "Normalization that splits channels into groups and normalizes each group per example. Independent of batch size, making it well-suited to small-batch training and detection/segmentation.",
article = nil,
aliases = { "GroupNorm", "group norm", "GN" },
es = "Normalización que divide los canales en grupos y normaliza cada grupo por ejemplo. Es independiente del tamaño del batch, por lo que conviene a entrenamientos con batches pequeños y a detección y segmentación.",
zh = "将通道分成若干组,对每个样本的每组分别归一化的方法。与批大小无关,适合小批量训练以及检测、分割任务。",
term_es = "normalización por grupos",
term_zh = "组归一化",
aliases_es = { "GroupNorm", "group norm", "GN", "normalización de grupos" },
aliases_zh = { "GroupNorm", "GN", "组标准化", "群组归一化" },
}
data["group shap"] = {
short = "A variant of SHAP that computes Shapley values for predefined groups of features rather than for each feature individually, reducing variance and providing semantically meaningful attributions when features are correlated or naturally clustered.",
article = nil,
aliases = { "GroupSHAP", "Group SHAP", "grouped shap", "grouped Shapley values" },
es = "Variante de SHAP que calcula valores de Shapley para grupos predefinidos de características en lugar de para cada característica individualmente, reduciendo la varianza y proporcionando atribuciones semánticamente significativas cuando las características están correlacionadas o agrupadas naturalmente.",
zh = "SHAP 的一种变体,针对预定义的特征组而非单个特征计算 Shapley 值,可降低方差并在特征相关或天然成簇时提供语义上更有意义的归因。",
term_es = "Group SHAP",
term_zh = "Group SHAP",
aliases_es = { "SHAP por grupos", "GroupSHAP" },
aliases_zh = { "分组 SHAP", "组 SHAP" },
}
data["group-balanced training"] = {
short = "A training procedure that resamples or reweights examples so each predefined group contributes equally to the loss, intended to prevent majority groups from dominating the learned model.",
article = nil,
aliases = { "group balancing", "balanced group training", "group-balanced sampling" },
es = "Procedimiento de entrenamiento que remuestrea o repondera los ejemplos para que cada grupo predefinido contribuya por igual a la pérdida, evitando que los grupos mayoritarios dominen el modelo aprendido.",
zh = "一种训练方法,通过重采样或重加权使每个预定义群体对损失的贡献相等,避免多数群体主导所学模型。",
term_es = "entrenamiento balanceado por grupo",
term_zh = "群体平衡训练",
aliases_es = { "balanceo por grupo", "muestreo balanceado por grupo" },
aliases_zh = { "分组平衡训练", "群体平衡采样" },
}
data["group-cam"] = {
short = "A class activation mapping method that produces saliency maps by grouping feature map channels and computing per-group masked forward passes to determine each group's contribution, yielding cleaner visualizations than vanilla CAM-style methods.",
article = nil,
aliases = { "Group-CAM", "GroupCAM", "Group CAM" },
es = "Método de mapeo de activación de clase que produce mapas de saliencia agrupando los canales de los mapas de características y calculando pases directos enmascarados por grupo para determinar la contribución de cada grupo, generando visualizaciones más limpias que los métodos CAM básicos.",
zh = "一种类激活映射方法,通过将特征图通道分组并对每个组执行掩码前向传播来确定其贡献,从而生成比传统 CAM 方法更清晰的显著性图。",
term_es = "Group-CAM",
term_zh = "Group-CAM",
aliases_es = { "GroupCAM" },
aliases_zh = { "组 CAM", "GroupCAM" },
}
data["group-conditional accuracy"] = {
short = "Classification accuracy computed separately within each predefined group; differences across groups indicate disparate predictive performance.",
article = nil,
aliases = { "group conditional accuracy", "per-group accuracy", "conditional accuracy by group" },
es = "Exactitud de clasificación calculada por separado dentro de cada grupo predefinido; las diferencias entre grupos indican un desempeño predictivo dispar.",
zh = "在每个预定义群体内分别计算的分类准确率;群体间的差异反映了预测性能的不平等。",
term_es = "exactitud condicional por grupo",
term_zh = "分组条件准确率",
aliases_es = { "exactitud por grupo", "precisión por grupo" },
aliases_zh = { "群体条件准确率", "按组条件准确率", "各组准确率" },
}
data["group-specific thresholds"] = {
short = "A post-processing fairness technique that selects a different decision threshold for each protected group so that a chosen fairness criterion (e.g., equal true positive rate) is satisfied.",
article = nil,
aliases = { "per-group thresholds", "group-aware thresholds", "group-dependent thresholds" },
es = "Técnica de equidad por post-procesamiento que elige un umbral de decisión distinto para cada grupo protegido a fin de satisfacer un criterio de equidad elegido (por ejemplo, igualdad de tasa de verdaderos positivos).",
zh = "一种后处理公平性技术,为每个受保护群体选择不同的决策阈值,使选定的公平性准则(如真正例率相等)得到满足。",
term_es = "umbrales específicos por grupo",
term_zh = "分组阈值",
aliases_es = { "umbrales por grupo", "umbrales dependientes del grupo" },
aliases_zh = { "群体特定阈值", "按组阈值", "群体相关阈值" },
}
data["group-time average treatment effect"] = {
short = "In staggered difference-in-differences, the average treatment effect on units first treated in a given period, evaluated at a particular calendar time; the building block of Callaway-Sant'Anna estimators.",
article = nil,
aliases = { "group-time ATT", "ATT(g,t)", "Callaway-Sant'Anna ATT", "group time average treatment effect" },
es = "En diferencias en diferencias escalonadas, el efecto medio del tratamiento sobre las unidades tratadas por primera vez en un período dado, evaluado en un tiempo calendario particular; el bloque básico de los estimadores de Callaway-Sant'Anna.",
zh = "在交错差分中差分中,首次在某一时期接受处理的单位在某一日历时间点上的平均处理效应,是 Callaway-Sant'Anna 估计量的基本构件。",
term_es = "efecto medio del tratamiento por grupo y tiempo",
term_zh = "群组—时间平均处理效应",
aliases_es = { "ATT(g,t)", "ATT por grupo-tiempo" },
aliases_zh = { "ATT(g,t)", "Callaway-Sant'Anna ATT" },
}
data["grouped-query attention"] = {
short = "An attention variant that shares each key-value head across a group of query heads, reducing memory bandwidth and KV cache size while interpolating between multi-head and multi-query attention.",
article = nil,
aliases = { "GQA", "Grouped-Query Attention", "grouped query attention" },
es = "Variante de atención que comparte cada cabeza de clave-valor entre un grupo de cabezas de consulta, reduciendo el ancho de banda de memoria y el tamaño de la caché KV, e interpolando entre atención multi-cabeza y multi-consulta.",
zh = "一种注意力变体,将每个键值头共享给一组查询头,从而降低显存带宽和 KV 缓存大小,并在多头注意力与多查询注意力之间进行插值。",
term_es = "GQA",
term_zh = "分组查询注意力",
aliases_es = { "GQA", "grouped-query attention", "atención de consulta agrupada" },
aliases_zh = { "GQA", "grouped-query attention", "组查询注意力" },
}
data["groupwise auc"] = {
short = "AUC computed over pairs restricted to a single group, or reported separately per group; used to detect ranking quality disparities across protected subpopulations.",
article = nil,
aliases = { "group-wise AUC", "per-group AUC", "groupwise area under the ROC curve" },
es = "AUC calculada sobre pares restringidos a un mismo grupo, o reportada por separado para cada grupo; se utiliza para detectar disparidades en la calidad de ranking entre subpoblaciones protegidas.",
zh = "在限定于同一群体的样本对上计算或按群体分别报告的 AUC,用于检测受保护子群体之间排序质量的差异。",
term_es = "AUC por grupo",
term_zh = "分组 AUC",
aliases_es = { "AUC por grupo", "área bajo la curva por grupo" },
aliases_zh = { "按组 AUC", "群体 AUC", "groupwise AUC" },
}
data["grpo"] = {
short = "Group Relative Policy Optimization: a reinforcement-learning algorithm that replaces the value model in PPO with group-wise reward normalization, popularized by DeepSeekMath and DeepSeek-R1.",
article = nil,
aliases = { "GRPO", "Group Relative Policy Optimization" },
es = "Group Relative Policy Optimization: algoritmo de aprendizaje por refuerzo que reemplaza el modelo de valor de PPO por una normalización de recompensas a nivel de grupo, popularizado por DeepSeekMath y DeepSeek-R1.",
zh = "Group Relative Policy Optimization,一种强化学习算法,用分组相对的奖励归一化替换 PPO 中的价值模型,由 DeepSeekMath 和 DeepSeek-R1 推广使用。",
term_es = "GRPO",
term_zh = "GRPO",
aliases_es = { "GRPO" },
aliases_zh = { "GRPO", "组相对策略优化" },
}
data["gsm-symbolic"] = {
short = "A benchmark introduced by Apple researchers that perturbs GSM8K grade-school math problems by varying numbers, names, and irrelevant clauses, used to test whether language model arithmetic reasoning generalizes beyond surface patterns.",
article = nil,
aliases = { "GSM-Symbolic", "GSM Symbolic", "GSM8K-Symbolic", "GSM-Symbolic benchmark" },
es = "Un benchmark presentado por investigadores de Apple que perturba los problemas de matemáticas escolares de GSM8K variando números, nombres y cláusulas irrelevantes, utilizado para comprobar si el razonamiento aritmético de los modelos de lenguaje generaliza más allá de patrones superficiales.",
zh = "由苹果研究人员提出的一个基准,通过改变 GSM8K 小学数学题中的数字、姓名和无关从句进行扰动,用于检验语言模型的算术推理是否能在表面模式之外泛化。",
term_es = "GSM-Symbolic",
term_zh = "GSM-Symbolic",
aliases_es = { "GSM-Symbolic", "GSM Symbolic", "benchmark GSM-Symbolic" },
aliases_zh = { "GSM-Symbolic", "GSM Symbolic", "GSM8K-Symbolic" },
}
data["gsm8k"] = {
short = "A benchmark of 8,500 grade-school math word problems requiring multi-step arithmetic reasoning, widely used to evaluate the chain-of-thought reasoning ability of large language models.",
article = nil,
aliases = { "GSM8K", "GSM-8K", "Grade School Math 8K" },
es = "Benchmark de 8.500 problemas matemáticos de primaria que requieren razonamiento aritmético de varios pasos, ampliamente utilizado para evaluar la capacidad de razonamiento por cadena de pensamiento de modelos de lenguaje grandes.",
zh = "一项包含 8500 道小学数学应用题的基准,需要多步算术推理,广泛用于评估大型语言模型的思维链推理能力。",
term_es = "GSM8K",
term_zh = "GSM8K",
aliases_es = { "GSM8K" },
aliases_zh = { "GSM8K" },
}
data["gst tacotron"] = {
short = "A Tacotron-based text-to-speech architecture augmented with global style tokens, enabling unsupervised modeling and control of prosody and speaking style from a reference audio.",
article = nil,
aliases = { "GST-Tacotron", "GST Tacotron", "Tacotron with GSTs", "Tacotron-GST" },
es = "Arquitectura de síntesis de voz basada en Tacotron y aumentada con global style tokens, que permite modelar y controlar de forma no supervisada la prosodia y el estilo de habla a partir de un audio de referencia.",
zh = "基于 Tacotron 的语音合成架构,使用全局风格标记进行扩展,可从参考音频以无监督方式建模并控制韵律和说话风格。",
term_es = "GST-Tacotron",
term_zh = "GST-Tacotron",
aliases_es = { "GST Tacotron", "Tacotron con GST" },
aliases_zh = { "GST Tacotron", "带 GST 的 Tacotron" },
}
data["gtex project"] = {
short = "The Genotype-Tissue Expression project, a public resource of paired genotype and RNA-seq data across dozens of human tissues from hundreds of post-mortem donors, used to map expression and splicing quantitative trait loci (eQTLs and sQTLs).",
article = nil,
aliases = { "GTEx", "Genotype-Tissue Expression", "GTEx Project", "GTEx Consortium" },
es = "Proyecto Genotype-Tissue Expression: recurso público con datos pareados de genotipo y RNA-seq de decenas de tejidos humanos procedentes de cientos de donantes postmortem, usado para mapear loci de rasgos cuantitativos de expresión y de splicing (eQTLs y sQTLs).",
zh = "Genotype-Tissue Expression 项目,提供来自数百位逝世捐献者、覆盖数十种人体组织的基因型与 RNA-seq 配对公开数据资源,用于绘制表达数量性状位点(eQTL)和剪接数量性状位点(sQTL)。",
term_es = "proyecto GTEx",
term_zh = "GTEx 项目",
aliases_es = { "GTEx", "Genotype-Tissue Expression", "consorcio GTEx" },
aliases_zh = { "GTEx", "基因型-组织表达项目", "GTEx 联盟" },
}
data["gtf format"] = {
short = "Gene Transfer Format, a tab-delimited extension of GFF2 used to describe gene structures (transcripts, exons, CDS) with semicolon-separated key-value attributes; the de facto annotation format for transcript-aware tools like STAR, HISAT2, and Cufflinks.",
article = nil,
aliases = { "GTF", "Gene Transfer Format", ".gtf", "gtf" },
es = "Gene Transfer Format: extensión de GFF2 delimitada por tabuladores que describe estructuras génicas (transcritos, exones, CDS) con atributos clave-valor separados por punto y coma; es el formato de anotación de facto para herramientas conscientes de transcritos como STAR, HISAT2 y Cufflinks.",
zh = "Gene Transfer Format,GFF2 的制表符分隔扩展,用于描述基因结构(转录本、外显子、CDS),其属性字段以分号分隔的 key value 形式表示;是 STAR、HISAT2、Cufflinks 等转录本感知工具的事实标准注释格式。",
term_es = "formato GTF",
term_zh = "GTF 格式",
aliases_es = { "GTF", "Gene Transfer Format", ".gtf" },
aliases_zh = { "GTF", "基因转移格式", ".gtf 文件" },
}
data["guacamol benchmark"] = {
short = "A standardized benchmark suite for evaluating de novo molecular generation models, comprising distribution-learning metrics and goal-directed optimization tasks over drug-like chemical space.",
article = nil,
aliases = { "GuacaMol", "GuacaMol benchmark" },
es = "Conjunto estandarizado de benchmarks para evaluar modelos de generación molecular de novo, que incluye métricas de aprendizaje de distribuciones y tareas de optimización dirigida en el espacio químico de fármacos.",
zh = "用于评估从头分子生成模型的标准基准套件,包含分布学习指标和面向类药化学空间的目标导向优化任务。",
term_es = "GuacaMol",
term_zh = "GuacaMol",
aliases_es = { "benchmark GuacaMol" },
aliases_zh = { "GuacaMol 基准" },
}
data["gui agent"] = {
short = "An autonomous agent that interacts with software through its graphical user interface—reading the screen and issuing mouse and keyboard actions—rather than calling APIs.",
article = nil,
aliases = { "GUI agent", "graphical user interface agent", "screen agent", "computer-use agent" },
es = "Agente autónomo que interactúa con el software a través de su interfaz gráfica de usuario, leyendo la pantalla y emitiendo acciones de ratón y teclado, en lugar de llamar a APIs.",
zh = "一种自主智能体,通过图形用户界面与软件交互——读取屏幕并发出鼠标和键盘操作,而不是调用 API。",
term_es = "agente de GUI",
term_zh = "GUI 智能体",
aliases_es = { "agente GUI", "agente de interfaz gráfica" },
aliases_zh = { "GUI agent", "图形界面智能体", "界面操作智能体" },
}
data["gui agent multimodal"] = {
short = "A multimodal agent that perceives a graphical user interface through screenshots and accessibility trees and acts via mouse, keyboard, or API calls, typically built on a vision-language model fine-tuned for UI element grounding and action planning.",
article = nil,
aliases = { "multimodal GUI agent", "visual GUI agent", "screen agent", "MLLM GUI agent" },
es = "Agente multimodal que percibe una interfaz gráfica de usuario mediante capturas de pantalla y árboles de accesibilidad y actúa con ratón, teclado o llamadas a API, típicamente construido sobre un modelo visión-lenguaje afinado para grounding de elementos de UI y planificación de acciones.",
zh = "一种多模态智能体,通过屏幕截图和可访问性树感知图形用户界面,并通过鼠标、键盘或 API 调用执行操作,通常基于针对 UI 元素接地和动作规划微调的视觉-语言模型构建。",
term_es = "agente GUI multimodal",
term_zh = "多模态 GUI 智能体",
aliases_es = { "agente GUI visual", "agente de pantalla", "GUI agent multimodal" },
aliases_zh = { "视觉 GUI 智能体", "屏幕智能体", "MLLM GUI 智能体" },
}
data["guided attention loss"] = {
short = "An auxiliary loss in attention-based sequence-to-sequence text-to-speech that penalizes off-diagonal attention weights, encouraging the near-monotonic alignment expected between text and speech.",
article = nil,
aliases = { "guided attention", "diagonal attention loss", "DCTTS guided attention loss" },
es = "Pérdida auxiliar en síntesis de voz secuencia a secuencia con atención que penaliza los pesos de atención fuera de la diagonal, fomentando la alineación casi monotónica esperada entre texto y habla.",
zh = "基于注意力的序列到序列语音合成中的辅助损失,对偏离对角线的注意力权重进行惩罚,鼓励文本与语音之间预期的近似单调对齐。",
term_es = "pérdida de atención guiada",
term_zh = "引导注意力损失",
aliases_es = { "atención guiada", "pérdida de atención diagonal" },
aliases_zh = { "引导注意力", "对角注意力损失" },
}
data["guided backpropagation"] = {
short = "A visualization method for convolutional networks that modifies standard backpropagation by zeroing out negative gradients at ReLU units, producing sharper and more class-discriminative saliency maps over the input.",
article = nil,
aliases = { "Guided Backprop", "GuidedBackprop", "guided BP" },
es = "Método de visualización para redes convolucionales que modifica la retropropagación estándar anulando los gradientes negativos en las unidades ReLU, produciendo mapas de saliencia más nítidos y discriminativos respecto a la clase sobre la entrada.",
zh = "一种用于卷积网络的可视化方法,通过在 ReLU 单元处将负梯度置零来修改标准反向传播,生成更清晰、更具类别区分性的输入显著性图。",
term_es = "retropropagación guiada",
term_zh = "引导反向传播",
aliases_es = { "Guided Backprop", "backprop guiada" },
aliases_zh = { "Guided Backprop", "导向反向传播", "引导反传" },
}
data["guided decoding"] = {
short = "A class of decoding techniques for language models that constrains generation to follow a grammar, schema, or regular expression, ensuring outputs such as JSON or code are syntactically valid.",
article = nil,
aliases = { "constrained decoding", "structured decoding", "grammar-constrained decoding" },
es = "Conjunto de técnicas de decodificación para modelos de lenguaje que restringen la generación para seguir una gramática, esquema o expresión regular, garantizando que las salidas como JSON o código sean sintácticamente válidas.",
zh = "一类用于语言模型的解码技术,将生成约束为遵循特定语法、模式或正则表达式,从而确保 JSON、代码等输出在语法上有效。",
term_es = "decodificación guiada",
term_zh = "引导式解码",
aliases_es = { "decodificación restringida", "decodificación estructurada" },
aliases_zh = { "受约束解码", "结构化解码", "语法约束解码" },
}
data["guided gradcam"] = {
short = "A saliency method that combines Guided Backpropagation and Grad-CAM by element-wise multiplying their outputs, producing high-resolution, class-discriminative pixel-level explanations for convolutional networks.",
article = nil,
aliases = { "Guided Grad-CAM", "GuidedGradCAM", "Guided GradCAM" },
es = "Método de saliencia que combina Guided Backpropagation y Grad-CAM multiplicando sus salidas elemento a elemento, produciendo explicaciones a nivel de píxel de alta resolución y discriminativas respecto a la clase para redes convolucionales.",
zh = "一种显著性方法,将 Guided Backpropagation 与 Grad-CAM 的输出逐元素相乘,为卷积网络生成高分辨率、具类别区分性的像素级解释。",
term_es = "Guided Grad-CAM",
term_zh = "Guided Grad-CAM",
aliases_es = { "Grad-CAM guiado", "GuidedGradCAM" },
aliases_zh = { "引导 Grad-CAM", "导向 Grad-CAM" },
}
data["guided integrated gradients"] = {
short = "An attribution method that improves Integrated Gradients by adaptively choosing the integration path based on guided gradient signals, reducing noise from gradient saturation and producing visually cleaner explanations.",
article = nil,
aliases = { "Guided IG", "GuidedIG", "Guided Integrated Gradients" },
es = "Método de atribución que mejora Integrated Gradients eligiendo de forma adaptativa la trayectoria de integración basada en señales de gradiente guiado, reduciendo el ruido por saturación de gradiente y produciendo explicaciones visualmente más limpias.",
zh = "一种归因方法,通过根据引导梯度信号自适应地选择积分路径来改进 Integrated Gradients,减轻梯度饱和带来的噪声,生成视觉上更清晰的解释。",
term_es = "Integrated Gradients guiado",
term_zh = "引导积分梯度",
aliases_es = { "Guided IG", "gradientes integrados guiados" },
aliases_zh = { "Guided IG", "导向积分梯度" },
}
data["gumbel concrete distribution"] = {
short = "A continuous relaxation of the categorical distribution constructed by adding Gumbel noise to logits and applying a temperature-controlled softmax. Enables low-variance reparameterization gradients through discrete latent variables.",
article = nil,
aliases = { "Concrete distribution", "Gumbel-Softmax", "Gumbel softmax", "Gumbel-Softmax distribution", "concrete relaxation", "Gumbel-Concrete" },
es = "Relajación continua de la distribución categórica que añade ruido de Gumbel a los logits y aplica un softmax controlado por temperatura. Permite gradientes de reparametrización de baja varianza a través de variables latentes discretas.",
zh = "对类别分布的连续松弛:向logits加入Gumbel噪声并应用受温度控制的softmax,从而通过离散潜变量获得低方差的重参数化梯度。",
term_es = "distribución Gumbel-Concrete",
term_zh = "Gumbel-Concrete分布",
aliases_es = { "distribución Concrete", "Gumbel-Softmax", "relajación Concrete" },
aliases_zh = { "Concrete分布", "Gumbel-Softmax", "Gumbel-Softmax分布", "Concrete松弛" },
}
data["gumbel softmax"] = {
short = "Continuous, differentiable relaxation of categorical sampling that adds Gumbel noise to logits and applies a temperature-scaled softmax. Enables backprop through discrete choices.",
article = nil,
aliases = { "Gumbel-Softmax", "Gumbel softmax", "concrete distribution", "Concrete distribution" },
es = "Relajación continua y diferenciable del muestreo categórico que añade ruido de Gumbel a los logits y aplica una softmax con temperatura. Permite retropropagar a través de decisiones discretas.",
zh = "类别采样的连续可微松弛:在 logits 上加 Gumbel 噪声后用带温度的 softmax 归一化。可让梯度反向传播穿过离散选择。",
term_es = "Gumbel-Softmax",
term_zh = "Gumbel-Softmax",
aliases_es = { "Gumbel-Softmax", "distribución Concrete" },
aliases_zh = { "Gumbel-Softmax", "Gumbel softmax", "Concrete 分布" },
}
data["gumbel-softmax architecture search"] = {
short = "Differentiable neural architecture search that samples discrete operation choices via the Gumbel-softmax relaxation, enabling backpropagation through the sampling step while still selecting one operation per edge per forward pass.",
article = nil,
aliases = { "Gumbel-Softmax NAS", "Gumbel softmax architecture search", "Gumbel-softmax differentiable NAS", "Gumbel-Softmax architecture search" },
es = "Búsqueda diferenciable de arquitecturas neuronales que muestrea elecciones discretas de operaciones mediante la relajación Gumbel-softmax, permitiendo retropropagar a través del paso de muestreo mientras se elige una sola operación por arista en cada paso hacia adelante.",
zh = "通过 Gumbel-softmax 松弛对离散操作选择进行采样的可微分神经架构搜索,使采样步骤可反向传播,同时每条边在每次前向传播中仍只选择一个操作。",
term_es = "búsqueda de arquitecturas con Gumbel-softmax",
term_zh = "Gumbel-softmax 架构搜索",
aliases_es = { "Gumbel-Softmax NAS", "NAS con Gumbel-softmax", "NAS diferenciable Gumbel-softmax" },
aliases_zh = { "Gumbel-Softmax NAS", "Gumbel-softmax 神经架构搜索", "基于 Gumbel-softmax 的可微分 NAS" },
}
data["gumbel-softmax trick"] = {
short = "A continuous relaxation of categorical sampling that adds Gumbel noise to logits and applies a temperature-controlled softmax, producing differentiable approximate one-hot samples that allow reparameterization-style gradients through discrete latents.",
article = nil,
aliases = { "Gumbel-Softmax", "Gumbel softmax", "concrete distribution", "Concrete relaxation", "categorical reparameterization" },
es = "Relajación continua del muestreo categórico que añade ruido de Gumbel a los logits y aplica un softmax con temperatura, produciendo muestras aproximadamente one-hot diferenciables que permiten gradientes tipo reparametrización a través de latentes discretas.",
zh = "对类别采样的连续松弛:在 logits 上加入 Gumbel 噪声并应用带温度的 softmax,产生可微的近似 one-hot 样本,使离散潜变量也能使用类似重参数化的梯度。",
term_es = "truco Gumbel-softmax",
term_zh = "Gumbel-softmax 技巧",
aliases_es = { "Gumbel-Softmax", "distribución Concrete", "relajación Concrete" },
aliases_zh = { "Gumbel-Softmax", "Concrete 分布", "类别重参数化" },
}
data["guppy basecaller"] = {
short = "Oxford Nanopore Technologies' GPU-accelerated neural-network basecaller that converts raw nanopore current signals into nucleotide sequences and quality scores; largely succeeded by the Dorado basecaller in newer pipelines.",
article = nil,
aliases = { "Guppy", "ONT Guppy", "guppy" },
es = "Basecaller de Oxford Nanopore Technologies, acelerado por GPU y basado en redes neuronales, que convierte señales crudas de corriente de los nanoporos en secuencias nucleotídicas y puntuaciones de calidad; en gran medida sustituido por el basecaller Dorado en los flujos más recientes.",
zh = "Oxford Nanopore Technologies 提供的、基于神经网络且支持 GPU 加速的碱基识别器,将纳米孔原始电流信号转换为核苷酸序列和质量分数;在较新流程中已大体被 Dorado 取代。",
term_es = "basecaller Guppy",
term_zh = "Guppy 碱基识别器",
aliases_es = { "Guppy", "Guppy de ONT", "ONT Guppy" },
aliases_zh = { "Guppy", "ONT Guppy", "Guppy basecaller" },
}
data["gwas catalog"] = {
short = "A curated, manually annotated public database hosted by EMBL-EBI and NHGRI of published genome-wide association study findings, providing standardized variant-trait associations, p-values, effect sizes, and study metadata.",
article = nil,
aliases = { "GWAS Catalog", "NHGRI-EBI GWAS Catalog", "EBI GWAS Catalog" },
es = "Base de datos pública curada y anotada manualmente, alojada por EMBL-EBI y NHGRI, que recopila hallazgos publicados de estudios de asociación de genoma completo y proporciona asociaciones variante-rasgo estandarizadas, valores p, tamaños de efecto y metadatos de cada estudio.",
zh = "由 EMBL-EBI 与 NHGRI 共同维护的公开数据库,对已发表的全基因组关联研究结果进行手动整理与注释,提供标准化的变异-性状关联、p 值、效应量和研究元数据。",
term_es = "GWAS Catalog",
term_zh = "GWAS Catalog",
aliases_es = { "GWAS Catalog", "Catálogo GWAS NHGRI-EBI", "Catálogo de GWAS" },
aliases_zh = { "GWAS Catalog", "NHGRI-EBI GWAS Catalog", "GWAS 目录" },
}
data["h2o automl"] = {
short = "An open-source AutoML system from H2O.ai that automatically trains and tunes a portfolio of models — including GBMs, random forests, deep nets and stacked ensembles — within a user-specified time and resource budget.",
article = nil,
aliases = { "H2O AutoML", "H2O.ai AutoML", "H2OAutoML" },
es = "Sistema de AutoML de código abierto de H2O.ai que entrena y ajusta automáticamente una cartera de modelos — incluidos GBM, bosques aleatorios, redes profundas y conjuntos apilados — dentro de un presupuesto de tiempo y recursos especificado por el usuario.",
zh = "H2O.ai 推出的开源 AutoML 系统,在用户指定的时间和资源预算内自动训练并调优 GBM、随机森林、深度网络以及堆叠集成等模型组合。",
term_es = "H2O AutoML",
term_zh = "H2O AutoML",
aliases_es = { "H2O AutoML", "H2O.ai AutoML" },
aliases_zh = { "H2O AutoML", "H2O.ai AutoML" },
}
data["h3k27ac"] = {
short = "Acetylation of lysine 27 on histone H3, a chromatin modification enriched at active promoters and enhancers and widely used as a marker of active regulatory elements in ChIP-seq and CUT&RUN assays.",
article = nil,
aliases = { "H3K27ac", "H3 K27ac", "histone H3 lysine 27 acetylation", "H3K27 acetylation" },
es = "Acetilación de la lisina 27 de la histona H3, modificación de la cromatina enriquecida en promotores y potenciadores activos, ampliamente utilizada como marcador de elementos reguladores activos en ensayos ChIP-seq y CUT&RUN.",
zh = "组蛋白 H3 第 27 位赖氨酸的乙酰化修饰,在活性启动子和增强子上富集,是 ChIP-seq 和 CUT&RUN 中常用的活性调控元件标志。",
term_es = "H3K27ac",
term_zh = "H3K27ac",
aliases_es = { "H3K27ac", "acetilación de H3K27", "acetilación de la lisina 27 de la histona H3" },
aliases_zh = { "H3K27ac", "组蛋白 H3 K27 乙酰化", "H3 第27位赖氨酸乙酰化" },
}
data["h3k27me3"] = {
short = "Trimethylation of lysine 27 on histone H3, a repressive chromatin modification deposited by Polycomb Repressive Complex 2 (PRC2) and characteristic of facultative heterochromatin and developmentally silenced genes.",
article = nil,
aliases = { "H3K27me3", "H3 K27me3", "histone H3 lysine 27 trimethylation", "H3K27 trimethylation" },
es = "Trimetilación de la lisina 27 de la histona H3, modificación cromatínica represora depositada por el complejo Polycomb Repressive Complex 2 (PRC2), característica de la heterocromatina facultativa y de genes silenciados durante el desarrollo.",
zh = "组蛋白 H3 第 27 位赖氨酸的三甲基化修饰,由 Polycomb 抑制复合物 2(PRC2)沉积,是兼性异染色质和发育过程中沉默基因的典型抑制性标记。",
term_es = "H3K27me3",
term_zh = "H3K27me3",
aliases_es = { "H3K27me3", "trimetilación de H3K27", "trimetilación de la lisina 27 de la histona H3" },
aliases_zh = { "H3K27me3", "组蛋白 H3 K27 三甲基化", "H3 第27位赖氨酸三甲基化" },
}
data["h3k4me3"] = {
short = "Trimethylation of lysine 4 on histone H3, a chromatin modification strongly enriched at active and poised gene promoters and commonly used as a marker of transcriptional initiation in ChIP-seq.",
article = nil,
aliases = { "H3K4me3", "H3 K4me3", "histone H3 lysine 4 trimethylation", "H3K4 trimethylation" },
es = "Trimetilación de la lisina 4 de la histona H3, modificación cromatínica fuertemente enriquecida en promotores génicos activos o preparados para la transcripción, usada habitualmente como marcador de inicio transcripcional en ChIP-seq.",
zh = "组蛋白 H3 第 4 位赖氨酸的三甲基化修饰,在活跃及待激活基因的启动子区域显著富集,是 ChIP-seq 中常用的转录起始标志。",
term_es = "H3K4me3",
term_zh = "H3K4me3",
aliases_es = { "H3K4me3", "trimetilación de H3K4", "trimetilación de la lisina 4 de la histona H3" },
aliases_zh = { "H3K4me3", "组蛋白 H3 K4 三甲基化", "H3 第4位赖氨酸三甲基化" },
}
data["h3k9me3"] = {
short = "Trimethylation of lysine 9 on histone H3, a repressive chromatin modification associated with constitutive heterochromatin, pericentromeric regions, and silencing of repetitive elements.",
article = nil,
aliases = { "H3K9me3", "H3 K9me3", "histone H3 lysine 9 trimethylation", "H3K9 trimethylation" },
es = "Trimetilación de la lisina 9 de la histona H3, modificación cromatínica represora asociada a la heterocromatina constitutiva, las regiones pericentroméricas y al silenciamiento de elementos repetitivos.",
zh = "组蛋白 H3 第 9 位赖氨酸的三甲基化修饰,与组成型异染色质、着丝粒周围区域以及重复序列的沉默密切相关,是抑制性染色质标志。",
term_es = "H3K9me3",
term_zh = "H3K9me3",
aliases_es = { "H3K9me3", "trimetilación de H3K9", "trimetilación de la lisina 9 de la histona H3" },
aliases_zh = { "H3K9me3", "组蛋白 H3 K9 三甲基化", "H3 第9位赖氨酸三甲基化" },
}
data["hadamard product"] = {
short = "The element-wise product of two matrices (or tensors) of identical shape, denoted A ⊙ B, where (A⊙B)_{ij} = A_{ij}·B_{ij}. Ubiquitous in deep learning for masks, gating, and elementwise nonlinearities.",
article = nil,
aliases = { "Hadamard product", "element-wise product", "elementwise product", "Schur product", "entrywise product", "⊙" },
es = "Producto elemento a elemento de dos matrices (o tensores) de la misma forma, denotado A ⊙ B, donde (A⊙B)_{ij} = A_{ij}·B_{ij}. Es omnipresente en aprendizaje profundo para máscaras, compuertas y no linealidades elementales.",
zh = "两个形状相同的矩阵(或张量)按元素相乘,记作 A ⊙ B,其中 (A⊙B)_{ij} = A_{ij}·B_{ij}。在深度学习中常用于掩码、门控和逐元素非线性运算。",
term_es = "producto de Hadamard",
term_zh = "哈达玛积",
aliases_es = { "producto elemento a elemento", "producto de Schur" },
aliases_zh = { "Hadamard 积", "逐元素乘积", "按元素乘积", "Schur 积" },
}
data["haddock"] = {
short = "An information-driven docking program that integrates experimental or predicted interface data (such as NMR or mutagenesis restraints) to model protein-protein, protein-peptide, and protein-nucleic acid complexes.",
article = nil,
aliases = { "HADDOCK", "High Ambiguity Driven protein-protein DOCKing" },
es = "Programa de docking guiado por información que integra datos experimentales o predichos sobre la interfaz (como restricciones de RMN o mutagénesis) para modelar complejos proteína-proteína, proteína-péptido y proteína-ácido nucleico.",
zh = "一种信息驱动的对接程序,将实验或预测得到的界面数据(如 NMR 或诱变约束)整合进来,用于建模蛋白质-蛋白质、蛋白质-多肽以及蛋白质-核酸复合物。",
term_es = "HADDOCK",
term_zh = "HADDOCK",
aliases_es = { "haddock" },
aliases_zh = { "haddock" },
}
data["hahn estimator"] = {
short = "A semiparametric efficient estimator of the average treatment effect proposed by Jinyong Hahn that achieves the semiparametric efficiency bound by using nonparametric estimates of the propensity score and outcome regressions.",
article = nil,
aliases = { "Hahn estimator", "Hahn 1998 estimator" },
es = "Estimador semiparamétrico eficiente del efecto medio del tratamiento propuesto por Jinyong Hahn que alcanza el límite de eficiencia semiparamétrica al utilizar estimaciones no paramétricas del puntaje de propensión y de las regresiones del resultado.",
zh = "Jinyong Hahn 提出的平均处理效应的半参数有效估计量,通过对倾向得分和结果回归的非参数估计达到半参数效率下界。",
term_es = "estimador de Hahn",
term_zh = "Hahn 估计量",
aliases_es = { "estimador semiparamétrico de Hahn" },
aliases_zh = { "Hahn 估计器", "Hahn 1998 估计量" },
}
data["hailfinder network"] = {
short = "A benchmark Bayesian network with 56 discrete variables developed for severe-weather forecasting in northeastern Colorado, widely used as a reference dataset for structure-learning and inference algorithms.",
article = nil,
aliases = { "hailfinder", "hailfinder bayesian network", "Hailfinder BN" },
es = "Red bayesiana de referencia con 56 variables discretas desarrollada para la predicción de tormentas severas en el noreste de Colorado, ampliamente usada como conjunto de datos de prueba para algoritmos de aprendizaje de estructura e inferencia.",
zh = "用于美国科罗拉多州东北部强对流天气预测的基准贝叶斯网络,包含 56 个离散变量,常用作结构学习和推断算法的参考数据集。",
term_es = "red Hailfinder",
term_zh = "Hailfinder 网络",
aliases_es = { "Hailfinder", "red bayesiana Hailfinder" },
aliases_zh = { "Hailfinder", "Hailfinder 贝叶斯网络" },
}
data["half-life prediction"] = {
short = "The pharmacokinetic task of predicting the time required for the plasma concentration of a drug to decrease by half, an important determinant of dosing frequency.",
article = nil,
aliases = { "half life prediction", "drug half-life prediction", "t1/2 prediction" },
es = "Tarea farmacocinética de predecir el tiempo necesario para que la concentración plasmática de un fármaco disminuya a la mitad, un determinante importante de la frecuencia de dosificación.",
zh = "药代动力学任务,预测药物血浆浓度下降一半所需的时间,是决定给药频率的重要参数。",
term_es = "predicción de la semivida",
term_zh = "半衰期预测",
aliases_es = { "predicción de vida media", "predicción de t1/2" },
aliases_zh = { "药物半衰期预测", "t1/2 预测" },
}
data["hallucination"] = {
short = "A failure mode in which a generative model produces content that is fluent and plausible-sounding but factually incorrect, fabricated, or unsupported by its inputs or training data.",
article = nil,
aliases = { "LLM hallucination", "model hallucination", "Hallucination", "hallucinations", "AI hallucination" },
es = "Modo de fallo en el que un modelo generativo produce contenido fluido y aparentemente plausible pero incorrecto, inventado o no respaldado por sus entradas o datos de entrenamiento.",
zh = "生成式模型的一种失败模式:输出内容流畅、看似合理,但在事实上错误、虚构,或缺乏输入和训练数据的支持。",
term_es = "alucinación",
term_zh = "幻觉",
aliases_es = { "alucinaciones", "alucinación del modelo", "hallucination" },
aliases_zh = { "模型幻觉", "AI 幻觉", "hallucination", "大模型幻觉" },
}
data["hallusionbench"] = {
short = "A diagnostic benchmark (Guan et al., 2023) that probes hallucinations in multimodal large language models through paired visual-question examples designed to expose language-prior bias and visual-context misinterpretation.",
article = nil,
aliases = { "HallusionBench", "Hallusion Bench" },
es = "Benchmark diagnóstico (Guan et al., 2023) que sondea alucinaciones en modelos multimodales grandes mediante ejemplos pareados de pregunta visual diseñados para exponer el sesgo de prior lingüístico y la mala interpretación del contexto visual.",
zh = "由 Guan 等人于 2023 年提出的诊断基准,通过精心设计的成对视觉问答示例,揭示多模态大模型在语言先验偏差和视觉上下文误解方面的幻觉问题。",
term_es = "HallusionBench",
term_zh = "HallusionBench",
aliases_es = { "Hallusion Bench" },
aliases_zh = { "Hallusion Bench", "幻觉基准 HallusionBench" },
}
data["hamiltonian monte carlo"] = {
short = "An MCMC method that proposes new states by simulating Hamiltonian dynamics on an augmented system with auxiliary momentum variables, then applying a Metropolis correction. By following gradients of the log target density, HMC suppresses random-walk behavior and scales well to high-dimensional continuous targets.",
article = nil,
aliases = { "HMC", "Hybrid Monte Carlo", "Hamiltonian MCMC", "HMC sampling" },
es = "Método MCMC que propone nuevos estados simulando una dinámica hamiltoniana sobre un sistema aumentado con variables auxiliares de momento, seguida de una corrección de Metropolis. Al seguir los gradientes del log de la densidad objetivo, HMC suprime el comportamiento de paseo aleatorio y escala bien a objetivos continuos en alta dimensión.",
zh = "一种 MCMC 方法,通过在引入辅助动量变量的扩展系统上模拟哈密顿动力学来提出新状态,并施加 Metropolis 修正。HMC 借助目标对数密度的梯度抑制随机游走行为,可良好地扩展到高维连续目标分布。",
term_es = "Hamiltonian Monte Carlo",
term_zh = "哈密顿蒙特卡洛",
aliases_es = { "HMC", "Monte Carlo híbrido", "MCMC hamiltoniano" },
aliases_zh = { "HMC", "混合蒙特卡洛", "哈密顿 MCMC", "Hamiltonian MCMC" },
}
data["hamming window"] = {
short = "A tapered windowing function used in spectral analysis that reduces spectral leakage when computing the short-time Fourier transform, defined as a raised cosine with coefficients 0.54 and 0.46.",
article = nil,
aliases = { "Hamming window", "Hamming windowing", "Hamming taper" },
es = "Función de ventana ahusada utilizada en análisis espectral que reduce la fuga espectral al calcular la transformada de Fourier de tiempo corto, definida como un coseno elevado con coeficientes 0,54 y 0,46.",
zh = "频谱分析中使用的一种渐缩窗函数,用于在计算短时傅里叶变换时减少频谱泄漏,定义为系数为 0.54 与 0.46 的升余弦。",
term_es = "ventana de Hamming",
term_zh = "汉明窗",
aliases_es = { "ventana Hamming", "función de ventana Hamming" },
aliases_zh = { "Hamming 窗", "汉明窗函数" },
}
data["hann window"] = {
short = "A raised-cosine windowing function commonly applied to audio frames before the short-time Fourier transform to limit spectral leakage; equivalent to a Hamming window with coefficients 0.5 and 0.5.",
article = nil,
aliases = { "Hann window", "Hanning window", "von Hann window", "Hann taper" },
es = "Función de ventana de coseno elevado que se aplica habitualmente a los marcos de audio antes de la transformada de Fourier de tiempo corto para limitar la fuga espectral; equivalente a una ventana de Hamming con coeficientes 0,5 y 0,5.",
zh = "一种升余弦窗函数,通常在短时傅里叶变换前应用于音频帧,以限制频谱泄漏;等价于系数为 0.5 与 0.5 的汉明窗。",
term_es = "ventana de Hann",
term_zh = "汉宁窗",
aliases_es = { "ventana Hann", "ventana de Hanning", "ventana Hanning" },
aliases_zh = { "Hann 窗", "Hanning 窗", "汉恩窗" },
}
data["haplotype phasing"] = {
short = "The computational task of resolving which alleles at heterozygous variant sites lie on the same parental chromosome, producing phased haplotypes from genotype data using statistical or read-based methods such as SHAPEIT, Eagle, or WhatsHap.",
article = nil,
aliases = { "phasing", "haplotype inference", "genotype phasing", "haplotype reconstruction" },
es = "Tarea computacional de determinar qué alelos de los sitios heterocigotos se encuentran en el mismo cromosoma parental, produciendo haplotipos fasados a partir de datos de genotipo mediante métodos estadísticos o basados en lecturas, como SHAPEIT, Eagle o WhatsHap.",
zh = "通过统计方法或基于读段的方法(如 SHAPEIT、Eagle、WhatsHap),从基因型数据推断在杂合位点上哪些等位基因来自同一条亲本染色体,从而得到分相单倍型的计算任务。",
term_es = "fasado de haplotipos",
term_zh = "单倍型分相",
aliases_es = { "fasado", "inferencia de haplotipos", "fasado de genotipos", "reconstrucción de haplotipos" },
aliases_zh = { "分相", "单倍型推断", "基因型分相", "单倍型重建" },
}
data["hard debias"] = {
short = "A word-embedding debiasing method that removes the projection of embeddings onto a learned bias subspace (e.g., gender direction) and equalizes pairs of gendered words around the orthogonal complement.",
article = nil,
aliases = { "Hard Debias", "hard-debias", "Bolukbasi hard debias" },
es = "Método de mitigación de sesgo en embeddings de palabras que elimina la proyección de los vectores sobre un subespacio de sesgo aprendido (por ejemplo, dirección de género) y ecualiza pares de palabras genéricas alrededor del complemento ortogonal.",
zh = "一种词向量去偏方法,去除词向量在所学偏置子空间(如性别方向)上的投影,并将成对的性别词在正交补空间中均衡化。",
term_es = "Hard Debias",
term_zh = "Hard Debias",
aliases_es = { "hard debias", "debias duro" },
aliases_zh = { "硬去偏", "Bolukbasi 去偏", "硬 debias" },
}
data["hard em"] = {
short = "A variant of the EM algorithm in which the E-step assigns each latent variable to its single most probable value (a hard assignment) instead of a soft posterior distribution, equivalent to classification or Viterbi EM.",
article = nil,
aliases = { "hard EM", "hard expectation-maximization", "classification EM", "Viterbi EM", "hard-assignment EM" },
es = "Variante del algoritmo EM en la que el paso E asigna a cada variable latente su valor más probable (asignación dura) en lugar de una distribución posterior suave; equivale al EM de clasificación o de Viterbi.",
zh = "EM 算法的一种变体,其 E 步将每个隐变量赋予其最可能的单一取值(硬指派),而不是软后验分布;等价于分类 EM 或 Viterbi EM。",
term_es = "EM duro",
term_zh = "硬 EM",
aliases_es = { "hard EM", "EM de clasificación", "EM de Viterbi" },
aliases_zh = { "hard EM", "硬指派 EM", "分类 EM", "Viterbi EM" },
}
data["hard example mining"] = {
short = "A training technique that focuses learning on examples the model currently classifies poorly (high loss or low margin), selecting them preferentially for backpropagation to improve performance on difficult cases.",
article = nil,
aliases = { "HEM", "hard negative mining", "hard sample mining", "hard-example mining" },
es = "Técnica de entrenamiento que centra el aprendizaje en los ejemplos que el modelo clasifica peor en ese momento (con pérdida elevada o margen bajo), seleccionándolos preferentemente para la retropropagación con el fin de mejorar el rendimiento en casos difíciles.",
zh = "一种训练技术,将学习重点放在模型当前分类较差(损失较高或间隔较低)的样本上,优先选取它们参与反向传播,以提升在困难样本上的性能。",
term_es = "minería de ejemplos difíciles",
term_zh = "困难样本挖掘",
aliases_es = { "minería de negativos difíciles", "selección de ejemplos difíciles", "hard example mining" },
aliases_zh = { "难例挖掘", "困难负样本挖掘", "hard example mining" },
}
data["hard negative mining multimodal"] = {
short = "A training technique for vision-language contrastive models that selects within-batch or retrieved samples that are visually or semantically similar but mismatched, forcing the model to learn fine-grained alignments rather than coarse cues.",
article = nil,
aliases = { "hard negative mining for multimodal", "multimodal hard negatives", "hard negatives in CLIP-style training" },
es = "Técnica de entrenamiento para modelos contrastivos visión-lenguaje que selecciona muestras dentro del lote o recuperadas que son visual o semánticamente similares pero no coinciden, forzando al modelo a aprender alineamientos finos en lugar de pistas gruesas.",
zh = "一种视觉-语言对比模型的训练技巧,在批内或检索样本中选取视觉或语义相似但不匹配的样本作为负例,迫使模型学习细粒度对齐而非粗略线索。",
term_es = "minería de negativos difíciles multimodal",
term_zh = "多模态难负样本挖掘",
aliases_es = { "hard negative mining multimodal", "negativos difíciles multimodales" },
aliases_zh = { "多模态硬负样本挖掘", "CLIP 风格训练中的难负样本" },
}
data["hardsigmoid"] = {
short = "Piecewise-linear approximation of the sigmoid, typically max(0, min(1, 0.2x + 0.5)). Cheaper to evaluate than the exponential-based sigmoid; common on mobile and edge models.",
article = nil,
aliases = { "HardSigmoid", "hard sigmoid", "hard-sigmoid" },
es = "Aproximación lineal a tramos de la sigmoide, típicamente max(0, min(1, 0,2x + 0,5)). Más barata de evaluar que la sigmoide exponencial; frecuente en modelos móviles y edge.",
zh = "Sigmoid 的分段线性近似,典型形式为 max(0, min(1, 0.2x + 0.5))。比基于指数的 Sigmoid 计算更快,常用于移动端和边缘设备模型。",
term_es = "HardSigmoid",
term_zh = "HardSigmoid",
aliases_es = { "HardSigmoid", "sigmoide dura" },
aliases_zh = { "HardSigmoid", "硬 Sigmoid" },
}
data["hardswish"] = {
short = "Efficient approximation of Swish defined as x · ReLU6(x + 3) / 6. Introduced in MobileNetV3 to retain Swish-like accuracy with lower compute and quantization-friendly behavior.",
article = nil,
aliases = { "HardSwish", "hard swish", "hard-swish", "h-swish" },
es = "Aproximación eficiente de Swish definida como x · ReLU6(x + 3) / 6. Introducida en MobileNetV3 para conservar la precisión de Swish con menor cómputo y mejor comportamiento al cuantizar.",
zh = "Swish 的高效近似,定义为 x · ReLU6(x + 3) / 6。由 MobileNetV3 引入,在保持 Swish 精度的同时降低计算量并更利于量化。",
term_es = "HardSwish",
term_zh = "HardSwish",
aliases_es = { "HardSwish", "h-swish" },
aliases_zh = { "HardSwish", "h-swish", "硬 Swish" },
}
data["hardtanh"] = {
short = "Piecewise-linear approximation of tanh that clips inputs to a fixed range, typically [−1, 1]. Cheap to compute and used when smoothness is not required.",
article = nil,
aliases = { "HardTanh", "hard tanh", "hard-tanh", "clipped tanh" },
es = "Aproximación lineal a tramos de tanh que recorta las entradas a un rango fijo, típicamente [−1, 1]. Barata de calcular y útil cuando no se requiere suavidad.",
zh = "tanh 的分段线性近似,将输入裁剪到固定区间(通常为 [−1, 1])。计算简单,适合不需要平滑性的场景。",
term_es = "HardTanh",
term_zh = "HardTanh",
aliases_es = { "HardTanh", "tanh dura" },
aliases_zh = { "HardTanh", "硬双曲正切" },
}
data["hardware proxy"] = {
short = "A cheaply computed estimate of a hardware metric — often a lookup-table latency, FLOPs count, or analytical cost model — used in place of on-device measurement to score candidate architectures during NAS.",
article = nil,
aliases = { "hardware proxies", "latency proxy", "hardware cost proxy", "hardware-cost proxy" },
es = "Estimación barata de calcular de una métrica de hardware — a menudo latencia por tabla de búsqueda, conteo de FLOPs o un modelo de coste analítico — utilizada en lugar de mediciones reales en el dispositivo para puntuar arquitecturas candidatas durante NAS.",
zh = "硬件指标的低成本估算(通常为查表延迟、FLOPs 计数或解析代价模型),在 NAS 中替代真实设备测量以评估候选架构。",
term_es = "proxy de hardware",
term_zh = "硬件代理指标",
aliases_es = { "proxy de hardware", "proxy de latencia", "estimación de coste de hardware" },
aliases_zh = { "硬件代理", "延迟代理", "硬件代价代理" },
}
data["hardware-aware nas"] = {
short = "Neural architecture search that explicitly accounts for deployment-target hardware metrics — typically latency, energy, or memory — by including them as constraints or objectives so the discovered architecture is efficient on the target device.",
article = nil,
aliases = { "HW-NAS", "hardware aware NAS", "hardware-aware neural architecture search", "hardware-aware NAS" },
es = "Búsqueda de arquitecturas neuronales que tiene en cuenta explícitamente métricas de hardware del destino de despliegue — típicamente latencia, energía o memoria — incluyéndolas como restricciones u objetivos para que la arquitectura descubierta sea eficiente en el dispositivo objetivo.",
zh = "在搜索过程中显式考虑目标部署硬件指标(通常是延迟、能耗或内存)的神经架构搜索,将其作为约束或目标,以确保所得架构在目标设备上高效运行。",
term_es = "NAS consciente del hardware",
term_zh = "硬件感知 NAS",
aliases_es = { "HW-NAS", "NAS consciente del hardware", "búsqueda de arquitecturas consciente del hardware" },
aliases_zh = { "HW-NAS", "硬件感知神经架构搜索", "硬件感知架构搜索" },
}
data["hardy-weinberg equilibrium"] = {
short = "A population-genetic principle stating that allele and genotype frequencies remain constant across generations in the absence of selection, mutation, migration, drift, and non-random mating; deviations are routinely tested as a quality-control filter for genotyping data.",
article = nil,
aliases = { "HWE", "Hardy-Weinberg equilibrium", "Hardy Weinberg equilibrium", "Hardy-Weinberg principle", "Hardy-Weinberg law" },
es = "Principio de genética de poblaciones que establece que las frecuencias alélicas y genotípicas permanecen constantes a lo largo de las generaciones en ausencia de selección, mutación, migración, deriva y apareamiento no aleatorio; las desviaciones se prueban habitualmente como filtro de control de calidad en datos de genotipado.",
zh = "群体遗传学原理:在无选择、突变、迁移、漂变和非随机交配的条件下,群体中的等位基因频率和基因型频率在世代间保持不变;常用偏离该平衡的检验作为基因型数据的质量控制过滤标准。",
term_es = "equilibrio de Hardy-Weinberg",
term_zh = "哈迪-温伯格平衡",
aliases_es = { "HWE", "principio de Hardy-Weinberg", "ley de Hardy-Weinberg", "equilibrio Hardy Weinberg" },
aliases_zh = { "HWE", "Hardy-Weinberg 平衡", "哈迪-温伯格定律", "哈温平衡" },
}
data["harm mitigation"] = {
short = "The set of design, training, and deployment practices used to reduce the likelihood and severity of harms (e.g., toxicity, discrimination, misinformation) caused by an AI system.",
article = nil,
aliases = { "harms mitigation", "harm reduction", "AI harm mitigation" },
es = "Conjunto de prácticas de diseño, entrenamiento y despliegue empleadas para reducir la probabilidad y gravedad de los daños (toxicidad, discriminación, desinformación) causados por un sistema de IA.",
zh = "用于降低 AI 系统所造成危害(如毒性、歧视、虚假信息)的可能性和严重程度的设计、训练与部署实践的总称。",
term_es = "mitigación de daños",
term_zh = "危害缓解",
aliases_es = { "reducción de daños", "mitigación de perjuicios" },
aliases_zh = { "危害缓释", "伤害缓解", "AI 危害缓解" },
}
data["harmbench"] = {
short = "A standardized benchmark for evaluating automated red-teaming and refusal behavior of large language models across a broad set of harmful behavior categories.",
article = nil,
aliases = { "HarmBench" },
es = "Banco de pruebas estandarizado para evaluar el red-teaming automatizado y el comportamiento de rechazo de los grandes modelos de lenguaje en un amplio conjunto de categorías de conductas dañinas.",
zh = "用于评估大型语言模型自动化红队测试和拒绝行为的标准化基准,覆盖广泛的有害行为类别。",
term_es = "HarmBench",
term_zh = "HarmBench",
aliases_es = { "HarmBench" },
aliases_zh = { "HarmBench" },
}
data["harmonic-percussive source separation"] = {
short = "A signal-processing technique that decomposes an audio mixture into a harmonic component (sustained tones) and a percussive component (transients) using median filtering on the spectrogram.",
article = nil,
aliases = { "HPSS", "harmonic percussive source separation", "harmonic/percussive separation", "harmonic-percussive separation" },
es = "Técnica de procesamiento de señal que descompone una mezcla de audio en una componente armónica (tonos sostenidos) y una componente percusiva (transitorios) mediante filtrado de mediana sobre el espectrograma.",
zh = "一种信号处理技术,通过对频谱图进行中值滤波,将音频混合信号分解为谐波分量(持续音)和打击乐分量(瞬态)。",
term_es = "separación armónico-percusiva",
term_zh = "谐波-打击乐源分离",
aliases_es = { "HPSS", "separación armónica-percusiva", "separación de fuentes armónica/percusiva" },
aliases_zh = { "HPSS", "谐波打击乐分离", "谐波/打击乐分离" },
}
data["harmony integration"] = {
short = "A single-cell data integration method that iteratively corrects principal-component embeddings to remove batch or donor effects via soft k-means clustering and linear correction, while preserving biological cell-type structure.",
article = nil,
aliases = { "Harmony", "harmonypy", "Harmony batch correction", "Harmony integration" },
es = "Método de integración de datos unicelulares que corrige iterativamente los embeddings de componentes principales para eliminar efectos de batch o donante mediante un clustering k-means difuso y una corrección lineal, preservando la estructura biológica de los tipos celulares.",
zh = "一种单细胞数据整合方法,通过软 k-means 聚类与线性校正迭代地修正主成分嵌入,以消除批次或供体效应,同时保留细胞类型的生物学结构。",
term_es = "integración con Harmony",
term_zh = "Harmony 整合",
aliases_es = { "Harmony", "harmonypy", "corrección de batch con Harmony" },
aliases_zh = { "Harmony", "harmonypy", "Harmony 批次校正" },
}
data["hate speech detection bias"] = {
short = "Systematic disparities in hate-speech classifiers, where dialects, identity terms, or reclaimed language from minority groups are over-flagged as hateful relative to comparable text from majority groups.",
article = nil,
aliases = { "hate-speech detector bias", "bias in hate speech detection", "hate speech classifier bias" },
es = "Disparidades sistemáticas en clasificadores de discurso de odio, donde dialectos, términos identitarios o lenguaje reapropiado por grupos minoritarios se marcan como odio en mayor proporción que textos comparables de grupos mayoritarios.",
zh = "仇恨言论检测中的系统性偏差,即少数群体的方言、身份用语或被重新挪用的词汇相对于多数群体的同类文本被过度标记为仇恨言论。",
term_es = "sesgo en detección de discurso de odio",
term_zh = "仇恨言论检测偏差",
aliases_es = { "sesgo de detectores de odio", "sesgo en clasificadores de odio" },
aliases_zh = { "仇恨言论分类器偏差", "仇恨言论检测中的偏见" },
}
data["hateful memes"] = {
short = "A multimodal classification benchmark released by Facebook AI (Kiela et al., 2020) of memes labeled hateful or benign, where the meaning depends on combining image and text in ways that confuse unimodal models.",
article = nil,
aliases = { "Hateful Memes", "Hateful Memes Challenge", "FB Hateful Memes" },
es = "Benchmark de clasificación multimodal publicado por Facebook AI (Kiela et al., 2020) con memes etiquetados como ofensivos o neutros, donde el significado depende de combinar imagen y texto de formas que confunden a los modelos unimodales.",
zh = "Facebook AI 于 2020 年(Kiela 等)发布的多模态分类基准,包含被标注为仇恨或非仇恨的表情包,其含义需结合图像与文本来理解,单模态模型容易出错。",
term_es = "Hateful Memes",
term_zh = "Hateful Memes",
aliases_es = { "Hateful Memes Challenge", "memes ofensivos (benchmark)" },
aliases_zh = { "仇恨表情包数据集", "Hateful Memes Challenge" },
}
data["hausman test"] = {
short = "A specification test that compares two estimators, typically fixed effects and random effects in panel data or OLS and instrumental variables, to detect endogeneity or model misspecification under a null of consistency for both.",
article = nil,
aliases = { "Hausman test", "Hausman specification test", "Durbin-Wu-Hausman test" },
es = "Prueba de especificación que compara dos estimadores, típicamente efectos fijos y aleatorios en datos de panel o MCO y variables instrumentales, para detectar endogeneidad o mala especificación bajo la hipótesis nula de que ambos son consistentes.",
zh = "一种设定检验,通常比较面板数据中的固定效应与随机效应估计量,或 OLS 与工具变量估计量,在两者均一致的原假设下检验内生性或模型设定误差。",
term_es = "prueba de Hausman",
term_zh = "Hausman 检验",
aliases_es = { "test de Hausman", "prueba de especificación de Hausman", "prueba de Durbin-Wu-Hausman" },
aliases_zh = { "豪斯曼检验", "Hausman 检验", "Durbin-Wu-Hausman 检验" },
}
data["he initialization"] = {
short = "A weight initialization scheme that draws values from a distribution with variance 2/fan_in, designed for layers with ReLU-family activations to preserve signal variance through the forward pass.",
article = nil,
aliases = { "He init", "He initialisation", "Kaiming He initialization", "MSRA initialization" },
es = "Esquema de inicialización de pesos que extrae valores de una distribución con varianza 2/fan_in, diseñado para capas con activaciones tipo ReLU a fin de preservar la varianza de la señal en la propagación hacia adelante.",
zh = "一种权重初始化方法,从方差为 2/fan_in 的分布中采样,专为使用 ReLU 类激活的层设计,以在前向传播中保持信号方差。",
term_es = "inicialización He",
term_zh = "He 初始化",
aliases_es = { "inicialización de He", "inicialización de Kaiming" },
aliases_zh = { "He 初始化方法", "Kaiming 初始化", "MSRA 初始化" },
}
data["healthcare ml bias"] = {
short = "Disparities in clinical machine-learning systems where models exhibit unequal accuracy, calibration, or risk estimates across patient demographic groups, often due to biased training data or proxies.",
article = nil,
aliases = { "clinical ML bias", "medical AI bias", "bias in healthcare machine learning", "healthcare AI bias" },
es = "Disparidades en sistemas de aprendizaje automático clínico donde los modelos presentan exactitud, calibración o estimaciones de riesgo desiguales entre grupos demográficos de pacientes, frecuentemente por datos de entrenamiento o variables sustitutas sesgadas.",
zh = "临床机器学习系统中的偏差,模型在不同患者人群中的准确率、校准或风险估计存在不平等,常源于训练数据或代理变量的偏差。",
term_es = "sesgo en ML para salud",
term_zh = "医疗机器学习偏差",
aliases_es = { "sesgo en IA clínica", "sesgo en aprendizaje automático médico", "sesgo en ML clínico" },
aliases_zh = { "临床 ML 偏差", "医疗 AI 偏差", "医疗机器学习中的偏见" },
}
data["healthy worker effect"] = {
short = "A selection bias in occupational and observational studies in which employed populations exhibit lower mortality and morbidity than the general population because illness reduces the probability of being employed.",
article = nil,
aliases = { "healthy-worker effect", "healthy worker bias", "healthy worker survivor effect" },
es = "Sesgo de selección en estudios ocupacionales y observacionales en el que las poblaciones empleadas muestran menor mortalidad y morbilidad que la población general porque la enfermedad reduce la probabilidad de estar empleado.",
zh = "在职业和观察性研究中出现的一种选择偏倚:就业人群的死亡率和发病率低于一般人群,因为疾病会降低就业的可能性。",
term_es = "efecto del trabajador sano",
term_zh = "健康工人效应",
aliases_es = { "sesgo del trabajador sano", "efecto del trabajador sano sobreviviente" },
aliases_zh = { "健康工人偏倚", "健康工人存活效应" },
}
data["heat bath algorithm"] = {
short = "An MCMC sampling method that updates one variable at a time by drawing it from its conditional distribution given the current values of all other variables; in graphical models it coincides with Gibbs sampling.",
article = nil,
aliases = { "heat-bath algorithm", "heat bath sampling", "heat-bath sampler", "Glauber dynamics" },
es = "Método MCMC que actualiza una variable a la vez muestreándola de su distribución condicional dado el valor actual de las demás; en modelos gráficos coincide con el muestreo de Gibbs.",
zh = "一种 MCMC 采样方法,每次根据其它变量的当前取值,从一个变量的条件分布中抽样以更新该变量;在图模型中与 Gibbs 采样等价。",
term_es = "algoritmo de baño térmico",
term_zh = "热浴算法",
aliases_es = { "muestreo de baño térmico", "dinámica de Glauber" },
aliases_zh = { "热浴采样", "热浴采样器", "Glauber 动力学" },
}
data["heatmap explanation"] = {
short = "A visual explanation that displays per-input-element attribution scores as a colored map overlaid on the input (image, text, or other modality), highlighting regions most relevant to a model's prediction.",
article = nil,
aliases = { "saliency heatmap", "attribution heatmap", "explanation heatmap" },
es = "Explicación visual que muestra las puntuaciones de atribución por elemento de entrada como un mapa coloreado superpuesto sobre la entrada (imagen, texto u otra modalidad), resaltando las regiones más relevantes para la predicción del modelo.",
zh = "一种可视化解释,将每个输入元素的归因分数以彩色映射叠加到输入(图像、文本或其他模态)上,高亮显示对模型预测最重要的区域。",
term_es = "explicación por mapa de calor",
term_zh = "热图解释",
aliases_es = { "mapa de calor de saliencia", "mapa de calor de atribución" },
aliases_zh = { "显著性热图", "归因热图", "热力图解释" },
}
data["heavy atom count"] = {
short = "A simple molecular descriptor counting the number of non-hydrogen atoms in a molecule; widely used as a size proxy in drug-likeness filters and in scoring generative models.",
article = nil,
aliases = { "HAC", "non-hydrogen atom count" },
es = "Descriptor molecular simple que cuenta el número de átomos distintos del hidrógeno en una molécula; se usa ampliamente como aproximación del tamaño en filtros de drogabilidad y en la evaluación de modelos generativos.",
zh = "一种简单的分子描述符,用于统计分子中非氢原子的数量,常作为药物相似性筛选和生成模型评估中分子大小的近似指标。",
term_es = "número de átomos pesados",
term_zh = "重原子数",
aliases_es = { "recuento de átomos pesados", "HAC" },
aliases_zh = { "重原子计数", "非氢原子数" },
}
data["helixfold"] = {
short = "A series of protein structure prediction models from PaddlePaddle that re-implement and extend AlphaFold2 with improved efficiency, including HelixFold-Single (single-sequence) and HelixFold3 variants.",
article = nil,
aliases = { "HelixFold", "HelixFold-Single", "HelixFold3" },
es = "Serie de modelos de predicción de estructura proteica de PaddlePaddle que reimplementan y extienden AlphaFold2 con mejoras de eficiencia, incluyendo las variantes HelixFold-Single (de secuencia única) y HelixFold3.",
zh = "由 PaddlePaddle 开发的一系列蛋白质结构预测模型,在 AlphaFold2 基础上重新实现并改进效率,包含单序列版本 HelixFold-Single 以及 HelixFold3 等变体。",
term_es = "HelixFold",
term_zh = "HelixFold",
aliases_es = { "helixfold" },
aliases_zh = { "helixfold" },
}
data["hellaswag"] = {
short = "A benchmark of multiple-choice sentence-completion problems designed to be easy for humans but adversarially difficult for language models, used to evaluate commonsense reasoning.",
article = nil,
aliases = { "HellaSwag" },
es = "Banco de pruebas de problemas de opción múltiple para completar oraciones, diseñado para ser fácil para humanos pero adversarialmente difícil para modelos de lenguaje, utilizado para evaluar el razonamiento de sentido común.",
zh = "一个用于评估常识推理的基准,由多项选择句子补全题组成,对人类很容易,但对语言模型具有对抗性挑战。",
term_es = "HellaSwag",
term_zh = "HellaSwag",
aliases_es = { "HellaSwag" },
aliases_zh = { "HellaSwag" },
}
data["helm benchmark"] = {
short = "A holistic evaluation framework for foundation models that assesses multiple scenarios across many metrics (accuracy, calibration, robustness, fairness, bias, toxicity, efficiency) on a common, transparent leaderboard.",
article = nil,
aliases = { "HELM", "Holistic Evaluation of Language Models" },
es = "Marco de evaluación holístico para modelos fundacionales que evalúa múltiples escenarios con varias métricas (exactitud, calibración, robustez, equidad, sesgo, toxicidad, eficiencia) en un leaderboard común y transparente.",
zh = "一种面向基础模型的整体评估框架,在统一透明的排行榜上从多种场景与多种指标(准确率、校准度、鲁棒性、公平性、偏见、毒性、效率)综合评测。",
term_es = "HELM",
term_zh = "HELM",
aliases_es = { "HELM", "evaluación HELM" },
aliases_zh = { "HELM", "HELM 基准", "语言模型整体评估" },
}
data["helmholtz machine"] = {
short = "A directed generative model with a top-down generative network and a bottom-up recognition network trained jointly by the wake-sleep algorithm; a precursor of modern variational autoencoders.",
article = nil,
aliases = { "Helmholtz machine", "Helmholtz machines" },
es = "Modelo generativo dirigido con una red generativa descendente y una red de reconocimiento ascendente, entrenadas conjuntamente mediante el algoritmo wake-sleep; precursor de los autoencoders variacionales modernos.",
zh = "一种有向生成模型,由自上而下的生成网络与自下而上的识别网络组成,通过 wake-sleep 算法联合训练;是现代变分自编码器的前身。",
term_es = "máquina de Helmholtz",
term_zh = "亥姆霍兹机",
aliases_es = { "máquinas de Helmholtz", "Helmholtz machine" },
aliases_zh = { "Helmholtz 机", "亥姆霍兹机器" },
}
data["hepatotoxicity prediction"] = {
short = "An in silico ADMET task that predicts the likelihood of a compound causing liver injury, typically trained on curated drug-induced liver injury (DILI) datasets.",
article = nil,
aliases = { "DILI prediction", "liver toxicity prediction", "drug-induced liver injury prediction" },
es = "Tarea ADMET in silico que predice la probabilidad de que un compuesto cause daño hepático, típicamente entrenada con conjuntos de datos curados de daño hepático inducido por fármacos (DILI).",
zh = "一项 ADMET 计算任务,预测化合物引起肝损伤的可能性,通常基于经过整理的药物性肝损伤(DILI)数据集训练。",
term_es = "predicción de hepatotoxicidad",
term_zh = "肝毒性预测",
aliases_es = { "predicción de DILI", "predicción de toxicidad hepática" },
aliases_zh = { "药物性肝损伤预测", "DILI 预测" },
}
data["herbrand universe"] = {
short = "In first-order logic, the set of all ground terms that can be built from the constants and function symbols of a given language; together with the Herbrand base it underpins Herbrand's theorem and proof procedures based on grounding.",
article = nil,
aliases = { "Herbrand universe", "Herbrand domain", "Herbrand set" },
es = "En lógica de primer orden, el conjunto de todos los términos básicos que pueden construirse a partir de las constantes y los símbolos de función de un lenguaje dado; junto con la base de Herbrand sustenta el teorema de Herbrand y los procedimientos de demostración basados en aterrizaje.",
zh = "在一阶逻辑中,由给定语言的常量和函数符号所能构造的所有基项的集合;与 Herbrand 基一起为 Herbrand 定理和基于基化的证明过程奠定基础。",
term_es = "universo de Herbrand",
term_zh = "Herbrand 全域",
aliases_es = { "universo de Herbrand", "dominio de Herbrand", "conjunto de Herbrand" },
aliases_zh = { "Herbrand 全域", "Herbrand 域", "Herbrand 集" },
}
data["herg inhibition"] = {
short = "Blockade of the hERG potassium channel by a small molecule, which can prolong the cardiac QT interval and cause arrhythmia; routinely predicted as part of safety screening.",
article = nil,
aliases = { "hERG inhibition", "hERG channel inhibition", "hERG blockade" },
es = "Bloqueo del canal de potasio hERG por una molécula pequeña, que puede prolongar el intervalo QT cardíaco y provocar arritmias; se predice de forma rutinaria como parte del cribado de seguridad.",
zh = "小分子对 hERG 钾通道的阻断,可延长心脏 QT 间期并诱发心律失常;在安全性筛选中常被例行预测。",
term_es = "inhibición de hERG",
term_zh = "hERG 抑制",
aliases_es = { "bloqueo de hERG", "inhibición del canal hERG" },
aliases_zh = { "hERG 通道抑制", "hERG 阻断" },
}
data["herg liability"] = {
short = "The risk that a drug candidate inhibits the hERG potassium channel and therefore predisposes to QT prolongation and torsades de pointes; a key cardiotoxicity flag in lead optimization.",
article = nil,
aliases = { "hERG liability", "hERG risk" },
es = "Riesgo de que un candidato farmacológico inhiba el canal de potasio hERG y, por tanto, predisponga a la prolongación del QT y a torsade de pointes; es una alerta clave de cardiotoxicidad en la optimización de leads.",
zh = "候选药物抑制 hERG 钾通道、从而诱发 QT 延长和尖端扭转型室速的风险,是先导化合物优化阶段重要的心脏毒性警示。",
term_es = "riesgo de hERG",
term_zh = "hERG 风险",
aliases_es = { "responsabilidad de hERG", "liability de hERG" },
aliases_zh = { "hERG 安全性风险", "hERG 责任" },
}
data["heritability"] = {
short = "The proportion of phenotypic variance in a population attributable to genetic variance; narrow-sense heritability (h²) considers only additive genetic effects, while broad-sense heritability (H²) includes dominance and epistasis.",
article = nil,
aliases = { "h2", "h²", "narrow-sense heritability", "broad-sense heritability", "H2", "SNP heritability" },
es = "Proporción de la varianza fenotípica de una población atribuible a la varianza genética; la heredabilidad en sentido estricto (h²) considera solo efectos genéticos aditivos, mientras que la heredabilidad en sentido amplio (H²) incluye dominancia y epistasis.",
zh = "群体中可归因于遗传方差的表型方差比例;狭义遗传力(h²)仅考虑加性遗传效应,广义遗传力(H²)则包括显性和上位效应。",
term_es = "heredabilidad",
term_zh = "遗传力",
aliases_es = { "h2", "h²", "heredabilidad en sentido estricto", "heredabilidad en sentido amplio", "H2", "heredabilidad SNP" },
aliases_zh = { "h2", "h²", "狭义遗传力", "广义遗传力", "H2", "SNP 遗传力", "遗传率" },
}
data["hessian eigendecomposition"] = {
short = "Decomposition of the loss Hessian into eigenvalues and eigenvectors, used to characterise loss-landscape curvature, identify flat directions, and construct subspace-based Laplace approximations to BNN posteriors.",
article = nil,
aliases = { "Hessian eigendecomposition", "Hessian spectrum", "Hessian eigenvalues", "Hessian eigenvalue decomposition", "spectral decomposition of the Hessian" },
es = "Descomposición del hessiano de la pérdida en valores y vectores propios, utilizada para caracterizar la curvatura del paisaje de pérdida, identificar direcciones planas y construir aproximaciones de Laplace de la posterior de BNN basadas en subespacios.",
zh = "对损失Hessian进行特征值与特征向量分解,可用于刻画损失曲面曲率、识别平坦方向,并构建基于子空间的BNN后验Laplace近似。",
term_es = "descomposición espectral del hessiano",
term_zh = "Hessian特征分解",
aliases_es = { "espectro del hessiano", "valores propios del hessiano" },
aliases_zh = { "Hessian谱", "Hessian特征值分解", "Hessian矩阵特征分解" },
}
data["hessian-free optimization"] = {
short = "A second-order optimization method that solves the Newton system iteratively by conjugate gradient using only Hessian-vector products, without forming or storing the Hessian explicitly.",
article = nil,
aliases = { "Hessian free optimization", "HF optimization", "truncated Newton method", "Hessian-free method" },
es = "Método de optimización de segundo orden que resuelve el sistema de Newton de forma iterativa mediante gradiente conjugado usando solo productos Hessiana-vector, sin construir ni almacenar la Hessiana de forma explícita.",
zh = "一种二阶优化方法:使用共轭梯度迭代求解牛顿方程,仅依赖海森-向量积,而无需显式构造或存储海森矩阵。",
term_es = "optimización sin Hessiana",
term_zh = "无海森优化",
aliases_es = { "método de Newton truncado", "optimización Hessian-free", "Hessian-free optimization" },
aliases_zh = { "截断牛顿法", "无显式海森优化", "Hessian-free optimization" },
}
data["hessian-vector product"] = {
short = "An efficient computation Hv of the product between a Hessian and a vector, obtained without forming H by differentiating the gradient-vector inner product (Pearlmutter trick). Enables Krylov methods, Lanczos and stochastic Lanczos quadrature on huge models.",
article = nil,
aliases = { "HVP", "Hessian vector product", "H-v product", "Pearlmutter trick", "Hessian-vector products" },
es = "Cálculo eficiente Hv del producto entre un hessiano y un vector, obtenido sin formar H derivando el producto interno gradiente-vector (truco de Pearlmutter). Habilita métodos de Krylov, Lanczos y la cuadratura estocástica de Lanczos en modelos enormes.",
zh = "在不显式构造Hessian矩阵H的情况下高效计算Hv的方法:通过对梯度与向量的内积再求一次导(Pearlmutter技巧)实现,是Krylov方法、Lanczos以及随机Lanczos正交化在大模型上可行的关键。",
term_es = "producto hessiano-vector",
term_zh = "Hessian-向量积",
aliases_es = { "HVP", "producto Hv", "truco de Pearlmutter" },
aliases_zh = { "HVP", "Hessian向量积", "Pearlmutter技巧" },
}
data["hessian-vector product influence"] = {
short = "An efficient way to compute influence functions for a training point on a model's predictions by approximating the inverse-Hessian-vector product via conjugate gradients or stochastic estimators, avoiding explicit construction of the Hessian.",
article = nil,
aliases = { "HVP influence", "Hessian-vector influence", "implicit Hessian influence" },
es = "Forma eficiente de calcular funciones de influencia de un punto de entrenamiento sobre las predicciones de un modelo aproximando el producto Hessiana inversa por vector mediante gradientes conjugados o estimadores estocásticos, evitando construir explícitamente la Hessiana.",
zh = "通过共轭梯度或随机估计器近似海森矩阵逆-向量乘积,从而高效计算训练样本对模型预测的影响函数的方法,避免显式构造海森矩阵。",
term_es = "influencia por producto Hessiana-vector",
term_zh = "海森向量积影响",
aliases_es = { "influencia HVP", "influencia por producto Hessian-vector" },
aliases_zh = { "HVP 影响", "Hessian-vector 影响函数" },
}
data["heterofl"] = {
short = "A federated learning algorithm that supports clients with heterogeneous compute and memory by assigning each client a sub-network of different width sliced from the global model and aggregating the corresponding weights at the server.",
article = nil,
aliases = { "HeteroFL", "Hetero-FL", "heterogeneous FL (HeteroFL)" },
es = "Algoritmo de aprendizaje federado que admite clientes con cómputo y memoria heterogéneos asignando a cada cliente una subred de diferente ancho extraída del modelo global y agregando en el servidor los pesos correspondientes.",
zh = "一种支持计算与内存异构客户端的联邦学习算法:从全局模型中切出不同宽度的子网络分配给各客户端,并在服务器端对相应的权重进行聚合。",
term_es = "HeteroFL",
term_zh = "HeteroFL",
aliases_es = { "HeteroFL", "Hetero-FL", "FL heterogéneo (HeteroFL)" },
aliases_zh = { "HeteroFL", "Hetero-FL", "异构联邦学习 (HeteroFL)" },
}
data["heterogeneous treatment effect"] = {
short = "Variation in the causal effect of a treatment across individuals or subgroups defined by observed or unobserved characteristics, often summarized by the conditional average treatment effect.",
article = nil,
aliases = { "HTE", "heterogeneous treatment effects", "treatment effect heterogeneity", "conditional treatment effect" },
es = "Variación del efecto causal de un tratamiento entre individuos o subgrupos definidos por características observadas o no observadas, a menudo resumida por el efecto medio condicional del tratamiento.",
zh = "由可观测或不可观测特征定义的个体或子群体之间,处理因果效应的差异,通常用条件平均处理效应来概括。",
term_es = "efecto heterogéneo del tratamiento",
term_zh = "异质性处理效应",
aliases_es = { "HTE", "heterogeneidad del efecto del tratamiento", "efectos heterogéneos del tratamiento" },
aliases_zh = { "HTE", "处理效应异质性", "异质处理效应" },
}
data["heteroscedastic noise"] = {
short = "Observation noise whose variance depends on the input x, in contrast to homoscedastic noise of constant variance. Modelling it explicitly — e.g. with a learned variance head — separates aleatoric uncertainty from epistemic uncertainty.",
article = nil,
aliases = { "heteroskedastic noise", "input-dependent noise", "input dependent noise", "heteroscedastic observation noise" },
es = "Ruido de observación cuya varianza depende de la entrada x, en contraste con el ruido homocedástico de varianza constante. Modelarlo explícitamente —por ejemplo con una cabeza de varianza aprendida— separa la incertidumbre aleatoria de la epistémica.",
zh = "方差随输入x变化的观测噪声,与方差恒定的同方差噪声相对。通过显式建模(例如使用一个可学习的方差预测头)可将偶然不确定性与认知不确定性区分开。",
term_es = "ruido heterocedástico",
term_zh = "异方差噪声",
aliases_es = { "ruido heteroscedástico", "ruido dependiente de la entrada" },
aliases_zh = { "输入相关噪声", "异方差观测噪声", "heteroscedastic noise" },
}
data["heteroscedastic regression"] = {
short = "A regression model in which the noise variance is itself a learned function of the input, typically by predicting both a mean and a log-variance and minimising a Gaussian negative log-likelihood. Captures aleatoric uncertainty and improves calibration.",
article = nil,
aliases = { "heteroskedastic regression", "input-dependent variance regression", "mean-variance regression", "heteroscedastic Gaussian regression" },
es = "Modelo de regresión en el que la varianza del ruido es ella misma una función aprendida de la entrada, típicamente prediciendo media y log-varianza y minimizando la log-verosimilitud negativa gaussiana. Captura la incertidumbre aleatoria y mejora la calibración.",
zh = "一种回归模型,其中噪声方差本身也是输入的可学习函数,通常同时预测均值和对数方差并最小化高斯负对数似然,可建模偶然不确定性并改善校准。",
term_es = "regresión heterocedástica",
term_zh = "异方差回归",
aliases_es = { "regresión heteroscedástica", "regresión con varianza dependiente de la entrada", "regresión media-varianza" },
aliases_zh = { "异方差高斯回归", "输入相关方差回归", "均值-方差回归" },
}
data["hey siri detection"] = {
short = "Apple's keyword spotting system that detects the wake phrase \"Hey Siri\" on-device using a small acoustic model so that the assistant can be invoked without a button press.",
article = nil,
aliases = { "Hey Siri detection", "Hey Siri", "Hey Siri keyword spotting", "Hey Siri wake word" },
es = "Sistema de detección de palabras clave de Apple que reconoce en el dispositivo la frase de activación «Hey Siri» mediante un modelo acústico pequeño, permitiendo invocar al asistente sin pulsar un botón.",
zh = "Apple 的关键词检测系统,使用小型声学模型在设备端识别唤醒短语 'Hey Siri',无需按键即可调用助手。",
term_es = "detección de Hey Siri",
term_zh = "Hey Siri 检测",
aliases_es = { "Hey Siri", "detección de la palabra clave Hey Siri" },
aliases_zh = { "Hey Siri", "Hey Siri 唤醒词检测", "Hey Siri 关键词检测" },
}
data["hhblits"] = {
short = "An iterative HMM-HMM-based protein sequence search tool from the HH-suite that builds a query profile and aligns it against a database of profile HMMs to detect remote homologs more sensitively than PSI-BLAST.",
article = nil,
aliases = { "HHblits", "HH-blits", "hh-blits" },
es = "Herramienta iterativa de búsqueda de secuencias proteicas basada en alineamientos HMM-HMM, parte de la suite HH-suite; construye un perfil de la consulta y lo alinea contra una base de datos de HMMs perfilados para detectar homólogos remotos con mayor sensibilidad que PSI-BLAST.",
zh = "HH-suite 中基于 HMM-HMM 比对的迭代蛋白质序列搜索工具,先为查询序列构建谱型,再与谱型 HMM 数据库进行比对,能比 PSI-BLAST 更灵敏地检测远缘同源物。",
term_es = "HHblits",
term_zh = "HHblits",
aliases_es = { "HHblits", "HH-blits" },
aliases_zh = { "HHblits", "HH-blits" },
}
data["hhsearch"] = {
short = "A profile-profile homology search tool that compares query and target hidden Markov models to detect remote evolutionary relationships between protein sequences with greater sensitivity than sequence-profile methods.",
article = nil,
aliases = { "HHsearch", "HH-search", "HHSearch" },
es = "Herramienta de búsqueda de homología perfil-perfil que compara modelos ocultos de Markov de consulta y diana para detectar relaciones evolutivas remotas entre proteínas con mayor sensibilidad que los métodos secuencia-perfil.",
zh = "一种基于profile-profile比对的同源搜索工具,通过比较查询和目标的隐马尔可夫模型来检测蛋白质序列之间的远缘进化关系,比基于序列-profile的方法更灵敏。",
term_es = "HHsearch",
term_zh = "HHsearch",
aliases_es = { "HHsearch", "HH-search" },
aliases_zh = { "HHsearch", "HH-搜索" },
}
data["hi-c"] = {
short = "A chromosome conformation capture method that uses proximity ligation followed by deep sequencing to measure all-versus-all 3D contact frequencies across a genome, enabling reconstruction of TADs, compartments, and loops.",
article = nil,
aliases = { "Hi-C", "HiC", "Hi-C sequencing", "genome-wide chromosome conformation capture" },
es = "Método de captura de la conformación cromosómica que combina ligación por proximidad y secuenciación profunda para medir las frecuencias de contacto 3D de todos contra todos en un genoma, permitiendo reconstruir TADs, compartimentos y bucles cromatínicos.",
zh = "一种染色质构象捕获方法,结合邻近连接与深度测序,测量基因组中所有位点之间的三维接触频率,可用于重构TAD、染色质区室和染色质环。",
term_es = "Hi-C",
term_zh = "Hi-C",
aliases_es = { "Hi-C", "secuenciación Hi-C", "captura de conformación cromosómica genómica" },
aliases_zh = { "Hi-C", "HiC", "Hi-C 测序", "全基因组染色质构象捕获" },
}
data["hidden markov model"] = {
short = "A statistical model in which an observed sequence is generated by an unobserved Markov chain of latent states, each emitting an observation according to a state-dependent emission distribution.",
article = nil,
aliases = { "HMM", "hidden Markov model", "hidden Markov models", "HMMs" },
es = "Modelo estadístico en el que una secuencia observada es generada por una cadena de Markov no observada de estados latentes, cada uno emitiendo una observación según una distribución de emisión dependiente del estado.",
zh = "一种统计模型,其中可观测序列由一条不可观测的隐状态马尔可夫链生成,每个状态根据状态相关的发射分布产生一个观测值。",
term_es = "modelo oculto de Markov",
term_zh = "隐马尔可夫模型",
aliases_es = { "HMM", "modelo de Markov oculto", "modelos ocultos de Markov" },
aliases_zh = { "HMM", "隐马尔科夫模型", "隐式马尔可夫模型" },
}
data["hidden semi-markov model"] = {
short = "An extension of the hidden Markov model in which each latent state has an explicit duration distribution, allowing it to persist for a variable number of time steps before transitioning.",
article = nil,
aliases = { "HSMM", "hidden semi-Markov model", "explicit-duration HMM", "variable-duration HMM" },
es = "Extensión del modelo oculto de Markov en la que cada estado latente posee una distribución explícita de duración, permitiendo que persista durante un número variable de pasos de tiempo antes de transitar.",
zh = "隐马尔可夫模型的扩展,每个隐状态具有显式的持续时间分布,可在一定可变步数内保持后再发生转移。",
term_es = "modelo oculto semi-markoviano",
term_zh = "隐半马尔可夫模型",
aliases_es = { "HSMM", "modelo semi-Markov oculto", "HMM de duración explícita" },
aliases_zh = { "HSMM", "显式持续时间 HMM", "变持续时间 HMM" },
}
data["hidden state probing"] = {
short = "A diagnostic technique in which a small auxiliary classifier (a probe) is trained on the frozen hidden representations of a neural network to detect what linguistic, semantic, or task-specific information is encoded at a given layer.",
article = nil,
aliases = { "probing hidden states", "representation probing", "linear probing", "probe classifier" },
es = "Técnica de diagnóstico en la que un pequeño clasificador auxiliar (sonda) se entrena sobre las representaciones ocultas congeladas de una red neuronal para detectar qué información lingüística, semántica o específica de la tarea está codificada en una capa dada.",
zh = "一种诊断技术,在神经网络冻结的隐藏表示上训练一个小型辅助分类器(探针),以检测某一层中编码了哪些语言、语义或任务相关的信息。",
term_es = "sondeo de estados ocultos",
term_zh = "隐状态探针",
aliases_es = { "probing de representaciones", "sondeo de representaciones", "probe lineal" },
aliases_zh = { "隐藏状态探针", "表示探针", "线性探针", "probing" },
}
data["hidden variable"] = {
short = "A variable in a probabilistic model whose value is not directly observed and must be inferred from observed variables; also called a latent variable.",
article = nil,
aliases = { "latent variable", "hidden variables", "latent variables", "unobserved variable" },
es = "Variable de un modelo probabilístico cuyo valor no se observa directamente y debe inferirse a partir de las variables observadas; también llamada variable latente.",
zh = "概率模型中无法直接观测、需要从观测变量推断的变量;也称为潜变量。",
term_es = "variable oculta",
term_zh = "隐变量",
aliases_es = { "variable latente", "variables ocultas", "variable no observada" },
aliases_zh = { "潜变量", "潜在变量", "隐藏变量", "未观测变量" },
}
data["hierarchical all-reduce"] = {
short = "A multi-level all-reduce that performs a fast intra-node reduction (e.g. NVLink), an inter-node ring or tree all-reduce across a single representative per node, and a final intra-node broadcast, exploiting the bandwidth gap between intra- and inter-node links.",
article = nil,
aliases = { "Hierarchical AllReduce", "two-level all-reduce", "2D all-reduce", "double binary tree all-reduce" },
es = "All-reduce de varios niveles que realiza una reducción rápida dentro del nodo (por ejemplo, vía NVLink), un all-reduce en anillo o árbol entre nodos usando un único representante por nodo, y una difusión final dentro del nodo, aprovechando la diferencia de ancho de banda entre los enlaces intra e internodo.",
zh = "多层级 all-reduce:先在节点内(如通过 NVLink)做快速归约,再由每个节点的代表在节点间执行环形或树形 all-reduce,最后在节点内广播,利用节点内与节点间链路带宽的差异。",
term_es = "all-reduce jerárquico",
term_zh = "分层 All-Reduce",
aliases_es = { "AllReduce jerárquico", "all-reduce de dos niveles" },
aliases_zh = { "层次化 AllReduce", "层级全规约", "二层 all-reduce" },
}
data["hierarchical bayesian model"] = {
short = "A Bayesian model whose parameters are themselves drawn from higher-level prior distributions governed by hyperparameters, allowing partial pooling of information across related groups or tasks.",
article = nil,
aliases = { "hierarchical Bayesian model", "hierarchical Bayes", "multilevel Bayesian model", "hierarchical Bayesian models" },
es = "Modelo bayesiano cuyos parámetros se extraen a su vez de distribuciones a priori de nivel superior gobernadas por hiperparámetros, permitiendo el agrupamiento parcial de información entre grupos o tareas relacionadas.",
zh = "一种贝叶斯模型,其参数本身由更高层的先验分布生成,并由超参数控制,从而在相关群体或任务之间实现部分信息共享。",
term_es = "modelo bayesiano jerárquico",
term_zh = "分层贝叶斯模型",
aliases_es = { "Bayes jerárquico", "modelo bayesiano multinivel", "modelos bayesianos jerárquicos" },
aliases_zh = { "层级贝叶斯模型", "层次贝叶斯模型", "多层贝叶斯模型" },
}
data["hierarchical dirichlet process"] = {
short = "A Bayesian nonparametric prior in which a set of group-specific Dirichlet processes share a common base measure that is itself drawn from a Dirichlet process, enabling shared atoms across groups.",
article = nil,
aliases = { "HDP", "hierarchical Dirichlet process", "hierarchical Dirichlet processes" },
es = "Distribución a priori bayesiana no paramétrica en la que un conjunto de procesos de Dirichlet específicos de cada grupo comparten una medida base común, también extraída de un proceso de Dirichlet, permitiendo átomos compartidos entre grupos.",
zh = "一种贝叶斯非参数先验,其中各组特定的狄利克雷过程共享一个共同的基测度,而该基测度本身也来自一个狄利克雷过程,从而在各组之间共享原子。",
term_es = "proceso de Dirichlet jerárquico",
term_zh = "分层狄利克雷过程",
aliases_es = { "HDP", "procesos de Dirichlet jerárquicos" },
aliases_zh = { "HDP", "层次狄利克雷过程", "层级狄利克雷过程" },
}
data["hierarchical explanation"] = {
short = "An explanation that presents feature attributions or model behavior at multiple levels of granularity (e.g., tokens, phrases, sentences; or pixels, regions, objects), often organized as a tree to reveal both local and global structure.",
article = nil,
aliases = { "hierarchical attribution", "multi-level explanation", "hierarchical interpretation" },
es = "Explicación que presenta atribuciones de características o comportamiento del modelo a múltiples niveles de granularidad (por ejemplo, tokens, frases, oraciones; o píxeles, regiones, objetos), a menudo organizada como un árbol para revelar estructura local y global.",
zh = "在多个粒度层级(如词元、短语、句子;或像素、区域、对象)上呈现特征归因或模型行为的解释,通常以树状结构组织,以揭示局部和全局结构。",
term_es = "explicación jerárquica",
term_zh = "层次化解释",
aliases_es = { "atribución jerárquica", "explicación multinivel" },
aliases_zh = { "分层解释", "层级解释", "多层次解释" },
}
data["hierarchical federated learning"] = {
short = "A federated learning topology with multiple layers of aggregation—for example, edge servers aggregating updates from nearby clients before forwarding them to a cloud server—reducing wide-area communication and supporting region-specific personalization.",
article = nil,
aliases = { "HFL", "hierarchical FL", "multi-tier federated learning", "edge-cloud federated learning" },
es = "Topología de aprendizaje federado con varias capas de agregación —por ejemplo servidores de borde que agregan las actualizaciones de los clientes cercanos antes de reenviarlas a un servidor en la nube— que reduce la comunicación de larga distancia y permite personalización por región.",
zh = "一种具有多级聚合层的联邦学习拓扑:例如边缘服务器先聚合附近客户端的更新,再转发给云端服务器,从而降低广域通信开销并支持按地区个性化。",
term_es = "aprendizaje federado jerárquico",
term_zh = "分层联邦学习",
aliases_es = { "HFL", "FL jerárquico", "aprendizaje federado multinivel", "aprendizaje federado borde-nube" },
aliases_zh = { "HFL", "层次化联邦学习", "多层联邦学习", "边缘-云端联邦学习" },
}
data["hierarchical hidden markov model"] = {
short = "A generalization of the HMM whose states are themselves HMMs, producing a recursive multi-level structure suited to modeling hierarchically organized sequential data.",
article = nil,
aliases = { "HHMM", "hierarchical HMM", "hierarchical hidden Markov model" },
es = "Generalización del HMM cuyos estados son a su vez HMMs, produciendo una estructura recursiva multinivel adecuada para modelar datos secuenciales organizados jerárquicamente.",
zh = "HMM 的推广,其状态本身又是 HMM,构成递归的多层结构,适合对分层组织的序列数据建模。",
term_es = "modelo oculto de Markov jerárquico",
term_zh = "分层隐马尔可夫模型",
aliases_es = { "HHMM", "HMM jerárquico" },
aliases_zh = { "HHMM", "层次隐马尔可夫模型", "层级 HMM" },
}
data["hierarchical rag"] = {
short = "A retrieval-augmented generation pattern that retrieves over multiple levels of granularity—such as summaries, sections, and chunks—then combines them, improving accuracy on long or structured documents.",
article = nil,
aliases = { "Hierarchical RAG", "multi-level RAG" },
es = "Patrón de generación aumentada con recuperación que recupera información en varios niveles de granularidad —como resúmenes, secciones y fragmentos— y luego los combina, mejorando la precisión en documentos largos o estructurados.",
zh = "一种检索增强生成模式,在多层次粒度(如摘要、章节、片段)上进行检索并将其组合,从而提升对长文档或结构化文档的准确性。",
term_es = "RAG jerárquico",
term_zh = "层次化 RAG",
aliases_es = { "Hierarchical RAG", "RAG multinivel" },
aliases_zh = { "Hierarchical RAG", "分层 RAG" },
}
data["hierarchical rl"] = {
short = "A reinforcement learning framework that structures behavior at multiple temporal scales, with a high-level policy choosing among temporally extended sub-policies (skills, options, or subgoals) executed by lower-level controllers.",
article = nil,
aliases = { "HRL", "hierarchical reinforcement learning", "hierarchical RL" },
es = "Marco de aprendizaje por refuerzo que estructura el comportamiento en múltiples escalas temporales, con una política de alto nivel que elige entre subpolíticas temporalmente extendidas (habilidades, opciones o subobjetivos) ejecutadas por controladores de bajo nivel.",
zh = "一种在多时间尺度上构建行为的强化学习框架,高层策略在由底层控制器执行的时间扩展子策略(技能、选项或子目标)之间进行选择。",
term_es = "RL jerárquico",
term_zh = "分层强化学习",
aliases_es = { "aprendizaje por refuerzo jerárquico", "HRL" },
aliases_zh = { "层次强化学习", "HRL", "hierarchical RL" },
}
data["hierarchical search space"] = {
short = "A neural architecture search space organized at multiple levels of abstraction — for example, low-level operations composed into cells, cells stacked into blocks, and blocks assembled into a full network — to factorize and reuse design decisions.",
article = nil,
aliases = { "hierarchical NAS search space", "hierarchical architecture space", "multi-level search space", "hierarchical search spaces" },
es = "Espacio de búsqueda de arquitecturas neuronales organizado en varios niveles de abstracción — por ejemplo, operaciones de bajo nivel que componen celdas, celdas apiladas en bloques y bloques ensamblados en una red completa — para factorizar y reutilizar decisiones de diseño.",
zh = "在多个抽象层次上组织的神经架构搜索空间——例如,低层操作组成单元(cell),单元堆叠为块,块再组装为完整网络——以分解并复用设计决策。",
term_es = "espacio de búsqueda jerárquico",
term_zh = "分层搜索空间",
aliases_es = { "espacio de búsqueda jerárquico para NAS", "espacio de arquitecturas jerárquico", "espacio de búsqueda multinivel" },
aliases_zh = { "层次化搜索空间", "多层搜索空间", "分层架构空间" },
}
data["hifi reads"] = {
short = "PacBio circular consensus sequencing (CCS) reads of typically 10-25 kb with ≥99% accuracy, produced by averaging multiple passes around a circularized DNA template.",
article = nil,
aliases = { "HiFi reads", "PacBio HiFi", "CCS reads", "circular consensus sequencing reads", "HiFi" },
es = "Lecturas de secuenciación de consenso circular (CCS) de PacBio, típicamente de 10–25 kb y con precisión ≥99%, obtenidas promediando múltiples pasadas sobre una plantilla de ADN circularizada.",
zh = "PacBio公司的环状共识测序(CCS)读段,长度通常为10–25 kb,准确率≥99%,通过对环化DNA模板多次循环测序后取共识获得。",
term_es = "lecturas HiFi",
term_zh = "HiFi 读段",
aliases_es = { "HiFi", "PacBio HiFi", "lecturas CCS", "lecturas de consenso circular" },
aliases_zh = { "HiFi", "PacBio HiFi", "CCS 读段", "环状共识测序读段" },
}
data["hifi-gan"] = {
short = "A GAN-based neural vocoder that synthesizes high-fidelity waveforms from mel-spectrograms in real time, using multi-period and multi-scale discriminators to capture periodic structure in speech.",
article = nil,
aliases = { "HiFi-GAN", "HiFiGAN", "HiFi GAN", "HifiGAN" },
es = "Vocoder neuronal basado en GAN que sintetiza formas de onda de alta fidelidad a partir de mel-espectrogramas en tiempo real, utilizando discriminadores multi-período y multi-escala para capturar la estructura periódica del habla.",
zh = "一种基于 GAN 的神经声码器,可从梅尔频谱图实时合成高保真波形,使用多周期和多尺度判别器捕捉语音的周期性结构。",
term_es = "HiFi-GAN",
term_zh = "HiFi-GAN",
aliases_es = { "HiFiGAN", "vocoder HiFi-GAN" },
aliases_zh = { "HiFiGAN", "HiFi-GAN 声码器" },
}
data["hifiasm assembler"] = {
short = "A haplotype-resolved de novo genome assembler optimized for PacBio HiFi reads, which constructs phased contigs by integrating Hi-C or trio binning information into a string graph framework.",
article = nil,
aliases = { "hifiasm", "Hifiasm" },
es = "Ensamblador de novo con resolución de haplotipos optimizado para lecturas PacBio HiFi, que construye contigs fasados integrando información de Hi-C o de binning por trío en un marco de string graph.",
zh = "一款针对PacBio HiFi读段优化的单倍型分辨从头基因组组装器,通过将Hi-C或三人家系(trio)分箱信息整合到串图(string graph)框架中,构建分相位的contig。",
term_es = "hifiasm",
term_zh = "hifiasm",
aliases_es = { "hifiasm", "ensamblador hifiasm" },
aliases_zh = { "hifiasm", "hifiasm 组装器" },
}
data["high-content screening"] = {
short = "An automated cell-based assay technology that uses microscopy and image analysis to extract many quantitative phenotypic features per well, enabling rich profiling of compound effects.",
article = nil,
aliases = { "HCS", "high content screening", "high-content analysis", "HCA" },
es = "Tecnología automatizada de ensayos celulares que utiliza microscopía y análisis de imágenes para extraer numerosas características fenotípicas cuantitativas por pocillo, permitiendo un perfilado detallado de los efectos de los compuestos.",
zh = "一种自动化的基于细胞的检测技术,通过显微成像和图像分析从每个孔中提取大量定量表型特征,可对化合物效应进行丰富表型描述。",
term_es = "cribado de alto contenido",
term_zh = "高内涵筛选",
aliases_es = { "screening de alto contenido", "HCS", "análisis de alto contenido" },
aliases_zh = { "高内涵分析", "HCS", "HCA" },
}
data["higher-order boltzmann machine"] = {
short = "A Boltzmann machine whose energy function includes interaction terms among three or more units rather than only pairwise terms, increasing representational capacity at additional computational cost.",
article = nil,
aliases = { "higher order Boltzmann machine", "higher-order BM", "higher-order Boltzmann machines" },
es = "Máquina de Boltzmann cuya función de energía incluye términos de interacción entre tres o más unidades en lugar de solo términos por pares, aumentando la capacidad representacional a costa de mayor coste computacional.",
zh = "一种玻尔兹曼机,其能量函数包含三个或更多单元之间的高阶交互项,而不仅是成对项,从而以额外计算代价提升表达能力。",
term_es = "máquina de Boltzmann de orden superior",
term_zh = "高阶玻尔兹曼机",
aliases_es = { "máquinas de Boltzmann de orden superior", "BM de orden superior" },
aliases_zh = { "高阶 Boltzmann 机", "高阶玻尔兹曼机器" },
}
data["higher-order crf"] = {
short = "A conditional random field whose factors couple three or more output variables, capturing long-range or skip-chain dependencies beyond the standard pairwise (linear-chain) case.",
article = nil,
aliases = { "higher-order CRF", "higher order CRF", "higher-order conditional random field", "higher-order CRFs" },
es = "Campo aleatorio condicional cuyos factores acoplan tres o más variables de salida, capturando dependencias de largo alcance o de cadena salteada más allá del caso estándar por pares (cadena lineal).",
zh = "一种条件随机场,其因子耦合三个或更多输出变量,捕获超越标准成对(线性链)情形的长程或跳链依赖。",
term_es = "CRF de orden superior",
term_zh = "高阶条件随机场",
aliases_es = { "campo aleatorio condicional de orden superior", "CRFs de orden superior" },
aliases_zh = { "高阶 CRF", "高阶条件随机域" },
}
data["higher-order logic"] = {
short = "A logic that extends first-order logic by allowing quantification over functions, predicates, and sets, providing greater expressive power at the cost of decidability and a less well-behaved proof theory.",
article = nil,
aliases = { "HOL", "higher order logic", "higher-order predicate logic", "HOL logic" },
es = "Una lógica que extiende la lógica de primer orden permitiendo cuantificar sobre funciones, predicados y conjuntos, lo que aporta mayor poder expresivo a costa de la decidibilidad y de una teoría de la demostración menos manejable.",
zh = "一种扩展一阶逻辑的逻辑系统,允许对函数、谓词和集合进行量化,在表达能力上更强,但失去可判定性,证明论性质也较差。",
term_es = "lógica de orden superior",
term_zh = "高阶逻辑",
aliases_es = { "HOL", "lógica de orden alto", "lógica predicativa de orden superior" },
aliases_zh = { "HOL", "高阶谓词逻辑", "高阶逻辑系统" },
}
data["higher-order markov chain"] = {
short = "A Markov chain in which the next state depends on the previous k states (k > 1) rather than only the most recent one, equivalent to a first-order Markov chain over k-tuples of states.",
article = nil,
aliases = { "higher order Markov chain", "k-th order Markov chain", "kth-order Markov chain", "higher-order Markov chains" },
es = "Cadena de Markov en la que el próximo estado depende de los k estados anteriores (k > 1) en lugar de solo del más reciente; es equivalente a una cadena de Markov de primer orden sobre k-tuplas de estados.",
zh = "一种马尔可夫链,其下一状态依赖于前 k 个状态(k>1),而不仅是最近一个状态;等价于在状态 k-元组上的一阶马尔可夫链。",
term_es = "cadena de Markov de orden superior",
term_zh = "高阶马尔可夫链",
aliases_es = { "cadena de Markov de orden k", "cadenas de Markov de orden superior" },
aliases_zh = { "高阶马尔可夫链", "k 阶马尔可夫链" },
}
data["higher-order potential"] = {
short = "A factor in a Markov random field that depends on three or more variables simultaneously, rather than the more common pairwise (binary) potentials, enabling richer dependencies at higher inference cost.",
article = nil,
aliases = { "higher order potential", "higher-order potentials", "higher-order factor", "higher-order clique potential" },
es = "Factor en un campo aleatorio de Markov que depende simultáneamente de tres o más variables, en lugar de los potenciales por pares (binarios) más comunes, permitiendo dependencias más ricas a mayor coste de inferencia.",
zh = "马尔可夫随机场中同时依赖于三个或更多变量的因子,而不是更常见的成对(二元)势,能表达更丰富的依赖但推断代价更高。",
term_es = "potencial de orden superior",
term_zh = "高阶势",
aliases_es = { "potenciales de orden superior", "factor de orden superior", "potencial de clique de orden superior" },
aliases_zh = { "高阶势函数", "高阶因子", "高阶团势" },
}
data["highest density region"] = {
short = "The smallest subset of a distribution's support that contains a specified probability mass, with every point inside having density at least as large as every point outside. Used to summarize multimodal posteriors.",
article = nil,
aliases = { "HDR", "highest-density region", "highest density regions" },
es = "El subconjunto más pequeño del soporte de una distribución que contiene una masa de probabilidad dada, donde todo punto interior tiene densidad mayor o igual que cualquier punto exterior. Útil para resumir posteriores multimodales.",
zh = "分布支撑集中包含给定概率质量的最小子集,区域内任一点的密度都不低于区域外任一点。常用于刻画多峰后验。",
term_es = "región de mayor densidad",
term_zh = "最高密度区域",
aliases_es = { "HDR", "región de máxima densidad" },
aliases_zh = { "HDR", "最高密度区间" },
}
data["highest posterior density"] = {
short = "A Bayesian credible region of minimum volume for a given posterior probability level, formed by all parameter values whose posterior density exceeds a threshold. Often abbreviated HPD interval in one dimension.",
article = nil,
aliases = { "HPD", "HPD interval", "HPD region", "highest posterior density interval", "highest posterior density region" },
es = "Región creíble bayesiana de volumen mínimo para un nivel de probabilidad posterior dado, compuesta por los valores cuya densidad posterior supera un umbral. En una dimensión se llama intervalo HPD.",
zh = "给定后验概率水平下体积最小的贝叶斯可信区域,由后验密度高于阈值的所有参数值构成;一维情形常称 HPD 区间。",
term_es = "densidad posterior máxima",
term_zh = "最高后验密度",
aliases_es = { "HPD", "intervalo HPD", "región HPD" },
aliases_zh = { "HPD", "HPD 区间", "最高后验密度区间" },
}
data["highway network"] = {
short = "A deep feedforward architecture that uses learned gating units to control how much of each layer's input passes through unchanged versus is transformed, enabling training of very deep networks.",
article = nil,
aliases = { "Highway Network", "highway net", "highway networks" },
es = "Arquitectura profunda feedforward que utiliza unidades de compuerta aprendidas para controlar qué proporción de la entrada de cada capa pasa sin cambios y qué proporción se transforma, permitiendo entrenar redes muy profundas.",
zh = "一种深层前馈架构,通过可学习的门控单元控制每层输入有多少直接通过、有多少被变换,从而使非常深的网络得以训练。",
term_es = "red highway",
term_zh = "高速公路网络",
aliases_es = { "red autopista", "Highway Network" },
aliases_zh = { "Highway 网络", "高速网络" },
}
data["hinge gan loss"] = {
short = "An adversarial loss using the hinge formulation: the discriminator minimizes max(0, 1 - D(x)) on real samples and max(0, 1 + D(G(z))) on fakes, while the generator maximizes D(G(z)). Standard in SAGAN, BigGAN, and StyleGAN2.",
article = nil,
aliases = { "hinge loss GAN", "GAN hinge loss", "hinge adversarial loss" },
es = "Pérdida adversarial en formulación de hinge: el discriminador minimiza max(0, 1 - D(x)) sobre muestras reales y max(0, 1 + D(G(z))) sobre falsas, mientras el generador maximiza D(G(z)). Estándar en SAGAN, BigGAN y StyleGAN2.",
zh = "采用 hinge 形式的对抗损失:判别器在真实样本上最小化 max(0, 1 - D(x)),在生成样本上最小化 max(0, 1 + D(G(z))),生成器则最大化 D(G(z))。SAGAN、BigGAN 和 StyleGAN2 的标准选择。",
term_es = "hinge GAN loss",
term_zh = "hinge GAN 损失",
aliases_es = { "pérdida hinge para GAN", "pérdida adversarial hinge" },
aliases_zh = { "GAN hinge 损失", "对抗 hinge 损失" },
}
data["hinge loss"] = {
short = "Margin-based classification loss used by support vector machines: max(0, 1 − y·f(x)). Penalizes predictions that fall on the wrong side of the margin.",
article = nil,
aliases = { "SVM loss", "max-margin loss" },
es = "Pérdida de clasificación basada en márgenes utilizada por máquinas de vectores de soporte: max(0, 1 − y·f(x)). Penaliza las predicciones que caen del lado incorrecto del margen.",
zh = "支持向量机所用的基于间隔的分类损失:max(0, 1 − y·f(x))。惩罚落在间隔错误一侧的预测。",
term_es = "pérdida de bisagra",
term_zh = "合页损失",
aliases_es = { "pérdida SVM", "hinge loss" },
aliases_zh = { "hinge loss", "铰链损失" },
}
data["hint loss"] = {
short = "An intermediate-feature distillation loss introduced in FitNets that trains the student's hidden layer to match a hint layer in the teacher, typically via L2 distance after a learned regressor aligns dimensions.",
article = nil,
aliases = { "FitNets hint loss", "intermediate feature distillation loss", "hint-based distillation" },
es = "Pérdida de destilación de características intermedias introducida en FitNets que entrena una capa oculta del estudiante para igualar una capa hint del maestro, típicamente mediante distancia L2 tras un regresor aprendido que alinea dimensiones.",
zh = "FitNets 提出的中间特征蒸馏损失:训练学生的隐藏层去匹配教师中的 hint 层,通常通过先用可学习回归器对齐维度,再计算 L2 距离。",
term_es = "pérdida de hint",
term_zh = "hint 损失",
aliases_es = { "pérdida hint de FitNets", "pérdida de destilación de características intermedias" },
aliases_zh = { "FitNets hint 损失", "中间特征蒸馏损失", "提示损失" },
}
data["hires-cam"] = {
short = "A class activation mapping variant that produces high-resolution saliency maps by using element-wise products of feature maps and gradients without spatial pooling, preserving fine-grained localization of class-discriminative regions.",
article = nil,
aliases = { "HiRes-CAM", "HiResCAM", "High-Resolution CAM" },
es = "Variante de mapeo de activación de clase que genera mapas de saliencia de alta resolución usando productos elemento a elemento entre mapas de características y gradientes sin agrupamiento espacial, preservando la localización detallada de regiones discriminativas de la clase.",
zh = "一种类激活映射变体,通过对特征图和梯度进行逐元素乘积且不进行空间池化来生成高分辨率显著性图,保留类别判别区域的精细定位。",
term_es = "HiRes-CAM",
term_zh = "HiRes-CAM",
aliases_es = { "HiResCAM", "CAM de alta resolución" },
aliases_zh = { "HiResCAM", "高分辨率 CAM" },
}
data["hisat2"] = {
short = "A splice-aware short-read aligner that uses a graph-based FM-index built from the reference plus known variants and splice sites for fast, sensitive alignment of RNA-seq and DNA-seq reads.",
article = nil,
aliases = { "HISAT2", "HISAT 2", "Hisat2" },
es = "Alineador de lecturas cortas con detección de empalme que utiliza un índice FM basado en grafos, construido a partir del genoma de referencia más variantes y sitios de splicing conocidos, para alinear lecturas RNA-seq y DNA-seq de forma rápida y sensible.",
zh = "一款支持剪接感知的短读段比对工具,使用基于图的FM索引(从参考基因组及已知变异、剪接位点构建),可对RNA-seq和DNA-seq读段进行快速、灵敏的比对。",
term_es = "HISAT2",
term_zh = "HISAT2",
aliases_es = { "HISAT2", "Hisat2" },
aliases_zh = { "HISAT2", "Hisat2" },
}
data["histogram binning"] = {
short = "A non-parametric calibration method that partitions predicted probabilities into bins and replaces each prediction with the empirical accuracy observed in its bin on a held-out set.",
article = nil,
aliases = { "histogram calibration", "binning calibration" },
es = "Método de calibración no paramétrico que divide las probabilidades predichas en bins y reemplaza cada predicción por la precisión empírica observada en su bin sobre un conjunto de validación.",
zh = "一种非参数校准方法:将预测概率划分为若干区间(bin),用每个区间在验证集上观测到的经验准确率替换该区间内的预测值。",
term_es = "binning de histograma",
term_zh = "直方图分箱",
aliases_es = { "calibración por histograma", "calibración por bins" },
aliases_zh = { "直方图分箱校准", "分箱校准" },
}
data["histogram filter"] = {
short = "A discrete Bayes filter for state estimation that represents the belief over a continuous state space by a finite-resolution histogram and updates each bin via the prediction-correction recursion.",
article = nil,
aliases = { "discrete Bayes filter", "grid-based filter", "histogram-based filter", "discrete Bayesian filter" },
es = "Filtro bayesiano discreto para estimación de estado que representa la creencia sobre un espacio de estados continuo mediante un histograma de resolución finita y actualiza cada bin con la recursión de predicción-corrección.",
zh = "一种离散贝叶斯滤波器,用有限分辨率的直方图表示对连续状态空间的信念,并通过预测—校正递推更新每个区间的概率。",
term_es = "filtro de histograma",
term_zh = "直方图滤波器",
aliases_es = { "filtro bayesiano discreto", "filtro basado en cuadrícula" },
aliases_zh = { "离散贝叶斯滤波器", "网格滤波器", "直方图贝叶斯滤波器" },
}
data["histone mark prediction"] = {
short = "The computational task of predicting genome-wide profiles of histone modifications (e.g., H3K4me3, H3K27ac) from DNA sequence or other epigenomic features, often using deep learning models trained on ChIP-seq data.",
article = nil,
aliases = { "histone modification prediction", "histone ChIP-seq prediction", "epigenetic mark prediction" },
es = "Tarea computacional de predecir perfiles genómicos de modificaciones de histonas (por ejemplo, H3K4me3, H3K27ac) a partir de la secuencia de ADN u otras características epigenómicas, frecuentemente con modelos de aprendizaje profundo entrenados sobre datos ChIP-seq.",
zh = "从DNA序列或其他表观基因组特征预测全基因组组蛋白修饰(如H3K4me3、H3K27ac)分布的计算任务,常使用基于ChIP-seq数据训练的深度学习模型。",
term_es = "predicción de marcas de histonas",
term_zh = "组蛋白修饰预测",
aliases_es = { "predicción de modificaciones de histonas", "predicción de ChIP-seq de histonas", "predicción de marcas epigenéticas" },
aliases_zh = { "组蛋白标记预测", "组蛋白 ChIP-seq 预测", "表观遗传标记预测" },
}
data["histone modification"] = {
short = "Post-translational chemical modifications (such as methylation, acetylation, phosphorylation, or ubiquitination) on histone tails that influence chromatin structure and gene expression.",
article = nil,
aliases = { "histone mark", "histone marks", "histone PTM", "histone post-translational modification" },
es = "Modificaciones químicas postraduccionales (como metilación, acetilación, fosforilación o ubiquitinación) en las colas de las histonas que influyen en la estructura de la cromatina y la expresión génica.",
zh = "组蛋白尾部发生的翻译后化学修饰(如甲基化、乙酰化、磷酸化或泛素化),影响染色质结构与基因表达。",
term_es = "modificación de histonas",
term_zh = "组蛋白修饰",
aliases_es = { "marca de histona", "modificaciones postraduccionales de histonas", "marcas histónicas" },
aliases_zh = { "组蛋白标记", "组蛋白翻译后修饰", "histone mark" },
}
data["historical bias"] = {
short = "Bias arising when training data faithfully reflects past social inequities or harmful patterns; even a perfectly accurate model can reproduce or amplify these patterns when deployed.",
article = nil,
aliases = { "historic bias", "legacy bias", "preexisting bias" },
es = "Sesgo que surge cuando los datos de entrenamiento reflejan fielmente desigualdades sociales o patrones dañinos del pasado; incluso un modelo perfectamente preciso puede reproducirlos o amplificarlos al desplegarse.",
zh = "当训练数据如实反映过去的社会不平等或有害模式时产生的偏差;即使模型本身完全准确,部署后仍可能复现甚至放大这些模式。",
term_es = "sesgo histórico",
term_zh = "历史偏差",
aliases_es = { "sesgo heredado", "sesgo preexistente" },
aliases_zh = { "历史性偏差", "历史性偏见", "遗留偏差" },
}
data["hit identification"] = {
short = "The early drug discovery stage in which compounds showing measurable activity against a biological target are identified, typically through high-throughput screening, virtual screening, or fragment-based methods.",
article = nil,
aliases = { "hit ID", "hit finding" },
es = "Fase temprana del descubrimiento de fármacos en la que se identifican compuestos con actividad medible frente a una diana biológica, típicamente mediante cribado de alto rendimiento, cribado virtual o métodos basados en fragmentos.",
zh = "药物发现的早期阶段,通过高通量筛选、虚拟筛选或基于片段的方法,识别对生物靶点具有可测量活性的化合物。",
term_es = "identificación de hits",
term_zh = "苗头化合物识别",
aliases_es = { "identificación de compuestos hit", "búsqueda de hits" },
aliases_zh = { "hit 识别", "活性化合物识别" },
}
data["hit-to-lead"] = {
short = "The medicinal chemistry stage in which initial active compounds (hits) are optimized into lead series with improved potency, selectivity, and drug-like properties prior to lead optimization.",
article = nil,
aliases = { "hit to lead", "H2L" },
es = "Etapa de química medicinal en la que los compuestos activos iniciales (hits) se optimizan a series de leads con mejor potencia, selectividad y propiedades de drogabilidad, antes de la optimización del lead.",
zh = "药物化学阶段,将最初的活性化合物(hit)优化为具有更高活性、选择性和成药性质的先导化合物系列,为后续先导优化做准备。",
term_es = "hit-to-lead",
term_zh = "苗头到先导",
aliases_es = { "de hit a lead", "H2L" },
aliases_zh = { "hit-to-lead", "H2L", "苗头化合物到先导化合物" },
}
data["hits at k"] = {
short = "A ranking metric used in knowledge graph completion and information retrieval that measures the proportion of test queries for which the correct answer appears among the top-k ranked candidates.",
article = nil,
aliases = { "Hits@K", "Hits@k", "H@k", "hit rate at k", "Hits at K" },
es = "Una métrica de ranking utilizada en completación de grafos de conocimiento y recuperación de información que mide la proporción de consultas de prueba en las que la respuesta correcta aparece entre los k candidatos mejor clasificados.",
zh = "用于知识图谱补全和信息检索的排名指标,衡量测试查询中正确答案出现在前 k 个候选中的比例。",
term_es = "Hits@K",
term_zh = "Hits@K",
aliases_es = { "Hits@K", "Hits@k", "H@k", "tasa de aciertos en k" },
aliases_zh = { "Hits@K", "Hits@k", "H@k", "前 k 命中率" },
}
data["hits at top-k attribution"] = {
short = "An evaluation metric for attribution methods that measures the fraction of cases in which the ground-truth important features (e.g., from a known synthetic mask) appear among the top-k features ranked by attribution score.",
article = nil,
aliases = { "hits@k attribution", "top-k attribution hits", "attribution hits@k" },
es = "Métrica de evaluación para métodos de atribución que mide la fracción de casos en los que las características realmente importantes (por ejemplo, dadas por una máscara sintética conocida) aparecen entre las k características mejor clasificadas por la puntuación de atribución.",
zh = "评估归因方法的指标,衡量在归因分数排序的前 k 个特征中包含真实重要特征(例如来自已知合成掩码)的案例比例。",
term_es = "aciertos en top-k de atribución",
term_zh = "归因 top-k 命中率",
aliases_es = { "hits@k de atribución", "atribución hits@k" },
aliases_zh = { "归因 hits@k", "top-k 归因命中" },
}
data["hiv dataset"] = {
short = "A MoleculeNet benchmark dataset of about 41,000 compounds labeled for their ability to inhibit HIV replication, widely used to evaluate molecular property prediction models.",
article = nil,
aliases = { "HIV dataset", "MoleculeNet HIV" },
es = "Conjunto de datos de referencia de MoleculeNet con unos 41 000 compuestos etiquetados según su capacidad de inhibir la replicación del VIH; se utiliza ampliamente para evaluar modelos de predicción de propiedades moleculares.",
zh = "MoleculeNet 提供的基准数据集,包含约 41,000 个标注其抑制 HIV 复制能力的化合物,广泛用于分子性质预测模型的评估。",
term_es = "conjunto de datos HIV",
term_zh = "HIV 数据集",
aliases_es = { "dataset HIV", "HIV de MoleculeNet" },
aliases_zh = { "MoleculeNet HIV 数据集" },
}
data["hmm-based tts"] = {
short = "A statistical parametric text-to-speech approach that models acoustic features (spectrum, F0, duration) with hidden Markov models trained on speech corpora; popularized by the HTS toolkit.",
article = nil,
aliases = { "HMM-based TTS", "HMM TTS", "HMM-based speech synthesis", "statistical parametric speech synthesis", "HTS" },
es = "Enfoque de síntesis de voz paramétrica estadística que modela las características acústicas (espectro, F0, duración) con modelos ocultos de Markov entrenados sobre corpus de voz; popularizado por la herramienta HTS.",
zh = "一种统计参数语音合成方法,使用隐马尔可夫模型对声学特征(频谱、基频、时长)进行建模,在语音语料库上训练;由 HTS 工具包推广。",
term_es = "TTS basado en HMM",
term_zh = "基于 HMM 的语音合成",
aliases_es = { "TTS HMM", "síntesis de voz basada en HMM", "síntesis paramétrica estadística", "HTS" },
aliases_zh = { "HMM TTS", "基于 HMM 的 TTS", "统计参数语音合成", "HTS" },
}
data["hmmer"] = {
short = "A software suite for searching biological sequence databases for homologs of protein or nucleotide sequences using profile hidden Markov models built from multiple sequence alignments.",
article = nil,
aliases = { "HMMER", "hmmsearch", "hmmscan", "HMMER3" },
es = "Suite de software para buscar homólogos de secuencias proteicas o nucleotídicas en bases de datos biológicas mediante modelos ocultos de Markov de perfil construidos a partir de alineamientos múltiples.",
zh = "一套生物序列数据库搜索软件,使用基于多序列比对构建的profile隐马尔可夫模型,在数据库中查找蛋白质或核苷酸序列的同源物。",
term_es = "HMMER",
term_zh = "HMMER",
aliases_es = { "HMMER", "hmmsearch", "hmmscan" },
aliases_zh = { "HMMER", "hmmsearch", "hmmscan" },
}
data["hnsw"] = {
short = "A graph-based approximate nearest neighbor index that builds a multi-layer navigable small-world graph over data points, providing logarithmic search time with high recall.",
article = nil,
aliases = { "HNSW", "Hierarchical Navigable Small World", "hierarchical navigable small world graph", "HNSW index" },
es = "Índice basado en grafos para vecinos más cercanos aproximados que construye un grafo de mundo pequeño navegable multicapa sobre los puntos de datos, ofreciendo tiempo de búsqueda logarítmico con alto recall.",
zh = "一种基于图的近似最近邻索引,在数据点上构建多层可导航小世界图,实现对数级搜索时间并保持较高召回率。",
term_es = "HNSW",
term_zh = "HNSW",
aliases_es = { "HNSW", "grafo de mundo pequeño navegable jerárquico", "índice HNSW" },
aliases_zh = { "HNSW", "分层可导航小世界图", "HNSW 索引" },
}
data["hoeffding inequality"] = {
short = "A concentration inequality giving exponential bounds on the probability that the empirical mean of independent, bounded random variables deviates from its expectation by more than a given amount; widely used in PAC learning and bandit theory.",
article = nil,
aliases = { "Hoeffding's inequality", "Hoeffding inequality", "Hoeffding bound", "Hoeffding's bound" },
es = "Desigualdad de concentración que da cotas exponenciales para la probabilidad de que la media empírica de variables aleatorias independientes y acotadas se desvíe de su esperanza más de una cantidad dada; muy utilizada en aprendizaje PAC y en la teoría de bandits.",
zh = "一种集中不等式,对独立有界随机变量的经验均值偏离其期望超过给定量的概率给出指数级上界;在 PAC 学习和老虎机理论中被广泛使用。",
term_es = "desigualdad de Hoeffding",
term_zh = "Hoeffding 不等式",
aliases_es = { "desigualdad Hoeffding", "cota de Hoeffding" },
aliases_zh = { "Hoeffding 不等式", "Hoeffding 界", "霍夫丁不等式" },
}
data["hogwild sgd"] = {
short = "A lock-free parallel implementation of stochastic gradient descent in which multiple threads update shared parameters concurrently without synchronization, exploiting sparsity to bound conflict-induced error.",
article = nil,
aliases = { "Hogwild!", "Hogwild", "Hogwild! SGD", "lock-free SGD", "asynchronous parallel SGD" },
es = "Implementación paralela sin bloqueos del descenso de gradiente estocástico en la que múltiples hilos actualizan parámetros compartidos de forma concurrente sin sincronización, aprovechando la dispersión para acotar el error por conflictos.",
zh = "一种无锁并行的随机梯度下降实现,多个线程在不加同步的情况下并发更新共享参数,利用梯度的稀疏性来限制冲突造成的误差。",
term_es = "Hogwild SGD",
term_zh = "Hogwild SGD",
aliases_es = { "Hogwild!", "SGD sin bloqueos", "SGD paralelo asíncrono" },
aliases_zh = { "Hogwild!", "无锁 SGD", "异步并行 SGD" },
}
data["holdout set"] = {
short = "Any subset of the data set aside from training and reserved for validation or testing; the term often refers to a single split used for model evaluation rather than cross-validation.",
article = nil,
aliases = { "hold-out set", "holdout sample", "held-out set", "holdout split" },
es = "Subconjunto de datos apartado del entrenamiento y reservado para validación o prueba; el término suele referirse a una única partición utilizada para evaluar el modelo, en lugar de validación cruzada.",
zh = "从训练数据中分离出来、用于验证或测试的子集;该术语通常指用于模型评估的单一划分,而非交叉验证。",
term_es = "conjunto de retención",
term_zh = "保留集",
aliases_es = { "muestra de retención", "partición de retención", "holdout" },
aliases_zh = { "留出集", "保留数据集", "holdout集" },
}
data["holistic fairness"] = {
short = "An evaluation approach that considers multiple fairness criteria, harm types, and stakeholder perspectives jointly, rather than optimizing or auditing a single metric in isolation.",
article = nil,
aliases = { "holistic fairness evaluation", "multi-dimensional fairness" },
es = "Enfoque de evaluación que considera de forma conjunta múltiples criterios de equidad, tipos de daño y perspectivas de las partes interesadas, en lugar de optimizar o auditar una sola métrica de manera aislada.",
zh = "一种评估方法,综合考虑多种公平性准则、危害类型和利益相关者视角,而非孤立地优化或审计单一指标。",
term_es = "equidad holística",
term_zh = "整体公平性",
aliases_es = { "evaluación holística de equidad", "equidad multidimensional" },
aliases_zh = { "综合公平性", "多维公平性", "整体公平性评估" },
}
data["holisticbias"] = {
short = "A large dataset of identity descriptors and template sentences released by Meta AI to probe demographic bias in language models across many axes including age, ability, body, race, religion, and sexual orientation.",
article = nil,
aliases = { "HolisticBias", "Holistic Bias", "HolisticBias dataset", "HolisticBias benchmark" },
es = "Conjunto de datos amplio publicado por Meta AI con descriptores identitarios y frases plantilla, usado para sondear el sesgo demográfico en modelos de lenguaje a través de múltiples ejes (edad, discapacidad, cuerpo, raza, religión, orientación sexual).",
zh = "由 Meta AI 发布的大型数据集,包含身份描述词与模板句,用于在年龄、能力、体型、种族、宗教、性取向等多维度上探测语言模型的人口偏差。",
term_es = "HolisticBias",
term_zh = "HolisticBias",
aliases_es = { "conjunto HolisticBias", "benchmark HolisticBias" },
aliases_zh = { "HolisticBias 数据集", "HolisticBias 基准" },
}
data["holographic embedding"] = {
short = "A knowledge graph embedding model (HolE) that scores triples using the circular correlation of subject and object vectors, capturing rich asymmetric interactions while keeping the parameter count comparable to TransE.",
article = nil,
aliases = { "HolE", "HolE embedding", "holographic embeddings", "Holographic Embeddings of Knowledge Graphs" },
es = "Un modelo de incrustación de grafos de conocimiento (HolE) que puntúa tripletas mediante la correlación circular de los vectores del sujeto y del objeto, capturando interacciones asimétricas ricas con un número de parámetros comparable al de TransE.",
zh = "一种知识图谱嵌入模型(HolE),使用主语和宾语向量的循环相关运算来对三元组打分,在参数量与 TransE 相当的情况下捕获丰富的非对称交互。",
term_es = "embedding holográfico",
term_zh = "全息嵌入",
aliases_es = { "HolE", "incrustación holográfica", "embedding HolE" },
aliases_zh = { "HolE", "全息嵌入模型", "HolE 嵌入" },
}
data["holstep"] = {
short = "A machine-learning dataset for higher-order logic theorem proving extracted from the HOL Light proof assistant, providing millions of step-level training examples for tasks such as premise selection and proof step classification.",
article = nil,
aliases = { "HolStep", "HOLStep", "HolStep dataset", "HOL Light HolStep" },
es = "Un conjunto de datos de aprendizaje automático para demostración de teoremas en lógica de orden superior, extraído del asistente de demostración HOL Light, que proporciona millones de ejemplos a nivel de paso para tareas como selección de premisas y clasificación de pasos de prueba.",
zh = "一个面向高阶逻辑定理证明的机器学习数据集,从 HOL Light 证明助手中提取,提供数百万个步骤级训练样例,用于前提选择、证明步骤分类等任务。",
term_es = "HolStep",
term_zh = "HolStep",
aliases_es = { "HolStep", "conjunto HolStep", "HolStep dataset" },
aliases_zh = { "HolStep", "HolStep 数据集", "HOL Light HolStep" },
}
data["homer motif analysis"] = {
short = "A toolkit (Hypergeometric Optimization of Motif EnRichment) for de novo motif discovery and known-motif enrichment analysis from ChIP-seq, ATAC-seq, and other genomic interval datasets.",
article = nil,
aliases = { "HOMER", "HOMER motif analysis", "Hypergeometric Optimization of Motif EnRichment", "findMotifs.pl", "findMotifsGenome.pl" },
es = "Conjunto de herramientas (Hypergeometric Optimization of Motif EnRichment) para descubrimiento de motivos de novo y análisis de enriquecimiento de motivos conocidos a partir de datos ChIP-seq, ATAC-seq y otros intervalos genómicos.",
zh = "一款用于从ChIP-seq、ATAC-seq等基因组区间数据中进行从头基序发现和已知基序富集分析的工具集(Hypergeometric Optimization of Motif EnRichment)。",
term_es = "análisis de motivos con HOMER",
term_zh = "HOMER 基序分析",
aliases_es = { "HOMER", "HOMER motif analysis", "findMotifs.pl", "findMotifsGenome.pl" },
aliases_zh = { "HOMER", "HOMER 基序分析", "HOMER motif analysis", "findMotifs.pl" },
}
data["homology modeling"] = {
short = "A computational method that builds a three-dimensional model of a protein from its sequence by using one or more experimentally determined structures of homologous proteins as templates.",
article = nil,
aliases = { "homology modelling", "comparative modeling", "comparative modelling" },
es = "Método computacional que construye un modelo tridimensional de una proteína a partir de su secuencia utilizando como plantillas una o más estructuras experimentales de proteínas homólogas.",
zh = "一种计算方法,以一个或多个同源蛋白质的实验结构为模板,从序列出发构建蛋白质的三维结构模型。",
term_es = "modelado por homología",
term_zh = "同源建模",
aliases_es = { "modelado comparativo", "modelaje por homología" },
aliases_zh = { "比较建模", "同源性建模" },
}
data["homomorphic encryption"] = {
short = "A form of encryption that permits computation directly on ciphertexts so that the decrypted result matches the result of the same operations performed on the plaintexts, enabling privacy-preserving outsourced computation.",
article = nil,
aliases = { "HE", "FHE", "fully homomorphic encryption", "partially homomorphic encryption", "PHE", "somewhat homomorphic encryption", "SHE" },
es = "Forma de cifrado que permite realizar cálculos directamente sobre los cifrados de modo que el resultado descifrado coincide con el de las mismas operaciones aplicadas al texto en claro, posibilitando cómputo externalizado con preservación de la privacidad.",
zh = "一类加密方案,允许直接对密文进行计算,使解密后的结果与对明文执行相同运算的结果一致,从而支持隐私保护的外包计算。",
term_es = "cifrado homomórfico",
term_zh = "同态加密",
aliases_es = { "HE", "FHE", "cifrado totalmente homomórfico", "cifrado parcialmente homomórfico" },
aliases_zh = { "HE", "FHE", "全同态加密", "部分同态加密" },
}
data["homoscedastic noise"] = {
short = "Observation noise whose variance is constant across all inputs, in contrast to heteroscedastic noise. A standard assumption in classical regression and many Gaussian process models.",
article = nil,
aliases = { "homoscedastic", "homoscedasticity", "constant-variance noise", "homoskedastic noise" },
es = "Ruido de observación cuya varianza es constante para todas las entradas, en contraste con el ruido heterocedástico. Es la hipótesis habitual en regresión clásica y en muchos procesos gaussianos.",
zh = "观测噪声的方差对所有输入保持不变,与异方差(heteroscedastic)噪声相对,是经典回归和许多高斯过程模型的标准假设。",
term_es = "ruido homocedástico",
term_zh = "同方差噪声",
aliases_es = { "homocedasticidad", "ruido de varianza constante" },
aliases_zh = { "等方差噪声", "同方差性" },
}
data["honest causal forest"] = {
short = "A causal forest in which the data used to choose tree splits is disjoint from the data used to estimate leaf treatment effects, ensuring asymptotically valid pointwise confidence intervals for heterogeneous effects.",
article = nil,
aliases = { "honest causal forests", "honest random forest", "honest tree causal forest" },
es = "Bosque causal en el que los datos utilizados para elegir las divisiones del árbol son disjuntos de los usados para estimar los efectos del tratamiento en las hojas, garantizando intervalos de confianza puntuales asintóticamente válidos para efectos heterogéneos.",
zh = "一种因果森林,用于选择树节点划分的数据与用于估计叶节点处理效应的数据相互不相交,从而为异质效应提供渐近有效的逐点置信区间。",
term_es = "bosque causal honesto",
term_zh = "诚实因果森林",
aliases_es = { "bosques causales honestos", "bosque aleatorio honesto" },
aliases_zh = { "诚实因果森林算法", "honest causal forest" },
}
data["honest splitting"] = {
short = "Sample-splitting strategy used in causal forests in which one subsample determines tree structure (splits) and a disjoint subsample estimates leaf-level treatment effects, yielding valid pointwise confidence intervals.",
article = nil,
aliases = { "honest sampling", "honest trees", "honest estimation" },
es = "Estrategia de partición de la muestra en bosques causales en la que un subconjunto determina la estructura del árbol y otro disjunto estima los efectos en las hojas, garantizando intervalos de confianza válidos.",
zh = "因果森林中的样本拆分策略:用一部分样本决定树的分裂结构,用另一互不相交的部分估计叶节点的处理效应,从而得到有效的置信区间。",
term_es = "partición honesta",
term_zh = "诚实拆分",
aliases_es = { "muestreo honesto", "estimación honesta" },
aliases_zh = { "诚实采样", "诚实估计" },
}
data["hopfield network"] = {
short = "A recurrent neural network with symmetric weights that serves as content-addressable associative memory by converging to stored patterns from noisy inputs through energy minimization.",
article = nil,
aliases = { "Hopfield network", "Hopfield net", "Hopfield networks", "associative memory network" },
es = "Red neuronal recurrente con pesos simétricos que funciona como memoria asociativa direccionable por contenido, convergiendo a patrones almacenados a partir de entradas ruidosas mediante la minimización de una energía.",
zh = "一种带对称权重的循环神经网络,作为基于内容寻址的联想记忆,通过最小化能量函数从带噪输入收敛到存储的模式。",
term_es = "red de Hopfield",
term_zh = "Hopfield 网络",
aliases_es = { "red Hopfield", "redes de Hopfield", "memoria asociativa de Hopfield" },
aliases_zh = { "Hopfield 神经网络", "霍普菲尔德网络", "联想记忆网络" },
}
data["horizontal federated learning"] = {
short = "A federated learning setting in which participating clients hold datasets that share the same feature space but differ in samples, so training proceeds by averaging models trained on each client's local rows.",
article = nil,
aliases = { "HFL", "sample-partitioned federated learning", "homogeneous federated learning" },
es = "Configuración de aprendizaje federado en la que los clientes participantes poseen conjuntos de datos que comparten el mismo espacio de características pero difieren en las muestras, por lo que el entrenamiento procede promediando modelos entrenados sobre las filas locales de cada cliente.",
zh = "一种联邦学习设定,各参与客户端持有的数据集特征空间相同但样本不同,训练过程通过对各客户端在其本地行上训练得到的模型进行聚合实现。",
term_es = "aprendizaje federado horizontal",
term_zh = "横向联邦学习",
aliases_es = { "HFL", "aprendizaje federado particionado por muestras" },
aliases_zh = { "HFL", "水平联邦学习", "样本划分联邦学习" },
}
data["horizontal pleiotropy"] = {
short = "In Mendelian randomization, the situation where a genetic instrument affects the outcome through pathways other than the exposure of interest, violating the exclusion-restriction assumption.",
article = nil,
aliases = { "pleiotropy", "exclusion violation in MR" },
es = "En aleatorización mendeliana, situación en la que una variante genética usada como instrumento afecta el resultado por vías distintas a la exposición de interés, violando la restricción de exclusión.",
zh = "在孟德尔随机化中,遗传工具变量通过暴露因素以外的路径影响结局,违反排除性约束假设的情形。",
term_es = "pleiotropía horizontal",
term_zh = "水平多效性",
aliases_es = { "pleiotropía" },
aliases_zh = { "多效性", "水平基因多效性" },
}
data["horizontally partitioned data"] = {
short = "Data distributed across parties such that each party holds a disjoint subset of rows (samples) over a common feature schema; the canonical setting for horizontal federated learning.",
article = nil,
aliases = { "row-partitioned data", "sample-partitioned data", "horizontal partitioning" },
es = "Datos distribuidos entre partes de forma que cada parte posee un subconjunto disjunto de filas (muestras) sobre un esquema común de características; el escenario canónico del aprendizaje federado horizontal.",
zh = "在多方之间分布的数据,各方持有同一特征模式下互不相交的行(样本)子集;这是横向联邦学习的标准设定。",
term_es = "datos particionados horizontalmente",
term_zh = "水平划分数据",
aliases_es = { "datos particionados por filas", "particionamiento horizontal" },
aliases_zh = { "按行划分的数据", "样本划分数据", "水平分区" },
}
data["horn clause"] = {
short = "A disjunctive clause containing at most one positive literal; Horn clauses underpin logic programming languages such as Prolog and admit efficient SLD-resolution and polynomial-time satisfiability for propositional Horn formulas.",
article = nil,
aliases = { "Horn clause", "Horn clauses", "Horn formula", "definite clause" },
es = "Una cláusula disyuntiva con a lo sumo un literal positivo; las cláusulas de Horn fundamentan lenguajes de programación lógica como Prolog y admiten resolución SLD eficiente y satisfacibilidad polinómica para fórmulas Horn proposicionales.",
zh = "一种至多包含一个正文字的析取子句;Horn 子句是 Prolog 等逻辑编程语言的基础,且支持高效的 SLD 归结,命题 Horn 公式的可满足性可在多项式时间内判定。",
term_es = "cláusula de Horn",
term_zh = "Horn 子句",
aliases_es = { "cláusulas de Horn", "fórmula de Horn", "cláusula definida" },
aliases_zh = { "Horn 子句", "Horn 公式", "确定子句" },
}
data["horovod"] = {
short = "An open-source distributed deep learning framework that uses ring-allreduce over MPI or NCCL to synchronize gradients across workers, providing data-parallel training for TensorFlow, PyTorch, and Keras.",
article = nil,
aliases = { "Horovod", "Uber Horovod" },
es = "Marco de aprendizaje profundo distribuido de código abierto que utiliza ring-allreduce sobre MPI o NCCL para sincronizar gradientes entre trabajadores, ofreciendo entrenamiento paralelo de datos para TensorFlow, PyTorch y Keras.",
zh = "一种开源分布式深度学习框架,基于 MPI 或 NCCL 使用 ring-allreduce 在工作节点间同步梯度,为 TensorFlow、PyTorch 和 Keras 提供数据并行训练。",
term_es = "Horovod",
term_zh = "Horovod",
aliases_es = { "Horovod de Uber" },
aliases_zh = { "Uber Horovod" },
}
data["horseshoe prior"] = {
short = "A continuous shrinkage prior with a spike of mass near zero and heavy Cauchy-like tails, written as a scale mixture of normals with half-Cauchy local and global scales. Induces sparsity while preserving large signals.",
article = nil,
aliases = { "horseshoe", "horseshoe shrinkage prior" },
es = "Prior continuo de contracción con un pico de masa cerca de cero y colas pesadas tipo Cauchy, expresado como mezcla de escala de normales con escalas local y global semi-Cauchy. Induce dispersidad sin atenuar las señales grandes.",
zh = "一种连续收缩先验:在零附近有强烈集中、尾部呈柯西式厚尾,可表示为局部和全局尺度均为半柯西分布的正态尺度混合。能在保留大信号的同时诱导稀疏性。",
term_es = "prior horseshoe",
term_zh = "马蹄先验",
aliases_es = { "horseshoe", "prior de herradura" },
aliases_zh = { "horseshoe 先验", "马蹄形先验" },
}
data["horvath clock"] = {
short = "An epigenetic age estimator that predicts biological age from DNA methylation levels at a fixed set of CpG sites using a penalized regression model trained across multiple tissues.",
article = nil,
aliases = { "Horvath clock", "Horvath epigenetic clock", "Horvath DNA methylation clock", "Horvath's clock" },
es = "Estimador de edad epigenética que predice la edad biológica a partir de los niveles de metilación del ADN en un conjunto fijo de sitios CpG, usando un modelo de regresión penalizada entrenado sobre múltiples tejidos.",
zh = "一种表观遗传年龄估计模型,使用在多种组织上训练的惩罚回归模型,从一组固定CpG位点的DNA甲基化水平预测生物学年龄。",
term_es = "reloj de Horvath",
term_zh = "Horvath 时钟",
aliases_es = { "reloj epigenético de Horvath", "reloj de metilación de Horvath" },
aliases_zh = { "Horvath 表观遗传时钟", "Horvath 甲基化时钟", "霍瓦特时钟" },
}
data["hotflip"] = {
short = "A white-box adversarial attack on text classifiers that uses gradients with respect to one-hot input vectors to identify single-character or single-token substitutions that maximally change the model's prediction.",
article = nil,
aliases = { "HotFlip", "Hot Flip" },
es = "Ataque adversarial de caja blanca contra clasificadores de texto que usa gradientes respecto a los vectores de entrada one-hot para identificar sustituciones de un solo carácter o token que cambian al máximo la predicción del modelo.",
zh = "一种针对文本分类器的白盒对抗攻击,利用对独热输入向量的梯度来识别能够最大改变模型预测的单字符或单词元替换。",
term_es = "HotFlip",
term_zh = "HotFlip",
aliases_es = { "Hot Flip" },
aliases_zh = { "HotFlip 攻击", "Hot Flip" },
}
data["hotpotqa"] = {
short = "A multi-hop question answering dataset built on Wikipedia in which answering each question requires reasoning over multiple supporting documents, with sentence-level supporting fact annotations to evaluate explainable reasoning.",
article = nil,
aliases = { "HotpotQA", "Hotpot QA", "HotpotQA dataset", "HotpotQA benchmark" },
es = "Un conjunto de preguntas-respuestas de múltiples saltos basado en Wikipedia, en el que responder a cada pregunta exige razonar sobre varios documentos de apoyo, con anotaciones a nivel de oración para evaluar el razonamiento explicable.",
zh = "一个基于维基百科的多跳问答数据集,要求对多篇支撑文档进行推理才能回答问题,并提供句子级别的支撑事实标注以评估可解释推理。",
term_es = "HotpotQA",
term_zh = "HotpotQA",
aliases_es = { "HotpotQA", "Hotpot QA", "conjunto HotpotQA" },
aliases_zh = { "HotpotQA", "HotpotQA 数据集", "HotpotQA 基准" },
}
data["hotspot prediction"] = {
short = "Identification of genomic, proteomic, or interaction-interface positions that recur as functional or mutational focal points across samples or studies, using statistical or machine learning models.",
article = nil,
aliases = { "mutation hotspot prediction", "mutational hotspot detection", "interaction hotspot prediction" },
es = "Identificación de posiciones genómicas, proteómicas o de interfaces de interacción que se repiten como focos funcionales o mutacionales entre muestras o estudios, mediante modelos estadísticos o de aprendizaje automático.",
zh = "使用统计或机器学习模型识别在多个样本或研究中反复出现的功能或突变热点位置,可位于基因组、蛋白质组或相互作用界面。",
term_es = "predicción de hotspots",
term_zh = "热点预测",
aliases_es = { "predicción de hotspots de mutación", "detección de hotspots mutacionales", "predicción de hotspots de interacción" },
aliases_zh = { "突变热点预测", "突变热点检测", "相互作用热点预测", "hotspot 预测" },
}
data["householder flow"] = {
short = "A normalizing flow that composes Householder reflections to form orthogonal linear transformations of the latent variables, giving unit-Jacobian volume-preserving steps usable inside variational posteriors.",
article = nil,
aliases = { "Householder flows", "Householder normalizing flow" },
es = "Flujo normalizador que compone reflexiones de Householder para construir transformaciones lineales ortogonales del latente, produciendo pasos con jacobiano unitario que preservan el volumen y se usan dentro de posteriores variacionales.",
zh = "一种正规化流:通过组合 Householder 反射构造潜变量的正交线性变换,每步雅可比行列式为 1,保持体积不变,常用于变分后验。",
term_es = "flujo de Householder",
term_zh = "Householder 流",
aliases_es = { "flujos Householder" },
aliases_zh = { "Householder 正规化流", "豪斯霍尔德流" },
}
data["howl wake word"] = {
short = "An open-source wake-word detection toolkit and dataset developed by the University of Waterloo, designed for small-footprint, browser-deployable keyword spotting models.",
article = nil,
aliases = { "Howl", "Howl toolkit", "Howl wake-word", "Howl keyword spotting" },
es = "Herramienta y conjunto de datos de código abierto para detección de palabras de activación, desarrollados por la Universidad de Waterloo y diseñados para modelos de detección de palabras clave de bajo consumo desplegables en el navegador.",
zh = "由滑铁卢大学开发的开源唤醒词检测工具包和数据集,面向小体积、可在浏览器部署的关键词检测模型。",
term_es = "Howl",
term_zh = "Howl",
aliases_es = { "Howl wake word", "kit Howl" },
aliases_zh = { "Howl 唤醒词", "Howl 工具包" },
}
data["howto100m"] = {
short = "A large-scale dataset (Miech et al., 2019) of 136 million video clips paired with narrated transcripts from 1.2 million instructional YouTube videos, widely used for video-text representation learning.",
article = nil,
aliases = { "HowTo100M", "HowTo-100M", "HowTo100M dataset" },
es = "Conjunto de datos a gran escala (Miech et al., 2019) con 136 millones de clips de video emparejados con transcripciones narradas de 1.2 millones de videos instructivos de YouTube, ampliamente utilizado para aprendizaje de representaciones video-texto.",
zh = "由 Miech 等人于 2019 年发布的大规模数据集,包含来自 120 万段 YouTube 教学视频的 1.36 亿段视频片段及其旁白文字,广泛用于视频-文本表示学习。",
term_es = "HowTo100M",
term_zh = "HowTo100M",
aliases_es = { "HowTo-100M", "conjunto HowTo100M" },
aliases_zh = { "HowTo-100M", "HowTo100M 数据集" },
}
data["hsic attribution"] = {
short = "A model-agnostic attribution method that ranks input features by their Hilbert-Schmidt Independence Criterion (HSIC) with the model output, capturing nonlinear statistical dependence without assuming a particular model form.",
article = nil,
aliases = { "HSIC attribution", "HSIC-based attribution", "Hilbert-Schmidt attribution" },
es = "Método de atribución agnóstico al modelo que ordena las características de entrada según su criterio de independencia de Hilbert-Schmidt (HSIC) con la salida del modelo, capturando dependencia estadística no lineal sin asumir una forma de modelo específica.",
zh = "一种与模型无关的归因方法,根据输入特征与模型输出之间的 Hilbert-Schmidt 独立性准则(HSIC)对特征排序,能够捕捉非线性统计依赖而无需假设特定模型形式。",
term_es = "atribución HSIC",
term_zh = "HSIC 归因",
aliases_es = { "atribución basada en HSIC", "atribución de Hilbert-Schmidt" },
aliases_zh = { "基于 HSIC 的归因", "Hilbert-Schmidt 归因" },
}
data["htdemucs"] = {
short = "Hybrid Transformer Demucs, a music source separation model that extends Hybrid Demucs with cross-domain transformer layers to separate a mixture into vocals, drums, bass, and other stems.",
article = nil,
aliases = { "HTDemucs", "Hybrid Transformer Demucs", "HT-Demucs" },
es = "Hybrid Transformer Demucs, modelo de separación de fuentes musicales que extiende Hybrid Demucs con capas de transformer entre dominios para separar una mezcla en voces, batería, bajo y otros stems.",
zh = "混合 Transformer Demucs,一种音乐源分离模型,在 Hybrid Demucs 基础上引入跨域 Transformer 层,将混合音频分离为人声、鼓、贝斯和其他声部。",
term_es = "HTDemucs",
term_zh = "HTDemucs",
aliases_es = { "Hybrid Transformer Demucs" },
aliases_zh = { "Hybrid Transformer Demucs", "混合 Transformer Demucs" },
}
data["htsat"] = {
short = "Hierarchical Token-Semantic Audio Transformer, a Swin-Transformer-based architecture for audio classification and tagging that achieves strong results on AudioSet and ESC-50.",
article = nil,
aliases = { "HTS-AT", "HTSAT", "Hierarchical Token-Semantic Audio Transformer" },
es = "Hierarchical Token-Semantic Audio Transformer, arquitectura basada en Swin-Transformer para clasificación y etiquetado de audio que obtiene resultados destacados en AudioSet y ESC-50.",
zh = "层次化 Token 语义音频 Transformer,一种基于 Swin Transformer 的音频分类与标注架构,在 AudioSet 和 ESC-50 上取得优异结果。",
term_es = "HTS-AT",
term_zh = "HTS-AT",
aliases_es = { "HTSAT", "Hierarchical Token-Semantic Audio Transformer" },
aliases_zh = { "HTSAT", "层次化 Token 语义音频 Transformer" },
}
data["htseq-count"] = {
short = "A Python utility from the HTSeq library that counts the number of aligned RNA-seq reads overlapping each gene in a GFF/GTF annotation, commonly used as input to differential expression analysis.",
article = nil,
aliases = { "HTSeq-count", "htseq count", "htseq-count" },
es = "Utilidad en Python de la biblioteca HTSeq que cuenta el número de lecturas RNA-seq alineadas que solapan con cada gen en una anotación GFF/GTF, comúnmente usada como entrada para análisis de expresión diferencial.",
zh = "HTSeq库提供的Python工具,根据GFF/GTF注释统计每个基因上比对到的RNA-seq读段数,常作为差异表达分析的输入。",
term_es = "htseq-count",
term_zh = "htseq-count",
aliases_es = { "HTSeq-count", "htseq count" },
aliases_zh = { "HTSeq-count", "HTSeq 计数" },
}
data["htslib"] = {
short = "A C library implementing read/write support for high-throughput sequencing formats including SAM, BAM, CRAM, VCF, and BCF; the foundation underlying samtools, bcftools, and many bioinformatics tools.",
article = nil,
aliases = { "HTSlib", "hts library", "htslib library" },
es = "Biblioteca en C que implementa lectura y escritura de formatos de secuenciación de alto rendimiento como SAM, BAM, CRAM, VCF y BCF; constituye la base de samtools, bcftools y muchas herramientas bioinformáticas.",
zh = "一款C语言库,实现对SAM、BAM、CRAM、VCF和BCF等高通量测序格式的读写支持,是samtools、bcftools及众多生物信息学工具的底层基础。",
term_es = "HTSlib",
term_zh = "HTSlib",
aliases_es = { "HTSlib", "biblioteca htslib" },
aliases_zh = { "HTSlib", "htslib 库" },
}
data["huber loss"] = {
short = "A regression loss that is quadratic for small errors and linear for large ones, controlled by a threshold delta. Combines MSE smoothness with MAE robustness.",
article = nil,
aliases = { "Huber", "Huber's loss" },
es = "Pérdida de regresión que es cuadrática para errores pequeños y lineal para errores grandes, controlada por un umbral delta. Combina la suavidad del MSE con la robustez del MAE.",
zh = "一种回归损失,对小误差为二次形式,对大误差为线性形式,由阈值 delta 控制。结合了 MSE 的平滑性与 MAE 的稳健性。",
term_es = "pérdida de Huber",
term_zh = "Huber 损失",
aliases_es = { "Huber" },
aliases_zh = { "Huber", "胡贝尔损失" },
}
data["hubert"] = {
short = "Hidden-Unit BERT, a self-supervised speech representation model that learns by predicting cluster assignments of masked audio frames, producing strong features for downstream ASR.",
article = nil,
aliases = { "HuBERT", "Hidden-Unit BERT", "Hidden Unit BERT" },
es = "Hidden-Unit BERT, modelo de representación de voz autosupervisado que aprende prediciendo asignaciones de clúster de tramas de audio enmascaradas, generando representaciones potentes para ASR posterior.",
zh = "Hidden-Unit BERT,一种自监督语音表征模型,通过预测被掩码音频帧的聚类分配进行学习,为下游 ASR 提供强大特征。",
term_es = "HuBERT",
term_zh = "HuBERT",
aliases_es = { "Hidden-Unit BERT" },
aliases_zh = { "Hidden-Unit BERT", "隐单元 BERT" },
}
data["hubert clusters"] = {
short = "The k-means cluster assignments of audio features used as discrete pseudo-labels in HuBERT pretraining; iteratively refined by re-clustering the model's intermediate representations.",
article = nil,
aliases = { "HuBERT clusters", "HuBERT pseudo-labels", "HuBERT k-means clusters", "HuBERT targets" },
es = "Asignaciones de clústeres k-means de características de audio empleadas como pseudo-etiquetas discretas en el preentrenamiento de HuBERT; se refinan iterativamente reagrupando las representaciones intermedias del modelo.",
zh = "HuBERT 预训练中作为离散伪标签使用的音频特征 k-means 聚类分配;通过对模型中间表示重新聚类进行迭代优化。",
term_es = "clústeres de HuBERT",
term_zh = "HuBERT 聚类",
aliases_es = { "pseudo-etiquetas de HuBERT", "clusters HuBERT", "objetivos HuBERT" },
aliases_zh = { "HuBERT 伪标签", "HuBERT k-means 聚类", "HuBERT 目标" },
}
data["hugin propagation"] = {
short = "An exact junction-tree inference algorithm that propagates probabilities by absorbing messages between adjacent cliques, named after the Hugin software in which it was popularized.",
article = nil,
aliases = { "HUGIN propagation", "Hugin algorithm", "Hugin inference", "Hugin message passing" },
es = "Algoritmo exacto de inferencia en árboles de unión que propaga probabilidades absorbiendo mensajes entre cliques adyacentes; debe su nombre al software Hugin en el que se popularizó.",
zh = "一种联结树上的精确推断算法,通过相邻团之间的消息吸收来传播概率,因在 Hugin 软件中流行而得名。",
term_es = "propagación de Hugin",
term_zh = "Hugin 传播",
aliases_es = { "algoritmo de Hugin", "inferencia de Hugin" },
aliases_zh = { "Hugin 算法", "Hugin 推断", "Hugin 消息传递" },
}
data["human rights ai"] = {
short = "An approach to AI governance that frames the assessment of AI systems in terms of internationally recognized human rights, evaluating impacts on rights such as privacy, non-discrimination, and freedom of expression.",
article = nil,
aliases = { "human rights-based AI", "human rights approach to AI", "AI and human rights" },
es = "Enfoque de gobernanza de IA que evalúa los sistemas en términos de los derechos humanos reconocidos internacionalmente, examinando el impacto sobre derechos como la privacidad, la no discriminación y la libertad de expresión.",
zh = "一种 AI 治理思路,以国际公认的人权为框架评估 AI 系统,关注其对隐私、非歧视、言论自由等权利的影响。",
term_es = "IA y derechos humanos",
term_zh = "人权视角的人工智能",
aliases_es = { "enfoque de derechos humanos en IA", "IA basada en derechos humanos" },
aliases_zh = { "基于人权的 AI", "AI 与人权", "人权导向的人工智能" },
}
data["human-centered ai"] = {
short = "A design philosophy that prioritizes human values, user agency, transparency, and oversight in the development and deployment of AI systems, often abbreviated HCAI.",
article = nil,
aliases = { "HCAI", "human centered AI", "human-centered artificial intelligence", "human centric AI" },
es = "Filosofía de diseño que prioriza los valores humanos, la agencia del usuario, la transparencia y la supervisión en el desarrollo y despliegue de sistemas de IA; a menudo abreviada HCAI.",
zh = "一种设计理念,在 AI 系统的开发与部署中优先考虑人类价值观、用户能动性、透明性与人为监督,通常缩写为 HCAI。",
term_es = "IA centrada en el ser humano",
term_zh = "以人为本的人工智能",
aliases_es = { "HCAI", "inteligencia artificial centrada en el ser humano", "IA centrada en humanos" },
aliases_zh = { "HCAI", "以人为中心的 AI", "人本人工智能" },
}
data["human-in-the-loop explanation"] = {
short = "An explainability workflow in which human feedback iteratively refines the explanations a model produces or selects, used to improve the faithfulness, comprehensibility, or task-utility of explanations and sometimes the underlying model.",
article = nil,
aliases = { "HITL explanation", "human-in-the-loop interpretability", "interactive explanation" },
es = "Flujo de explicabilidad en el que la retroalimentación humana refina iterativamente las explicaciones que un modelo produce o selecciona, usado para mejorar la fidelidad, comprensibilidad o utilidad para la tarea de las explicaciones y, en ocasiones, el propio modelo subyacente.",
zh = "一种可解释性工作流,通过人工反馈迭代地优化模型生成或选择的解释,用以提升解释的忠实性、可理解性或任务实用性,有时也改进底层模型。",
term_es = "explicación con humano en el bucle",
term_zh = "人在回路解释",
aliases_es = { "explicación HITL", "interpretabilidad con humano en el bucle", "explicación interactiva" },
aliases_zh = { "HITL 解释", "人机协同解释", "交互式解释" },
}
data["human-in-the-loop fairness"] = {
short = "A fairness strategy in which human reviewers participate in the decision pipeline—labeling, auditing, or overriding model outputs—to detect and correct disparate or harmful behavior before it affects users.",
article = nil,
aliases = { "HITL fairness", "human in the loop fairness", "human-in-the-loop fair ML" },
es = "Estrategia de equidad en la que revisores humanos participan en el pipeline de decisión —etiquetando, auditando o anulando salidas del modelo— para detectar y corregir comportamientos dispares o dañinos antes de que afecten a los usuarios.",
zh = "一种公平性策略,在决策流程中引入人工审核者——通过标注、审计或推翻模型输出——以在影响用户之前发现并纠正不平等或有害的行为。",
term_es = "equidad con humano en el bucle",
term_zh = "人在环路的公平性",
aliases_es = { "equidad HITL", "human-in-the-loop fairness" },
aliases_zh = { "HITL 公平性", "人在回路公平性", "人机协同公平性" },
}
data["humaneval"] = {
short = "A benchmark of 164 hand-written Python programming problems with unit tests, used to measure functional correctness of code generated by language models, typically reported as pass@k.",
article = nil,
aliases = { "HumanEval", "Human Eval", "HumanEval benchmark" },
es = "Benchmark de 164 problemas de programación en Python escritos manualmente con pruebas unitarias, usado para medir la corrección funcional del código generado por modelos de lenguaje, normalmente reportado como pass@k.",
zh = "一项包含 164 道人工编写的 Python 编程题及单元测试的基准,用于衡量语言模型生成代码的功能正确性,通常以 pass@k 报告。",
term_es = "HumanEval",
term_zh = "HumanEval",
aliases_es = { "HumanEval" },
aliases_zh = { "HumanEval" },
}
data["humaneval+"] = {
short = "An augmented version of the HumanEval code-generation benchmark with substantially more test cases per problem, designed to reduce false positives in pass@k evaluation.",
article = nil,
aliases = { "HumanEval+", "HumanEvalPlus", "HumanEval Plus" },
es = "Versión ampliada del banco de pruebas de generación de código HumanEval, con muchos más casos de prueba por problema, diseñada para reducir los falsos positivos en la evaluación pass@k.",
zh = "HumanEval 代码生成基准的扩展版本,每道题目包含更多测试用例,旨在减少 pass@k 评估中的假阳性。",
term_es = "HumanEval+",
term_zh = "HumanEval+",
aliases_es = { "HumanEval+", "HumanEvalPlus" },
aliases_zh = { "HumanEval+", "HumanEvalPlus" },
}
data["hunyuan video"] = {
short = "An open-source text-to-video generative model released by Tencent, capable of producing high-resolution video clips conditioned on text prompts.",
article = nil,
aliases = { "HunyuanVideo", "Hunyuan Video", "Tencent HunyuanVideo" },
es = "Modelo generativo de texto a vídeo de código abierto publicado por Tencent, capaz de producir clips de vídeo de alta resolución condicionados por indicaciones de texto.",
zh = "腾讯发布的开源文生视频生成模型,可根据文本提示生成高分辨率视频片段。",
term_es = "HunyuanVideo",
term_zh = "混元视频",
aliases_es = { "HunyuanVideo", "Hunyuan Video" },
aliases_zh = { "HunyuanVideo", "混元 Video" },
}
data["hw-nas-bench"] = {
short = "A benchmark suite for hardware-aware NAS that provides measured latency and energy of every architecture in NAS-Bench-201 and FBNet search spaces across multiple devices, enabling fair comparison without per-paper hardware profiling.",
article = nil,
aliases = { "HW-NAS-Bench", "Hardware-Aware NAS Benchmark", "HW NAS Bench", "HWNASBench" },
es = "Suite de benchmarks para NAS consciente del hardware que proporciona latencia y energía medidas de cada arquitectura en los espacios NAS-Bench-201 y FBNet en múltiples dispositivos, permitiendo comparar trabajos sin perfilar el hardware en cada artículo.",
zh = "面向硬件感知 NAS 的基准套件,提供 NAS-Bench-201 与 FBNet 搜索空间中每个架构在多种设备上的实测延迟与能耗,使各方法可公平比较,无需各自重做硬件分析。",
term_es = "HW-NAS-Bench",
term_zh = "HW-NAS-Bench",
aliases_es = { "HW-NAS-Bench", "benchmark de NAS consciente del hardware" },
aliases_zh = { "HW-NAS-Bench", "硬件感知 NAS 基准" },
}
data["hybrid asr"] = {
short = "An automatic speech recognition architecture that combines a neural acoustic model with a hidden Markov model, lexicon, and n-gram language model decoded over a weighted finite-state transducer graph.",
article = nil,
aliases = { "hybrid ASR", "DNN-HMM ASR", "DNN-HMM hybrid", "hybrid speech recognition", "hybrid HMM-DNN ASR" },
es = "Arquitectura de reconocimiento automático de voz que combina un modelo acústico neuronal con un modelo oculto de Markov, un léxico y un modelo de lenguaje de n-gramas decodificados sobre un grafo transductor de estados finitos ponderado.",
zh = "一种自动语音识别架构,将神经声学模型与隐马尔可夫模型、词典及 n-gram 语言模型相结合,在加权有限状态转换器图上进行解码。",
term_es = "ASR híbrido",
term_zh = "混合 ASR",
aliases_es = { "ASR DNN-HMM", "reconocimiento de voz híbrido", "híbrido HMM-DNN" },
aliases_zh = { "DNN-HMM ASR", "DNN-HMM 混合", "混合语音识别", "HMM-DNN 混合 ASR" },
}
data["hybrid bayesian network"] = {
short = "A Bayesian network containing both discrete and continuous variables, often with conditional Gaussian or other structured local distributions linking the two types.",
article = nil,
aliases = { "hybrid Bayesian network", "hybrid BN", "mixed Bayesian network", "hybrid Bayesian networks" },
es = "Red bayesiana que contiene variables tanto discretas como continuas, frecuentemente con distribuciones locales gaussianas condicionales u otras estructuradas que enlazan ambos tipos.",
zh = "同时包含离散变量和连续变量的贝叶斯网络,通常用条件高斯分布或其他结构化局部分布连接两类变量。",
term_es = "red bayesiana híbrida",
term_zh = "混合贝叶斯网络",
aliases_es = { "BN híbrida", "red bayesiana mixta", "redes bayesianas híbridas" },
aliases_zh = { "混合贝叶斯网", "异质贝叶斯网络" },
}
data["hybrid ctc-attention"] = {
short = "An end-to-end ASR architecture that jointly trains and decodes with a connectionist temporal classification objective and an attention-based encoder-decoder, leveraging the strengths of both.",
article = nil,
aliases = { "hybrid CTC-attention", "hybrid CTC/attention", "joint CTC-attention", "joint CTC/attention" },
es = "Arquitectura de ASR de extremo a extremo que entrena y decodifica conjuntamente con un objetivo de clasificación temporal conexionista y un codificador-decodificador con atención, aprovechando las fortalezas de ambos.",
zh = "一种端到端 ASR 架构,将连接时序分类目标与基于注意力的编码器-解码器联合训练和解码,发挥两者的优势。",
term_es = "CTC-atención híbrido",
term_zh = "混合 CTC-注意力",
aliases_es = { "CTC/atención híbrido", "CTC-atención conjunto", "CTC/atención conjunto" },
aliases_zh = { "CTC/注意力混合", "联合 CTC-注意力", "联合 CTC/注意力" },
}
data["hybrid demucs"] = {
short = "A music source separation model that processes an input mixture in parallel through time-domain and spectrogram-domain U-Net branches and merges their outputs, separating it into stems.",
article = nil,
aliases = { "Hybrid Demucs", "HDemucs", "H-Demucs" },
es = "Modelo de separación de fuentes musicales que procesa la mezcla de entrada en paralelo a través de ramas U-Net en el dominio del tiempo y del espectrograma y combina sus salidas para separarla en stems.",
zh = "一种音乐源分离模型,通过时域和频谱域 U-Net 分支并行处理输入混合信号并合并其输出,将其分离为各个声部。",
term_es = "Hybrid Demucs",
term_zh = "Hybrid Demucs",
aliases_es = { "HDemucs", "Demucs híbrido" },
aliases_zh = { "HDemucs", "混合 Demucs" },
}
data["hybrid federated learning"] = {
short = "A federated learning setting in which participating clients differ in both samples and features, combining horizontal and vertical partitioning and typically requiring entity alignment together with feature-overlap handling.",
article = nil,
aliases = { "HyFL", "hybrid FL", "mixed federated learning" },
es = "Configuración de aprendizaje federado en la que los clientes participantes difieren tanto en muestras como en características, combinando particionamiento horizontal y vertical y requiriendo normalmente alineación de entidades junto con el manejo de solapamiento de características.",
zh = "一种联邦学习设定,各参与客户端在样本和特征上都不相同,同时结合横向与纵向划分,通常需要进行实体对齐并处理特征重叠。",
term_es = "aprendizaje federado híbrido",
term_zh = "混合联邦学习",
aliases_es = { "FL híbrido", "aprendizaje federado mixto" },
aliases_zh = { "HyFL", "混合 FL" },
}
data["hybrid fusion"] = {
short = "A multimodal fusion strategy that combines early fusion (concatenating raw or low-level features) with late fusion (combining unimodal predictions or high-level embeddings), aiming to capture both fine cross-modal interactions and per-modality signals.",
article = nil,
aliases = { "hybrid multimodal fusion", "mixed fusion", "early-late fusion" },
es = "Estrategia de fusión multimodal que combina fusión temprana (concatenando características brutas o de bajo nivel) con fusión tardía (combinando predicciones unimodales o embeddings de alto nivel), con el objetivo de capturar tanto interacciones intermodales finas como señales por modalidad.",
zh = "一种多模态融合策略,将早期融合(拼接原始或低层特征)与后期融合(合并单模态预测或高层嵌入)结合起来,以同时捕获细粒度的跨模态交互和各模态独立的信号。",
term_es = "fusión híbrida",
term_zh = "混合融合",
aliases_es = { "fusión multimodal híbrida", "fusión mixta", "fusión temprana-tardía" },
aliases_zh = { "混合多模态融合", "早晚期融合", "混合式融合" },
}
data["hybrid reasoning"] = {
short = "An umbrella term for systems that combine multiple reasoning paradigms—typically symbolic and neural, but also statistical or probabilistic—within a single architecture to leverage complementary strengths such as compositional generalization and learned perception.",
article = nil,
aliases = { "hybrid neuro-symbolic reasoning", "hybrid neural-symbolic reasoning", "hybrid AI reasoning", "neuro-symbolic hybrid reasoning" },
es = "Un término paraguas para sistemas que combinan múltiples paradigmas de razonamiento —normalmente simbólico y neuronal, pero también estadístico o probabilístico— dentro de una misma arquitectura, aprovechando fortalezas complementarias como la generalización composicional y la percepción aprendida.",
zh = "一个总称,指在单一架构中结合多种推理范式(通常是符号与神经,也可能涵盖统计或概率)的系统,以利用组合泛化和习得感知等互补优势。",
term_es = "razonamiento híbrido",
term_zh = "混合推理",
aliases_es = { "razonamiento neuro-simbólico híbrido", "razonamiento híbrido neuro-simbólico", "razonamiento de IA híbrida" },
aliases_zh = { "神经符号混合推理", "混合神经符号推理", "混合 AI 推理" },
}
data["hybrid retrieval"] = {
short = "An information retrieval approach that combines sparse lexical scores (such as BM25) with dense vector similarity, typically by interpolation or rank fusion, to balance exact-match and semantic recall.",
article = nil,
aliases = { "Hybrid Retrieval", "hybrid search", "dense-sparse retrieval", "hybrid lexical-semantic retrieval" },
es = "Enfoque de recuperación de información que combina puntuaciones léxicas dispersas (como BM25) con similitud vectorial densa, normalmente mediante interpolación o fusión de rankings, para equilibrar la coincidencia exacta y la recuperación semántica.",
zh = "一种信息检索方法,将稀疏词面分数(如 BM25)与稠密向量相似度结合,通常通过插值或排名融合,以兼顾精确匹配和语义召回。",
term_es = "recuperación híbrida",
term_zh = "混合检索",
aliases_es = { "hybrid retrieval", "búsqueda híbrida", "recuperación densa-dispersa" },
aliases_zh = { "hybrid retrieval", "混合搜索", "稠密-稀疏检索", "词法-语义混合检索" },
}
data["hybrid structure learning"] = {
short = "A family of algorithms for learning the structure of a graphical model that combines constraint-based independence tests with score-based search, leveraging the strengths of both paradigms.",
article = nil,
aliases = { "hybrid structure learning algorithm", "hybrid structure-learning", "hybrid graphical-model structure learning" },
es = "Familia de algoritmos para aprender la estructura de un modelo gráfico que combina pruebas de independencia basadas en restricciones con búsqueda basada en puntuación, aprovechando las ventajas de ambos paradigmas.",
zh = "一类用于学习图模型结构的算法,将基于约束的独立性检验与基于评分的搜索相结合,兼取两者的长处。",
term_es = "aprendizaje híbrido de estructura",
term_zh = "混合结构学习",
aliases_es = { "algoritmo híbrido de aprendizaje de estructura", "aprendizaje de estructura híbrido" },
aliases_zh = { "混合式结构学习", "混合图模型结构学习" },
}
data["hyde"] = {
short = "Hypothetical Document Embeddings: a retrieval technique in which a language model first drafts a hypothetical answer to a query, then embeds and uses it as the search vector to improve recall.",
article = nil,
aliases = { "HyDE", "Hypothetical Document Embeddings" },
es = "Hypothetical Document Embeddings: técnica de recuperación en la que un modelo de lenguaje primero redacta una respuesta hipotética a la consulta y luego la embebe y usa como vector de búsqueda para mejorar la recuperación.",
zh = "Hypothetical Document Embeddings,一种检索技术:先让语言模型草拟对查询的假设性回答,再对其进行嵌入并作为检索向量,以提高召回率。",
term_es = "HyDE",
term_zh = "HyDE",
aliases_es = { "HyDE" },
aliases_zh = { "HyDE", "假设性文档嵌入" },
}
data["hydrogen bond acceptors"] = {
short = "Atoms in a molecule (typically electronegative atoms with lone pairs such as nitrogen or oxygen) capable of accepting a hydrogen bond; the count is one of Lipinski's rule-of-five descriptors.",
article = nil,
aliases = { "HBA", "hydrogen-bond acceptors", "H-bond acceptors", "number of hydrogen bond acceptors" },
es = "Átomos en una molécula (típicamente átomos electronegativos con pares de electrones libres como nitrógeno u oxígeno) capaces de aceptar un puente de hidrógeno; su recuento es uno de los descriptores de la regla de los cinco de Lipinski.",
zh = "分子中能够接受氢键的原子(通常是带有孤对电子的电负性原子,如氮和氧),其数量是 Lipinski 五规则的描述符之一。",
term_es = "aceptores de enlaces de hidrógeno",
term_zh = "氢键受体",
aliases_es = { "HBA", "aceptores de puentes de hidrógeno", "número de aceptores de enlaces de hidrógeno" },
aliases_zh = { "HBA", "氢键受体数", "氢键受体数目" },
}
data["hydrogen bond donors"] = {
short = "Atoms in a molecule bearing a hydrogen that can be donated to a hydrogen bond (typically N-H or O-H groups); the count is one of Lipinski's rule-of-five descriptors.",
article = nil,
aliases = { "HBD", "hydrogen-bond donors", "H-bond donors", "number of hydrogen bond donors" },
es = "Átomos en una molécula portadores de un hidrógeno donable en un puente de hidrógeno (típicamente grupos N-H u O-H); su recuento es uno de los descriptores de la regla de los cinco de Lipinski.",
zh = "分子中带有可作为氢键供体的氢原子的位点(通常为 N-H 或 O-H 基团),其数量是 Lipinski 五规则的描述符之一。",
term_es = "donadores de enlaces de hidrógeno",
term_zh = "氢键供体",
aliases_es = { "HBD", "donantes de puentes de hidrógeno", "número de donadores de enlaces de hidrógeno" },
aliases_zh = { "HBD", "氢键供体数", "氢键供体数目" },
}
data["hyena-dna"] = {
short = "A genomic foundation model based on the Hyena long-convolution operator that processes single-nucleotide DNA sequences with context lengths up to one million tokens, replacing attention to enable longer-range modeling.",
article = nil,
aliases = { "HyenaDNA", "Hyena-DNA", "HYENA-DNA", "hyena dna" },
es = "Modelo fundacional genómico basado en el operador de convolución larga Hyena que procesa secuencias de ADN a resolución de nucleótido único con longitudes de contexto de hasta un millón de tokens, sustituyendo la atención para permitir un modelado de mayor rango.",
zh = "一种基因组基础模型,基于Hyena长卷积算子处理单核苷酸分辨率的DNA序列,上下文长度可达一百万个token,用以替代注意力机制以支持更长距离的建模。",
term_es = "HyenaDNA",
term_zh = "HyenaDNA",
aliases_es = { "HyenaDNA", "Hyena-DNA" },
aliases_zh = { "HyenaDNA", "Hyena-DNA" },
}
data["hyper deep ensemble"] = {
short = "An ensembling strategy that combines deep ensembles over both random initializations and different hyperparameter settings, increasing predictive diversity beyond what initialization alone provides.",
article = nil,
aliases = { "hyper-deep ensemble", "hyper deep ensembles", "HDE" },
es = "Estrategia de ensemble que combina deep ensembles sobre distintas inicializaciones aleatorias y distintas configuraciones de hiperparámetros, aumentando la diversidad predictiva más allá de la sola variación de inicialización.",
zh = "在不同随机初始化和不同超参数配置之上同时构建深度集成的方法,比仅依赖初始化随机性能产生更高的预测多样性。",
term_es = "hyper deep ensemble",
term_zh = "超深度集成",
aliases_es = { "hyper-deep ensemble", "ensembles híper-profundos" },
aliases_zh = { "hyper deep ensemble", "超参深度集成" },
}
data["hyperband"] = {
short = "A bandit-based hyperparameter optimization algorithm that adaptively allocates training resources across configurations by running successive halving with multiple bracket sizes.",
article = nil,
aliases = { "Hyperband", "HyperBand" },
es = "Algoritmo de optimización de hiperparámetros basado en bandidos que asigna recursos de entrenamiento de forma adaptativa entre configuraciones ejecutando reducción sucesiva con varios tamaños de bracket.",
zh = "一种基于多臂老虎机的超参数优化算法,通过在多个不同bracket规模上运行连续减半(successive halving)来自适应地分配训练资源。",
term_es = "Hyperband",
term_zh = "Hyperband",
aliases_es = { "HyperBand" },
aliases_zh = { "HyperBand", "超带" },
}
data["hyperband bracket"] = {
short = "One of several successive-halving sub-routines that together make up Hyperband; each bracket trades off the number of configurations against the per-configuration training budget, hedging across exploration-vs-exploitation regimes.",
article = nil,
aliases = { "Hyperband bracket", "Hyperband brackets", "successive halving bracket", "Hyperband sub-routine" },
es = "Una de las varias subrutinas de successive halving que componen Hyperband; cada bracket equilibra el número de configuraciones frente al presupuesto de entrenamiento por configuración, cubriendo distintos regímenes de exploración frente a explotación.",
zh = "Hyperband 中若干 successive-halving 子流程之一;每个 bracket 在配置数量与单配置训练预算之间进行权衡,在探索与利用的不同区域之间分散下注。",
term_es = "bracket de Hyperband",
term_zh = "Hyperband bracket",
aliases_es = { "Hyperband bracket", "bracket de successive halving" },
aliases_zh = { "Hyperband bracket", "Hyperband 分组", "Successive Halving 分组" },
}
data["hyperbolic knowledge graph embedding"] = {
short = "A family of knowledge graph embedding methods that place entities and relations in hyperbolic space (typically the Poincaré or Lorentz model), exploiting its exponential volume growth to represent hierarchical and tree-like structures with low distortion.",
article = nil,
aliases = { "hyperbolic KG embedding", "hyperbolic knowledge graph embeddings", "Poincaré KG embedding", "MuRP", "RotH", "AttH" },
es = "Una familia de métodos de incrustación de grafos de conocimiento que sitúa entidades y relaciones en el espacio hiperbólico (generalmente el modelo de Poincaré o de Lorentz), aprovechando su crecimiento volumétrico exponencial para representar estructuras jerárquicas y arbóreas con baja distorsión.",
zh = "一类将实体与关系嵌入到双曲空间(通常是 Poincaré 或 Lorentz 模型)的知识图谱嵌入方法,利用双曲空间体积的指数增长,以低失真表示层次结构和树状结构。",
term_es = "embedding hiperbólico de grafos de conocimiento",
term_zh = "双曲知识图谱嵌入",
aliases_es = { "incrustación hiperbólica de KG", "embedding hiperbólico de KG", "embedding de Poincaré para KG" },
aliases_zh = { "双曲 KG 嵌入", "Poincaré 知识图谱嵌入", "双曲空间知识图谱表示" },
}
data["hypernetwork"] = {
short = "A neural network that generates the weights of another neural network, enabling weight sharing across tasks, conditional weight generation, and parameter-efficient adaptation.",
article = nil,
aliases = { "HyperNetwork", "Hypernetwork", "hyper-network", "hypernetworks" },
es = "Red neuronal que genera los pesos de otra red neuronal, lo que permite compartir parámetros entre tareas, generar pesos condicionales y realizar adaptaciones eficientes en parámetros.",
zh = "一种神经网络,用于生成另一个神经网络的权重,可实现跨任务的权重共享、条件权重生成以及参数高效的适配。",
term_es = "hiperred",
term_zh = "超网络",
aliases_es = { "hypernetwork", "hiper-red", "red hipergeneradora" },
aliases_zh = { "Hypernetwork", "超网路" },
}
data["hyperopt"] = {
short = "An open-source Python library for hyperparameter optimization that supports random search and Tree-structured Parzen Estimator (TPE), with parallel execution via MongoDB or Apache Spark.",
article = nil,
aliases = { "Hyperopt", "hyperopt-sklearn" },
es = "Biblioteca de código abierto en Python para optimización de hiperparámetros que admite búsqueda aleatoria y el estimador Parzen estructurado por árboles (TPE), con ejecución paralela mediante MongoDB o Apache Spark.",
zh = "开源 Python 超参数优化库,支持随机搜索和树结构 Parzen 估计器(TPE),可通过 MongoDB 或 Apache Spark 实现并行执行。",
term_es = "Hyperopt",
term_zh = "Hyperopt",
aliases_es = { "Hyperopt", "hyperopt-sklearn" },
aliases_zh = { "Hyperopt", "hyperopt-sklearn" },
}
data["hyperparameter"] = {
short = "A configuration parameter set before training (e.g., learning rate, layer count, dropout rate); not learned from data and typically tuned by search or heuristic.",
article = nil,
aliases = { "hyperparameters", "hyper-parameter" },
es = "Parámetro de configuración establecido antes del entrenamiento (por ejemplo, tasa de aprendizaje, número de capas, tasa de dropout); no se aprende de los datos y normalmente se ajusta mediante búsqueda o heurística.",
zh = "训练之前设置的配置参数(如学习率、层数、dropout 率);不从数据中学习,通常通过搜索或启发式方法调整。",
term_es = "hiperparámetro",
term_zh = "超参数",
aliases_es = { "hiperparámetros" },
aliases_zh = {},
}
data["hyperparameter optimization"] = {
short = "The problem of selecting model hyperparameters such as learning rate, regularization strength, and architectural choices by searching the configuration space to optimize validation performance.",
article = nil,
aliases = { "hyperparameter tuning", "HPO", "hyperparameter search", "hyper-parameter optimization", "hyper-parameter tuning" },
es = "Problema de seleccionar los hiperparámetros del modelo, como la tasa de aprendizaje, la fuerza de regularización o decisiones arquitectónicas, mediante una búsqueda en el espacio de configuraciones para optimizar el desempeño en validación.",
zh = "通过在配置空间中搜索以优化验证性能,从而选择模型超参数(如学习率、正则化强度、架构选择等)的问题。",
term_es = "optimización de hiperparámetros",
term_zh = "超参数优化",
aliases_es = { "ajuste de hiperparámetros", "búsqueda de hiperparámetros", "HPO" },
aliases_zh = { "超参数调优", "超参数搜索", "HPO" },
}
data["hyperparameter posterior"] = {
short = "In hierarchical Bayesian models, the posterior distribution over hyperparameters obtained by marginalizing the lower-level parameters or via empirical Bayes-style fitting on the marginal likelihood.",
article = nil,
aliases = { "posterior over hyperparameters", "hyperparameter posteriors" },
es = "En modelos bayesianos jerárquicos, la distribución posterior sobre los hiperparámetros obtenida marginalizando los parámetros de nivel inferior o mediante ajuste tipo Bayes empírico sobre la verosimilitud marginal.",
zh = "在分层贝叶斯模型中,对低层参数边缘化或对边缘似然进行经验贝叶斯式估计后得到的超参数后验分布。",
term_es = "posterior de hiperparámetros",
term_zh = "超参数后验",
aliases_es = { "posterior sobre hiperparámetros" },
aliases_zh = { "超参数后验分布" },
}
data["hyperprior"] = {
short = "A prior placed on the parameters of another prior, defining the upper level of a hierarchical Bayesian model and allowing prior strength or shape to be learned from data.",
article = nil,
aliases = { "hyper-prior", "hyper prior" },
es = "Prior asignado a los parámetros de otro prior, que define el nivel superior de un modelo bayesiano jerárquico y permite aprender la forma o intensidad del prior a partir de los datos.",
zh = "对另一个先验的参数所赋予的先验,构成分层贝叶斯模型的上层,使先验的形状或强度可以从数据中学习。",
term_es = "hiperprior",
term_zh = "超先验",
aliases_es = { "hiper-prior", "hiperdistribución a priori" },
aliases_zh = { "hyperprior", "超先验分布" },
}
data["hyperrelational knowledge graph"] = {
short = "A knowledge graph in which each base triple can be annotated with additional key-value qualifiers (such as time, location, or role), allowing richer factual statements than the standard subject-predicate-object form, as in Wikidata statements.",
article = nil,
aliases = { "hyper-relational knowledge graph", "hyperrelational KG", "qualified knowledge graph", "Wikidata-style KG", "n-ary knowledge graph" },
es = "Un grafo de conocimiento en el que cada tripleta base puede anotarse con calificadores clave-valor adicionales (como tiempo, ubicación o rol), lo que permite enunciar hechos más ricos que la forma estándar sujeto-predicado-objeto, como en las declaraciones de Wikidata.",
zh = "一种知识图谱,其中每个基础三元组可附加键值限定符(如时间、地点或角色),从而比标准的主语-谓语-宾语形式表达更丰富的事实,如 Wikidata 声明中的形式。",
term_es = "grafo de conocimiento hiperrelacional",
term_zh = "超关系知识图谱",
aliases_es = { "grafo de conocimiento hiper-relacional", "KG hiperrelacional", "grafo de conocimiento calificado", "KG estilo Wikidata" },
aliases_zh = { "超关系 KG", "带限定符的知识图谱", "Wikidata 式知识图谱", "n 元知识图谱" },
}
data["hypothesis testing"] = {
short = "A statistical decision procedure that uses sample data to choose between a null hypothesis and an alternative, controlling the probability of falsely rejecting the null (Type I error) at a chosen significance level.",
article = nil,
aliases = { "statistical hypothesis testing", "significance testing", "null hypothesis significance testing", "NHST" },
es = "Procedimiento estadístico de decisión que usa datos muestrales para elegir entre una hipótesis nula y una alternativa, controlando la probabilidad de rechazar erróneamente la nula (error de tipo I) a un nivel de significancia elegido.",
zh = "一种利用样本数据在原假设与备择假设之间做出选择的统计决策程序,在选定的显著性水平下控制错误拒绝原假设(第一类错误)的概率。",
term_es = "contraste de hipótesis",
term_zh = "假设检验",
aliases_es = { "prueba de hipótesis", "test de hipótesis", "pruebas de significancia", "contraste estadístico" },
aliases_zh = { "统计假设检验", "显著性检验", "原假设显著性检验" },
}
data["hypothesis-based clustering federated"] = {
short = "A clustered federated learning approach (HypCluster) that assigns each client to one of K candidate models by evaluating local empirical loss under each hypothesis and updating only the best-fitting cluster's model.",
article = nil,
aliases = { "HypCluster", "hypothesis-based clustering", "HypCluster FL" },
es = "Enfoque de aprendizaje federado en clústeres (HypCluster) que asigna cada cliente a uno de K modelos candidatos evaluando la pérdida empírica local bajo cada hipótesis y actualizando solo el modelo del clúster que mejor se ajusta.",
zh = "一种基于假设的聚类联邦学习方法(HypCluster),通过在每个候选模型下评估客户端的本地经验损失,将客户端分配到 K 个模型之一,并仅更新最匹配簇的模型。",
term_es = "agrupamiento basado en hipótesis (federado)",
term_zh = "基于假设的联邦聚类",
aliases_es = { "HypCluster", "agrupamiento por hipótesis" },
aliases_zh = { "HypCluster", "假设聚类联邦学习" },
}
data["i-vector"] = {
short = "A low-dimensional speaker representation extracted from a total variability subspace of a Gaussian mixture model supervector, widely used for speaker recognition and verification before x-vectors.",
article = nil,
aliases = { "i-vectors", "ivector", "ivectors", "identity vector", "identity vectors" },
es = "Representación de bajo dimensión del hablante extraída de un subespacio de variabilidad total de un supervector de modelo de mezcla gaussiana, ampliamente utilizada en reconocimiento y verificación de hablante antes de los x-vectors.",
zh = "从高斯混合模型超向量的总变化子空间提取的低维说话人表征,在 x-vector 出现之前广泛用于说话人识别与验证。",
term_es = "i-vector",
term_zh = "i-vector",
aliases_es = { "i-vectores", "vector de identidad" },
aliases_zh = { "i-vectors", "身份向量" },
}
data["ia3"] = {
short = "A parameter-efficient fine-tuning method that learns three small per-layer rescaling vectors which multiplicatively modulate the keys, values, and feed-forward activations of a frozen transformer, training only those vectors.",
article = nil,
aliases = { "IA3", "(IA)^3", "(IA)³", "Infused Adapter by Inhibiting and Amplifying Inner Activations" },
es = "Método de ajuste fino eficiente en parámetros que aprende tres pequeños vectores de reescalado por capa, los cuales modulan multiplicativamente las claves, valores y activaciones feed-forward de un transformador congelado, entrenando solo dichos vectores.",
zh = "一种参数高效微调方法,为冻结的 Transformer 每层学习三个小型缩放向量,对 keys、values 和前馈激活进行乘性调制,仅训练这些向量。",
term_es = "IA3",
term_zh = "IA3",
aliases_es = { "IA3", "(IA)^3", "(IA)³" },
aliases_zh = { "IA3", "(IA)^3", "(IA)³" },
}
data["iaf"] = {
short = "A normalizing flow that inverts the dependency direction of MAF, enabling fast sampling at the cost of slow density evaluation. Often used as a posterior in variational inference.",
article = nil,
aliases = { "IAF", "Inverse Autoregressive Flow", "inverse autoregressive flow" },
es = "Flujo normalizador que invierte la dirección de dependencia de MAF, permitiendo un muestreo rápido a costa de una evaluación lenta de la densidad. Suele usarse como posterior en inferencia variacional.",
zh = "一种标准化流,反转 MAF 的依赖方向,实现快速采样但密度计算较慢,常用作变分推断中的后验。",
term_es = "IAF",
term_zh = "IAF",
aliases_es = { "IAF", "flujo autorregresivo inverso" },
aliases_zh = { "IAF", "逆自回归流" },
}
data["ibm federated learning"] = {
short = "An open-source enterprise-oriented federated learning framework released by IBM Research that provides aggregator and party components, fusion algorithms, and connectors for cross-silo training across heterogeneous environments.",
article = nil,
aliases = { "IBM FL", "IBMFL", "ibmfl", "IBM Federated Learning library" },
es = "Marco de aprendizaje federado de código abierto orientado a la empresa publicado por IBM Research que proporciona componentes agregador y parte, algoritmos de fusión y conectores para entrenamiento entre silos en entornos heterogéneos.",
zh = "由 IBM Research 发布的面向企业的开源联邦学习框架,提供聚合器与参与方组件、融合算法以及用于异构环境跨机构训练的连接器。",
term_es = "IBM Federated Learning",
term_zh = "IBM 联邦学习",
aliases_es = { "IBM FL", "IBMFL", "biblioteca IBM Federated Learning" },
aliases_zh = { "IBM FL", "IBMFL", "IBM 联邦学习库" },
}
data["ice plot"] = {
short = "Individual Conditional Expectation plot: a model-agnostic visualization that shows, for each instance in a dataset, the predicted output as a function of one feature while holding other features fixed, revealing per-instance heterogeneity hidden by partial dependence plots.",
article = nil,
aliases = { "ICE plot", "individual conditional expectation plot", "individual conditional expectation", "ICE curve" },
es = "Gráfico de expectativa condicional individual (ICE): visualización agnóstica al modelo que muestra, para cada instancia de un conjunto de datos, la predicción como función de una característica manteniendo las demás fijas, revelando la heterogeneidad por instancia oculta por los gráficos de dependencia parcial.",
zh = "个体条件期望(ICE)图:一种与模型无关的可视化方法,针对数据集中的每个样本,在固定其他特征的情况下展示预测输出随某一特征变化的曲线,揭示部分依赖图所掩盖的样本间异质性。",
term_es = "gráfico ICE",
term_zh = "ICE 图",
aliases_es = { "gráfico de expectativa condicional individual", "curva ICE" },
aliases_zh = { "个体条件期望图", "ICE 曲线" },
}
data["icefall"] = {
short = "An open-source speech recognition recipe collection from the k2-fsa project, providing PyTorch training scripts and decoding pipelines built on the k2 differentiable WFST library.",
article = nil,
aliases = { "icefall toolkit", "k2 icefall", "icefall recipes" },
es = "Colección de recetas de reconocimiento de voz de código abierto del proyecto k2-fsa que proporciona scripts de entrenamiento en PyTorch y pipelines de decodificación construidos sobre la biblioteca de WFST diferenciable k2.",
zh = "k2-fsa 项目提供的开源语音识别配方集合,包含基于可微分 WFST 库 k2 构建的 PyTorch 训练脚本和解码流程。",
term_es = "icefall",
term_zh = "icefall",
aliases_es = { "k2 icefall", "recetas icefall" },
aliases_zh = { "k2 icefall", "icefall 配方" },
}
data["id algorithm"] = {
short = "Sound and complete algorithm of Shpitser and Pearl that decides whether an interventional distribution P(Y | do(X)) is identifiable from observational data given a causal graph and, if so, returns a do-free expression.",
article = nil,
aliases = { "ID algorithm", "Shpitser-Pearl algorithm", "identification algorithm" },
es = "Algoritmo sólido y completo de Shpitser y Pearl que determina si una distribución intervencional P(Y | do(X)) es identificable a partir de datos observacionales dado un grafo causal y, si lo es, devuelve una expresión sin operadores do.",
zh = "Shpitser 与 Pearl 提出的可靠且完备的算法,用于在给定因果图时判定干预分布 P(Y | do(X)) 是否可由观测数据识别,并给出不含 do 算子的表达式。",
term_es = "algoritmo ID",
term_zh = "ID 算法",
aliases_es = { "algoritmo de identificación", "algoritmo de Shpitser-Pearl" },
aliases_zh = { "识别算法", "Shpitser-Pearl 算法" },
}
data["idefics"] = {
short = "An open-source reproduction of the Flamingo vision-language model released by Hugging Face (2023) at 9B and 80B parameters, trained on web-scale interleaved image-text documents and supporting few-shot multimodal tasks.",
article = nil,
aliases = { "IDEFICS", "Idefics 1", "HuggingFace IDEFICS" },
es = "Reproducción de código abierto del modelo visión-lenguaje Flamingo publicada por Hugging Face (2023) en 9B y 80B parámetros, entrenada con documentos imagen-texto intercalados a escala web y compatible con tareas multimodales few-shot.",
zh = "由 Hugging Face 于 2023 年发布的 Flamingo 视觉-语言模型开源复现版本,提供 9B 和 80B 参数规模,基于网络规模的图文交错文档训练,支持少样本多模态任务。",
term_es = "IDEFICS",
term_zh = "IDEFICS",
aliases_es = { "Idefics 1", "IDEFICS de Hugging Face" },
aliases_zh = { "Idefics 1", "Hugging Face IDEFICS" },
}
data["idefics 2"] = {
short = "An open-weight 8B-parameter vision-language model from Hugging Face, supporting interleaved image and text inputs and outperforming earlier IDEFICS versions on visual question answering and OCR benchmarks.",
article = nil,
aliases = { "IDEFICS 2", "IDEFICS2", "Idefics2", "idefics2" },
es = "Modelo de lenguaje y visión de código abierto con 8 mil millones de parámetros desarrollado por Hugging Face, que admite entradas intercaladas de imagen y texto y supera a versiones anteriores de IDEFICS en respuesta a preguntas visuales y OCR.",
zh = "由 Hugging Face 开发的开源视觉-语言模型,参数规模为 80 亿,支持图文交错输入,在视觉问答和 OCR 基准上优于早期 IDEFICS 版本。",
term_es = "IDEFICS 2",
term_zh = "IDEFICS 2",
aliases_es = { "IDEFICS2", "Idefics 2" },
aliases_zh = { "IDEFICS2", "Idefics 2" },
}
data["idefics2"] = {
short = "An 8B-parameter multimodal model from Hugging Face (2024) that simplifies the IDEFICS architecture by removing cross-attention adapters in favor of feeding visual tokens directly into a Mistral language backbone, with stronger document and OCR performance.",
article = nil,
aliases = { "IDEFICS2", "Idefics 2", "IDEFICS-2", "idefics-2" },
es = "Modelo multimodal de 8B parámetros de Hugging Face (2024) que simplifica la arquitectura de IDEFICS eliminando adaptadores de atención cruzada en favor de alimentar tokens visuales directamente a un backbone de lenguaje Mistral, con mejor desempeño en documentos y OCR.",
zh = "Hugging Face 于 2024 年发布的 80 亿参数多模态模型,简化了 IDEFICS 架构,去除交叉注意力适配器,转而将视觉词元直接输入 Mistral 语言主干网络,具有更强的文档和 OCR 性能。",
term_es = "IDEFICS2",
term_zh = "IDEFICS2",
aliases_es = { "Idefics 2", "IDEFICS-2" },
aliases_zh = { "Idefics 2", "IDEFICS-2" },
}
data["idefics3"] = {
short = "An open-source vision-language model from Hugging Face that processes interleaved image-text inputs, building on the Idefics line and using image splitting plus a Llama-based decoder.",
article = nil,
aliases = { "Idefics3", "IDEFICS3", "Idefics 3" },
es = "Modelo visión-lenguaje de código abierto de Hugging Face que procesa entradas intercaladas de imagen y texto, sucesor de Idefics y basado en un decodificador Llama con división de imágenes.",
zh = "Hugging Face 推出的开源视觉-语言模型,处理交错的图文输入,基于 Idefics 系列并采用图像切分与 Llama 解码器。",
term_es = "Idefics3",
term_zh = "Idefics3",
aliases_es = { "Idefics 3" },
aliases_zh = { "Idefics 3" },
}
data["identification strategy"] = {
short = "The set of assumptions and argument used to recover a causal parameter from observed data, e.g. randomization, conditional ignorability, instrumental variables, or regression discontinuity.",
article = nil,
aliases = { "causal identification strategy", "research design" },
es = "Conjunto de supuestos y argumento empleados para recuperar un parámetro causal a partir de datos observados, como aleatorización, ignorabilidad condicional, variables instrumentales o regresión discontinua.",
zh = "用于从观测数据中识别出某个因果参数的一整套假设与论证,例如随机化、条件可忽略性、工具变量或断点回归设计。",
term_es = "estrategia de identificación",
term_zh = "识别策略",
aliases_es = { "estrategia de identificación causal", "diseño de identificación" },
aliases_zh = { "因果识别策略", "识别方案" },
}
data["ideogram"] = {
short = "A commercial text-to-image generation system known for accurate in-image typography, developed by the company Ideogram AI.",
article = nil,
aliases = { "Ideogram", "Ideogram AI" },
es = "Sistema comercial de generación de imágenes a partir de texto, conocido por su tipografía precisa dentro de las imágenes, desarrollado por la empresa Ideogram AI.",
zh = "由 Ideogram AI 公司开发的商业文本到图像生成系统,以图像中文本排版准确著称。",
term_es = "Ideogram",
term_zh = "Ideogram",
aliases_es = { "Ideogram AI" },
aliases_zh = { "Ideogram AI" },
}
data["ideogram 2"] = {
short = "A text-to-image diffusion model from Ideogram AI specializing in accurate in-image text rendering and typography, with improved photorealism and prompt adherence over its predecessor.",
article = nil,
aliases = { "Ideogram 2", "Ideogram 2.0", "Ideogram v2", "ideogram-2" },
es = "Modelo de difusión de texto a imagen de Ideogram AI especializado en la representación precisa de texto y tipografía dentro de la imagen, con mayor fotorrealismo y fidelidad al prompt que su predecesor.",
zh = "Ideogram AI 推出的文本到图像扩散模型,擅长在图像中准确呈现文字和排版,相较前代版本具有更高的照片真实感和提示词遵循度。",
term_es = "Ideogram 2",
term_zh = "Ideogram 2",
aliases_es = { "Ideogram 2.0", "Ideogram v2" },
aliases_zh = { "Ideogram 2.0", "Ideogram v2" },
}
data["idlg attack"] = {
short = "An improved deep leakage from gradients attack that exploits the sign of the cross-entropy gradient at the classifier layer to deterministically recover the ground-truth label, then reconstructs the input from gradients.",
article = nil,
aliases = { "iDLG", "iDLG attack", "improved deep leakage from gradients" },
es = "Variante mejorada del ataque de fuga profunda por gradientes que explota el signo del gradiente de entropía cruzada en la capa clasificadora para recuperar de forma determinista la etiqueta verdadera y, a continuación, reconstruir la entrada a partir de los gradientes.",
zh = "一种改进的梯度深度泄露攻击(iDLG),利用分类层交叉熵梯度的符号确定性地恢复真实标签,然后从梯度重构输入样本。",
term_es = "ataque iDLG",
term_zh = "iDLG 攻击",
aliases_es = { "iDLG", "fuga profunda por gradientes mejorada" },
aliases_zh = { "iDLG", "改进的梯度深度泄露" },
}
data["iedb"] = {
short = "The Immune Epitope Database, a free public repository of experimentally characterized antibody and T-cell epitopes from infectious diseases, allergens, autoimmunity, and transplantation studies.",
article = nil,
aliases = { "IEDB", "Immune Epitope Database" },
es = "La Immune Epitope Database, repositorio público y gratuito de epítopos de anticuerpos y de células T caracterizados experimentalmente en estudios de enfermedades infecciosas, alérgenos, autoinmunidad y trasplante.",
zh = "免疫表位数据库(IEDB),一个免费公开的数据库,收录来自感染性疾病、过敏原、自身免疫与移植研究的实验表征的抗体与 T 细胞表位。",
term_es = "IEDB",
term_zh = "IEDB",
aliases_es = { "Immune Epitope Database", "base de datos de epítopos inmunes" },
aliases_zh = { "免疫表位数据库", "Immune Epitope Database" },
}
data["iedb database"] = {
short = "The Immune Epitope Database, a curated public resource of experimentally characterized B-cell and T-cell epitopes and their associated MHC binding and immunogenicity data, used for vaccine and immunotherapy research.",
article = nil,
aliases = { "IEDB", "Immune Epitope Database", "IEDB.org" },
es = "Immune Epitope Database, recurso público curado de epítopos de células B y T caracterizados experimentalmente, junto con sus datos asociados de unión a MHC e inmunogenicidad, utilizado en investigación de vacunas e inmunoterapia.",
zh = "免疫表位数据库(Immune Epitope Database),一个经过整理的公共资源,收录经实验表征的B细胞和T细胞表位及其MHC结合和免疫原性数据,广泛用于疫苗和免疫治疗研究。",
term_es = "IEDB",
term_zh = "IEDB",
aliases_es = { "IEDB", "Immune Epitope Database", "base de datos IEDB" },
aliases_zh = { "IEDB", "免疫表位数据库", "Immune Epitope Database" },
}
data["ifca"] = {
short = "Iterative Federated Clustering Algorithm: a clustered federated learning method that alternates between estimating each client's cluster identity by minimum local loss and running federated averaging within each cluster.",
article = nil,
aliases = { "IFCA", "Iterative Federated Clustering Algorithm" },
es = "Algoritmo Iterativo de Agrupamiento Federado: método de aprendizaje federado en clústeres que alterna entre estimar la identidad de clúster de cada cliente por mínima pérdida local y ejecutar promediado federado dentro de cada clúster.",
zh = "迭代联邦聚类算法(IFCA):一种聚类联邦学习方法,交替地通过最小本地损失估计每个客户端的簇身份,并在每个簇内执行联邦平均。",
term_es = "IFCA",
term_zh = "IFCA",
aliases_es = { "Algoritmo Iterativo de Agrupamiento Federado" },
aliases_zh = { "迭代联邦聚类算法" },
}
data["ifeval"] = {
short = "A benchmark for evaluating large language models on their ability to follow verifiable, programmatically checkable instructions such as length constraints, formatting rules, and forbidden words.",
article = nil,
aliases = { "IFEval", "Instruction-Following Eval", "Instruction Following Evaluation" },
es = "Conjunto de evaluación que mide la capacidad de los modelos de lenguaje para seguir instrucciones verificables de forma programática, como restricciones de longitud, reglas de formato y palabras prohibidas.",
zh = "一种用于评估大语言模型遵循可程序化验证指令能力的基准,涵盖长度约束、格式规则和禁用词等可校验要求。",
term_es = "IFEval",
term_zh = "IFEval",
aliases_es = { "Instruction-Following Eval" },
aliases_zh = { "指令遵循评测", "Instruction Following Evaluation" },
}
data["igblast"] = {
short = "An NCBI tool for analyzing immunoglobulin and T-cell receptor variable-domain sequences, identifying V, D, and J gene segments and characterizing junctions and somatic hypermutations.",
article = nil,
aliases = { "IgBLAST" },
es = "Herramienta del NCBI para analizar secuencias del dominio variable de inmunoglobulinas y receptores de células T, identificando los segmentos génicos V, D y J y caracterizando las uniones y las hipermutaciones somáticas.",
zh = "NCBI 提供的工具,用于分析免疫球蛋白和 T 细胞受体可变区序列,识别 V、D、J 基因片段并刻画连接区与体细胞超突变。",
term_es = "IgBLAST",
term_zh = "IgBLAST",
aliases_es = { "igblast" },
aliases_zh = { "igblast" },
}
data["igfold"] = {
short = "A fast deep learning model for predicting antibody Fv structures from sequence, using AntiBERTy language-model embeddings and refinement to deliver near-AlphaFold quality at much lower compute cost.",
article = nil,
aliases = { "IgFold" },
es = "Modelo de aprendizaje profundo rápido para predecir estructuras Fv de anticuerpos a partir de la secuencia, utilizando incrustaciones del modelo de lenguaje AntiBERTy y refinamiento para alcanzar una calidad cercana a AlphaFold con un coste computacional mucho menor.",
zh = "一种快速的深度学习模型,用于从序列预测抗体 Fv 结构,基于 AntiBERTy 语言模型嵌入并辅以结构精修,以远低于 AlphaFold 的计算成本达到接近的预测质量。",
term_es = "IgFold",
term_zh = "IgFold",
aliases_es = { "igfold" },
aliases_zh = { "igfold" },
}
data["iggm"] = {
short = "A generative model for designing antibody complementarity-determining regions (CDRs) by jointly modeling sequence and structure, often using diffusion or flow-matching over antibody graphs.",
article = nil,
aliases = { "IgGM" },
es = "Modelo generativo para el diseño de regiones determinantes de complementariedad (CDR) de anticuerpos que modela conjuntamente secuencia y estructura, a menudo mediante difusión o flow matching sobre grafos de anticuerpos.",
zh = "用于设计抗体互补决定区(CDR)的生成模型,联合建模序列与结构,通常基于在抗体图上进行扩散或流匹配。",
term_es = "IgGM",
term_zh = "IgGM",
aliases_es = { "iggm" },
aliases_zh = { "iggm" },
}
data["ignorability"] = {
short = "Assumption that potential outcomes are independent of treatment assignment given observed covariates; together with overlap, it permits identification of average treatment effects from observational data.",
article = nil,
aliases = { "strong ignorability", "conditional ignorability", "unconfoundedness", "no unmeasured confounders", "selection on observables", "CIA", "conditional independence assumption" },
es = "Supuesto de que los resultados potenciales son independientes de la asignación de tratamiento condicionando en covariables observadas; junto con el solapamiento, permite identificar efectos promedio de tratamiento a partir de datos observacionales.",
zh = "在给定观测协变量的条件下,潜在结果与处理分配相互独立的假设;与重叠假设结合即可从观测数据识别平均处理效应。",
term_es = "ignorabilidad",
term_zh = "可忽略性",
aliases_es = { "ignorabilidad fuerte", "ignorabilidad condicional", "ausencia de confusión no medida", "supuesto CIA" },
aliases_zh = { "强可忽略性", "条件可忽略性", "无未观测混杂", "条件独立假设" },
}
data["igv viewer"] = {
short = "The Integrative Genomics Viewer (IGV), an interactive desktop and web application for visualizing aligned sequencing reads, variants, annotations, and quantitative tracks against a reference genome.",
article = nil,
aliases = { "IGV", "Integrative Genomics Viewer", "IGV viewer", "igv.js" },
es = "Integrative Genomics Viewer (IGV), aplicación interactiva de escritorio y web para visualizar lecturas de secuenciación alineadas, variantes, anotaciones y pistas cuantitativas frente a un genoma de referencia.",
zh = "整合基因组浏览器(Integrative Genomics Viewer,IGV),一款交互式桌面与网页应用,用于在参考基因组上可视化比对后的测序读段、变异、注释和定量轨道。",
term_es = "IGV",
term_zh = "IGV",
aliases_es = { "IGV", "Integrative Genomics Viewer", "visor IGV" },
aliases_zh = { "IGV", "整合基因组浏览器", "Integrative Genomics Viewer", "igv.js" },
}
data["ihw"] = {
short = "Independent Hypothesis Weighting, a multiple testing procedure that improves power by assigning data-driven weights to hypotheses based on an independent covariate while controlling the false discovery rate.",
article = nil,
aliases = { "IHW", "independent hypothesis weighting", "IHW method" },
es = "Independent Hypothesis Weighting, procedimiento de pruebas múltiples que mejora la potencia asignando pesos basados en datos a las hipótesis a partir de una covariable independiente, mientras controla la tasa de falsos descubrimientos.",
zh = "独立假设加权(Independent Hypothesis Weighting),一种多重检验方法,根据一个独立协变量为各假设分配数据驱动的权重,在控制错误发现率的同时提高检验功效。",
term_es = "IHW",
term_zh = "IHW",
aliases_es = { "IHW", "ponderación independiente de hipótesis", "Independent Hypothesis Weighting" },
aliases_zh = { "IHW", "独立假设加权", "Independent Hypothesis Weighting" },
}
data["illumina sequencing"] = {
short = "A short-read sequencing-by-synthesis technology that detects fluorescently labeled reversibly terminated nucleotides incorporated on a clonally amplified flow cell, producing reads typically 50-300 bp in length.",
article = nil,
aliases = { "Illumina sequencing", "Illumina short-read sequencing", "sequencing by synthesis", "SBS sequencing" },
es = "Tecnología de secuenciación por síntesis de lecturas cortas que detecta nucleótidos terminadores reversibles marcados con fluorescencia incorporados sobre una celda de flujo amplificada clonalmente, produciendo lecturas típicamente de 50–300 pb.",
zh = "一种短读段边合成边测序技术,通过在克隆扩增的流动池上检测带荧光标记的可逆终止核苷酸的掺入,生成长度通常为50–300 bp的读段。",
term_es = "secuenciación Illumina",
term_zh = "Illumina 测序",
aliases_es = { "secuenciación por síntesis", "secuenciación de lectura corta Illumina", "secuenciación SBS" },
aliases_zh = { "Illumina 短读测序", "边合成边测序", "SBS 测序" },
}
data["ilp"] = {
short = "An ambiguous abbreviation that most commonly stands for inductive logic programming in symbolic and neuro-symbolic AI, but also for integer linear programming in optimization-based reasoning systems.",
article = nil,
aliases = { "ILP" },
es = "Una abreviatura ambigua que en IA simbólica y neuro-simbólica designa habitualmente la programación lógica inductiva, pero también la programación lineal entera en sistemas de razonamiento basados en optimización.",
zh = "一个含义有歧义的缩写,在符号与神经符号 AI 中通常指归纳逻辑程序设计,在基于优化的推理系统中也指整数线性规划。",
term_es = "ILP",
term_zh = "ILP",
aliases_es = { "ILP" },
aliases_zh = { "ILP" },
}
data["image captioning"] = {
short = "The task of generating a natural-language description of the visual content of an image, typically learned from paired image-caption datasets such as COCO Captions.",
article = nil,
aliases = { "image caption generation", "automatic image captioning", "captioning" },
es = "Tarea consistente en generar una descripción en lenguaje natural del contenido visual de una imagen, aprendida normalmente a partir de conjuntos de pares imagen-descripción como COCO Captions.",
zh = "生成图像视觉内容自然语言描述的任务,通常基于 COCO Captions 等图像-描述配对数据集进行学习。",
term_es = "subtitulado de imágenes",
term_zh = "图像描述生成",
aliases_es = { "generación de descripciones de imágenes", "image captioning" },
aliases_zh = { "图像字幕生成", "看图说话" },
}
data["image classification"] = {
short = "The computer vision task of assigning one or more category labels to an entire image from a fixed set of classes. The canonical benchmark is ImageNet.",
article = nil,
aliases = { "image recognition", "image categorization", "image categorisation", "visual classification" },
es = "Tarea de visión por computadora consistente en asignar una o más etiquetas de categoría a una imagen completa a partir de un conjunto fijo de clases. El benchmark canónico es ImageNet.",
zh = "计算机视觉任务,从固定类别集合中为整张图像分配一个或多个类别标签。经典基准是 ImageNet。",
term_es = "clasificación de imágenes",
term_zh = "图像分类",
aliases_es = { "reconocimiento de imágenes", "categorización de imágenes" },
aliases_zh = { "image classification", "图像识别", "图像分类任务" },
}
data["image patch token"] = {
short = "A token derived from a fixed-size spatial region of an image, used as input to vision transformers and multimodal models after linear or learned projection.",
article = nil,
aliases = { "patch token", "visual patch token", "image patch embedding" },
es = "Token derivado de una región espacial de tamaño fijo de una imagen, utilizado como entrada en transformers de visión y modelos multimodales tras una proyección lineal o aprendida.",
zh = "从图像中固定大小的空间区域得到的 token,经线性或可学习投影后作为视觉 Transformer 和多模态模型的输入。",
term_es = "token de parche de imagen",
term_zh = "图像 patch token",
aliases_es = { "token de patch", "image patch token" },
aliases_zh = { "图像块 token", "patch token" },
}
data["image token"] = {
short = "A discrete or continuous token representing a region or feature of an image, enabling images to be processed by transformer architectures originally designed for text.",
article = nil,
aliases = { "visual token", "vision token" },
es = "Token discreto o continuo que representa una región o característica de una imagen, permitiendo que arquitecturas transformer originalmente diseñadas para texto procesen imágenes.",
zh = "表示图像区域或特征的离散或连续 token,使原本为文本设计的 Transformer 架构能够处理图像。",
term_es = "token de imagen",
term_zh = "图像 token",
aliases_es = { "token visual", "image token" },
aliases_zh = { "视觉 token", "vision token" },
}
data["image-text alignment"] = {
short = "The objective of mapping images and their corresponding texts to nearby points in a shared embedding space, central to models such as CLIP and ALIGN.",
article = nil,
aliases = { "vision-language alignment", "visual-text alignment", "cross-modal alignment" },
es = "Objetivo de proyectar imágenes y sus textos correspondientes a puntos cercanos en un espacio de representaciones compartido, central en modelos como CLIP y ALIGN.",
zh = "将图像与其对应文本映射到共享嵌入空间中相近位置的目标,是 CLIP、ALIGN 等模型的核心。",
term_es = "alineación imagen-texto",
term_zh = "图文对齐",
aliases_es = { "alineamiento imagen-texto", "alineación visión-lenguaje" },
aliases_zh = { "图像-文本对齐", "视觉-语言对齐" },
}
data["image-text contrastive loss"] = {
short = "A contrastive objective that pulls embeddings of matched image-text pairs together while pushing apart mismatched pairs in a batch, popularized by CLIP.",
article = nil,
aliases = { "ITC loss", "ITC", "image-text contrastive learning", "contrastive image-text loss" },
es = "Objetivo contrastivo que acerca las representaciones de pares imagen-texto correctos y aleja las de pares incorrectos dentro de un lote, popularizado por CLIP.",
zh = "一种对比学习目标,在一个批次中拉近匹配图文对的嵌入并推远不匹配对,由 CLIP 推广。",
term_es = "pérdida contrastiva imagen-texto",
term_zh = "图文对比损失",
aliases_es = { "ITC", "image-text contrastive loss" },
aliases_zh = { "ITC 损失", "图像-文本对比损失" },
}
data["image-text matching"] = {
short = "A binary classification task of predicting whether a given image and text describe each other, used as a pretraining objective in vision-language models such as ALBEF and BLIP.",
article = nil,
aliases = { "ITM", "image-text matching task" },
es = "Tarea de clasificación binaria que consiste en predecir si una imagen y un texto se describen mutuamente, empleada como objetivo de preentrenamiento en modelos visión-lenguaje como ALBEF y BLIP.",
zh = "预测给定图像与文本是否相互描述的二分类任务,作为 ALBEF、BLIP 等视觉-语言模型的预训练目标。",
term_es = "emparejamiento imagen-texto",
term_zh = "图文匹配",
aliases_es = { "ITM", "image-text matching" },
aliases_zh = { "ITM", "图像-文本匹配" },
}
data["image-text matching loss"] = {
short = "The cross-entropy loss attached to the image-text matching head of a vision-language model, training it to discriminate matched from mismatched image-text pairs.",
article = nil,
aliases = { "ITM loss", "image-text matching objective" },
es = "Pérdida de entropía cruzada asociada al cabezal de emparejamiento imagen-texto de un modelo visión-lenguaje, que aprende a distinguir pares imagen-texto correctos de incorrectos.",
zh = "视觉-语言模型中图文匹配头部所用的交叉熵损失,用于训练模型区分匹配与不匹配的图文对。",
term_es = "pérdida de emparejamiento imagen-texto",
term_zh = "图文匹配损失",
aliases_es = { "ITM loss", "image-text matching loss" },
aliases_zh = { "ITM 损失", "图像-文本匹配损失" },
}
data["image-text pretraining"] = {
short = "Self-supervised or weakly-supervised pretraining of multimodal models on large image-caption corpora, typically combining contrastive, matching, and language-modeling objectives.",
article = nil,
aliases = { "vision-language pretraining", "VLP", "image-text pre-training" },
es = "Preentrenamiento autosupervisado o débilmente supervisado de modelos multimodales sobre grandes corpus de pares imagen-texto, combinando habitualmente objetivos contrastivos, de emparejamiento y de modelado de lenguaje.",
zh = "在大规模图像-文本语料上对多模态模型进行的自监督或弱监督预训练,通常结合对比、匹配和语言建模等目标。",
term_es = "preentrenamiento imagen-texto",
term_zh = "图文预训练",
aliases_es = { "preentrenamiento visión-lenguaje", "VLP" },
aliases_zh = { "视觉-语言预训练", "VLP" },
}
data["image-text retrieval"] = {
short = "The task of retrieving relevant texts given an image query, or relevant images given a text query, evaluated with metrics such as Recall@K on benchmarks like MSCOCO and Flickr30k.",
article = nil,
aliases = { "ITR", "cross-modal retrieval", "image text retrieval" },
es = "Tarea de recuperar textos relevantes a partir de una consulta de imagen, o imágenes relevantes a partir de una consulta de texto, evaluada con métricas como Recall@K en benchmarks como MSCOCO y Flickr30k.",
zh = "给定图像查询检索相关文本,或给定文本查询检索相关图像的任务,常在 MSCOCO、Flickr30k 等基准上以 Recall@K 等指标评估。",
term_es = "recuperación imagen-texto",
term_zh = "图文检索",
aliases_es = { "ITR", "recuperación cruzada modal" },
aliases_zh = { "图像-文本检索", "跨模态检索" },
}
data["image-to-3d"] = {
short = "A class of generative methods that produce a 3D representation (mesh, NeRF, or Gaussian splat) from one or a few input images, typically combining 2D diffusion priors with multi-view reconstruction.",
article = nil,
aliases = { "image to 3D", "img-to-3D", "single-image 3D reconstruction", "image-to-3D generation" },
es = "Familia de métodos generativos que producen una representación 3D (malla, NeRF o splat gaussiano) a partir de una o pocas imágenes de entrada, combinando típicamente priors de difusión 2D con reconstrucción multivista.",
zh = "一类生成式方法,从单张或少量输入图像生成 3D 表示(网格、NeRF 或高斯散点),通常将二维扩散先验与多视角重建相结合。",
term_es = "image-to-3D",
term_zh = "图像生成 3D",
aliases_es = { "imagen a 3D", "reconstrucción 3D a partir de imagen" },
aliases_zh = { "image-to-3D", "单图 3D 重建" },
}
data["image-to-image"] = {
short = "A generative task that transforms an input image into an output image conditioned on a text prompt or style, commonly implemented in diffusion models by partially noising the input and denoising under guidance.",
article = nil,
aliases = { "img2img", "image to image", "I2I", "image-to-image translation" },
es = "Tarea generativa que transforma una imagen de entrada en una imagen de salida condicionada por un prompt o estilo, comúnmente implementada en modelos de difusión añadiendo ruido parcial a la entrada y eliminándolo bajo guía.",
zh = "一种生成任务,根据文本提示或风格将输入图像转换为输出图像,通常在扩散模型中通过对输入加部分噪声后再有引导地去噪来实现。",
term_es = "image-to-image",
term_zh = "图像到图像",
aliases_es = { "img2img", "imagen a imagen", "traducción imagen a imagen" },
aliases_zh = { "img2img", "image-to-image", "图到图" },
}
data["image-to-text retrieval"] = {
short = "The directional retrieval task of returning the most relevant texts for a given image query, one of the two halves of bidirectional image-text retrieval.",
article = nil,
aliases = { "i2t retrieval", "image-to-text", "image-to-text search" },
es = "Tarea direccional de recuperación que consiste en devolver los textos más relevantes para una imagen de consulta, una de las dos mitades de la recuperación bidireccional imagen-texto.",
zh = "以图像为查询返回最相关文本的有向检索任务,是双向图文检索的两半之一。",
term_es = "recuperación imagen-a-texto",
term_zh = "图像到文本检索",
aliases_es = { "i2t", "recuperación de texto desde imagen" },
aliases_zh = { "图到文检索", "i2t 检索" },
}
data["image-to-video"] = {
short = "A generative task that produces a short video clip from a single input image, optionally guided by a text prompt or motion specification, typically using diffusion models with temporal layers.",
article = nil,
aliases = { "img2vid", "image to video", "I2V", "image-to-video generation" },
es = "Tarea generativa que produce un clip de vídeo corto a partir de una sola imagen de entrada, opcionalmente guiada por un prompt o especificación de movimiento, generalmente usando modelos de difusión con capas temporales.",
zh = "一种生成任务,从单张输入图像生成短视频片段,可选地由文本提示或运动指定引导,通常采用带时间层的扩散模型。",
term_es = "image-to-video",
term_zh = "图像生成视频",
aliases_es = { "img2vid", "imagen a vídeo" },
aliases_zh = { "img2vid", "image-to-video", "图生视频" },
}
data["imagebind"] = {
short = "A model from Meta AI that learns a single embedding space binding six modalities — image, text, audio, depth, thermal, and IMU — by pairing each non-image modality only with images during training.",
article = nil,
aliases = { "ImageBind", "IMAGEBIND", "Image Bind" },
es = "Modelo de Meta AI que aprende un único espacio de representaciones que vincula seis modalidades — imagen, texto, audio, profundidad, térmica e IMU — emparejando cada modalidad no visual únicamente con imágenes durante el entrenamiento.",
zh = "Meta AI 提出的模型,学习将图像、文本、音频、深度、热成像和 IMU 等六种模态绑定到同一嵌入空间,训练时仅将各非图像模态与图像配对。",
term_es = "ImageBind",
term_zh = "ImageBind",
aliases_es = { "Image Bind" },
aliases_zh = { "Image Bind" },
}
data["imagen"] = {
short = "Google Research's 2022 text-to-image diffusion model that uses a frozen large language model (T5-XXL) for text encoding and a cascade of diffusion models with classifier-free guidance to produce photorealistic images.",
article = nil,
aliases = { "Imagen", "Google Imagen", "Imagen text-to-image" },
es = "Modelo de difusión texto-a-imagen presentado por Google Research en 2022 que utiliza un modelo de lenguaje grande congelado (T5-XXL) como codificador de texto y una cascada de modelos de difusión con guía sin clasificador para producir imágenes fotorrealistas.",
zh = "Google Research 于 2022 年提出的文本到图像扩散模型,使用冻结的大型语言模型(T5-XXL)作为文本编码器,并通过级联扩散模型和无分类器引导生成照片级真实感图像。",
term_es = "Imagen",
term_zh = "Imagen",
aliases_es = { "Imagen de Google", "Google Imagen" },
aliases_zh = { "Imagen 模型", "谷歌 Imagen", "Google Imagen" },
}
data["imagen 2"] = {
short = "Google's second-generation text-to-image diffusion model, succeeding the original Imagen with improved photorealism, text rendering, and multilingual prompt handling.",
article = nil,
aliases = { "Imagen 2", "Imagen2", "Google Imagen 2" },
es = "Modelo de difusión texto-a-imagen de segunda generación de Google, sucesor de Imagen original, con mejor fotorrealismo, renderizado de texto y soporte multilingüe en los prompts.",
zh = "Google 的第二代文本到图像扩散模型,在初代 Imagen 基础上提升了真实感、文字渲染和多语言提示处理能力。",
term_es = "Imagen 2",
term_zh = "Imagen 2",
aliases_es = { "Google Imagen 2" },
aliases_zh = { "Google Imagen 2" },
}
data["imagen 3"] = {
short = "Google DeepMind's third-generation text-to-image diffusion model, with finer prompt adherence, richer detail, and improved compositional and typographic accuracy compared with Imagen 2.",
article = nil,
aliases = { "Imagen 3", "Imagen3", "Google Imagen 3" },
es = "Modelo de difusión texto-a-imagen de tercera generación de Google DeepMind, con mejor seguimiento de prompts, mayor riqueza de detalle y precisión composicional y tipográfica superiores a Imagen 2.",
zh = "Google DeepMind 的第三代文本到图像扩散模型,相比 Imagen 2 在提示遵循、细节丰富度以及构图与排版准确性上均有提升。",
term_es = "Imagen 3",
term_zh = "Imagen 3",
aliases_es = { "Google Imagen 3" },
aliases_zh = { "Google Imagen 3" },
}
data["imagen video"] = {
short = "Google's text-to-video diffusion model that extends the Imagen family to high-definition video generation through a cascade of base and super-resolution video diffusion models.",
article = nil,
aliases = { "Imagen Video", "ImagenVideo", "Imagen-Video" },
es = "Modelo de difusión texto-a-vídeo de Google que extiende la familia Imagen a la generación de vídeo de alta definición mediante una cascada de modelos de difusión base y de superresolución.",
zh = "Google 提出的文本到视频扩散模型,通过基础模型与超分辨率扩散模型级联,将 Imagen 系列扩展到高清视频生成。",
term_es = "Imagen Video",
term_zh = "Imagen Video",
aliases_es = { "Imagen-Video" },
aliases_zh = { "Imagen-Video" },
}
data["imagereward"] = {
short = "A reward model trained on human preference data over text-to-image outputs, used to score and align diffusion models with human aesthetic and prompt-fidelity preferences.",
article = nil,
aliases = { "ImageReward", "Image Reward", "ImageReward model" },
es = "Modelo de recompensa entrenado con datos de preferencia humana sobre salidas de texto-a-imagen, empleado para puntuar y alinear modelos de difusión con las preferencias humanas de estética y fidelidad al prompt.",
zh = "在人类对文本-图像生成结果的偏好数据上训练的奖励模型,用于对扩散模型进行打分并使其与人类的审美和提示忠实度偏好对齐。",
term_es = "ImageReward",
term_zh = "ImageReward",
aliases_es = { "Image Reward" },
aliases_zh = { "Image Reward" },
}
data["imagic"] = {
short = "A text-based image editing method that fine-tunes a pretrained text-to-image diffusion model on a single image and interpolates text embeddings to apply complex semantic edits.",
article = nil,
aliases = { "Imagic", "IMAGIC" },
es = "Método de edición de imágenes basado en texto que ajusta un modelo de difusión texto-a-imagen preentrenado sobre una única imagen e interpola embeddings textuales para aplicar ediciones semánticas complejas.",
zh = "一种基于文本的图像编辑方法,在单张图像上微调预训练的文本到图像扩散模型,并对文本嵌入进行插值以实现复杂的语义编辑。",
term_es = "Imagic",
term_zh = "Imagic",
aliases_es = { "IMAGIC" },
aliases_zh = { "IMAGIC" },
}
data["imaml"] = {
short = "Implicit MAML — a meta-learning algorithm that uses implicit differentiation at the optimum of the inner-loop loss to compute meta-gradients, decoupling memory cost from inner-loop length and avoiding back-propagation through the inner trajectory.",
article = nil,
aliases = { "iMAML", "Implicit MAML", "implicit MAML" },
es = "Implicit MAML: algoritmo de meta-aprendizaje que utiliza diferenciación implícita en el óptimo de la pérdida del bucle interno para calcular meta-gradientes, desacoplando el coste de memoria de la longitud del bucle interno y evitando retropropagar por toda la trayectoria interna.",
zh = "Implicit MAML:在内循环损失最优点处使用隐式微分计算元梯度的元学习算法,使内存开销与内循环长度无关,避免对内循环轨迹进行反向传播。",
term_es = "iMAML",
term_zh = "iMAML",
aliases_es = { "iMAML", "MAML implícito", "Implicit MAML" },
aliases_zh = { "iMAML", "Implicit MAML", "隐式 MAML" },
}
data["img2img"] = {
short = "Shorthand for image-to-image generation: a diffusion-model workflow in which an existing image is partially noised and then denoised under text or style guidance to produce a transformed output.",
article = nil,
aliases = { "img-to-img", "image-to-image", "i2i" },
es = "Abreviatura de generación image-to-image: flujo de trabajo de modelos de difusión en el que una imagen existente se ruidifica parcialmente y luego se desruidifica bajo guía de texto o estilo para producir una salida transformada.",
zh = "图像到图像生成的简称:扩散模型工作流程中,先对已有图像加部分噪声,再在文本或风格引导下去噪,生成转换后的输出图像。",
term_es = "img2img",
term_zh = "img2img",
aliases_es = { "image-to-image", "imagen a imagen" },
aliases_zh = { "图到图", "image-to-image" },
}
data["imitation learning"] = {
short = "A class of methods that train policies to reproduce expert demonstrations, either by direct supervised mapping from observations to actions or by inferring an underlying objective the expert is optimizing.",
article = nil,
aliases = { "learning from demonstration", "LfD", "apprenticeship learning" },
es = "Familia de métodos que entrenan políticas para reproducir demostraciones de expertos, ya sea mediante un mapeo supervisado directo de observaciones a acciones o infiriendo el objetivo subyacente que el experto optimiza.",
zh = "一类训练策略以复现专家示范的方法,既可以通过从观测到动作的直接监督映射,也可以通过推断专家所优化的潜在目标。",
term_es = "aprendizaje por imitación",
term_zh = "模仿学习",
aliases_es = { "aprendizaje por demostración", "aprendizaje a partir de demostraciones" },
aliases_zh = { "示范学习", "从示范中学习", "imitation learning" },
}
data["immorality"] = {
short = "In a directed acyclic graph, a configuration X → Z ← Y where the parents X and Y are not directly connected; immoralities (also called v-structures) determine the Markov-equivalence class of a DAG.",
article = nil,
aliases = { "immoralities", "v-structure", "v-structures", "unshielded collider", "unshielded v-structure" },
es = "En un grafo acíclico dirigido, una configuración X → Z ← Y en la que los padres X e Y no están conectados directamente; las inmoralidades (también llamadas v-estructuras) determinan la clase de equivalencia de Markov de un DAG.",
zh = "在有向无环图中,形如 X → Z ← Y 且父节点 X 与 Y 之间无直接边的结构;不道德结构(也称 v 结构)决定了 DAG 的马尔可夫等价类。",
term_es = "inmoralidad",
term_zh = "不道德结构",
aliases_es = { "inmoralidades", "v-estructura", "v-estructuras", "colisionador desprotegido" },
aliases_zh = { "v 结构", "v-结构", "无屏蔽碰撞结构", "未屏蔽 v 结构" },
}
data["immortal time bias"] = {
short = "Bias in observational survival studies that arises when a span of follow-up during which the outcome cannot occur is misclassified into a treatment group, artificially inflating that group's survival.",
article = nil,
aliases = { "immortal person-time bias", "survivor treatment selection bias" },
es = "Sesgo en estudios observacionales de supervivencia que surge cuando un período en el que el evento no puede ocurrir se asigna erróneamente a un grupo de tratamiento, inflando artificialmente la supervivencia de ese grupo.",
zh = "观察性生存研究中的一种偏倚:将受试者不可能发生事件的随访期错误地划入某个治疗组,从而人为抬高该组的生存率。",
term_es = "sesgo de tiempo inmortal",
term_zh = "永生时间偏倚",
aliases_es = { "sesgo de persona-tiempo inmortal" },
aliases_zh = { "不死时间偏倚", "永生时间偏差" },
}
data["immunebuilder"] = {
short = "An open-source deep learning suite for rapid prediction of antibody, nanobody, and T-cell receptor 3D structures, achieving accuracy comparable to AlphaFold-Multimer at a fraction of the inference cost.",
article = nil,
aliases = { "ImmuneBuilder", "ABodyBuilder2", "NanoBodyBuilder2", "TCRBuilder2" },
es = "Conjunto de herramientas de aprendizaje profundo de código abierto para la predicción rápida de estructuras 3D de anticuerpos, nanocuerpos y receptores de células T, con precisión comparable a AlphaFold-Multimer a una fracción del costo de inferencia.",
zh = "一个开源深度学习工具集,用于快速预测抗体、纳米抗体和 T 细胞受体的三维结构,精度可与 AlphaFold-Multimer 相当,但推理成本仅为后者的一小部分。",
term_es = "ImmuneBuilder",
term_zh = "ImmuneBuilder",
aliases_es = { "ImmuneBuilder", "ABodyBuilder2" },
aliases_zh = { "ImmuneBuilder", "ABodyBuilder2" },
}
data["impala"] = {
short = "A distributed actor-critic architecture in which many actors generate trajectories that are sent to a central learner; the off-policy correction V-trace compensates for the lag between behavior and target policies, enabling massive throughput.",
article = nil,
aliases = { "IMPALA", "Importance Weighted Actor-Learner Architecture", "V-trace agent" },
es = "Arquitectura actor-crítico distribuida en la que muchos actores generan trayectorias que se envían a un aprendiz central; la corrección off-policy V-trace compensa el desfase entre las políticas de comportamiento y objetivo, permitiendo un rendimiento masivo.",
zh = "一种分布式 actor-critic 架构,多个 actor 生成轨迹并发送给中央 learner;其离策略校正 V-trace 用于补偿行为策略与目标策略之间的滞后,从而实现极高吞吐量。",
term_es = "IMPALA",
term_zh = "IMPALA",
aliases_es = { "Importance Weighted Actor-Learner Architecture" },
aliases_zh = { "重要性加权 actor-learner 架构", "Importance Weighted Actor-Learner Architecture" },
}
data["implicit differentiation"] = {
short = "A technique for computing gradients through implicitly defined quantities such as fixed points or solutions of optimization problems, typically by applying the implicit function theorem.",
article = nil,
aliases = { "implicit gradients", "implicit function differentiation" },
es = "Técnica para calcular gradientes a través de cantidades definidas implícitamente, como puntos fijos o soluciones de problemas de optimización, aplicando habitualmente el teorema de la función implícita.",
zh = "通过隐函数定理等手段,对由不动点或优化问题解等隐式定义的量进行梯度计算的技术。",
term_es = "diferenciación implícita",
term_zh = "隐式微分",
aliases_es = { "gradientes implícitos" },
aliases_zh = { "隐式求导", "隐函数求导" },
}
data["implicit generative model"] = {
short = "A generative model that defines a sampling procedure (typically a neural network mapping noise to data) without specifying a tractable density function, with GANs as the canonical example.",
article = nil,
aliases = { "implicit density model", "implicit model" },
es = "Modelo generativo que define un procedimiento de muestreo (típicamente una red neuronal que mapea ruido a datos) sin especificar una función de densidad tratable, siendo las GAN el ejemplo canónico.",
zh = "一种生成模型,定义一个采样过程(通常是将噪声映射到数据的神经网络),但不指定可计算的密度函数,GAN 是其代表性例子。",
term_es = "modelo generativo implícito",
term_zh = "隐式生成模型",
aliases_es = { "modelo de densidad implícita", "modelo implícito" },
aliases_zh = { "隐式密度模型", "隐式模型" },
}
data["implicit prior"] = {
short = "A prior distribution defined implicitly through a generative process or sampler rather than by an explicit probability density, used when only samples or simulations are available.",
article = nil,
aliases = { "implicit priors" },
es = "Distribución a priori definida implícitamente a través de un proceso generativo o un simulador en lugar de una densidad explícita, útil cuando solo se dispone de muestras o simulaciones.",
zh = "通过生成过程或采样器隐式定义的先验分布,而非给出显式概率密度,适用于仅能获得样本或模拟的情形。",
term_es = "prior implícito",
term_zh = "隐式先验",
aliases_es = { "distribución a priori implícita" },
aliases_zh = { "隐先验", "隐式先验分布" },
}
data["implicit reparameterization"] = {
short = "A gradient-estimation technique that differentiates samples from distributions lacking an explicit reparameterization (e.g. Gamma, Dirichlet) by implicit differentiation of the CDF, enabling pathwise gradients in variational inference.",
article = nil,
aliases = { "implicit reparameterization gradients", "implicit reparameterisation" },
es = "Técnica de estimación de gradientes que diferencia muestras de distribuciones sin reparametrización explícita (Gamma, Dirichlet, etc.) mediante diferenciación implícita de la función de distribución, permitiendo gradientes path-wise en inferencia variacional.",
zh = "通过对累积分布函数进行隐式求导,对没有显式重参数化的分布(如 Gamma、Dirichlet)的样本求梯度的技术,使变分推断可使用 pathwise 梯度。",
term_es = "reparametrización implícita",
term_zh = "隐式重参数化",
aliases_es = { "gradientes de reparametrización implícita" },
aliases_zh = { "隐式重参数化梯度", "隐重参数化" },
}
data["implicit solvent"] = {
short = "A solvation model that treats the solvent as a continuous dielectric medium rather than as explicit molecules, dramatically reducing the cost of molecular simulations at the expense of atomistic detail.",
article = nil,
aliases = { "implicit solvation", "continuum solvation", "continuum solvent model", "implicit solvent model" },
es = "Modelo de solvatación que trata al disolvente como un medio dieléctrico continuo en lugar de moléculas explícitas, reduciendo drásticamente el costo de las simulaciones moleculares a costa del detalle atomístico.",
zh = "一种溶剂化模型,将溶剂视为连续的介电介质而非显式分子,大幅降低分子模拟的计算成本,代价是失去原子级细节。",
term_es = "solvente implícito",
term_zh = "隐式溶剂",
aliases_es = { "solvatación implícita", "modelo de continuo", "solvente continuo" },
aliases_zh = { "隐式溶剂模型", "连续介质溶剂模型", "连续溶剂化" },
}
data["implicit variational inference"] = {
short = "Variational inference in which the variational distribution is represented implicitly by a sampler or neural transformation, with no tractable density; the ELBO's density-ratio terms are estimated by adversarial or kernel methods.",
article = nil,
aliases = { "implicit VI", "adversarial variational inference" },
es = "Inferencia variacional en la que la distribución variacional se representa implícitamente mediante un muestreador o transformación neuronal, sin densidad tratable; los cocientes de densidad del ELBO se estiman por métodos adversariales o kernel.",
zh = "变分推断的一种形式:变分分布通过采样器或神经网络变换隐式给出,没有可解析的密度;ELBO 中的密度比通过对抗或核方法进行估计。",
term_es = "inferencia variacional implícita",
term_zh = "隐式变分推断",
aliases_es = { "VI implícita" },
aliases_zh = { "隐变分推断", "隐式 VI" },
}
data["importance client sampling"] = {
short = "A federated learning client selection strategy that samples clients with probabilities proportional to a measure of their importance (e.g., gradient norm or local loss) to reduce variance of the global update.",
article = nil,
aliases = { "importance sampling federated", "importance-based client sampling", "importance client selection" },
es = "Estrategia de selección de clientes en aprendizaje federado que muestrea a los clientes con probabilidades proporcionales a una medida de su importancia (por ejemplo, norma del gradiente o pérdida local) para reducir la varianza de la actualización global.",
zh = "一种联邦学习客户端采样策略,以与客户端重要性度量(如梯度范数或本地损失)成比例的概率抽取客户端,以降低全局更新的方差。",
term_es = "muestreo de clientes por importancia",
term_zh = "重要性客户端采样",
aliases_es = { "muestreo por importancia federado", "selección de clientes por importancia" },
aliases_zh = { "重要性采样(联邦)", "基于重要性的客户端选择" },
}
data["importance sampling"] = {
short = "A Monte Carlo technique for estimating expectations under a target distribution by drawing samples from a tractable proposal distribution and reweighting them by the ratio of target to proposal densities.",
article = nil,
aliases = { "IS", "importance weighting", "importance-weighted sampling", "weighted Monte Carlo" },
es = "Técnica de Monte Carlo que estima esperanzas bajo una distribución objetivo extrayendo muestras de una distribución de propuesta tratable y reponderándolas por el cociente entre las densidades objetivo y de propuesta.",
zh = "一种蒙特卡洛技术,通过从可处理的提议分布中采样并按目标密度与提议密度的比率重新加权,估计目标分布下的期望。",
term_es = "muestreo por importancia",
term_zh = "重要性采样",
aliases_es = { "IS", "ponderación por importancia", "muestreo de importancia" },
aliases_zh = { "重要性加权", "IS", "重要性抽样" },
}
data["importance sampling estimator"] = {
short = "Off-policy estimator that reweights trajectories or outcomes generated under a behavior policy by the ratio of target to behavior policy probabilities to estimate the value of the target policy.",
article = nil,
aliases = { "IS estimator", "importance-sampling estimator", "IPS estimator", "inverse propensity score estimator" },
es = "Estimador fuera de política que pondera las trayectorias o resultados generados bajo una política de comportamiento por el cociente entre las probabilidades de la política objetivo y la de comportamiento, para estimar el valor de la política objetivo.",
zh = "一种异策略估计量,通过用目标策略与行为策略概率之比对行为策略产生的轨迹或结果进行加权,从而估计目标策略的价值。",
term_es = "estimador de muestreo por importancia",
term_zh = "重要性采样估计量",
aliases_es = { "estimador IS", "estimador IPS" },
aliases_zh = { "IS 估计量", "重要性加权估计" },
}
data["importance weighted autoencoder"] = {
short = "A variational autoencoder trained on a tighter k-sample importance-weighted lower bound of the marginal likelihood, yielding a strictly better bound and richer posterior approximation than the standard ELBO.",
article = nil,
aliases = { "IWAE", "importance-weighted autoencoder", "importance weighted autoencoders", "IWAEs" },
es = "Autoencoder variacional entrenado con una cota inferior de la verosimilitud marginal ponderada por importancia con k muestras, que es estrictamente más ajustada que el ELBO estándar y produce mejores aproximaciones posteriores.",
zh = "一种变分自编码器,使用基于 k 样本重要性加权的更紧边际似然下界进行训练,比标准 ELBO 更紧,且能给出更丰富的后验近似。",
term_es = "autoencoder ponderado por importancia",
term_zh = "重要性加权自编码器",
aliases_es = { "IWAE", "autoencoder variacional ponderado por importancia" },
aliases_zh = { "IWAE", "重要性加权变分自编码器", "重要性加权 VAE" },
}
data["importance weighted variational inference"] = {
short = "A variational inference scheme that replaces the ELBO with an importance-weighted multi-sample bound, tightening the lower bound on the log marginal likelihood at the cost of more samples per gradient step.",
article = nil,
aliases = { "IWVI", "importance-weighted variational inference", "importance-weighted VI" },
es = "Esquema de inferencia variacional que reemplaza el ELBO por una cota multi-muestra ponderada por importancia, ajustando más la cota inferior de la log-verosimilitud marginal a costa de más muestras por paso de gradiente.",
zh = "一种变分推断方法,用重要性加权的多样本下界替代 ELBO,以每步更多样本为代价收紧对对数边际似然的下界估计。",
term_es = "inferencia variacional ponderada por importancia",
term_zh = "重要性加权变分推断",
aliases_es = { "IWVI", "VI ponderada por importancia" },
aliases_zh = { "IWVI", "重要性加权 VI" },
}
data["impossibility theorem fairness"] = {
short = "Results showing that several intuitive group fairness criteria—commonly calibration, equal false-positive rate, and equal false-negative rate—cannot all be simultaneously satisfied except in degenerate cases.",
article = nil,
aliases = { "fairness impossibility theorem", "impossibility of fairness", "Chouldechova-Kleinberg impossibility", "fairness incompatibility theorem" },
es = "Resultados que demuestran que varios criterios intuitivos de equidad de grupo —usualmente calibración, igualdad de tasa de falsos positivos e igualdad de tasa de falsos negativos— no pueden satisfacerse simultáneamente salvo en casos degenerados.",
zh = "一类结论,证明若干直观的群体公平性准则——通常包括校准、假阳性率相等与假阴性率相等——在非退化情况下不可同时成立。",
term_es = "teorema de imposibilidad de la equidad",
term_zh = "公平性不可能定理",
aliases_es = { "imposibilidad de la equidad", "incompatibilidad de criterios de equidad" },
aliases_zh = { "公平性不可能性定理", "公平性不可兼得定理", "Chouldechova–Kleinberg 不可能性" },
}
data["imputation genotype"] = {
short = "The statistical inference of unobserved genotypes at variant sites in a target sample by leveraging haplotype patterns from a reference panel of densely typed or sequenced individuals.",
article = nil,
aliases = { "genotype imputation", "imputed genotypes", "haplotype imputation" },
es = "Inferencia estadística de genotipos no observados en sitios variantes de una muestra objetivo, aprovechando patrones de haplotipos de un panel de referencia de individuos densamente genotipados o secuenciados.",
zh = "通过利用密集分型或测序个体所构成的参考panel中的单倍型模式,对目标样本中未观测变异位点的基因型进行统计推断。",
term_es = "imputación de genotipos",
term_zh = "基因型填补",
aliases_es = { "imputación genotípica", "imputación de haplotipos", "genotipos imputados" },
aliases_zh = { "基因型填充", "基因型插补", "单倍型填补", "genotype imputation" },
}
data["in-context explanation"] = {
short = "An explanation produced by a large language model that, prompted with a query and optionally a few demonstrations, generates a natural-language rationale for its answer using in-context learning rather than a separate explanation method.",
article = nil,
aliases = { "in-context rationale", "ICL explanation", "prompted explanation" },
es = "Explicación producida por un modelo de lenguaje grande que, al recibir una consulta y opcionalmente algunas demostraciones, genera una justificación en lenguaje natural para su respuesta mediante aprendizaje en contexto, en lugar de un método de explicación separado.",
zh = "由大型语言模型在收到查询及可选示例后,通过上下文学习直接生成自然语言推理依据的解释,而非依赖独立的解释方法。",
term_es = "explicación en contexto",
term_zh = "上下文解释",
aliases_es = { "justificación en contexto", "explicación ICL", "explicación por prompt" },
aliases_zh = { "上下文学习解释", "ICL 解释", "提示式解释" },
}
data["in-context learning"] = {
short = "The ability of a large language model to perform a new task by conditioning on instructions or input-output examples placed in the prompt at inference time, without any update to the model's parameters.",
article = nil,
aliases = { "ICL", "In-Context Learning", "in context learning", "in-context-learning" },
es = "Capacidad de un modelo de lenguaje grande para resolver una nueva tarea condicionándose en instrucciones o ejemplos de entrada-salida colocados en el prompt durante la inferencia, sin actualizar los parámetros del modelo.",
zh = "大型语言模型在推理时通过提示中提供的指令或输入-输出示例完成新任务的能力,无需更新模型参数。",
term_es = "aprendizaje en contexto",
term_zh = "上下文学习",
aliases_es = { "ICL", "in-context learning", "aprendizaje contextual", "aprendizaje dentro del contexto" },
aliases_zh = { "ICL", "in-context learning", "情境学习", "语境学习" },
}
data["in-flight batching"] = {
short = "An LLM serving technique that dynamically inserts and removes requests within an in-progress batch as sequences finish, improving GPU utilization compared to static batching. Also called continuous batching.",
article = nil,
aliases = { "continuous batching", "iteration-level scheduling", "dynamic batching", "in flight batching" },
es = "Técnica de servicio de LLM que inserta y retira dinámicamente solicitudes dentro de un lote en curso a medida que las secuencias finalizan, mejorando la utilización de la GPU frente al batching estático. También llamada continuous batching.",
zh = "一种 LLM 服务技术,在进行中的批次内随序列完成动态插入和移除请求,相比静态批处理显著提升 GPU 利用率,也称为连续批处理。",
term_es = "in-flight batching",
term_zh = "在途批处理",
aliases_es = { "continuous batching", "batching continuo" },
aliases_zh = { "continuous batching", "连续批处理", "动态批处理" },
}
data["in-processing debiasing"] = {
short = "Bias mitigation methods that modify the training procedure itself—through fairness-constrained optimization, regularizers, or adversarial objectives—rather than altering data (pre-processing) or outputs (post-processing).",
article = nil,
aliases = { "in-processing debias", "in-processing fairness", "in-training debiasing" },
es = "Métodos de mitigación de sesgo que modifican el propio procedimiento de entrenamiento —mediante optimización con restricciones de equidad, regularizadores u objetivos adversariales— en lugar de modificar los datos (pre-procesamiento) o las salidas (post-procesamiento).",
zh = "在训练过程中进行的去偏方法——通过带公平性约束的优化、正则项或对抗目标——而非修改数据(预处理)或输出(后处理)。",
term_es = "mitigación in-processing",
term_zh = "处理中去偏",
aliases_es = { "debiasing in-processing", "equidad in-processing", "mitigación durante el entrenamiento" },
aliases_zh = { "训练中去偏", "in-processing 去偏", "处理中公平性方法" },
}
data["in-run data shapley"] = {
short = "A data-valuation method that estimates Shapley values for training examples using checkpoints from a single training run, avoiding the combinatorial cost of repeated retraining.",
article = nil,
aliases = { "In-Run Data Shapley", "in-run Shapley", "single-run data Shapley" },
es = "Método de valoración de datos que estima los valores de Shapley de ejemplos de entrenamiento utilizando puntos de control de una única ejecución de entrenamiento, evitando el coste combinatorio del reentrenamiento repetido.",
zh = "一种数据估值方法,利用单次训练运行中的检查点来估计训练样本的Shapley值,从而避免反复重训练所带来的组合开销。",
term_es = "Shapley de datos en ejecución",
term_zh = "运行内数据Shapley",
aliases_es = { "In-Run Data Shapley", "Shapley de datos en una sola ejecución" },
aliases_zh = { "In-Run Data Shapley", "单次运行数据Shapley" },
}
data["in-training calibration"] = {
short = "Approaches that improve predictive calibration during model training, e.g. via calibration-aware losses, label smoothing, or focal loss, in contrast to post-hoc methods like temperature scaling.",
article = nil,
aliases = { "training-time calibration", "in training calibration" },
es = "Enfoques que mejoran la calibración de las predicciones durante el entrenamiento, mediante pérdidas conscientes de la calibración, suavizado de etiquetas o focal loss, en contraste con los métodos post-hoc como temperature scaling.",
zh = "在训练阶段改善预测校准的方法,例如校准感知损失、标签平滑或 focal loss,与温度缩放等事后校准方法相对。",
term_es = "calibración durante el entrenamiento",
term_zh = "训练期校准",
aliases_es = { "calibración en tiempo de entrenamiento" },
aliases_zh = { "训练时校准", "训练阶段校准" },
}
data["incentive mechanism federated"] = {
short = "Mechanism design for federated learning that rewards participating clients (e.g., via payments, reputation, or model access) in proportion to data quality, computation, or contribution, to encourage truthful and sustained participation.",
article = nil,
aliases = { "federated incentive mechanism", "incentive design federated learning", "FL incentive mechanism" },
es = "Diseño de mecanismos para el aprendizaje federado que recompensa a los clientes participantes (por ejemplo, mediante pagos, reputación o acceso al modelo) en proporción a la calidad de los datos, el cómputo o la contribución, para fomentar una participación veraz y sostenida.",
zh = "面向联邦学习的机制设计,根据数据质量、计算量或贡献(例如以支付、信誉或模型访问权)对参与客户端进行激励,以鼓励真实且持续的参与。",
term_es = "mecanismo de incentivos federado",
term_zh = "联邦学习激励机制",
aliases_es = { "diseño de incentivos en aprendizaje federado", "mecanismo de incentivos en FL" },
aliases_zh = { "联邦激励机制", "FL 激励机制" },
}
data["inception"] = {
short = "A family of convolutional networks built around the Inception module, which applies multiple convolution filter sizes and pooling in parallel within a single block. Variants include Inception v1 through v4 and Inception-ResNet.",
article = nil,
aliases = { "Inception", "Inception network", "Inception module", "Inception v2", "Inception v3", "Inception v4", "Inception-ResNet" },
es = "Familia de redes convolucionales construida en torno al módulo Inception, que aplica en paralelo múltiples tamaños de filtro de convolución y pooling dentro de un mismo bloque. Las variantes incluyen Inception v1 a v4 e Inception-ResNet.",
zh = "围绕 Inception 模块构建的卷积网络家族,该模块在同一区块内并行应用多种卷积滤波器尺寸与池化操作。变体包括 Inception v1 至 v4 以及 Inception-ResNet。",
term_es = "Inception",
term_zh = "Inception",
aliases_es = { "red Inception", "módulo Inception" },
aliases_zh = { "Inception 网络", "Inception 模块", "Inception v3", "Inception-ResNet" },
}
data["inchi"] = {
short = "The IUPAC International Chemical Identifier: a non-proprietary, layered textual string that uniquely encodes a molecule's connectivity, stereochemistry, isotopes, and charge state for unambiguous database indexing.",
article = nil,
aliases = { "InChI", "International Chemical Identifier", "IUPAC InChI" },
es = "Identificador Químico Internacional de la IUPAC: una cadena textual no propietaria y estratificada que codifica de forma única la conectividad, estereoquímica, isótopos y estado de carga de una molécula para su indexación inequívoca en bases de datos.",
zh = "IUPAC 国际化学标识符:一种非专有的分层文本字符串,唯一编码分子的连接性、立体化学、同位素和电荷状态,用于数据库的明确索引。",
term_es = "InChI",
term_zh = "InChI",
aliases_es = { "InChI", "Identificador Químico Internacional" },
aliases_zh = { "InChI", "国际化学标识符" },
}
data["inchi key"] = {
short = "A 27-character fixed-length hashed condensation of an InChI string, designed for compact storage and rapid web search of chemical structures.",
article = nil,
aliases = { "InChIKey", "InChI Key", "InChI-Key", "hashed InChI" },
es = "Una condensación hash de longitud fija de 27 caracteres de una cadena InChI, diseñada para almacenamiento compacto y búsqueda web rápida de estructuras químicas.",
zh = "InChI 字符串的固定长度 27 字符哈希压缩,旨在实现化学结构的紧凑存储和快速网络搜索。",
term_es = "InChIKey",
term_zh = "InChIKey",
aliases_es = { "InChIKey", "clave InChI" },
aliases_zh = { "InChIKey", "InChI 密钥" },
}
data["incomplete data parameter learning"] = {
short = "Estimating the parameters of a probabilistic model when some variables are unobserved or missing, typically using EM, gradient methods on the observed-data likelihood, or variational approximations.",
article = nil,
aliases = { "parameter learning with incomplete data", "parameter learning with missing data", "incomplete-data parameter estimation", "learning from incomplete data" },
es = "Estimar los parámetros de un modelo probabilístico cuando algunas variables no se observan o faltan, típicamente mediante EM, métodos de gradiente sobre la verosimilitud de los datos observados o aproximaciones variacionales.",
zh = "在部分变量未观测或缺失情形下估计概率模型参数,通常使用 EM、对观测数据似然的梯度方法或变分近似。",
term_es = "aprendizaje de parámetros con datos incompletos",
term_zh = "不完整数据下的参数学习",
aliases_es = { "estimación de parámetros con datos incompletos", "aprendizaje de parámetros con datos faltantes" },
aliases_zh = { "缺失数据参数学习", "不完整数据参数估计", "含缺失数据的参数学习" },
}
data["incremental em"] = {
short = "An online variant of the EM algorithm that updates the sufficient statistics and parameters after each data point or mini-batch instead of processing the full dataset at every iteration.",
article = nil,
aliases = { "incremental EM", "online EM", "stochastic EM", "incremental expectation-maximization" },
es = "Variante en línea del algoritmo EM que actualiza los estadísticos suficientes y los parámetros después de cada dato o mini-lote, en lugar de procesar todo el conjunto de datos en cada iteración.",
zh = "EM 算法的在线变体,在每个数据点或小批次后更新充分统计量和参数,而不是每次迭代处理全部数据。",
term_es = "EM incremental",
term_zh = "增量 EM",
aliases_es = { "EM en línea", "EM estocástico" },
aliases_zh = { "incremental EM", "在线 EM", "随机 EM" },
}
data["indel calling"] = {
short = "Detection of small insertion or deletion variants (typically 1-50 bp) from sequencing data by analyzing local read alignments, often via local realignment or assembly-based haplotype reconstruction.",
article = nil,
aliases = { "indel detection", "insertion-deletion calling", "INDEL calling", "small indel calling" },
es = "Detección de variantes de inserción o deleción pequeñas (típicamente 1–50 pb) a partir de datos de secuenciación mediante el análisis de alineamientos locales de lecturas, frecuentemente con realineamiento local o reconstrucción de haplotipos basada en ensamblaje.",
zh = "从测序数据中检测小型插入或缺失变异(通常为1–50 bp)的过程,通常通过分析局部读段比对、局部重比对或基于组装的单倍型重建来完成。",
term_es = "llamada de indels",
term_zh = "indel 检测",
aliases_es = { "detección de indels", "llamada de inserciones y deleciones", "indel calling" },
aliases_zh = { "indel 调用", "插入缺失检测", "小型 indel 检测" },
}
data["independence map"] = {
short = "A graph G is an independence map (I-map) of a distribution P if every conditional independence implied by G holds in P; G is a minimal I-map if no edge can be removed without losing this property.",
article = nil,
aliases = { "I-map", "I map", "Imap", "minimal I-map", "perfect I-map" },
es = "Un grafo G es un mapa de independencia (I-map) de una distribución P si toda independencia condicional implicada por G se cumple en P; G es un I-map mínimo si ninguna arista puede eliminarse sin perder esta propiedad.",
zh = "若图 G 所蕴含的每个条件独立都在分布 P 中成立,则称 G 为 P 的独立性图(I-map);若移除任何一条边都会失去该性质,则称为最小 I-map。",
term_es = "mapa de independencia",
term_zh = "独立性图",
aliases_es = { "I-map", "I-map mínimo", "I-map perfecto" },
aliases_zh = { "I-map", "最小 I-map", "完美 I-map", "独立映射" },
}
data["independence polytope"] = {
short = "The convex hull of indicator vectors of independent sets of a matroid; in graphical models the term also refers to the polytope of marginal vectors compatible with prescribed independence constraints.",
article = nil,
aliases = { "matroid independence polytope", "independence polytopes" },
es = "El casco convexo de los vectores indicadores de los conjuntos independientes de un matroide; en modelos gráficos el término también designa el politopo de vectores de marginales compatibles con restricciones de independencia dadas.",
zh = "拟阵中独立集指示向量的凸包;在图模型中也指与给定独立性约束相容的边缘分布向量构成的多面体。",
term_es = "politopo de independencia",
term_zh = "独立性多面体",
aliases_es = { "politopo de independencia de matroide", "politopos de independencia" },
aliases_zh = { "拟阵独立性多面体", "独立多面体" },
}
data["independent causal mechanisms"] = {
short = "Principle stating that the data-generating process factorizes into autonomous causal modules whose parameters and forms do not inform one another, motivating modular and intervention-robust learning.",
article = nil,
aliases = { "ICM principle", "ICM", "independence of mechanisms", "principle of independent mechanisms" },
es = "Principio que sostiene que el proceso generador de los datos se descompone en módulos causales autónomos cuyos parámetros y formas no se informan mutuamente, lo que motiva un aprendizaje modular y robusto frente a intervenciones.",
zh = "独立因果机制原则:数据生成过程可分解为相互自主的因果模块,各模块的参数与形式互不提供信息,从而促使学习方法具有模块化和干预鲁棒性。",
term_es = "mecanismos causales independientes",
term_zh = "独立因果机制",
aliases_es = { "principio ICM", "principio de mecanismos independientes" },
aliases_zh = { "ICM 原则", "机制独立性" },
}
data["indian buffet process"] = {
short = "A Bayesian nonparametric prior over binary matrices with a finite number of rows and an unbounded number of columns, used to assign latent features to objects without fixing the number of features in advance.",
article = nil,
aliases = { "IBP", "Indian buffet process", "Indian Buffet Process", "Indian buffet processes" },
es = "Distribución a priori bayesiana no paramétrica sobre matrices binarias con un número finito de filas y un número ilimitado de columnas, usada para asignar características latentes a objetos sin fijar de antemano cuántas son.",
zh = "一种贝叶斯非参数先验,定义在行数有限、列数无界的二值矩阵上,用于在不预先指定特征数的前提下为对象分配潜在特征。",
term_es = "proceso de buffet indio",
term_zh = "印度自助餐过程",
aliases_es = { "IBP", "proceso del buffet indio", "procesos de buffet indio" },
aliases_zh = { "IBP", "印度自助餐过程", "印度自助过程" },
}
data["indirect discrimination"] = {
short = "Discrimination that occurs when a facially neutral rule or model disproportionately disadvantages members of a protected group, even without explicit use of the protected attribute; closely related to disparate impact.",
article = nil,
aliases = { "indirect bias", "facially neutral discrimination", "disparate impact discrimination" },
es = "Discriminación que ocurre cuando una regla o modelo aparentemente neutral perjudica desproporcionadamente a miembros de un grupo protegido, incluso sin usar explícitamente el atributo protegido; estrechamente relacionada con el impacto dispar.",
zh = "间接歧视,指表面中立的规则或模型在不显式使用受保护属性的情况下,仍对受保护群体成员造成不成比例的不利影响;与不平等影响密切相关。",
term_es = "discriminación indirecta",
term_zh = "间接歧视",
aliases_es = { "sesgo indirecto", "discriminación facialmente neutral" },
aliases_zh = { "间接性歧视", "表面中立的歧视", "不平等影响歧视" },
}
data["indirect effect"] = {
short = "In causal mediation analysis, the portion of the effect of a treatment on an outcome that is transmitted through a mediator variable rather than directly; used in fairness to attribute disparities to specific pathways.",
article = nil,
aliases = { "natural indirect effect", "NIE", "mediated effect", "indirect causal effect" },
es = "En análisis de mediación causal, la parte del efecto de un tratamiento sobre un resultado que se transmite a través de una variable mediadora en lugar de directamente; en equidad se utiliza para atribuir disparidades a rutas específicas.",
zh = "因果中介分析中,处理对结果的效应中经由中介变量而非直接传递的部分;在公平性研究中用于将差异归因到特定路径。",
term_es = "efecto indirecto",
term_zh = "间接效应",
aliases_es = { "efecto indirecto natural", "NIE", "efecto mediado" },
aliases_zh = { "自然间接效应", "NIE", "中介效应", "间接因果效应" },
}
data["indirect object identification"] = {
short = "A circuit-level interpretability task in transformer language models that requires the model to predict the indirect object in sentences such as 'When John and Mary went to the store, John gave a drink to ___'. Used to reverse-engineer attention head circuits.",
article = nil,
aliases = { "IOI", "Indirect Object Identification", "IOI task" },
es = "Tarea de interpretabilidad a nivel de circuito en modelos de lenguaje tipo transformer que exige predecir el objeto indirecto en frases como 'Cuando John y Mary fueron a la tienda, John le dio una bebida a ___'. Se utiliza para realizar ingeniería inversa de circuitos de cabezas de atención.",
zh = "一种针对Transformer语言模型的电路级可解释性任务,要求模型在诸如\"当John和Mary去商店时,John把饮料递给了___\"这样的句子中预测间接宾语,用于对注意力头电路进行逆向工程分析。",
term_es = "identificación de objeto indirecto",
term_zh = "间接宾语识别",
aliases_es = { "IOI", "tarea IOI" },
aliases_zh = { "IOI", "IOI任务" },
}
data["individual fairness"] = {
short = "A fairness criterion proposed by Dwork et al. requiring that similar individuals—measured by a task-specific similarity metric—receive similar predictions or treatment.",
article = nil,
aliases = { "individual-level fairness", "Dwork individual fairness", "fairness through awareness" },
es = "Criterio de equidad propuesto por Dwork et al. que exige que individuos similares —medidos según una métrica de similitud específica de la tarea— reciban predicciones o tratamiento similares.",
zh = "Dwork 等人提出的公平性准则,要求按任务相关相似性度量判定为相似的个体获得相似的预测或处理。",
term_es = "equidad individual",
term_zh = "个体公平性",
aliases_es = { "equidad a nivel individual", "fairness through awareness" },
aliases_zh = { "个体级公平性", "Dwork 个体公平性", "通过感知实现的公平性" },
}
data["individual treatment effect"] = {
short = "The unit-level contrast between potential outcomes under treatment and control, Y_i(1) - Y_i(0); generally unidentifiable because only one potential outcome is observed per unit.",
article = nil,
aliases = { "ITE", "unit-level treatment effect", "individual causal effect" },
es = "Contraste a nivel de unidad entre los resultados potenciales bajo tratamiento y control, Y_i(1) - Y_i(0); en general no es identificable porque solo se observa un resultado potencial por unidad.",
zh = "在个体层面上,处理与对照下潜在结果之差 Y_i(1) - Y_i(0);由于每个个体只能观测到一个潜在结果,通常不可识别。",
term_es = "efecto individual del tratamiento",
term_zh = "个体处理效应",
aliases_es = { "ITE", "efecto causal individual" },
aliases_zh = { "ITE", "个体因果效应" },
}
data["induced fit docking"] = {
short = "A docking protocol that allows the receptor to flex and rearrange side chains (and sometimes backbone) in response to the bound ligand, capturing conformational changes that rigid docking misses.",
article = nil,
aliases = { "IFD", "induced-fit docking", "flexible receptor docking" },
es = "Protocolo de acoplamiento que permite al receptor flexibilizarse y reorganizar cadenas laterales (y a veces el esqueleto) en respuesta al ligando unido, capturando cambios conformacionales que el acoplamiento rígido no detecta.",
zh = "一种对接方案,允许受体在配体结合时进行侧链(有时包括主链)的柔性调整与重排,捕捉刚性对接无法获得的构象变化。",
term_es = "docking por ajuste inducido",
term_zh = "诱导契合对接",
aliases_es = { "acoplamiento por ajuste inducido", "IFD" },
aliases_zh = { "诱导契合对接", "诱导拟合对接", "IFD" },
}
data["inducing points"] = {
short = "A small set of pseudo-inputs used by sparse Gaussian process methods to summarize the posterior, reducing inference cost from O(N^3) to O(NM^2) with M inducing points.",
article = nil,
aliases = { "inducing inputs", "pseudo-inputs", "inducing point" },
es = "Pequeño conjunto de pseudo-entradas utilizadas por métodos de procesos gaussianos dispersos para resumir el posterior, reduciendo el coste de inferencia de O(N^3) a O(NM^2) con M puntos inducentes.",
zh = "稀疏高斯过程方法中用来概括后验的少量伪输入点,将推断复杂度从 O(N^3) 降至 O(NM^2),其中 M 为诱导点数量。",
term_es = "puntos inducentes",
term_zh = "诱导点",
aliases_es = { "pseudo-entradas", "puntos de inducción" },
aliases_zh = { "伪输入点", "诱导输入" },
}
data["inducing variables"] = {
short = "A generalization of inducing points in which the conditioning variables are arbitrary linear functionals of the latent function (e.g. integrals or features), enabling sparse approximations beyond the standard pseudo-input setting.",
article = nil,
aliases = { "inducing variable", "inter-domain inducing variables", "inducing features" },
es = "Generalización de los puntos inducentes en la que las variables de condicionamiento son funcionales lineales arbitrarios de la función latente (integrales, características, etc.), permitiendo aproximaciones dispersas más allá del caso estándar de pseudo-entradas.",
zh = "诱导点的推广形式:条件变量为隐函数的任意线性泛函(如积分或特征),使稀疏近似不再局限于标准的伪输入设定。",
term_es = "variables inducentes",
term_zh = "诱导变量",
aliases_es = { "variables de inducción", "variables inducentes inter-dominio" },
aliases_zh = { "诱导特征", "跨域诱导变量" },
}
data["induction head"] = {
short = "An attention head in transformer language models that implements an in-context copy-and-continue pattern: when it sees a token A followed by B earlier in the sequence, it predicts B after a later A. Considered a key mechanism behind in-context learning.",
article = nil,
aliases = { "induction heads", "induction attention head" },
es = "Cabeza de atención en modelos de lenguaje tipo transformer que implementa un patrón de copia y continuación en contexto: al ver un token A seguido de B antes en la secuencia, predice B tras una aparición posterior de A. Se considera un mecanismo clave del aprendizaje en contexto.",
zh = "Transformer语言模型中的一种注意力头,可实现上下文中的复制-延续模式:当序列前文出现\"A→B\"时,遇到后续的A便预测B,被认为是上下文学习的关键机制。",
term_es = "cabeza de inducción",
term_zh = "归纳头",
aliases_es = { "induction head", "cabezas de inducción" },
aliases_zh = { "induction head", "归纳注意力头" },
}
data["inductive bias"] = {
short = "The set of assumptions a learning algorithm uses to generalize beyond its training data, embedded in model architecture, loss, optimizer, or priors; for example, convolution encodes translation equivariance.",
article = nil,
aliases = { "inductive biases", "model bias (inductive)", "architectural prior" },
es = "Conjunto de supuestos que utiliza un algoritmo de aprendizaje para generalizar más allá de los datos de entrenamiento, incorporados en la arquitectura del modelo, la pérdida, el optimizador o los priors; por ejemplo, la convolución codifica equivarianza por traslación.",
zh = "学习算法用于在训练数据之外进行泛化的一组假设,嵌入在模型架构、损失函数、优化器或先验中;例如卷积编码了平移等变性。",
term_es = "sesgo inductivo",
term_zh = "归纳偏置",
aliases_es = { "sesgos inductivos", "prior arquitectónico" },
aliases_zh = { "归纳偏差", "inductive bias", "归纳偏好" },
}
data["inductive conformal prediction"] = {
short = "A conformal prediction variant that splits the training data into a proper training set and a calibration set; nonconformity scores on the calibration set yield distribution-free prediction sets at any chosen coverage level.",
article = nil,
aliases = { "ICP", "split conformal prediction", "split conformal" },
es = "Variante de la predicción conforme que divide los datos en un conjunto de entrenamiento propio y un conjunto de calibración; las puntuaciones de no conformidad sobre el conjunto de calibración generan conjuntos de predicción sin supuestos distribucionales con la cobertura elegida.",
zh = "保形预测的一种变体:将训练数据划分为真正训练集和校准集,利用校准集上的不一致度分数生成任意指定覆盖率的、无分布假设的预测集合。",
term_es = "predicción conforme inductiva",
term_zh = "归纳保形预测",
aliases_es = { "ICP", "predicción conforme dividida", "split conformal" },
aliases_zh = { "ICP", "分裂保形预测", "split conformal" },
}
data["inductive few-shot"] = {
short = "A few-shot learning evaluation protocol where each query example is classified independently using only the support set, without leveraging the joint structure of the test queries — contrasting with transductive few-shot.",
article = nil,
aliases = { "inductive few-shot learning", "inductive few-shot classification", "inductive FSL", "inductive few shot" },
es = "Protocolo de evaluación de aprendizaje con pocos ejemplos en el que cada ejemplo de consulta se clasifica de forma independiente utilizando solo el conjunto de soporte, sin aprovechar la estructura conjunta de las consultas de prueba — en contraste con el few-shot transductivo.",
zh = "一种少样本学习评测设定:每个查询样本仅依据支持集独立分类,不利用测试查询集的整体结构——与 transductive few-shot 形成对比。",
term_es = "few-shot inductivo",
term_zh = "归纳式 few-shot",
aliases_es = { "aprendizaje few-shot inductivo", "clasificación few-shot inductiva", "FSL inductivo" },
aliases_zh = { "归纳少样本学习", "Inductive few-shot", "Inductive FSL" },
}
data["inductive logic programming"] = {
short = "A subfield of machine learning that induces first-order logic programs (typically Horn clause theories) from positive and negative examples and background knowledge, producing interpretable, compositional hypotheses.",
article = nil,
aliases = { "ILP", "inductive logic program synthesis", "logic program induction", "inductive logical programming" },
es = "Un subcampo del aprendizaje automático que induce programas en lógica de primer orden (normalmente teorías de cláusulas de Horn) a partir de ejemplos positivos y negativos y conocimiento de fondo, generando hipótesis interpretables y composicionales.",
zh = "机器学习的一个子领域,基于正负样本和背景知识归纳出一阶逻辑程序(通常是 Horn 子句理论),产生可解释、可组合的假设。",
term_es = "programación lógica inductiva",
term_zh = "归纳逻辑程序设计",
aliases_es = { "ILP", "inducción de programas lógicos", "síntesis inductiva de programas lógicos" },
aliases_zh = { "ILP", "归纳逻辑编程", "逻辑程序归纳" },
}
data["inductive program synthesis"] = {
short = "The task of automatically generating programs that satisfy a specification given as input-output examples or partial behavioral traces, typically by searching a program space guided by example consistency.",
article = nil,
aliases = { "programming by example", "PBE", "example-driven program synthesis", "synthesis from examples", "inductive synthesis" },
es = "La tarea de generar automáticamente programas que satisfacen una especificación dada como ejemplos de entrada-salida o trazas parciales de comportamiento, normalmente buscando en el espacio de programas guiado por la consistencia con los ejemplos.",
zh = "根据以输入输出示例或部分行为轨迹给出的规约,自动生成满足该规约的程序的任务,通常通过在程序空间中以示例一致性为指导进行搜索。",
term_es = "síntesis inductiva de programas",
term_zh = "归纳式程序合成",
aliases_es = { "programación por ejemplo", "PBE", "síntesis de programas a partir de ejemplos", "síntesis inductiva" },
aliases_zh = { "示例编程", "PBE", "基于示例的程序合成", "归纳合成" },
}
data["inductive reasoning"] = {
short = "Reasoning that draws general conclusions or hypotheses from specific observations, yielding probable rather than logically certain inferences and forming the foundation of empirical science and most machine learning.",
article = nil,
aliases = { "induction", "inductive inference", "inductive logic", "empirical reasoning" },
es = "Razonamiento que extrae conclusiones generales o hipótesis a partir de observaciones específicas, produciendo inferencias probables y no lógicamente ciertas; es la base de la ciencia empírica y de la mayor parte del aprendizaje automático.",
zh = "一种从具体观察归纳出一般性结论或假设的推理方式,得到的是概率性的推断而非逻辑必然性结论,是经验科学和大多数机器学习的基础。",
term_es = "razonamiento inductivo",
term_zh = "归纳推理",
aliases_es = { "inducción", "inferencia inductiva", "lógica inductiva", "razonamiento empírico" },
aliases_zh = { "归纳", "归纳推断", "归纳逻辑", "经验推理" },
}
data["infer.net"] = {
short = "A .NET framework developed at Microsoft Research for Bayesian inference in graphical models, supporting message-passing algorithms such as expectation propagation, variational message passing, and Gibbs sampling.",
article = nil,
aliases = { "Infer.NET", "Infer.net", "InferNET", "Microsoft Infer.NET" },
es = "Marco de trabajo .NET desarrollado en Microsoft Research para inferencia bayesiana en modelos gráficos, que admite algoritmos de paso de mensajes como propagación de expectativas, paso de mensajes variacional y muestreo de Gibbs.",
zh = "由微软研究院开发的 .NET 框架,用于在图模型中进行贝叶斯推断,支持期望传播、变分消息传递和 Gibbs 采样等消息传递算法。",
term_es = "Infer.NET",
term_zh = "Infer.NET",
aliases_es = { "Infer.NET", "InferNET", "Microsoft Infer.NET" },
aliases_zh = { "Infer.NET", "InferNET", "微软 Infer.NET" },
}
data["inference network"] = {
short = "A neural network trained to amortize approximate posterior inference by mapping observations directly to the parameters of the variational distribution; central to amortized variational inference and VAEs.",
article = nil,
aliases = { "recognition network", "encoder network", "amortized inference network", "inference networks" },
es = "Red neuronal entrenada para amortizar la inferencia posterior aproximada al mapear las observaciones directamente a los parámetros de la distribución variacional; central en la inferencia variacional amortizada y los VAEs.",
zh = "一种神经网络,通过将观测直接映射到变分分布的参数来摊销近似后验推断;是摊销变分推断与 VAE 的核心组件。",
term_es = "red de inferencia",
term_zh = "推断网络",
aliases_es = { "red de reconocimiento", "red codificadora", "red de inferencia amortizada" },
aliases_zh = { "识别网络", "编码器网络", "摊销推断网络" },
}
data["inference pipeline"] = {
short = "The end-to-end sequence used at serving time — input preprocessing, model forward pass, postprocessing, and response formatting — that converts a user request into a model prediction.",
article = nil,
aliases = { "serving pipeline", "prediction pipeline", "inference workflow" },
es = "Secuencia de extremo a extremo utilizada en servicio —preprocesamiento de entrada, paso hacia adelante del modelo, posprocesamiento y formateo de respuesta— que convierte una petición del usuario en una predicción del modelo.",
zh = "在服务阶段使用的端到端流程,包括输入预处理、模型前向计算、后处理与响应格式化,将用户请求转化为模型预测。",
term_es = "pipeline de inferencia",
term_zh = "推理流水线",
aliases_es = { "flujo de inferencia", "pipeline de servicio", "pipeline de predicción" },
aliases_zh = { "推理管线", "预测流水线", "服务流水线" },
}
data["inference-time dropout"] = {
short = "Keeping dropout active at test time and averaging multiple stochastic forward passes to obtain an approximate Bayesian predictive distribution, the basis of Monte Carlo Dropout.",
article = "Dropout",
aliases = { "MC Dropout", "Monte Carlo Dropout", "test-time dropout", "MC-Dropout" },
es = "Mantener el dropout activo en tiempo de inferencia y promediar varios pases hacia adelante estocásticos para obtener una distribución predictiva bayesiana aproximada; es la base de Monte Carlo Dropout.",
zh = "在推断阶段保持 dropout 处于激活状态并对多次随机前向传播取平均,从而获得近似的贝叶斯预测分布,是 Monte Carlo Dropout 的核心做法。",
term_es = "dropout en inferencia",
term_zh = "推断时 dropout",
aliases_es = { "MC Dropout", "Monte Carlo Dropout", "dropout en tiempo de prueba" },
aliases_zh = { "MC Dropout", "蒙特卡洛 dropout", "测试时 dropout" },
}
data["inference-time intervention"] = {
short = "A technique that modifies a model's internal activations during inference, typically along directions identified by linear probes, to steer outputs (e.g., toward truthfulness) without retraining.",
article = nil,
aliases = { "ITI", "Inference-Time Intervention", "inference time intervention" },
es = "Técnica que modifica las activaciones internas de un modelo durante la inferencia, normalmente a lo largo de direcciones identificadas mediante sondas lineales, para dirigir las salidas (por ejemplo, hacia respuestas más veraces) sin reentrenamiento.",
zh = "一种在推理阶段修改模型内部激活的技术,通常沿线性探针识别出的方向调整,用于在不重新训练的情况下引导输出(如提升真实性)。",
term_es = "intervención en tiempo de inferencia",
term_zh = "推理时干预",
aliases_es = { "ITI", "intervención durante la inferencia" },
aliases_zh = { "ITI", "推理阶段干预" },
}
data["infini-attention"] = {
short = "An attention mechanism from Google that integrates a compressive memory into standard attention, enabling Transformers to process effectively unbounded context lengths with bounded memory and compute per token.",
article = nil,
aliases = { "Infini-attention", "infinite attention", "Infini-Transformer", "infini attention" },
es = "Mecanismo de atención de Google que integra una memoria compresiva en la atención estándar, permitiendo a los Transformers procesar longitudes de contexto efectivamente ilimitadas con memoria y cómputo por token acotados.",
zh = "Google 提出的注意力机制,将压缩记忆集成到标准注意力中,使 Transformer 能够以每词元有界的内存和计算量处理实际上无限长的上下文。",
term_es = "Infini-attention",
term_zh = "Infini-attention",
aliases_es = { "atención infinita", "Infini-Transformer" },
aliases_zh = { "无限注意力", "Infini-Transformer" },
}
data["infiniband"] = {
short = "A high-throughput, low-latency switched-fabric interconnect widely used in HPC and large-scale deep learning clusters to support RDMA and accelerate gradient allreduce across GPU nodes.",
article = nil,
aliases = { "InfiniBand", "IB", "IB fabric" },
es = "Interconexión de tejido conmutado de alto rendimiento y baja latencia ampliamente utilizada en clústeres de HPC y aprendizaje profundo a gran escala para admitir RDMA y acelerar el allreduce de gradientes entre nodos GPU.",
zh = "一种高带宽、低延迟的交换式网络互连,广泛用于高性能计算和大规模深度学习集群中支持 RDMA,并加速 GPU 节点间的梯度 allreduce。",
term_es = "InfiniBand",
term_zh = "InfiniBand",
aliases_es = { "IB", "tejido InfiniBand" },
aliases_zh = { "IB", "IB 网络" },
}
data["infinite width limit"] = {
short = "The asymptotic regime in which a neural network's hidden layers grow unboundedly wide; under suitable scaling the network behaves as a Gaussian process and its training dynamics are governed by the neural tangent kernel.",
article = nil,
aliases = { "infinite-width limit", "infinite width", "wide limit", "NTK limit" },
es = "Régimen asintótico en el que las capas ocultas de una red neuronal crecen sin acotación; bajo el escalado adecuado la red se comporta como un proceso gaussiano y su dinámica de entrenamiento queda regida por el neural tangent kernel.",
zh = "神经网络隐藏层宽度趋于无穷的渐近极限:在适当缩放下网络等价于一个高斯过程,其训练动力学由神经正切核(NTK)描述。",
term_es = "límite de ancho infinito",
term_zh = "无限宽度极限",
aliases_es = { "límite de anchura infinita", "régimen NTK" },
aliases_zh = { "无限宽极限", "NTK 极限", "无穷宽度极限" },
}
data["influence function"] = {
short = "A robust-statistics tool, adapted to deep learning, that estimates how a model's predictions or loss would change if a training example were upweighted or removed, approximating leave-one-out retraining via Hessian-vector products.",
article = nil,
aliases = { "influence functions", "Koh-Liang influence function" },
es = "Herramienta de estadística robusta, adaptada al aprendizaje profundo, que estima cómo cambiarían las predicciones o la pérdida de un modelo si un ejemplo de entrenamiento se ponderara más o se eliminara, aproximando el reentrenamiento leave-one-out mediante productos Hessiano-vector.",
zh = "一种源自稳健统计、并被应用于深度学习的工具,通过Hessian-向量乘积近似留一重训练,估计若对某训练样本加权或删除时模型预测或损失的变化。",
term_es = "función de influencia",
term_zh = "影响函数",
aliases_es = { "funciones de influencia" },
aliases_zh = { "influence function", "影响力函数" },
}
data["influence localization"] = {
short = "Methods that identify which components of a model — layers, attention heads, neurons, or parameters — are most responsible for the influence of a particular training example on predictions.",
article = nil,
aliases = { "influence localisation", "localizing influence" },
es = "Métodos que identifican qué componentes de un modelo — capas, cabezas de atención, neuronas o parámetros — son los más responsables de la influencia de un ejemplo de entrenamiento sobre las predicciones.",
zh = "用于识别模型中哪些组件(层、注意力头、神经元或参数)对特定训练样本的影响最为关键的一类方法。",
term_es = "localización de influencia",
term_zh = "影响定位",
aliases_es = { "localización de la influencia" },
aliases_zh = { "影响力定位" },
}
data["influence-based contribution"] = {
short = "A class of federated learning contribution-evaluation methods that score each client by the influence of its data (or update) on the global model's predictions or loss, often via influence functions or counterfactual evaluation.",
article = nil,
aliases = { "influence-based valuation", "influence function contribution", "influence-based contribution evaluation" },
es = "Clase de métodos de evaluación de contribuciones en aprendizaje federado que puntúa a cada cliente según la influencia de sus datos (o actualización) sobre las predicciones o la pérdida del modelo global, a menudo mediante funciones de influencia o evaluación contrafactual.",
zh = "一类联邦学习贡献评估方法,根据每个客户端的数据(或更新)对全局模型预测或损失的影响来评分,通常借助影响函数或反事实评估实现。",
term_es = "contribución basada en influencia",
term_zh = "基于影响力的贡献评估",
aliases_es = { "valoración basada en influencia", "evaluación de contribución por influencia" },
aliases_zh = { "基于影响函数的贡献", "影响力贡献评估" },
}
data["influence-based mislabel detection"] = {
short = "Use of influence functions to flag training examples whose self-influence is anomalously large, indicating that they may be mislabeled or otherwise harmful to the model.",
article = nil,
aliases = { "influence-based label noise detection", "self-influence mislabel detection" },
es = "Uso de funciones de influencia para detectar ejemplos de entrenamiento cuya autoinfluencia es anómalamente alta, lo que indica que pueden estar mal etiquetados o ser perjudiciales para el modelo.",
zh = "利用影响函数检测自影响(self-influence)异常偏高的训练样本,从而标记可能存在错误标签或对模型有害的数据。",
term_es = "detección de mal etiquetado basada en influencia",
term_zh = "基于影响的错标检测",
aliases_es = { "detección de etiquetas erróneas mediante influencia" },
aliases_zh = { "基于影响函数的错标检测", "自影响错标检测" },
}
data["info-vqa"] = {
short = "A visual question answering benchmark over infographic images, requiring joint understanding of natural-language questions, embedded text, charts, and visual layout.",
article = nil,
aliases = { "InfoVQA", "Info-VQA", "InfographicVQA", "Infographic VQA" },
es = "Benchmark de respuesta visual a preguntas sobre imágenes de infografías, que requiere comprender de forma conjunta la pregunta en lenguaje natural, el texto incrustado, los gráficos y la disposición visual.",
zh = "针对信息图图像的视觉问答基准,要求联合理解自然语言问题、嵌入文字、图表与视觉版面。",
term_es = "InfoVQA",
term_zh = "InfoVQA",
aliases_es = { "Info-VQA", "InfographicVQA" },
aliases_zh = { "Info-VQA", "信息图问答" },
}
data["infographic vqa"] = {
short = "Visual question answering on infographics, the task family covered by the InfographicVQA dataset, where models must reason over text, charts, and graphics in a single image.",
article = nil,
aliases = { "InfographicVQA", "infographic visual question answering", "InfoVQA", "Info-VQA" },
es = "Respuesta visual a preguntas sobre infografías, la familia de tareas cubierta por el conjunto InfographicVQA, donde los modelos deben razonar sobre texto, gráficos e imágenes dentro de una misma figura.",
zh = "针对信息图的视觉问答,即 InfographicVQA 数据集所涵盖的任务族,模型需要在同一张图中对文字、图表和图形进行综合推理。",
term_es = "VQA sobre infografías",
term_zh = "信息图视觉问答",
aliases_es = { "InfographicVQA", "preguntas y respuestas visuales sobre infografías" },
aliases_zh = { "InfographicVQA", "信息图 VQA" },
}
data["infonce loss"] = {
short = "Self-supervised contrastive loss that maximizes a lower bound on mutual information by classifying the positive sample among a set of negatives. Foundational to CPC and CLIP.",
article = nil,
aliases = { "InfoNCE", "Info NCE", "noise contrastive estimation loss" },
es = "Pérdida contrastiva auto-supervisada que maximiza una cota inferior de la información mutua al identificar la muestra positiva entre un conjunto de negativas. Fundamental en CPC y CLIP.",
zh = "自监督对比损失,通过在一组负样本中识别正样本来最大化互信息的下界。是 CPC 与 CLIP 的基础。",
term_es = "pérdida InfoNCE",
term_zh = "InfoNCE 损失",
aliases_es = { "InfoNCE" },
aliases_zh = { "InfoNCE" },
}
data["information bottleneck"] = {
short = "A representation-learning principle that seeks a representation T of input X that is maximally informative about a target Y while being maximally compressed about X: minimize I(X;T) − β·I(T;Y).",
article = nil,
aliases = { "IB", "information bottleneck principle", "information bottleneck method", "Tishby information bottleneck" },
es = "Principio de aprendizaje de representaciones que busca una representación T de la entrada X que sea máximamente informativa sobre una variable objetivo Y y al mismo tiempo máximamente comprimida respecto de X: minimizar I(X;T) − β·I(T;Y).",
zh = "一种表示学习原理,旨在寻找输入 X 的表示 T,使其在对目标 Y 携带最大信息的同时对 X 进行最大压缩:最小化 I(X;T) − β·I(T;Y)。",
term_es = "cuello de botella de información",
term_zh = "信息瓶颈",
aliases_es = { "principio de cuello de botella de información", "IB" },
aliases_zh = { "信息瓶颈原理", "信息瓶颈方法", "IB" },
}
data["information gain"] = {
short = "In Bayesian active learning, the mutual information between model parameters and a candidate observation, used to score how much an experiment would reduce posterior uncertainty.",
article = nil,
aliases = { "expected information gain", "mutual information", "BALD" },
es = "En aprendizaje activo bayesiano, la información mutua entre los parámetros del modelo y una observación candidata, usada para puntuar cuánto reduciría un experimento la incertidumbre posterior.",
zh = "贝叶斯主动学习中,模型参数与候选观测之间的互信息,用于衡量某次实验对降低后验不确定性的预期收益。",
term_es = "ganancia de información",
term_zh = "信息增益",
aliases_es = { "ganancia de información esperada", "información mutua", "BALD" },
aliases_zh = { "期望信息增益", "互信息", "BALD" },
}
data["information theory"] = {
short = "The mathematical study of quantifying, storing, and communicating information; provides foundational tools (entropy, KL divergence, mutual information) used throughout machine learning.",
article = "Information theory",
aliases = {},
es = "Estudio matemático de la cuantificación, almacenamiento y comunicación de información; provee herramientas fundamentales (entropía, divergencia KL, información mutua) usadas en todo el aprendizaje automático.",
zh = "关于信息量化、存储与传输的数学研究,为机器学习提供基础工具(熵、KL 散度、互信息)。",
term_es = "teoría de la información",
term_zh = "信息论",
aliases_es = {},
aliases_zh = {},
}
data["informed consent"] = {
short = "An ethical and legal requirement that subjects of data collection or AI-mediated decisions understand the purpose, risks, and uses of their data and explicitly agree before processing.",
article = nil,
aliases = { "informed-consent", "consent (informed)", "informed agreement" },
es = "Requisito ético y legal según el cual las personas sujetas a la recolección de datos o a decisiones mediadas por IA comprenden el propósito, los riesgos y los usos de sus datos y aceptan explícitamente antes del procesamiento.",
zh = "知情同意,一项伦理与法律要求:数据采集或受 AI 决策影响的对象在处理前应了解其数据的目的、风险与用途,并明确表示同意。",
term_es = "consentimiento informado",
term_zh = "知情同意",
aliases_es = { "consentimiento con información", "consentimiento informado y explícito" },
aliases_zh = { "知情同意权", "知情授权" },
}
data["inherently interpretable model"] = {
short = "A model whose structure is transparent enough that its predictions can be understood without post-hoc explanation methods. Examples include shallow decision trees, linear and logistic regression, generalized additive models, and rule lists.",
article = nil,
aliases = { "intrinsically interpretable model", "transparent model", "glass-box model" },
es = "Modelo cuya estructura es lo suficientemente transparente como para que sus predicciones puedan entenderse sin métodos de explicación post-hoc. Ejemplos típicos son árboles de decisión poco profundos, regresiones lineal y logística, modelos aditivos generalizados y listas de reglas.",
zh = "结构本身具有足够透明度、无需事后解释方法即可被理解其预测的模型,典型例子包括浅层决策树、线性回归、逻辑回归、广义可加模型和规则列表。",
term_es = "modelo intrínsecamente interpretable",
term_zh = "本质可解释模型",
aliases_es = { "modelo inherentemente interpretable", "modelo transparente", "modelo de caja blanca" },
aliases_zh = { "内在可解释模型", "透明模型", "白盒模型" },
}
data["inlp"] = {
short = "Iterative Null-space Projection: a debiasing method that repeatedly trains linear classifiers to predict a protected attribute from representations and projects them onto the classifier's null space, removing linearly recoverable bias.",
article = nil,
aliases = { "INLP", "Iterative Null-space Projection", "iterative nullspace projection" },
es = "Iterative Null-space Projection (INLP): método de mitigación de sesgo que entrena repetidamente clasificadores lineales para predecir un atributo protegido a partir de representaciones y las proyecta sobre el espacio nulo del clasificador, eliminando el sesgo recuperable linealmente.",
zh = "INLP(迭代零空间投影):一种去偏方法,反复训练线性分类器从表示中预测受保护属性,并将表示投影到该分类器的零空间,从而去除可被线性还原的偏差。",
term_es = "INLP",
term_zh = "INLP",
aliases_es = { "proyección iterativa al espacio nulo", "Iterative Null-space Projection" },
aliases_zh = { "迭代零空间投影", "Iterative Null-space Projection" },
}
data["inner product"] = {
short = "A bilinear, conjugate-symmetric, positive-definite operation on a vector space that returns a scalar and induces a notion of length and angle. The dot product is its standard form on real Euclidean spaces.",
article = nil,
aliases = { "inner-product", "scalar product", "Hermitian inner product" },
es = "Operación bilineal, simétrica conjugada y definida positiva sobre un espacio vectorial que devuelve un escalar e induce nociones de longitud y ángulo. El producto punto es su forma estándar en los espacios euclidianos reales.",
zh = "向量空间上的双线性、共轭对称且正定的运算,返回一个标量,并诱导出长度和角度的概念。点积是其在实欧几里得空间上的标准形式。",
term_es = "producto interno",
term_zh = "内积",
aliases_es = { "producto interior", "producto escalar" },
aliases_zh = { "内乘积", "厄米内积" },
}
data["inpainting"] = {
short = "An image generation task in which masked regions of an image are filled in with content consistent with the surrounding pixels and an optional text prompt, commonly used for editing and object removal.",
article = nil,
aliases = { "image inpainting", "in-painting", "mask-based editing", "image completion" },
es = "Tarea de generación de imágenes en la que regiones enmascaradas se rellenan con contenido coherente con los píxeles circundantes y un prompt opcional, usada habitualmente para edición y eliminación de objetos.",
zh = "一种图像生成任务,将图像中被遮罩的区域填充为与周围像素及可选文本提示一致的内容,常用于图像编辑和对象移除。",
term_es = "inpainting",
term_zh = "图像修复",
aliases_es = { "rellenado de imagen", "edición por máscara" },
aliases_zh = { "inpainting", "图像补全", "图像内绘" },
}
data["inplace distillation"] = {
short = "A training technique used in slimmable and weight-shared NAS where, in each step, the largest sub-network's predictions serve as soft targets for smaller sub-networks sampled from the same supernet, all updated jointly in a single forward-backward pass.",
article = nil,
aliases = { "in-place distillation", "in place distillation", "inplace knowledge distillation", "in-place knowledge distillation" },
es = "Técnica de entrenamiento usada en redes slimmable y NAS con compartición de pesos en la que, en cada paso, las predicciones de la subred más grande sirven como objetivos blandos para subredes más pequeñas muestreadas de la misma supernet, actualizadas conjuntamente en una sola pasada hacia adelante y hacia atrás.",
zh = "在 slimmable 网络和权重共享 NAS 中使用的训练技巧:每一步以最大子网的预测作为同一超网中采样的小子网的软目标,在单次前后向传播中联合更新所有子网。",
term_es = "destilación in-place",
term_zh = "原位蒸馏",
aliases_es = { "in-place distillation", "destilación in place", "destilación de conocimiento in-place" },
aliases_zh = { "in-place distillation", "原位知识蒸馏", "Inplace Distillation" },
}
data["inplace knowledge distillation"] = {
short = "A weight-sharing NAS training technique where sub-networks sampled from a supernet are trained using the supernet's own output as a soft target, distilling knowledge in-place during a single forward pass without a separately stored teacher.",
article = nil,
aliases = { "in-place knowledge distillation", "in-place distillation", "inplace distillation", "in place knowledge distillation" },
es = "Técnica de entrenamiento en NAS con compartición de pesos donde las subredes muestreadas de una supernet se entrenan usando la salida de la propia supernet como objetivo blando, destilando conocimiento de forma in situ en una sola pasada hacia adelante sin un profesor almacenado por separado.",
zh = "权重共享 NAS 中的一种训练技术,从超网络中采样的子网络以超网络自身的输出作为软目标进行训练,在单次前向传递中就地蒸馏知识,无需单独存储教师模型。",
term_es = "destilación de conocimiento in situ",
term_zh = "原位知识蒸馏",
aliases_es = { "in-place knowledge distillation", "destilación in situ", "destilación in-place" },
aliases_zh = { "就地知识蒸馏", "in-place蒸馏", "原地知识蒸馏" },
}
data["input complexity correction"] = {
short = "A technique that adjusts likelihood- or score-based out-of-distribution detectors by subtracting an input-complexity proxy (often the length of a generic compressor's output), correcting their bias toward simple inputs.",
article = nil,
aliases = { "input-complexity correction", "complexity correction", "compression-based OOD correction" },
es = "Técnica que ajusta los detectores de fuera de distribución basados en verosimilitud o puntuación restando un sustituto de complejidad del input (a menudo la longitud de salida de un compresor genérico), corrigiendo su sesgo hacia entradas simples.",
zh = "一种修正方法:从基于似然或评分的分布外检测器中减去输入复杂度的代理量(通常为通用压缩器的输出长度),消除其偏好简单输入的偏差。",
term_es = "corrección por complejidad del input",
term_zh = "输入复杂度修正",
aliases_es = { "corrección de complejidad de entrada", "corrección OOD basada en compresión" },
aliases_zh = { "输入复杂度校正", "基于压缩的 OOD 修正" },
}
data["input invariance test"] = {
short = "A sanity check for attribution methods that requires explanations to remain unchanged under input transformations to which the model itself is invariant, such as adding a constant offset that the network cancels out.",
article = nil,
aliases = { "input invariance check", "input invariance" },
es = "Prueba de cordura para métodos de atribución que exige que las explicaciones permanezcan inalteradas bajo transformaciones de entrada a las que el propio modelo es invariante, como añadir un desplazamiento constante que la red cancela.",
zh = "针对归因方法的合理性检验:要求当对输入施加模型本身保持不变的变换(如加上一个常数偏移而被网络抵消)时,解释结果也保持不变。",
term_es = "prueba de invarianza de entrada",
term_zh = "输入不变性测试",
aliases_es = { "test de invarianza de entrada" },
aliases_zh = { "输入不变性检查", "输入不变性" },
}
data["input perturbation"] = {
short = "An interpretability primitive in which inputs are systematically modified — masked, occluded, replaced, or noised — and the resulting changes in model output are used to attribute importance to features.",
article = nil,
aliases = { "input perturbations", "feature perturbation", "perturbation-based attribution" },
es = "Primitiva de interpretabilidad que modifica sistemáticamente las entradas — enmascarándolas, ocluyéndolas, sustituyéndolas o añadiendo ruido — y utiliza los cambios resultantes en la salida del modelo para atribuir importancia a las características.",
zh = "一种可解释性基本操作:通过遮挡、掩码、替换或加噪等方式系统地修改输入,并依据模型输出的变化来衡量各特征的重要性。",
term_es = "perturbación de entrada",
term_zh = "输入扰动",
aliases_es = { "perturbación de características", "atribución basada en perturbaciones" },
aliases_zh = { "特征扰动", "基于扰动的归因" },
}
data["input reduction"] = {
short = "An interpretability technique that iteratively removes the least-important tokens or features from an input until only a minimal subset remains that still produces the model's original prediction, often revealing that models retain confidence on nonsensical inputs.",
article = nil,
aliases = { "input reduction attack", "minimal input set" },
es = "Técnica de interpretabilidad que elimina iterativamente los tokens o características menos importantes de una entrada hasta dejar el subconjunto mínimo que sigue produciendo la predicción original del modelo, revelando con frecuencia que los modelos mantienen su confianza ante entradas sin sentido.",
zh = "一种可解释性技术,迭代地从输入中移除最不重要的词元或特征,直到仅保留仍能产生原始预测的最小子集,常用于揭示模型对无意义输入仍保持高置信度的现象。",
term_es = "reducción de entrada",
term_zh = "输入缩减",
aliases_es = { "reducción de la entrada", "subconjunto mínimo de entrada" },
aliases_zh = { "输入精简", "最小输入集" },
}
data["input x gradient"] = {
short = "A simple attribution method that multiplies each input feature by the gradient of the output with respect to that feature, giving a first-order estimate of each feature's contribution.",
article = nil,
aliases = { "Input x Gradient", "Input × Gradient", "input times gradient", "InputXGradient", "gradient x input" },
es = "Método de atribución sencillo que multiplica cada característica de entrada por el gradiente de la salida respecto a esa característica, proporcionando una estimación de primer orden de la contribución de cada una.",
zh = "一种简单的归因方法,将每个输入特征与输出对该特征的梯度相乘,从而给出该特征贡献的一阶估计。",
term_es = "input × gradient",
term_zh = "输入×梯度",
aliases_es = { "input por gradiente", "entrada por gradiente" },
aliases_zh = { "Input x Gradient", "输入乘梯度" },
}
data["instance normalization"] = {
short = "Normalization that operates per-example and per-channel over spatial dimensions. Originally proposed for style transfer; removes instance-specific contrast statistics.",
article = nil,
aliases = { "InstanceNorm", "instance norm", "IN" },
es = "Normalización que opera por ejemplo y por canal sobre las dimensiones espaciales. Propuesta originalmente para transferencia de estilo; elimina las estadísticas de contraste específicas de cada instancia.",
zh = "在每个样本、每个通道上对空间维度进行归一化。最初为风格迁移提出,可消除单个样本的对比度统计信息。",
term_es = "normalización por instancia",
term_zh = "实例归一化",
aliases_es = { "InstanceNorm", "instance norm", "IN" },
aliases_zh = { "InstanceNorm", "IN", "实例标准化" },
}
data["instance segmentation"] = {
short = "The computer vision task of detecting and delineating each individual object instance in an image with a per-pixel mask, distinguishing between different instances of the same class.",
article = nil,
aliases = { "instance-level segmentation" },
es = "Tarea de visión por computadora que consiste en detectar y delinear cada instancia de objeto individual en una imagen con una máscara por píxel, distinguiendo entre diferentes instancias de la misma clase.",
zh = "计算机视觉任务,检测并以逐像素掩码勾勒图像中的每个独立物体实例,区分同一类别的不同实例。",
term_es = "segmentación de instancias",
term_zh = "实例分割",
aliases_es = { "segmentación por instancias" },
aliases_zh = { "instance segmentation" },
}
data["instantid"] = {
short = "A diffusion-based identity preservation method that produces personalized images of a person from a single reference photo without per-subject fine-tuning, by injecting facial embeddings as a conditioning signal.",
article = nil,
aliases = { "InstantID", "Instant-ID", "InstantId" },
es = "Método de preservación de identidad basado en difusión que genera imágenes personalizadas de una persona a partir de una sola foto de referencia sin ajuste fino por sujeto, inyectando embeddings faciales como señal de condicionamiento.",
zh = "基于扩散模型的身份保持方法,通过将人脸嵌入作为条件信号注入,从单张参考照片生成特定人物的个性化图像,无需针对每个对象进行微调。",
term_es = "InstantID",
term_zh = "InstantID",
aliases_es = { "Instant-ID" },
aliases_zh = { "Instant-ID" },
}
data["instantmesh"] = {
short = "A feed-forward image-to-3D model that reconstructs a textured mesh from a single image in seconds, by combining a multi-view diffusion model with a sparse-view large reconstruction model.",
article = nil,
aliases = { "InstantMesh", "Instant-Mesh", "Instant Mesh" },
es = "Modelo image-to-3D feed-forward que reconstruye una malla con textura a partir de una sola imagen en segundos, combinando un modelo de difusión multivista con un modelo de reconstrucción de vistas dispersas.",
zh = "一种前馈式图像生成 3D 模型,结合多视角扩散模型与稀疏视角大型重建模型,在数秒内从单张图像重建带纹理的网格。",
term_es = "InstantMesh",
term_zh = "InstantMesh",
aliases_es = { "Instant-Mesh" },
aliases_zh = { "Instant-Mesh" },
}
data["instructblip"] = {
short = "A vision-language instruction-tuned model that augments BLIP-2 with a Q-Former conditioned on the instruction text, fine-tuned on a diverse mixture of vision-language tasks.",
article = nil,
aliases = { "InstructBLIP", "Instruct-BLIP", "Instruct BLIP" },
es = "Modelo visión-lenguaje ajustado con instrucciones que extiende BLIP-2 mediante un Q-Former condicionado por el texto de la instrucción, afinado sobre una mezcla diversa de tareas visión-lenguaje.",
zh = "在 BLIP-2 基础上扩展的指令微调视觉-语言模型,Q-Former 以指令文本为条件,在多样化的视觉-语言任务上进行微调。",
term_es = "InstructBLIP",
term_zh = "InstructBLIP",
aliases_es = { "Instruct-BLIP" },
aliases_zh = { "Instruct-BLIP" },
}
data["instruction fine-tuning"] = {
short = "Supervised fine-tuning of a pretrained language model on (instruction, response) pairs so it learns to follow natural-language directives across many tasks. Foundational step before RLHF or DPO alignment.",
article = nil,
aliases = { "instruction tuning", "instruction finetuning", "instruction-tuning", "IFT", "instruction SFT", "instruct fine-tuning" },
es = "Ajuste fino supervisado de un modelo de lenguaje preentrenado sobre pares (instrucción, respuesta) para que aprenda a seguir directivas en lenguaje natural en muchas tareas. Paso previo habitual antes de la alineación por RLHF o DPO.",
zh = "在 (指令, 回复) 配对数据上对预训练语言模型进行有监督微调,使其学会跨多任务遵循自然语言指令,是 RLHF 或 DPO 对齐之前的基础步骤。",
term_es = "ajuste fino por instrucciones",
term_zh = "指令微调",
aliases_es = { "instruction tuning", "fine-tuning por instrucciones", "IFT" },
aliases_zh = { "instruction tuning", "IFT", "指令调优" },
}
data["instruction tuning"] = {
short = "Fine-tuning a pretrained language model on datasets of natural-language instructions paired with desired responses, so the model generalizes to unseen task formulations expressed as instructions.",
article = nil,
aliases = { "Instruction Tuning", "instruction fine-tuning", "instruction-tuning", "instruction finetuning", "SFT", "supervised fine-tuning" },
es = "Ajuste fino de un modelo de lenguaje preentrenado sobre conjuntos de instrucciones en lenguaje natural emparejadas con las respuestas deseadas, para que el modelo generalice a formulaciones de tareas no vistas expresadas como instrucciones.",
zh = "在自然语言指令与期望回复配对的数据集上对预训练语言模型进行微调,使模型能够泛化到以指令形式表达的未见任务。",
term_es = "ajuste por instrucciones",
term_zh = "指令微调",
aliases_es = { "instruction tuning", "ajuste fino por instrucciones", "fine-tuning por instrucciones", "SFT", "ajuste supervisado" },
aliases_zh = { "instruction tuning", "指令调优", "指令对齐", "SFT", "监督微调" },
}
data["instructpix2pix"] = {
short = "A diffusion-based image editing model that follows natural-language editing instructions, trained on synthetic instruction-image triplets generated by GPT-3 and Stable Diffusion.",
article = nil,
aliases = { "InstructPix2Pix", "Instruct Pix2Pix", "Instruct-Pix2Pix" },
es = "Modelo de edición de imágenes basado en difusión que sigue instrucciones de edición en lenguaje natural, entrenado sobre tripletas sintéticas instrucción-imagen generadas por GPT-3 y Stable Diffusion.",
zh = "一种基于扩散模型的图像编辑模型,可遵循自然语言编辑指令,使用 GPT-3 与 Stable Diffusion 生成的合成指令-图像三元组进行训练。",
term_es = "InstructPix2Pix",
term_zh = "InstructPix2Pix",
aliases_es = { "Instruct-Pix2Pix" },
aliases_zh = { "Instruct-Pix2Pix" },
}
data["instrument classification"] = {
short = "An audio classification task that identifies which musical instrument (e.g., piano, violin, guitar) is producing a sound, typically from spectrogram features and a learned classifier.",
article = nil,
aliases = { "musical instrument classification", "instrument recognition", "musical instrument recognition" },
es = "Tarea de clasificación de audio que identifica qué instrumento musical (por ejemplo, piano, violín, guitarra) produce un sonido, normalmente a partir de características espectrales y un clasificador entrenado.",
zh = "一项音频分类任务,用于识别产生声音的乐器(如钢琴、小提琴、吉他),通常基于频谱特征和训练好的分类器。",
term_es = "clasificación de instrumentos",
term_zh = "乐器分类",
aliases_es = { "clasificación de instrumentos musicales", "reconocimiento de instrumentos", "reconocimiento de instrumentos musicales" },
aliases_zh = { "乐器识别", "音乐乐器分类", "音乐乐器识别" },
}
data["instrumental variable"] = {
short = "A variable that affects the treatment, is independent of unmeasured confounders, and influences the outcome only through the treatment; used to identify causal effects under endogeneity.",
article = nil,
aliases = { "IV", "instrument", "instrumental variables" },
es = "Variable que afecta al tratamiento, es independiente de los factores de confusión no medidos e influye en el resultado únicamente a través del tratamiento; permite identificar efectos causales en presencia de endogeneidad.",
zh = "一种变量,它影响处理变量、与未观测混杂因素独立、且仅通过处理变量影响结局;在存在内生性时用于识别因果效应。",
term_es = "variable instrumental",
term_zh = "工具变量",
aliases_es = { "VI", "instrumento" },
aliases_zh = { "IV", "工具变量法" },
}
data["instrumental variable forest"] = {
short = "Generalized random forest variant that estimates heterogeneous local average treatment effects by fitting forest weights to the moment conditions of an instrumental variable model.",
article = nil,
aliases = { "IV forest", "instrumental forest", "GRF IV" },
es = "Variante de bosque aleatorio generalizado que estima efectos locales promedio de tratamiento heterogéneos ajustando los pesos del bosque a las condiciones de momento de un modelo de variables instrumentales.",
zh = "广义随机森林的一种变体,通过将森林权重拟合到工具变量模型的矩条件,估计异质的局部平均处理效应。",
term_es = "bosque de variable instrumental",
term_zh = "工具变量森林",
aliases_es = { "bosque IV", "GRF con variable instrumental" },
aliases_zh = { "IV 森林", "工具变量随机森林" },
}
data["int4 quantization"] = {
short = "Aggressive model compression mapping weights to 4-bit integers — typically with per-group scales — yielding ~8× memory savings versus FP32. Common in LLM weight-only quantization (GPTQ, AWQ, bitsandbytes NF4) for consumer-GPU inference.",
article = nil,
aliases = { "INT4 quantization", "4-bit integer quantization", "4-bit quantization", "int4 quant", "NF4" },
es = "Compresión agresiva de modelos que asigna pesos a enteros de 4 bits — habitualmente con escalas por grupo — y ofrece un ahorro de memoria de aproximadamente 8× frente a FP32. Es común en la cuantización solo de pesos en LLM (GPTQ, AWQ, NF4 de bitsandbytes) para inferencia en GPU de consumo.",
zh = "一种激进的模型压缩方法:将权重量化为 4 位整数,通常采用按组缩放,相对 FP32 节省约 8 倍内存。常用于消费级 GPU 上 LLM 的仅权重量化(GPTQ、AWQ、bitsandbytes NF4 等)。",
term_es = "cuantización INT4",
term_zh = "INT4 量化",
aliases_es = { "cuantización a 4 bits", "cuantización de enteros de 4 bits" },
aliases_zh = { "4 位整数量化", "4 位量化", "int4 量化", "NF4" },
}
data["int8 quantization"] = {
short = "A model compression technique that maps weights and/or activations from floating point to 8-bit signed integers using affine (scale + zero-point) or symmetric (scale-only) schemes, yielding ~4× memory savings and faster integer matrix multiplication.",
article = nil,
aliases = { "INT8 quantization", "8-bit integer quantization", "8-bit quantization", "int8 quant" },
es = "Técnica de compresión de modelos que asigna pesos y/o activaciones de punto flotante a enteros con signo de 8 bits mediante esquemas afines (escala y punto cero) o simétricos (solo escala), lo que reduce la memoria en aproximadamente 4× y acelera la multiplicación de matrices enteras.",
zh = "一种模型压缩技术:通过仿射(缩放 + 零点)或对称(仅缩放)方案,将权重和/或激活从浮点映射为 8 位有符号整数,可节省约 4 倍内存并加速整数矩阵乘法。",
term_es = "cuantización INT8",
term_zh = "INT8 量化",
aliases_es = { "cuantización a 8 bits", "cuantización de enteros de 8 bits" },
aliases_zh = { "8 位整数量化", "8 位量化", "int8 量化" },
}
data["integer linear programming"] = {
short = "A mathematical optimization problem of maximizing or minimizing a linear objective subject to linear constraints with the additional requirement that some or all variables take integer values; NP-hard in general but widely used for combinatorial reasoning and structured prediction.",
article = nil,
aliases = { "ILP", "integer programming", "IP", "mixed integer linear programming", "MILP", "integer linear program" },
es = "Un problema de optimización matemática que consiste en maximizar o minimizar un objetivo lineal sujeto a restricciones lineales, con el requisito adicional de que algunas o todas las variables tomen valores enteros; es NP-difícil en general pero se usa ampliamente para razonamiento combinatorio y predicción estructurada.",
zh = "一类数学优化问题,在线性约束下最大化或最小化线性目标,并要求部分或全部变量取整数值;一般情况下是 NP 难的,但在组合推理和结构化预测中应用广泛。",
term_es = "programación lineal entera",
term_zh = "整数线性规划",
aliases_es = { "ILP", "programación entera", "PLE", "programación lineal entera mixta", "MILP" },
aliases_zh = { "ILP", "整数规划", "IP", "混合整数线性规划", "MILP" },
}
data["integrated gradient baseline"] = {
short = "The reference input from which integrated gradients integrates along a straight-line path to the actual input. Common choices include the all-zero vector, a black image, a blurred image, or random noise; the choice strongly affects the resulting attributions.",
article = nil,
aliases = { "IG baseline", "integrated gradients baseline", "baseline input for integrated gradients" },
es = "Entrada de referencia desde la cual integrated gradients integra a lo largo de una trayectoria rectilínea hasta la entrada real. Opciones habituales son el vector de ceros, una imagen negra, una imagen difuminada o ruido aleatorio; la elección afecta de forma significativa a las atribuciones resultantes.",
zh = "积分梯度法(Integrated Gradients)从中沿直线路径积分至实际输入的参考输入,常用选择包括零向量、纯黑图像、模糊图像或随机噪声,基线的选取会显著影响所得归因。",
term_es = "línea base de integrated gradients",
term_zh = "积分梯度基线",
aliases_es = { "baseline de integrated gradients", "entrada base de integrated gradients" },
aliases_zh = { "IG基线", "integrated gradients基线" },
}
data["integrated gradients"] = {
short = "An attribution method that assigns importance to each input feature by integrating the model's gradients along a straight-line path from a baseline input to the actual input, satisfying axioms of sensitivity and implementation invariance.",
article = nil,
aliases = { "IG", "integrated gradient attribution" },
es = "Método de atribución que asigna importancia a cada característica de entrada integrando los gradientes del modelo a lo largo de una trayectoria recta desde una entrada de referencia hasta la entrada real, cumpliendo los axiomas de sensibilidad e invarianza de implementación.",
zh = "一种归因方法,通过沿从基线输入到实际输入的直线路径对模型梯度进行积分来为每个输入特征分配重要性,满足敏感性与实现不变性公理。",
term_es = "gradientes integrados",
term_zh = "积分梯度",
aliases_es = { "IG", "atribución por gradientes integrados" },
aliases_zh = { "IG", "积分梯度归因" },
}
data["intel sgx"] = {
short = "Intel Software Guard Extensions: a set of CPU instructions that create hardware-isolated memory regions called enclaves, used in confidential computing and as a trusted execution environment for secure aggregation in federated learning.",
article = nil,
aliases = { "SGX", "Intel SGX", "Software Guard Extensions" },
es = "Intel Software Guard Extensions: conjunto de instrucciones de CPU que crean regiones de memoria aisladas por hardware llamadas enclaves, utilizadas en computación confidencial y como entorno de ejecución confiable para agregación segura en aprendizaje federado.",
zh = "Intel Software Guard Extensions(SGX):一组 CPU 指令,可创建由硬件隔离的内存区域(称为 enclave),用于机密计算,并作为联邦学习安全聚合的可信执行环境。",
term_es = "Intel SGX",
term_zh = "Intel SGX",
aliases_es = { "SGX", "Software Guard Extensions" },
aliases_zh = { "SGX", "软件防护扩展" },
}
data["intelligibility score"] = {
short = "A metric quantifying how comprehensible a speech signal is to a listener; computed objectively (e.g., STOI, ESTOI) or subjectively via word/keyword recognition rates from human listeners.",
article = nil,
aliases = { "speech intelligibility score", "intelligibility metric", "speech intelligibility metric" },
es = "Métrica que cuantifica cuán comprensible es una señal de voz para un oyente; se calcula de forma objetiva (por ejemplo, STOI, ESTOI) o subjetiva mediante tasas de reconocimiento de palabras o palabras clave por oyentes humanos.",
zh = "一种量化语音信号对听者可理解程度的指标,可通过客观方式(如 STOI、ESTOI)计算,或通过人类听者的词/关键词识别率主观评估。",
term_es = "puntuación de inteligibilidad",
term_zh = "可懂度评分",
aliases_es = { "puntuación de inteligibilidad del habla", "métrica de inteligibilidad", "métrica de inteligibilidad del habla" },
aliases_zh = { "语音可懂度评分", "可懂度指标", "语音可懂度指标" },
}
data["intent-to-treat analysis"] = {
short = "Analysis of a randomized trial that compares groups according to their original assignment regardless of compliance, preserving randomization but estimating the effect of being offered treatment.",
article = nil,
aliases = { "ITT analysis", "intention-to-treat analysis", "ITT" },
es = "Análisis de un ensayo aleatorizado que compara los grupos según su asignación original, independientemente del cumplimiento, preservando la aleatorización pero estimando el efecto de ofrecer el tratamiento.",
zh = "一种随机试验分析方法,按受试者最初的随机分配分组进行比较,而不考虑实际依从情况,从而保持随机性,所估计的是分配到该治疗的效应。",
term_es = "análisis por intención de tratar",
term_zh = "意向性治疗分析",
aliases_es = { "ITT", "análisis ITT" },
aliases_zh = { "ITT 分析", "意图治疗分析" },
}
data["inter-rater agreement"] = {
short = "The degree to which different raters assign the same label or score to the same items; quantified by statistics such as Cohen's kappa, Fleiss' kappa, Krippendorff's alpha, or simple percent agreement.",
article = nil,
aliases = { "interrater agreement", "inter rater agreement", "inter-annotator agreement", "IAA", "inter-rater reliability" },
es = "Grado en que diferentes evaluadores asignan la misma etiqueta o puntuación a los mismos ítems; cuantificado mediante estadísticos como la kappa de Cohen, la kappa de Fleiss, el alfa de Krippendorff o el porcentaje de acuerdo simple.",
zh = "不同评分者对同一批样本给出相同标签或分数的程度,常用 Cohen κ、Fleiss κ、Krippendorff α 或简单百分比一致性等统计量进行量化。",
term_es = "acuerdo entre evaluadores",
term_zh = "评分者间一致性",
aliases_es = { "acuerdo interevaluadores", "concordancia entre evaluadores", "acuerdo entre anotadores", "IAA" },
aliases_zh = { "评分者间信度", "标注者间一致性", "IAA" },
}
data["inter-token latency"] = {
short = "The average time between successive generated tokens during LLM inference after the first token, a key metric for streaming user experience and a function of decode-step throughput. Often denoted ITL or TPOT.",
article = nil,
aliases = { "ITL", "TPOT", "time per output token", "inter token latency", "token-to-token latency" },
es = "Tiempo medio entre tokens generados consecutivos durante la inferencia de un LLM después del primer token, métrica clave para la experiencia de streaming y función del throughput por paso de decodificación. Suele denotarse ITL o TPOT.",
zh = "大语言模型推理中首词元之后相邻生成词元之间的平均时间,是流式输出体验的关键指标,由解码步吞吐决定,常记作 ITL 或 TPOT。",
term_es = "latencia entre tokens",
term_zh = "词元间延迟",
aliases_es = { "ITL", "TPOT", "tiempo por token de salida" },
aliases_zh = { "ITL", "TPOT", "token 间延迟", "每输出词元时间" },
}
data["interaction shap"] = {
short = "An extension of SHAP based on Shapley interaction indices that decomposes a prediction into per-feature main effects and pairwise interaction effects, quantifying how features jointly contribute to the output.",
article = nil,
aliases = { "SHAP interaction values", "Shapley interaction values", "Interaction SHAP" },
es = "Extensión de SHAP basada en índices de interacción de Shapley que descompone una predicción en efectos principales por característica y efectos de interacción por pares, cuantificando cómo las características contribuyen conjuntamente a la salida.",
zh = "基于Shapley交互指数的SHAP扩展,将预测分解为各特征的主效应和成对交互效应,从而量化特征对输出的联合贡献。",
term_es = "SHAP de interacción",
term_zh = "交互SHAP",
aliases_es = { "valores de interacción SHAP", "valores de interacción de Shapley" },
aliases_zh = { "SHAP交互值", "Shapley交互值" },
}
data["interaction strength"] = {
short = "A quantitative measure of how much a model's prediction depends on interactions among features rather than their individual contributions, often computed via H-statistics or variance decomposition of partial-dependence functions.",
article = nil,
aliases = { "feature interaction strength", "H-statistic", "Friedman's H-statistic" },
es = "Medida cuantitativa de en qué grado la predicción de un modelo depende de las interacciones entre características en lugar de sus contribuciones individuales, calculada habitualmente mediante el estadístico H o la descomposición de varianza de funciones de dependencia parcial.",
zh = "用于量化模型预测在多大程度上依赖特征之间的交互而非各自独立贡献的指标,常通过H统计量或偏依赖函数的方差分解计算。",
term_es = "fuerza de interacción",
term_zh = "交互强度",
aliases_es = { "fuerza de interacción de características", "estadístico H", "estadístico H de Friedman" },
aliases_zh = { "特征交互强度", "H统计量", "Friedman H统计量" },
}
data["interactive theorem proving"] = {
short = "A formal verification methodology in which a human user constructs machine-checked proofs by issuing tactics to a proof assistant, which mechanically verifies each inference step against a small trusted kernel.",
article = nil,
aliases = { "ITP", "interactive theorem prover", "proof assistant" },
es = "Metodología de verificación formal en la que un usuario humano construye demostraciones verificadas por máquina mediante tácticas dirigidas a un asistente de demostración, que comprueba cada paso de inferencia frente a un núcleo de confianza reducido.",
zh = "一种形式化验证方法,由人类用户向证明助手发出策略以构造机器可验证的证明,证明助手依据一个小型可信内核逐步检查每一步推理。",
term_es = "demostración interactiva de teoremas",
term_zh = "交互式定理证明",
aliases_es = { "ITP", "asistente de demostración" },
aliases_zh = { "ITP", "交互式定理证明器", "证明助手" },
}
data["interactive treatment effect"] = {
short = "Treatment effect that varies with the level of one or more covariates, captured in regression models by interaction terms between treatment and those covariates.",
article = nil,
aliases = { "treatment-covariate interaction", "effect modification", "moderated treatment effect" },
es = "Efecto del tratamiento que varía con el nivel de una o más covariables, capturado en modelos de regresión mediante términos de interacción entre el tratamiento y dichas covariables.",
zh = "处理效应随某些协变量取值而变化,在回归模型中通过处理变量与这些协变量的交互项加以刻画。",
term_es = "efecto de tratamiento interactivo",
term_zh = "交互处理效应",
aliases_es = { "interacción tratamiento-covariable", "modificación del efecto" },
aliases_zh = { "处理-协变量交互", "效应修饰" },
}
data["interactome"] = {
short = "The complete set of molecular interactions in a cell, organism, or biological context, typically referring to protein-protein interaction networks but also including protein-DNA, protein-RNA, and other interactions.",
article = nil,
aliases = { "interaction network", "molecular interactome", "PPI network", "protein interaction network" },
es = "Conjunto completo de interacciones moleculares en una célula, organismo o contexto biológico, que suele referirse a redes de interacciones proteína-proteína pero también incluye interacciones proteína-ADN, proteína-ARN y otras.",
zh = "细胞、生物体或特定生物学背景下所有分子相互作用的总体,通常指蛋白质相互作用网络,也涵盖蛋白质-DNA、蛋白质-RNA等其他相互作用。",
term_es = "interactoma",
term_zh = "相互作用组",
aliases_es = { "red de interacciones", "interactoma molecular", "red de interacciones proteína-proteína", "red PPI" },
aliases_zh = { "互作组", "相互作用网络", "蛋白质相互作用网络", "PPI 网络" },
}
data["interchange intervention"] = {
short = "A causal intervention that replaces a model's intermediate activation on one input with the corresponding activation from a second input, used to test whether a hypothesized variable is causally implemented at that location.",
article = nil,
aliases = { "interchange interventions", "activation patching", "causal interchange intervention" },
es = "Intervención causal que sustituye una activación intermedia del modelo sobre una entrada por la activación correspondiente de una segunda entrada, utilizada para comprobar si una variable hipotetizada se implementa causalmente en esa ubicación.",
zh = "一种因果干预,将模型在某输入上的中间激活替换为另一输入对应位置的激活,用以检验假设的某个变量是否在该位置被因果地实现。",
term_es = "intervención de intercambio",
term_zh = "交换干预",
aliases_es = { "intervenciones de intercambio", "patching de activaciones" },
aliases_zh = { "交换式干预", "激活补丁", "activation patching" },
}
data["interference"] = {
short = "Setting in which the outcome of one unit depends on the treatments assigned to other units, violating the stable unit treatment value assumption (SUTVA).",
article = nil,
aliases = { "spillover", "spillover effects", "SUTVA violation" },
es = "Situación en la que el resultado de una unidad depende del tratamiento asignado a otras unidades, violando el supuesto de valor estable del tratamiento por unidad (SUTVA).",
zh = "一个单位的结局取决于其他单位所接受的处理的情形,违反了 SUTVA(单位处理值稳定假设)。",
term_es = "interferencia",
term_zh = "干扰",
aliases_es = { "efectos de derrame", "violación de SUTVA" },
aliases_zh = { "溢出效应", "SUTVA 违反" },
}
data["interleaved image-text"] = {
short = "Multimodal data in which images and text segments are arbitrarily interleaved within a single document, as in webpages, used to pretrain models like Flamingo and Idefics.",
article = nil,
aliases = { "interleaved image-text data", "interleaved vision-language", "image-text interleaved" },
es = "Datos multimodales en los que imágenes y fragmentos de texto se intercalan de forma arbitraria dentro de un mismo documento, como en páginas web, usados para preentrenar modelos como Flamingo e Idefics.",
zh = "图像与文本片段在同一文档中任意交错的多模态数据,如网页内容,常用于预训练 Flamingo、Idefics 等模型。",
term_es = "imagen-texto intercalado",
term_zh = "交错图文",
aliases_es = { "datos imagen-texto intercalados", "interleaved image-text" },
aliases_zh = { "交错图像-文本", "图文交错数据" },
}
data["interleaved multimodal pretraining"] = {
short = "Pretraining of multimodal language models on documents with interleaved images and text, enabling few-shot in-context learning over multiple images and captions.",
article = nil,
aliases = { "interleaved pretraining", "interleaved VL pretraining", "interleaved multimodal pre-training" },
es = "Preentrenamiento de modelos de lenguaje multimodales sobre documentos con imágenes y texto intercalados, lo que permite aprendizaje en contexto con pocos ejemplos sobre múltiples imágenes y descripciones.",
zh = "在图像与文本交错排列的文档上对多模态语言模型进行预训练,从而实现跨多张图像与描述的少样本上下文学习。",
term_es = "preentrenamiento multimodal intercalado",
term_zh = "交错多模态预训练",
aliases_es = { "preentrenamiento intercalado", "interleaved multimodal pretraining" },
aliases_zh = { "交错式多模态预训练", "交错预训练" },
}
data["interleaved video-text"] = {
short = "Multimodal data combining video clips with interleaved text segments such as transcripts, captions, or commentary, used to pretrain video-language models.",
article = nil,
aliases = { "interleaved video-text data", "video-text interleaved", "interleaved video-language" },
es = "Datos multimodales que combinan fragmentos de vídeo con segmentos de texto intercalados como transcripciones, subtítulos o comentarios, usados para preentrenar modelos de vídeo-lenguaje.",
zh = "将视频片段与转录、字幕或评论等交错文本结合的多模态数据,用于预训练视频-语言模型。",
term_es = "vídeo-texto intercalado",
term_zh = "交错视频-文本",
aliases_es = { "datos vídeo-texto intercalados", "interleaved video-text" },
aliases_zh = { "视频-文本交错", "交错式视频文本数据" },
}
data["intermittent client federated learning"] = {
short = "A federated learning regime in which clients participate sporadically due to availability, energy, or connectivity, requiring algorithms tolerant to delayed, stale, or partial updates from intermittent participants.",
article = nil,
aliases = { "intermittent participation FL", "intermittent client FL", "sporadic client federated learning" },
es = "Régimen de aprendizaje federado en el que los clientes participan de forma esporádica debido a su disponibilidad, energía o conectividad, lo que requiere algoritmos tolerantes a actualizaciones retrasadas, obsoletas o parciales de participantes intermitentes.",
zh = "一种联邦学习场景,客户端因可用性、能量或网络连接而仅断断续续地参与,要求算法能够容忍来自间歇性参与者的延迟、过期或部分更新。",
term_es = "aprendizaje federado con clientes intermitentes",
term_zh = "间歇性客户端联邦学习",
aliases_es = { "FL con participación intermitente", "FL con clientes esporádicos" },
aliases_zh = { "间歇参与 FL", "断续客户端 FL" },
}
data["internal audit"] = {
short = "A structured self-assessment of an AI system performed by teams within the developing organization, evaluating fairness, robustness, documentation, and governance prior to release or as ongoing oversight.",
article = nil,
aliases = { "internal AI audit", "internal algorithmic audit", "internal model audit" },
es = "Evaluación estructurada de un sistema de IA realizada por equipos dentro de la organización desarrolladora, que examina equidad, robustez, documentación y gobernanza antes del lanzamiento o como supervisión continua.",
zh = "由开发组织内部团队对 AI 系统进行的结构化自评估,在发布前或持续监督中考察公平性、鲁棒性、文档与治理状况。",
term_es = "auditoría interna",
term_zh = "内部审计",
aliases_es = { "auditoría interna de IA", "auditoría algorítmica interna" },
aliases_zh = { "内部 AI 审计", "内部算法审计", "内部模型审计" },
}
data["internlm-xcomposer"] = {
short = "A vision-language model from Shanghai AI Lab and SenseTime, built on the InternLM language model, designed for free-form multimodal composition with interleaved text and images.",
article = nil,
aliases = { "InternLM-XComposer", "InternLM XComposer", "XComposer", "InternLM-XComposer2" },
es = "Modelo visión-lenguaje del Shanghai AI Lab y SenseTime, basado en el modelo de lenguaje InternLM y diseñado para composición multimodal libre con texto e imágenes intercalados.",
zh = "上海人工智能实验室与商汤科技基于 InternLM 语言模型构建的视觉-语言模型,面向交错图文的自由多模态创作。",
term_es = "InternLM-XComposer",
term_zh = "InternLM-XComposer",
aliases_es = { "XComposer" },
aliases_zh = { "XComposer", "书生·浦语·灵笔" },
}
data["internvid"] = {
short = "A large-scale video-text dataset released alongside the InternVideo project, providing tens of millions of video clips paired with detailed captions for video-language pretraining.",
article = nil,
aliases = { "InternVid", "Intern-Vid", "InternVid dataset" },
es = "Conjunto de datos vídeo-texto a gran escala publicado junto al proyecto InternVideo, con decenas de millones de clips de vídeo emparejados con descripciones detalladas para preentrenamiento vídeo-lenguaje.",
zh = "与 InternVideo 项目一同发布的大规模视频-文本数据集,提供数千万级视频片段及其详细描述,用于视频-语言预训练。",
term_es = "InternVid",
term_zh = "InternVid",
aliases_es = { "Intern-Vid" },
aliases_zh = { "Intern-Vid" },
}
data["internvideo"] = {
short = "A family of open foundation models for video understanding from Shanghai AI Lab, combining masked video modeling with video-language contrastive learning over large web-scale video-text corpora.",
article = nil,
aliases = { "InternVideo", "Intern-Video" },
es = "Familia de modelos base abiertos para comprensión de vídeo del Shanghai AI Lab, que combina modelado enmascarado de vídeo con aprendizaje contrastivo vídeo-lenguaje sobre grandes corpus web de vídeo y texto.",
zh = "上海人工智能实验室开源的视频理解基础模型家族,在大规模网络视频-文本语料上结合掩码视频建模与视频-语言对比学习。",
term_es = "InternVideo",
term_zh = "InternVideo",
aliases_es = { "Intern-Video" },
aliases_zh = { "Intern-Video" },
}
data["internvideo2"] = {
short = "The second-generation InternVideo foundation model, scaling video-language pretraining with masked autoencoding, contrastive alignment, and language generation objectives across diverse video tasks.",
article = nil,
aliases = { "InternVideo2", "InternVideo 2", "Intern-Video2" },
es = "Modelo base InternVideo de segunda generación, que escala el preentrenamiento vídeo-lenguaje combinando autoencoding enmascarado, alineación contrastiva y objetivos de generación de lenguaje sobre tareas de vídeo diversas.",
zh = "第二代 InternVideo 基础模型,通过结合掩码自编码、对比对齐与语言生成目标,在多样化视频任务上扩展视频-语言预训练。",
term_es = "InternVideo2",
term_zh = "InternVideo2",
aliases_es = { "InternVideo 2" },
aliases_zh = { "InternVideo 2" },
}
data["internvl"] = {
short = "A series of large open vision-language models from Shanghai AI Lab that pair a high-capacity vision encoder with an LLM via a learned bridge, supporting image, OCR, and chart understanding at scale.",
article = nil,
aliases = { "InternVL", "Intern-VL", "InternVL-Chat", "InternVL2", "InternVL 2" },
es = "Serie de grandes modelos visión-lenguaje abiertos del Shanghai AI Lab que combinan un codificador visual de alta capacidad con un LLM mediante un puente aprendido, con soporte a gran escala para imágenes, OCR y comprensión de gráficos.",
zh = "上海人工智能实验室推出的开源大型视觉-语言模型系列,通过可学习桥接将高容量视觉编码器与 LLM 结合,支持大规模图像、OCR 和图表理解。",
term_es = "InternVL",
term_zh = "InternVL",
aliases_es = { "Intern-VL", "InternVL2" },
aliases_zh = { "Intern-VL", "InternVL2" },
}
data["internvl 2"] = {
short = "An open-source multimodal large language model series from Shanghai AI Laboratory, scaling vision encoders to billions of parameters and matching commercial VLMs on benchmarks like MMMU and DocVQA.",
article = nil,
aliases = { "InternVL 2", "InternVL2", "InternVL-2", "internvl2", "InternVL v2" },
es = "Serie de modelos multimodales de gran tamaño de código abierto del Shanghai AI Laboratory, que escala los codificadores de visión a miles de millones de parámetros e iguala a VLMs comerciales en benchmarks como MMMU y DocVQA.",
zh = "由上海人工智能实验室开源的多模态大模型系列,将视觉编码器扩展至数十亿参数规模,在 MMMU、DocVQA 等基准上达到与商用 VLM 相当的水平。",
term_es = "InternVL 2",
term_zh = "InternVL 2",
aliases_es = { "InternVL2", "InternVL-2" },
aliases_zh = { "InternVL2", "InternVL-2" },
}
data["interpretability"] = {
short = "The degree to which a human can understand the internal mechanism by which a model arrives at its outputs. Often distinguished from explainability by focusing on inherent transparency of the model.",
article = nil,
aliases = { "model interpretability", "interpretable machine learning" },
es = "Grado en que una persona puede entender el mecanismo interno por el cual un modelo produce sus salidas. Suele distinguirse de la explicabilidad por enfocarse en la transparencia inherente del modelo.",
zh = "人类能够理解模型得出其输出的内部机制的程度。通常与可解释性区分开来,强调模型本身的内在透明度。",
term_es = "interpretabilidad",
term_zh = "可解释性",
aliases_es = { "interpretabilidad del modelo", "aprendizaje automático interpretable" },
aliases_zh = { "模型可解释性", "可解读性", "可诠释性" },
}
data["interpretability illusion"] = {
short = "The phenomenon in which an explanation appears coherent and intuitive to a human but does not faithfully reflect the model's actual computation, leading to false confidence in the explanation.",
article = nil,
aliases = { "illusion of interpretability", "interpretability illusions" },
es = "Fenómeno en el que una explicación parece coherente e intuitiva para un humano pero no refleja fielmente el cómputo real del modelo, induciendo una confianza injustificada en dicha explicación.",
zh = "一种现象:某项解释对人类看来合乎逻辑、直观可理解,却并未忠实反映模型的实际计算,从而对解释产生虚假的信心。",
term_es = "ilusión de interpretabilidad",
term_zh = "可解释性错觉",
aliases_es = { "ilusión de la interpretabilidad" },
aliases_zh = { "解释性错觉", "可解释性幻觉" },
}
data["interpretable machine learning"] = {
short = "A subfield of machine learning concerned with developing models, methods, and evaluations that allow humans to understand the reasoning behind predictions, covering both inherently interpretable models and post-hoc explanations.",
article = nil,
aliases = { "IML", "interpretable ML", "explainable machine learning", "XAI", "explainable AI" },
es = "Subcampo del aprendizaje automático que se ocupa de desarrollar modelos, métodos y evaluaciones que permitan a los humanos comprender el razonamiento tras las predicciones, abarcando tanto modelos intrínsecamente interpretables como explicaciones post-hoc.",
zh = "机器学习的一个子领域,致力于研究使人类能够理解预测背后推理过程的模型、方法与评估,涵盖本质可解释模型与事后解释两类工作。",
term_es = "aprendizaje automático interpretable",
term_zh = "可解释机器学习",
aliases_es = { "IML", "ML interpretable", "aprendizaje automático explicable", "XAI", "IA explicable" },
aliases_zh = { "IML", "可解释ML", "可解释人工智能", "XAI" },
}
data["interpretml"] = {
short = "An open-source Python toolkit from Microsoft Research that provides inherently interpretable models — notably the Explainable Boosting Machine — together with post-hoc explanation techniques such as SHAP and LIME under a unified API.",
article = nil,
aliases = { "InterpretML", "Interpret-ML", "interpretml library" },
es = "Biblioteca de código abierto en Python desarrollada por Microsoft Research que proporciona modelos intrínsecamente interpretables — destacando la Explainable Boosting Machine — junto con técnicas de explicación post-hoc como SHAP y LIME bajo una API unificada.",
zh = "由Microsoft Research开源的Python工具包,提供本质可解释模型(尤其是Explainable Boosting Machine)以及SHAP、LIME等事后解释方法,并在统一的API下使用。",
term_es = "InterpretML",
term_zh = "InterpretML",
aliases_es = { "InterpretML", "biblioteca InterpretML" },
aliases_zh = { "InterpretML", "InterpretML工具包" },
}
data["interpro"] = {
short = "An EBI-hosted integrative database that classifies proteins into families and predicts domains, motifs, and functional sites by combining signatures from member databases such as Pfam, PROSITE, and SMART.",
article = nil,
aliases = { "InterPro", "InterPro database" },
es = "Base de datos integrativa alojada en el EBI que clasifica proteínas en familias y predice dominios, motivos y sitios funcionales combinando firmas de bases de datos miembro como Pfam, PROSITE y SMART.",
zh = "由 EBI 托管的综合数据库,通过整合 Pfam、PROSITE、SMART 等成员数据库的特征签名,将蛋白质分类到家族中,并预测结构域、基序和功能位点。",
term_es = "InterPro",
term_zh = "InterPro",
aliases_es = { "InterPro", "base de datos InterPro" },
aliases_zh = { "InterPro", "InterPro 数据库" },
}
data["intersectional bias"] = {
short = "Bias that affects individuals at the intersection of two or more protected attributes (e.g., Black women) and that may be invisible when each attribute is examined separately.",
article = nil,
aliases = { "intersectional fairness bias", "intersectional discrimination", "intersectional disparate impact" },
es = "Sesgo que afecta a personas en la intersección de dos o más atributos protegidos (por ejemplo, mujeres negras) y que puede pasar desapercibido cuando cada atributo se examina por separado.",
zh = "影响处于两个或多个受保护属性交叉处个体(例如黑人女性)的偏差,仅按单一属性分析时往往无法察觉。",
term_es = "sesgo interseccional",
term_zh = "交叉性偏差",
aliases_es = { "discriminación interseccional", "sesgo de interseccionalidad" },
aliases_zh = { "交叉偏差", "交叉性歧视", "交叉性偏见" },
}
data["intersectional subgroup"] = {
short = "A subgroup defined by the conjunction of values across multiple protected attributes, used in fairness audits to surface disparities that single-attribute analyses miss.",
article = nil,
aliases = { "intersectional group", "multi-attribute subgroup", "intersection subgroup" },
es = "Subgrupo definido por la conjunción de valores en varios atributos protegidos, utilizado en auditorías de equidad para detectar disparidades que los análisis por un solo atributo pasan por alto.",
zh = "由多个受保护属性的取值组合所定义的子群体,用于公平性审计以揭示单属性分析无法发现的差异。",
term_es = "subgrupo interseccional",
term_zh = "交叉性子群体",
aliases_es = { "grupo interseccional", "subgrupo multiatributo" },
aliases_zh = { "交叉子群体", "多属性子群体", "交叉性群组" },
}
data["intersectionality"] = {
short = "A framework, originating in legal scholarship by Kimberlé Crenshaw, that analyzes how overlapping systems of disadvantage—race, gender, class, disability—combine to produce distinct experiences of discrimination.",
article = nil,
aliases = { "intersectional framework", "intersectional theory", "Crenshaw intersectionality" },
es = "Marco originado en los estudios jurídicos de Kimberlé Crenshaw que analiza cómo sistemas de desventaja superpuestos —raza, género, clase, discapacidad— se combinan para producir experiencias distintas de discriminación.",
zh = "起源于 Kimberlé Crenshaw 法学研究的分析框架,研究种族、性别、阶级、残障等多重不利系统如何叠加并产生独特的歧视经验。",
term_es = "interseccionalidad",
term_zh = "交叉性",
aliases_es = { "teoría interseccional", "marco interseccional" },
aliases_zh = { "交叉性理论", "交叉性框架", "Crenshaw 交叉性" },
}
data["interventional distribution"] = {
short = "Distribution P(Y | do(X = x)) of variables under a hypothetical intervention that fixes X to x, severing X's incoming causal arrows in the underlying graph.",
article = nil,
aliases = { "post-intervention distribution", "do-distribution", "interventional distribution P(Y|do(x))" },
es = "Distribución P(Y | do(X = x)) de las variables bajo una intervención hipotética que fija X en x, eliminando las flechas causales entrantes a X en el grafo subyacente.",
zh = "在将变量 X 强制设定为 x 的假想干预下其他变量的分布 P(Y | do(X = x)),其中底层因果图上指向 X 的因果箭头被切断。",
term_es = "distribución intervencional",
term_zh = "干预分布",
aliases_es = { "distribución posintervención", "distribución do" },
aliases_zh = { "干预后分布", "do 分布" },
}
data["interventional reasoning"] = {
short = "Reasoning about effects of hypothetical interventions on a system, corresponding to the second rung of Pearl's causal hierarchy and answered by the do-operator.",
article = nil,
aliases = { "interventional inference", "do-reasoning", "second-rung reasoning" },
es = "Razonamiento sobre los efectos de intervenciones hipotéticas en un sistema; corresponde al segundo escalón de la jerarquía causal de Pearl y se aborda mediante el operador do.",
zh = "对系统进行假想干预后的效果进行的推理,对应于 Pearl 因果层级的第二层,可通过 do 算子加以表达。",
term_es = "razonamiento intervencional",
term_zh = "干预推理",
aliases_es = { "inferencia intervencional", "razonamiento do" },
aliases_zh = { "干预性推理", "do 推理" },
}
data["intogen"] = {
short = "An open-source platform and pipeline that integrates somatic mutation data from large cancer cohorts to identify genes under positive selection and catalog likely cancer driver mutations across tumor types.",
article = nil,
aliases = { "IntOGen", "Integrative OncoGenomics", "intogen.org" },
es = "Plataforma y pipeline de código abierto que integra datos de mutaciones somáticas de grandes cohortes de cáncer para identificar genes bajo selección positiva y catalogar mutaciones probables conductoras de cáncer en distintos tipos tumorales.",
zh = "一个开源平台和流程,整合大规模癌症队列的体细胞突变数据,识别处于正选择下的基因,并在多种肿瘤类型中编目可能的癌症驱动突变。",
term_es = "IntOGen",
term_zh = "IntOGen",
aliases_es = { "IntOGen", "Integrative OncoGenomics" },
aliases_zh = { "IntOGen", "Integrative OncoGenomics" },
}
data["intra-rater reliability"] = {
short = "The consistency of a single rater's judgments when re-rating the same items at different times; measures whether the same annotator produces stable labels across sessions.",
article = nil,
aliases = { "intrarater reliability", "intra rater reliability", "intra-rater agreement", "test-retest reliability (rater)" },
es = "Consistencia de los juicios de un mismo evaluador al volver a calificar los mismos ítems en momentos diferentes; mide si el anotador produce etiquetas estables entre sesiones.",
zh = "同一评分者在不同时间对相同样本重新评分时判断的一致性,衡量同一标注者在多次会话中是否给出稳定标签。",
term_es = "fiabilidad intraevaluador",
term_zh = "评分者内信度",
aliases_es = { "confiabilidad intraevaluador", "consistencia intraevaluador" },
aliases_zh = { "评分者内一致性", "重测信度(评分者)" },
}
data["intrinsic coregionalization model"] = {
short = "A multi-output Gaussian process with a separable covariance equal to the product of an inputs kernel and a low-rank task covariance matrix, which couples the outputs through shared latent processes.",
article = nil,
aliases = { "ICM", "intrinsic model of coregionalization" },
es = "Proceso gaussiano multisalida con covarianza separable igual al producto de un kernel sobre las entradas y una matriz de covarianza de tareas de bajo rango, que acopla las salidas mediante procesos latentes compartidos.",
zh = "一种多输出高斯过程:协方差为输入核与低秩任务协方差矩阵的可分离乘积,通过共享潜在过程把多个输出耦合在一起。",
term_es = "modelo intrínseco de coregionalización",
term_zh = "内在协区域化模型",
aliases_es = { "ICM" },
aliases_zh = { "ICM", "内蕴协区域化模型" },
}
data["intrinsic motivation"] = {
short = "In reinforcement learning, reward signals generated by the agent itself — such as novelty, prediction error, or empowerment — that supplement or replace task rewards to encourage exploration and skill discovery.",
article = nil,
aliases = { "intrinsic reward", "intrinsic rewards", "self-motivated exploration" },
es = "En aprendizaje por refuerzo, señales de recompensa generadas por el propio agente —como novedad, error de predicción o empowerment— que complementan o sustituyen las recompensas de la tarea para fomentar la exploración y el descubrimiento de habilidades.",
zh = "在强化学习中,由智能体自身产生的奖励信号——例如新颖性、预测误差或 empowerment——用以补充或替代任务奖励,以鼓励探索和技能发现。",
term_es = "motivación intrínseca",
term_zh = "内在动机",
aliases_es = { "recompensa intrínseca", "recompensas intrínsecas" },
aliases_zh = { "内在奖励", "内部动机", "intrinsic motivation" },
}
data["intrinsically disordered protein"] = {
short = "A protein or protein region that lacks a stable tertiary structure under physiological conditions yet often performs essential biological functions, frequently through coupled folding upon binding to partners.",
article = nil,
aliases = { "IDP", "intrinsically disordered protein", "intrinsically disordered region", "IDR", "disordered protein" },
es = "Proteína o región proteica que carece de una estructura terciaria estable en condiciones fisiológicas pero que con frecuencia desempeña funciones biológicas esenciales, a menudo plegándose al unirse a sus compañeros de interacción.",
zh = "在生理条件下缺乏稳定三级结构却往往承担重要生物学功能的蛋白质或蛋白质区域,常通过与配体结合时的耦合折叠发挥作用。",
term_es = "proteína intrínsecamente desordenada",
term_zh = "本征无序蛋白",
aliases_es = { "IDP", "proteína desordenada", "región intrínsecamente desordenada", "IDR" },
aliases_zh = { "IDP", "内在无序蛋白", "无序蛋白", "本征无序区域", "IDR" },
}
data["invariance principle"] = {
short = "Idea, central to causal representation learning, that genuine causal mechanisms remain invariant across environments and interventions while spurious correlations do not.",
article = nil,
aliases = { "causal invariance", "invariance assumption", "invariance hypothesis" },
es = "Idea, central en el aprendizaje de representaciones causales, de que los mecanismos causales genuinos permanecen invariantes ante cambios de entorno e intervenciones, mientras que las correlaciones espurias no.",
zh = "因果表示学习的核心思想:真正的因果机制在不同环境和干预下保持不变,而虚假相关性则会随之改变。",
term_es = "principio de invariancia",
term_zh = "不变性原则",
aliases_es = { "invariancia causal", "supuesto de invariancia" },
aliases_zh = { "因果不变性", "不变性假设" },
}
data["invariant causal prediction"] = {
short = "Method by Peters, Bühlmann, and Meinshausen that identifies causal predictors of a target by selecting variable subsets whose conditional outcome distribution is invariant across heterogeneous environments.",
article = nil,
aliases = { "ICP", "invariant prediction" },
es = "Método de Peters, Bühlmann y Meinshausen que identifica predictores causales de un objetivo seleccionando subconjuntos de variables cuya distribución condicional del resultado es invariante entre entornos heterogéneos.",
zh = "Peters、Bühlmann 与 Meinshausen 提出的方法:通过选取在多种异质环境下使目标变量的条件分布保持不变的变量子集,识别其因果预测变量。",
term_es = "predicción causal invariante",
term_zh = "不变因果预测",
aliases_es = { "ICP", "predicción invariante" },
aliases_zh = { "ICP", "不变预测" },
}
data["invariant point attention"] = {
short = "An SE(3)-equivariant attention mechanism, introduced in AlphaFold2's structure module, that operates on per-residue 3D frames so that updates to point coordinates are invariant to global rigid-body transforms of the input.",
article = nil,
aliases = { "IPA", "Invariant Point Attention", "invariant point attention module" },
es = "Mecanismo de atención SE(3)-equivariante, introducido en el módulo estructural de AlphaFold2, que opera sobre marcos 3D por residuo de modo que las actualizaciones de coordenadas son invariantes a transformaciones rígidas globales de la entrada.",
zh = "AlphaFold2结构模块中引入的SE(3)等变注意力机制,在每个残基的三维坐标系上操作,使点坐标的更新对输入的整体刚体变换保持不变。",
term_es = "invariant point attention",
term_zh = "不变点注意力",
aliases_es = { "IPA", "atención de puntos invariante", "invariant point attention" },
aliases_zh = { "IPA", "不变点注意力机制", "invariant point attention" },
}
data["invariant risk minimization"] = {
short = "A learning principle that seeks predictors whose optimal classifier is the same across multiple training environments, aiming to capture stable causal features rather than spurious correlations.",
article = nil,
aliases = { "IRM", "invariant risk minimisation" },
es = "Principio de aprendizaje que busca predictores cuyo clasificador óptimo sea el mismo en múltiples entornos de entrenamiento, con el fin de capturar características causales estables en lugar de correlaciones espurias.",
zh = "一种学习原则,旨在寻找在多个训练环境中最优分类器保持不变的预测器,以捕获稳定的因果特征而非虚假相关性。",
term_es = "minimización de riesgo invariante",
term_zh = "不变风险最小化",
aliases_es = { "IRM" },
aliases_zh = { "IRM" },
}
data["inverse autoregressive flow posterior"] = {
short = "A variational posterior parameterized as an inverse autoregressive flow, which transforms a simple base distribution through a sequence of autoregressive affine maps to give a flexible, exactly-invertible posterior with tractable density.",
article = nil,
aliases = { "IAF posterior", "IAF variational posterior", "inverse autoregressive flow" },
es = "Posterior variacional parametrizado como un inverse autoregressive flow, que transforma una distribución base simple mediante una secuencia de mapas afines autorregresivos para obtener un posterior flexible, exactamente invertible y con densidad tratable.",
zh = "用 inverse autoregressive flow(IAF)参数化的变分后验:通过一串自回归仿射变换把简单的基分布映射为灵活、可逆且密度可解析的后验。",
term_es = "posterior con flujo autorregresivo inverso",
term_zh = "逆自回归流后验",
aliases_es = { "posterior IAF", "IAF" },
aliases_zh = { "IAF 后验", "逆自回归流变分后验" },
}
data["inverse folding"] = {
short = "The task of designing an amino acid sequence that will fold into a given target protein backbone, the reverse problem of structure prediction. Models such as ProteinMPNN and ESM-IF address it directly.",
article = nil,
aliases = { "fixed-backbone design", "structure-to-sequence", "sequence design", "protein inverse folding" },
es = "Tarea de diseñar una secuencia de aminoácidos que se pliegue en un esqueleto proteico objetivo dado; el problema inverso a la predicción de estructura. Modelos como ProteinMPNN y ESM-IF lo abordan directamente.",
zh = "设计能够折叠成给定目标蛋白质主链的氨基酸序列的任务,即结构预测的逆问题。ProteinMPNN 和 ESM-IF 等模型直接解决此问题。",
term_es = "plegamiento inverso",
term_zh = "逆折叠",
aliases_es = { "diseño de esqueleto fijo", "diseño de secuencia", "plegado inverso" },
aliases_zh = { "蛋白质逆折叠", "固定主链设计", "结构到序列设计" },
}
data["inverse matrix"] = {
short = "For a square matrix A, the unique matrix A⁻¹ satisfying A·A⁻¹ = A⁻¹·A = I, where I is the identity. Exists if and only if A is nonsingular (has nonzero determinant).",
article = nil,
aliases = { "matrix inverse", "inverse of a matrix", "A inverse", "A^-1", "A⁻¹" },
es = "Para una matriz cuadrada A, la única matriz A⁻¹ que satisface A·A⁻¹ = A⁻¹·A = I, donde I es la identidad. Existe si y sólo si A es no singular (tiene determinante distinto de cero).",
zh = "对于方阵 A,满足 A·A⁻¹ = A⁻¹·A = I 的唯一矩阵 A⁻¹(其中 I 为单位矩阵)。当且仅当 A 非奇异(行列式非零)时存在。",
term_es = "matriz inversa",
term_zh = "逆矩阵",
aliases_es = { "inversa de una matriz", "inversa matricial" },
aliases_zh = { "矩阵的逆", "矩阵求逆" },
}
data["inverse molecular design"] = {
short = "The paradigm of generating molecules with a specified set of target properties, rather than predicting properties from a given structure; typically tackled with generative models, reinforcement learning, or Bayesian optimization.",
article = nil,
aliases = { "inverse design", "goal-directed molecular generation", "property-driven molecular design" },
es = "Paradigma de generar moléculas con un conjunto especificado de propiedades objetivo, en lugar de predecir propiedades a partir de una estructura dada; típicamente abordado con modelos generativos, aprendizaje por refuerzo u optimización bayesiana.",
zh = "生成具有指定目标性质的分子的范式,而非从给定结构预测性质;通常采用生成模型、强化学习或贝叶斯优化方法。",
term_es = "diseño molecular inverso",
term_zh = "逆向分子设计",
aliases_es = { "diseño inverso", "generación dirigida por objetivos" },
aliases_zh = { "反向分子设计", "目标导向分子生成" },
}
data["inverse probability of censoring weighting"] = {
short = "IPCW; weights uncensored observations by the inverse probability of remaining uncensored to remove bias from informative right-censoring in survival or longitudinal analyses.",
article = nil,
aliases = { "IPCW", "inverse probability-of-censoring weights", "censoring weights" },
es = "IPCW; pondera las observaciones no censuradas por la inversa de la probabilidad de permanecer sin censurar, eliminando el sesgo por censura informativa en análisis de supervivencia o longitudinales.",
zh = "IPCW;按未被截尾的概率的倒数对未截尾观测加权,以消除生存分析或纵向分析中信息性右截尾带来的偏倚。",
term_es = "ponderación por la inversa de la probabilidad de censura",
term_zh = "逆截尾概率加权",
aliases_es = { "IPCW", "pesos de censura" },
aliases_zh = { "IPCW", "截尾权重" },
}
data["inverse probability of treatment weighting"] = {
short = "IPTW; weights each unit by the inverse of its estimated propensity score so that, in the weighted pseudo-population, treatment assignment is independent of measured confounders.",
article = nil,
aliases = { "IPTW", "inverse-probability-of-treatment weighting", "propensity weighting", "propensity-score weighting" },
es = "IPTW; pondera cada unidad por la inversa de su puntaje de propensión estimado, de modo que en la pseudo-población ponderada la asignación del tratamiento es independiente de los factores de confusión medidos.",
zh = "IPTW;以每个个体估计倾向得分的倒数作为权重,使加权后的伪总体中处理分配与观测到的混杂因素相互独立。",
term_es = "ponderación por la inversa de la probabilidad de tratamiento",
term_zh = "逆处理概率加权",
aliases_es = { "IPTW", "ponderación por puntaje de propensión" },
aliases_zh = { "IPTW", "倾向得分加权" },
}
data["inverse probability weighting"] = {
short = "General class of estimators that re-weight observations by the inverse of their selection or treatment-assignment probability to produce unbiased estimates under missing-at-random or unconfoundedness assumptions.",
article = nil,
aliases = { "IPW", "inverse-probability weighting", "Horvitz-Thompson weighting" },
es = "Clase general de estimadores que reponderan las observaciones por la inversa de su probabilidad de selección o de asignación al tratamiento para obtener estimaciones insesgadas bajo supuestos de pérdida al azar o no confusión.",
zh = "一类通用的估计方法,通过以观测被选中或被分配处理的概率的倒数对其加权,以在随机缺失或非混杂假设下得到无偏估计。",
term_es = "ponderación por la inversa de la probabilidad",
term_zh = "逆概率加权",
aliases_es = { "IPW", "ponderación de Horvitz-Thompson" },
aliases_zh = { "IPW", "Horvitz-Thompson 加权" },
}
data["inverse propensity weighting"] = {
short = "Estimator that weights each unit by the inverse of its propensity score to balance covariates between treated and control groups; often used interchangeably with IPTW for ATE estimation.",
article = nil,
aliases = { "IPW", "inverse-propensity weighting", "propensity score weighting", "IPS" },
es = "Estimador que pondera cada unidad por la inversa de su puntaje de propensión para equilibrar las covariables entre los grupos tratado y de control; suele usarse de forma intercambiable con IPTW al estimar el ATE.",
zh = "通过以倾向得分的倒数对每个个体加权,使处理组与对照组在协变量上达到平衡的估计方法;在估计 ATE 时常与 IPTW 互换使用。",
term_es = "ponderación por la inversa de la propensión",
term_zh = "逆倾向加权",
aliases_es = { "IPW", "ponderación por puntaje de propensión" },
aliases_zh = { "IPW", "倾向得分加权" },
}
data["inverse reinforcement learning"] = {
short = "The problem of inferring an unknown reward function that explains an expert's observed behavior, typically used so that a learned reward can later be optimized to recover or generalize the expert's policy.",
article = nil,
aliases = { "IRL", "inverse RL", "inverse optimal control" },
es = "Problema de inferir una función de recompensa desconocida que explica el comportamiento observado de un experto, usado típicamente para luego optimizar la recompensa aprendida y recuperar o generalizar la política del experto.",
zh = "推断一个未知奖励函数以解释专家观察到的行为的问题,通常用于之后对学得的奖励进行优化,以恢复或泛化专家的策略。",
term_es = "aprendizaje por refuerzo inverso",
term_zh = "逆强化学习",
aliases_es = { "IRL", "RL inverso", "control óptimo inverso" },
aliases_zh = { "IRL", "inverse RL", "逆向强化学习" },
}
data["inverse relation"] = {
short = "Given a binary relation R on a set, the inverse relation R⁻¹ contains the pair (b, a) whenever R contains (a, b); in knowledge graph reasoning, inverse relations are often added explicitly to make tail-prediction symmetric with head-prediction.",
article = nil,
aliases = { "converse relation", "inverse predicate", "reverse relation" },
es = "Dada una relación binaria R sobre un conjunto, la relación inversa R⁻¹ contiene el par (b, a) siempre que R contenga (a, b); en razonamiento sobre grafos de conocimiento, suelen añadirse relaciones inversas explícitas para hacer la predicción de cola simétrica a la de cabeza.",
zh = "给定集合上的二元关系 R,其逆关系 R⁻¹ 在 R 包含 (a, b) 时包含 (b, a);在知识图谱推理中常显式加入逆关系,以使尾实体预测与头实体预测对称。",
term_es = "relación inversa",
term_zh = "逆关系",
aliases_es = { "relación conversa", "predicado inverso" },
aliases_zh = { "反向关系", "逆谓词" },
}
data["inverse scaling"] = {
short = "An empirical phenomenon in which performance on certain tasks degrades as language model scale increases, contrary to typical scaling-law expectations. Studied via the Inverse Scaling Prize benchmarks.",
article = nil,
aliases = { "inverse-scaling", "inverse scaling law", "negative scaling" },
es = "Fenómeno empírico en el que el rendimiento en ciertas tareas empeora a medida que aumenta la escala del modelo de lenguaje, contrario a las expectativas habituales de las leyes de escalado. Estudiado mediante los benchmarks del Inverse Scaling Prize.",
zh = "一种实证现象:在某些任务上,语言模型的性能随规模增大而下降,与常见的扩展定律预期相反,主要通过 Inverse Scaling Prize 基准进行研究。",
term_es = "escalado inverso",
term_zh = "逆扩展",
aliases_es = { "ley de escalado inverso", "escalamiento inverso" },
aliases_zh = { "逆向扩展", "反向扩展", "逆扩展定律" },
}
data["inverse short-time fourier transform"] = {
short = "The operation that reconstructs a time-domain signal from its short-time Fourier transform by overlap-adding windowed inverse DFT frames; central to spectrogram-domain audio synthesis.",
article = nil,
aliases = { "iSTFT", "ISTFT", "inverse STFT", "inverse short time Fourier transform" },
es = "Operación que reconstruye una señal en el dominio del tiempo a partir de su transformada de Fourier de tiempo corto sumando con solapamiento marcos de DFT inversa enventanados; fundamental en la síntesis de audio en el dominio del espectrograma.",
zh = "通过重叠相加加窗逆 DFT 帧,从短时傅里叶变换重建时域信号的运算;是频谱域音频合成的核心。",
term_es = "transformada de Fourier de tiempo corto inversa",
term_zh = "逆短时傅里叶变换",
aliases_es = { "iSTFT", "ISTFT", "STFT inversa" },
aliases_zh = { "iSTFT", "ISTFT", "逆 STFT", "短时傅里叶逆变换" },
}
data["inverse text normalization"] = {
short = "The post-processing step in ASR pipelines that converts spoken-form transcripts (\"three dollars\") into written form (\"$3\"), handling numbers, dates, currencies, and abbreviations.",
article = nil,
aliases = { "ITN", "inverse-text normalization", "text de-normalization", "spoken-to-written text normalization" },
es = "Paso de posprocesamiento en pipelines de ASR que convierte transcripciones en forma hablada («tres dólares») a forma escrita («3 $»), gestionando números, fechas, monedas y abreviaturas.",
zh = "ASR 流程中的后处理步骤,将口语形式的转录文本(如 '三美元')转换为书面形式(如 '$3'),处理数字、日期、货币和缩写。",
term_es = "normalización inversa de texto",
term_zh = "逆文本归一化",
aliases_es = { "ITN", "des-normalización de texto", "normalización hablado-a-escrito" },
aliases_zh = { "ITN", "反向文本归一化", "口语到书面文本归一化", "文本反规范化" },
}
data["inverse variance weighted estimator"] = {
short = "Pooled estimator, especially used in Mendelian randomization, that combines per-instrument Wald ratios using weights inversely proportional to their variances under a no-pleiotropy assumption.",
article = nil,
aliases = { "IVW estimator", "IVW", "inverse-variance weighted estimator", "inverse variance weighting" },
es = "Estimador agregado, utilizado especialmente en aleatorización mendeliana, que combina los cocientes de Wald de cada instrumento con pesos inversamente proporcionales a sus varianzas bajo el supuesto de ausencia de pleiotropía.",
zh = "尤其用于孟德尔随机化的合并估计量:在无多效性假设下,以各工具变量 Wald 比值的方差倒数为权重进行加权平均。",
term_es = "estimador ponderado por la inversa de la varianza",
term_zh = "逆方差加权估计量",
aliases_es = { "estimador IVW", "IVW" },
aliases_zh = { "IVW 估计量", "逆方差加权法" },
}
data["inversion detection"] = {
short = "Identification of genomic structural variants in which a chromosomal segment is reversed end-to-end relative to a reference, typically detected from split reads, paired-end orientation anomalies, or long-read alignments.",
article = nil,
aliases = { "inversion calling", "structural inversion detection", "genomic inversion detection" },
es = "Identificación de variantes estructurales genómicas en las que un segmento cromosómico está invertido extremo a extremo respecto a una referencia, detectadas habitualmente a partir de lecturas partidas, anomalías de orientación de extremos pareados o alineamientos de lecturas largas.",
zh = "基因组结构变异的检测,指相对于参考基因组某段染色体片段发生首尾倒位,通常通过断裂读段、双端读段方向异常或长读段比对加以识别。",
term_es = "detección de inversiones",
term_zh = "倒位检测",
aliases_es = { "llamada de inversiones", "detección de inversiones genómicas", "detección de inversiones estructurales" },
aliases_zh = { "倒位调用", "基因组倒位检测", "结构倒位检测" },
}
data["inversion-based editing"] = {
short = "Image editing approach for diffusion models that first inverts a real image into a latent noise trajectory (e.g. via DDIM or null-text inversion) and then re-runs the denoising process with a modified prompt or attention map to produce edits faithful to the source.",
article = nil,
aliases = { "diffusion inversion editing", "DDIM inversion editing", "null-text inversion editing", "inversion editing" },
es = "Enfoque de edición de imágenes para modelos de difusión que primero invierte una imagen real a una trayectoria latente de ruido (por ejemplo mediante inversión DDIM o null-text) y luego vuelve a ejecutar el denoising con un prompt o mapa de atención modificado para producir ediciones fieles a la imagen original.",
zh = "面向扩散模型的图像编辑方法:先通过 DDIM 反演或 null-text 反演等方式将真实图像反演为潜在噪声轨迹,再使用修改后的提示词或注意力图重新执行去噪过程,从而生成忠于原图的编辑结果。",
term_es = "edición basada en inversión",
term_zh = "基于反演的编辑",
aliases_es = { "inversion-based editing", "edición por inversión de difusión" },
aliases_zh = { "基于扩散反演的编辑", "DDIM 反演编辑", "null-text 反演编辑" },
}
data["inverting gradients attack"] = {
short = "A reconstruction attack on federated learning that recovers training inputs by minimizing the cosine distance between observed client gradients and gradients computed on a candidate input, scaling DLG-style attacks to deeper networks.",
article = nil,
aliases = { "inverting gradients", "Geiping inverting gradients", "gradient inversion attack" },
es = "Ataque de reconstrucción en aprendizaje federado que recupera entradas de entrenamiento minimizando la distancia coseno entre los gradientes observados del cliente y los gradientes calculados sobre una entrada candidata, escalando los ataques tipo DLG a redes más profundas.",
zh = "一种针对联邦学习的重构攻击,通过最小化观察到的客户端梯度与对候选输入计算得到的梯度之间的余弦距离,反演出训练输入,从而将 DLG 类攻击扩展到更深的网络。",
term_es = "ataque de inversión de gradientes",
term_zh = "梯度反演攻击",
aliases_es = { "ataque inverting gradients", "ataque de inversión de gradiente" },
aliases_zh = { "梯度反转攻击", "Inverting Gradients 攻击" },
}
data["iou"] = {
short = "Intersection over Union — a similarity measure between two sets, computed as the area of their intersection divided by the area of their union. Standard for evaluating object detection and segmentation overlap.",
article = nil,
aliases = { "IoU", "intersection over union", "Jaccard index", "Jaccard similarity", "Jaccard coefficient" },
es = "Intersection over Union — medida de similitud entre dos conjuntos, calculada como el área de su intersección dividida por el área de su unión. Estándar para evaluar el solapamiento en detección y segmentación de objetos.",
zh = "Intersection over Union(交并比)——两个集合之间的相似度度量,计算为它们交集的面积除以并集的面积。是评估目标检测和分割重叠程度的标准指标。",
term_es = "IoU",
term_zh = "交并比",
aliases_es = { "intersección sobre unión", "índice de Jaccard" },
aliases_zh = { "IoU", "Jaccard 系数", "Jaccard 指数" },
}
data["iou attribution metric"] = {
short = "An evaluation metric for visual attribution methods that computes the intersection over union between a binarized attribution map and a ground-truth region (e.g., bounding box or segmentation mask), measuring spatial agreement.",
article = nil,
aliases = { "IoU attribution metric", "intersection-over-union attribution", "IoU localization metric" },
es = "Métrica de evaluación para métodos de atribución visual que calcula la intersección sobre la unión entre un mapa de atribución binarizado y una región de verdad de referencia (por ejemplo, una caja delimitadora o una máscara de segmentación), midiendo la concordancia espacial.",
zh = "一种用于视觉归因方法的评估指标,计算二值化归因图与真值区域(如边界框或分割掩码)的交并比,以衡量空间上的一致性。",
term_es = "métrica de atribución IoU",
term_zh = "IoU归因指标",
aliases_es = { "métrica IoU de atribución", "intersección sobre la unión para atribución" },
aliases_zh = { "交并比归因指标", "IoU定位指标" },
}
data["iou loss"] = {
short = "Loss based on intersection over union between predicted and ground-truth bounding boxes or masks: 1 − IoU. Used in object detection and segmentation.",
article = nil,
aliases = { "IoU", "intersection over union loss", "IoU-loss" },
es = "Pérdida basada en la intersección sobre unión entre cajas o máscaras predichas y reales: 1 − IoU. Se utiliza en detección de objetos y segmentación.",
zh = "基于预测框/掩码与真实框/掩码之间交并比的损失:1 − IoU。用于目标检测与分割。",
term_es = "pérdida IoU",
term_zh = "IoU 损失",
aliases_es = { "IoU", "intersección sobre unión" },
aliases_zh = { "IoU", "交并比损失" },
}
data["ipo"] = {
short = "A preference fine-tuning method that adds an explicit identity-mapping regularizer to DPO, mitigating the tendency of DPO to overfit to the preference dataset and produce overly deterministic policies.",
article = nil,
aliases = { "IPO", "Identity Preference Optimization", "Identity Preference Optimisation", "Identity-PO" },
es = "Método de ajuste por preferencias que añade un regularizador explícito de identidad a DPO, mitigando la tendencia de DPO a sobreajustarse al conjunto de preferencias y a producir políticas excesivamente deterministas.",
zh = "一种偏好微调方法,在 DPO 上添加显式的恒等映射正则项,缓解 DPO 过拟合偏好数据集并生成过度确定性策略的倾向。",
term_es = "IPO",
term_zh = "IPO",
aliases_es = { "IPO", "optimización de preferencias por identidad" },
aliases_zh = { "IPO", "恒等偏好优化" },
}
data["iq-tree"] = {
short = "A maximum-likelihood phylogenetic inference tool that performs efficient tree search with stochastic optimization and provides ultrafast bootstrap approximation and a wide range of substitution models.",
article = nil,
aliases = { "IQ-TREE", "IQTREE", "iqtree", "IQ-TREE2" },
es = "Herramienta de inferencia filogenética por máxima verosimilitud que realiza búsqueda eficiente de árboles con optimización estocástica y ofrece aproximación de bootstrap ultrarrápida y una amplia gama de modelos de sustitución.",
zh = "一款基于最大似然法的系统发育推断工具,采用随机优化进行高效的树搜索,并提供超快速bootstrap近似和丰富的替代模型选择。",
term_es = "IQ-TREE",
term_zh = "IQ-TREE",
aliases_es = { "IQ-TREE", "IQ-TREE2", "iqtree" },
aliases_zh = { "IQ-TREE", "IQ-TREE2", "iqtree" },
}
data["iqn"] = {
short = "A distributional reinforcement learning algorithm that uses a network to map a sampled quantile fraction τ ∈ [0,1] to the corresponding quantile of the return distribution, enabling implicit modeling of arbitrarily fine-grained distributions.",
article = nil,
aliases = { "IQN", "Implicit Quantile Network", "implicit quantile networks" },
es = "Algoritmo de aprendizaje por refuerzo distribucional que utiliza una red para mapear una fracción cuantílica muestreada τ ∈ [0,1] al cuantil correspondiente de la distribución de retornos, permitiendo modelar implícitamente distribuciones arbitrariamente finas.",
zh = "一种分布式强化学习算法,使用神经网络将采样得到的分位数比例 τ ∈ [0,1] 映射到回报分布的对应分位数,从而隐式建模任意精细的分布。",
term_es = "IQN",
term_zh = "IQN",
aliases_es = { "red de cuantiles implícita" },
aliases_zh = { "隐式分位数网络", "Implicit Quantile Network" },
}
data["isabelle proof assistant"] = {
short = "A generic interactive theorem prover developed at Cambridge and TU Munich whose most-used instantiation, Isabelle/HOL, formalizes higher-order logic and supports automation via Sledgehammer and the Isar structured proof language.",
article = nil,
aliases = { "Isabelle", "Isabelle/HOL", "Isabelle prover" },
es = "Demostrador interactivo de teoremas genérico desarrollado en Cambridge y la TU de Múnich; su instancia más utilizada, Isabelle/HOL, formaliza la lógica de orden superior y proporciona automatización mediante Sledgehammer y el lenguaje de demostración estructurada Isar.",
zh = "由剑桥大学和慕尼黑工业大学开发的通用交互式定理证明器,最常用的实例 Isabelle/HOL 形式化了高阶逻辑,并通过 Sledgehammer 和结构化证明语言 Isar 提供自动化支持。",
term_es = "asistente de demostración Isabelle",
term_zh = "Isabelle 证明助手",
aliases_es = { "Isabelle", "Isabelle/HOL" },
aliases_zh = { "Isabelle", "Isabelle/HOL", "Isabelle 定理证明器" },
}
data["iso ai standards"] = {
short = "International Organization for Standardization documents covering AI systems, including ISO/IEC 42001 (AI management systems) and ISO/IEC 23894 (AI risk management), providing frameworks for governance, quality, and trustworthiness.",
article = nil,
aliases = { "ISO AI standards", "ISO/IEC AI standards", "ISO 42001", "ISO/IEC 42001", "ISO/IEC 23894" },
es = "Documentos de la Organización Internacional de Normalización que cubren los sistemas de IA, como ISO/IEC 42001 (sistemas de gestión de IA) e ISO/IEC 23894 (gestión de riesgos de IA), proporcionando marcos para gobernanza, calidad y confiabilidad.",
zh = "国际标准化组织发布的人工智能系统标准文件,包括 ISO/IEC 42001(AI 管理体系)和 ISO/IEC 23894(AI 风险管理),为治理、质量和可信赖性提供框架。",
term_es = "normas ISO de IA",
term_zh = "ISO 人工智能标准",
aliases_es = { "estándares ISO de IA", "ISO/IEC 42001", "ISO/IEC 23894" },
aliases_zh = { "ISO 人工智能标准", "ISO/IEC 42001", "ISO/IEC 23894" },
}
data["iso-seq"] = {
short = "PacBio's long-read transcriptome sequencing protocol that captures full-length cDNA molecules in single reads, enabling isoform-resolved characterization of alternative splicing, transcription start sites, and poly(A) sites.",
article = nil,
aliases = { "Iso-Seq", "IsoSeq", "PacBio Iso-Seq", "full-length transcript sequencing" },
es = "Protocolo de secuenciación de transcriptoma con lecturas largas de PacBio que captura moléculas de ADNc completas en lecturas únicas, permitiendo caracterizar isoformas, empalme alternativo, sitios de inicio de transcripción y sitios de poli(A).",
zh = "PacBio公司的长读段转录组测序方案,可在单个读段内捕获全长cDNA分子,从而以异构体分辨率刻画可变剪接、转录起始位点和poly(A)位点。",
term_es = "Iso-Seq",
term_zh = "Iso-Seq",
aliases_es = { "Iso-Seq", "IsoSeq", "PacBio Iso-Seq", "secuenciación de transcritos completos" },
aliases_zh = { "Iso-Seq", "IsoSeq", "PacBio Iso-Seq", "全长转录本测序" },
}
data["isobaric labeling"] = {
short = "A mass spectrometry quantification strategy in which peptides from different samples are tagged with chemically identical but isotopically distinct reporter labels (e.g., TMT, iTRAQ), enabling multiplexed relative quantification.",
article = nil,
aliases = { "isobaric labelling", "isobaric tagging", "TMT labeling", "iTRAQ labeling", "isobaric mass tagging" },
es = "Estrategia de cuantificación por espectrometría de masas en la que péptidos de distintas muestras se marcan con etiquetas reporter químicamente idénticas pero isotópicamente distintas (por ejemplo, TMT, iTRAQ), permitiendo cuantificación relativa multiplexada.",
zh = "一种质谱定量策略,将来自不同样本的肽段标记上化学性质相同但同位素组成不同的报告标签(如TMT、iTRAQ),从而实现多路复用的相对定量。",
term_es = "marcaje isobárico",
term_zh = "等压标记",
aliases_es = { "etiquetado isobárico", "marcaje TMT", "marcaje iTRAQ", "marcaje con etiquetas isobáricas" },
aliases_zh = { "等压标签", "等压标记法", "TMT 标记", "iTRAQ 标记" },
}
data["isoform quantification"] = {
short = "Estimation of the relative or absolute expression levels of alternative transcript isoforms of each gene from RNA-seq data, typically using probabilistic models that resolve reads ambiguously mapping to multiple isoforms.",
article = nil,
aliases = { "transcript quantification", "isoform-level quantification", "transcript-level quantification", "isoform abundance estimation" },
es = "Estimación de los niveles de expresión relativos o absolutos de las isoformas alternativas de cada gen a partir de datos RNA-seq, normalmente con modelos probabilísticos que resuelven lecturas que mapean ambiguamente a varias isoformas.",
zh = "从RNA-seq数据中估计每个基因不同可变剪接异构体的相对或绝对表达水平的过程,通常使用概率模型来处理可同时比对到多个异构体的读段。",
term_es = "cuantificación de isoformas",
term_zh = "异构体定量",
aliases_es = { "cuantificación de transcritos", "cuantificación a nivel de isoforma", "estimación de abundancia de isoformas" },
aliases_zh = { "转录本定量", "异构体水平定量", "转录本水平定量", "异构体丰度估计" },
}
data["isomeric smiles"] = {
short = "A SMILES variant that explicitly encodes stereochemistry — tetrahedral chirality with @/@@ and double-bond geometry with / and \\ — and isotopic labels, allowing distinct stereoisomers to be represented unambiguously.",
article = nil,
aliases = { "isomeric SMILES", "stereochemical SMILES" },
es = "Variante de SMILES que codifica explícitamente la estereoquímica — quiralidad tetraédrica con @/@@ y geometría de doble enlace con / y \\ — y etiquetas isotópicas, permitiendo representar de forma inequívoca los distintos estereoisómeros.",
zh = "SMILES 的一种变体,显式编码立体化学(用 @/@@ 表示四面体手性、用 / 和 \\ 表示双键几何)以及同位素标记,使不同立体异构体能够明确区分。",
term_es = "SMILES isomérico",
term_zh = "立体 SMILES",
aliases_es = { "SMILES isomérico", "SMILES estereoquímico" },
aliases_zh = { "异构 SMILES", "立体化学 SMILES", "isomeric SMILES" },
}
data["isotonic regression calibration"] = {
short = "A non-parametric post-hoc calibration that fits a piecewise-constant non-decreasing function from classifier scores to empirical probabilities via isotonic regression. More flexible than Platt scaling but needs more data to avoid overfitting.",
article = nil,
aliases = { "isotonic calibration", "isotonic regression", "monotonic calibration" },
es = "Calibración a posteriori no paramétrica que ajusta, mediante regresión isotónica, una función monótona no decreciente y constante por tramos que mapea las puntuaciones del clasificador a probabilidades empíricas. Es más flexible que el escalado de Platt, pero requiere más datos para no sobreajustar.",
zh = "一种非参数后处理校准方法:通过保序回归拟合一条单调非递减的分段常数函数,将分类器得分映射为经验概率。比 Platt 缩放更灵活,但需要更多数据以避免过拟合。",
term_es = "calibración por regresión isotónica",
term_zh = "保序回归校准",
aliases_es = { "calibración isotónica", "regresión isotónica", "calibración monótona" },
aliases_zh = { "保序回归", "等渗回归校准", "isotonic 校准" },
}
data["ista"] = {
short = "Iterative Shrinkage-Thresholding Algorithm, a proximal gradient method for L1-regularized least-squares problems whose proximal step is the soft-thresholding operator.",
article = nil,
aliases = { "ISTA", "Iterative Shrinkage-Thresholding Algorithm", "iterative shrinkage thresholding algorithm", "iterative soft-thresholding algorithm" },
es = "Algoritmo iterativo de umbral suave (ISTA), un método de gradiente proximal para problemas de mínimos cuadrados con regularización L1 cuyo paso proximal es el operador de umbral suave.",
zh = "迭代软阈值算法(ISTA),一种用于带L1正则化最小二乘问题的近端梯度方法,其近端步即软阈值算子。",
term_es = "ISTA",
term_zh = "ISTA",
aliases_es = { "algoritmo iterativo de umbral suave", "Iterative Shrinkage-Thresholding Algorithm" },
aliases_zh = { "迭代软阈值算法", "Iterative Shrinkage-Thresholding Algorithm" },
}
data["itc loss"] = {
short = "Image-Text Contrastive loss: an InfoNCE-style objective that pulls matching image and text embeddings together while pushing mismatched pairs apart, used in CLIP, ALIGN, ALBEF, BLIP and similar vision-language pretraining.",
article = nil,
aliases = { "ITC", "ITC loss", "image-text contrastive loss", "image-text contrastive", "image-text contrastive learning" },
es = "Pérdida contrastiva imagen-texto (ITC): objetivo de tipo InfoNCE que acerca los embeddings de imagen y texto coincidentes mientras separa los pares no coincidentes; se utiliza en CLIP, ALIGN, ALBEF, BLIP y otros preentrenamientos de visión-lenguaje.",
zh = "图文对比损失(ITC):一种 InfoNCE 形式的目标函数,使匹配的图文嵌入相互靠近,同时拉开不匹配对之间的距离,广泛应用于 CLIP、ALIGN、ALBEF、BLIP 等视觉-语言预训练。",
term_es = "pérdida ITC",
term_zh = "ITC 损失",
aliases_es = { "pérdida contrastiva imagen-texto", "ITC", "image-text contrastive loss" },
aliases_zh = { "图文对比损失", "image-text contrastive 损失", "ITC" },
}
data["iteration"] = {
short = "A single forward and backward pass over one mini-batch followed by an optimizer step; the basic unit of training progress, often counted alongside epochs.",
article = nil,
aliases = { "iter", "iters", "iterations", "training iteration" },
es = "Una sola pasada forward y backward sobre un mini-lote seguida de un paso del optimizador; unidad básica del progreso de entrenamiento, frecuentemente contabilizada junto con las épocas.",
zh = "对一个小批量执行一次前向与反向传播并完成一次优化器更新;训练进度的基本单位,常与 epoch 一起计数。",
term_es = "iteración",
term_zh = "迭代",
aliases_es = { "iter", "iteraciones", "iteración de entrenamiento" },
aliases_zh = { "iteration", "迭代次数", "训练迭代" },
}
data["iterative null-space projection"] = {
short = "A debiasing method that iteratively trains linear classifiers to predict a protected attribute from learned representations and projects the representations onto the null space of those classifiers, removing linear information about the attribute.",
article = nil,
aliases = { "INLP", "iterative nullspace projection", "iterative null space projection" },
es = "Método de eliminación de sesgos que entrena iterativamente clasificadores lineales para predecir un atributo protegido a partir de las representaciones aprendidas y las proyecta sobre el espacio nulo de dichos clasificadores, eliminando la información lineal sobre el atributo.",
zh = "一种去偏方法,通过迭代训练线性分类器从学习到的表示中预测受保护属性,然后将表示投影到这些分类器的零空间,从而消除关于该属性的线性信息。",
term_es = "proyección iterativa al espacio nulo",
term_zh = "迭代零空间投影",
aliases_es = { "INLP" },
aliases_zh = { "INLP" },
}
data["iterative structure refinement"] = {
short = "A protein-structure-prediction strategy in which an initial coarse model is repeatedly fed back through the network — for example AlphaFold's recycling — so each pass exploits the previous prediction to sharpen geometry.",
article = nil,
aliases = { "recycling", "iterative refinement", "structure recycling" },
es = "Estrategia de predicción de estructura proteica en la que un modelo inicial grueso se reintroduce repetidamente en la red — por ejemplo el reciclaje de AlphaFold — de modo que cada pasada aprovecha la predicción previa para afinar la geometría.",
zh = "一种蛋白质结构预测策略,将初始粗略模型反复输入回网络(如 AlphaFold 的循环机制),使每次传递利用前一次的预测来细化几何结构。",
term_es = "refinamiento estructural iterativo",
term_zh = "迭代结构精修",
aliases_es = { "reciclaje", "refinamiento iterativo" },
aliases_zh = { "循环优化", "迭代式结构细化", "recycling" },
}
data["itm loss"] = {
short = "Image-Text Matching loss: a binary classification objective that predicts whether a given image and text describe the same content, typically combined with hard-negative mining and used in ALBEF, BLIP, and VLMo to refine cross-modal alignment.",
article = nil,
aliases = { "ITM", "ITM loss", "image-text matching loss", "image-text matching" },
es = "Pérdida de emparejamiento imagen-texto (ITM): objetivo de clasificación binaria que predice si una imagen y un texto dados describen el mismo contenido, comúnmente combinado con minería de negativos difíciles y utilizado en ALBEF, BLIP y VLMo para refinar la alineación cruzada entre modalidades.",
zh = "图文匹配损失(ITM):一种二分类目标,用于判断给定图像与文本是否描述相同内容,通常结合难负样本挖掘,用于 ALBEF、BLIP、VLMo 等模型以加强跨模态对齐。",
term_es = "pérdida ITM",
term_zh = "ITM 损失",
aliases_es = { "pérdida de emparejamiento imagen-texto", "ITM", "image-text matching loss" },
aliases_zh = { "图文匹配损失", "image-text matching 损失", "ITM" },
}
data["itn"] = {
short = "Inverse text normalization: the ASR post-processing step that converts spoken-form transcripts (e.g., \"three dollars\") into written form (e.g., \"$3\").",
article = nil,
aliases = { "ITN", "inverse text normalization", "inverse-text normalization", "text de-normalization" },
es = "Normalización inversa de texto: paso de posprocesamiento en ASR que convierte transcripciones en forma hablada (por ejemplo, «tres dólares») a forma escrita (por ejemplo, «3 $»).",
zh = "逆文本归一化:ASR 的后处理步骤,将口语形式的转录文本(如 '三美元')转换为书面形式(如 '$3')。",
term_es = "ITN",
term_zh = "ITN",
aliases_es = { "normalización inversa de texto", "des-normalización de texto" },
aliases_zh = { "逆文本归一化", "反向文本归一化", "文本反规范化" },
}
data["iv estimator"] = {
short = "Estimator that uses one or more instrumental variables to identify a causal effect under endogeneity, with two-stage least squares and the Wald estimator as standard implementations.",
article = nil,
aliases = { "IV estimator", "instrumental variable estimator", "2SLS estimator", "two-stage least squares estimator", "Wald estimator" },
es = "Estimador que utiliza una o varias variables instrumentales para identificar un efecto causal en presencia de endogeneidad; las implementaciones estándar son los mínimos cuadrados en dos etapas y el estimador de Wald.",
zh = "在存在内生性时使用一个或多个工具变量识别因果效应的估计量,常见实现包括两阶段最小二乘法和 Wald 估计量。",
term_es = "estimador de variable instrumental",
term_zh = "工具变量估计量",
aliases_es = { "estimador IV", "estimador 2SLS", "estimador de Wald" },
aliases_zh = { "IV 估计量", "两阶段最小二乘估计量", "Wald 估计量" },
}
data["iv strength"] = {
short = "Strength of an instrumental variable's effect on the endogenous regressor, commonly measured by the first-stage F-statistic; weak instruments produce biased and imprecise IV estimates.",
article = nil,
aliases = { "instrument strength", "IV strength", "first-stage strength", "weak instrument", "strong instrument" },
es = "Fuerza con que una variable instrumental afecta al regresor endógeno, medida habitualmente por el estadístico F de la primera etapa; los instrumentos débiles producen estimaciones IV sesgadas e imprecisas.",
zh = "工具变量对内生回归变量的影响强度,通常以第一阶段的 F 统计量来衡量;弱工具变量会导致 IV 估计有偏且不精确。",
term_es = "fuerza del instrumento",
term_zh = "工具变量强度",
aliases_es = { "fuerza instrumental", "instrumento débil", "instrumento fuerte" },
aliases_zh = { "工具强度", "弱工具变量", "强工具变量" },
}
data["ivf index"] = {
short = "An approximate nearest neighbor index that partitions the vector space into Voronoi cells with a coarse quantizer and searches only the cells closest to the query, often combined with product quantization for compression.",
article = nil,
aliases = { "IVF", "IVF Index", "Inverted File Index", "inverted file index", "IVFADC", "IVF-PQ", "IVFPQ" },
es = "Índice de vecinos más cercanos aproximados que particiona el espacio vectorial en celdas de Voronoi mediante un cuantizador grueso y busca solo en las celdas más cercanas a la consulta, a menudo combinado con cuantización por productos para comprimir.",
zh = "一种近似最近邻索引,使用粗量化器将向量空间划分为 Voronoi 单元,仅在距查询最近的少数单元中搜索,常与乘积量化结合以实现压缩。",
term_es = "índice IVF",
term_zh = "IVF 索引",
aliases_es = { "IVF", "índice de archivo invertido", "IVF-PQ", "IVFPQ" },
aliases_zh = { "IVF", "倒排文件索引", "IVF-PQ", "IVFPQ" },
}
data["iwae bound"] = {
short = "The K-sample importance-weighted lower bound on the log marginal likelihood used to train Importance Weighted Autoencoders; it is monotonically tighter than the ELBO as K increases and recovers the ELBO at K=1.",
article = nil,
aliases = { "IWAE bound", "importance-weighted bound", "IW-ELBO", "importance weighted ELBO" },
es = "Cota inferior basada en K muestras ponderadas por importancia sobre el log de la verosimilitud marginal, usada para entrenar Importance Weighted Autoencoders; se ajusta monótonamente al aumentar K y recupera el ELBO cuando K=1.",
zh = "训练 IWAE 时使用的、对边缘对数似然的 K 样本重要性加权下界:K 越大界越紧,K=1 时退化为 ELBO。",
term_es = "cota IWAE",
term_zh = "IWAE 下界",
aliases_es = { "cota ponderada por importancia", "ELBO ponderado por importancia" },
aliases_zh = { "IWAE 界", "重要性加权 ELBO", "IW-ELBO" },
}
data["jaccard error rate"] = {
short = "A speaker diarization metric introduced in the DIHARD challenge that averages per-speaker Jaccard distances between reference and hypothesis segments, weighting all speakers equally regardless of duration.",
article = nil,
aliases = { "JER", "Jaccard Error Rate" },
es = "Métrica de diarización de hablantes introducida en el reto DIHARD que promedia las distancias de Jaccard por hablante entre los segmentos de referencia y de hipótesis, ponderando a todos los hablantes por igual independientemente de su duración.",
zh = "DIHARD 挑战赛引入的说话人分离度量指标,对参考与假设片段之间的每位说话人 Jaccard 距离取平均,对所有说话人按等权重计算,不考虑时长。",
term_es = "tasa de error de Jaccard",
term_zh = "Jaccard 错误率",
aliases_es = { "JER" },
aliases_zh = { "JER", "Jaccard 误差率" },
}
data["jaccard loss"] = {
short = "Segmentation loss equal to one minus the Jaccard index (intersection over union) between predicted and ground-truth masks. Equivalent to IoU loss.",
article = nil,
aliases = { "Jaccard", "Jaccard index loss" },
es = "Pérdida de segmentación igual a uno menos el índice de Jaccard (intersección sobre unión) entre la máscara predicha y la real. Equivale a la pérdida IoU.",
zh = "等于 1 减去预测掩码与真实掩码之间 Jaccard 指数(交并比)的分割损失。等价于 IoU 损失。",
term_es = "pérdida de Jaccard",
term_zh = "Jaccard 损失",
aliases_es = { "Jaccard", "índice de Jaccard" },
aliases_zh = { "Jaccard", "杰卡德损失" },
}
data["jackhmmer"] = {
short = "Iterative homology search tool from the HMMER package that builds a profile hidden Markov model from initial hits to a query and uses it to search for more distant homologs in subsequent rounds.",
article = nil,
aliases = { "JackHMMER", "jackHMMER", "iterative HMMER" },
es = "Herramienta de búsqueda iterativa de homología del paquete HMMER que construye un modelo oculto de Markov de perfil a partir de los aciertos iniciales y lo utiliza para buscar homólogos más distantes en rondas sucesivas.",
zh = "HMMER 软件包中的迭代同源搜索工具,从查询的初始命中构建概况隐马尔可夫模型,并在后续轮次中用其搜索更远缘的同源序列。",
term_es = "jackhmmer",
term_zh = "jackhmmer",
aliases_es = { "jackHMMER", "HMMER iterativo" },
aliases_zh = { "jackHMMER", "迭代 HMMER" },
}
data["jackknife+"] = {
short = "A distribution-free predictive inference procedure that builds prediction intervals from leave-one-out residuals while accounting for the variability of the leave-one-out predictors, with finite-sample coverage guarantees.",
article = nil,
aliases = { "jackknife plus", "jackknife-plus", "jackknife+ prediction intervals" },
es = "Procedimiento de inferencia predictiva sin supuestos distribucionales que construye intervalos de predicción a partir de residuos leave-one-out, teniendo en cuenta la variabilidad de los predictores leave-one-out y con garantías de cobertura en muestra finita.",
zh = "一种无分布预测推断方法:基于留一法残差构造预测区间,并考虑留一预测器自身的变异性,具有有限样本覆盖率保证。",
term_es = "jackknife+",
term_zh = "jackknife+",
aliases_es = { "jackknife plus", "intervalos jackknife+" },
aliases_zh = { "jackknife plus", "jackknife+ 预测区间" },
}
data["jacobian saliency"] = {
short = "A family of attribution methods that derive saliency maps from rows or norms of the input-output Jacobian matrix, generalizing single-output gradient saliency to multi-output models.",
article = nil,
aliases = { "Jacobian saliency", "Jacobian-based saliency", "Jacobian saliency map" },
es = "Familia de métodos de atribución que derivan mapas de saliencia a partir de filas o normas de la matriz Jacobiana entrada-salida, generalizando la saliencia por gradiente de una sola salida a modelos multi-salida.",
zh = "一类归因方法,依据输入-输出雅可比矩阵的行或范数得到显著图,将基于单一输出梯度的显著性方法推广到多输出模型。",
term_es = "saliencia de Jacobiano",
term_zh = "雅可比显著性",
aliases_es = { "saliencia jacobiana", "saliencia basada en el Jacobiano" },
aliases_zh = { "雅可比显著图", "基于雅可比的显著性" },
}
data["jacov"] = {
short = "A zero-cost neural architecture search proxy that scores candidate networks by computing the covariance of per-input Jacobians of network outputs over a mini-batch, with low covariance correlating with good final accuracy.",
article = nil,
aliases = { "JacoV", "Jacobian covariance", "jacobian covariance score", "jacov score" },
es = "Proxy zero-cost para búsqueda de arquitecturas neuronales que puntúa redes candidatas calculando la covarianza de los jacobianos por entrada de las salidas de la red sobre un minibatch; una covarianza baja se correlaciona con buena precisión final.",
zh = "一种零成本神经架构搜索代理指标,通过在小批量上计算网络输出对每个输入的雅可比矩阵之间的协方差来评分候选网络,协方差越小通常对应越高的最终精度。",
term_es = "JacoV",
term_zh = "JacoV",
aliases_es = { "covarianza de Jacobianos", "puntuación JacoV" },
aliases_zh = { "雅可比协方差", "Jacobian协方差", "JacoV评分" },
}
data["jailbreak"] = {
short = "An adversarial prompt or interaction strategy that bypasses a language model's safety training and policy guardrails, causing it to produce content the developers intended it to refuse.",
article = nil,
aliases = { "jailbreaking", "LLM jailbreak", "model jailbreak", "Jailbreak", "jail-break" },
es = "Prompt adversario o estrategia de interacción que elude el entrenamiento de seguridad y las restricciones de política de un modelo de lenguaje, haciendo que produzca contenido que sus desarrolladores pretendían rechazar.",
zh = "通过对抗性提示或交互策略绕过语言模型的安全训练与策略护栏,使其生成开发者本意拒绝输出的内容。",
term_es = "jailbreak",
term_zh = "越狱",
aliases_es = { "jailbreaking", "evasión de restricciones", "evasión de seguridad" },
aliases_zh = { "jailbreak", "越狱攻击", "模型越狱" },
}
data["jamba"] = {
short = "A hybrid Mamba-Transformer language model from AI21 Labs that interleaves state-space layers with attention and mixture-of-experts blocks, enabling 256K-token contexts with high inference throughput.",
article = nil,
aliases = { "Jamba", "Jamba 1.5", "AI21 Jamba" },
es = "Modelo de lenguaje híbrido Mamba-Transformer de AI21 Labs que intercala capas de espacio de estados con bloques de atención y de mezcla de expertos, permitiendo contextos de 256K tokens con alto rendimiento de inferencia.",
zh = "AI21 Labs 推出的 Mamba-Transformer 混合语言模型,将状态空间层与注意力层及专家混合模块交错堆叠,支持 256K 词元的上下文并具备较高的推理吞吐。",
term_es = "Jamba",
term_zh = "Jamba",
aliases_es = { "Jamba 1.5", "AI21 Jamba" },
aliases_zh = { "Jamba 1.5", "AI21 Jamba" },
}
data["janus"] = {
short = "DeepSeek's family of unified multimodal models (Janus, Janus-Pro, JanusFlow) that decouple visual encoding into separate pathways for understanding and generation while sharing a single transformer backbone, enabling both image-to-text comprehension and text-to-image synthesis.",
article = nil,
aliases = { "Janus", "DeepSeek Janus", "Janus-Pro", "JanusFlow" },
es = "Familia de modelos multimodales unificados de DeepSeek (Janus, Janus-Pro, JanusFlow) que separa la codificación visual en rutas distintas para comprensión y generación pero comparte un mismo transformer, permitiendo tanto la comprensión imagen-a-texto como la síntesis texto-a-imagen.",
zh = "DeepSeek 推出的统一多模态模型系列(Janus、Janus-Pro、JanusFlow),将视觉编码解耦为理解与生成两条独立通路,但共享同一 Transformer 主干,从而同时支持图生文理解与文生图合成。",
term_es = "Janus",
term_zh = "Janus",
aliases_es = { "DeepSeek Janus", "Janus-Pro", "JanusFlow" },
aliases_zh = { "DeepSeek Janus", "Janus-Pro", "JanusFlow" },
}
data["janus mllm"] = {
short = "A unified multimodal large language model from DeepSeek that decouples visual encoding for understanding and generation into separate pathways while sharing a single Transformer backbone.",
article = nil,
aliases = { "Janus", "DeepSeek Janus", "Janus-Pro", "Janus MLLM" },
es = "Modelo multimodal grande unificado de DeepSeek que desacopla la codificación visual para comprensión y generación en rutas separadas, compartiendo un único backbone Transformer.",
zh = "DeepSeek 推出的统一多模态大模型,将视觉理解与生成的编码路径解耦为独立分支,同时共享同一 Transformer 主干。",
term_es = "Janus",
term_zh = "Janus",
aliases_es = { "DeepSeek Janus", "Janus-Pro" },
aliases_zh = { "DeepSeek Janus", "Janus-Pro" },
}
data["jaspar database"] = {
short = "Open-access curated collection of non-redundant transcription factor binding profiles, stored primarily as position frequency matrices and used to scan genomes for putative regulatory sites.",
article = nil,
aliases = { "JASPAR", "JASPAR database", "JASPAR motif database" },
es = "Colección abierta y curada de perfiles no redundantes de unión de factores de transcripción, almacenados principalmente como matrices de frecuencia de posiciones y utilizados para detectar sitios reguladores putativos en genomas.",
zh = "开放获取的转录因子结合谱精选数据库,主要以位置频率矩阵形式存储,用于在基因组中扫描潜在的调控位点。",
term_es = "base de datos JASPAR",
term_zh = "JASPAR 数据库",
aliases_es = { "JASPAR", "base de datos de motivos JASPAR" },
aliases_zh = { "JASPAR", "JASPAR 转录因子数据库" },
}
data["jasper"] = {
short = "An end-to-end deep convolutional neural acoustic model for automatic speech recognition introduced by NVIDIA, using stacked 1D convolution blocks with residual connections and trained with the CTC loss.",
article = nil,
aliases = { "Jasper", "Jasper ASR", "Jasper acoustic model" },
es = "Modelo acústico convolucional profundo de extremo a extremo para reconocimiento automático del habla, introducido por NVIDIA, que apila bloques de convolución 1D con conexiones residuales y se entrena con la pérdida CTC.",
zh = "由 NVIDIA 提出的端到端深度卷积语音识别声学模型,由带残差连接的一维卷积模块堆叠而成,使用 CTC 损失进行训练。",
term_es = "Jasper",
term_zh = "Jasper",
aliases_es = { "modelo Jasper", "Jasper ASR" },
aliases_zh = { "Jasper 模型", "Jasper 声学模型" },
}
data["jax pjit"] = {
short = "A JAX transformation (pjit, now subsumed by jit with sharding) that compiles a function for execution across multiple devices using the SPMD partitioner and explicit input/output sharding annotations.",
article = nil,
aliases = { "pjit", "jax.experimental.pjit", "pjit transformation" },
es = "Transformación de JAX (pjit, ahora absorbida por jit con sharding) que compila una función para su ejecución en múltiples dispositivos usando el particionador SPMD y anotaciones explícitas de sharding de entrada y salida.",
zh = "JAX 的一种变换(pjit,现已并入带分片的 jit),通过 SPMD 分区器和显式的输入/输出分片注解,将函数编译为可在多设备上执行的程序。",
term_es = "JAX pjit",
term_zh = "JAX pjit",
aliases_es = { "pjit", "transformación pjit" },
aliases_zh = { "pjit", "jax.experimental.pjit" },
}
data["jax pmap"] = {
short = "A JAX transformation (pmap) that compiles a function for single-program multiple-data execution, replicating it across devices and supporting collective operations such as psum for synchronous data-parallel training.",
article = nil,
aliases = { "pmap", "jax.pmap", "pmap transformation" },
es = "Transformación de JAX (pmap) que compila una función para ejecución de tipo SPMD, replicándola en los dispositivos y admitiendo operaciones colectivas como psum para entrenamiento paralelo de datos síncrono.",
zh = "JAX 的一种变换(pmap),将函数编译为单程序多数据(SPMD)执行,在多个设备上复制并支持如 psum 等集合通信操作,用于同步的数据并行训练。",
term_es = "JAX pmap",
term_zh = "JAX pmap",
aliases_es = { "pmap", "transformación pmap" },
aliases_zh = { "pmap", "jax.pmap" },
}
data["jensen inequality"] = {
short = "A foundational inequality stating that for any convex function f and random variable X, f(E[X]) ≤ E[f(X)], with the inequality reversed for concave functions; underlies the evidence lower bound and many information-theoretic results.",
article = nil,
aliases = { "Jensen's inequality", "Jensen inequality", "Jensen's convexity inequality" },
es = "Desigualdad fundamental que establece que para cualquier función convexa f y variable aleatoria X, f(E[X]) ≤ E[f(X)], con la desigualdad invertida para funciones cóncavas; sustenta el ELBO y muchos resultados de teoría de la información.",
zh = "一条基础不等式:对任意凸函数 f 和随机变量 X,有 f(E[X]) ≤ E[f(X)],对凹函数则不等号反向;它是 ELBO 及众多信息论结果的基础。",
term_es = "desigualdad de Jensen",
term_zh = "Jensen 不等式",
aliases_es = { "desigualdad Jensen" },
aliases_zh = { "詹森不等式", "Jensen 不等式" },
}
data["jensen-shannon disagreement"] = {
short = "An ensemble disagreement score equal to the Jensen-Shannon divergence among member predictive distributions; quantifies epistemic uncertainty by measuring how much ensemble members disagree.",
article = nil,
aliases = { "JS disagreement", "Jensen-Shannon divergence disagreement", "JSD disagreement" },
es = "Puntuación de desacuerdo entre miembros de un ensemble igual a la divergencia de Jensen-Shannon entre sus distribuciones predictivas; cuantifica la incertidumbre epistémica midiendo cuánto difieren los miembros.",
zh = "集成成员预测分布之间的 Jensen-Shannon 散度,用于度量集成内部分歧的程度,进而量化认知不确定性。",
term_es = "desacuerdo de Jensen-Shannon",
term_zh = "Jensen-Shannon 分歧",
aliases_es = { "desacuerdo JS", "divergencia JS de desacuerdo" },
aliases_zh = { "JS 分歧", "JSD 分歧", "JS 散度分歧" },
}
data["jensen-shannon divergence"] = {
short = "A symmetric, bounded smoothing of the KL divergence defined as JS(p,q) = ½ KL(p‖m) + ½ KL(q‖m) with m = (p+q)/2. Its square root is a true metric on probability distributions.",
article = nil,
aliases = { "JS divergence", "Jensen-Shannon divergence", "Jensen–Shannon divergence", "JSD" },
es = "Suavizado simétrico y acotado de la divergencia KL definido como JS(p,q) = ½ KL(p‖m) + ½ KL(q‖m) con m = (p+q)/2. Su raíz cuadrada es una métrica verdadera sobre distribuciones de probabilidad.",
zh = "对 KL 散度的对称且有界的平滑形式,定义为 JS(p,q) = ½ KL(p‖m) + ½ KL(q‖m),其中 m = (p+q)/2。其平方根是概率分布上的真度量。",
term_es = "divergencia de Jensen-Shannon",
term_zh = "Jensen-Shannon 散度",
aliases_es = { "divergencia JS", "JSD" },
aliases_zh = { "JS 散度", "JSD" },
}
data["jina embeddings v3"] = {
short = "A multilingual text embedding model from Jina AI based on a 570M-parameter XLM-RoBERTa backbone with task-specific LoRA adapters, supporting 8K-token inputs and Matryoshka representation learning.",
article = nil,
aliases = { "Jina Embeddings v3", "jina-embeddings-v3", "Jina v3 embeddings" },
es = "Modelo multilingüe de embeddings de texto de Jina AI basado en un backbone XLM-RoBERTa de 570M parámetros con adaptadores LoRA específicos por tarea, que admite entradas de 8K tokens y aprendizaje de representaciones Matryoshka.",
zh = "Jina AI 推出的多语言文本嵌入模型,基于 5.7 亿参数的 XLM-RoBERTa 主干,配以面向任务的 LoRA 适配器,支持 8K 词元输入并采用 Matryoshka 表示学习。",
term_es = "Jina Embeddings v3",
term_zh = "Jina Embeddings v3",
aliases_es = { "jina-embeddings-v3" },
aliases_zh = { "jina-embeddings-v3", "Jina v3 嵌入" },
}
data["jitter term"] = {
short = "A small positive constant added to the diagonal of a Gaussian process kernel matrix to ensure numerical stability of Cholesky factorization and avoid singular covariance matrices.",
article = nil,
aliases = { "jitter", "diagonal jitter", "nugget term" },
es = "Pequeña constante positiva añadida a la diagonal de la matriz kernel de un proceso gaussiano para asegurar la estabilidad numérica de la factorización de Cholesky y evitar matrices de covarianza singulares.",
zh = "为保证 Cholesky 分解的数值稳定性、避免协方差矩阵奇异,对高斯过程核矩阵对角线加上的一个小正常数。",
term_es = "término de jitter",
term_zh = "抖动项",
aliases_es = { "jitter", "término nugget", "nugget" },
aliases_zh = { "jitter", "对角抖动", "nugget 项" },
}
data["joint ctc-attention"] = {
short = "A hybrid sequence-to-sequence ASR architecture that trains a shared encoder with both a connectionist temporal classification (CTC) head and an attention-based decoder, combining their scores during decoding to leverage CTC's monotonic alignment and attention's flexibility.",
article = nil,
aliases = { "joint CTC-attention", "hybrid CTC/attention", "CTC/attention", "joint CTC/attention", "hybrid CTC-attention ASR" },
es = "Arquitectura híbrida de ASR secuencia a secuencia que entrena un codificador compartido con una cabeza de clasificación temporal conexionista (CTC) y un decodificador basado en atención, combinando sus puntuaciones durante la decodificación para aprovechar la alineación monotónica de CTC y la flexibilidad de la atención.",
zh = "一种混合序列到序列语音识别架构,共享编码器同时连接 CTC 头和基于注意力的解码器,在解码时将两者的得分相结合,以利用 CTC 的单调对齐和注意力机制的灵活性。",
term_es = "CTC-atención conjunto",
term_zh = "联合 CTC-注意力",
aliases_es = { "CTC/atención híbrido", "modelo híbrido CTC-atención" },
aliases_zh = { "混合 CTC/注意力", "CTC-Attention 联合模型" },
}
data["joint embedding multimodal"] = {
short = "Multimodal modeling paradigm in which inputs from different modalities are mapped into a single shared vector space so that semantically related items lie close together regardless of modality, enabling cross-modal retrieval and zero-shot transfer.",
article = nil,
aliases = { "joint embedding multimodal model", "joint embedding multimodal architecture", "multimodal joint embedding", "shared multimodal embedding" },
es = "Paradigma de modelado multimodal en el que las entradas de distintas modalidades se proyectan a un mismo espacio vectorial compartido, de modo que los elementos semánticamente relacionados quedan cercanos sin importar su modalidad, lo que permite recuperación cruzada y transferencia zero-shot.",
zh = "一种多模态建模范式:将来自不同模态的输入映射到同一个共享向量空间,使语义相关的项目无论来自哪种模态都彼此接近,从而支持跨模态检索与零样本迁移。",
term_es = "embedding conjunto multimodal",
term_zh = "多模态联合嵌入",
aliases_es = { "modelo de embedding conjunto multimodal", "embedding multimodal compartido", "joint embedding multimodal" },
aliases_zh = { "多模态共享嵌入", "联合多模态嵌入", "joint embedding multimodal" },
}
data["joint entropy"] = {
short = "The Shannon entropy of a joint distribution over two or more random variables: H(X,Y) = −Σ p(x,y) log p(x,y). It measures the total uncertainty of the joint outcome.",
article = nil,
aliases = { "H(X,Y)", "joint Shannon entropy" },
es = "La entropía de Shannon de una distribución conjunta sobre dos o más variables aleatorias: H(X,Y) = −Σ p(x,y) log p(x,y). Mide la incertidumbre total del resultado conjunto.",
zh = "两个或多个随机变量联合分布的香农熵:H(X,Y) = −Σ p(x,y) log p(x,y),度量联合结果的总不确定性。",
term_es = "entropía conjunta",
term_zh = "联合熵",
aliases_es = { "entropía conjunta de Shannon" },
aliases_zh = { "联合熵 H(X,Y)" },
}
data["joint factor analysis"] = {
short = "A speaker recognition modeling technique that decomposes a speaker- and channel-dependent supervector of GMM means into separate low-dimensional speaker and channel subspaces, isolating speaker variability from session and channel effects.",
article = nil,
aliases = { "JFA", "joint factor analysis (JFA)" },
es = "Técnica de modelado para reconocimiento de locutor que descompone el supervector de medias GMM dependiente del locutor y del canal en subespacios separados de baja dimensión para locutor y canal, aislando la variabilidad del locutor de los efectos de sesión y canal.",
zh = "一种说话人识别建模技术,将依赖说话人和信道的 GMM 均值超向量分解为独立的低维说话人子空间和信道子空间,从而将说话人差异与会话和信道影响分离。",
term_es = "análisis factorial conjunto",
term_zh = "联合因子分析",
aliases_es = { "JFA" },
aliases_zh = { "JFA" },
}
data["joint training"] = {
short = "Training scheme in which multiple components — such as a supernet and its sub-networks, or architecture parameters and weights as in DARTS — are optimized simultaneously in a single objective rather than sequentially.",
article = nil,
aliases = { "joint optimization", "joint architecture-weight training", "simultaneous training" },
es = "Esquema de entrenamiento en el que varios componentes —por ejemplo una supernet y sus subredes, o los parámetros de arquitectura y los pesos como en DARTS— se optimizan simultáneamente en un único objetivo en lugar de hacerlo de forma secuencial.",
zh = "一种训练方案,将多个组件——例如超网络和其子网络,或如 DARTS 中的架构参数与权重——在同一目标下同时优化,而非分阶段顺序训练。",
term_es = "entrenamiento conjunto",
term_zh = "联合训练",
aliases_es = { "optimización conjunta", "entrenamiento simultáneo" },
aliases_zh = { "联合优化", "同步训练", "联合架构-权重训练" },
}
data["joint visual-textual embedding"] = {
short = "A shared vector space in which images and text are projected so that an image and its caption land near each other; the canonical example is CLIP, where contrastive training aligns visual and textual encoders into one geometry usable for retrieval and zero-shot classification.",
article = nil,
aliases = { "visual-textual joint embedding", "vision-language joint embedding", "image-text joint embedding", "shared image-text embedding" },
es = "Espacio vectorial compartido en el que se proyectan imágenes y texto de manera que una imagen y su descripción queden cercanas; el ejemplo canónico es CLIP, donde el entrenamiento contrastivo alinea los codificadores visual y textual en una misma geometría utilizable para recuperación y clasificación zero-shot.",
zh = "将图像与文本投影到同一向量空间,使图像与其描述彼此接近;典型代表是 CLIP,通过对比学习将视觉与文本编码器对齐到统一几何空间,可用于检索和零样本分类。",
term_es = "embedding conjunto visual-textual",
term_zh = "视觉-文本联合嵌入",
aliases_es = { "embedding conjunto imagen-texto", "embedding compartido visión-lenguaje", "joint visual-textual embedding" },
aliases_zh = { "图文联合嵌入", "共享视觉-文本嵌入", "vision-language 联合嵌入" },
}
data["json mode"] = {
short = "An LLM API setting that forces the model's output to be a syntactically valid JSON document, typically by constraining decoding so only tokens consistent with JSON grammar are sampled.",
article = nil,
aliases = { "JSON mode", "JSON Mode", "json output mode", "json-mode", "JSON output", "strict JSON mode" },
es = "Modo de las APIs de LLM que obliga a que la salida del modelo sea un documento JSON sintácticamente válido, generalmente restringiendo el decodificado para muestrear solo tokens compatibles con la gramática JSON.",
zh = "LLM API 的一种设置,强制模型输出语法合法的 JSON 文档,通常通过约束解码,仅采样符合 JSON 语法的 token 来实现。",
term_es = "modo JSON",
term_zh = "JSON 模式",
aliases_es = { "JSON mode", "json mode", "modo JSON estricto", "salida JSON" },
aliases_zh = { "JSON mode", "json mode", "严格 JSON 模式", "JSON 输出模式" },
}
data["jukebox"] = {
short = "A generative model from OpenAI that produces raw-audio music with singing in a variety of genres and styles, using a multi-scale VQ-VAE to compress audio and autoregressive transformers conditioned on artist, genre, and lyrics.",
article = nil,
aliases = { "Jukebox", "OpenAI Jukebox" },
es = "Modelo generativo de OpenAI que produce música en audio crudo con canto en diversos géneros y estilos, mediante un VQ-VAE multiescala para comprimir audio y transformers autoregresivos condicionados por artista, género y letra.",
zh = "OpenAI 提出的生成模型,可生成包含歌声、涵盖多种流派和风格的原始音频音乐;它使用多尺度 VQ-VAE 压缩音频,并通过以艺术家、流派和歌词为条件的自回归 Transformer 进行建模。",
term_es = "Jukebox",
term_zh = "Jukebox",
aliases_es = { "Jukebox de OpenAI" },
aliases_zh = { "OpenAI Jukebox" },
}
data["jukemir"] = {
short = "A benchmark suite that evaluates representations from OpenAI's Jukebox model on a battery of music information retrieval tasks such as genre classification, key detection, and emotion recognition.",
article = nil,
aliases = { "JukeMIR", "Jukemir benchmark", "Jukebox MIR benchmark" },
es = "Conjunto de benchmarks que evalúa las representaciones del modelo Jukebox de OpenAI en una batería de tareas de recuperación de información musical, como clasificación de género, detección de tonalidad y reconocimiento de emociones.",
zh = "一套基准测试,用于在流派分类、调性检测和情感识别等音乐信息检索任务上评估 OpenAI Jukebox 模型所学到的表征。",
term_es = "Jukemir",
term_zh = "Jukemir",
aliases_es = { "benchmark Jukemir" },
aliases_zh = { "Jukemir 基准", "Jukebox MIR 基准" },
}
data["jump-cellpainting"] = {
short = "Public consortium-generated Cell Painting image dataset profiling on the order of one hundred thousand chemical and genetic perturbations across human cell lines, intended for morphological profiling and drug discovery.",
article = nil,
aliases = { "JUMP-CP", "JUMP Cell Painting", "JUMP-Cell Painting", "JUMP Cell Painting Consortium dataset" },
es = "Conjunto de datos público de imágenes Cell Painting generado por un consorcio, que perfila del orden de cien mil perturbaciones químicas y genéticas en líneas celulares humanas, destinado al perfilado morfológico y al descubrimiento de fármacos.",
zh = "由联盟产生的公开 Cell Painting 图像数据集,涵盖约十万种化学与遗传扰动在人类细胞系上的影响,用于形态学谱分析与药物发现。",
term_es = "JUMP-Cell Painting",
term_zh = "JUMP-Cell Painting",
aliases_es = { "JUMP-CP", "conjunto de datos JUMP Cell Painting" },
aliases_zh = { "JUMP-CP", "JUMP 细胞绘画数据集" },
}
data["junction tree vae"] = {
short = "A molecular variational autoencoder (Jin et al., 2018) that decomposes a molecule into a junction tree of chemical substructures and decodes in two stages — first the tree, then the per-node molecular graph — to guarantee chemical validity.",
article = nil,
aliases = { "JT-VAE", "JTVAE", "junction tree variational autoencoder", "Junction Tree VAE" },
es = "Autocodificador variacional molecular (Jin et al., 2018) que descompone una molécula en un árbol de unión de subestructuras químicas y decodifica en dos etapas — primero el árbol, después el grafo molecular por nodo — para garantizar la validez química.",
zh = "一种分子变分自编码器(Jin 等,2018),将分子分解为化学子结构的连接树,并分两阶段解码 —— 先解码树,再解码每个节点的分子图 —— 以保证化学有效性。",
term_es = "Junction Tree VAE",
term_zh = "Junction Tree VAE",
aliases_es = { "JT-VAE", "autocodificador variacional de árbol de unión" },
aliases_zh = { "JT-VAE", "连接树变分自编码器" },
}
data["just-identified iv"] = {
short = "Instrumental-variable model in which the number of instruments equals the number of endogenous regressors, leaving zero degrees of freedom for over-identification tests.",
article = nil,
aliases = { "just-identified IV", "exactly identified IV", "just-identified instrumental variable model" },
es = "Modelo de variables instrumentales en el que el número de instrumentos es igual al número de regresores endógenos, sin grados de libertad para pruebas de sobreidentificación.",
zh = "工具变量模型中工具数量恰好等于内生回归变量数量的情形,此时没有用于过度识别检验的自由度。",
term_es = "VI exactamente identificado",
term_zh = "恰好识别的工具变量模型",
aliases_es = { "modelo IV exactamente identificado", "modelo justo identificado" },
aliases_zh = { "刚好识别 IV", "恰好识别 IV" },
}
data["justifiable variable"] = {
short = "In fairness analysis, an input feature whose use in a decision rule is normatively defended on legal, professional, or business-necessity grounds, even when its inclusion produces disparities across protected groups.",
article = nil,
aliases = { "justifiable feature", "justifiable attribute", "business-necessity variable" },
es = "En el análisis de equidad, una característica de entrada cuyo uso en una regla de decisión se justifica por motivos legales, profesionales o de necesidad empresarial, incluso cuando su inclusión produce disparidades entre grupos protegidos.",
zh = "在公平性分析中,指基于法律、职业或业务必要性等规范理由,在决策规则中使用其合理性可被辩护的输入特征,即使其使用会在受保护群体之间造成差异。",
term_es = "variable justificable",
term_zh = "可辩护变量",
aliases_es = { "atributo justificable", "característica justificable" },
aliases_zh = { "可辩护特征", "可辩护属性" },
}
data["k-fac"] = {
short = "A scalable approximation to natural gradient descent that factors the Fisher information matrix as a Kronecker product of smaller per-layer matrices, enabling efficient curvature-based updates in deep networks.",
article = nil,
aliases = { "K-FAC", "KFAC", "Kronecker-Factored Approximate Curvature", "Kronecker factored approximate curvature" },
es = "Aproximación escalable al descenso por gradiente natural que factoriza la matriz de información de Fisher como un producto de Kronecker de matrices más pequeñas por capa, permitiendo actualizaciones eficientes basadas en curvatura en redes profundas.",
zh = "一种可扩展的自然梯度近似方法,将Fisher信息矩阵分解为每层较小矩阵的Kronecker积,从而在深度网络中高效地进行基于曲率的更新。",
term_es = "K-FAC",
term_zh = "K-FAC",
aliases_es = { "Kronecker-Factored Approximate Curvature", "KFAC" },
aliases_zh = { "Kronecker分解近似曲率", "KFAC" },
}
data["k-fold cross-validation"] = {
short = "A cross-validation scheme that partitions the data into k disjoint folds, trains the model k times using each fold once as the validation set and the remaining k-1 folds as training data, and averages the k performance scores.",
article = nil,
aliases = { "k-fold CV", "kfold cross-validation", "k fold cross validation", "K-fold", "k-fold" },
es = "Esquema de validación cruzada que divide los datos en k particiones disjuntas, entrena el modelo k veces usando cada partición una vez como conjunto de validación y las k-1 restantes como entrenamiento, y promedia las k puntuaciones obtenidas.",
zh = "一种交叉验证方案,将数据划分为 k 个互不相交的折,训练模型 k 次,每次以一个折作为验证集、其余 k-1 个折作为训练集,最后对 k 次性能进行平均。",
term_es = "validación cruzada de k particiones",
term_zh = "k 折交叉验证",
aliases_es = { "validación cruzada k-fold", "k-fold CV", "validación cruzada con k pliegues" },
aliases_zh = { "K 折交叉验证", "k-fold 交叉验证", "k折交叉验证" },
}
data["k-mer counting"] = {
short = "The enumeration of all length-k subsequences and their multiplicities in a set of biological sequences. Foundational primitive in genome assembly, error correction, metagenomics, and sequence similarity estimation.",
article = nil,
aliases = { "kmer counting", "k-mer enumeration", "k-mer frequency counting", "kmer frequency counting" },
es = "Enumeración de todas las subsecuencias de longitud k y sus multiplicidades en un conjunto de secuencias biológicas. Primitiva fundamental en el ensamblaje genómico, la corrección de errores, la metagenómica y la estimación de similitud de secuencias.",
zh = "在一组生物序列中枚举所有长度为 k 的子序列及其出现次数,是基因组组装、错误纠正、宏基因组学和序列相似性估计的基础操作。",
term_es = "conteo de k-meros",
term_zh = "k-mer 计数",
aliases_es = { "conteo de k-mers", "enumeración de k-meros" },
aliases_zh = { "kmer 计数", "k 元组计数" },
}
data["k2-fsa"] = {
short = "An open-source speech processing toolkit, successor in spirit to Kaldi, that implements differentiable finite-state automata operations on GPU and integrates with PyTorch for end-to-end ASR training and decoding.",
article = nil,
aliases = { "k2", "K2", "k2 toolkit", "k2-fsa toolkit", "next-gen Kaldi" },
es = "Kit de herramientas de procesamiento del habla de código abierto, sucesor espiritual de Kaldi, que implementa operaciones diferenciables sobre autómatas de estados finitos en GPU y se integra con PyTorch para el entrenamiento y la decodificación de ASR de extremo a extremo.",
zh = "一个开源语音处理工具包,被视为 Kaldi 的精神继任者;它在 GPU 上实现可微分的有限状态自动机运算,并与 PyTorch 集成以支持端到端语音识别的训练和解码。",
term_es = "k2",
term_zh = "k2",
aliases_es = { "k2-fsa", "Kaldi de nueva generación" },
aliases_zh = { "k2-fsa", "新一代 Kaldi" },
}
data["kaiming initialization"] = {
short = "Synonym for He initialization: a weight initialization that scales by sqrt(2/fan_in) for ReLU-family activations to keep activation variances stable across layers.",
article = nil,
aliases = { "Kaiming init", "Kaiming initialisation", "Kaiming He initialization", "He initialization" },
es = "Sinónimo de inicialización He: inicialización de pesos que escala por sqrt(2/fan_in) para activaciones tipo ReLU, manteniendo estable la varianza de las activaciones entre capas.",
zh = "He 初始化的别称:权重按 sqrt(2/fan_in) 缩放,适用于 ReLU 类激活,使各层激活方差保持稳定。",
term_es = "inicialización Kaiming",
term_zh = "Kaiming 初始化",
aliases_es = { "inicialización de Kaiming", "inicialización He" },
aliases_zh = { "Kaiming 初始化方法", "He 初始化" },
}
data["kaldi"] = {
short = "A widely used open-source toolkit for speech recognition research, written in C++ with shell-script recipes, providing GMM-HMM and DNN-HMM acoustic modeling, WFST-based decoding, and standard pipelines for many benchmark datasets.",
article = nil,
aliases = { "Kaldi", "Kaldi toolkit", "Kaldi ASR" },
es = "Kit de herramientas de código abierto ampliamente utilizado para la investigación en reconocimiento del habla, escrito en C++ con recetas en shell, que ofrece modelado acústico GMM-HMM y DNN-HMM, decodificación basada en WFST y canalizaciones estándar para muchos conjuntos de datos de referencia.",
zh = "广泛使用的开源语音识别研究工具包,用 C++ 编写并配有 shell 脚本配方,提供 GMM-HMM 和 DNN-HMM 声学建模、基于 WFST 的解码以及众多基准数据集的标准流程。",
term_es = "Kaldi",
term_zh = "Kaldi",
aliases_es = { "Kaldi ASR", "kit Kaldi" },
aliases_zh = { "Kaldi 工具包", "Kaldi 语音识别" },
}
data["kallisto"] = {
short = "RNA-seq quantification tool that estimates transcript abundances by pseudoalignment of reads to a transcriptome de Bruijn graph, achieving full-alignment accuracy at much higher speed.",
article = nil,
aliases = { "Kallisto", "kallisto pseudoaligner" },
es = "Herramienta de cuantificación de RNA-seq que estima la abundancia de transcritos mediante pseudoalineamiento de lecturas frente a un grafo de De Bruijn del transcriptoma, alcanzando una precisión similar al alineamiento completo a mucha mayor velocidad.",
zh = "通过将读段对转录组 de Bruijn 图进行伪比对来估计转录本丰度的 RNA-seq 定量工具,速度远高于完整比对而精度相当。",
term_es = "kallisto",
term_zh = "kallisto",
aliases_es = { "Kallisto", "pseudoalineador kallisto" },
aliases_zh = { "Kallisto", "kallisto 伪比对工具" },
}
data["kaplan scaling laws"] = {
short = "Empirical power-law relationships from Kaplan et al. (2020) showing that language model loss scales predictably with parameters, dataset size, and training compute, motivating large-scale pretraining.",
article = nil,
aliases = { "Kaplan scaling laws", "Kaplan et al. scaling laws", "Kaplan 2020 scaling laws", "OpenAI scaling laws" },
es = "Relaciones empíricas de ley de potencias de Kaplan et al. (2020) que muestran que la pérdida de los modelos de lenguaje escala de forma predecible con los parámetros, el tamaño del conjunto de datos y el cómputo de entrenamiento, motivando el preentrenamiento a gran escala.",
zh = "Kaplan 等人 2020 年提出的经验性幂律关系,表明语言模型损失随参数量、数据集规模和训练算力可预测地缩放,推动了大规模预训练研究。",
term_es = "leyes de escalado de Kaplan",
term_zh = "Kaplan 扩展定律",
aliases_es = { "leyes de escalado de OpenAI", "leyes de escalado de Kaplan et al." },
aliases_zh = { "Kaplan 缩放定律", "OpenAI 扩展定律", "Kaplan scaling laws" },
}
data["karel synthesis"] = {
short = "A program-synthesis benchmark built on the Karel-the-Robot domain, in which models must generate programs in a small imperative DSL that move a robot through a grid world to satisfy input/output examples.",
article = nil,
aliases = { "Karel program synthesis", "Karel benchmark", "Karel" },
es = "Banco de pruebas de síntesis de programas basado en el dominio de Karel-el-robot, en el que los modelos deben generar programas en un pequeño DSL imperativo que mueven a un robot por un mundo de cuadrícula para satisfacer ejemplos de entrada/salida.",
zh = "基于 Karel 机器人领域的程序合成基准,要求模型生成小型命令式 DSL 程序,让机器人在网格世界中移动以满足输入/输出示例。",
term_es = "síntesis Karel",
term_zh = "Karel 程序合成",
aliases_es = { "síntesis de programas Karel", "benchmark Karel" },
aliases_zh = { "Karel 合成", "Karel 基准" },
}
data["karras schedule"] = {
short = "A noise schedule for diffusion models proposed by Karras et al. (2022) that distributes timesteps according to a power function of the noise level, improving sample quality at low step counts.",
article = nil,
aliases = { "Karras noise schedule", "Karras sigmas", "Karras sampling schedule", "EDM schedule" },
es = "Programa de ruido para modelos de difusión propuesto por Karras et al. (2022) que distribuye los pasos temporales según una función potencia del nivel de ruido, mejorando la calidad de las muestras con pocos pasos.",
zh = "Karras 等人 2022 年提出的扩散模型噪声调度,按噪声水平的幂函数分布时间步,在少步采样下显著提升样本质量。",
term_es = "programa de Karras",
term_zh = "Karras 调度",
aliases_es = { "sigmas de Karras", "calendario de ruido de Karras" },
aliases_zh = { "Karras 噪声调度", "Karras sigmas", "EDM 调度" },
}
data["katib"] = {
short = "An open-source, Kubernetes-native system within Kubeflow for automated hyperparameter tuning, early stopping, and neural architecture search across containerized training jobs.",
article = nil,
aliases = { "Katib", "Kubeflow Katib" },
es = "Sistema de código abierto nativo de Kubernetes integrado en Kubeflow para el ajuste automatizado de hiperparámetros, la parada temprana y la búsqueda de arquitecturas neuronales sobre trabajos de entrenamiento en contenedores.",
zh = "Kubeflow 中开源的、面向 Kubernetes 原生的系统,用于在容器化训练作业上进行自动超参数调优、早停和神经架构搜索。",
term_es = "Katib",
term_zh = "Katib",
aliases_es = { "Kubeflow Katib" },
aliases_zh = { "Kubeflow Katib" },
}
return data