Module:Glossary/data 3
Documentation for this module may be created at Module:Glossary/data 3/doc
local data = {}
data["kbann"] = {
short = "Knowledge-Based Artificial Neural Network: a hybrid neuro-symbolic method (Towell & Shavlik, 1994) that initializes a feedforward network's topology and weights from a set of propositional Horn rules, then refines them with backpropagation on labeled data.",
article = nil,
aliases = { "KBANN", "Knowledge-Based Artificial Neural Network", "Towell-Shavlik KBANN" },
es = "Knowledge-Based Artificial Neural Network: método híbrido neuro-simbólico (Towell y Shavlik, 1994) que inicializa la topología y los pesos de una red feedforward a partir de un conjunto de reglas de Horn proposicionales y los refina luego con retropropagación sobre datos etiquetados.",
zh = "Knowledge-Based Artificial Neural Network 的简称(Towell 和 Shavlik,1994):一种神经-符号混合方法,先用一组命题 Horn 规则初始化前馈网络的结构与权重,再在带标签数据上用反向传播进行精化。",
term_es = "KBANN",
term_zh = "KBANN",
aliases_es = { "red neuronal basada en conocimiento" },
aliases_zh = { "基于知识的人工神经网络" },
}
data["kbqa"] = {
short = "Knowledge Base Question Answering: the task of answering natural-language questions by querying a structured knowledge base, typically by parsing the question into a logical form, SPARQL query, or graph traversal.",
article = nil,
aliases = { "KBQA", "Knowledge Base QA", "knowledge base question answering" },
es = "Knowledge Base Question Answering: tarea consistente en responder preguntas en lenguaje natural consultando una base de conocimiento estructurada, típicamente analizando la pregunta hasta una forma lógica, una consulta SPARQL o un recorrido de grafo.",
zh = "Knowledge Base Question Answering 的简称:通过查询结构化知识库来回答自然语言问题的任务,通常将问题解析为逻辑形式、SPARQL 查询或图遍历。",
term_es = "KBQA",
term_zh = "KBQA",
aliases_es = { "preguntas y respuestas sobre base de conocimiento" },
aliases_zh = { "知识库问答" },
}
data["kegg"] = {
short = "Kyoto Encyclopedia of Genes and Genomes: an integrated database resource that links genomic information to higher-order biological functions through pathway maps, ortholog groups, and chemical compound entries.",
article = nil,
aliases = { "KEGG", "Kyoto Encyclopedia of Genes and Genomes", "KEGG database" },
es = "Enciclopedia de Genes y Genomas de Kioto: recurso integrado de bases de datos que vincula información genómica con funciones biológicas de orden superior mediante mapas de rutas, grupos de ortólogos y entradas de compuestos químicos.",
zh = "京都基因与基因组百科全书:一个综合数据库资源,通过通路图、直系同源组和化合物条目,将基因组信息与更高层次的生物学功能联系起来。",
term_es = "KEGG",
term_zh = "KEGG",
aliases_es = { "KEGG", "Enciclopedia de Genes y Genomas de Kioto" },
aliases_zh = { "KEGG", "京都基因与基因组百科全书" },
}
data["kegg pathway"] = {
short = "Manually curated map of molecular interactions, reactions, and relations in the Kyoto Encyclopedia of Genes and Genomes. Widely used as a gene-set resource for functional enrichment of omics data.",
article = nil,
aliases = { "KEGG", "KEGG pathway", "KEGG pathway database", "Kyoto Encyclopedia of Genes and Genomes pathway" },
es = "Mapa curado manualmente de interacciones moleculares, reacciones y relaciones en la Enciclopedia de Kyoto de Genes y Genomas. Recurso muy utilizado como conjunto de genes para el enriquecimiento funcional de datos ómicos.",
zh = "京都基因与基因组百科全书(KEGG)中人工整理的分子相互作用、反应与关系图谱,常被用作组学数据功能富集分析的基因集资源。",
term_es = "vía KEGG",
term_zh = "KEGG 通路",
aliases_es = { "KEGG", "ruta KEGG", "vía metabólica KEGG" },
aliases_zh = { "KEGG", "KEGG 通路数据库", "京都基因与基因组百科全书通路" },
}
data["kekulized smiles"] = {
short = "A SMILES form in which aromatic rings are written with explicit alternating single and double bonds (the Kekulé structure) instead of lower-case aromatic atoms, useful when downstream tools require explicit bond orders.",
article = nil,
aliases = { "Kekulized SMILES", "Kekulé SMILES", "kekule smiles", "Kekule SMILES" },
es = "Forma de SMILES en la que los anillos aromáticos se escriben con enlaces sencillos y dobles alternados explícitos (estructura de Kekulé) en lugar de átomos aromáticos en minúscula, útil cuando las herramientas posteriores requieren órdenes de enlace explícitos.",
zh = "一种 SMILES 形式,芳香环用显式的交替单双键(凯库勒结构)而非小写芳香原子表示,适用于下游工具需要显式键级的情况。",
term_es = "SMILES kekulizado",
term_zh = "凯库勒化 SMILES",
aliases_es = { "SMILES de Kekulé", "SMILES kekulizado" },
aliases_zh = { "Kekulé SMILES", "凯库勒 SMILES", "kekulized SMILES" },
}
data["kendall's tau"] = {
short = "A nonparametric rank correlation coefficient measuring the ordinal association between two rankings, widely used in NAS to evaluate how well a cheap predictor's ordering agrees with ground-truth architecture rankings.",
article = nil,
aliases = { "Kendall's tau", "Kendall tau", "Kendall rank correlation", "Kendall's rank correlation coefficient", "tau", "Kendall correlation" },
es = "Coeficiente no paramétrico de correlación de rango que mide la asociación ordinal entre dos clasificaciones; se utiliza ampliamente en NAS para evaluar en qué medida el orden inducido por un predictor económico coincide con el ranking real de las arquitecturas.",
zh = "一种非参数秩相关系数,衡量两个排名之间的序数相关性;在 NAS 中常用于评估廉价预测器给出的架构排序与真实排序的一致程度。",
term_es = "tau de Kendall",
term_zh = "肯德尔τ",
aliases_es = { "coeficiente tau de Kendall", "correlación de rango de Kendall", "tau" },
aliases_zh = { "Kendall's tau", "肯德尔秩相关系数", "肯德尔等级相关", "Kendall τ" },
}
data["keras tuner"] = {
short = "An open-source hyperparameter tuning library for Keras and TensorFlow that wraps a model-building function with a search-space definition and runs strategies such as random search, Hyperband, and Bayesian optimization.",
article = nil,
aliases = { "KerasTuner", "Keras Tuner", "keras-tuner" },
es = "Biblioteca de código abierto de ajuste de hiperparámetros para Keras y TensorFlow que envuelve una función constructora de modelos con una definición de espacio de búsqueda y ejecuta estrategias como búsqueda aleatoria, Hyperband y optimización bayesiana.",
zh = "面向 Keras 和 TensorFlow 的开源超参数调优库,将模型构建函数与搜索空间定义封装在一起,支持随机搜索、Hyperband 和贝叶斯优化等策略。",
term_es = "Keras Tuner",
term_zh = "Keras Tuner",
aliases_es = { "KerasTuner", "keras-tuner" },
aliases_zh = { "KerasTuner", "keras-tuner" },
}
data["kernel"] = {
short = "In convolutional networks, a small matrix of learnable weights that slides across the input to produce a feature map by computing local weighted sums. Equivalent to a filter in CV usage.",
article = nil,
aliases = { "convolution kernel", "convolutional kernel", "kernel matrix" },
es = "En redes convolucionales, una pequeña matriz de pesos aprendibles que se desliza sobre la entrada para producir un mapa de características mediante sumas ponderadas locales. Equivalente a un filtro en visión por computadora.",
zh = "在卷积神经网络中,一个由可学习权重组成的小矩阵,通过在输入上滑动并计算局部加权和来生成特征图。在计算机视觉中等同于滤波器。",
term_es = "kernel",
term_zh = "卷积核",
aliases_es = { "núcleo de convolución", "núcleo convolucional" },
aliases_zh = { "核", "kernel" },
}
data["kernel shap"] = {
short = "A model-agnostic algorithm that approximates Shapley values by sampling coalitions of features and fitting a weighted linear regression in the presence/absence space, yielding SHAP attributions for any black-box predictor.",
article = nil,
aliases = { "KernelSHAP", "Kernel SHAP", "kernel-SHAP" },
es = "Algoritmo agnóstico al modelo que aproxima valores de Shapley muestreando coaliciones de características y ajustando una regresión lineal ponderada en el espacio de presencia/ausencia, produciendo atribuciones SHAP para cualquier predictor caja negra.",
zh = "一种模型无关算法,通过采样特征联盟并在存在/缺失空间中拟合加权线性回归来近似Shapley值,可为任意黑盒预测器生成SHAP归因。",
term_es = "Kernel SHAP",
term_zh = "Kernel SHAP",
aliases_es = { "KernelSHAP", "SHAP de núcleo" },
aliases_zh = { "KernelSHAP", "核SHAP" },
}
data["keypoint detection"] = {
short = "The computer vision task of locating predefined points of interest (e.g., facial landmarks or body joints) on objects in an image, typically by predicting heatmaps or coordinates.",
article = nil,
aliases = { "landmark detection", "keypoint estimation", "keypoint localization" },
es = "Tarea de visión por computadora que consiste en localizar puntos de interés predefinidos (por ejemplo, puntos de referencia faciales o articulaciones corporales) en objetos de una imagen, generalmente prediciendo mapas de calor o coordenadas.",
zh = "计算机视觉任务,在图像中的物体上定位预先定义的兴趣点(如面部特征点或人体关节),通常通过预测热图或坐标实现。",
term_es = "detección de puntos clave",
term_zh = "关键点检测",
aliases_es = { "detección de landmarks", "localización de puntos clave" },
aliases_zh = { "keypoint detection", "关键点定位", "关键点估计" },
}
data["keyword spotting"] = {
short = "The task of detecting predefined words or short phrases (such as wake words) in a continuous audio stream, typically under tight latency, memory, and power constraints for on-device use.",
article = nil,
aliases = { "KWS", "wake-word detection", "wake word detection", "spoken term detection", "wake-up word detection" },
es = "Tarea de detectar palabras o frases cortas predefinidas (como palabras de activación) en una secuencia de audio continua, normalmente bajo estrictas restricciones de latencia, memoria y consumo para uso en dispositivos.",
zh = "在连续音频流中检测预定义关键词或短语(如唤醒词)的任务,通常在严格的延迟、内存和功耗约束下用于设备端部署。",
term_es = "detección de palabras clave",
term_zh = "关键词检出",
aliases_es = { "KWS", "detección de palabra de activación", "spotting de palabras clave" },
aliases_zh = { "KWS", "唤醒词检测", "关键词检测" },
}
data["kfac laplace"] = {
short = "A scalable Laplace approximation that approximates the posterior covariance using a Kronecker-factored (K-FAC) approximation of the Hessian or Fisher, enabling Bayesian deep networks with low memory and compute overhead.",
article = nil,
aliases = { "K-FAC Laplace", "KFAC Laplace approximation", "Kronecker-factored Laplace" },
es = "Aproximación de Laplace escalable que aproxima la covarianza posterior mediante una factorización de Kronecker (K-FAC) del Hessiano o Fisher, permitiendo redes profundas bayesianas con bajo consumo de memoria y cómputo.",
zh = "一种可扩展的 Laplace 近似:用 Hessian 或 Fisher 矩阵的 Kronecker 因子分解(K-FAC)近似后验协方差,使贝叶斯深度网络具有较低的显存和计算开销。",
term_es = "Laplace K-FAC",
term_zh = "K-FAC Laplace",
aliases_es = { "K-FAC Laplace", "aproximación de Laplace K-FAC", "Laplace con factorización de Kronecker" },
aliases_zh = { "K-FAC 拉普拉斯", "Kronecker 分解 Laplace", "KFAC 拉普拉斯近似" },
}
data["kinase inhibitor design"] = {
short = "The medicinal chemistry effort of designing small molecules that block the activity of protein kinases, typically by occupying the ATP-binding pocket; a major focus of oncology drug discovery given the kinome's role in cell signalling.",
article = nil,
aliases = { "kinase drug design", "kinase inhibitor discovery" },
es = "Esfuerzo de química medicinal para diseñar moléculas pequeñas que bloquean la actividad de las proteínas quinasas, típicamente ocupando el bolsillo de unión al ATP; un foco principal en el descubrimiento de fármacos oncológicos dado el papel del quinoma en la señalización celular.",
zh = "药物化学中针对设计阻断蛋白激酶活性的小分子的工作,通常通过占据 ATP 结合口袋实现;鉴于激酶组在细胞信号传导中的作用,这是肿瘤药物研发的主要方向。",
term_es = "diseño de inhibidores de quinasa",
term_zh = "激酶抑制剂设计",
aliases_es = { "diseño de fármacos quinasa", "descubrimiento de inhibidores de quinasa" },
aliases_zh = { "激酶抑制剂研发", "蛋白激酶抑制剂设计" },
}
data["kink rd"] = {
short = "Regression kink design; identifies causal effects from a deterministic kink (slope change) in the assignment rule that maps a running variable to treatment intensity, rather than a discontinuity in level.",
article = nil,
aliases = { "RKD", "regression kink design", "kink design", "regression kink" },
es = "Diseño de regresión por punto de quiebre (kink); identifica efectos causales a partir de un quiebre determinista (cambio de pendiente) en la regla que asigna intensidad de tratamiento según una variable de asignación, en lugar de una discontinuidad de nivel.",
zh = "回归扭折设计(RKD):利用决定处理强度的运行变量分配规则中确定性的斜率变化(扭折)来识别因果效应,而不是利用水平上的断点。",
term_es = "diseño de regresión con quiebre",
term_zh = "回归扭折设计",
aliases_es = { "RKD", "diseño de quiebre", "regresión con kink" },
aliases_zh = { "RKD", "扭折回归设计", "斜率断点设计" },
}
data["kinship dataset"] = {
short = "A small relational-learning benchmark introduced by Hinton (1986) consisting of family-tree facts about two fictional families, used to evaluate distributed representations and statistical relational models on link-prediction tasks.",
article = nil,
aliases = { "Kinship", "Hinton kinship dataset", "Family Tree dataset" },
es = "Pequeño banco de pruebas de aprendizaje relacional introducido por Hinton (1986) que consta de hechos de árboles genealógicos sobre dos familias ficticias, usado para evaluar representaciones distribuidas y modelos relacionales estadísticos en tareas de predicción de enlaces.",
zh = "Hinton(1986)提出的小型关系学习基准,由两个虚构家族的家谱事实组成,用于评估分布式表示和统计关系模型在链接预测任务上的表现。",
term_es = "conjunto de datos Kinship",
term_zh = "Kinship 数据集",
aliases_es = { "Kinship", "conjunto de datos de parentesco" },
aliases_zh = { "Kinship", "亲属关系数据集", "家谱数据集" },
}
data["kiss-gp"] = {
short = "A scalable Gaussian process method that places inducing points on a structured grid and uses kernel interpolation plus Kronecker/Toeplitz algebra to reduce inference cost, introduced by Wilson and Nickisch (2015).",
article = nil,
aliases = { "KISS-GP", "Structured Kernel Interpolation", "SKI", "kernel interpolation for scalable structured GP" },
es = "Método escalable de procesos gaussianos que ubica los puntos inducentes sobre una rejilla estructurada y usa interpolación de kernels junto con álgebra de Kronecker/Toeplitz para reducir el coste de inferencia; propuesto por Wilson y Nickisch (2015).",
zh = "一种可扩展高斯过程方法:把诱导点放置在结构化网格上,结合核插值与 Kronecker/Toeplitz 代数来降低推断开销,由 Wilson 与 Nickisch(2015)提出。",
term_es = "KISS-GP",
term_zh = "KISS-GP",
aliases_es = { "KISS-GP", "interpolación de kernels estructurada", "SKI" },
aliases_zh = { "KISS-GP", "结构化核插值", "SKI" },
}
data["kl divergence loss"] = {
short = "A loss based on the Kullback-Leibler divergence between a predicted probability distribution and a target distribution, measuring the expected extra information needed to encode samples from the target using the prediction.",
article = nil,
aliases = { "KL divergence loss", "KL loss", "Kullback-Leibler divergence loss", "relative entropy loss" },
es = "Pérdida basada en la divergencia de Kullback-Leibler entre una distribución de probabilidad predicha y una distribución objetivo, que mide la información adicional esperada necesaria para codificar muestras de la objetivo usando la predicción.",
zh = "基于预测概率分布与目标分布之间 Kullback-Leibler 散度的损失函数,衡量用预测分布编码来自目标分布样本所需的额外信息量。",
term_es = "pérdida por divergencia KL",
term_zh = "KL 散度损失",
aliases_es = { "pérdida KL", "pérdida por entropía relativa" },
aliases_zh = { "KL 损失", "相对熵损失" },
}
data["kl divergence penalty"] = {
short = "A regularization term in RLHF and policy optimization that penalizes the KL divergence between the trained policy and a reference (usually pretrained or SFT) model, preventing reward hacking and distribution drift.",
article = nil,
aliases = { "KL penalty", "KL-divergence penalty", "KL regularization", "reference-model KL penalty" },
es = "Término de regularización en RLHF y optimización de políticas que penaliza la divergencia KL entre la política entrenada y un modelo de referencia (normalmente preentrenado o SFT), evitando el reward hacking y el desplazamiento de distribución.",
zh = "RLHF 与策略优化中的正则项,对训练策略与参考模型(通常为预训练或 SFT 模型)之间的 KL 散度进行惩罚,以抑制奖励作弊和分布漂移。",
term_es = "penalización de divergencia KL",
term_zh = "KL 散度惩罚",
aliases_es = { "penalización KL", "regularización KL" },
aliases_zh = { "KL 惩罚", "KL 正则化", "KL-divergence penalty" },
}
data["kl regularizer"] = {
short = "The Kullback-Leibler divergence term between the variational posterior and the prior that appears in the ELBO, regularizing the approximate posterior toward the prior and balancing the data-fit term.",
article = nil,
aliases = { "KL term", "KL penalty", "KL divergence regularizer", "KL regulariser" },
es = "Término de divergencia de Kullback-Leibler entre el posterior variacional y el prior que aparece en el ELBO, regularizando el posterior aproximado hacia el prior y equilibrando el término de ajuste a los datos.",
zh = "ELBO 中变分后验与先验之间的 KL 散度项,将近似后验向先验拉近,与数据拟合项形成平衡,起到正则化作用。",
term_es = "regularizador KL",
term_zh = "KL 正则项",
aliases_es = { "término KL", "penalización KL", "regularizador de divergencia KL" },
aliases_zh = { "KL 项", "KL 惩罚", "KL 散度正则项" },
}
data["klatt synthesizer"] = {
short = "A formant-based speech synthesizer designed by Dennis Klatt in the early 1980s that models the vocal tract as a cascade or parallel network of resonators driven by voicing and noise sources, used in classic systems such as DECtalk.",
article = nil,
aliases = { "Klatt synthesizer", "Klatt formant synthesizer", "Klatt synthesiser" },
es = "Sintetizador de voz basado en formantes diseñado por Dennis Klatt a principios de los años 80 que modela el tracto vocal como una red en cascada o paralela de resonadores excitados por fuentes de voz y ruido, utilizado en sistemas clásicos como DECtalk.",
zh = "由 Dennis Klatt 于 20 世纪 80 年代初设计的基于共振峰的语音合成器,将声道建模为由声带激励和噪声源驱动的级联或并联谐振网络,被用于 DECtalk 等经典系统。",
term_es = "sintetizador de Klatt",
term_zh = "Klatt 合成器",
aliases_es = { "sintetizador de formantes de Klatt" },
aliases_zh = { "Klatt 共振峰合成器", "Klatt 语音合成器" },
}
data["kld distillation"] = {
short = "Knowledge distillation in which the student-teacher discrepancy is measured by the Kullback-Leibler divergence between their output (often temperature-softened) probability distributions.",
article = nil,
aliases = { "KL distillation", "KL divergence distillation", "Kullback-Leibler distillation" },
es = "Destilación de conocimiento en la que la discrepancia entre estudiante y maestro se mide mediante la divergencia de Kullback-Leibler entre sus distribuciones de probabilidad de salida (a menudo suavizadas por temperatura).",
zh = "一种知识蒸馏方法,使用 Kullback-Leibler 散度衡量学生与教师输出(通常经温度软化后)概率分布之间的差异。",
term_es = "destilación KLD",
term_zh = "KLD 蒸馏",
aliases_es = { "destilación por divergencia KL", "destilación KL" },
aliases_zh = { "KL 蒸馏", "KL 散度蒸馏", "Kullback-Leibler 蒸馏" },
}
data["kleinberg impossibility"] = {
short = "A result by Kleinberg, Mullainathan, and Raghavan showing that calibration within groups, equal false-positive rates, and equal false-negative rates cannot all hold simultaneously across groups except in degenerate cases.",
article = nil,
aliases = { "Kleinberg impossibility theorem", "Kleinberg-Mullainathan-Raghavan impossibility", "fairness impossibility theorem" },
es = "Resultado de Kleinberg, Mullainathan y Raghavan que demuestra que la calibración por grupos, la igualdad de tasas de falsos positivos y la igualdad de tasas de falsos negativos no pueden satisfacerse simultáneamente entre grupos salvo en casos degenerados.",
zh = "Kleinberg、Mullainathan 和 Raghavan 提出的结论,表明组内校准、跨组相等的假阳性率和假阴性率三者除退化情形外无法同时成立。",
term_es = "teorema de imposibilidad de Kleinberg",
term_zh = "Kleinberg 不可能性定理",
aliases_es = { "imposibilidad de Kleinberg", "teorema de imposibilidad de equidad" },
aliases_zh = { "Kleinberg 不可能性", "公平性不可能定理" },
}
data["klime"] = {
short = "A LIME variant ('K-LIME') that partitions the dataset with k-means clustering and trains a separate local linear surrogate per cluster, producing globally consistent local explanations across regions of the feature space.",
article = nil,
aliases = { "K-LIME", "kLIME", "k-LIME" },
es = "Variante de LIME ('K-LIME') que particiona el conjunto de datos mediante agrupamiento k-means y entrena un sustituto lineal local por cada cluster, produciendo explicaciones locales globalmente consistentes a través de regiones del espacio de características.",
zh = "LIME的一种变体(K-LIME),先用k均值聚类对数据集分区,再为每个簇训练独立的局部线性代理模型,从而在特征空间各区域生成全局一致的局部解释。",
term_es = "K-LIME",
term_zh = "K-LIME",
aliases_es = { "K-LIME", "kLIME" },
aliases_zh = { "K-LIME", "kLIME" },
}
data["kling"] = {
short = "Kuaishou's text-to-video and image-to-video generation model released in 2024, capable of producing high-resolution clips up to roughly two minutes long with consistent motion and physics; positioned as a competitor to OpenAI's Sora.",
article = nil,
aliases = { "Kling", "Kling AI", "Kuaishou Kling", "可灵" },
es = "Modelo de generación texto-a-video e imagen-a-video de Kuaishou lanzado en 2024, capaz de producir clips en alta resolución de hasta aproximadamente dos minutos con movimiento y física consistentes; se posiciona como competidor de Sora de OpenAI.",
zh = "快手于 2024 年发布的文生视频与图生视频模型,可生成高分辨率、最长约两分钟的视频片段,具备较一致的运动与物理表现,被视为 OpenAI Sora 的竞争对手。",
term_es = "Kling",
term_zh = "可灵",
aliases_es = { "Kling AI", "Kuaishou Kling", "可灵" },
aliases_zh = { "Kling", "Kling AI", "快手可灵" },
}
data["knas"] = {
short = "Kernel-based Neural Architecture Search, a training-free NAS method that ranks candidate architectures using the mean and variance of their neural tangent kernel (NTK) values on a small data sample, avoiding any weight training.",
article = nil,
aliases = { "KNAS", "kernel NAS", "kernel-based NAS", "kernel neural architecture search" },
es = "Búsqueda de arquitecturas neuronales basada en kernels: método de NAS sin entrenamiento que clasifica arquitecturas candidatas usando la media y la varianza de los valores de su kernel tangente neuronal (NTK) sobre una pequeña muestra de datos, sin entrenar pesos.",
zh = "基于核的神经架构搜索,一种免训练的 NAS 方法,利用候选架构在小批数据上的神经正切核(NTK)值的均值和方差对其进行排序,无需训练权重。",
term_es = "KNAS",
term_zh = "KNAS",
aliases_es = { "NAS basado en kernels", "búsqueda de arquitecturas con kernels" },
aliases_zh = { "基于核的NAS", "核神经架构搜索" },
}
data["knn ood score"] = {
short = "An out-of-distribution detection score computed from the distance to the k-th nearest neighbor of a test input in the training feature embedding space, with larger distances indicating OOD inputs.",
article = nil,
aliases = { "kNN OOD score", "k-nearest neighbor OOD", "deep k-nearest neighbors OOD", "KNN-based OOD detection" },
es = "Puntaje de detección fuera de distribución basado en la distancia al k-ésimo vecino más cercano de la entrada de prueba en el espacio de incrustaciones de entrenamiento; distancias mayores indican entradas OOD.",
zh = "基于测试输入在训练特征嵌入空间中第 k 个最近邻的距离计算的分布外检测分数,距离越大越可能是 OOD 样本。",
term_es = "puntaje OOD por kNN",
term_zh = "kNN 分布外分数",
aliases_es = { "puntaje OOD por k-vecinos", "detección OOD basada en kNN" },
aliases_zh = { "kNN OOD 分数", "k 近邻分布外检测", "KNN OOD" },
}
data["knn shapley"] = {
short = "A data-valuation method that computes exact Shapley values for k-nearest-neighbor classifiers in closed form and near-linear time, exploiting the locality of the kNN decision rule.",
article = nil,
aliases = { "KNN-Shapley", "KNN Shapley", "k-NN Shapley", "kNN-Shapley" },
es = "Método de valoración de datos que calcula valores de Shapley exactos para clasificadores de k vecinos más cercanos de forma cerrada y en tiempo casi lineal, aprovechando la localidad de la regla de decisión kNN.",
zh = "一种数据估值方法,利用k近邻决策规则的局部性,在近线性时间内以闭式精确地计算kNN分类器的Shapley值。",
term_es = "KNN-Shapley",
term_zh = "KNN-Shapley",
aliases_es = { "Shapley de KNN", "Shapley para k vecinos más cercanos" },
aliases_zh = { "KNN Shapley", "k近邻Shapley" },
}
data["knn-per"] = {
short = "kNN-Per: a personalized federated learning method that augments a globally trained model with a local k-nearest-neighbors retrieval over each client's data, interpolating predictions between the global classifier and local memory.",
article = nil,
aliases = { "kNN-Per", "kNN-Per FL", "k-NN personalization", "kNN personalized federated learning" },
es = "kNN-Per: método de aprendizaje federado personalizado que amplía un modelo entrenado globalmente con una recuperación local por k vecinos más cercanos sobre los datos de cada cliente, interpolando predicciones entre el clasificador global y la memoria local.",
zh = "kNN-Per:一种个性化联邦学习方法,在全局训练的模型基础上加入对每个客户端数据的本地 k 近邻检索,在全局分类器与本地记忆之间插值得到预测结果。",
term_es = "kNN-Per",
term_zh = "kNN-Per",
aliases_es = { "kNN-Per FL", "personalización kNN", "aprendizaje federado personalizado kNN" },
aliases_zh = { "kNN-Per FL", "kNN 个性化", "kNN 个性化联邦学习" },
}
data["knockout screen"] = {
short = "High-throughput genetic experiment that systematically inactivates many genes — typically via pooled CRISPR-Cas9 — to identify those whose loss produces a measurable phenotype such as cell viability or drug sensitivity.",
article = nil,
aliases = { "KO screen", "genetic knockout screen", "CRISPR knockout screen", "loss-of-function screen" },
es = "Experimento genético de alto rendimiento que inactiva sistemáticamente muchos genes, típicamente mediante CRISPR-Cas9 en formato agrupado, para identificar aquellos cuya pérdida produce un fenotipo medible como viabilidad celular o sensibilidad a fármacos.",
zh = "通过系统性失活大量基因(通常采用混合 CRISPR-Cas9)的高通量遗传实验,用于识别其缺失会产生可测量表型(如细胞活力或药物敏感性)的基因。",
term_es = "cribado de inactivación génica",
term_zh = "基因敲除筛选",
aliases_es = { "screening de knockouts", "cribado de pérdida de función", "cribado CRISPR de knockout" },
aliases_zh = { "敲除筛选", "功能丧失筛选", "CRISPR 敲除筛选" },
}
data["knockout test"] = {
short = "An interpretability procedure that ablates — by zeroing, masking, or mean-replacing — specific units, attention heads, or layers of a trained network and measures the resulting performance drop to estimate each component's contribution.",
article = nil,
aliases = { "knockout ablation", "ablation knockout", "neuron knockout", "head knockout" },
es = "Procedimiento de interpretabilidad que ablacióna — poniendo a cero, enmascarando o sustituyendo por la media — unidades, cabezas de atención o capas concretas de una red entrenada y mide la caída de rendimiento resultante para estimar la contribución de cada componente.",
zh = "一种可解释性手段,通过将训练网络中的特定单元、注意力头或层置零、掩码或替换为均值进行消融,并测量随之而来的性能下降,以估计各组件的贡献。",
term_es = "prueba de knockout",
term_zh = "敲除测试",
aliases_es = { "ablación de knockout", "knockout de neuronas", "knockout de cabezas" },
aliases_zh = { "敲除消融", "神经元敲除", "注意力头敲除" },
}
data["knowledge base"] = {
short = "A structured store of facts and rules about a domain, typically expressed in a formal language such as description logic, RDF triples, or first-order logic, and queried by a reasoning engine.",
article = nil,
aliases = { "KB", "knowledge bases" },
es = "Almacén estructurado de hechos y reglas sobre un dominio, expresados habitualmente en un lenguaje formal como la lógica descriptiva, tripletas RDF o lógica de primer orden, y consultados mediante un motor de razonamiento.",
zh = "关于某个领域的事实和规则的结构化存储,通常以描述逻辑、RDF 三元组或一阶逻辑等形式语言表达,并由推理引擎进行查询。",
term_es = "base de conocimiento",
term_zh = "知识库",
aliases_es = { "BC", "bases de conocimiento" },
aliases_zh = { "KB", "知识库系统" },
}
data["knowledge base completion"] = {
short = "The task of inferring missing facts in a knowledge base by predicting plausible new triples from existing ones, usually framed as scoring candidate (head, relation, tail) tuples with embedding models or rule learners.",
article = nil,
aliases = { "KBC", "KB completion", "knowledge base completion" },
es = "Tarea de inferir hechos faltantes en una base de conocimiento prediciendo nuevas tripletas plausibles a partir de las existentes, habitualmente formulada como la puntuación de tuplas candidatas (cabeza, relación, cola) mediante modelos de embeddings o aprendizaje de reglas.",
zh = "在知识库中推断缺失事实的任务,通过从现有三元组预测可能的新三元组来完成,通常被表述为用嵌入模型或规则学习器为候选 (头, 关系, 尾) 元组打分。",
term_es = "completado de bases de conocimiento",
term_zh = "知识库补全",
aliases_es = { "KBC", "completación de bases de conocimiento" },
aliases_zh = { "KBC", "知识库补全任务" },
}
data["knowledge base question answering"] = {
short = "Knowledge Base Question Answering (KBQA) — the task of answering natural-language questions by mapping them to executable queries (e.g. SPARQL, lambda-DCS) over a structured knowledge base.",
article = nil,
aliases = { "KBQA", "KB question answering", "QA over knowledge bases" },
es = "Knowledge Base Question Answering (KBQA): tarea consistente en responder preguntas en lenguaje natural mapeándolas a consultas ejecutables (por ejemplo, SPARQL o lambda-DCS) sobre una base de conocimiento estructurada.",
zh = "Knowledge Base Question Answering(KBQA):将自然语言问题映射为可执行查询(如 SPARQL、lambda-DCS)以在结构化知识库上回答问题的任务。",
term_es = "preguntas y respuestas sobre bases de conocimiento",
term_zh = "知识库问答",
aliases_es = { "KBQA", "QA sobre bases de conocimiento" },
aliases_zh = { "KBQA", "基于知识库的问答" },
}
data["knowledge distillation"] = {
short = "A model-compression technique in which a smaller student model is trained to mimic the outputs (and optionally internal representations) of a larger teacher model, transferring its knowledge into a more efficient architecture.",
article = nil,
aliases = { "KD", "model distillation", "distillation" },
es = "Técnica de compresión de modelos en la que un modelo estudiante más pequeño se entrena para imitar las salidas (y opcionalmente las representaciones internas) de un modelo maestro mayor, transfiriendo su conocimiento a una arquitectura más eficiente.",
zh = "一种模型压缩技术,让较小的学生模型模仿较大教师模型的输出(以及可选的中间表示),从而将知识迁移到更高效的架构中。",
term_es = "destilación de conocimiento",
term_zh = "知识蒸馏",
aliases_es = { "KD", "destilación del conocimiento", "destilación de modelos" },
aliases_zh = { "KD", "模型蒸馏", "蒸馏" },
}
data["knowledge distillation loss"] = {
short = "A loss that trains a student network to mimic a teacher's output distribution, typically by minimizing KL divergence between temperature-softened logits, optionally combined with the standard task loss.",
article = nil,
aliases = { "KD loss", "distillation loss", "Hinton distillation loss", "soft target loss" },
es = "Pérdida que entrena a una red estudiante para imitar la distribución de salida de una red maestra, normalmente minimizando la divergencia KL entre logits suavizados por temperatura, opcionalmente combinada con la pérdida estándar de la tarea.",
zh = "训练学生网络模仿教师网络输出分布的损失,通常通过最小化经过温度软化后 logits 之间的 KL 散度,并可与标准任务损失结合使用。",
term_es = "pérdida de destilación de conocimiento",
term_zh = "知识蒸馏损失",
aliases_es = { "pérdida KD", "pérdida de destilación", "pérdida de objetivos suaves" },
aliases_zh = { "KD 损失", "蒸馏损失", "软目标损失" },
}
data["knowledge distillation training"] = {
short = "A training procedure in which a student model is trained on a loss that combines the standard hard-label objective with a divergence (typically KL) between the student's softened outputs and those of a pre-trained teacher.",
article = nil,
aliases = { "KD training", "distillation training", "training with knowledge distillation", "distillation-based training" },
es = "Procedimiento de entrenamiento en el que un modelo estudiante se entrena con una pérdida que combina el objetivo estándar de etiquetas duras con una divergencia (normalmente KL) entre las salidas suavizadas del estudiante y las de un maestro preentrenado.",
zh = "一种训练流程,让学生模型在结合标准硬标签目标和教师模型软化输出之间散度(通常为 KL 散度)的损失函数上进行训练,其中教师模型已预先训练完成。",
term_es = "entrenamiento por destilación de conocimiento",
term_zh = "知识蒸馏训练",
aliases_es = { "entrenamiento con destilación de conocimiento", "entrenamiento KD", "entrenamiento por destilación" },
aliases_zh = { "KD 训练", "蒸馏训练", "基于知识蒸馏的训练" },
}
data["knowledge editing"] = {
short = "A family of techniques for modifying specific factual associations stored in a pretrained language model's weights without full retraining, used to update outdated facts or correct errors.",
article = nil,
aliases = { "model editing", "factual editing", "LLM knowledge editing", "weight editing" },
es = "Familia de técnicas para modificar asociaciones factuales específicas almacenadas en los pesos de un modelo de lenguaje preentrenado sin reentrenarlo por completo, usadas para actualizar hechos obsoletos o corregir errores.",
zh = "一类在不进行完整重训练的情况下,修改预训练语言模型权重中存储的特定事实关联的方法,用于更新过时事实或纠正错误。",
term_es = "edición de conocimiento",
term_zh = "知识编辑",
aliases_es = { "edición de modelo", "edición factual" },
aliases_zh = { "模型编辑", "事实编辑", "权重编辑" },
}
data["knowledge engineering"] = {
short = "The discipline of designing and building knowledge-based systems by eliciting domain expertise, formalizing it as ontologies, rules, or knowledge graphs, and validating it for use by inference engines.",
article = nil,
aliases = { "KE", "knowledge engineer" },
es = "Disciplina dedicada al diseño y construcción de sistemas basados en conocimiento mediante la elicitación de la experiencia de dominio, su formalización como ontologías, reglas o grafos de conocimiento, y su validación para su uso por motores de inferencia.",
zh = "面向知识库系统的设计与构建学科,通过挖掘领域专家知识,将其形式化为本体、规则或知识图谱,并加以验证以供推理引擎使用。",
term_es = "ingeniería del conocimiento",
term_zh = "知识工程",
aliases_es = { "ingeniero del conocimiento" },
aliases_zh = { "知识工程师" },
}
data["knowledge gradient"] = {
short = "A Bayesian optimization acquisition function that selects the next sample point to maximize the expected one-step improvement in the posterior estimate of the optimal value, suited for noisy and continuous-decision settings.",
article = nil,
aliases = { "KG", "knowledge-gradient", "knowledge gradient acquisition", "knowledge gradient policy" },
es = "Función de adquisición en optimización bayesiana que selecciona el siguiente punto de muestreo para maximizar la mejora esperada en un paso del estimador posterior del valor óptimo, adecuada en escenarios ruidosos y de decisiones continuas.",
zh = "贝叶斯优化中的一种采集函数,选择下一采样点以最大化对最优值后验估计的单步期望改进,适用于带噪声和连续决策的场景。",
term_es = "gradiente de conocimiento",
term_zh = "知识梯度",
aliases_es = { "knowledge gradient", "KG", "función de adquisición de gradiente de conocimiento" },
aliases_zh = { "knowledge gradient", "KG", "知识梯度采集函数" },
}
data["knowledge graph"] = {
short = "A graph-structured knowledge representation in which nodes denote entities and labeled edges denote relations between them, often serialized as RDF triples (head, relation, tail) and used for semantic search and reasoning.",
article = nil,
aliases = { "KG", "knowledge graphs" },
es = "Representación de conocimiento estructurada como grafo en la que los nodos denotan entidades y las aristas etiquetadas denotan relaciones entre ellas, a menudo serializada como tripletas RDF (cabeza, relación, cola) y utilizada para búsqueda semántica y razonamiento.",
zh = "以图结构表示知识的方式,节点表示实体,带标签的边表示实体之间的关系,常以 RDF 三元组 (头, 关系, 尾) 序列化,用于语义检索和推理。",
term_es = "grafo de conocimiento",
term_zh = "知识图谱",
aliases_es = { "KG", "grafos de conocimiento" },
aliases_zh = { "KG", "知识图" },
}
data["knowledge graph completion"] = {
short = "The task of predicting missing triples in a knowledge graph, typically split into head, tail, and relation prediction and evaluated with ranking metrics like Mean Reciprocal Rank and Hits@k on benchmarks such as FB15k-237 and WN18RR.",
article = nil,
aliases = { "KGC", "KG completion", "knowledge graph completion" },
es = "Tarea de predecir tripletas faltantes en un grafo de conocimiento, habitualmente dividida en predicción de cabeza, cola y relación, y evaluada con métricas de ranking como Mean Reciprocal Rank y Hits@k sobre bancos de pruebas como FB15k-237 y WN18RR.",
zh = "预测知识图谱中缺失三元组的任务,通常分为头实体、尾实体和关系预测,并在 FB15k-237、WN18RR 等基准上以 Mean Reciprocal Rank、Hits@k 等排序指标进行评估。",
term_es = "completado de grafos de conocimiento",
term_zh = "知识图谱补全",
aliases_es = { "KGC", "completación de grafos de conocimiento" },
aliases_zh = { "KGC", "知识图补全" },
}
data["knowledge graph construction"] = {
short = "The pipeline of extracting entities, relations, and attributes from unstructured or semi-structured sources to assemble a knowledge graph, typically combining named-entity recognition, relation extraction, entity linking, and ontology mapping.",
article = nil,
aliases = { "KGC", "KG construction", "building knowledge graphs" },
es = "Tubería de extracción de entidades, relaciones y atributos a partir de fuentes no estructuradas o semiestructuradas para ensamblar un grafo de conocimiento, combinando habitualmente reconocimiento de entidades nombradas, extracción de relaciones, enlace de entidades y mapeo a una ontología.",
zh = "从非结构化或半结构化来源中抽取实体、关系和属性以构建知识图谱的流程,通常将命名实体识别、关系抽取、实体链接和本体映射结合在一起。",
term_es = "construcción de grafos de conocimiento",
term_zh = "知识图谱构建",
aliases_es = { "construcción de KG", "creación de grafos de conocimiento" },
aliases_zh = { "知识图构建", "知识图谱搭建" },
}
data["knowledge graph embedding"] = {
short = "A family of representation-learning methods that map entities and relations of a knowledge graph into a continuous vector space so that triple plausibility can be scored by simple algebraic operations, as in TransE, DistMult, ComplEx, RotatE, and ConvE.",
article = nil,
aliases = { "KGE", "KG embedding", "knowledge graph embeddings" },
es = "Familia de métodos de aprendizaje de representaciones que proyectan entidades y relaciones de un grafo de conocimiento en un espacio vectorial continuo, de modo que la plausibilidad de cada tripleta pueda puntuarse mediante operaciones algebraicas sencillas, como en TransE, DistMult, ComplEx, RotatE y ConvE.",
zh = "一类将知识图谱中的实体和关系映射到连续向量空间的表示学习方法,使三元组的可信度可通过简单代数运算打分,代表性方法包括 TransE、DistMult、ComplEx、RotatE 和 ConvE。",
term_es = "embedding de grafos de conocimiento",
term_zh = "知识图谱嵌入",
aliases_es = { "KGE", "embeddings de grafos de conocimiento" },
aliases_zh = { "KGE", "知识图嵌入" },
}
data["knowledge representation"] = {
short = "The subfield of artificial intelligence concerned with how to encode information about the world in a form that a computer system can use to reason, plan, and answer questions, including logics, frames, semantic networks, and ontologies.",
article = nil,
aliases = { "KR", "knowledge representation and reasoning", "KR&R" },
es = "Subcampo de la inteligencia artificial dedicado a cómo codificar información sobre el mundo en una forma que un sistema informático pueda utilizar para razonar, planificar y responder preguntas, incluyendo lógicas, marcos, redes semánticas y ontologías.",
zh = "人工智能的子领域,研究如何以计算机系统能够用于推理、规划和回答问题的形式来编码关于世界的信息,涵盖逻辑、框架、语义网络和本体等方法。",
term_es = "representación del conocimiento",
term_zh = "知识表示",
aliases_es = { "RC", "representación y razonamiento del conocimiento" },
aliases_zh = { "KR", "知识表征", "知识表示与推理" },
}
data["knowledge uncertainty"] = {
short = "The component of predictive uncertainty arising from limited knowledge about the model parameters or hypothesis class, equivalent to epistemic uncertainty and reducible with additional data.",
article = nil,
aliases = { "epistemic uncertainty", "model uncertainty", "reducible uncertainty" },
es = "Componente de la incertidumbre predictiva que surge del conocimiento limitado sobre los parámetros del modelo o la clase de hipótesis; equivale a la incertidumbre epistémica y se reduce con más datos.",
zh = "由对模型参数或假设类的认知不足而产生的预测不确定性分量,等同于认知不确定性,可通过增加数据来降低。",
term_es = "incertidumbre de conocimiento",
term_zh = "知识不确定性",
aliases_es = { "incertidumbre epistémica", "incertidumbre del modelo", "incertidumbre reducible" },
aliases_zh = { "认知不确定性", "模型不确定性", "可约不确定性" },
}
data["knowledge-based artificial neural network"] = {
short = "A class of neuro-symbolic models, exemplified by KBANN (Towell & Shavlik, 1994), in which the architecture and initial weights of a neural network are derived from a set of symbolic domain rules and then refined with gradient-based training.",
article = nil,
aliases = { "KBANN", "knowledge-based ANN", "knowledge-based neural network" },
es = "Clase de modelos neuro-simbólicos, ejemplificada por KBANN (Towell y Shavlik, 1994), en la que la arquitectura y los pesos iniciales de una red neuronal se derivan de un conjunto de reglas simbólicas del dominio y se refinan luego mediante entrenamiento basado en gradientes.",
zh = "一类神经-符号模型,以 KBANN(Towell 和 Shavlik,1994)为代表,由一组符号领域规则推导出神经网络的结构和初始权重,再通过基于梯度的训练加以精化。",
term_es = "red neuronal artificial basada en conocimiento",
term_zh = "基于知识的人工神经网络",
aliases_es = { "KBANN", "red neuronal basada en conocimiento" },
aliases_zh = { "KBANN", "知识驱动神经网络" },
}
data["kosmos-1"] = {
short = "Microsoft's first multimodal large language model (2023), a decoder-only transformer trained on interleaved web text, image-caption pairs, and arbitrary text-image documents, enabling perception of images alongside language for tasks like captioning, VQA, and chain-of-thought.",
article = nil,
aliases = { "Kosmos-1", "KOSMOS-1", "Microsoft Kosmos-1" },
es = "Primer modelo de lenguaje multimodal de gran escala de Microsoft (2023), un transformer solo decodificador entrenado con texto web intercalado, pares imagen-pie de foto y documentos arbitrarios de texto e imagen, lo que permite percibir imágenes junto con el lenguaje para tareas como descripción, VQA y cadena de pensamiento.",
zh = "微软于 2023 年发布的首个多模态大型语言模型,为仅解码器 Transformer,使用交错网页文本、图像-描述对以及任意图文文档进行训练,使模型能够将图像与语言一同感知,用于字幕生成、视觉问答与思维链等任务。",
term_es = "Kosmos-1",
term_zh = "Kosmos-1",
aliases_es = { "KOSMOS-1", "Microsoft Kosmos-1" },
aliases_zh = { "KOSMOS-1", "微软 Kosmos-1" },
}
data["kosmos-2"] = {
short = "Microsoft's grounded multimodal large language model that extends Kosmos-1 with the ability to consume and produce bounding-box references in text, linking phrases to image regions and supporting referring expression and grounded captioning.",
article = nil,
aliases = { "Kosmos-2", "KOSMOS-2", "Microsoft Kosmos-2" },
es = "Modelo de lenguaje multimodal con anclaje (grounding) de Microsoft que extiende Kosmos-1 con la capacidad de consumir y producir referencias por cajas delimitadoras dentro del texto, vinculando frases con regiones de la imagen y soportando expresiones referenciales y descripciones ancladas.",
zh = "微软在 Kosmos-1 基础上扩展的具备视觉接地能力的多模态大型语言模型,可在文本中使用并生成边界框引用,将词组与图像区域相连,支持指代表达和带接地的图像描述。",
term_es = "Kosmos-2",
term_zh = "Kosmos-2",
aliases_es = { "KOSMOS-2", "Microsoft Kosmos-2" },
aliases_zh = { "KOSMOS-2", "微软 Kosmos-2" },
}
data["kosmos-2.5"] = {
short = "Microsoft's text-intensive multimodal model specialized for document images, capable of generating spatially-aware text blocks with bounding boxes and producing markdown-formatted output for OCR, layout analysis, and document understanding.",
article = nil,
aliases = { "Kosmos-2.5", "KOSMOS-2.5", "Microsoft Kosmos-2.5" },
es = "Modelo multimodal de Microsoft especializado en imágenes con texto denso (documentos), capaz de generar bloques de texto con conciencia espacial y cajas delimitadoras y producir salida en markdown, útil para OCR, análisis de diseño y comprensión de documentos.",
zh = "微软推出的面向文本密集图像(文档)的多模态模型,可生成带边界框的空间感知文本块,并输出 Markdown 格式结果,用于 OCR、版面分析与文档理解。",
term_es = "Kosmos-2.5",
term_zh = "Kosmos-2.5",
aliases_es = { "KOSMOS-2.5", "Microsoft Kosmos-2.5" },
aliases_zh = { "KOSMOS-2.5", "微软 Kosmos-2.5" },
}
data["kqa pro"] = {
short = "A large-scale benchmark for complex knowledge base question answering over Wikidata, providing ~120k natural-language questions paired with executable KoPL programs and SPARQL queries that require multi-hop reasoning, comparison, and aggregation.",
article = nil,
aliases = { "KQA Pro", "KQAPro", "KQA-Pro" },
es = "Banco de pruebas a gran escala para preguntas y respuestas complejas sobre Wikidata, que proporciona ~120 mil preguntas en lenguaje natural emparejadas con programas KoPL y consultas SPARQL ejecutables que requieren razonamiento multi-salto, comparación y agregación.",
zh = "面向 Wikidata 的大规模复杂知识库问答基准,提供约 12 万条自然语言问题,配有可执行的 KoPL 程序和 SPARQL 查询,需要多跳推理、比较和聚合。",
term_es = "KQA Pro",
term_zh = "KQA Pro",
aliases_es = { "KQAPro" },
aliases_zh = { "KQAPro", "KQA-Pro" },
}
data["kraken2"] = {
short = "Taxonomic classifier for metagenomic sequencing reads that assigns each read to the lowest common ancestor of organisms whose genomes share its k-mers, using a compact custom hash database.",
article = nil,
aliases = { "Kraken2", "Kraken 2", "kraken 2" },
es = "Clasificador taxonómico de lecturas de secuenciación metagenómica que asigna cada lectura al ancestro común más reciente de los organismos cuyos genomas comparten sus k-meros, utilizando una base de datos hash compacta y personalizada.",
zh = "宏基因组测序读段的分类工具,依据共享 k-mer 的基因组将每条读段分配到最低公共祖先,使用紧凑的自定义哈希数据库。",
term_es = "Kraken2",
term_zh = "Kraken2",
aliases_es = { "Kraken 2", "kraken2" },
aliases_zh = { "Kraken 2", "kraken2" },
}
data["krippendorff alpha"] = {
short = "A reliability coefficient for measuring agreement among any number of raters across nominal, ordinal, interval, or ratio data, accommodating missing values and varying levels of measurement.",
article = nil,
aliases = { "Krippendorff's alpha", "Krippendorff alpha", "Krippendorff's α", "α (Krippendorff)" },
es = "Coeficiente de fiabilidad para medir el acuerdo entre cualquier número de evaluadores sobre datos nominales, ordinales, de intervalo o de razón, admitiendo valores faltantes y distintos niveles de medida.",
zh = "一种用于衡量任意数量评分者在名义、序数、区间或比率数据上一致性的可靠性系数,可处理缺失值与不同测量层次。",
term_es = "alfa de Krippendorff",
term_zh = "Krippendorff α 系数",
aliases_es = { "alfa de Krippendorff", "α de Krippendorff" },
aliases_zh = { "Krippendorff alpha", "Krippendorff α" },
}
data["kronecker product"] = {
short = "A bilinear operation that takes two matrices A (m×n) and B (p×q) and produces an mp×nq block matrix whose (i,j)-th block is A_{ij}·B. It encodes tensor products of linear maps in matrix form.",
article = nil,
aliases = { "Kronecker product", "tensor product of matrices", "direct product of matrices", "⊗" },
es = "Operación bilineal que toma dos matrices A (m×n) y B (p×q) y produce una matriz por bloques de tamaño mp×nq cuyo bloque (i,j) es A_{ij}·B. Codifica el producto tensorial de aplicaciones lineales en forma matricial.",
zh = "一种双线性运算,将两个矩阵 A(m×n)与 B(p×q)映射为大小 mp×nq 的分块矩阵,其第 (i,j) 个块为 A_{ij}·B。它以矩阵形式表示线性映射的张量积。",
term_es = "producto de Kronecker",
term_zh = "克罗内克积",
aliases_es = { "Kronecker", "producto tensorial de matrices" },
aliases_zh = { "Kronecker 积", "张量积(矩阵)" },
}
data["kronecker-factored laplace"] = {
short = "A Laplace approximation to the neural-network posterior in which the per-layer Hessian is approximated by a Kronecker product of two smaller matrices (KFAC), making curvature tractable for large models.",
article = nil,
aliases = { "KFAC Laplace", "K-FAC Laplace approximation", "Kronecker-factored Laplace approximation", "KFLA" },
es = "Aproximación de Laplace al posterior de una red neuronal en la que el Hessiano de cada capa se aproxima como un producto de Kronecker de dos matrices más pequeñas (KFAC), haciendo tratable la curvatura en modelos grandes.",
zh = "对神经网络后验的拉普拉斯近似,其中每层的 Hessian 由两个较小矩阵的 Kronecker 积(KFAC)来近似,使大模型的曲率计算变得可行。",
term_es = "Laplace factorizada por Kronecker",
term_zh = "Kronecker 分解拉普拉斯",
aliases_es = { "aproximación de Laplace KFAC", "Laplace KFAC" },
aliases_zh = { "KFAC 拉普拉斯", "K-FAC 拉普拉斯近似", "Kronecker 因子拉普拉斯" },
}
data["krum"] = {
short = "A Byzantine-robust aggregation rule for federated learning that selects, as the global update, the client gradient whose sum of squared distances to its closest neighbors is smallest, tolerating up to a known number of malicious clients.",
article = nil,
aliases = { "Krum", "Multi-Krum", "Krum aggregation" },
es = "Regla de agregación robusta a fallos bizantinos para aprendizaje federado que selecciona como actualización global el gradiente del cliente cuya suma de distancias al cuadrado a sus vecinos más cercanos es la menor, tolerando hasta un número conocido de clientes maliciosos.",
zh = "一种用于联邦学习的拜占庭鲁棒聚合规则,选取与最近邻梯度的距离平方和最小的客户端梯度作为全局更新,可容忍已知数量的恶意客户端。",
term_es = "Krum",
term_zh = "Krum",
aliases_es = { "Multi-Krum", "agregación Krum" },
aliases_zh = { "Multi-Krum", "Krum 聚合" },
}
data["kto"] = {
short = "A preference fine-tuning objective inspired by Kahneman-Tversky prospect theory that optimizes a model from per-example desirable-or-undesirable labels rather than paired comparisons.",
article = nil,
aliases = { "KTO", "Kahneman-Tversky Optimization", "Kahneman Tversky Optimization", "Kahneman-Tversky optimisation" },
es = "Objetivo de ajuste por preferencias inspirado en la teoría prospectiva de Kahneman y Tversky que optimiza un modelo a partir de etiquetas de deseable o no deseable por ejemplo, en lugar de comparaciones por pares.",
zh = "一种受 Kahneman-Tversky 前景理论启发的偏好微调目标,使用每个样本的期望/不期望标签而非成对比较来优化模型。",
term_es = "KTO",
term_zh = "KTO",
aliases_es = { "KTO", "optimización Kahneman-Tversky" },
aliases_zh = { "KTO", "Kahneman-Tversky 优化", "卡尼曼-特沃斯基优化" },
}
data["kullback-leibler divergence"] = {
short = "An asymmetric measure of the difference between two probability distributions p and q: KL(p‖q) = Σ p(x) log(p(x)/q(x)). It is non-negative, zero iff p = q, and is not a metric (not symmetric, no triangle inequality).",
article = nil,
aliases = { "KL divergence", "Kullback-Leibler divergence", "Kullback–Leibler divergence", "KL", "relative entropy", "information gain", "KL(p||q)" },
es = "Medida asimétrica de la diferencia entre dos distribuciones de probabilidad p y q: KL(p‖q) = Σ p(x) log(p(x)/q(x)). Es no negativa, vale cero si y solo si p = q, y no es una métrica (no es simétrica ni cumple la desigualdad triangular).",
zh = "衡量两个概率分布 p 与 q 差异的非对称度量:KL(p‖q) = Σ p(x) log(p(x)/q(x))。它非负,当且仅当 p = q 时为零,且不是度量(既不对称也不满足三角不等式)。",
term_es = "divergencia de Kullback-Leibler",
term_zh = "KL 散度",
aliases_es = { "divergencia KL", "entropía relativa", "ganancia de información" },
aliases_zh = { "Kullback-Leibler 散度", "相对熵", "信息增益" },
}
data["kv cache"] = {
short = "In autoregressive Transformer inference, a cache that stores the key and value tensors of past tokens for each attention layer so they need not be recomputed when generating subsequent tokens; trades memory for major latency reductions.",
article = nil,
aliases = { "KV cache", "key-value cache", "key/value cache", "KV-cache", "attention KV cache" },
es = "En la inferencia autorregresiva de Transformers, caché que almacena los tensores de claves y valores de los tokens previos en cada capa de atención para evitar recalcularlos al generar los siguientes tokens; intercambia memoria por una gran reducción de latencia.",
zh = "在自回归 Transformer 推理中,用于在每一注意力层缓存历史词元的键和值张量,以避免在生成后续词元时重复计算;以显存换取显著的延迟降低。",
term_es = "caché KV",
term_zh = "KV 缓存",
aliases_es = { "KV cache", "caché de claves y valores", "caché clave-valor" },
aliases_zh = { "KV cache", "键值缓存", "KV-cache", "注意力 KV 缓存" },
}
data["kv cache quantization"] = {
short = "An LLM inference optimization that stores cached key and value tensors in low-precision formats (typically INT8 or INT4) to reduce memory bandwidth and footprint, enabling longer contexts on the same hardware.",
article = nil,
aliases = { "KV cache quantization", "KV-cache quantization", "KV quant", "KV cache compression", "kv quant" },
es = "Optimización de inferencia de LLM que almacena los tensores de claves y valores en caché en formatos de baja precisión (típicamente INT8 o INT4) para reducir el ancho de banda y la huella de memoria, permitiendo contextos más largos en el mismo hardware.",
zh = "一种 LLM 推理优化方法,将缓存的键值张量以低精度格式(通常为 INT8 或 INT4)存储,降低显存带宽和占用,从而在相同硬件上支持更长上下文。",
term_es = "cuantización de la caché KV",
term_zh = "KV 缓存量化",
aliases_es = { "cuantización KV", "compresión de caché KV" },
aliases_zh = { "KV-cache 量化", "KV 量化", "KV 缓存压缩" },
}
data["kws"] = {
short = "Abbreviation for keyword spotting, the task of detecting predefined words or short phrases (such as wake words) in continuous audio under tight latency and resource constraints.",
article = nil,
aliases = { "KWS", "keyword spotting", "wake-word detection" },
es = "Abreviatura de keyword spotting (detección de palabras clave): tarea de detectar palabras o frases cortas predefinidas (como palabras de activación) en audio continuo bajo estrictas restricciones de latencia y recursos.",
zh = "keyword spotting(关键词检出)的缩写,指在严格延迟和资源约束下,于连续音频中检测预定义关键词或短语(如唤醒词)的任务。",
term_es = "KWS",
term_zh = "KWS",
aliases_es = { "detección de palabras clave", "keyword spotting" },
aliases_zh = { "关键词检出", "关键词检测" },
}
data["l-bfgs"] = {
short = "A limited-memory variant of BFGS that stores only a small number of recent gradient and parameter difference pairs to implicitly approximate the inverse Hessian, scaling to high-dimensional problems.",
article = nil,
aliases = { "L-BFGS", "LBFGS", "limited-memory BFGS", "limited memory BFGS" },
es = "Variante de BFGS de memoria limitada que solo almacena unos pocos pares recientes de diferencias de gradientes y parámetros para aproximar implícitamente la Hessiana inversa, escalable a problemas de alta dimensión.",
zh = "BFGS的有限内存版本,仅保存少量近期的梯度差和参数差对,以隐式近似逆海森矩阵,适用于高维优化问题。",
term_es = "L-BFGS",
term_zh = "L-BFGS",
aliases_es = { "BFGS de memoria limitada", "LBFGS" },
aliases_zh = { "有限内存BFGS", "LBFGS" },
}
data["l2gd"] = {
short = "Loopless Local Gradient Descent (L2GD): a federated optimization algorithm that randomly mixes local gradient steps with global aggregation, providing tight convergence guarantees by avoiding the rigid round structure of FedAvg.",
article = nil,
aliases = { "L2GD", "Loopless Local Gradient Descent", "loopless local SGD" },
es = "Descenso de Gradiente Local Sin Bucles (L2GD): algoritmo de optimización federada que combina aleatoriamente pasos de gradiente local con la agregación global, ofreciendo garantías ajustadas de convergencia al evitar la estructura rígida de rondas de FedAvg.",
zh = "无循环本地梯度下降(L2GD):一种联邦优化算法,以随机方式将本地梯度步与全局聚合混合执行,通过避免 FedAvg 的固定轮次结构,获得更紧的收敛保证。",
term_es = "L2GD",
term_zh = "L2GD",
aliases_es = { "Descenso de Gradiente Local Sin Bucles", "SGD local sin bucles" },
aliases_zh = { "无循环本地梯度下降", "无循环本地 SGD" },
}
data["l2o"] = {
short = "Learning to Optimize: a meta-learning paradigm in which the update rule of an optimizer is itself parameterized (typically by a neural network) and trained on a distribution of optimization tasks, replacing handcrafted rules like SGD or Adam.",
article = nil,
aliases = { "L2O", "learning to optimize", "learn-to-optimize", "learning-to-optimize" },
es = "Aprender a optimizar: paradigma de meta-aprendizaje en el que la regla de actualización del optimizador se parametriza (normalmente con una red neuronal) y se entrena sobre una distribución de tareas de optimización, sustituyendo reglas diseñadas a mano como SGD o Adam.",
zh = "学习优化:一种元学习范式,将优化器的更新规则本身参数化(通常用神经网络)并在一组优化任务的分布上训练,从而替代 SGD、Adam 等手工设计的更新规则。",
term_es = "L2O",
term_zh = "L2O",
aliases_es = { "aprender a optimizar", "learning to optimize" },
aliases_zh = { "学习优化", "learning to optimize", "学会优化" },
}
data["label bias"] = {
short = "A form of dataset bias in which the training labels themselves systematically misrepresent ground truth, often because human annotators or historical decision processes encoded prejudice or measurement error.",
article = nil,
aliases = { "labeling bias", "annotation bias on labels" },
es = "Forma de sesgo del conjunto de datos en la que las etiquetas de entrenamiento representan sistemáticamente de manera incorrecta la realidad, a menudo porque los anotadores humanos o los procesos históricos de decisión incorporaron prejuicios o errores de medición.",
zh = "一种数据集偏差,训练标签本身系统性地与真实情况不符,通常源于人类标注者或历史决策过程中嵌入的偏见或测量误差。",
term_es = "sesgo de etiqueta",
term_zh = "标签偏差",
aliases_es = { "sesgo de etiquetado", "sesgo en las etiquetas" },
aliases_zh = { "标注偏差", "标签偏见" },
}
data["label distribution skew"] = {
short = "A form of statistical heterogeneity in federated learning where clients hold the same features and label space but very different label class proportions, causing client drift and degrading FedAvg-style aggregation.",
article = nil,
aliases = { "label skew", "label distribution non-IID", "prior probability shift", "label imbalance across clients" },
es = "Forma de heterogeneidad estadística en aprendizaje federado en la que los clientes comparten las mismas características y espacio de etiquetas, pero presentan proporciones de clases muy distintas, causando deriva de clientes y degradando la agregación tipo FedAvg.",
zh = "联邦学习中的一种统计异质性,各客户端的特征与标签空间相同,但标签类别比例差异很大,导致客户端漂移并削弱 FedAvg 式聚合的效果。",
term_es = "sesgo en la distribución de etiquetas",
term_zh = "标签分布偏斜",
aliases_es = { "sesgo de etiquetas", "distribución de etiquetas no IID", "desbalance de etiquetas entre clientes" },
aliases_zh = { "标签偏斜", "标签分布非独立同分布", "客户端间标签不平衡" },
}
data["label flipping interpretability"] = {
short = "An interpretability methodology that deliberately flips a fraction of training labels and observes how predictions, learned representations, or attributions change, in order to probe model robustness and identify high-leverage examples.",
article = nil,
aliases = { "label-flipping interpretability", "label flip interpretability" },
es = "Metodología de interpretabilidad que invierte deliberadamente una fracción de las etiquetas de entrenamiento y observa cómo cambian las predicciones, las representaciones aprendidas o las atribuciones, con el fin de evaluar la robustez del modelo e identificar ejemplos de alta influencia.",
zh = "一种可解释性方法学,刻意翻转一部分训练标签,观察预测、学习到的表示或归因的变化,以探查模型鲁棒性并识别高影响样本。",
term_es = "interpretabilidad mediante inversión de etiquetas",
term_zh = "标签翻转可解释性",
aliases_es = { "interpretabilidad por flip de etiquetas" },
aliases_zh = { "标签翻转分析", "通过标签翻转的可解释性" },
}
data["label smoothing"] = {
short = "A regularization technique for classification that replaces hard one-hot targets with a softened distribution that places probability ε/(K-1) on incorrect classes and 1-ε on the true class, discouraging over-confident predictions.",
article = nil,
aliases = { "label-smoothing", "smoothed labels", "label smoothing regularization", "LSR" },
es = "Técnica de regularización para clasificación que reemplaza los objetivos one-hot por una distribución suavizada que asigna probabilidad ε/(K-1) a las clases incorrectas y 1-ε a la clase verdadera, evitando predicciones excesivamente confiadas.",
zh = "一种用于分类的正则化技术,将独热目标替换为平滑分布:错误类别上分配概率 ε/(K-1),真实类别上为 1-ε,从而抑制模型作出过度自信的预测。",
term_es = "suavizado de etiquetas",
term_zh = "标签平滑",
aliases_es = { "label smoothing", "regularización por suavizado de etiquetas", "etiquetas suavizadas" },
aliases_zh = { "标签平滑正则化", "label smoothing", "LSR" },
}
data["label smoothing for asr"] = {
short = "A regularization technique applied to attention-based speech recognition models that replaces one-hot target distributions with a mixture of the true label and a uniform (or unigram) distribution, reducing over-confidence and improving generalization.",
article = nil,
aliases = { "label smoothing in ASR", "label smoothing (ASR)", "ASR label smoothing" },
es = "Técnica de regularización aplicada a modelos de reconocimiento del habla basados en atención que sustituye las distribuciones objetivo one-hot por una mezcla entre la etiqueta verdadera y una distribución uniforme (o unigrama), reduciendo la sobreconfianza y mejorando la generalización.",
zh = "应用于基于注意力的语音识别模型的一种正则化技术:用真实标签与均匀分布(或一元语法分布)的混合替换 one-hot 目标分布,以降低模型的过度自信并改善泛化。",
term_es = "suavizado de etiquetas para ASR",
term_zh = "ASR 中的标签平滑",
aliases_es = { "label smoothing en ASR", "label smoothing para ASR" },
aliases_zh = { "语音识别标签平滑", "ASR 标签平滑" },
}
data["label-flipping attack"] = {
short = "A data-poisoning attack in which malicious participants flip the labels of a subset of their training samples (often within a target class pair) to corrupt the learned model, applicable to centralized and federated learning.",
article = nil,
aliases = { "label flipping", "label flipping attack", "label-flipping poisoning" },
es = "Ataque de envenenamiento de datos en el que participantes maliciosos invierten las etiquetas de un subconjunto de sus muestras de entrenamiento (a menudo entre un par de clases objetivo) para corromper el modelo aprendido; aplicable al aprendizaje centralizado y federado.",
zh = "一种数据投毒攻击,恶意参与者将其训练样本中(通常是某对目标类别之间的)一部分样本的标签翻转,以破坏所学模型;适用于集中式和联邦学习。",
term_es = "ataque de inversión de etiquetas",
term_zh = "标签翻转攻击",
aliases_es = { "inversión de etiquetas", "envenenamiento por inversión de etiquetas" },
aliases_zh = { "标签翻转", "标签翻转投毒" },
}
data["label-free quantification"] = {
short = "Mass-spectrometry-based proteomics strategy that estimates protein abundance from MS1 precursor ion intensities or spectral counts of peptides without using stable-isotope labels.",
article = nil,
aliases = { "LFQ", "label-free proteomics", "label free quantification", "label-free MS quantification" },
es = "Estrategia proteómica basada en espectrometría de masas que estima la abundancia de proteínas a partir de las intensidades de iones precursores en MS1 o de los conteos espectrales de péptidos, sin emplear marcadores isotópicos estables.",
zh = "基于质谱的蛋白质组学策略,通过肽段的 MS1 母离子强度或谱图计数估计蛋白质丰度,不使用稳定同位素标记。",
term_es = "cuantificación sin marcaje",
term_zh = "无标记定量",
aliases_es = { "LFQ", "proteómica sin marcaje", "cuantificación libre de marcaje" },
aliases_zh = { "LFQ", "无标定量", "无标签定量" },
}
data["ladder of causation"] = {
short = "Pearl's three-rung hierarchy of causal reasoning: association (seeing), intervention (doing), and counterfactuals (imagining). Each rung requires strictly more information than the one below and cannot be answered with tools from a lower rung.",
article = nil,
aliases = { "Ladder of Causation", "causal hierarchy", "Pearl's ladder", "Pearl hierarchy", "three-layer causal hierarchy", "PCH" },
es = "Jerarquía de razonamiento causal de Pearl con tres niveles: asociación (ver), intervención (hacer) y contrafactuales (imaginar). Cada nivel requiere estrictamente más información que el anterior y no puede responderse con herramientas del nivel inferior.",
zh = "Pearl 提出的因果推理三层次结构:关联(看)、干预(做)和反事实(想象)。每一层所需的信息严格多于下一层,且无法用更低层次的工具回答。",
term_es = "escalera de la causalidad",
term_zh = "因果之梯",
aliases_es = { "jerarquía causal de Pearl", "jerarquía de Pearl", "PCH" },
aliases_zh = { "Pearl 因果层次", "因果层次结构", "PCH" },
}
data["laion"] = {
short = "Large-scale Artificial Intelligence Open Network: a German non-profit that releases freely available large-scale image-text datasets (LAION-400M, LAION-5B, LAION-Aesthetics) widely used to pretrain CLIP-style and text-to-image diffusion models such as Stable Diffusion.",
article = nil,
aliases = { "LAION", "Large-scale Artificial Intelligence Open Network", "LAION e.V." },
es = "Large-scale Artificial Intelligence Open Network: organización sin fines de lucro alemana que publica datasets de imagen-texto a gran escala libremente disponibles (LAION-400M, LAION-5B, LAION-Aesthetics) ampliamente usados para preentrenar modelos tipo CLIP y modelos de difusión texto-a-imagen como Stable Diffusion.",
zh = "Large-scale Artificial Intelligence Open Network:一家德国非营利组织,公开发布 LAION-400M、LAION-5B、LAION-Aesthetics 等大规模图文数据集,广泛用于预训练 CLIP 类模型以及 Stable Diffusion 等文生图扩散模型。",
term_es = "LAION",
term_zh = "LAION",
aliases_es = { "Large-scale Artificial Intelligence Open Network", "LAION e.V." },
aliases_zh = { "Large-scale Artificial Intelligence Open Network", "LAION 协会" },
}
data["laion-2b"] = {
short = "The English-language subset of LAION-5B, containing roughly 2.32 billion image-text pairs filtered for English captions; the de facto pretraining corpus for many open-weight CLIP and text-to-image diffusion models including Stable Diffusion.",
article = nil,
aliases = { "LAION-2B", "LAION 2B", "LAION-2B-en", "laion2b-en", "LAION-2B-en-cleaned" },
es = "Subconjunto en inglés de LAION-5B con aproximadamente 2,32 mil millones de pares imagen-texto filtrados por descripciones en inglés; corpus de preentrenamiento de facto para muchos modelos CLIP de pesos abiertos y modelos de difusión texto-a-imagen como Stable Diffusion.",
zh = "LAION-5B 的英文子集,约含 23.2 亿个英文图文对,是 Stable Diffusion 等众多开放权重 CLIP 与文生图扩散模型事实上的预训练语料。",
term_es = "LAION-2B",
term_zh = "LAION-2B",
aliases_es = { "LAION 2B", "LAION-2B-en", "laion2b-en" },
aliases_zh = { "LAION 2B", "LAION-2B-en", "laion2b-en" },
}
data["laion-400m"] = {
short = "An openly released dataset of about 400 million image-text pairs collected from Common Crawl and filtered using a CLIP similarity threshold; the first large-scale public corpus that enabled community reproductions of CLIP and early open text-to-image models.",
article = nil,
aliases = { "LAION-400M", "LAION 400M", "laion400m", "LAION-400-million" },
es = "Dataset publicado abiertamente con cerca de 400 millones de pares imagen-texto recolectados de Common Crawl y filtrados con un umbral de similitud CLIP; primer corpus público a gran escala que permitió reproducciones comunitarias de CLIP y los primeros modelos abiertos texto-a-imagen.",
zh = "公开发布的约 4 亿条图文对数据集,源自 Common Crawl,使用 CLIP 相似度阈值进行过滤,是首个能够支撑社区复现 CLIP 及早期开放文生图模型的大规模公开语料。",
term_es = "LAION-400M",
term_zh = "LAION-400M",
aliases_es = { "LAION 400M", "laion400m" },
aliases_zh = { "LAION 400M", "laion400m" },
}
data["laion-5b"] = {
short = "An open dataset of approximately 5.85 billion CLIP-filtered image-text pairs spanning multiple languages, comprising the LAION-2B-en English subset, a multilingual subset, and an unknown-language subset; widely used to pretrain large vision-language and text-to-image diffusion models.",
article = nil,
aliases = { "LAION-5B", "LAION 5B", "laion5b" },
es = "Dataset abierto de aproximadamente 5,85 mil millones de pares imagen-texto filtrados con CLIP en múltiples idiomas, compuesto por el subconjunto inglés LAION-2B-en, un subconjunto multilingüe y otro de idioma desconocido; ampliamente usado para preentrenar modelos visión-lenguaje y de difusión texto-a-imagen a gran escala.",
zh = "包含约 58.5 亿条经过 CLIP 过滤的多语种图文对的开放数据集,由英文子集 LAION-2B-en、多语种子集和未知语种子集组成,被广泛用于预训练大型视觉-语言模型和文生图扩散模型。",
term_es = "LAION-5B",
term_zh = "LAION-5B",
aliases_es = { "LAION 5B", "laion5b" },
aliases_zh = { "LAION 5B", "laion5b" },
}
data["laion-aesthetics"] = {
short = "A series of LAION subsets filtered using a learned aesthetic predictor that scores images for visual quality; the LAION-Aesthetics V2 5+ split was used to fine-tune Stable Diffusion v1, biasing the model toward more visually pleasing outputs.",
article = nil,
aliases = { "LAION-Aesthetics", "LAION Aesthetics", "LAION-Aesthetics V2", "LAION-Aesthetics-v2", "laion aesthetics v2 5+" },
es = "Serie de subconjuntos de LAION filtrados con un predictor estético aprendido que asigna puntuaciones de calidad visual a las imágenes; el subconjunto LAION-Aesthetics V2 5+ se utilizó para ajustar Stable Diffusion v1, sesgando el modelo hacia salidas visualmente más agradables.",
zh = "使用学习得到的美学预测器对图像评分而过滤出的 LAION 子集系列;其中 LAION-Aesthetics V2 5+ 被用于微调 Stable Diffusion v1,使模型偏向生成视觉更悦目的图像。",
term_es = "LAION-Aesthetics",
term_zh = "LAION-Aesthetics",
aliases_es = { "LAION Aesthetics", "LAION-Aesthetics V2", "laion aesthetics v2 5+" },
aliases_zh = { "LAION Aesthetics", "LAION-Aesthetics V2", "LAION 美学子集" },
}
data["laion-coco"] = {
short = "A LAION subset of about 600 million web images for which BLIP-generated synthetic captions in a COCO-like style replace the original alt-text, providing higher-quality training captions for vision-language pretraining.",
article = nil,
aliases = { "LAION-COCO", "LAION COCO", "laion-coco-600m" },
es = "Subconjunto de LAION con cerca de 600 millones de imágenes web para las cuales descripciones sintéticas generadas por BLIP, en un estilo similar a COCO, sustituyen al texto alternativo original, proporcionando descripciones de mayor calidad para el preentrenamiento visión-lenguaje.",
zh = "约 6 亿张网页图像的 LAION 子集,用 BLIP 生成的、风格类似 COCO 的合成字幕替代原有 alt 文本,为视觉-语言预训练提供更高质量的训练描述。",
term_es = "LAION-COCO",
term_zh = "LAION-COCO",
aliases_es = { "LAION COCO", "laion-coco-600m" },
aliases_zh = { "LAION COCO", "laion-coco-600m" },
}
data["lamb optimizer"] = {
short = "Layer-wise Adaptive Moments optimizer for Batch training: combines LARS-style per-layer rate scaling with Adam-style adaptive moments, enabling BERT pretraining with batch sizes in the tens of thousands.",
article = nil,
aliases = { "LAMB", "layer-wise adaptive moments" },
es = "Layer-wise Adaptive Moments optimizer for Batch training: combina el escalado por capa de LARS con los momentos adaptativos de Adam, permitiendo el preentrenamiento de BERT con tamaños de lote de decenas de miles.",
zh = "分层自适应矩批量训练优化器:将 LARS 风格的逐层速率缩放与 Adam 风格的自适应矩相结合,使 BERT 能够在数万级批量下进行预训练。",
term_es = "LAMB",
term_zh = "LAMB",
aliases_es = { "momentos adaptativos por capa" },
aliases_zh = { "LAMB 优化器", "分层自适应矩" },
}
data["lambda dcs"] = {
short = "Lambda Dependency-based Compositional Semantics (Liang, 2013): a tree-structured logical form for semantic parsing in which compositional queries over a knowledge base are expressed with implicit lambda calculus and unary/binary predicate composition.",
article = nil,
aliases = { "λ-DCS", "Lambda DCS", "lambda dependency-based compositional semantics" },
es = "Lambda Dependency-based Compositional Semantics (Liang, 2013): forma lógica con estructura de árbol para análisis semántico, en la que las consultas composicionales sobre una base de conocimiento se expresan mediante cálculo lambda implícito y composición de predicados unarios y binarios.",
zh = "Lambda Dependency-based Compositional Semantics(Liang,2013):一种树结构的逻辑形式,用于语义解析,将面向知识库的组合式查询以隐式 lambda 演算和一元/二元谓词组合的方式表示。",
term_es = "lambda DCS",
term_zh = "lambda DCS",
aliases_es = { "λ-DCS" },
aliases_zh = { "λ-DCS", "Lambda DCS" },
}
data["lammps"] = {
short = "Large-scale Atomic/Molecular Massively Parallel Simulator: an open-source classical molecular dynamics code from Sandia National Laboratories supporting interatomic potentials from soft matter to materials science, with strong MPI scaling.",
article = nil,
aliases = { "LAMMPS", "Large-scale Atomic/Molecular Massively Parallel Simulator" },
es = "Simulador Atómico/Molecular Masivamente Paralelo a Gran Escala: código de dinámica molecular clásica de código abierto de Sandia National Laboratories que admite potenciales interatómicos desde materia blanda hasta ciencia de materiales, con escalado MPI sólido.",
zh = "大规模原子/分子并行模拟器:由 Sandia 国家实验室开发的开源经典分子动力学软件,支持从软物质到材料科学的多种原子间势函数,具有出色的 MPI 并行扩展能力。",
term_es = "LAMMPS",
term_zh = "LAMMPS",
aliases_es = { "LAMMPS" },
aliases_zh = { "LAMMPS", "大规模原子分子并行模拟器" },
}
data["langchain"] = {
short = "An open-source framework for building applications around large language models, providing standardized abstractions for chains, prompts, retrieval, agents, tools, and memory across many providers.",
article = nil,
aliases = { "LangChain", "langchain framework" },
es = "Framework de código abierto para construir aplicaciones sobre modelos de lenguaje grandes, que proporciona abstracciones estandarizadas para cadenas, prompts, recuperación, agentes, herramientas y memoria en múltiples proveedores.",
zh = "用于围绕大语言模型构建应用的开源框架,提供链、提示、检索、智能体、工具和记忆等跨多家供应商的标准化抽象。",
term_es = "LangChain",
term_zh = "LangChain",
aliases_es = { "framework LangChain" },
aliases_zh = { "LangChain 框架" },
}
data["langevin dynamics"] = {
short = "A stochastic differential equation that combines gradient descent on the negative log posterior with injected Gaussian noise; its discretization yields MCMC samplers such as SGLD that target the Bayesian posterior.",
article = nil,
aliases = { "Langevin diffusion", "Langevin Monte Carlo", "LMC", "Langevin MCMC" },
es = "Ecuación diferencial estocástica que combina el descenso de gradiente sobre el log-posterior negativo con ruido gaussiano inyectado; su discretización da lugar a muestreadores MCMC como SGLD que apuntan al posterior bayesiano.",
zh = "将对负对数后验的梯度下降与注入的高斯噪声相结合的随机微分方程,其离散化形式(如 SGLD)可作为以贝叶斯后验为目标的 MCMC 采样器。",
term_es = "dinámica de Langevin",
term_zh = "朗之万动力学",
aliases_es = { "difusión de Langevin", "Monte Carlo de Langevin", "MCMC de Langevin" },
aliases_zh = { "Langevin 扩散", "朗之万蒙特卡罗", "Langevin MCMC" },
}
data["langgraph"] = {
short = "A library from the LangChain ecosystem for building stateful, multi-actor LLM applications as directed graphs of nodes and edges, with first-class support for cycles, persistence, and human-in-the-loop control.",
article = nil,
aliases = { "LangGraph", "langgraph library" },
es = "Biblioteca del ecosistema LangChain para construir aplicaciones LLM con estado y múltiples actores como grafos dirigidos de nodos y aristas, con soporte de primera clase para ciclos, persistencia y control con humano en el bucle.",
zh = "LangChain 生态中的库,用于将有状态、多智能体的 LLM 应用构建为节点和边组成的有向图,原生支持循环、持久化以及人类在环控制。",
term_es = "LangGraph",
term_zh = "LangGraph",
aliases_es = { "biblioteca LangGraph" },
aliases_zh = { "LangGraph 库" },
}
data["language identification"] = {
short = "The task of automatically determining the language being spoken in an audio segment, typically using acoustic and phonotactic features or end-to-end neural classifiers.",
article = nil,
aliases = { "LID", "spoken language identification", "spoken language ID", "SLID" },
es = "Tarea de determinar automáticamente el idioma hablado en un segmento de audio, normalmente mediante características acústicas y fonotácticas o clasificadores neuronales de extremo a extremo.",
zh = "自动判断音频片段中所讲语言的任务,通常使用声学和音位组合特征或端到端神经分类器。",
term_es = "identificación de idioma",
term_zh = "语种识别",
aliases_es = { "LID", "identificación del idioma hablado", "identificación de lengua hablada" },
aliases_zh = { "LID", "口语语种识别", "语言识别" },
}
data["language interpretability tool"] = {
short = "An open-source platform from Google for interactive visualization, probing, and counterfactual analysis of NLP and other structured-data models, supporting saliency, attention, embedding projections, and model comparison in a browser UI.",
article = nil,
aliases = { "LIT", "Language Interpretability Tool", "Google LIT" },
es = "Plataforma de código abierto desarrollada por Google para visualizar, sondear y analizar contrafactualmente de forma interactiva modelos de PLN y otros modelos sobre datos estructurados, con soporte para saliencia, atención, proyecciones de embeddings y comparación de modelos en una interfaz web.",
zh = "由Google开源的可视化平台,用于对NLP及其他结构化数据模型进行交互式探查与反事实分析,在浏览器界面中支持显著性、注意力、嵌入投影以及模型比较等功能。",
term_es = "Language Interpretability Tool",
term_zh = "语言可解释性工具",
aliases_es = { "LIT", "Herramienta de Interpretabilidad de Lenguaje" },
aliases_zh = { "LIT", "Language Interpretability Tool" },
}
data["language model"] = {
short = "A probabilistic model over sequences of tokens that assigns a likelihood to each sequence, typically by factorizing it as a product of conditional probabilities. Modern neural language models parameterize these probabilities with deep networks.",
article = nil,
aliases = { "LM", "language models", "neural language model", "statistical language model" },
es = "Modelo probabilístico sobre secuencias de tokens que asigna una verosimilitud a cada secuencia, típicamente factorizándola como un producto de probabilidades condicionales. Los modelos de lenguaje neuronales modernos parametrizan estas probabilidades con redes profundas.",
zh = "一种针对词元序列的概率模型,为每个序列赋予似然度,通常将其因子分解为条件概率的乘积。现代神经语言模型用深度网络参数化这些概率。",
term_es = "modelo de lenguaje",
term_zh = "语言模型",
aliases_es = { "LM", "modelo del lenguaje", "modelo de lenguaje neuronal" },
aliases_zh = { "LM", "神经语言模型", "统计语言模型" },
}
data["languagebind"] = {
short = "A multimodal alignment method that uses language as a binding modality, training separate encoders for video, infrared, depth, audio, and other modalities to align with a frozen language-image encoder so that all modalities share a single text-anchored embedding space.",
article = nil,
aliases = { "LanguageBind", "Language-Bind" },
es = "Método de alineación multimodal que usa el lenguaje como modalidad ligadora: entrena codificadores separados para video, infrarrojo, profundidad, audio y otras modalidades de modo que se alineen con un codificador lenguaje-imagen congelado, logrando que todas las modalidades compartan un mismo espacio de embeddings anclado al texto.",
zh = "一种以语言为绑定模态的多模态对齐方法:为视频、红外、深度、音频等模态分别训练独立编码器,使其与冻结的语言-图像编码器对齐,从而让所有模态共享同一以文本为锚点的嵌入空间。",
term_es = "LanguageBind",
term_zh = "LanguageBind",
aliases_es = { "Language-Bind" },
aliases_zh = { "Language-Bind" },
}
data["laplace approximation"] = {
short = "A Gaussian approximation to a posterior distribution centered at a mode (typically the MAP estimate) with covariance equal to the inverse Hessian of the negative log-posterior at that mode.",
article = nil,
aliases = { "Laplace's method", "Laplace's approximation", "Gaussian Laplace approximation" },
es = "Aproximación gaussiana a una distribución posterior centrada en un modo (típicamente la estimación MAP) cuya covarianza es la inversa del Hessiano del log-posterior negativo evaluado en ese modo.",
zh = "以后验众数(通常为 MAP 估计)为中心、协方差为该点处负对数后验 Hessian 之逆的高斯后验近似方法。",
term_es = "aproximación de Laplace",
term_zh = "拉普拉斯近似",
aliases_es = { "método de Laplace" },
aliases_zh = { "拉普拉斯方法", "高斯拉普拉斯近似" },
}
data["laplace bridge"] = {
short = "A closed-form mapping between a Gaussian distribution over softmax logits and a Dirichlet distribution over the corresponding probability simplex, allowing analytic moments of softmax-Gaussian outputs.",
article = nil,
aliases = { "Laplace bridge approximation", "Gaussian-to-Dirichlet bridge" },
es = "Mapeo en forma cerrada entre una distribución gaussiana sobre logits softmax y una distribución de Dirichlet sobre el simplex de probabilidad correspondiente, permitiendo momentos analíticos de salidas softmax-gaussianas.",
zh = "在 softmax 对数几率上的高斯分布与对应概率单纯形上的 Dirichlet 分布之间的闭式映射,可解析地得到 softmax-高斯输出的矩。",
term_es = "puente de Laplace",
term_zh = "拉普拉斯桥",
aliases_es = { "aproximación del puente de Laplace" },
aliases_zh = { "拉普拉斯桥近似", "高斯到 Dirichlet 桥" },
}
data["laplace mechanism"] = {
short = "A differential privacy mechanism that adds noise drawn from a Laplace distribution scaled to the L1 sensitivity of a query divided by the privacy budget epsilon, achieving pure (epsilon, 0)-differential privacy.",
article = nil,
aliases = { "Laplace mechanism", "Laplace noise mechanism", "Laplace DP mechanism" },
es = "Mecanismo de privacidad diferencial que agrega ruido extraído de una distribución de Laplace con escala igual a la sensibilidad L1 de la consulta dividida por el presupuesto de privacidad epsilon, logrando privacidad diferencial pura (epsilon, 0).",
zh = "一种差分隐私机制,从尺度等于查询 L1 敏感度除以隐私预算 epsilon 的拉普拉斯分布中抽取噪声并添加到输出中,实现纯 (epsilon, 0)-差分隐私。",
term_es = "mecanismo de Laplace",
term_zh = "拉普拉斯机制",
aliases_es = { "mecanismo de ruido de Laplace", "mecanismo DP de Laplace" },
aliases_zh = { "拉普拉斯噪声机制", "拉普拉斯差分隐私机制" },
}
data["laplace prior"] = {
short = "A heavy-tailed prior given by the double-exponential (Laplace) distribution; its negative log-density is proportional to the L1 norm, inducing sparsity in MAP estimates.",
article = nil,
aliases = { "double exponential prior", "L1 prior", "Bayesian Lasso prior" },
es = "Prior de colas pesadas dado por la distribución exponencial doble (Laplace); su log-densidad negativa es proporcional a la norma L1, induciendo dispersión en las estimaciones MAP.",
zh = "由双指数(拉普拉斯)分布给出的重尾先验,其负对数密度与 L1 范数成正比,使 MAP 估计具有稀疏性。",
term_es = "prior de Laplace",
term_zh = "拉普拉斯先验",
aliases_es = { "prior exponencial doble", "prior L1", "prior del Lasso bayesiano" },
aliases_zh = { "双指数先验", "L1 先验", "贝叶斯 Lasso 先验" },
}
data["large reconstruction model"] = {
short = "A class of feed-forward neural networks that predict a 3D representation (typically a triplane or NeRF) directly from one or a few input images in a single forward pass, without per-scene optimization.",
article = nil,
aliases = { "LRM", "large reconstruction models", "Large Reconstruction Model" },
es = "Clase de redes neuronales feed-forward que predicen una representación 3D (típicamente un triplano o NeRF) directamente a partir de una o pocas imágenes de entrada en una sola pasada hacia delante, sin optimización por escena.",
zh = "一类前馈神经网络,从单张或少量输入图像通过一次前向传播直接预测 3D 表示(通常为三平面或 NeRF),无需针对每个场景进行优化。",
term_es = "modelo de reconstrucción grande",
term_zh = "大型重建模型",
aliases_es = { "LRM", "modelos de reconstrucción grandes" },
aliases_zh = { "LRM", "Large Reconstruction Model" },
}
data["lars optimizer"] = {
short = "Layer-wise Adaptive Rate Scaling: an optimizer that computes a separate learning rate for each layer based on the ratio of weight norm to gradient norm, enabling stable training with very large batch sizes.",
article = nil,
aliases = { "LARS", "layer-wise adaptive rate scaling" },
es = "Layer-wise Adaptive Rate Scaling: optimizador que calcula una tasa de aprendizaje separada para cada capa basada en la razón entre la norma de los pesos y la norma del gradiente, permitiendo un entrenamiento estable con tamaños de lote muy grandes.",
zh = "分层自适应速率缩放:一种为每层根据权重范数与梯度范数之比单独计算学习率的优化器,能够在极大批量下稳定训练。",
term_es = "LARS",
term_zh = "LARS",
aliases_es = { "escalado adaptativo de tasa por capa" },
aliases_zh = { "LARS 优化器", "分层自适应速率缩放" },
}
data["last-layer bayesian"] = {
short = "An approximate Bayesian neural network in which only the final (output) layer's weights are treated probabilistically while earlier layers remain deterministic, yielding a tractable posterior with calibrated uncertainty.",
article = nil,
aliases = { "last-layer Bayesian neural network", "last layer Bayesian", "LL-BNN", "feature-fixed Bayesian network" },
es = "Red neuronal bayesiana aproximada en la que solo los pesos de la capa final se tratan de forma probabilística mientras que las capas anteriores permanecen determinísticas, produciendo un posterior tratable con incertidumbre calibrada.",
zh = "一种近似贝叶斯神经网络,仅对最后一层(输出层)的权重做概率化处理,前面各层保持确定性,从而得到可处理的后验和校准的不确定性。",
term_es = "bayesiano de última capa",
term_zh = "末层贝叶斯",
aliases_es = { "red bayesiana de última capa", "BNN de última capa" },
aliases_zh = { "最后一层贝叶斯", "末层贝叶斯神经网络", "LL-BNN" },
}
data["last-layer laplace"] = {
short = "A Laplace approximation applied only to the weights of the last layer of a neural network, providing efficient post-hoc Bayesian uncertainty without retraining the feature extractor.",
article = nil,
aliases = { "last layer Laplace", "LLLA", "last-layer Laplace approximation" },
es = "Aproximación de Laplace aplicada solo a los pesos de la última capa de una red neuronal, proporcionando incertidumbre bayesiana post-hoc eficiente sin reentrenar el extractor de características.",
zh = "仅对神经网络最后一层权重应用拉普拉斯近似的方法,可在不重训特征提取器的情况下高效地获得事后贝叶斯不确定性。",
term_es = "Laplace de última capa",
term_zh = "末层拉普拉斯",
aliases_es = { "aproximación de Laplace de última capa", "LLLA" },
aliases_zh = { "最后一层拉普拉斯", "末层拉普拉斯近似", "LLLA" },
}
data["late chunking"] = {
short = "An embedding strategy in which the full document is encoded by a long-context embedding model first, and pooled chunk embeddings are derived from the contextualized token representations afterwards.",
article = nil,
aliases = { "late-chunking", "late chunking embedding", "contextual chunk embeddings" },
es = "Estrategia de embeddings en la que el documento completo se codifica primero con un modelo de embeddings de contexto largo, y los embeddings agrupados por chunk se derivan después a partir de las representaciones de tokens contextualizadas.",
zh = "一种嵌入策略:先用长上下文嵌入模型对整篇文档进行编码,再从上下文化的词元表示中聚合得到各分块的嵌入向量。",
term_es = "late chunking",
term_zh = "后期分块",
aliases_es = { "fragmentación tardía", "embeddings con late chunking" },
aliases_zh = { "late chunking", "延迟分块", "上下文分块嵌入" },
}
data["late fusion"] = {
short = "A multimodal fusion strategy in which each modality is processed independently by its own encoder and the resulting unimodal predictions or high-level representations are combined only at or near the output, contrasting with early fusion of raw inputs.",
article = nil,
aliases = { "late fusion strategy", "decision-level fusion", "output-level fusion" },
es = "Estrategia de fusión multimodal en la que cada modalidad se procesa de forma independiente con su propio codificador y las predicciones unimodales o representaciones de alto nivel se combinan solo en la salida o cerca de ella, en contraste con la fusión temprana de entradas crudas.",
zh = "一种多模态融合策略:每个模态由各自独立的编码器单独处理,仅在输出端或接近输出端将各单模态预测或高层表示进行组合,与对原始输入进行早期融合的方式相对。",
term_es = "fusión tardía",
term_zh = "晚期融合",
aliases_es = { "fusión a nivel de decisión", "fusión a nivel de salida", "late fusion" },
aliases_zh = { "决策级融合", "输出级融合", "late fusion" },
}
data["latency-aware nas"] = {
short = "Neural architecture search that explicitly incorporates inference latency on a target hardware device — usually estimated from a per-operation lookup table or a learned predictor — as an objective or constraint alongside accuracy.",
article = nil,
aliases = { "latency aware NAS", "hardware-aware NAS", "latency-constrained NAS", "latency aware neural architecture search" },
es = "Búsqueda de arquitecturas neuronales que incorpora explícitamente la latencia de inferencia en un dispositivo objetivo —normalmente estimada mediante una tabla de búsqueda por operación o un predictor aprendido— como objetivo o restricción junto con la precisión.",
zh = "在目标硬件上将推理延迟(通常通过逐算子查找表或学习得到的预测器估计)作为目标或约束,与精度共同纳入搜索的神经架构搜索方法。",
term_es = "NAS con conciencia de latencia",
term_zh = "延迟感知NAS",
aliases_es = { "NAS consciente de latencia", "NAS con conciencia de hardware", "NAS con restricción de latencia" },
aliases_zh = { "硬件感知NAS", "延迟约束NAS", "面向延迟的神经架构搜索" },
}
data["latent audio diffusion"] = {
short = "A class of audio generative models that apply diffusion in a learned compressed latent space (often produced by a neural audio autoencoder) instead of raw waveforms or spectrograms, enabling efficient high-quality synthesis.",
article = nil,
aliases = { "latent diffusion for audio", "audio latent diffusion", "latent audio diffusion model" },
es = "Familia de modelos generativos de audio que aplican difusión en un espacio latente comprimido aprendido (a menudo producido por un autoencoder neuronal de audio), en lugar de sobre formas de onda o espectrogramas crudos, lo que permite una síntesis eficiente y de alta calidad.",
zh = "一类音频生成模型,在学到的压缩潜在空间(通常由神经音频自编码器产生)中执行扩散,而非直接在原始波形或频谱图上操作,从而实现高效高质量的合成。",
term_es = "difusión latente de audio",
term_zh = "潜在音频扩散",
aliases_es = { "difusión latente para audio", "modelo de difusión latente de audio" },
aliases_zh = { "音频潜在扩散", "潜空间音频扩散" },
}
data["latent confounder"] = {
short = "An unobserved common cause of two or more variables that induces non-causal association between them. Failure to adjust for a latent confounder biases observational estimates of causal effects.",
article = nil,
aliases = { "hidden confounder", "unobserved confounder", "unmeasured confounder", "latent common cause", "lurking variable" },
es = "Causa común no observada de dos o más variables que induce asociación no causal entre ellas. No ajustar por un confusor latente sesga las estimaciones observacionales del efecto causal.",
zh = "两个或多个变量未被观测到的共同原因,会在它们之间引入非因果关联。未对潜在混杂变量进行调整会使观察性研究对因果效应的估计产生偏差。",
term_es = "confusor latente",
term_zh = "潜在混杂变量",
aliases_es = { "confusor no observado", "confusor oculto", "variable de confusión latente" },
aliases_zh = { "未观测混杂", "隐藏混杂", "潜在共同原因" },
}
data["latent consistency model"] = {
short = "A diffusion-derived generative model that performs sampling in latent space using a consistency objective, producing high-quality images in 1-4 steps rather than dozens of denoising iterations.",
article = nil,
aliases = { "LCM", "latent consistency models", "Latent Consistency Model" },
es = "Modelo generativo derivado de la difusión que realiza el muestreo en el espacio latente con un objetivo de consistencia, produciendo imágenes de alta calidad en 1-4 pasos en lugar de decenas de iteraciones de denoising.",
zh = "一种由扩散模型衍生的生成模型,在潜空间中以一致性目标进行采样,可在 1-4 步内生成高质量图像,而无需数十步去噪迭代。",
term_es = "modelo de consistencia latente",
term_zh = "潜在一致性模型",
aliases_es = { "LCM", "modelos de consistencia latente" },
aliases_zh = { "LCM", "潜空间一致性模型" },
}
data["latent diffusion model"] = {
short = "A diffusion model that operates in the low-dimensional latent space of a pretrained autoencoder rather than directly on pixels, reducing computational cost while preserving generation quality. Stable Diffusion is the canonical example.",
article = nil,
aliases = { "LDM", "latent diffusion", "latent diffusion models" },
es = "Modelo de difusión que opera en el espacio latente de baja dimensión de un autoencoder preentrenado en lugar de directamente sobre píxeles, reduciendo el coste computacional mientras preserva la calidad de generación. Stable Diffusion es el ejemplo canónico.",
zh = "在预训练自编码器的低维潜在空间中而非直接在像素上运行的扩散模型,在保持生成质量的同时降低计算成本。Stable Diffusion 是其典型代表。",
term_es = "modelo de difusión latente",
term_zh = "潜在扩散模型",
aliases_es = { "LDM", "difusión latente" },
aliases_zh = { "LDM", "latent diffusion model", "潜空间扩散模型" },
}
data["latent dirichlet allocation"] = {
short = "A generative probabilistic topic model in which each document is a mixture of latent topics drawn from a Dirichlet prior, and each topic is a distribution over words. A standard baseline for topic modeling.",
article = nil,
aliases = { "LDA", "Latent Dirichlet Allocation", "lda topic model" },
es = "Modelo probabilístico generativo de temas en el que cada documento es una mezcla de temas latentes extraídos de una distribución a priori Dirichlet, y cada tema es una distribución sobre palabras. Es una referencia estándar en el modelado de temas.",
zh = "一种生成式概率主题模型:每篇文档是从 Dirichlet 先验中抽取的潜在主题混合,每个主题是词的分布。是主题建模的经典基线方法。",
term_es = "asignación latente de Dirichlet",
term_zh = "潜在狄利克雷分配",
aliases_es = { "LDA", "Latent Dirichlet Allocation", "Asignación Latente de Dirichlet" },
aliases_zh = { "LDA", "隐狄利克雷分配", "潜在迪利克雷分布" },
}
data["latent space"] = {
short = "A learned, typically lower-dimensional space in which data is represented by abstract features; semantically related items lie close together.",
article = nil,
aliases = { "latent representation", "feature space" },
es = "Espacio aprendido, típicamente de menor dimensión, en el que los datos se representan mediante características abstractas; los elementos semánticamente relacionados quedan cerca entre sí.",
zh = "一个学习到的(通常是低维的)空间,其中数据通过抽象特征表示;语义相关的项在该空间中彼此接近。",
term_es = "espacio latente",
term_zh = "潜在空间",
aliases_es = { "representación latente", "espacio de características" },
aliases_zh = { "潜在表示", "特征空间" },
}
data["latent variable neural process"] = {
short = "A variant of neural processes that introduces a global latent variable summarizing the context set, capturing functional uncertainty and producing coherent samples across target inputs.",
article = nil,
aliases = { "LNP", "latent NP", "neural process with latent variable" },
es = "Variante de los neural processes que introduce una variable latente global que resume el conjunto de contexto, capturando la incertidumbre funcional y produciendo muestras coherentes entre las entradas objetivo.",
zh = "神经过程的一种变体,引入概括上下文集的全局潜变量,从而捕捉函数级不确定性并在目标输入间生成一致的样本。",
term_es = "neural process con variable latente",
term_zh = "潜变量神经过程",
aliases_es = { "LNP", "NP latente" },
aliases_zh = { "LNP", "潜在神经过程", "带潜变量的神经过程" },
}
data["law of large numbers"] = {
short = "A theorem stating that the sample mean of a sequence of independent, identically distributed random variables with finite mean converges to the expected value as the sample size grows; the weak form gives convergence in probability and the strong form gives almost-sure convergence.",
article = nil,
aliases = { "LLN", "weak law of large numbers", "strong law of large numbers", "WLLN", "SLLN" },
es = "Teorema que establece que la media muestral de una sucesión de variables aleatorias independientes e idénticamente distribuidas con media finita converge al valor esperado a medida que crece el tamaño muestral; la versión débil da convergencia en probabilidad y la fuerte convergencia casi segura.",
zh = "一类定理,表明独立同分布且均值有限的随机变量序列的样本均值在样本量增大时收敛到期望值;弱形式给出依概率收敛,强形式给出几乎必然收敛。",
term_es = "ley de los grandes números",
term_zh = "大数定律",
aliases_es = { "LGN", "ley débil de los grandes números", "ley fuerte de los grandes números" },
aliases_zh = { "LLN", "弱大数定律", "强大数定律" },
}
data["layer normalization"] = {
short = "Normalization layer that standardizes activations across the feature dimension of a single example, then rescales with learnable parameters. Common in RNNs and transformers.",
article = nil,
aliases = { "LayerNorm", "layernorm", "layer norm", "LN" },
es = "Capa de normalización que estandariza las activaciones a lo largo de la dimensión de características de un único ejemplo y luego aplica un reescalado aprendible. Común en RNN y transformadores.",
zh = "对单个样本在特征维度上进行标准化的归一化层,再使用可学习参数进行重新缩放。常用于 RNN 和 Transformer。",
term_es = "normalización por capa",
term_zh = "层归一化",
aliases_es = { "LayerNorm", "layer norm", "LN", "normalización de capa" },
aliases_zh = { "LayerNorm", "LN", "层标准化" },
}
data["layer-cam"] = {
short = "A class activation mapping variant that weights feature maps element-wise by positive gradients, producing higher-resolution and more localized attribution maps that work well across both shallow and deep convolutional layers.",
article = nil,
aliases = { "LayerCAM", "Layer-CAM", "Layer CAM" },
es = "Variante de class activation mapping que pondera los mapas de características elemento a elemento mediante gradientes positivos, produciendo mapas de atribución de mayor resolución y más localizados que funcionan bien tanto en capas convolucionales superficiales como profundas.",
zh = "类激活映射(CAM)的一种变体,对特征图按正梯度逐元素加权,生成分辨率更高、定位更精细的归因图,并在浅层和深层卷积层上均表现良好。",
term_es = "Layer-CAM",
term_zh = "Layer-CAM",
aliases_es = { "LayerCAM", "Layer CAM" },
aliases_zh = { "LayerCAM", "层级CAM" },
}
data["layer-wise relevance propagation"] = {
short = "An attribution method that decomposes a network's prediction into input-feature relevance scores by propagating relevance from the output backward through each layer using conservation rules tailored to the layer type.",
article = nil,
aliases = { "LRP", "Layer-wise Relevance Propagation", "layerwise relevance propagation" },
es = "Método de atribución que descompone la predicción de una red en puntuaciones de relevancia por característica de entrada propagando la relevancia desde la salida hacia atrás por cada capa mediante reglas de conservación específicas para cada tipo de capa.",
zh = "一种归因方法,根据各类层定制的守恒规则,将网络输出的相关性逐层反向传播,把预测分解为各输入特征的相关性分数。",
term_es = "propagación de relevancia capa a capa",
term_zh = "逐层相关性传播",
aliases_es = { "LRP", "propagación de relevancia por capas" },
aliases_zh = { "LRP", "层级相关性传播", "分层相关性传播" },
}
data["lazy aggregation"] = {
short = "A federated learning communication-reduction technique in which the server skips global aggregation rounds when client updates are deemed redundant, or clients skip uploads when their local change is below a threshold.",
article = nil,
aliases = { "LAG", "lazily aggregated gradient", "lazy aggregation federated" },
es = "Técnica de reducción de comunicación en aprendizaje federado en la que el servidor omite rondas de agregación global cuando las actualizaciones del cliente se consideran redundantes, o los clientes omiten envíos cuando su cambio local está por debajo de un umbral.",
zh = "一种联邦学习通信缩减技术:当客户端更新被判定为冗余时,服务器跳过全局聚合轮次;或当客户端的本地变化低于阈值时跳过上传。",
term_es = "agregación perezosa",
term_zh = "惰性聚合",
aliases_es = { "LAG", "gradiente agregado de forma perezosa" },
aliases_zh = { "LAG", "懒惰聚合", "惰性聚合联邦" },
}
data["lc-quad"] = {
short = "Large-Scale Complex Question Answering Dataset: a benchmark of complex natural-language questions paired with SPARQL queries over DBpedia (LC-QuAD 1.0) and Wikidata + DBpedia (LC-QuAD 2.0), used to evaluate KBQA systems on multi-relation queries.",
article = nil,
aliases = { "LC-QuAD", "LCQuAD", "LC-QuAD 2.0" },
es = "Large-Scale Complex Question Answering Dataset: banco de pruebas de preguntas complejas en lenguaje natural emparejadas con consultas SPARQL sobre DBpedia (LC-QuAD 1.0) y Wikidata + DBpedia (LC-QuAD 2.0), utilizado para evaluar sistemas KBQA en consultas multi-relacionales.",
zh = "Large-Scale Complex Question Answering Dataset:复杂自然语言问题与 DBpedia(LC-QuAD 1.0)以及 Wikidata + DBpedia(LC-QuAD 2.0)上 SPARQL 查询配对的基准,用于评估 KBQA 系统在多关系查询上的表现。",
term_es = "LC-QuAD",
term_zh = "LC-QuAD",
aliases_es = { "LCQuAD" },
aliases_zh = { "LCQuAD", "LC-QuAD 2.0" },
}
data["lcm-lora"] = {
short = "A LoRA adapter that distills a pretrained latent diffusion model into a latent consistency model, enabling 4-step high-quality generation without retraining the base model. Released by Hugging Face and Tsinghua.",
article = nil,
aliases = { "LCM-LoRA", "LCM LoRA", "Latent Consistency LoRA", "lcm lora" },
es = "Adaptador LoRA que destila un modelo de difusión latente preentrenado en un modelo de consistencia latente, permitiendo la generación de alta calidad en 4 pasos sin reentrenar el modelo base. Publicado por Hugging Face y Tsinghua.",
zh = "一种 LoRA 适配器,将预训练的潜在扩散模型蒸馏为潜在一致性模型,使原始基础模型无需重训练即可在 4 步内生成高质量图像,由 Hugging Face 与清华大学联合发布。",
term_es = "LCM-LoRA",
term_zh = "LCM-LoRA",
aliases_es = { "LoRA de consistencia latente" },
aliases_zh = { "LCM LoRA", "潜在一致性 LoRA" },
}
data["ld score regression"] = {
short = "Method that regresses GWAS chi-squared statistics on linkage-disequilibrium scores computed from a reference panel to estimate SNP heritability, genetic correlation, and to distinguish polygenicity from confounding.",
article = nil,
aliases = { "LDSC", "LD score regression", "LD-score regression", "linkage disequilibrium score regression" },
es = "Método que regresa los estadísticos chi-cuadrado de un GWAS sobre las puntuaciones de desequilibrio de ligamiento calculadas a partir de un panel de referencia para estimar la heredabilidad por SNP, la correlación genética y distinguir la poligenicidad del confundido.",
zh = "将 GWAS 卡方统计量对参考面板计算的连锁不平衡得分进行回归的方法,用于估计 SNP 遗传力、遗传相关性,并区分多基因效应与混杂因素。",
term_es = "regresión por puntuación LD",
term_zh = "LD 得分回归",
aliases_es = { "LDSC", "regresión de puntuaciones LD", "regresión por puntuación de desequilibrio de ligamiento" },
aliases_zh = { "LDSC", "连锁不平衡得分回归", "LD-score 回归" },
}
data["lddt"] = {
short = "Local Distance Difference Test: a superposition-free protein structure quality score that compares all atom–atom distances within a cutoff against a reference, giving a per-residue score from 0 to 1 (or 0–100).",
article = nil,
aliases = { "lDDT", "LDDT", "Local Distance Difference Test" },
es = "Prueba de Diferencia de Distancias Locales: puntuación de calidad de estructura proteica sin superposición que compara todas las distancias átomo-átomo dentro de un umbral con una referencia, dando una puntuación por residuo de 0 a 1 (o 0–100).",
zh = "局部距离差异检验:一种无需结构叠合的蛋白质结构质量评分,将参考结构中阈值范围内的所有原子-原子距离与目标结构比较,给出每个残基 0 到 1(或 0–100)的评分。",
term_es = "lDDT",
term_zh = "lDDT",
aliases_es = { "lDDT", "Prueba de Diferencia de Distancias Locales" },
aliases_zh = { "lDDT", "局部距离差异检验" },
}
data["lddt score"] = {
short = "The numerical output of the Local Distance Difference Test, typically reported on a 0–100 scale; widely used as the headline accuracy metric in CASP and AlphaFold's per-residue confidence (pLDDT).",
article = nil,
aliases = { "lDDT score", "LDDT score", "pLDDT", "predicted lDDT" },
es = "La salida numérica de la Prueba de Diferencia de Distancias Locales, típicamente reportada en una escala de 0 a 100; ampliamente utilizada como métrica principal de precisión en CASP y como confianza por residuo de AlphaFold (pLDDT).",
zh = "局部距离差异检验的数值输出,通常以 0–100 的尺度报告;广泛用作 CASP 的主要精度指标和 AlphaFold 每残基置信度(pLDDT)。",
term_es = "puntuación lDDT",
term_zh = "lDDT 评分",
aliases_es = { "puntaje lDDT", "pLDDT" },
aliases_zh = { "lDDT 分数", "pLDDT", "预测 lDDT" },
}
data["lead generation"] = {
short = "The drug discovery stage in which initial active compounds (leads) against a validated target are identified, typically via high-throughput screening, fragment-based discovery, or virtual screening.",
article = nil,
aliases = { "hit-to-lead", "lead identification", "lead discovery" },
es = "Etapa del descubrimiento de fármacos en la que se identifican los compuestos activos iniciales (leads) frente a una diana validada, típicamente mediante cribado de alto rendimiento, descubrimiento basado en fragmentos o cribado virtual.",
zh = "药物发现阶段,通过高通量筛选、基于片段的发现或虚拟筛选等方法,针对已验证的靶点识别初始活性化合物(先导化合物)。",
term_es = "generación de leads",
term_zh = "先导化合物发现",
aliases_es = { "identificación de leads", "descubrimiento de leads", "hit-to-lead" },
aliases_zh = { "先导化合物生成", "苗头到先导", "先导物发现" },
}
data["lead optimization"] = {
short = "The drug discovery stage that iteratively modifies a lead compound to improve potency, selectivity, pharmacokinetics, and safety while retaining its on-target activity, producing a clinical candidate.",
article = nil,
aliases = { "lead opt", "compound optimization", "LO" },
es = "Etapa del descubrimiento de fármacos que modifica iterativamente un compuesto líder para mejorar potencia, selectividad, farmacocinética y seguridad manteniendo su actividad sobre la diana, produciendo un candidato clínico.",
zh = "药物发现阶段,通过迭代修饰先导化合物,在保持靶向活性的同时改善其效力、选择性、药代动力学和安全性,最终产生临床候选化合物。",
term_es = "optimización de leads",
term_zh = "先导化合物优化",
aliases_es = { "optimización del lead", "optimización de compuestos" },
aliases_zh = { "先导物优化", "化合物优化", "LO" },
}
data["lead-time bias"] = {
short = "In screening studies, the apparent extension of survival caused solely by earlier diagnosis, even when the timing of death is unchanged. It produces overly optimistic estimates of screening benefit if not accounted for.",
article = nil,
aliases = { "Lead-time bias", "lead time bias", "leadtime bias" },
es = "En estudios de cribado, la extensión aparente de la supervivencia causada únicamente por un diagnóstico más temprano, aun cuando el momento de la muerte no cambia. Produce estimaciones excesivamente optimistas del beneficio del cribado si no se corrige.",
zh = "在筛查研究中,仅因诊断时间提前而带来的表观生存期延长,即使死亡时间并未改变。若不加以校正,会使筛查的获益估计过于乐观。",
term_es = "sesgo de tiempo de adelanto",
term_zh = "提前时间偏倚",
aliases_es = { "sesgo de adelanto diagnóstico", "lead-time bias" },
aliases_zh = { "导前时间偏倚", "领先时间偏倚", "lead-time 偏倚" },
}
data["leaf benchmark"] = {
short = "LEAF: an open-source benchmark suite for federated learning that provides realistically partitioned datasets (FEMNIST, Shakespeare, Sent140, CelebA, Reddit) along with reference baselines under cross-device heterogeneity.",
article = nil,
aliases = { "LEAF", "LEAF benchmark", "LEAF FL benchmark" },
es = "LEAF: conjunto de benchmarks de código abierto para aprendizaje federado que proporciona conjuntos de datos particionados de forma realista (FEMNIST, Shakespeare, Sent140, CelebA, Reddit) junto con líneas base de referencia bajo heterogeneidad entre dispositivos.",
zh = "LEAF:面向联邦学习的开源基准套件,提供按真实场景划分的数据集(FEMNIST、Shakespeare、Sent140、CelebA、Reddit)以及在跨设备异质性下的参考基线。",
term_es = "benchmark LEAF",
term_zh = "LEAF 基准",
aliases_es = { "LEAF", "conjunto de benchmarks LEAF" },
aliases_zh = { "LEAF", "LEAF 联邦学习基准" },
}
data["leafcutter"] = {
short = "Tool for detecting and quantifying differential alternative splicing from RNA-seq data by analyzing the ratios of intron-excision events inferred from spliced reads, without relying on transcript annotations.",
article = nil,
aliases = { "LeafCutter", "leafcutter splicing tool" },
es = "Herramienta para detectar y cuantificar el empalme alternativo diferencial a partir de datos de RNA-seq mediante el análisis de las proporciones de eventos de escisión de intrones inferidos de las lecturas empalmadas, sin depender de anotaciones de transcritos.",
zh = "通过分析剪接读段推断的内含子切除事件比例来检测和定量 RNA-seq 数据中差异可变剪接的工具,不依赖转录本注释。",
term_es = "LeafCutter",
term_zh = "LeafCutter",
aliases_es = { "leafcutter", "herramienta LeafCutter" },
aliases_zh = { "leafcutter", "LeafCutter 剪接分析工具" },
}
data["leaky relu"] = {
short = "A ReLU variant that allows a small, fixed slope α (typically 0.01) for negative inputs: f(x) = x if x ≥ 0 else αx. Avoids dead neurons by ensuring nonzero gradients on the negative side.",
article = nil,
aliases = { "LeakyReLU", "Leaky ReLU", "leaky rectified linear unit", "LReLU" },
es = "Variante de ReLU que permite una pequeña pendiente fija α (normalmente 0.01) para entradas negativas: f(x) = x si x ≥ 0, en otro caso αx. Evita neuronas muertas garantizando gradientes no nulos en el lado negativo.",
zh = "ReLU 的一种变体,对负输入允许一个小的固定斜率 α(通常为 0.01):当 x ≥ 0 时 f(x) = x,否则 f(x) = αx。通过在负侧保持非零梯度避免死神经元。",
term_es = "Leaky ReLU",
term_zh = "Leaky ReLU",
aliases_es = { "ReLU con fuga", "unidad lineal rectificada con fuga", "LReLU" },
aliases_zh = { "带泄露 ReLU", "泄露线性整流单元", "LReLU" },
}
data["lean theorem prover"] = {
short = "An open-source interactive theorem prover and dependently-typed functional programming language, originally created by Leonardo de Moura at Microsoft Research, whose Lean 4 + Mathlib ecosystem is widely used in formalized mathematics and machine-learning research on automated reasoning.",
article = nil,
aliases = { "Lean", "Lean prover", "Lean 4", "Lean theorem prover" },
es = "Demostrador interactivo de teoremas y lenguaje de programación funcional con tipado dependiente, de código abierto, creado originalmente por Leonardo de Moura en Microsoft Research; su ecosistema Lean 4 + Mathlib es ampliamente utilizado en matemáticas formalizadas y en investigación de aprendizaje automático sobre razonamiento automatizado.",
zh = "由 Leonardo de Moura 最初在微软研究院创建的开源交互式定理证明器及依赖类型函数式编程语言;其 Lean 4 + Mathlib 生态被广泛用于数学形式化以及机器学习自动推理研究。",
term_es = "demostrador de teoremas Lean",
term_zh = "Lean 定理证明器",
aliases_es = { "Lean", "Lean 4" },
aliases_zh = { "Lean", "Lean 4", "Lean 证明器" },
}
data["learnable query"] = {
short = "A trainable embedding token used as a query in a transformer attention layer to extract a fixed-size summary of variable-length encoder features; central to architectures like DETR object queries, Perceiver latents, and BLIP-2's Q-Former.",
article = nil,
aliases = { "learnable queries", "learned query", "learned queries", "query token", "query tokens", "learnable query token", "object query" },
es = "Embedding entrenable usado como consulta (query) en una capa de atención de un transformer para extraer un resumen de tamaño fijo de características codificadas de longitud variable; pieza central de arquitecturas como las object queries de DETR, los latentes de Perceiver y el Q-Former de BLIP-2.",
zh = "在 Transformer 注意力层中作为查询使用的可训练嵌入向量,用于从可变长度的编码特征中提取固定大小的摘要;DETR 的 object query、Perceiver 的 latent、BLIP-2 的 Q-Former 等架构均以此为核心。",
term_es = "consulta aprendible",
term_zh = "可学习查询",
aliases_es = { "consulta aprendida", "token de consulta", "query aprendible", "learnable query", "object query" },
aliases_zh = { "可学习 query", "学习到的查询", "查询 token", "object query" },
}
data["learned data augmentation"] = {
short = "Data augmentation in which the choice or parameters of augmentation operations are learned from data — for example via reinforcement learning (AutoAugment), population-based search (PBA), or differentiable relaxations — rather than fixed by hand.",
article = nil,
aliases = { "learned augmentation", "automated data augmentation", "auto augmentation", "AutoAugment-style augmentation", "learned augmentation policy" },
es = "Aumentación de datos en la que la elección o los parámetros de las operaciones de aumentación se aprenden a partir de los datos —por ejemplo mediante aprendizaje por refuerzo (AutoAugment), búsqueda basada en poblaciones (PBA) o relajaciones diferenciables— en lugar de fijarse a mano.",
zh = "数据增强中增强操作的选择或参数由数据自动学习得到——例如通过强化学习(AutoAugment)、基于种群的搜索(PBA)或可微松弛——而非由人工固定设计。",
term_es = "aumentación de datos aprendida",
term_zh = "学习的数据增强",
aliases_es = { "aumentación aprendida", "aumentación automática de datos", "política de aumentación aprendida" },
aliases_zh = { "自动数据增强", "可学习数据增强", "学习型数据增强" },
}
data["learned loss function"] = {
short = "A loss function whose form or parameters are themselves learned, typically by meta-learning over a distribution of tasks, so that training a base model with it yields better generalization than handcrafted losses.",
article = nil,
aliases = { "meta-learned loss", "learned loss", "learnable loss function", "loss function search" },
es = "Función de pérdida cuya forma o parámetros se aprenden, normalmente mediante meta-aprendizaje sobre una distribución de tareas, de modo que entrenar un modelo base con ella produce mejor generalización que las pérdidas diseñadas a mano.",
zh = "其形式或参数本身通过学习得到的损失函数,通常借助元学习在任务分布上训练,使用它训练基础模型可获得优于手工设计损失的泛化性能。",
term_es = "función de pérdida aprendida",
term_zh = "学习的损失函数",
aliases_es = { "pérdida aprendida", "función de pérdida meta-aprendida", "búsqueda de funciones de pérdida" },
aliases_zh = { "元学习损失", "可学习损失函数", "损失函数搜索" },
}
data["learned optimizer"] = {
short = "An optimizer whose update rule is parameterized by a neural network and meta-trained on a distribution of optimization tasks, so that it produces task-specific updates rather than applying a fixed analytical formula.",
article = nil,
aliases = { "meta-learned optimizer", "neural optimizer", "learned update rule", "L2O optimizer" },
es = "Optimizador cuya regla de actualización está parametrizada por una red neuronal y meta-entrenada sobre una distribución de tareas de optimización, de modo que produce actualizaciones específicas para la tarea en lugar de aplicar una fórmula analítica fija.",
zh = "更新规则由神经网络参数化、并在一组优化任务的分布上经元训练得到的优化器,能够给出与任务相关的更新,而非套用固定的解析公式。",
term_es = "optimizador aprendido",
term_zh = "学习的优化器",
aliases_es = { "optimizador meta-aprendido", "optimizador neuronal", "regla de actualización aprendida" },
aliases_zh = { "元学习优化器", "神经优化器", "可学习优化器" },
}
data["learned positional embedding"] = {
short = "A positional encoding implemented as a trainable embedding table indexed by absolute position, learned jointly with the rest of the model.",
article = nil,
aliases = { "Learned Positional Embedding", "learned positional encoding", "learned position embedding", "trainable positional embedding" },
es = "Codificación posicional implementada como una tabla de embeddings entrenable indexada por la posición absoluta, aprendida conjuntamente con el resto del modelo.",
zh = "一种以可训练嵌入表实现并按绝对位置索引的位置编码,与模型的其余部分一起联合学习。",
term_es = "embedding posicional aprendido",
term_zh = "可学习位置嵌入",
aliases_es = { "learned positional embedding", "codificación posicional aprendida", "embedding de posición aprendido", "embedding posicional entrenable" },
aliases_zh = { "learned positional embedding", "学习位置嵌入", "可训练位置嵌入" },
}
data["learned regularizer"] = {
short = "A regularization term whose form or strength is learned — typically via meta-learning, validation-set bilevel optimization, or hypernetworks — instead of being fixed in advance like L2 weight decay or dropout.",
article = nil,
aliases = { "meta-learned regularizer", "learned regularization", "learnable regularizer", "learned regulariser" },
es = "Término de regularización cuya forma o intensidad se aprende —normalmente mediante meta-aprendizaje, optimización binivel sobre el conjunto de validación o hiperredes— en lugar de fijarse de antemano como ocurre con la decaída L2 o el dropout.",
zh = "其形式或强度通过学习得到的正则项——通常借助元学习、面向验证集的双层优化或超网络——而非像 L2 权重衰减或 Dropout 那样事先固定。",
term_es = "regularizador aprendido",
term_zh = "学习的正则项",
aliases_es = { "regularización aprendida", "regularizador meta-aprendido" },
aliases_zh = { "元学习正则项", "可学习正则化", "学习型正则化" },
}
data["learned scheduler"] = {
short = "A learning-rate or other hyperparameter schedule whose values across training are produced by a learned model — for example a controller network or meta-learned policy — rather than by a fixed formula such as cosine or step decay.",
article = nil,
aliases = { "meta-learned scheduler", "learned learning rate schedule", "learned LR schedule", "learnable scheduler" },
es = "Programación (schedule) de la tasa de aprendizaje u otro hiperparámetro cuyos valores a lo largo del entrenamiento son generados por un modelo aprendido —por ejemplo, una red controladora o una política meta-aprendida— en lugar de por una fórmula fija como decaimiento coseno o por escalones.",
zh = "训练过程中学习率或其他超参数的调度方案,其取值由学习得到的模型(例如控制器网络或元学习策略)给出,而非由余弦退火、阶梯衰减等固定公式生成。",
term_es = "scheduler aprendido",
term_zh = "学习的调度器",
aliases_es = { "programación aprendida", "scheduler meta-aprendido", "schedule de tasa de aprendizaje aprendido" },
aliases_zh = { "元学习调度器", "可学习学习率调度", "学习型学习率调度" },
}
data["learning curve based stopping"] = {
short = "An early-stopping strategy in HPO and NAS that terminates a training run when its predicted final performance — extrapolated from the partial learning curve so far — is unlikely to surpass the current best.",
article = nil,
aliases = { "learning-curve-based stopping", "learning curve stopping", "learning curve early stopping", "curve-based early stopping" },
es = "Estrategia de parada temprana en HPO y NAS que termina una ejecución de entrenamiento cuando su rendimiento final predicho —extrapolado a partir de la curva de aprendizaje parcial observada— es improbable que supere el mejor actual.",
zh = "HPO 和 NAS 中的一种早停策略:根据已观测到的部分学习曲线外推预测最终性能,若不大可能超过当前最佳,则提前终止本次训练。",
term_es = "parada temprana basada en curvas de aprendizaje",
term_zh = "基于学习曲线的早停",
aliases_es = { "parada basada en curvas de aprendizaje", "parada temprana por curva de aprendizaje" },
aliases_zh = { "学习曲线早停", "基于曲线的早停" },
}
data["learning curve extrapolation"] = {
short = "Predicting the future trajectory of a loss or accuracy curve from a short prefix of training observations, used in HPO and NAS to abort or rank configurations before full training completes.",
article = nil,
aliases = { "learning-curve extrapolation", "training curve extrapolation", "loss curve extrapolation" },
es = "Predicción de la trayectoria futura de una curva de pérdida o precisión a partir de un prefijo corto de observaciones de entrenamiento, utilizada en HPO y NAS para abortar o clasificar configuraciones antes de completar el entrenamiento.",
zh = "根据训练初期的少量观测预测损失或精度曲线的未来走势,在 HPO 和 NAS 中用于在完整训练结束前提前终止或排序候选配置。",
term_es = "extrapolación de curvas de aprendizaje",
term_zh = "学习曲线外推",
aliases_es = { "extrapolación de la curva de entrenamiento", "extrapolación de curvas de pérdida" },
aliases_zh = { "训练曲线外推", "损失曲线外推" },
}
data["learning curve forecasting"] = {
short = "Forecasting the continuation of a training curve given partially observed losses or metrics, often using probabilistic models such as Bayesian neural networks or parametric mixture models to quantify uncertainty.",
article = nil,
aliases = { "learning-curve forecasting", "training curve forecasting", "learning curve prediction model" },
es = "Pronóstico de la continuación de una curva de entrenamiento a partir de pérdidas o métricas parcialmente observadas, frecuentemente mediante modelos probabilísticos como redes neuronales bayesianas o mezclas paramétricas que cuantifican la incertidumbre.",
zh = "在已观测到部分损失或指标的情况下预测训练曲线的后续走势,通常借助贝叶斯神经网络或参数化混合模型等概率模型来量化不确定性。",
term_es = "pronóstico de curvas de aprendizaje",
term_zh = "学习曲线预测",
aliases_es = { "predicción de curvas de aprendizaje", "pronóstico de la curva de entrenamiento" },
aliases_zh = { "训练曲线预测", "学习曲线预报" },
}
data["learning curve prediction"] = {
short = "The general task of predicting the future values of a model's training or validation curve from features of the architecture, hyperparameters, or early-epoch observations; used as a cheap fidelity in HPO and NAS.",
article = nil,
aliases = { "learning-curve prediction", "training curve prediction", "learning curve predictor" },
es = "Tarea general de predecir los valores futuros de la curva de entrenamiento o validación de un modelo a partir de características de la arquitectura, hiperparámetros u observaciones de las primeras épocas; se usa como fidelidad barata en HPO y NAS.",
zh = "在 HPO 与 NAS 中将其作为廉价保真度的一项一般性任务:根据架构特征、超参数或早期训练观测,预测模型训练或验证曲线的未来取值。",
term_es = "predicción de curvas de aprendizaje",
term_zh = "学习曲线预测",
aliases_es = { "predictor de curvas de aprendizaje", "predicción de la curva de entrenamiento" },
aliases_zh = { "训练曲线预测", "学习曲线预测器" },
}
data["learning fair representations"] = {
short = "A representation-learning approach that maps inputs to an intermediate encoding which preserves task-relevant information while obfuscating membership in protected groups, enabling downstream classifiers to satisfy fairness criteria.",
article = nil,
aliases = { "LFR", "fair representation learning" },
es = "Enfoque de aprendizaje de representaciones que asigna las entradas a una codificación intermedia que preserva la información relevante para la tarea mientras oculta la pertenencia a grupos protegidos, permitiendo que los clasificadores posteriores satisfagan criterios de equidad.",
zh = "一种表示学习方法,将输入映射到中间编码,在保留与任务相关信息的同时模糊受保护群体的成员身份,使下游分类器能够满足公平性准则。",
term_es = "aprendizaje de representaciones justas",
term_zh = "学习公平表示",
aliases_es = { "LFR", "aprendizaje de representaciones equitativas" },
aliases_zh = { "LFR", "公平表示学习" },
}
data["learning rate"] = {
short = "Step size hyperparameter controlling how much model parameters change per gradient update. Too large causes divergence; too small causes slow convergence.",
article = "Learning Rate",
aliases = { "step size", "lr", "LR" },
es = "Hiperparámetro de tamaño de paso que controla cuánto cambian los parámetros del modelo en cada actualización de gradiente. Un valor demasiado grande provoca divergencia; demasiado pequeño, convergencia lenta.",
zh = "控制每次梯度更新中模型参数变化幅度的步长超参数。过大会导致发散,过小会导致收敛缓慢。",
term_es = "tasa de aprendizaje",
term_zh = "学习率",
aliases_es = { "tamaño de paso", "lr" },
aliases_zh = { "步长", "学习速率", "lr" },
}
data["learning rate annealing"] = {
short = "A training schedule that gradually decreases the learning rate over time, allowing larger updates early in training and finer adjustments near convergence. Common schedules include step decay, exponential decay, and cosine annealing.",
article = nil,
aliases = { "learning rate decay", "lr annealing", "lr decay", "learning rate schedule" },
es = "Programa de entrenamiento que disminuye gradualmente la tasa de aprendizaje a lo largo del tiempo, permitiendo actualizaciones grandes al inicio y ajustes finos cerca de la convergencia. Esquemas comunes incluyen decaimiento por pasos, exponencial y annealing cosenoidal.",
zh = "一种训练调度策略,随时间逐步降低学习率,使训练初期可进行较大更新,接近收敛时进行精细调整。常见方案包括阶梯衰减、指数衰减和余弦退火。",
term_es = "annealing de tasa de aprendizaje",
term_zh = "学习率退火",
aliases_es = { "decaimiento de tasa de aprendizaje", "programación de tasa de aprendizaje" },
aliases_zh = { "学习率衰减", "学习率调度" },
}
data["learning rate schedule"] = {
short = "A rule that varies the learning rate over training, typically decaying it from an initial value to improve final convergence after early progress.",
article = nil,
aliases = { "lr schedule", "learning rate scheduler", "lr scheduler", "learning rate decay schedule" },
es = "Regla que varía la tasa de aprendizaje a lo largo del entrenamiento, normalmente reduciéndola desde un valor inicial para mejorar la convergencia final tras el progreso inicial.",
zh = "在训练过程中调整学习率的规则,通常从初始值开始衰减,以在前期进展之后改善最终收敛。",
term_es = "calendario de tasa de aprendizaje",
term_zh = "学习率调度",
aliases_es = { "planificador de tasa de aprendizaje", "programación de tasa de aprendizaje" },
aliases_zh = { "学习率调度器", "学习率计划", "学习率调整策略" },
}
data["learning rate search"] = {
short = "Hyperparameter optimization restricted to (or focused on) the learning rate, ranging from simple grid or log-uniform search to specialized procedures such as the LR range test or Bayesian optimization over a one-dimensional log-scale axis.",
article = nil,
aliases = { "LR search", "learning-rate search", "learning rate tuning", "LR tuning" },
es = "Optimización de hiperparámetros restringida a (o centrada en) la tasa de aprendizaje, desde búsquedas en cuadrícula o log-uniformes simples hasta procedimientos especializados como el LR range test o la optimización bayesiana sobre un eje unidimensional en escala logarítmica.",
zh = "限定(或聚焦)于学习率的超参数优化,方法从简单的网格或对数均匀搜索到 LR range test、在一维对数尺度轴上的贝叶斯优化等专门策略。",
term_es = "búsqueda de tasa de aprendizaje",
term_zh = "学习率搜索",
aliases_es = { "búsqueda de la learning rate", "ajuste de la tasa de aprendizaje", "tuning de learning rate" },
aliases_zh = { "学习率调优", "LR搜索", "学习率调参" },
}
data["learning rate warmup"] = {
short = "A schedule that linearly (or otherwise) increases the learning rate from a small value to its target over the first training steps, stabilizing optimization in transformer and large-batch training.",
article = nil,
aliases = { "warmup", "warm-up", "lr warmup", "linear warmup" },
es = "Programación que aumenta la tasa de aprendizaje desde un valor pequeño hasta el objetivo (linealmente o de otro modo) durante los primeros pasos de entrenamiento, estabilizando la optimización en transformers y en entrenamiento con lotes grandes.",
zh = "一种调度方式,在训练初期将学习率从较小值(线性或其他方式)增加到目标值,可在 transformer 和大批量训练中稳定优化过程。",
term_es = "calentamiento de la tasa de aprendizaje",
term_zh = "学习率预热",
aliases_es = { "warmup", "calentamiento", "warmup lineal" },
aliases_zh = { "warmup", "预热", "线性预热" },
}
data["learning to learn"] = {
short = "An umbrella term for meta-learning: training learning algorithms — initializations, optimizers, loss functions, or architectures — on a distribution of tasks so that they adapt rapidly to new tasks from the same distribution.",
article = nil,
aliases = { "meta-learning", "meta learning", "L2L", "learn to learn" },
es = "Término general para el meta-aprendizaje: entrenar algoritmos de aprendizaje —inicializaciones, optimizadores, funciones de pérdida o arquitecturas— sobre una distribución de tareas para que se adapten rápidamente a nuevas tareas de la misma distribución.",
zh = "元学习的统称:在任务分布上训练学习算法本身——包括初始化、优化器、损失函数或架构——使其能够快速适应同一分布下的新任务。",
term_es = "aprender a aprender",
term_zh = "学会学习",
aliases_es = { "meta-aprendizaje", "L2L", "learning to learn" },
aliases_zh = { "元学习", "L2L", "learning to learn" },
}
data["learning to optimize"] = {
short = "A meta-learning subfield in which an optimizer's update rule is parameterized (typically by a recurrent or transformer network) and trained on a distribution of optimization problems so it can outperform handcrafted optimizers on similar tasks.",
article = nil,
aliases = { "L2O", "learn-to-optimize", "learning-to-optimize", "meta-learned optimization" },
es = "Subcampo del meta-aprendizaje en el que la regla de actualización de un optimizador se parametriza (normalmente con una red recurrente o transformer) y se entrena sobre una distribución de problemas de optimización para superar a los optimizadores diseñados a mano en tareas similares.",
zh = "元学习的一个子领域:将优化器的更新规则参数化(通常用循环网络或 Transformer),在一组优化问题的分布上训练,使其在相似任务上优于手工设计的优化器。",
term_es = "aprender a optimizar",
term_zh = "学习优化",
aliases_es = { "L2O", "learning to optimize", "meta-aprendizaje de optimización" },
aliases_zh = { "L2O", "learning to optimize", "学会优化", "元学习优化" },
}
data["learning to search"] = {
short = "A family of structured prediction methods that reduce sequential output prediction to learning a policy in a search space, training the policy through imitation or cost-sensitive classification against an expert reference.",
article = nil,
aliases = { "L2S", "learning-to-search", "learning to search for structured prediction" },
es = "Familia de métodos de predicción estructurada que reducen la predicción secuencial a aprender una política en un espacio de búsqueda, entrenándola mediante imitación o clasificación sensible al coste contra una referencia experta.",
zh = "一类结构化预测方法,将序列输出预测归约为在搜索空间中学习策略,通过模仿学习或代价敏感分类相对于专家参考来训练该策略。",
term_es = "aprendizaje para buscar",
term_zh = "学习搜索",
aliases_es = { "L2S", "learning to search" },
aliases_zh = { "L2S", "learning to search" },
}
data["least-to-most prompting"] = {
short = "A prompting technique that decomposes a complex problem into a sequence of simpler subproblems, then solves them in order, using each subproblem's solution as context for the next. Improves multi-step reasoning over single-shot chain-of-thought.",
article = nil,
aliases = { "least to most prompting", "L2M prompting", "least-to-most" },
es = "Técnica de prompting que descompone un problema complejo en una secuencia de subproblemas más simples y los resuelve en orden, utilizando la solución de cada subproblema como contexto para el siguiente. Mejora el razonamiento multietapa frente al chain-of-thought de un solo paso.",
zh = "一种提示策略,将复杂问题分解为一系列更简单的子问题并依次求解,每个子问题的解作为下一步的上下文。相比单次思维链,可改善多步推理。",
term_es = "prompting de menor a mayor",
term_zh = "由简到繁提示",
aliases_es = { "least-to-most prompting", "prompting de mínimo a máximo" },
aliases_zh = { "least-to-most 提示", "由易到难提示" },
}
data["leave-one-out contribution"] = {
short = "A contribution-evaluation method that measures a client's value in federated learning as the drop in global model performance when that client's data (or updates) is removed from training, the most direct counterfactual estimator.",
article = nil,
aliases = { "LOO contribution", "leave-one-out valuation", "leave-one-out FL contribution" },
es = "Método de evaluación de contribuciones que mide el valor de un cliente en aprendizaje federado como la caída en el rendimiento del modelo global al eliminar los datos (o actualizaciones) de ese cliente del entrenamiento; es el estimador contrafactual más directo.",
zh = "一种贡献评估方法,通过将某客户端的数据(或更新)从训练中移除后,测量全局模型性能的下降幅度,以此衡量该客户端在联邦学习中的价值;是最直接的反事实估计量。",
term_es = "contribución leave-one-out",
term_zh = "留一贡献评估",
aliases_es = { "valoración leave-one-out", "contribución LOO" },
aliases_zh = { "LOO 贡献", "留一法贡献", "留一联邦贡献评估" },
}
data["leave-one-out cross-validation"] = {
short = "An extreme form of k-fold cross-validation in which k equals the number of samples, so each iteration trains on all data except one example used for validation; nearly unbiased but computationally expensive.",
article = nil,
aliases = { "LOOCV", "leave one out cross validation", "leave-one-out CV", "LOO-CV", "LOO cross-validation" },
es = "Forma extrema de validación cruzada de k particiones en la que k es igual al número de muestras, de modo que cada iteración entrena con todos los datos excepto un ejemplo usado para validación; casi insesgada pero costosa computacionalmente.",
zh = "k 折交叉验证的极端形式,其中 k 等于样本数,每次迭代使用除一个样本之外的全部数据进行训练,并以该样本进行验证;估计几乎无偏,但计算开销很大。",
term_es = "validación cruzada dejando uno fuera",
term_zh = "留一交叉验证",
aliases_es = { "LOOCV", "validación cruzada leave-one-out", "validación cruzada LOO" },
aliases_zh = { "LOOCV", "留一法交叉验证", "leave-one-out 交叉验证" },
}
data["lecun initialization"] = {
short = "A weight initialization scheme that draws values with variance 1/fan_in, originally proposed for sigmoid and tanh networks and now standard for SELU activations.",
article = nil,
aliases = { "LeCun init", "LeCun initialisation", "LeCun normal", "LeCun uniform" },
es = "Esquema de inicialización de pesos con varianza 1/fan_in, propuesto originalmente para redes con activaciones sigmoide y tanh y hoy estándar para activaciones SELU.",
zh = "一种权重初始化方法,采样方差为 1/fan_in,最初为 sigmoid 和 tanh 网络提出,目前是 SELU 激活的标准初始化。",
term_es = "inicialización LeCun",
term_zh = "LeCun 初始化",
aliases_es = { "inicialización de LeCun" },
aliases_zh = { "LeCun 初始化方法" },
}
data["lemma generation"] = {
short = "In automated theorem proving, the process of conjecturing and proving auxiliary lemmas that bridge hypothesis and goal, typically by pattern matching, induction heuristics, or LLM-based suggestion in modern provers.",
article = nil,
aliases = { "auto lemma generation", "lemma synthesis", "conjecturing lemmas" },
es = "En demostración automática de teoremas, proceso de conjeturar y demostrar lemas auxiliares que conectan la hipótesis con el objetivo, habitualmente mediante coincidencia de patrones, heurísticas de inducción o sugerencias basadas en LLM en los demostradores modernos.",
zh = "在自动定理证明中,猜测并证明辅助引理以连接假设与目标的过程,传统上依赖模式匹配和归纳启发式,现代证明器中也借助 LLM 提供建议。",
term_es = "generación de lemas",
term_zh = "引理生成",
aliases_es = { "síntesis de lemas", "conjetura de lemas" },
aliases_zh = { "引理合成", "引理猜测", "自动引理生成" },
}
data["lemmatization"] = {
short = "A text normalization procedure that maps inflected word forms to their dictionary base form (the lemma) using morphological analysis and a lexicon, in contrast to the heuristic affix-stripping of stemming.",
article = nil,
aliases = { "Lemmatization", "lemmatisation", "lemmatize", "lemmatizer", "lemma extraction" },
es = "Procedimiento de normalización de texto que asigna a cada forma flexionada de una palabra su forma base de diccionario (el lema) mediante análisis morfológico y un lexicón, a diferencia de la eliminación heurística de afijos del stemming.",
zh = "一种文本规范化方法,通过形态分析与词典将各种屈折变化的词形映射到其词典基本形式(词元),与词干提取那种基于启发式去除词缀的做法相对。",
term_es = "lematización",
term_zh = "词形还原",
aliases_es = { "lemmatization", "lematizacion", "lemmatisation", "lematizador" },
aliases_zh = { "lemmatization", "lemmatisation", "词元化", "词目还原" },
}
data["lemonade"] = {
short = "Lamarckian Evolutionary algorithm for Multi-Objective Neural Architecture DEsign (Elsken et al., 2018): a multi-objective NAS method that uses approximate network morphisms with Lamarckian inheritance to efficiently produce a Pareto front of architectures trading off accuracy and resource cost.",
article = nil,
aliases = { "LEMONADE", "Lamarckian evolutionary NAS", "Lamarckian Evolution NAS" },
es = "Algoritmo evolutivo lamarckiano para diseño de arquitecturas neuronales multi-objetivo (Elsken et al., 2018): método de NAS multi-objetivo que usa morfismos de red aproximados con herencia lamarckiana para generar de forma eficiente un frente de Pareto de arquitecturas que equilibran precisión y coste de recursos.",
zh = "面向多目标神经架构设计的拉马克进化算法(Elsken 等,2018):一种多目标 NAS 方法,结合近似网络态射与拉马克式遗传,高效生成在精度与资源开销之间权衡的帕累托前沿。",
term_es = "LEMONADE",
term_zh = "LEMONADE",
aliases_es = { "NAS evolutivo lamarckiano", "evolución lamarckiana para NAS" },
aliases_zh = { "拉马克进化NAS", "拉马克式进化神经架构搜索" },
}
data["length scale"] = {
short = "A hyperparameter of stationary kernels (e.g., RBF, Matern) that controls how rapidly the covariance decays with input distance, governing the smoothness and effective range of correlations in a Gaussian process.",
article = nil,
aliases = { "lengthscale", "kernel length scale", "characteristic length scale", "bandwidth" },
es = "Hiperparámetro de los núcleos estacionarios (p. ej., RBF, Matérn) que controla la rapidez con la que la covarianza decae con la distancia entre entradas, regulando la suavidad y el rango efectivo de las correlaciones en un proceso gaussiano.",
zh = "平稳核(如 RBF、Matérn)的超参数,控制协方差随输入距离衰减的快慢,从而决定高斯过程中相关性的平滑度和有效作用范围。",
term_es = "escala de longitud",
term_zh = "长度尺度",
aliases_es = { "lengthscale", "escala característica", "ancho de banda del núcleo" },
aliases_zh = { "长度标度", "核长度尺度", "带宽", "特征长度尺度" },
}
data["leonardo ai"] = {
short = "A commercial generative-AI platform for image and short-video creation aimed at game artists and designers, offering fine-tuned style models, in-painting, and asset generation tools.",
article = nil,
aliases = { "Leonardo AI", "Leonardo.AI", "Leonardo" },
es = "Plataforma comercial de IA generativa para creación de imágenes y vídeos cortos orientada a artistas de videojuegos y diseñadores, que ofrece modelos de estilo afinados, inpainting y herramientas de generación de recursos.",
zh = "一个面向游戏美术师和设计师的商业生成式 AI 平台,提供图像与短视频生成、风格化微调模型、图像修复以及素材生成工具。",
term_es = "Leonardo AI",
term_zh = "Leonardo AI",
aliases_es = { "Leonardo.AI", "Leonardo" },
aliases_zh = { "Leonardo.AI", "Leonardo" },
}
data["lhotse"] = {
short = "A Python toolkit for speech and audio data preparation that standardizes manifests, supports cuts and dynamic batching, and integrates with PyTorch and the k2 toolkit for modern speech recognition pipelines.",
article = nil,
aliases = { "Lhotse", "lhotse toolkit" },
es = "Kit de herramientas en Python para la preparación de datos de habla y audio que estandariza los manifiestos, admite cortes (cuts) y batching dinámico, y se integra con PyTorch y el toolkit k2 en pipelines modernos de reconocimiento del habla.",
zh = "用于语音和音频数据准备的 Python 工具包,标准化了清单格式,支持音频切片(cuts)和动态批处理,并与 PyTorch 及 k2 工具包集成以支持现代语音识别流程。",
term_es = "Lhotse",
term_zh = "Lhotse",
aliases_es = { "kit Lhotse", "toolkit Lhotse" },
aliases_zh = { "Lhotse 工具包" },
}
data["librilight"] = {
short = "A large unlabeled English speech corpus of about 60,000 hours derived from LibriVox audiobooks, designed as a benchmark for self-supervised, semi-supervised, and limited-supervision speech recognition.",
article = nil,
aliases = { "Libri-Light", "LibriLight", "Libri Light" },
es = "Gran corpus de habla en inglés sin etiquetar, de unas 60.000 horas, derivado de audiolibros de LibriVox, diseñado como banco de pruebas para reconocimiento del habla auto-supervisado, semi-supervisado y con supervisión limitada.",
zh = "一个约 6 万小时的大规模英语无标注语音语料,源自 LibriVox 有声书,用作自监督、半监督及有限监督语音识别的基准。",
term_es = "Libri-Light",
term_zh = "Libri-Light",
aliases_es = { "LibriLight", "corpus Libri-Light" },
aliases_zh = { "LibriLight", "Libri-Light 语料" },
}
data["librispeech"] = {
short = "A standard 1,000-hour English read-speech corpus derived from LibriVox audiobooks, widely used as a benchmark for automatic speech recognition with predefined train/dev/test splits and clean/other conditions.",
article = nil,
aliases = { "LibriSpeech", "Librispeech corpus", "LibriSpeech ASR corpus" },
es = "Corpus estándar de unas 1.000 horas de habla leída en inglés, derivado de audiolibros de LibriVox, ampliamente utilizado como benchmark de reconocimiento automático del habla, con particiones de entrenamiento/desarrollo/prueba y condiciones clean/other predefinidas.",
zh = "标准的 1000 小时英语朗读语音语料,源自 LibriVox 有声书;广泛用作自动语音识别的基准,并提供预定义的 train/dev/test 划分及 clean 与 other 条件。",
term_es = "LibriSpeech",
term_zh = "LibriSpeech",
aliases_es = { "corpus LibriSpeech" },
aliases_zh = { "LibriSpeech 语料", "LibriSpeech 数据集" },
}
data["libritts"] = {
short = "A multi-speaker English text-to-speech corpus of about 585 hours derived from LibriSpeech, with original sampling rate, sentence-level segmentation, and normalized text aimed at high-quality TTS training.",
article = nil,
aliases = { "LibriTTS", "LibriTTS corpus" },
es = "Corpus multi-locutor de texto a voz en inglés, de unas 585 horas, derivado de LibriSpeech, con la frecuencia de muestreo original, segmentación a nivel de oración y texto normalizado, orientado al entrenamiento de TTS de alta calidad.",
zh = "源自 LibriSpeech 的多说话人英语文本转语音语料,约 585 小时,保留原始采样率、按句切分并对文本进行归一化,旨在用于高质量 TTS 训练。",
term_es = "LibriTTS",
term_zh = "LibriTTS",
aliases_es = { "corpus LibriTTS" },
aliases_zh = { "LibriTTS 语料", "LibriTTS 数据集" },
}
data["libritts-r"] = {
short = "A speech-restored version of the LibriTTS corpus that applies a neural speech restoration model to remove background noise and reverberation, yielding a cleaner dataset for high-fidelity text-to-speech training.",
article = nil,
aliases = { "LibriTTS-R", "LibriTTS R", "LibriTTS-Restored", "LibriTTS restored" },
es = "Versión con habla restaurada del corpus LibriTTS que aplica un modelo neuronal de restauración de habla para eliminar ruido de fondo y reverberación, produciendo un conjunto de datos más limpio para el entrenamiento de TTS de alta fidelidad.",
zh = "对 LibriTTS 语料应用神经语音修复模型以去除背景噪声和混响后的修复版本,得到更干净的数据集,适用于高保真文本转语音训练。",
term_es = "LibriTTS-R",
term_zh = "LibriTTS-R",
aliases_es = { "LibriTTS restaurado", "corpus LibriTTS-R" },
aliases_zh = { "LibriTTS-R 语料", "修复版 LibriTTS" },
}
data["lifted belief propagation"] = {
short = "An approximate inference algorithm for first-order or relational probabilistic models that groups indistinguishable random variables and factors into supernodes and passes a single message per group, exploiting symmetry to scale to large populations.",
article = nil,
aliases = { "lifted BP", "LBP", "first-order belief propagation" },
es = "Algoritmo de inferencia aproximada para modelos probabilísticos relacionales o de primer orden que agrupa variables aleatorias y factores indistinguibles en supernodos y propaga un único mensaje por grupo, aprovechando la simetría para escalar a poblaciones grandes.",
zh = "一种用于一阶或关系概率模型的近似推断算法,将不可区分的随机变量和因子聚合为超节点,每组只传递一条消息,利用对称性扩展到大规模群体。",
term_es = "propagación de creencias elevada",
term_zh = "提升信念传播",
aliases_es = { "lifted BP", "BP elevada" },
aliases_zh = { "lifted BP", "提升BP" },
}
data["lifted inference"] = {
short = "Probabilistic inference in first-order or relational graphical models that exploits exchangeability and symmetry among groups of random variables to perform computations at the population level rather than enumerating ground instances.",
article = nil,
aliases = { "lifted probabilistic inference", "first-order inference", "relational inference" },
es = "Inferencia probabilística en modelos gráficos relacionales o de primer orden que aprovecha la intercambiabilidad y la simetría entre grupos de variables aleatorias para realizar cálculos a nivel de población en lugar de enumerar las instancias proposicionales.",
zh = "在一阶或关系概率图模型中进行的推断,利用随机变量组之间的可交换性和对称性,在群体层面进行计算,而非枚举所有命题级实例。",
term_es = "inferencia elevada",
term_zh = "提升推断",
aliases_es = { "inferencia probabilística elevada", "lifted inference" },
aliases_zh = { "lifted inference", "提升式推断" },
}
data["lifted variable elimination"] = {
short = "An exact lifted inference algorithm that generalizes variable elimination to first-order graphical models by eliminating sets of indistinguishable random variables jointly using counting and inversion operators.",
article = nil,
aliases = { "LVE", "first-order variable elimination" },
es = "Algoritmo exacto de inferencia elevada que generaliza la eliminación de variables a modelos gráficos de primer orden eliminando conjuntamente conjuntos de variables aleatorias indistinguibles mediante operadores de conteo e inversión.",
zh = "一种精确的提升推断算法,将变量消除推广到一阶概率图模型,通过计数和反演算子联合消除不可区分的随机变量集合。",
term_es = "eliminación de variables elevada",
term_zh = "提升变量消除",
aliases_es = { "LVE", "eliminación de variables de primer orden" },
aliases_zh = { "LVE", "一阶变量消除" },
}
data["ligand docking"] = {
short = "The computational task of predicting the bound pose and binding affinity of a small molecule (ligand) to a target macromolecule, combining a search over poses with a scoring function that ranks them.",
article = nil,
aliases = { "molecular docking", "small-molecule docking", "protein-ligand docking" },
es = "Tarea computacional de predecir la pose unida y la afinidad de unión de una molécula pequeña (ligando) a una macromolécula diana, combinando una búsqueda sobre poses con una función de puntuación que las clasifica.",
zh = "预测小分子(配体)与靶标大分子结合构象和结合亲和力的计算任务,结合构象搜索与对其进行排序的打分函数。",
term_es = "docking de ligandos",
term_zh = "配体对接",
aliases_es = { "acoplamiento molecular", "docking molecular", "docking proteína-ligando" },
aliases_zh = { "分子对接", "蛋白-配体对接", "小分子对接" },
}
data["ligand-based virtual screening"] = {
short = "A virtual-screening strategy that ranks candidate molecules by similarity (2D fingerprints, pharmacophores, shape, or learned embeddings) to known active ligands, used when no reliable target structure is available.",
article = nil,
aliases = { "LBVS", "ligand-based screening", "ligand based virtual screening" },
es = "Estrategia de cribado virtual que clasifica moléculas candidatas por similitud (huellas 2D, farmacóforos, forma o embeddings aprendidos) con ligandos activos conocidos, utilizada cuando no se dispone de una estructura fiable de la diana.",
zh = "一种虚拟筛选策略,通过候选分子与已知活性配体的相似度(二维指纹、药效团、形状或学习的嵌入)进行排序,在缺乏可靠靶标结构时使用。",
term_es = "cribado virtual basado en ligandos",
term_zh = "基于配体的虚拟筛选",
aliases_es = { "LBVS", "screening virtual basado en ligandos" },
aliases_zh = { "LBVS", "配体基础虚拟筛选" },
}
data["ligandmpnn"] = {
short = "An extension of ProteinMPNN that conditions sequence design on bound small-molecule ligands, metals, and nucleic acids, enabling inverse folding for protein–ligand interfaces and binder design.",
article = nil,
aliases = { "LigandMPNN", "Ligand MPNN", "ligand-mpnn" },
es = "Extensión de ProteinMPNN que condiciona el diseño de secuencias en ligandos de moléculas pequeñas, metales y ácidos nucleicos unidos, permitiendo el plegamiento inverso para interfaces proteína-ligando y diseño de unidores.",
zh = "ProteinMPNN 的扩展版本,在序列设计中考虑结合的小分子配体、金属和核酸,实现蛋白-配体界面的逆折叠和结合蛋白设计。",
term_es = "LigandMPNN",
term_zh = "LigandMPNN",
aliases_es = { "LigandMPNN" },
aliases_zh = { "LigandMPNN", "配体 MPNN" },
}
data["light-sheet microscopy"] = {
short = "Fluorescence microscopy technique in which a thin sheet of light illuminates a single plane of the sample orthogonal to the detection axis, enabling fast 3D imaging of large specimens with low photobleaching and phototoxicity.",
article = nil,
aliases = { "light sheet microscopy", "LSFM", "light-sheet fluorescence microscopy", "selective plane illumination microscopy", "SPIM" },
es = "Técnica de microscopía de fluorescencia en la que una lámina delgada de luz ilumina un solo plano de la muestra, ortogonal al eje de detección, lo que permite obtener imágenes 3D rápidas de muestras grandes con bajo fotoblanqueo y fototoxicidad.",
zh = "一种荧光显微术,使用与检测轴正交的薄光片照亮样品的单一平面,从而以低光漂白和低光毒性实现大样本的快速三维成像。",
term_es = "microscopía de lámina de luz",
term_zh = "光片显微术",
aliases_es = { "microscopía de hoja de luz", "LSFM", "microscopía de fluorescencia de lámina de luz", "SPIM" },
aliases_zh = { "光片荧光显微术", "LSFM", "选择性平面照明显微术", "SPIM" },
}
data["likelihood"] = {
short = "The probability P(D|θ) of the observed data D viewed as a function of the parameters θ. Unlike a probability distribution over D, the likelihood is not normalized in θ and underpins both maximum likelihood and Bayesian inference.",
article = nil,
aliases = { "likelihood function", "L(θ)", "L(θ;D)", "data likelihood", "P(D|θ)" },
es = "Probabilidad P(D|θ) de los datos observados D vista como función de los parámetros θ. A diferencia de una distribución de probabilidad sobre D, la verosimilitud no está normalizada en θ y sustenta tanto la máxima verosimilitud como la inferencia bayesiana.",
zh = "将观测数据 D 的概率 P(D|θ) 视为参数 θ 的函数。与关于 D 的概率分布不同,似然在 θ 上并不归一化,是最大似然估计与贝叶斯推断的基础。",
term_es = "verosimilitud",
term_zh = "似然",
aliases_es = { "función de verosimilitud", "L(θ)", "verosimilitud de los datos", "P(D|θ)" },
aliases_zh = { "似然函数", "L(θ)", "数据似然", "P(D|θ)" },
}
data["likelihood equivalence"] = {
short = "A property of Bayesian network structure scoring whereby two directed acyclic graphs that encode the same conditional independence relations (Markov-equivalent DAGs) receive identical marginal likelihoods under any prior satisfying parameter modularity.",
article = nil,
aliases = { "score equivalence" },
es = "Propiedad de la puntuación de estructura de redes bayesianas según la cual dos grafos acíclicos dirigidos que codifican las mismas relaciones de independencia condicional (DAG Markov-equivalentes) reciben verosimilitudes marginales idénticas bajo cualquier a priori que satisfaga modularidad de parámetros.",
zh = "贝叶斯网络结构评分的一种性质:编码相同条件独立关系的两个有向无环图(马尔可夫等价DAG)在满足参数模块性的任何先验下获得相同的边际似然。",
term_es = "equivalencia de verosimilitud",
term_zh = "似然等价",
aliases_es = { "equivalencia de puntuación" },
aliases_zh = { "评分等价" },
}
data["likelihood evidence"] = {
short = "Soft evidence in a Bayesian network specified as a likelihood ratio over the states of an unobserved variable rather than as a hard observation, also known as virtual evidence.",
article = nil,
aliases = { "virtual evidence", "soft evidence", "Pearl's virtual evidence" },
es = "Evidencia blanda en una red bayesiana especificada como una razón de verosimilitudes sobre los estados de una variable no observada en lugar de como una observación dura, también conocida como evidencia virtual.",
zh = "贝叶斯网络中的软证据,以未观测变量各状态上的似然比形式给出,而非以硬观测形式给出,又称虚拟证据。",
term_es = "evidencia de verosimilitud",
term_zh = "似然证据",
aliases_es = { "evidencia virtual", "evidencia blanda" },
aliases_zh = { "虚拟证据", "软证据" },
}
data["likelihood ratio ood"] = {
short = "An out-of-distribution detection score that uses the ratio of likelihoods from two density models (e.g., a foreground model and a background model) to cancel input-complexity confounders that bias raw likelihood scores.",
article = nil,
aliases = { "likelihood ratio OOD detection", "LLR OOD", "likelihood ratios for OOD" },
es = "Puntaje de detección fuera de distribución que utiliza la razón de verosimilitudes de dos modelos de densidad (p. ej., un modelo de primer plano y otro de fondo) para cancelar factores de complejidad de la entrada que sesgan los puntajes brutos de verosimilitud.",
zh = "一种分布外检测分数,使用两个密度模型(如前景模型与背景模型)的似然比,以抵消会使原始似然分数产生偏差的输入复杂度混淆因素。",
term_es = "OOD por razón de verosimilitudes",
term_zh = "似然比 OOD",
aliases_es = { "detección OOD con razón de verosimilitudes", "LLR OOD" },
aliases_zh = { "似然比分布外检测", "LLR OOD", "用似然比做 OOD" },
}
data["likelihood weighting"] = {
short = "An importance sampling algorithm for Bayesian networks that fixes evidence variables to their observed values, samples non-evidence variables in topological order, and weights each sample by the product of conditional probabilities of the evidence.",
article = nil,
aliases = { "LW", "likelihood-weighted sampling" },
es = "Algoritmo de muestreo por importancia para redes bayesianas que fija las variables de evidencia a sus valores observados, muestrea las variables no evidenciadas en orden topológico y pondera cada muestra por el producto de las probabilidades condicionales de la evidencia.",
zh = "一种用于贝叶斯网络的重要性采样算法:将证据变量固定为观测值,按拓扑顺序对非证据变量进行采样,并以证据条件概率的乘积对每个样本加权。",
term_es = "ponderación por verosimilitud",
term_zh = "似然加权",
aliases_es = { "LW", "muestreo por ponderación de verosimilitud" },
aliases_zh = { "LW", "似然加权采样" },
}
data["likelihood-based model"] = {
short = "A generative model whose parameters are fit by maximizing (or bounding) the likelihood of observed data under an explicit probability density, including autoregressive models, normalizing flows, VAEs, and diffusion models.",
article = nil,
aliases = { "likelihood based model", "explicit likelihood model", "explicit density model" },
es = "Modelo generativo cuyos parámetros se ajustan maximizando (o acotando) la verosimilitud de los datos observados bajo una densidad de probabilidad explícita, incluyendo modelos autorregresivos, flujos normalizantes, VAE y modelos de difusión.",
zh = "一种生成模型,其参数通过最大化(或下界化)观测数据在显式概率密度下的似然来拟合,涵盖自回归模型、归一化流、VAE 和扩散模型。",
term_es = "modelo basado en verosimilitud",
term_zh = "基于似然的模型",
aliases_es = { "modelo de densidad explícita", "modelo de verosimilitud explícita" },
aliases_zh = { "显式密度模型", "似然模型" },
}
data["likelihood-free inference"] = {
short = "Bayesian inference for models whose likelihood is intractable but can be sampled from via simulation, using approaches such as approximate Bayesian computation, density estimation, or ratio estimation.",
article = nil,
aliases = { "simulation-based inference", "SBI", "LFI", "ABC", "approximate Bayesian computation" },
es = "Inferencia bayesiana para modelos cuya verosimilitud es intratable pero permite simulación, mediante enfoques como cómputo bayesiano aproximado, estimación de densidad o estimación de razones.",
zh = "针对似然不可解析但可通过模拟生成样本的模型进行的贝叶斯推断,常用方法包括近似贝叶斯计算、密度估计和比率估计等。",
term_es = "inferencia sin verosimilitud",
term_zh = "无似然推断",
aliases_es = { "inferencia basada en simulación", "SBI", "ABC", "cómputo bayesiano aproximado" },
aliases_zh = { "基于模拟的推断", "SBI", "LFI", "ABC", "近似贝叶斯计算" },
}
data["lime"] = {
short = "Local Interpretable Model-agnostic Explanations: a technique that explains an individual prediction of any classifier by fitting an interpretable surrogate model (typically sparse linear) to perturbed samples around the input.",
article = nil,
aliases = { "LIME", "Local Interpretable Model-agnostic Explanations", "local interpretable model-agnostic explanations" },
es = "Local Interpretable Model-agnostic Explanations: técnica que explica una predicción individual de cualquier clasificador ajustando un modelo sustituto interpretable (típicamente lineal disperso) sobre muestras perturbadas alrededor de la entrada.",
zh = "Local Interpretable Model-agnostic Explanations:通过对输入周围的扰动样本拟合可解释代理模型(通常为稀疏线性模型)来解释任意分类器单个预测的技术。",
term_es = "LIME",
term_zh = "LIME",
aliases_es = { "LIME", "explicaciones locales agnósticas al modelo" },
aliases_zh = { "LIME", "局部可解释模型无关解释" },
}
data["limited information maximum likelihood"] = {
short = "A single-equation maximum likelihood estimator for instrumental variables models that uses only the information in the equation of interest, in contrast to full information ML. It is median-unbiased under weak instruments and equivalent to 2SLS in the just-identified case.",
article = nil,
aliases = { "LIML", "Limited Information Maximum Likelihood", "limited-information maximum likelihood" },
es = "Estimador de máxima verosimilitud de una sola ecuación para modelos con variables instrumentales que utiliza solo la información de la ecuación de interés, a diferencia de la verosimilitud de información completa. Es mediana-insesgado bajo instrumentos débiles y equivalente a MC2E en el caso justo identificado.",
zh = "用于工具变量模型的单方程极大似然估计量,仅利用所关注方程中的信息,与全信息极大似然相对应。在弱工具变量下具有中位无偏性,并在恰好识别情形下与两阶段最小二乘等价。",
term_es = "máxima verosimilitud con información limitada",
term_zh = "有限信息极大似然",
aliases_es = { "LIML", "máxima verosimilitud de información limitada" },
aliases_zh = { "LIML", "有限信息最大似然估计" },
}
data["limma-voom"] = {
short = "RNA-seq differential expression workflow combining the limma linear-model framework with voom-derived precision weights that model the mean-variance relationship of log-counts, enabling Gaussian linear modeling of count data.",
article = nil,
aliases = { "limma+voom", "voom-limma", "limma voom", "voom" },
es = "Flujo de trabajo de expresión diferencial en RNA-seq que combina el marco de modelos lineales de limma con los pesos de precisión derivados de voom, los cuales modelan la relación media-varianza de los log-conteos y permiten un modelado lineal gaussiano de datos de conteo.",
zh = "结合 limma 线性模型框架与 voom 导出的精度权重的 RNA-seq 差异表达分析流程,voom 权重对对数计数的均值-方差关系建模,使计数数据可用高斯线性模型分析。",
term_es = "limma-voom",
term_zh = "limma-voom",
aliases_es = { "voom-limma", "voom" },
aliases_zh = { "limma+voom", "voom", "limma voom 流程" },
}
data["line graph embedding"] = {
short = "A graph-representation-learning technique that constructs the line graph of an input graph — whose vertices are the original edges and whose edges connect adjacent original edges — and learns embeddings on it to model edge-centric tasks such as link prediction.",
article = nil,
aliases = { "line-graph embedding", "L(G) embedding" },
es = "Técnica de aprendizaje de representaciones de grafos que construye el grafo línea del grafo de entrada — cuyos vértices son las aristas originales y cuyas aristas conectan aristas originales adyacentes — y aprende embeddings sobre él para modelar tareas centradas en aristas, como la predicción de enlaces.",
zh = "一种图表示学习技术,先构造输入图的线图——其顶点为原图的边,其边连接相邻的原图边——再在其上学习嵌入,用于刻画以边为中心的任务,如链接预测。",
term_es = "embedding de grafo línea",
term_zh = "线图嵌入",
aliases_es = { "embedding de line graph" },
aliases_zh = { "L(G) 嵌入", "线图表示学习" },
}
data["line search"] = {
short = "An optimization technique that determines a suitable step size along a chosen search direction by approximately solving a one-dimensional minimization of the objective.",
article = nil,
aliases = { "line-search" },
es = "Técnica de optimización que determina un tamaño de paso adecuado a lo largo de una dirección de búsqueda fija resolviendo aproximadamente una minimización unidimensional del objetivo.",
zh = "一种优化技术,通过近似求解沿给定搜索方向的一维极小化问题来确定合适的步长。",
term_es = "búsqueda en línea",
term_zh = "线搜索",
aliases_es = { "line search", "búsqueda lineal" },
aliases_zh = { "line search", "一维搜索", "直线搜索" },
}
data["lineage tracing"] = {
short = "Experimental approach that follows the descendants of individual cells over time using heritable marks such as fluorescent reporters, recombinase-induced labels, or unique DNA barcodes, to reconstruct cellular genealogies.",
article = nil,
aliases = { "cell lineage tracing", "clonal tracing", "lineage tracking" },
es = "Enfoque experimental que sigue a los descendientes de células individuales a lo largo del tiempo mediante marcas heredables como reporteros fluorescentes, etiquetas inducidas por recombinasas o códigos de barras de ADN únicos, para reconstruir genealogías celulares.",
zh = "通过荧光报告、重组酶诱导标签或独特 DNA 条形码等可遗传标记,长期追踪单个细胞后代以重建细胞谱系的实验方法。",
term_es = "trazado de linaje celular",
term_zh = "谱系追踪",
aliases_es = { "rastreo de linaje", "trazado de linaje", "rastreo clonal" },
aliases_zh = { "细胞谱系追踪", "克隆追踪", "谱系示踪" },
}
data["linear artificial tomography"] = {
short = "A representation-engineering technique that uses linear probes and contrastive prompt pairs to extract concept directions from a transformer's hidden states, then steers behavior by adding or subtracting those directions at inference time.",
article = nil,
aliases = { "LAT", "Linear Artificial Tomography" },
es = "Técnica de ingeniería de representaciones que utiliza sondas lineales y pares de prompts contrastivos para extraer direcciones de concepto a partir de los estados ocultos de un transformer, y dirige el comportamiento sumando o restando dichas direcciones en tiempo de inferencia.",
zh = "一种表征工程技术,借助线性探针和对比性提示对从Transformer的隐藏状态中提取概念方向,并在推理时通过加减这些方向来引导模型行为。",
term_es = "tomografía artificial lineal",
term_zh = "线性人工断层扫描",
aliases_es = { "LAT", "tomografía lineal artificial" },
aliases_zh = { "LAT", "线性人工层析" },
}
data["linear attention"] = {
short = "A family of attention mechanisms that replace the softmax with a kernel feature map, allowing the attention computation to be reordered into linear time and memory in sequence length.",
article = nil,
aliases = { "Linear Attention", "linearized attention", "kernelized attention" },
es = "Familia de mecanismos de atención que sustituyen el softmax por un mapa de características de núcleo, permitiendo reordenar el cálculo de la atención a tiempo y memoria lineales en la longitud de la secuencia.",
zh = "一类注意力机制,将 softmax 替换为核特征映射,使注意力计算可以重排为关于序列长度的线性时间与内存。",
term_es = "atención lineal",
term_zh = "线性注意力",
aliases_es = { "linear attention", "atención linealizada", "atención kernelizada" },
aliases_zh = { "linear attention", "线性化注意力", "核化注意力" },
}
data["linear convergence"] = {
short = "A convergence rate at which the error is multiplied by a constant factor strictly less than one at each iteration, equivalent to exponential decay of the error.",
article = nil,
aliases = { "geometric convergence" },
es = "Tasa de convergencia en la que el error se multiplica en cada iteración por un factor constante estrictamente menor que uno, equivalente a un decaimiento exponencial del error.",
zh = "每次迭代中误差被一个严格小于 1 的常数因子相乘的收敛速率,等价于误差呈指数衰减。",
term_es = "convergencia lineal",
term_zh = "线性收敛",
aliases_es = { "convergencia geométrica" },
aliases_zh = { "几何收敛" },
}
data["linear decay"] = {
short = "A learning rate schedule that decreases the rate linearly from an initial value to a final (often zero) value over a fixed number of steps.",
article = nil,
aliases = { "linear learning rate decay", "linear decay schedule" },
es = "Programación de tasa de aprendizaje que reduce la tasa de forma lineal desde un valor inicial hasta un valor final (a menudo cero) en un número fijo de pasos.",
zh = "一种学习率调度策略,在固定步数内将学习率从初始值线性下降到终值(通常为零)。",
term_es = "decaimiento lineal",
term_zh = "线性衰减",
aliases_es = { "decaimiento lineal de la tasa de aprendizaje" },
aliases_zh = { "线性学习率衰减" },
}
data["linear dynamical system"] = {
short = "A continuous state-space model in which the latent state evolves according to a linear transition with Gaussian noise and observations are linear Gaussian functions of the state; admits exact inference via the Kalman filter and smoother.",
article = nil,
aliases = { "LDS", "linear-Gaussian dynamical system", "linear Gaussian dynamical system" },
es = "Modelo de espacio de estados continuo en el que el estado latente evoluciona según una transición lineal con ruido gaussiano y las observaciones son funciones lineales gaussianas del estado; admite inferencia exacta mediante el filtro y suavizador de Kalman.",
zh = "一种连续状态空间模型,潜在状态依线性高斯噪声转移演化,观测为状态的线性高斯函数;可通过卡尔曼滤波器与平滑器进行精确推断。",
term_es = "sistema dinámico lineal",
term_zh = "线性动态系统",
aliases_es = { "LDS", "sistema dinámico lineal gaussiano" },
aliases_zh = { "LDS", "线性高斯动态系统" },
}
data["linear gaussian conditional"] = {
short = "A conditional probability distribution in which a continuous variable is Gaussian with a mean that is an affine function of its parent variables and a fixed variance, used as the local model in Gaussian Bayesian networks.",
article = nil,
aliases = { "linear-Gaussian CPD", "linear Gaussian CPD", "linear-Gaussian conditional" },
es = "Distribución de probabilidad condicional en la que una variable continua es gaussiana con una media que es función afín de sus padres y varianza fija; se utiliza como modelo local en redes bayesianas gaussianas.",
zh = "一种条件概率分布:连续变量服从高斯分布,其均值是父变量的仿射函数,方差固定;在高斯贝叶斯网络中用作局部模型。",
term_es = "condicional gaussiana lineal",
term_zh = "线性高斯条件分布",
aliases_es = { "CPD gaussiana lineal" },
aliases_zh = { "线性高斯CPD" },
}
data["linear gaussian state space model"] = {
short = "A state space model with linear Gaussian state transitions and linear Gaussian observation equations; the Kalman filter and smoother provide exact closed-form posterior inference for filtering, smoothing, and prediction.",
article = nil,
aliases = { "LGSSM", "linear-Gaussian SSM", "Kalman model" },
es = "Modelo de espacio de estados con transiciones de estado lineales gaussianas y ecuaciones de observación lineales gaussianas; el filtro y suavizador de Kalman proporcionan inferencia posterior exacta en forma cerrada para filtrado, suavizado y predicción.",
zh = "一种状态空间模型,状态转移与观测方程均为线性高斯;卡尔曼滤波器与平滑器为滤波、平滑与预测提供精确闭式后验推断。",
term_es = "modelo de espacio de estados gaussiano lineal",
term_zh = "线性高斯状态空间模型",
aliases_es = { "LGSSM", "modelo gaussiano lineal de espacio de estados" },
aliases_zh = { "LGSSM", "线性高斯SSM" },
}
data["linear mode connectivity"] = {
short = "An empirical phenomenon in which two SGD-trained neural-network solutions, after suitable permutation alignment, are connected by a linear path of low loss in weight space.",
article = nil,
aliases = { "LMC", "linear connectivity", "linear path connectivity" },
es = "Fenómeno empírico en el que dos soluciones de redes neuronales entrenadas con SGD, tras una alineación adecuada por permutación, quedan conectadas por una trayectoria lineal de baja pérdida en el espacio de pesos.",
zh = "一种经验现象:两个由 SGD 训练得到的神经网络解,在经过适当的置换对齐后,可通过权重空间中的一条低损失线性路径相连。",
term_es = "conectividad lineal de modos",
term_zh = "线性模式连通性",
aliases_es = { "LMC", "conectividad lineal", "conectividad por trayectoria lineal" },
aliases_zh = { "LMC", "线性连通性", "线性路径连通性" },
}
data["linear model of coregionalization"] = {
short = "A multi-output Gaussian process model in which each output is a linear combination of a small set of independent latent Gaussian processes, allowing scalable modeling of correlated outputs.",
article = nil,
aliases = { "LMC", "linear coregionalization model", "linear model of corregionalization" },
es = "Modelo de procesos gaussianos multi-salida en el que cada salida es una combinación lineal de un conjunto reducido de procesos gaussianos latentes independientes, permitiendo modelar de forma escalable salidas correlacionadas.",
zh = "一种多输出高斯过程模型,其中每个输出都是少量独立潜在高斯过程的线性组合,可对相关输出进行可扩展的建模。",
term_es = "modelo lineal de corregionalización",
term_zh = "线性协区域化模型",
aliases_es = { "LMC", "modelo de corregionalización lineal" },
aliases_zh = { "LMC", "线性协同区域化模型", "线性共区域化模型" },
}
data["linear predictive coding"] = {
short = "A speech analysis and coding technique that models each sample as a linear combination of previous samples, parameterizing the vocal tract as an all-pole filter and transmitting the predictor coefficients plus a residual excitation signal.",
article = nil,
aliases = { "LPC", "linear prediction coding", "linear predictive coder" },
es = "Técnica de análisis y codificación del habla que modela cada muestra como combinación lineal de muestras anteriores, parametrizando el tracto vocal como un filtro todo polos y transmitiendo los coeficientes del predictor junto con una señal residual de excitación.",
zh = "一种语音分析与编码技术,将每个样本建模为前若干样本的线性组合,把声道参数化为全极点滤波器,并传输预测器系数和残差激励信号。",
term_es = "codificación predictiva lineal",
term_zh = "线性预测编码",
aliases_es = { "LPC", "predicción lineal" },
aliases_zh = { "LPC", "线性预测" },
}
data["linear predictive synthesis"] = {
short = "A speech synthesis method that reconstructs the waveform by exciting an all-pole filter defined by linear predictive coding coefficients with a voiced (pulse train) or unvoiced (noise) source signal.",
article = nil,
aliases = { "LPC synthesis", "LPC speech synthesis", "linear prediction synthesis" },
es = "Método de síntesis del habla que reconstruye la forma de onda excitando un filtro todo polos definido por los coeficientes de codificación predictiva lineal con una señal de excitación sonora (tren de pulsos) o sorda (ruido).",
zh = "一种语音合成方法,使用由线性预测编码系数定义的全极点滤波器,并以有声(脉冲序列)或无声(噪声)激励信号驱动其重建波形。",
term_es = "síntesis predictiva lineal",
term_zh = "线性预测合成",
aliases_es = { "síntesis LPC", "síntesis por predicción lineal" },
aliases_zh = { "LPC 合成", "线性预测语音合成" },
}
data["linear probe"] = {
short = "A linear classifier trained on a frozen intermediate representation of a model to test what information is linearly decodable from that layer. Widely used to study what features are encoded in pretrained representations.",
article = nil,
aliases = { "linear probing", "diagnostic linear classifier" },
es = "Clasificador lineal entrenado sobre una representación intermedia congelada de un modelo para evaluar qué información es linealmente decodificable en esa capa. Muy usado para estudiar qué codifican las representaciones preentrenadas.",
zh = "在模型的某一冻结中间表示上训练的线性分类器,用于检验该层中可线性解码的信息,是研究预训练表示编码内容的常用工具。",
term_es = "sondeo lineal",
term_zh = "线性探针",
aliases_es = { "probe lineal", "clasificador de sondeo lineal" },
aliases_zh = { "线性探测", "线性诊断分类器" },
}
data["linear representation hypothesis"] = {
short = "The conjecture that neural networks represent high-level concepts as linear directions in activation space, so that features can be added, subtracted, and read out by linear projections.",
article = nil,
aliases = { "LRH", "linearity hypothesis", "linear feature hypothesis" },
es = "Conjetura según la cual las redes neuronales representan conceptos de alto nivel como direcciones lineales en el espacio de activaciones, lo que permite sumar, restar y leer rasgos mediante proyecciones lineales.",
zh = "一种假设,认为神经网络以激活空间中的线性方向来表示高层概念,因此特征可以通过线性投影进行加减和读取。",
term_es = "hipótesis de representación lineal",
term_zh = "线性表示假设",
aliases_es = { "LRH", "hipótesis de linealidad" },
aliases_zh = { "线性表征假设", "线性特征假设", "LRH" },
}
data["linear shap"] = {
short = "A SHAP variant that computes Shapley values in closed form for linear models by assuming feature independence, with each feature's contribution given by its coefficient times its deviation from the mean.",
article = nil,
aliases = { "LinearSHAP", "linear explainer", "linear Shapley values" },
es = "Variante de SHAP que calcula los valores de Shapley en forma cerrada para modelos lineales suponiendo independencia entre rasgos; la contribución de cada rasgo es su coeficiente por la desviación respecto a la media.",
zh = "SHAP 的一种变体,在假设特征独立的前提下,对线性模型给出闭式 Shapley 值,每个特征的贡献等于其系数乘以与均值的偏差。",
term_es = "SHAP lineal",
term_zh = "线性 SHAP",
aliases_es = { "LinearSHAP", "explicador lineal" },
aliases_zh = { "LinearSHAP", "线性 Shapley 值" },
}
data["linear speedup federated"] = {
short = "A theoretical property of distributed and federated optimization in which the number of iterations needed to reach a target error decreases linearly with the number of participating clients, often shown for FedAvg under bounded heterogeneity.",
article = nil,
aliases = { "linear speedup", "linear speedup in federated learning", "linear scaling federated" },
es = "Propiedad teórica de la optimización distribuida y federada en la que el número de iteraciones necesarias para alcanzar un error objetivo disminuye linealmente con el número de clientes participantes, a menudo demostrada para FedAvg bajo heterogeneidad acotada.",
zh = "分布式与联邦优化的一种理论性质,达到目标误差所需的迭代次数随参与客户端数量线性减少;在有界异质性下常对 FedAvg 加以证明。",
term_es = "aceleración lineal en aprendizaje federado",
term_zh = "联邦学习的线性加速",
aliases_es = { "aceleración lineal", "escalado lineal federado" },
aliases_zh = { "线性加速", "联邦线性加速", "联邦线性扩展" },
}
data["linear structural equation model"] = {
short = "A structural equation model in which each endogenous variable is expressed as a linear function of its direct causes and an additive noise term. It underlies path analysis and is the workhorse model for parametric causal discovery.",
article = nil,
aliases = { "linear SEM", "Linear SEM", "linear structural equations", "linear structural equations model", "LSEM" },
es = "Modelo de ecuaciones estructurales en el que cada variable endógena se expresa como una función lineal de sus causas directas más un término de ruido aditivo. Es la base del análisis de rutas y el modelo central para el descubrimiento causal paramétrico.",
zh = "一种结构方程模型,其中每个内生变量被表达为其直接原因的线性函数与一个加性噪声项之和。它是路径分析的基础,也是参数化因果发现的核心模型。",
term_es = "modelo lineal de ecuaciones estructurales",
term_zh = "线性结构方程模型",
aliases_es = { "SEM lineal", "modelo SEM lineal", "LSEM" },
aliases_zh = { "线性 SEM", "LSEM", "线性结构方程" },
}
data["linear surrogate"] = {
short = "A linear model fit to approximate a complex black-box model's predictions, used as an interpretable proxy whose coefficients summarize how features influence the original model's output.",
article = nil,
aliases = { "linear surrogate model", "linear proxy model" },
es = "Modelo lineal ajustado para aproximar las predicciones de un modelo caja negra complejo; se usa como sustituto interpretable cuyos coeficientes resumen el efecto de cada rasgo en la salida original.",
zh = "用于近似复杂黑盒模型预测的线性模型,作为可解释的代理,其系数概括了各特征对原模型输出的影响。",
term_es = "modelo sustituto lineal",
term_zh = "线性代理模型",
aliases_es = { "sustituto lineal", "proxy lineal" },
aliases_zh = { "线性代用模型", "线性替代模型" },
}
data["linear temporal logic"] = {
short = "A modal logic for reasoning about sequences of states with temporal operators G (globally), F (eventually), X (next), and U (until); widely used to specify properties of reactive systems and as a target language for symbolic reinforcement-learning rewards.",
article = nil,
aliases = { "LTL", "linear-time temporal logic", "linear temporal logic" },
es = "Lógica modal para razonar sobre secuencias de estados con operadores temporales G (siempre), F (eventualmente), X (siguiente) y U (hasta), ampliamente utilizada para especificar propiedades de sistemas reactivos y como lenguaje objetivo de recompensas simbólicas en aprendizaje por refuerzo.",
zh = "一种用于对状态序列进行推理的模态逻辑,包含 G(始终)、F(最终)、X(下一步)和 U(直到)等时序算子,广泛用于反应式系统的性质规范以及作为强化学习符号奖励的目标语言。",
term_es = "lógica temporal lineal",
term_zh = "线性时序逻辑",
aliases_es = { "LTL", "lógica temporal de tiempo lineal" },
aliases_zh = { "LTL", "线性时间时序逻辑" },
}
data["linear-chain crf"] = {
short = "A conditional random field whose factor graph forms a chain over output labels, modeling p(y|x) with unary features on each label and pairwise features on adjacent labels; widely used for sequence labeling tasks.",
article = nil,
aliases = { "linear chain CRF", "linear-chain conditional random field", "chain CRF", "sequential CRF" },
es = "Campo aleatorio condicional cuyo grafo de factores forma una cadena sobre las etiquetas de salida, modelando p(y|x) con factores unarios sobre cada etiqueta y factores binarios sobre etiquetas adyacentes; muy usado para etiquetado de secuencias.",
zh = "一种条件随机场,其因子图在输出标签上形成链状结构,使用每个标签的一元特征和相邻标签间的二元特征建模p(y|x);广泛用于序列标注任务。",
term_es = "CRF de cadena lineal",
term_zh = "线性链CRF",
aliases_es = { "campo aleatorio condicional de cadena lineal" },
aliases_zh = { "线性链条件随机场", "链式CRF" },
}
data["linearized laplace"] = {
short = "A predictive variant of the Laplace approximation that linearizes the network around the MAP estimate before computing the posterior predictive, yielding well-behaved uncertainties even in over-parameterized models.",
article = nil,
aliases = { "linearised Laplace", "linearized Laplace approximation", "GLM Laplace", "generalized linear model Laplace" },
es = "Variante predictiva de la aproximación de Laplace que linealiza la red alrededor de la estimación MAP antes de calcular el posterior predictivo, produciendo incertidumbres bien comportadas incluso en modelos sobreparametrizados.",
zh = "拉普拉斯近似的预测变体,在计算后验预测之前先在 MAP 估计附近对网络做线性化,从而即使在过参数化模型中也能给出良好的不确定性。",
term_es = "Laplace linealizada",
term_zh = "线性化拉普拉斯",
aliases_es = { "aproximación de Laplace linealizada", "Laplace GLM" },
aliases_zh = { "线性化拉普拉斯近似", "linearised Laplace", "广义线性模型拉普拉斯" },
}
data["lingam"] = {
short = "A causal discovery method for linear structural equation models that exploits non-Gaussianity of the noise terms to uniquely identify the DAG up to its causal ordering, going beyond the Markov equivalence class.",
article = nil,
aliases = { "LiNGAM", "linear non-Gaussian acyclic model", "Linear Non-Gaussian Acyclic Model", "linear non-gaussian acyclic model" },
es = "Método de descubrimiento causal para modelos lineales de ecuaciones estructurales que aprovecha la no gaussianidad de los términos de ruido para identificar el DAG de forma única salvo el orden causal, yendo más allá de la clase de equivalencia de Markov.",
zh = "一种用于线性结构方程模型的因果发现方法,利用噪声项的非高斯性,在 Markov 等价类之外唯一识别有向无环图(最多到因果顺序)。",
term_es = "LiNGAM",
term_zh = "LiNGAM",
aliases_es = { "modelo acíclico lineal no gaussiano", "LiNGAM" },
aliases_zh = { "线性非高斯无环模型", "LiNGAM" },
}
data["linguistic probe"] = {
short = "A diagnostic classifier designed to detect whether specific linguistic properties — such as part-of-speech, syntactic structure, or coreference — are encoded in a model's internal representations.",
article = nil,
aliases = { "linguistic probing", "syntactic probe", "NLP probe" },
es = "Clasificador diagnóstico diseñado para detectar si propiedades lingüísticas concretas —como categoría gramatical, estructura sintáctica o correferencia— están codificadas en las representaciones internas de un modelo.",
zh = "用于检测词性、句法结构或共指等特定语言学属性是否被编码在模型内部表示中的诊断分类器。",
term_es = "sondeo lingüístico",
term_zh = "语言学探针",
aliases_es = { "probe lingüístico", "sondeo sintáctico" },
aliases_zh = { "语言探针", "句法探针", "NLP 探针" },
}
data["link prediction"] = {
short = "The task of predicting the existence of an unobserved edge between two nodes in a graph, central to social-network analysis, recommender systems, and knowledge-graph completion, and typically formulated as a binary or ranking problem over node pairs.",
article = nil,
aliases = { "edge prediction", "link forecasting", "missing link prediction" },
es = "Tarea de predecir la existencia de una arista no observada entre dos nodos de un grafo, central en el análisis de redes sociales, los sistemas de recomendación y el completado de grafos de conocimiento, y formulada habitualmente como un problema binario o de ranking sobre pares de nodos.",
zh = "预测图中两节点之间未观测边是否存在的任务,是社交网络分析、推荐系统和知识图谱补全的核心问题,通常被建模为节点对上的二分类或排序问题。",
term_es = "predicción de enlaces",
term_zh = "链接预测",
aliases_es = { "predicción de aristas" },
aliases_zh = { "边预测", "缺失链接预测" },
}
data["linkage disequilibrium"] = {
short = "Non-random association of alleles at different loci within a population, typically arising from physical proximity on a chromosome combined with limited recombination, mutation, or selection history.",
article = nil,
aliases = { "LD", "allelic association", "gametic disequilibrium" },
es = "Asociación no aleatoria de alelos en distintos loci dentro de una población, que normalmente surge de la proximidad física en un cromosoma combinada con recombinación limitada, historia mutacional o selección.",
zh = "群体中不同位点等位基因之间的非随机关联,通常源于染色体上的物理邻近以及有限的重组、突变或选择历史。",
term_es = "desequilibrio de ligamiento",
term_zh = "连锁不平衡",
aliases_es = { "LD", "asociación alélica", "desequilibrio gamético" },
aliases_zh = { "LD", "等位基因关联", "配子不平衡" },
}
data["lion optimizer"] = {
short = "An optimizer discovered via symbolic program search that updates parameters using only the sign of an interpolation between the current gradient and a momentum term, requiring less memory than Adam while matching or exceeding its performance.",
article = nil,
aliases = { "Lion", "EvoLved Sign Momentum", "Lion (EvoLved Sign Momentum)" },
es = "Optimizador descubierto mediante búsqueda simbólica de programas que actualiza los parámetros usando solo el signo de una interpolación entre el gradiente actual y un término de momentum, requiriendo menos memoria que Adam y alcanzando o superando su rendimiento.",
zh = "一种通过符号程序搜索发现的优化器,仅使用当前梯度与动量项插值的符号来更新参数,比 Adam 内存占用更少,性能可与之相当或更优。",
term_es = "Lion",
term_zh = "Lion",
aliases_es = { "optimizador Lion" },
aliases_zh = { "Lion 优化器", "进化符号动量" },
}
data["lipinski rule of five"] = {
short = "A medicinal-chemistry heuristic for oral drug-likeness (Lipinski, 1997) flagging poor absorption when a molecule has more than five H-bond donors, ten H-bond acceptors, a molecular weight above 500 Da, or a calculated logP above 5.",
article = nil,
aliases = { "Rule of Five", "Ro5", "Lipinski's Rule of Five", "Lipinski rule", "Lipinski's rules" },
es = "Heurística de química medicinal para predecir la similitud a fármaco oral (Lipinski, 1997) que indica mala absorción cuando una molécula tiene más de cinco donantes de enlace de hidrógeno, diez aceptores, peso molecular superior a 500 Da o un logP calculado mayor que 5.",
zh = "Lipinski(1997 年)提出的药物口服可成药性医药化学经验规则:当分子的氢键供体超过 5 个、氢键受体超过 10 个、分子量超过 500 Da 或计算 logP 超过 5 时,提示口服吸收性较差。",
term_es = "regla de cinco de Lipinski",
term_zh = "Lipinski 五规则",
aliases_es = { "regla de los cinco", "Ro5", "regla de Lipinski" },
aliases_zh = { "里宾斯基五规则", "Ro5", "类药五规则", "Lipinski's Rule of Five" },
}
data["lipophilicity"] = {
short = "A compound's affinity for a lipid-like (non-polar) phase, typically quantified by the octanol–water partition coefficient logP or distribution coefficient logD; a key driver of membrane permeability, binding, and ADMET behaviour.",
article = nil,
aliases = { "lipophilic", "hydrophobicity", "fat-solubility" },
es = "Afinidad de un compuesto por una fase de tipo lipídico (no polar), típicamente cuantificada por el coeficiente de partición octanol-agua logP o el coeficiente de distribución logD; un factor clave de la permeabilidad de membrana, la unión y el comportamiento ADMET.",
zh = "化合物对类脂(非极性)相的亲和力,通常通过辛醇-水分配系数 logP 或分布系数 logD 来量化;是膜通透性、结合及 ADMET 行为的关键驱动因素。",
term_es = "lipofilicidad",
term_zh = "亲脂性",
aliases_es = { "lipofílico", "hidrofobicidad", "liposolubilidad" },
aliases_zh = { "脂溶性", "疏水性", "亲脂度" },
}
data["lipophilicity dataset"] = {
short = "A MoleculeNet benchmark of ~4,200 drug-like compounds with experimental octanol/water distribution coefficients (logD at pH 7.4) curated from ChEMBL, widely used to benchmark molecular property prediction models.",
article = nil,
aliases = { "Lipophilicity dataset", "MoleculeNet Lipophilicity", "ChEMBL Lipophilicity dataset" },
es = "Conjunto de datos de referencia de MoleculeNet con ~4.200 compuestos similares a fármacos con coeficientes de distribución octanol/agua experimentales (logD a pH 7,4) curados de ChEMBL, ampliamente utilizado para evaluar modelos de predicción de propiedades moleculares.",
zh = "MoleculeNet 基准数据集,包含从 ChEMBL 整理的约 4,200 种类药化合物的实验辛醇/水分布系数(pH 7.4 下的 logD),广泛用于评估分子性质预测模型。",
term_es = "conjunto de datos Lipophilicity",
term_zh = "Lipophilicity 数据集",
aliases_es = { "dataset Lipophilicity", "MoleculeNet Lipophilicity" },
aliases_zh = { "亲脂性数据集", "MoleculeNet Lipophilicity" },
}
data["lipschitz fairness"] = {
short = "An individual-fairness criterion requiring that the predictor be a Lipschitz function with respect to a task-specific similarity metric on inputs, so that similar individuals receive similar predictions.",
article = nil,
aliases = { "Lipschitz fairness", "Lipschitz individual fairness" },
es = "Criterio de equidad individual que exige que el predictor sea una función Lipschitz respecto a una métrica de similitud específica de la tarea sobre las entradas, de modo que individuos similares reciban predicciones similares.",
zh = "一种个体公平性准则,要求预测器关于任务特定的输入相似度度量是 Lipschitz 函数,使得相似的个体获得相似的预测。",
term_es = "equidad de Lipschitz",
term_zh = "Lipschitz 公平性",
aliases_es = { "equidad Lipschitz", "equidad individual Lipschitz" },
aliases_zh = { "Lipschitz 个体公平性", "利普希茨公平性" },
}
data["lipschitz smoothness federated"] = {
short = "A standard assumption in federated optimization theory that each local objective has Lipschitz-continuous gradients (i.e., is L-smooth), enabling step-size tuning and convergence proofs for FedAvg, FedProx, and related algorithms.",
article = nil,
aliases = { "L-smoothness federated", "Lipschitz gradient assumption", "Lipschitz smoothness assumption" },
es = "Supuesto estándar en la teoría de optimización federada según el cual cada objetivo local tiene gradientes Lipschitz-continuos (es decir, es L-suave), lo que permite ajustar el tamaño de paso y demostrar convergencia para FedAvg, FedProx y algoritmos relacionados.",
zh = "联邦优化理论中的一项标准假设:每个本地目标函数具有 Lipschitz 连续的梯度(即 L-光滑),从而可对 FedAvg、FedProx 等算法选取步长并给出收敛性证明。",
term_es = "suavidad de Lipschitz (federada)",
term_zh = "Lipschitz 光滑性(联邦)",
aliases_es = { "L-suavidad federada", "supuesto de gradiente Lipschitz", "supuesto de suavidad de Lipschitz" },
aliases_zh = { "L-光滑(联邦)", "Lipschitz 梯度假设", "Lipschitz 光滑性假设" },
}
data["listen attend and spell"] = {
short = "An end-to-end attention-based encoder-decoder model for automatic speech recognition introduced by Chan et al. (2016), where a pyramidal BiLSTM listener encodes audio and an attention-based speller produces the character sequence.",
article = nil,
aliases = { "LAS", "Listen, Attend and Spell", "Listen Attend Spell" },
es = "Modelo codificador-decodificador basado en atención de extremo a extremo para reconocimiento automático del habla, introducido por Chan et al. (2016), en el que un escuchador BiLSTM piramidal codifica el audio y un deletreador basado en atención genera la secuencia de caracteres.",
zh = "Chan 等人于 2016 年提出的端到端基于注意力的编码器-解码器语音识别模型:金字塔形 BiLSTM 听者对音频进行编码,基于注意力的拼写器逐字符生成转录序列。",
term_es = "Listen, Attend and Spell",
term_zh = "Listen, Attend and Spell",
aliases_es = { "LAS", "modelo LAS" },
aliases_zh = { "LAS", "LAS 模型" },
}
data["listwise ranking loss"] = {
short = "A learning-to-rank loss that operates on the entire ranked list at once, comparing the predicted ordering or score distribution against the ground-truth ranking. Examples include ListNet, ListMLE, and softmax cross-entropy ranking losses.",
article = nil,
aliases = { "listwise loss", "list-wise ranking loss", "listwise learning to rank loss", "ListNet loss" },
es = "Pérdida de aprendizaje de ranking que opera sobre toda la lista clasificada a la vez, comparando el orden o la distribución de puntuaciones predicha con la clasificación de referencia. Ejemplos incluyen ListNet, ListMLE y pérdidas de ranking con entropía cruzada softmax.",
zh = "一类 learning-to-rank 损失,一次性处理整个排序列表,将预测的顺序或得分分布与真实排序进行比较。代表方法包括 ListNet、ListMLE 以及基于 softmax 交叉熵的排序损失。",
term_es = "pérdida de ranking por listas",
term_zh = "列表式排序损失",
aliases_es = { "pérdida listwise", "pérdida de aprendizaje de ranking listwise", "pérdida ListNet" },
aliases_zh = { "listwise 损失", "listwise 排序损失", "ListNet 损失" },
}
data["livecodebench"] = {
short = "A contamination-resistant benchmark for evaluating code-generation LLMs that continuously collects new programming problems from competitive-programming platforms, stratifying tasks by release date to detect train-test leakage.",
article = nil,
aliases = { "LiveCodeBench", "Live Code Bench" },
es = "Banco de pruebas resistente a la contaminación para evaluar LLMs de generación de código que recopila continuamente nuevos problemas de programación de plataformas de programación competitiva, estratificando las tareas por fecha de publicación para detectar fugas entre entrenamiento y evaluación.",
zh = "一种抗污染的代码生成 LLM 评测基准,持续从竞赛编程平台收集新题目,并按发布日期分层任务以检测训练集与测试集之间的泄漏。",
term_es = "LiveCodeBench",
term_zh = "LiveCodeBench",
aliases_es = { "Live Code Bench" },
aliases_zh = { "Live Code Bench" },
}
data["liveness detection"] = {
short = "In speaker verification, the task of distinguishing genuine live speech from spoofed inputs such as recorded playback, voice conversion, or text-to-speech, used to defend voice biometrics against presentation attacks.",
article = nil,
aliases = { "voice liveness detection", "speech liveness detection", "anti-spoofing", "presentation attack detection", "PAD" },
es = "En verificación de locutor, tarea de distinguir el habla genuina en vivo de entradas falsificadas como grabaciones reproducidas, conversión de voz o síntesis de habla, usada para proteger la biometría de voz frente a ataques de presentación.",
zh = "在说话人验证中区分真实的现场语音与伪造输入(如录音回放、语音转换或语音合成)的任务,用于抵御针对声纹识别的呈现攻击。",
term_es = "detección de vivacidad",
term_zh = "活体检测",
aliases_es = { "detección de vivacidad de voz", "antispoofing", "detección de ataques de presentación" },
aliases_zh = { "语音活体检测", "反欺骗", "呈现攻击检测" },
}
data["llama"] = {
short = "Meta's first-generation family of open-weight autoregressive transformer language models released in 2023, ranging from 7B to 65B parameters and trained on publicly available data.",
article = nil,
aliases = { "LLaMA", "Llama", "LLaMA 1", "Llama 1", "LLaMA-1" },
es = "Familia de primera generación de modelos de lenguaje transformer autorregresivos de pesos abiertos publicados por Meta en 2023, con tamaños de 7.000 a 65.000 millones de parámetros y entrenados con datos públicamente disponibles.",
zh = "Meta 于 2023 年发布的首代开放权重自回归 Transformer 语言模型家族,参数规模从 70 亿到 650 亿,使用公开可得数据训练。",
term_es = "LLaMA",
term_zh = "LLaMA",
aliases_es = { "LLaMA", "Llama", "LLaMA 1", "Llama 1" },
aliases_zh = { "LLaMA", "Llama", "LLaMA 1", "Llama 1", "羊驼" },
}
data["llama 2"] = {
short = "Meta's 2023 successor to LLaMA, an open-weight transformer language model family at 7B, 13B, and 70B scales, with chat-tuned variants released for commercial use.",
article = nil,
aliases = { "LLaMA 2", "Llama 2", "Llama2", "LLaMA-2", "Llama-2" },
es = "Sucesor de LLaMA publicado por Meta en 2023, una familia de modelos de lenguaje transformer de pesos abiertos a escalas de 7.000, 13.000 y 70.000 millones de parámetros, con variantes ajustadas para chat publicadas para uso comercial.",
zh = "Meta 于 2023 年发布的 LLaMA 后续版本,开放权重的 Transformer 语言模型家族,参数规模为 70 亿、130 亿和 700 亿,并发布了面向商用的对话微调版本。",
term_es = "LLaMA 2",
term_zh = "LLaMA 2",
aliases_es = { "LLaMA 2", "Llama 2", "Llama2" },
aliases_zh = { "LLaMA 2", "Llama 2", "Llama2", "LLaMA-2" },
}
data["llama 3"] = {
short = "Meta's 2024 third-generation open-weight transformer language model family, including 8B, 70B, and later 405B parameter variants, with substantially expanded training data and improved instruction tuning.",
article = nil,
aliases = { "LLaMA 3", "Llama 3", "Llama3", "LLaMA-3", "Llama-3" },
es = "Familia de modelos de lenguaje transformer de pesos abiertos de tercera generación publicada por Meta en 2024, que incluye variantes de 8.000, 70.000 y posteriormente 405.000 millones de parámetros, con datos de entrenamiento sustancialmente ampliados y un ajuste por instrucciones mejorado.",
zh = "Meta 于 2024 年发布的第三代开放权重 Transformer 语言模型家族,包括 80 亿、700 亿以及随后 4050 亿参数版本,训练数据显著扩展,指令微调进一步改进。",
term_es = "LLaMA 3",
term_zh = "LLaMA 3",
aliases_es = { "LLaMA 3", "Llama 3", "Llama3" },
aliases_zh = { "LLaMA 3", "Llama 3", "Llama3", "LLaMA-3" },
}
data["llama 3.1"] = {
short = "A family of open-weight large language models released by Meta in July 2024 in 8B, 70B, and 405B parameter sizes, with a 128k-token context window and multilingual support across eight languages.",
article = nil,
aliases = { "Llama 3.1", "LLaMA 3.1", "Llama-3.1", "Llama 3.1 405B", "Llama 3.1 70B", "Llama 3.1 8B" },
es = "Familia de modelos de lenguaje de gran tamaño con pesos abiertos publicada por Meta en julio de 2024 en versiones de 8B, 70B y 405B parámetros, con ventana de contexto de 128k tokens y soporte multilingüe en ocho idiomas.",
zh = "Meta 于 2024 年 7 月发布的开源权重大语言模型系列,提供 8B、70B 和 405B 三种参数规模,支持 128k 词元上下文窗口及八种语言的多语言能力。",
term_es = "Llama 3.1",
term_zh = "Llama 3.1",
aliases_es = { "LLaMA 3.1", "Llama-3.1" },
aliases_zh = { "LLaMA 3.1", "Llama-3.1" },
}
data["llama 3.2"] = {
short = "Meta's September 2024 release of the Llama family that introduced lightweight 1B and 3B text-only models for on-device deployment alongside multimodal 11B and 90B vision-capable variants.",
article = nil,
aliases = { "Llama 3.2", "LLaMA 3.2", "Llama-3.2", "Llama 3.2 1B", "Llama 3.2 3B" },
es = "Versión de la familia Llama publicada por Meta en septiembre de 2024 que introdujo modelos ligeros de 1B y 3B solo de texto para despliegue en dispositivo, junto con variantes multimodales de 11B y 90B con capacidad de visión.",
zh = "Meta 于 2024 年 9 月发布的 Llama 系列版本,推出了适合端侧部署的 1B 与 3B 纯文本轻量模型,以及具备视觉能力的 11B 和 90B 多模态变体。",
term_es = "Llama 3.2",
term_zh = "Llama 3.2",
aliases_es = { "LLaMA 3.2", "Llama-3.2" },
aliases_zh = { "LLaMA 3.2", "Llama-3.2" },
}
data["llama 3.2 vision"] = {
short = "The multimodal variants of Llama 3.2 (11B and 90B) that combine the Llama 3.1 text decoder with a vision encoder via cross-attention adapters, enabling image understanding, captioning, and visual question answering.",
article = nil,
aliases = { "Llama 3.2 Vision", "LLaMA 3.2 Vision", "Llama-3.2-Vision", "Llama 3.2 11B Vision", "Llama 3.2 90B Vision" },
es = "Variantes multimodales de Llama 3.2 (11B y 90B) que combinan el decodificador de texto de Llama 3.1 con un codificador de visión mediante adaptadores de atención cruzada, permitiendo comprensión de imágenes, generación de descripciones y preguntas y respuestas visuales.",
zh = "Llama 3.2 的多模态变体(11B 和 90B),通过交叉注意力适配器将 Llama 3.1 文本解码器与视觉编码器结合,支持图像理解、图像描述与视觉问答。",
term_es = "Llama 3.2 Vision",
term_zh = "Llama 3.2 Vision",
aliases_es = { "LLaMA 3.2 Vision" },
aliases_zh = { "LLaMA 3.2 视觉版" },
}
data["llama 3.3"] = {
short = "A December 2024 update from Meta that delivered an improved 70B instruction-tuned model with quality competitive with Llama 3.1 405B at a fraction of the inference cost, while keeping the 128k context window.",
article = nil,
aliases = { "Llama 3.3", "LLaMA 3.3", "Llama-3.3", "Llama 3.3 70B" },
es = "Actualización de Meta de diciembre de 2024 que ofreció un modelo de 70B ajustado por instrucciones mejorado, con calidad competitiva frente a Llama 3.1 405B a una fracción del coste de inferencia, manteniendo la ventana de contexto de 128k.",
zh = "Meta 于 2024 年 12 月发布的更新,推出了改进的 70B 指令微调模型,在保留 128k 上下文窗口的同时,以远低于 Llama 3.1 405B 的推理成本达到与之相当的质量。",
term_es = "Llama 3.3",
term_zh = "Llama 3.3",
aliases_es = { "LLaMA 3.3", "Llama-3.3" },
aliases_zh = { "LLaMA 3.3", "Llama-3.3" },
}
data["llama 4"] = {
short = "Meta's April 2025 release of the Llama series introducing natively multimodal mixture-of-experts models (Scout, Maverick, and Behemoth) with very long context windows and image understanding built into pretraining.",
article = nil,
aliases = { "Llama 4", "LLaMA 4", "Llama-4", "Llama 4 Scout", "Llama 4 Maverick", "Llama 4 Behemoth" },
es = "Versión de la serie Llama publicada por Meta en abril de 2025 que introdujo modelos multimodales nativos con mezcla de expertos (Scout, Maverick y Behemoth) con ventanas de contexto muy largas y comprensión de imágenes integrada en el preentrenamiento.",
zh = "Meta 于 2025 年 4 月发布的 Llama 系列版本,推出原生多模态的专家混合模型(Scout、Maverick 和 Behemoth),具备超长上下文窗口,并在预训练阶段即融入图像理解能力。",
term_es = "Llama 4",
term_zh = "Llama 4",
aliases_es = { "LLaMA 4", "Llama-4" },
aliases_zh = { "LLaMA 4", "Llama-4" },
}
data["llama guard 2"] = {
short = "An 8B safety-classification model from Meta, fine-tuned from Llama 3, that labels user prompts and model responses against a configurable taxonomy of unsafe content categories for moderating LLM inputs and outputs.",
article = nil,
aliases = { "Llama Guard 2", "LlamaGuard 2", "Llama-Guard-2", "Meta Llama Guard 2" },
es = "Modelo de clasificación de seguridad de 8B de Meta, ajustado a partir de Llama 3, que etiqueta prompts del usuario y respuestas del modelo según una taxonomía configurable de categorías de contenido inseguro, usado para moderar entradas y salidas de LLMs.",
zh = "Meta 推出的 8B 安全分类模型,由 Llama 3 微调而来,可依据可配置的不安全内容类别分类法标注用户提示与模型输出,用于对 LLM 输入输出进行内容审核。",
term_es = "Llama Guard 2",
term_zh = "Llama Guard 2",
aliases_es = { "LlamaGuard 2", "Llama-Guard-2" },
aliases_zh = { "LlamaGuard 2", "Llama-Guard-2" },
}
data["llama guard 3"] = {
short = "Meta's third-generation safety classifier built on Llama 3.1, available in 8B, 1B, and multimodal vision variants, that classifies content against the MLCommons hazard taxonomy with multilingual coverage.",
article = nil,
aliases = { "Llama Guard 3", "LlamaGuard 3", "Llama-Guard-3", "Llama Guard 3 Vision", "Llama Guard 3 1B", "Llama Guard 3 8B" },
es = "Clasificador de seguridad de tercera generación de Meta basado en Llama 3.1, disponible en variantes de 8B, 1B y multimodal con visión, que clasifica contenido según la taxonomía de riesgos de MLCommons con cobertura multilingüe.",
zh = "Meta 第三代安全分类器,基于 Llama 3.1 构建,提供 8B、1B 以及多模态视觉等变体,依据 MLCommons 危害分类法对内容进行分类,并支持多语言。",
term_es = "Llama Guard 3",
term_zh = "Llama Guard 3",
aliases_es = { "LlamaGuard 3", "Llama-Guard-3" },
aliases_zh = { "LlamaGuard 3", "Llama-Guard-3" },
}
data["llama tokenizer"] = {
short = "The byte-pair encoding tokenizer used by Meta's Llama models. Llama 1 and 2 use a 32k SentencePiece BPE vocabulary; Llama 3 and later switched to a tiktoken-based 128k vocabulary with better non-English coverage.",
article = nil,
aliases = { "Llama tokenizer", "LLaMA tokenizer", "Llama BPE tokenizer", "Llama 3 tokenizer" },
es = "Tokenizador de codificación por pares de bytes utilizado por los modelos Llama de Meta. Llama 1 y 2 usan un vocabulario BPE SentencePiece de 32k; Llama 3 y posteriores adoptaron un vocabulario de 128k basado en tiktoken con mejor cobertura no inglesa.",
zh = "Meta Llama 系列模型使用的字节对编码分词器。Llama 1 和 2 采用 32k 词表的 SentencePiece BPE;Llama 3 及之后改用基于 tiktoken 的 128k 词表,对非英语语言的覆盖更佳。",
term_es = "tokenizador de Llama",
term_zh = "Llama 分词器",
aliases_es = { "tokenizer de Llama", "tokenizador BPE de Llama" },
aliases_zh = { "Llama tokenizer", "LLaMA 分词器" },
}
data["llama-adapter"] = {
short = "A lightweight parameter-efficient fine-tuning method for LLaMA that prepends a small number of learnable adaptation prompts to the top transformer layers and uses zero-initialized attention to inject instruction-following behavior without disturbing the pretrained weights.",
article = nil,
aliases = { "LLaMA-Adapter", "LLaMA Adapter", "Llama-Adapter", "LLaMA-Adapter v1" },
es = "Método de fine-tuning eficiente en parámetros para LLaMA que antepone un pequeño número de prompts de adaptación entrenables a las capas superiores del transformer y utiliza atención inicializada en cero para inyectar comportamiento de seguimiento de instrucciones sin alterar los pesos preentrenados.",
zh = "面向 LLaMA 的轻量级参数高效微调方法:在 Transformer 顶部若干层前置少量可学习的适配提示,并采用零初始化注意力将指令跟随能力注入模型,同时不破坏预训练权重。",
term_es = "LLaMA-Adapter",
term_zh = "LLaMA-Adapter",
aliases_es = { "LLaMA Adapter", "Llama-Adapter", "LLaMA-Adapter v1" },
aliases_zh = { "LLaMA Adapter", "Llama-Adapter", "LLaMA-Adapter v1" },
}
data["llama-adapter v2"] = {
short = "An extension of LLaMA-Adapter that adds visual instruction tuning by injecting CLIP image features through early-layer fusion, unlocks more learnable parameters (norms, biases, scales), and uses joint text-image training to produce a multimodal instruction-following model.",
article = nil,
aliases = { "LLaMA-Adapter V2", "LLaMA-Adapter v2", "LLaMA Adapter V2", "Llama-Adapter v2" },
es = "Extensión de LLaMA-Adapter que añade ajuste por instrucciones visuales inyectando características de imagen de CLIP mediante fusión en capas tempranas, desbloquea más parámetros entrenables (normas, sesgos, escalas) y emplea entrenamiento conjunto de texto e imagen para producir un modelo multimodal de seguimiento de instrucciones.",
zh = "LLaMA-Adapter 的扩展版本:通过在浅层融合注入 CLIP 图像特征加入视觉指令微调,解锁更多可训练参数(归一化、偏置、缩放等),并通过文本-图像联合训练得到一个多模态指令跟随模型。",
term_es = "LLaMA-Adapter V2",
term_zh = "LLaMA-Adapter V2",
aliases_es = { "LLaMA-Adapter v2", "LLaMA Adapter V2", "Llama-Adapter v2" },
aliases_zh = { "LLaMA-Adapter v2", "LLaMA Adapter V2", "Llama-Adapter v2" },
}
data["llama.cpp"] = {
short = "An open-source C/C++ inference engine that runs Llama-family and other transformer LLMs efficiently on CPUs and consumer GPUs, supporting GGUF model files, quantization, and Apple Silicon Metal acceleration.",
article = nil,
aliases = { "llama-cpp", "llamacpp", "llama cpp" },
es = "Motor de inferencia de código abierto en C/C++ que ejecuta de forma eficiente LLMs de la familia Llama y otros transformers en CPUs y GPUs de consumo, con soporte para archivos GGUF, cuantización y aceleración Metal en Apple Silicon.",
zh = "一个开源的 C/C++ 推理引擎,可在 CPU 和消费级 GPU 上高效运行 Llama 系列及其他 Transformer 大语言模型,支持 GGUF 模型文件、量化以及 Apple Silicon 的 Metal 加速。",
term_es = "llama.cpp",
term_zh = "llama.cpp",
aliases_es = { "llama-cpp", "llamacpp" },
aliases_zh = { "llama-cpp", "llamacpp" },
}
data["llamaindex"] = {
short = "An open-source data framework for building LLM applications over private or domain-specific data, providing connectors, indexing structures, retrievers, and query engines for retrieval-augmented generation and agent workflows.",
article = nil,
aliases = { "LlamaIndex", "llama-index", "GPT Index" },
es = "Marco de datos de código abierto para construir aplicaciones de LLM sobre datos privados o específicos de un dominio, que proporciona conectores, estructuras de indexación, recuperadores y motores de consulta para generación aumentada por recuperación y flujos de agentes.",
zh = "一个开源数据框架,用于在私有或领域特定数据之上构建大语言模型应用,提供连接器、索引结构、检索器和查询引擎,支持检索增强生成与智能体工作流。",
term_es = "LlamaIndex",
term_zh = "LlamaIndex",
aliases_es = { "llama-index", "GPT Index" },
aliases_zh = { "llama-index", "GPT Index" },
}
data["llava"] = {
short = "Large Language and Vision Assistant: an open multimodal model by Liu et al. that connects a CLIP vision encoder to a LLaMA-based LLM via a small projection and fine-tunes on GPT-4-generated visual instruction data, popularizing visual instruction tuning.",
article = nil,
aliases = { "LLaVA", "Large Language and Vision Assistant", "LLaVA-1.0", "LLaVA v1" },
es = "Large Language and Vision Assistant: modelo multimodal abierto de Liu et al. que conecta un codificador visual CLIP con un LLM basado en LLaMA mediante una pequeña proyección y se ajusta sobre datos de instrucción visual generados con GPT-4, popularizando el ajuste por instrucciones visuales.",
zh = "Large Language and Vision Assistant:Liu 等人提出的开源多模态模型,通过一个小型投影将 CLIP 视觉编码器与基于 LLaMA 的大型语言模型相连,并在由 GPT-4 生成的视觉指令数据上微调,推动了视觉指令微调的普及。",
term_es = "LLaVA",
term_zh = "LLaVA",
aliases_es = { "Large Language and Vision Assistant", "LLaVA-1.0", "LLaVA v1" },
aliases_zh = { "Large Language and Vision Assistant", "LLaVA-1.0", "LLaVA v1" },
}
data["llava-1.5"] = {
short = "An improved LLaVA release that replaces the linear projector with a two-layer MLP, increases input image resolution, and uses a richer mixture of academic VQA, OCR, and instruction data, achieving strong performance with only ~600K image-text pairs of fine-tuning.",
article = nil,
aliases = { "LLaVA-1.5", "LLaVA 1.5", "LLaVA v1.5", "LLaVA1.5" },
es = "Versión mejorada de LLaVA que reemplaza el proyector lineal por un MLP de dos capas, aumenta la resolución de imagen de entrada y emplea una mezcla más rica de datos académicos de VQA, OCR e instrucción, logrando un desempeño sólido con solo unos 600K pares imagen-texto de fine-tuning.",
zh = "LLaVA 的改进版本:将线性投影替换为两层 MLP,提升输入图像分辨率,并使用更丰富的学术 VQA、OCR 与指令数据混合,仅用约 60 万图文对微调即取得显著性能提升。",
term_es = "LLaVA-1.5",
term_zh = "LLaVA-1.5",
aliases_es = { "LLaVA 1.5", "LLaVA v1.5" },
aliases_zh = { "LLaVA 1.5", "LLaVA v1.5" },
}
data["llava-bench"] = {
short = "A benchmark introduced with LLaVA for evaluating multimodal chat capabilities, consisting of LLaVA-Bench (COCO) and LLaVA-Bench (In-the-Wild) prompts that are scored by GPT-4 against reference answers along correctness, detail, and helpfulness.",
article = nil,
aliases = { "LLaVA-Bench", "LLaVA Bench", "LLaVA-Bench (In-the-Wild)", "LLaVA-Bench-Wild", "LLaVA-Bench (COCO)" },
es = "Benchmark introducido junto con LLaVA para evaluar capacidades de chat multimodal, compuesto por los conjuntos LLaVA-Bench (COCO) y LLaVA-Bench (In-the-Wild), cuyas respuestas son puntuadas por GPT-4 contra respuestas de referencia en términos de corrección, detalle y utilidad.",
zh = "随 LLaVA 提出的多模态对话能力评测基准,包含 LLaVA-Bench (COCO) 与 LLaVA-Bench (In-the-Wild) 两个提示集,使用 GPT-4 对照参考答案在正确性、细节与帮助性等维度进行打分。",
term_es = "LLaVA-Bench",
term_zh = "LLaVA-Bench",
aliases_es = { "LLaVA Bench", "LLaVA-Bench (In-the-Wild)", "LLaVA-Bench (COCO)" },
aliases_zh = { "LLaVA Bench", "LLaVA-Bench (In-the-Wild)", "LLaVA-Bench (COCO)" },
}
data["llava-instruct-150k"] = {
short = "The original LLaVA visual instruction-tuning dataset of about 158K samples generated by prompting text-only GPT-4 with image captions and bounding boxes from COCO, comprising conversations, detailed descriptions, and complex reasoning examples.",
article = nil,
aliases = { "LLaVA-Instruct-150K", "LLaVA-Instruct 150K", "LLaVA Instruct 150K", "LLaVA-Instruct-158K" },
es = "Dataset original de ajuste por instrucciones visuales de LLaVA con cerca de 158K muestras generadas pidiendo a GPT-4 (solo texto) que produjera diálogos a partir de descripciones y cajas delimitadoras de COCO, abarcando conversaciones, descripciones detalladas y ejemplos de razonamiento complejo.",
zh = "LLaVA 最初的视觉指令微调数据集,约 15.8 万条样本,通过向纯文本 GPT-4 提供 COCO 的字幕与边界框生成,包含对话、详细描述与复杂推理三类示例。",
term_es = "LLaVA-Instruct-150K",
term_zh = "LLaVA-Instruct-150K",
aliases_es = { "LLaVA-Instruct 150K", "LLaVA Instruct 150K", "LLaVA-Instruct-158K" },
aliases_zh = { "LLaVA-Instruct 150K", "LLaVA Instruct 150K", "LLaVA-Instruct-158K" },
}
data["llava-instruct-665k"] = {
short = "The expanded visual instruction tuning mixture introduced with LLaVA-1.5, comprising about 665K samples that combine LLaVA-Instruct-150K with academic VQA, OCR, region-level, and OK-VQA-style datasets reformatted as instructions.",
article = nil,
aliases = { "LLaVA-Instruct-665K", "LLaVA-Instruct 665K", "LLaVA Instruct 665K", "LLaVA-1.5 mixture" },
es = "Mezcla ampliada de ajuste por instrucciones visuales introducida con LLaVA-1.5, con aproximadamente 665K muestras que combinan LLaVA-Instruct-150K con datasets académicos de VQA, OCR, nivel de región y estilo OK-VQA reformateados como instrucciones.",
zh = "随 LLaVA-1.5 提出的扩展视觉指令微调数据混合,约 66.5 万条样本,将 LLaVA-Instruct-150K 与学术 VQA、OCR、区域级及 OK-VQA 风格数据集统一改写为指令格式。",
term_es = "LLaVA-Instruct-665K",
term_zh = "LLaVA-Instruct-665K",
aliases_es = { "LLaVA-Instruct 665K", "LLaVA Instruct 665K", "mezcla LLaVA-1.5" },
aliases_zh = { "LLaVA-Instruct 665K", "LLaVA Instruct 665K", "LLaVA-1.5 数据混合" },
}
data["llava-med"] = {
short = "A biomedical adaptation of LLaVA fine-tuned on PubMed Central image-caption pairs and GPT-4-generated medical instruction data, designed for radiology and biomedical visual question answering with limited labeled medical images.",
article = nil,
aliases = { "LLaVA-Med", "LLaVA Med", "LLaVA-Medical", "Medical LLaVA" },
es = "Adaptación biomédica de LLaVA ajustada con pares imagen-pie de foto de PubMed Central y datos de instrucciones médicas generados con GPT-4, diseñada para responder preguntas visuales de radiología y biomedicina con escasez de imágenes médicas etiquetadas.",
zh = "LLaVA 的生物医学改造版本,使用 PubMed Central 的图文对以及由 GPT-4 生成的医学指令数据进行微调,面向放射学与生物医学视觉问答任务,适用于标注医学图像稀缺的场景。",
term_es = "LLaVA-Med",
term_zh = "LLaVA-Med",
aliases_es = { "LLaVA Med", "LLaVA-Medical", "LLaVA médico" },
aliases_zh = { "LLaVA Med", "LLaVA-Medical", "医学 LLaVA" },
}
data["llava-next"] = {
short = "The successor to LLaVA-1.5 (also called LLaVA-1.6) that supports higher input resolutions via dynamic image splitting (AnyRes), uses stronger LLM backbones, and significantly improves OCR, chart, and reasoning performance while keeping the simple projector-LLM architecture.",
article = nil,
aliases = { "LLaVA-NeXT", "LLaVA NeXT", "LLaVA-1.6", "LLaVA 1.6", "LLaVA-Next" },
es = "Sucesor de LLaVA-1.5 (también llamado LLaVA-1.6) que admite resoluciones de entrada más altas mediante división dinámica de imagen (AnyRes), utiliza backbones LLM más potentes y mejora significativamente el desempeño en OCR, gráficos y razonamiento, manteniendo la arquitectura simple proyector-LLM.",
zh = "LLaVA-1.5 的后继版本(又称 LLaVA-1.6),通过动态图像切分(AnyRes)支持更高输入分辨率,使用更强的 LLM 主干,在 OCR、图表理解与推理上显著提升,同时保持投影器-LLM 的简洁架构。",
term_es = "LLaVA-NeXT",
term_zh = "LLaVA-NeXT",
aliases_es = { "LLaVA NeXT", "LLaVA-1.6", "LLaVA 1.6" },
aliases_zh = { "LLaVA NeXT", "LLaVA-1.6", "LLaVA 1.6" },
}
data["llava-next-video"] = {
short = "The video-capable extension of LLaVA-NeXT that processes video by encoding sampled frames with the AnyRes image-splitting strategy and aggregating them through the LLM, enabling video question answering without dedicated video pretraining.",
article = nil,
aliases = { "LLaVA-NeXT-Video", "LLaVA-NeXT Video", "LLaVA NeXT Video", "LLaVA-Next-Video" },
es = "Extensión con capacidades de video de LLaVA-NeXT, que procesa el video codificando los fotogramas muestreados con la estrategia AnyRes de división de imagen y agregándolos a través del LLM, permitiendo responder preguntas sobre video sin preentrenamiento específico de video.",
zh = "LLaVA-NeXT 的视频扩展版本:使用 AnyRes 图像切分策略对采样帧进行编码,并通过 LLM 进行聚合,使模型无需专门的视频预训练即可完成视频问答任务。",
term_es = "LLaVA-NeXT-Video",
term_zh = "LLaVA-NeXT-Video",
aliases_es = { "LLaVA-NeXT Video", "LLaVA NeXT Video", "LLaVA-Next-Video" },
aliases_zh = { "LLaVA-NeXT Video", "LLaVA NeXT Video", "LLaVA-Next-Video" },
}
data["llava-onevision"] = {
short = "A unified LLaVA model that handles single-image, multi-image, and video inputs within a single architecture and training recipe, transferring task representations across these settings to achieve strong multimodal performance across resolutions and frame counts.",
article = nil,
aliases = { "LLaVA-OneVision", "LLaVA OneVision", "LLaVA-1V", "LLaVA OV" },
es = "Modelo LLaVA unificado que maneja entradas de imagen única, múltiples imágenes y video dentro de una sola arquitectura y receta de entrenamiento, transfiriendo representaciones entre estos escenarios para lograr un desempeño multimodal sólido en distintas resoluciones y números de fotogramas.",
zh = "统一的 LLaVA 模型:在同一架构与训练方案下处理单图、多图与视频输入,并在这些场景之间迁移任务表示,从而在不同分辨率和帧数下取得强劲的多模态性能。",
term_es = "LLaVA-OneVision",
term_zh = "LLaVA-OneVision",
aliases_es = { "LLaVA OneVision", "LLaVA-1V", "LLaVA OV" },
aliases_zh = { "LLaVA OneVision", "LLaVA-1V", "LLaVA OV" },
}
data["llava-rlhf"] = {
short = "A vision-language model that fine-tunes LLaVA with reinforcement learning from human feedback to reduce multimodal hallucination and improve alignment between visual content and textual responses.",
article = nil,
aliases = { "LLaVA-RLHF", "LLaVA RLHF" },
es = "Modelo de visión-lenguaje que ajusta LLaVA con aprendizaje por refuerzo a partir de retroalimentación humana para reducir la alucinación multimodal y mejorar la alineación entre el contenido visual y las respuestas textuales.",
zh = "一种视觉-语言模型,通过基于人类反馈的强化学习对 LLaVA 进行微调,以减少多模态幻觉并改善视觉内容与文本响应之间的对齐。",
term_es = "LLaVA-RLHF",
term_zh = "LLaVA-RLHF",
aliases_es = { "LLaVA RLHF" },
aliases_zh = { "LLaVA RLHF" },
}
data["llava-uhd"] = {
short = "A multimodal large language model variant of LLaVA designed to process images of arbitrary aspect ratio and high resolution by adaptively slicing inputs into native-resolution tiles.",
article = nil,
aliases = { "LLaVA-UHD", "LLaVA UHD" },
es = "Variante de modelo grande multimodal de LLaVA diseñada para procesar imágenes de relación de aspecto arbitraria y alta resolución mediante el corte adaptativo de las entradas en mosaicos de resolución nativa.",
zh = "LLaVA 的多模态大模型变体,通过将输入自适应切分为原生分辨率的切片,处理任意宽高比和高分辨率的图像。",
term_es = "LLaVA-UHD",
term_zh = "LLaVA-UHD",
aliases_es = { "LLaVA UHD" },
aliases_zh = { "LLaVA UHD" },
}
data["llm agent"] = {
short = "A system that uses a large language model as its planning and decision-making core, augmented with tools, memory, and an action loop to autonomously execute multi-step tasks such as web browsing, code execution, or API calls.",
article = nil,
aliases = { "LLM agent", "language model agent", "LLM-based agent", "language-model agent" },
es = "Sistema que utiliza un modelo de lenguaje de gran tamaño como núcleo de planificación y toma de decisiones, complementado con herramientas, memoria y un bucle de acción para ejecutar de forma autónoma tareas multietapa como navegación web, ejecución de código o llamadas a API.",
zh = "一种以大语言模型作为规划与决策核心的系统,配合工具、记忆与行动循环,能够自主执行多步任务,如网页浏览、代码执行或 API 调用。",
term_es = "agente LLM",
term_zh = "LLM 智能体",
aliases_es = { "agente de modelo de lenguaje", "agente basado en LLM" },
aliases_zh = { "大语言模型智能体", "语言模型智能体", "LLM agent" },
}
data["llm bias"] = {
short = "Systematic skews in the outputs of large language models, including stereotyping, demographic disparities, sycophancy, and political or cultural slant, arising from pretraining data, alignment data, and decoding choices.",
article = nil,
aliases = { "LLM bias", "large language model bias", "bias in LLMs" },
es = "Sesgos sistemáticos en las salidas de los modelos de lenguaje grandes, incluyendo estereotipos, disparidades demográficas, adulación y sesgo político o cultural, originados en los datos de preentrenamiento, los datos de alineación y las decisiones de decodificación.",
zh = "大型语言模型输出中的系统性偏差,包括刻板印象、人口统计差异、迎合倾向以及政治或文化偏向,源自预训练数据、对齐数据和解码方式。",
term_es = "sesgo de LLM",
term_zh = "大语言模型偏差",
aliases_es = { "sesgo en LLM", "sesgos en modelos de lenguaje grandes" },
aliases_zh = { "LLM 偏差", "大语言模型偏见" },
}
data["llm bias evaluation"] = {
short = "Methodology for measuring bias in large language models using benchmarks such as BBQ, StereoSet, BOLD, and CrowS-Pairs, alongside red-team probes and demographic-conditioned generation tests.",
article = nil,
aliases = { "LLM bias evaluation", "LLM bias benchmark", "evaluating LLM bias", "bias benchmarks for LLMs" },
es = "Metodología para medir el sesgo en modelos de lenguaje grandes utilizando puntos de referencia como BBQ, StereoSet, BOLD y CrowS-Pairs, junto con pruebas de equipos rojos y tests de generación condicionados por demografía.",
zh = "评估大型语言模型偏差的方法体系,使用 BBQ、StereoSet、BOLD 和 CrowS-Pairs 等基准,以及红队探测和按人口统计条件生成的测试。",
term_es = "evaluación de sesgo en LLM",
term_zh = "大语言模型偏差评估",
aliases_es = { "evaluación de sesgos de LLM", "puntos de referencia de sesgo en LLM" },
aliases_zh = { "LLM 偏差评估", "大语言模型偏见基准测试" },
}
data["llm-as-judge"] = {
short = "An evaluation methodology that uses a strong language model to score or rank outputs from other models against criteria such as helpfulness, factuality, or instruction following, often as a scalable proxy for human ratings.",
article = nil,
aliases = { "LLM-as-judge", "LLM as judge", "LLM-as-a-judge", "LLM judge", "model-as-judge" },
es = "Metodología de evaluación que utiliza un modelo de lenguaje potente para puntuar o clasificar las salidas de otros modelos según criterios como utilidad, veracidad o seguimiento de instrucciones, a menudo como sustituto escalable de las evaluaciones humanas.",
zh = "一种评测方法,使用强大的语言模型按照有用性、事实性或指令遵循等标准对其他模型的输出进行打分或排序,常作为人工评分的可扩展替代方案。",
term_es = "LLM como juez",
term_zh = "LLM 作为评判者",
aliases_es = { "LLM-as-judge", "modelo como juez" },
aliases_zh = { "LLM 评判", "LLM 作裁判", "LLM-as-judge" },
}
data["llm-as-prover"] = {
short = "A neuro-symbolic approach in which a large language model is used as a tactic generator or proof-step suggester for an interactive theorem prover such as Lean, Coq, or Isabelle, with proposed steps verified by the prover's kernel.",
article = nil,
aliases = { "LLM-as-prover", "LLM as theorem prover", "LLM prover", "LLM-based proof step generator" },
es = "Enfoque neuro-simbólico en el que un modelo de lenguaje grande se utiliza como generador de tácticas o sugerencias de pasos de prueba para un demostrador interactivo de teoremas como Lean, Coq o Isabelle, y los pasos propuestos son verificados por el núcleo del demostrador.",
zh = "一种神经-符号方法,利用大语言模型为 Lean、Coq、Isabelle 等交互式定理证明器生成策略或证明步骤建议,所提步骤再由证明器内核加以验证。",
term_es = "LLM como demostrador",
term_zh = "LLM 作为定理证明器",
aliases_es = { "LLM-as-prover", "LLM como theorem prover" },
aliases_zh = { "LLM-as-prover", "LLM 证明器", "基于 LLM 的证明步骤生成" },
}
data["llm.int8"] = {
short = "An 8-bit matrix-multiplication scheme for transformer inference that vector-wise quantizes most weights and activations to int8 while keeping a small set of outlier feature dimensions in float16, preserving accuracy at large model scales.",
article = nil,
aliases = { "LLM.int8()", "LLM.int8", "LLM int8", "8-bit LLM inference" },
es = "Esquema de multiplicación matricial de 8 bits para inferencia de transformers que cuantiza por vectores la mayoría de pesos y activaciones a int8, manteniendo en float16 un pequeño conjunto de dimensiones de características atípicas, lo que preserva la precisión a gran escala.",
zh = "一种用于 Transformer 推理的 8 位矩阵乘法方案,将大多数权重与激活按向量量化为 int8,同时保留少量离群特征维度为 float16,从而在大模型规模下保持精度。",
term_es = "LLM.int8()",
term_zh = "LLM.int8()",
aliases_es = { "LLM.int8", "inferencia LLM en 8 bits" },
aliases_zh = { "LLM.int8", "8 位 LLM 推理" },
}
data["llmlingua"] = {
short = "A prompt-compression method that uses a small language model to estimate per-token information and selectively drop low-information tokens, shortening prompts for long-context LLMs while preserving task performance.",
article = nil,
aliases = { "LLMLingua", "LongLLMLingua", "LLMLingua-2" },
es = "Método de compresión de prompts que utiliza un modelo de lenguaje pequeño para estimar la información por token y eliminar selectivamente los tokens de baja información, acortando los prompts para LLMs de contexto largo manteniendo el desempeño de la tarea.",
zh = "一种提示压缩方法,使用小型语言模型估计每个词元的信息量,并有选择地剔除低信息量词元,从而在保持任务性能的同时缩短长上下文 LLM 的提示。",
term_es = "LLMLingua",
term_zh = "LLMLingua",
aliases_es = { "LongLLMLingua" },
aliases_zh = { "LongLLMLingua" },
}
data["lncrna"] = {
short = "Long non-coding RNA: an RNA transcript longer than roughly 200 nucleotides that is not translated into a protein, often involved in regulation of chromatin state, transcription, and post-transcriptional processes.",
article = nil,
aliases = { "lncRNA", "long non-coding RNA", "long noncoding RNA", "long non coding RNA", "lncRNAs" },
es = "ARN largo no codificante: transcrito de ARN de más de unos 200 nucleótidos que no se traduce a proteína, frecuentemente implicado en la regulación del estado de la cromatina, la transcripción y procesos post-transcripcionales.",
zh = "长链非编码 RNA:长度通常超过 200 个核苷酸、不翻译为蛋白质的 RNA 转录本,常参与染色质状态、转录及转录后过程的调控。",
term_es = "lncRNA",
term_zh = "lncRNA",
aliases_es = { "ARN largo no codificante", "ARN lnc", "lncARN" },
aliases_zh = { "长链非编码 RNA", "长非编码 RNA", "lncRNA" },
}
data["load balancing loss"] = {
short = "An auxiliary loss in mixture-of-experts models that penalizes uneven token-to-expert assignment, encouraging the router to distribute tokens evenly across experts so that no expert is starved or overloaded.",
article = nil,
aliases = { "load-balancing loss", "auxiliary load balancing loss", "MoE load balancing loss", "load balance loss" },
es = "Pérdida auxiliar en modelos de mezcla de expertos que penaliza la asignación desigual de tokens a expertos, animando al enrutador a distribuir los tokens de forma equitativa entre los expertos para que ninguno quede desatendido ni sobrecargado.",
zh = "一种用于专家混合模型的辅助损失,对词元到专家的不均衡分配施加惩罚,促使路由器将词元在各专家间均匀分配,避免某些专家被忽略或过载。",
term_es = "pérdida de balanceo de carga",
term_zh = "负载均衡损失",
aliases_es = { "pérdida auxiliar de balanceo de carga", "load-balancing loss" },
aliases_zh = { "负载平衡损失", "MoE 负载均衡损失" },
}
data["loan approval bias"] = {
short = "Disparate outcomes in automated or human credit decisions across protected groups, often traced to historical lending data, proxy variables for race or gender, or feature selection that encodes redlining patterns.",
article = nil,
aliases = { "credit decision bias", "lending bias", "credit approval bias" },
es = "Resultados dispares en las decisiones de crédito, automatizadas o humanas, entre grupos protegidos, a menudo atribuibles a datos históricos de préstamos, variables proxy para raza o género, o selección de características que codifica patrones de redlining.",
zh = "自动化或人工信贷决策在受保护群体间出现的差异性结果,通常源于历史借贷数据、种族或性别的代理变量,或编码了红线划界模式的特征选择。",
term_es = "sesgo en la aprobación de préstamos",
term_zh = "贷款审批偏差",
aliases_es = { "sesgo crediticio", "sesgo en decisiones de crédito" },
aliases_zh = { "信贷审批偏差", "贷款审批偏见" },
}
data["local adaptation federated"] = {
short = "A personalization step in federated learning that fine-tunes the shared global model on each client's local data after federated training, producing a client-specific model better matched to its data distribution.",
article = nil,
aliases = { "local fine-tuning (federated)", "local adaptation", "client-side adaptation", "post-training personalization" },
es = "Paso de personalización en aprendizaje federado que ajusta el modelo global compartido sobre los datos locales de cada cliente tras el entrenamiento federado, obteniendo un modelo específico de cliente mejor adaptado a su distribución.",
zh = "联邦学习中的个性化步骤:在联邦训练完成后,使用每个客户端的本地数据对共享的全局模型进行微调,得到更贴合该客户端数据分布的本地化模型。",
term_es = "adaptación local federada",
term_zh = "联邦本地适配",
aliases_es = { "ajuste local federado", "personalización por adaptación local" },
aliases_zh = { "联邦本地微调", "客户端本地适配", "联邦个性化适配" },
}
data["local attention"] = {
short = "An attention pattern that restricts each query to a fixed window of nearby keys, reducing complexity to linear in sequence length at the cost of long-range information flow.",
article = nil,
aliases = { "Local Attention", "windowed attention", "local self-attention" },
es = "Patrón de atención que restringe cada consulta a una ventana fija de claves cercanas, reduciendo la complejidad a lineal en la longitud de la secuencia a costa del flujo de información a largo alcance.",
zh = "一种注意力模式,将每个查询限制在附近键的固定窗口内,将复杂度降至序列长度的线性级别,但牺牲了长程信息流动。",
term_es = "atención local",
term_zh = "局部注意力",
aliases_es = { "local attention", "atención por ventanas", "auto-atención local" },
aliases_zh = { "local attention", "窗口注意力", "局部自注意力" },
}
data["local average derivative"] = {
short = "An average of the partial derivative of an outcome with respect to a treatment, taken over a specified subpopulation or weighting density. It generalizes the average derivative effect to a local context such as compliers or a covariate region.",
article = nil,
aliases = { "LAD", "local average derivative effect", "local average partial effect" },
es = "Promedio de la derivada parcial de un resultado con respecto a un tratamiento, tomado sobre una subpoblación o densidad de ponderación específica. Generaliza el efecto derivado promedio a un contexto local, como cumplidores o una región de covariables.",
zh = "结果对处理的偏导数在指定子总体或加权密度上的平均值。将平均导数效应推广到局部情形,例如顺从者或某一协变量区域。",
term_es = "derivada promedio local",
term_zh = "局部平均导数",
aliases_es = { "efecto derivado promedio local", "LAD" },
aliases_zh = { "局部平均偏效应", "LAD" },
}
data["local average treatment effect"] = {
short = "In an instrumental variables design with a binary instrument, the average treatment effect among compliers — those whose treatment status responds to the instrument. Identified under the LATE assumptions of Imbens and Angrist (1994).",
article = nil,
aliases = { "LATE", "complier average causal effect", "CACE", "complier average treatment effect" },
es = "En un diseño con variables instrumentales con instrumento binario, es el efecto promedio del tratamiento entre los cumplidores, es decir aquellos cuyo estado de tratamiento responde al instrumento. Se identifica bajo los supuestos LATE de Imbens y Angrist (1994).",
zh = "在使用二值工具变量的设计中,处理状态会随工具变量改变的“顺从者”子总体的平均处理效应。在 Imbens 和 Angrist(1994)的 LATE 假设下可识别。",
term_es = "efecto promedio local del tratamiento",
term_zh = "局部平均处理效应",
aliases_es = { "LATE", "efecto causal promedio en cumplidores", "CACE" },
aliases_zh = { "LATE", "顺从者平均因果效应", "CACE" },
}
data["local differential privacy"] = {
short = "A privacy model in which each user perturbs their data with calibrated noise before sending it to a server, so that the privacy guarantee holds without trusting the aggregator. Often abbreviated LDP.",
article = nil,
aliases = { "LDP", "client-level local DP", "user-level local privacy" },
es = "Modelo de privacidad en el que cada usuario perturba sus datos con ruido calibrado antes de enviarlos al servidor, de modo que la garantía de privacidad se cumple sin necesidad de confiar en el agregador. Se abrevia LDP.",
zh = "一种隐私模型:每个用户在将数据发送到服务器之前先对数据加入校准噪声,从而无需信任聚合方即可获得隐私保证,常缩写为 LDP。",
term_es = "privacidad diferencial local",
term_zh = "本地差分隐私",
aliases_es = { "LDP", "DP local" },
aliases_zh = { "LDP", "局部差分隐私", "本地化差分隐私" },
}
data["local explanation"] = {
short = "An explanation that describes a model's behavior for a single input or a small neighborhood around it, in contrast to global explanations that summarize the whole model.",
article = nil,
aliases = { "instance-level explanation", "pointwise explanation", "per-instance explanation" },
es = "Explicación que describe el comportamiento de un modelo para una sola entrada o un pequeño entorno a su alrededor, en contraste con las explicaciones globales que resumen el modelo completo.",
zh = "针对单个输入或其附近小邻域描述模型行为的解释,与对整个模型进行总结的全局解释相对。",
term_es = "explicación local",
term_zh = "局部解释",
aliases_es = { "explicación por instancia", "explicación a nivel de instancia" },
aliases_zh = { "实例级解释", "单点解释", "逐样本解释" },
}
data["local fidelity"] = {
short = "How accurately a surrogate or simplified explanation matches the black-box model's predictions in the neighborhood of a specific instance, a key quality metric for local explanation methods.",
article = nil,
aliases = { "local faithfulness", "neighborhood fidelity" },
es = "Grado en que un modelo sustituto o explicación simplificada reproduce las predicciones del modelo caja negra en el entorno de una instancia concreta; métrica clave de calidad para explicaciones locales.",
zh = "代理模型或简化解释在某个实例邻域内与黑盒模型预测的吻合程度,是衡量局部解释质量的核心指标。",
term_es = "fidelidad local",
term_zh = "局部保真度",
aliases_es = { "fidelidad de vecindario", "fidelidad en la vecindad" },
aliases_zh = { "局部忠实度", "邻域保真度" },
}
data["local linear approximation"] = {
short = "A first-order Taylor approximation of a model around an input, replacing it locally by a linear function whose gradient gives feature attributions for that point.",
article = nil,
aliases = { "first-order approximation", "Taylor linearization", "gradient-based linearization" },
es = "Aproximación de Taylor de primer orden de un modelo en torno a una entrada, sustituyéndolo localmente por una función lineal cuyo gradiente proporciona las atribuciones de rasgos en ese punto.",
zh = "对模型在输入附近的一阶泰勒近似,将其局部替换为一个线性函数,其梯度即可作为该点的特征归因。",
term_es = "aproximación lineal local",
term_zh = "局部线性近似",
aliases_es = { "aproximación de primer orden", "linealización de Taylor" },
aliases_zh = { "一阶近似", "泰勒线性化", "基于梯度的线性化" },
}
data["local markov property"] = {
short = "The conditional independence statement that, in a directed acyclic graph, each variable is independent of its non-descendants given its parents; one of three equivalent characterizations of Bayesian network semantics.",
article = nil,
aliases = { "local directed Markov property", "local DAG Markov property" },
es = "Enunciado de independencia condicional según el cual, en un grafo acíclico dirigido, cada variable es independiente de sus no descendientes dados sus padres; una de las tres caracterizaciones equivalentes de la semántica de redes bayesianas.",
zh = "一种条件独立性陈述:在有向无环图中,每个变量在其父节点给定时与其所有非后代独立;是贝叶斯网络语义的三种等价刻画之一。",
term_es = "propiedad local de Markov",
term_zh = "局部马尔可夫性",
aliases_es = { "propiedad de Markov local" },
aliases_zh = { "局部马尔可夫性质" },
}
data["local minimum"] = {
short = "A point in parameter space where the loss is smaller than at all sufficiently nearby points, but possibly larger than the global minimum.",
article = nil,
aliases = { "local minima", "local optimum" },
es = "Punto del espacio de parámetros donde la pérdida es menor que en todos los puntos suficientemente cercanos, pero posiblemente mayor que el mínimo global.",
zh = "参数空间中的一个点,在该点处损失值小于所有足够邻近的点,但可能高于全局最小值。",
term_es = "mínimo local",
term_zh = "局部最小值",
aliases_es = { "mínimos locales", "óptimo local" },
aliases_zh = { "局部极小值", "局部最优" },
}
data["local model"] = {
short = "In federated learning, the model held and trained on a single client's device using only that client's data. Local models are periodically aggregated into a shared global model.",
article = nil,
aliases = { "client model", "on-device model", "per-client model" },
es = "En aprendizaje federado, el modelo que reside y se entrena en el dispositivo de un único cliente usando solo sus datos. Los modelos locales se agregan periódicamente para formar un modelo global compartido.",
zh = "在联邦学习中,仅由单个客户端在其本地数据上训练并保存的模型;这些本地模型会被周期性地聚合成共享的全局模型。",
term_es = "modelo local",
term_zh = "本地模型",
aliases_es = { "modelo del cliente", "modelo en dispositivo" },
aliases_zh = { "客户端模型", "设备端模型", "本地端模型" },
}
data["local parameter independence"] = {
short = "A Bayesian network learning assumption that the parameters of a node's conditional probability distribution are independent across different parent configurations, allowing the prior and posterior to factorize over rows of the CPT.",
article = nil,
aliases = { "local independence of parameters" },
es = "Suposición en el aprendizaje de redes bayesianas según la cual los parámetros de la distribución condicional de un nodo son independientes entre las distintas configuraciones de los padres, lo que permite factorizar el a priori y el posterior por filas de la CPT.",
zh = "贝叶斯网络学习中的一种假设:节点条件概率分布的参数在父变量不同取值组合之间相互独立,使得先验与后验可在CPT各行上分解。",
term_es = "independencia local de parámetros",
term_zh = "局部参数独立性",
aliases_es = { "independencia de parámetros local" },
aliases_zh = { "参数局部独立性" },
}
data["local polynomial regression"] = {
short = "A nonparametric smoothing technique that fits a low-order polynomial within a kernel-weighted neighborhood of each evaluation point. It is the standard estimator for the conditional mean at the cutoff in regression discontinuity designs.",
article = nil,
aliases = { "local polynomial smoothing", "local linear regression", "local polynomial estimator", "LOESS-style local polynomial" },
es = "Técnica de suavizado no paramétrica que ajusta un polinomio de bajo orden dentro de un vecindario ponderado por núcleo en cada punto de evaluación. Es el estimador estándar de la media condicional en el umbral para diseños de regresión discontinua.",
zh = "一种非参数光滑方法,在每个评估点周围使用核加权邻域拟合低阶多项式。它是回归断点设计中估计断点处条件均值的标准方法。",
term_es = "regresión polinómica local",
term_zh = "局部多项式回归",
aliases_es = { "regresión lineal local", "suavizado polinómico local" },
aliases_zh = { "局部线性回归", "局部多项式光滑" },
}
data["local polytope"] = {
short = "An outer relaxation of the marginal polytope defined by enforcing only local consistency between pairwise and singleton marginals; used in linear programming relaxations for MAP inference and as the feasible set in tree-reweighted message passing.",
article = nil,
aliases = { "pseudo-marginal polytope", "LP polytope" },
es = "Relajación externa del politopo marginal definida imponiendo únicamente consistencia local entre marginales por pares y unitarios; se utiliza en relajaciones de programación lineal para inferencia MAP y como conjunto factible en paso de mensajes con reponderación por árboles.",
zh = "边际多面体的一种外松弛,仅要求二元边际与一元边际之间局部一致;用于MAP推断的线性规划松弛,以及树重加权消息传递的可行集。",
term_es = "politopo local",
term_zh = "局部多面体",
aliases_es = { "politopo de pseudo-marginales" },
aliases_zh = { "伪边际多面体", "LP多面体" },
}
data["local probability model"] = {
short = "The conditional probability distribution attached to a single node in a Bayesian network, specifying the distribution of that variable given its parents; common forms include conditional probability tables, linear-Gaussian, sigmoid, and noisy-OR models.",
article = nil,
aliases = { "local CPD", "local conditional probability model", "local distribution" },
es = "Distribución de probabilidad condicional asociada a un único nodo en una red bayesiana, que especifica la distribución de esa variable dados sus padres; entre sus formas habituales están las tablas de probabilidad condicional, lineales gaussianas, sigmoides y noisy-OR.",
zh = "贝叶斯网络中单个节点对应的条件概率分布,指定该变量在父变量给定时的分布;常见形式包括条件概率表、线性高斯、sigmoid和noisy-OR模型。",
term_es = "modelo de probabilidad local",
term_zh = "局部概率模型",
aliases_es = { "CPD local", "distribución local" },
aliases_zh = { "局部CPD", "局部条件分布" },
}
data["local randomization rd"] = {
short = "An approach to regression discontinuity that, instead of relying on smoothness of conditional expectations, treats units within a small window around the cutoff as if they were randomly assigned to treatment. It enables finite-sample randomization inference at the threshold.",
article = nil,
aliases = { "local randomization regression discontinuity", "local randomization RDD", "Cattaneo local randomization", "LR RD" },
es = "Enfoque de regresión discontinua que, en lugar de basarse en la suavidad de las esperanzas condicionales, trata a las unidades dentro de una ventana estrecha alrededor del umbral como si hubieran sido asignadas aleatoriamente al tratamiento. Permite inferencia por aleatorización en muestras finitas en el umbral.",
zh = "回归断点设计的一种方法,不依赖条件期望的光滑性,而是将断点附近窄窗口内的单位视为如同被随机分配到处理组。可在断点处实现有限样本的随机化推断。",
term_es = "regresión discontinua por aleatorización local",
term_zh = "局部随机化断点回归",
aliases_es = { "RDD por aleatorización local", "diseño RD por aleatorización local" },
aliases_zh = { "局部随机化 RDD", "局部随机化回归断点" },
}
data["local reparameterization"] = {
short = "A variance-reduction trick for variational Bayesian neural networks that samples activation noise per data point rather than weight noise per minibatch, exploiting the induced Gaussian over pre-activations.",
article = nil,
aliases = { "local reparameterization trick", "local reparameterisation", "LRT", "local reparam trick" },
es = "Truco de reducción de varianza para redes neuronales bayesianas variacionales que muestrea ruido de activación por dato en lugar de ruido de pesos por minibatch, aprovechando la gaussiana inducida sobre las preactivaciones.",
zh = "用于变分贝叶斯神经网络的方差缩减技巧:对每个数据点采样激活噪声,而非对整个 mini-batch 采样权重噪声,利用预激活上的诱导高斯分布。",
term_es = "reparametrización local",
term_zh = "局部重参数化",
aliases_es = { "truco de reparametrización local", "LRT" },
aliases_zh = { "局部重参数化技巧", "局部再参数化", "LRT" },
}
data["local representation federated"] = {
short = "A federated learning design in which clients keep private feature-extraction layers (representations) while sharing only higher-level layers, allowing personalization while still benefiting from collaborative training.",
article = nil,
aliases = { "personalized representation (federated)", "client-specific representation", "local feature head", "FedRep representation" },
es = "Diseño de aprendizaje federado en el que los clientes mantienen capas privadas de extracción de características (representaciones) mientras comparten solo las capas superiores, lo que permite la personalización sin perder los beneficios del entrenamiento colaborativo.",
zh = "一种联邦学习设计:客户端保留私有的特征提取层(表示层),仅共享更高层的网络,从而在保留个性化的同时仍受益于联合训练。",
term_es = "representación local federada",
term_zh = "联邦本地表示",
aliases_es = { "representación personalizada federada", "representación específica del cliente" },
aliases_zh = { "联邦个性化表示", "客户端特定表示", "本地特征表示" },
}
data["local response normalization"] = {
short = "Normalization that divides each activation by a function of neighboring channel responses at the same spatial location, mimicking lateral inhibition. Used in early CNNs such as AlexNet.",
article = nil,
aliases = { "LRN", "Local Response Normalization" },
es = "Normalización que divide cada activación por una función de las respuestas de canales vecinos en la misma ubicación espacial, imitando la inhibición lateral. Usada en CNN tempranas como AlexNet.",
zh = "将每个激活除以同一空间位置上相邻通道响应的函数值,以模拟侧抑制的归一化方法。曾用于 AlexNet 等早期 CNN。",
term_es = "normalización de respuesta local",
term_zh = "局部响应归一化",
aliases_es = { "LRN", "normalización de respuesta local" },
aliases_zh = { "LRN", "局部响应标准化" },
}
data["local rule explanation"] = {
short = "An explanation that describes a model's prediction near an input by an if-then rule (often called an anchor) that holds with high precision for similar instances.",
article = nil,
aliases = { "rule-based local explanation", "anchor explanation", "local decision rule" },
es = "Explicación que describe la predicción de un modelo cerca de una entrada mediante una regla del tipo si-entonces (a menudo llamada ancla) que se cumple con alta precisión para instancias similares.",
zh = "用一条 if-then 规则(常称为 anchor)描述输入附近模型预测的解释,该规则对相似实例具有较高精确度。",
term_es = "explicación local por reglas",
term_zh = "局部规则解释",
aliases_es = { "explicación basada en reglas locales", "explicación por anclas", "regla de decisión local" },
aliases_zh = { "基于规则的局部解释", "锚点解释", "局部决策规则" },
}
data["local sgd"] = {
short = "A distributed optimization scheme in which each worker performs several SGD steps on its local data before synchronizing parameters with other workers, reducing communication frequency at the cost of model staleness.",
article = nil,
aliases = { "Local SGD", "parallel SGD with local updates", "FedAvg-style optimization", "periodic averaging SGD" },
es = "Esquema de optimización distribuida en el que cada trabajador realiza varios pasos de SGD sobre sus datos locales antes de sincronizar los parámetros con los demás, reduciendo la frecuencia de comunicación a costa de cierta obsolescencia del modelo.",
zh = "一种分布式优化方案:每个工作节点在其本地数据上执行若干步 SGD 后再与其他节点同步参数,从而以一定的模型滞后换取更低的通信频率。",
term_es = "SGD local",
term_zh = "本地 SGD",
aliases_es = { "SGD con actualizaciones locales", "SGD paralelo con pasos locales" },
aliases_zh = { "局部 SGD", "本地随机梯度下降", "周期平均 SGD" },
}
data["local steps"] = {
short = "The number of local SGD updates each client performs between two consecutive communication rounds in federated or distributed learning. More local steps reduce communication but can amplify client drift.",
article = nil,
aliases = { "local epochs", "inner steps (federated)", "local update steps", "K local steps" },
es = "Número de actualizaciones locales de SGD que cada cliente realiza entre dos rondas de comunicación consecutivas en aprendizaje federado o distribuido. Más pasos locales reducen la comunicación pero pueden amplificar la deriva del cliente.",
zh = "在联邦或分布式学习中,每个客户端在两次连续通信轮之间执行的本地 SGD 更新步数;步数越多通信越少,但客户端漂移也可能加剧。",
term_es = "pasos locales",
term_zh = "本地步数",
aliases_es = { "épocas locales", "pasos internos (federado)" },
aliases_zh = { "本地迭代步数", "局部更新步数", "客户端本地步数" },
}
data["local surrogate"] = {
short = "An interpretable model, typically linear or rule-based, trained on perturbations of a single instance to mimic the black-box model's behavior in that neighborhood; the basis of methods like LIME.",
article = nil,
aliases = { "local surrogate model", "LIME surrogate", "neighborhood surrogate" },
es = "Modelo interpretable, generalmente lineal o basado en reglas, entrenado con perturbaciones de una instancia para imitar el comportamiento del modelo caja negra en su entorno; base de métodos como LIME.",
zh = "在单个实例的扰动样本上训练的可解释模型(通常是线性或规则模型),用于模拟黑盒模型在该邻域内的行为,是 LIME 等方法的基础。",
term_es = "modelo sustituto local",
term_zh = "局部代理模型",
aliases_es = { "sustituto local", "sustituto de vecindario", "sustituto LIME" },
aliases_zh = { "局部代用模型", "局部替代模型", "邻域代理" },
}
data["locality sensitive hashing"] = {
short = "A family of randomized hashing schemes designed so that similar inputs collide with high probability and dissimilar inputs collide with low probability, enabling sublinear-time approximate nearest neighbor search.",
article = nil,
aliases = { "LSH", "Locality-Sensitive Hashing", "Locality Sensitive Hashing", "locality-sensitive hash", "locality sensitive hash" },
es = "Familia de esquemas de hashing aleatorizado diseñados para que entradas similares colisionen con alta probabilidad y entradas distintas colisionen con baja probabilidad, permitiendo búsqueda de vecinos más cercanos aproximada en tiempo sublineal.",
zh = "一类随机化的哈希方案,其设计使相似输入以较高概率发生哈希碰撞、不相似输入以较低概率碰撞,从而支持亚线性时间的近似最近邻搜索。",
term_es = "hashing sensible a la localidad",
term_zh = "局部敏感哈希",
aliases_es = { "LSH", "hashing por localidad", "locality sensitive hashing" },
aliases_zh = { "LSH", "位置敏感哈希", "局部敏感散列" },
}
data["log loss"] = {
short = "Negative average log-likelihood of the true labels under predicted class probabilities, −(1/N)Σ log p(y|x). Equivalent to cross-entropy loss for classification; penalizes confident wrong predictions heavily.",
article = "Cross-Entropy Loss",
aliases = { "logarithmic loss", "logistic loss", "cross-entropy loss", "negative log-likelihood", "NLL" },
es = "Log-verosimilitud media negativa de las etiquetas verdaderas bajo las probabilidades predichas por el modelo, −(1/N)Σ log p(y|x). Equivale a la pérdida de entropía cruzada en clasificación y penaliza fuertemente las predicciones erróneas con alta confianza.",
zh = "真实标签在模型预测概率下的负对数似然均值,−(1/N)Σ log p(y|x)。在分类任务中等价于交叉熵损失,并对高置信度的错误预测惩罚严厉。",
term_es = "log loss",
term_zh = "对数损失",
aliases_es = { "pérdida logarítmica", "pérdida logística", "log-verosimilitud negativa", "NLL" },
aliases_zh = { "log loss", "对数似然损失", "负对数似然", "交叉熵损失" },
}
data["log normalization"] = {
short = "Transformation that replaces a count by the logarithm of the count plus a pseudocount, often after library-size scaling. Used to stabilize variance and reduce skew in single-cell RNA-seq and other count data.",
article = nil,
aliases = { "log-normalization", "log normalisation", "log-transform normalization", "log1p normalization" },
es = "Transformación que reemplaza un conteo por el logaritmo del conteo más un pseudoconteo, a menudo tras escalar por tamaño de biblioteca. Se utiliza para estabilizar la varianza y reducir la asimetría en RNA-seq de célula única y otros datos de conteo.",
zh = "将计数替换为加上伪计数后的对数(通常在按文库大小缩放之后)的变换,用于稳定方差并减小单细胞 RNA-seq 等计数数据的偏度。",
term_es = "normalización logarítmica",
term_zh = "对数归一化",
aliases_es = { "normalización log", "transformación log", "normalización log1p" },
aliases_zh = { "log 归一化", "对数变换归一化", "log1p 归一化" },
}
data["log predictive density"] = {
short = "The logarithm of the posterior predictive probability assigned to held-out observations; widely used as a calibration- and uncertainty-aware evaluation metric for probabilistic models.",
article = nil,
aliases = { "LPD", "log posterior predictive density", "log predictive likelihood", "test log-likelihood" },
es = "Logaritmo de la probabilidad predictiva posterior asignada a observaciones de prueba; ampliamente utilizado como métrica de evaluación sensible a calibración e incertidumbre para modelos probabilísticos.",
zh = "后验预测对留出观测所给出概率的对数,是概率模型中广泛使用的、对校准和不确定性敏感的评估指标。",
term_es = "densidad predictiva logarítmica",
term_zh = "对数预测密度",
aliases_es = { "LPD", "log-densidad predictiva", "log-verosimilitud predictiva" },
aliases_zh = { "LPD", "对数后验预测密度", "测试对数似然" },
}
data["log score"] = {
short = "A strictly proper scoring rule defined as the negative log probability assigned by a forecast to the observed outcome, used to evaluate calibration and sharpness of probabilistic predictions.",
article = nil,
aliases = { "logarithmic score", "logarithmic scoring rule", "log loss", "negative log-likelihood score" },
es = "Regla de puntuación estrictamente propia definida como el logaritmo negativo de la probabilidad asignada por un pronóstico al resultado observado, utilizada para evaluar calibración y nitidez de predicciones probabilísticas.",
zh = "严格正当的评分规则,定义为预测对观测结果所赋概率的对数取负值,用于评估概率预测的校准性和锐度。",
term_es = "puntaje logarítmico",
term_zh = "对数评分",
aliases_es = { "regla logarítmica", "log loss", "puntaje log" },
aliases_zh = { "对数得分", "对数评分规则", "log loss", "对数损失" },
}
data["log-linear model"] = {
short = "A probabilistic model that expresses the unnormalized log-density as a linear combination of feature functions, p(x) ∝ exp(Σ θ_k f_k(x)); encompasses exponential families, maximum-entropy models, and Markov random fields.",
article = nil,
aliases = { "log linear model", "loglinear model", "exponential family model", "maximum entropy model", "MaxEnt model" },
es = "Modelo probabilístico que expresa la log-densidad no normalizada como combinación lineal de funciones de características, p(x) ∝ exp(Σ θ_k f_k(x)); engloba familias exponenciales, modelos de máxima entropía y campos aleatorios de Markov.",
zh = "一种概率模型,将未归一化对数密度表示为特征函数的线性组合 p(x) ∝ exp(Σ θ_k f_k(x));涵盖指数族、最大熵模型与马尔可夫随机场。",
term_es = "modelo log-lineal",
term_zh = "对数线性模型",
aliases_es = { "modelo loglineal", "modelo de máxima entropía", "MaxEnt" },
aliases_zh = { "log-linear模型", "最大熵模型", "MaxEnt" },
}
data["log-mel spectrogram"] = {
short = "A time-frequency representation of audio computed by mapping the short-time Fourier transform magnitude onto a mel-scale filterbank and taking the logarithm of each band's energy, widely used as input features for speech and audio neural networks.",
article = nil,
aliases = { "log mel spectrogram", "log Mel spectrogram", "log-Mel spectrogram", "log-mel filterbank features", "log-mel filterbank", "logmel spectrogram", "mel filterbank features", "fbank features" },
es = "Representación tiempo-frecuencia de audio que se obtiene proyectando la magnitud de la transformada de Fourier de corto tiempo sobre un banco de filtros en escala mel y tomando el logaritmo de la energía en cada banda; se utiliza ampliamente como característica de entrada para redes neuronales de habla y audio.",
zh = "一种音频时频表示,将短时傅里叶变换的幅度映射到梅尔尺度滤波器组,并对每个频带能量取对数得到;广泛用作语音和音频神经网络的输入特征。",
term_es = "espectrograma log-mel",
term_zh = "对数梅尔频谱图",
aliases_es = { "log-Mel spectrogram", "espectrograma log-Mel", "características log-mel filterbank", "filterbank log-mel" },
aliases_zh = { "log-mel 频谱图", "log-Mel 频谱图", "对数梅尔滤波器组特征", "fbank 特征" },
}
data["log-partition function"] = {
short = "The logarithm of the normalizing constant Z(θ) of an exponential family or undirected graphical model; its gradient yields the mean parameters and its Legendre dual is the negative entropy, central to variational inference.",
article = nil,
aliases = { "log partition function", "cumulant function", "log-Z", "log Z" },
es = "Logaritmo de la constante de normalización Z(θ) de una familia exponencial o de un modelo gráfico no dirigido; su gradiente proporciona los parámetros medios y su dual de Legendre es la entropía negativa, fundamental en inferencia variacional.",
zh = "指数族或无向概率图模型归一化常数Z(θ)的对数;其梯度给出均值参数,其勒让德对偶为负熵,是变分推断的核心量。",
term_es = "función log-partición",
term_zh = "对数配分函数",
aliases_es = { "función de log-partición", "función cumulante", "log Z" },
aliases_zh = { "log配分函数", "累积量函数", "log Z" },
}
data["log-potential"] = {
short = "The logarithm of a non-negative potential function in a Markov random field or factor graph; log-potentials add to give the unnormalized log-density, making them the natural parameters for energy-based formulations.",
article = nil,
aliases = { "log potential", "energy function", "negative energy" },
es = "Logaritmo de una función potencial no negativa en un campo aleatorio de Markov o grafo de factores; los log-potenciales se suman para dar la log-densidad no normalizada, lo que los convierte en parámetros naturales en formulaciones basadas en energía.",
zh = "马尔可夫随机场或因子图中非负势函数的对数;各log势相加即得未归一化对数密度,是基于能量的表述中的自然参数。",
term_es = "log-potencial",
term_zh = "对数势",
aliases_es = { "potencial logarítmico", "función de energía" },
aliases_zh = { "log势", "能量函数" },
}
data["log-scale hyperparameter"] = {
short = "A hyperparameter whose search space is sampled or discretized on a logarithmic axis (for example learning rate or weight decay over [1e-6, 1e-1]) because its effect on training is roughly multiplicative rather than additive.",
article = nil,
aliases = { "log scale hyperparameter", "log-uniform hyperparameter", "log-scale parameter", "logarithmic hyperparameter" },
es = "Hiperparámetro cuyo espacio de búsqueda se muestrea o discretiza en un eje logarítmico (por ejemplo, la tasa de aprendizaje o la decaída de pesos en [1e-6, 1e-1]) porque su efecto sobre el entrenamiento es aproximadamente multiplicativo y no aditivo.",
zh = "搜索空间在对数轴上采样或离散化的超参数(如取值范围 [1e-6, 1e-1] 的学习率或权重衰减),因为这类超参数对训练的影响近似为乘性而非加性。",
term_es = "hiperparámetro en escala logarítmica",
term_zh = "对数尺度超参数",
aliases_es = { "hiperparámetro log-uniforme", "hiperparámetro logarítmico", "hiperparámetro en escala log" },
aliases_zh = { "对数均匀超参数", "log-scale超参数", "对数超参数" },
}
data["log-softmax"] = {
short = "Logarithm of the softmax: log σ(z)_i = z_i − logsumexp(z). Computed in a numerically stable way and combined with negative log-likelihood for cross-entropy training.",
article = nil,
aliases = { "LogSoftmax", "log softmax", "log_softmax" },
es = "Logaritmo de la softmax: log σ(z)_i = z_i − logsumexp(z). Se calcula de forma numéricamente estable y se combina con la log-verosimilitud negativa para entrenamiento con entropía cruzada.",
zh = "softmax 的对数:log σ(z)_i = z_i − logsumexp(z)。以数值稳定的方式计算,并与负对数似然结合用于交叉熵训练。",
term_es = "log-softmax",
term_zh = "log-softmax",
aliases_es = { "log-softmax", "logaritmo de softmax" },
aliases_zh = { "log-softmax", "对数 softmax" },
}
data["log-uniform prior"] = {
short = "A prior whose density is uniform on the logarithmic scale of a positive parameter, equivalent to p(x) ∝ 1/x; commonly used as a scale-invariant prior for variances or learning rates.",
article = nil,
aliases = { "log uniform prior", "logarithmic uniform prior", "scale-invariant prior", "Jeffreys-like scale prior" },
es = "Prior cuya densidad es uniforme en la escala logarítmica de un parámetro positivo, equivalente a p(x) ∝ 1/x; se utiliza habitualmente como prior invariante de escala para varianzas o tasas de aprendizaje.",
zh = "在正参数的对数尺度上密度均匀的先验,等价于 p(x) ∝ 1/x,常作为方差或学习率等尺度参数的尺度不变先验。",
term_es = "prior log-uniforme",
term_zh = "对数均匀先验",
aliases_es = { "prior logarítmico uniforme", "prior invariante de escala" },
aliases_zh = { "log-uniform 先验", "对数均匀分布先验", "尺度不变先验" },
}
data["logd"] = {
short = "The logarithm of the octanol–water distribution coefficient at a specified pH, accounting for all ionized and neutral microspecies; a more physiologically relevant lipophilicity measure than logP for ionizable compounds.",
article = nil,
aliases = { "logD", "log D", "distribution coefficient", "log distribution coefficient" },
es = "Logaritmo del coeficiente de distribución octanol-agua a un pH especificado, que tiene en cuenta todas las microespecies ionizadas y neutras; una medida de lipofilicidad más relevante fisiológicamente que logP para compuestos ionizables.",
zh = "在指定 pH 下的辛醇-水分布系数的对数,考虑所有电离和中性微观形式;对于可电离化合物而言,比 logP 更具生理相关性的亲脂性指标。",
term_es = "logD",
term_zh = "logD",
aliases_es = { "logD", "log D", "coeficiente de distribución" },
aliases_zh = { "logD", "log D", "分布系数对数", "分配系数(pH 依赖)" },
}
data["logic programming"] = {
short = "A declarative programming paradigm in which programs are sets of logical clauses (typically Horn clauses) and computation proceeds by automated theorem proving; canonical languages include Prolog, Datalog, and answer-set-programming systems like clingo.",
article = nil,
aliases = { "LP", "declarative logic programming", "Prolog-style programming" },
es = "Paradigma de programación declarativa en el que los programas son conjuntos de cláusulas lógicas (típicamente cláusulas de Horn) y el cómputo se realiza mediante demostración automática de teoremas; entre sus lenguajes canónicos destacan Prolog, Datalog y sistemas de answer set programming como clingo.",
zh = "一种声明式编程范式,其程序是逻辑子句(通常为 Horn 子句)的集合,计算通过自动定理证明完成;代表性语言包括 Prolog、Datalog 以及 clingo 等回答集程序系统。",
term_es = "programación lógica",
term_zh = "逻辑编程",
aliases_es = { "PL", "programación lógica declarativa" },
aliases_zh = { "LP", "声明式逻辑编程", "Prolog 式编程" },
}
data["logic sampling"] = {
short = "The simplest forward-sampling algorithm for Bayesian networks, which draws each variable from its conditional distribution given sampled parents and rejects samples inconsistent with observed evidence.",
article = nil,
aliases = { "Henrion's logic sampling", "forward sampling with rejection" },
es = "Algoritmo de muestreo directo más simple para redes bayesianas, que extrae cada variable de su distribución condicional dados los padres muestreados y rechaza las muestras inconsistentes con la evidencia observada.",
zh = "贝叶斯网络中最简单的前向采样算法:按拓扑序从每个变量在已采样父节点条件下的分布中抽样,并拒绝与观测证据不一致的样本。",
term_es = "muestreo lógico",
term_zh = "逻辑采样",
aliases_es = { "muestreo directo con rechazo" },
aliases_zh = { "logic sampling", "带拒绝的前向采样" },
}
data["logic tensor network"] = {
short = "A neuro-symbolic framework (Serafini & Garcez, 2016) that grounds first-order logic formulas as differentiable expressions over real-valued tensors via fuzzy semantics, enabling joint learning of neural predicates and logical constraints.",
article = nil,
aliases = { "LTN", "Logic Tensor Networks", "logic tensor networks" },
es = "Marco neuro-simbólico (Serafini y Garcez, 2016) que aterriza fórmulas de lógica de primer orden como expresiones diferenciables sobre tensores reales mediante semántica difusa, permitiendo el aprendizaje conjunto de predicados neuronales y restricciones lógicas.",
zh = "由 Serafini 和 Garcez(2016)提出的神经-符号框架,借助模糊语义将一阶逻辑公式落地为对实值张量的可微分表达,从而联合学习神经谓词和逻辑约束。",
term_es = "red de tensores lógicos",
term_zh = "逻辑张量网络",
aliases_es = { "LTN", "redes de tensores lógicos" },
aliases_zh = { "LTN", "逻辑张量网络模型" },
}
data["logical form generation"] = {
short = "The task of mapping natural-language utterances to structured logical or executable representations such as lambda calculus, SQL, SPARQL, or first-order logic. A core component of semantic parsing and neuro-symbolic systems.",
article = nil,
aliases = { "semantic parsing", "logical-form generation", "LF generation", "natural language to logical form" },
es = "Tarea de transformar enunciados en lenguaje natural en representaciones lógicas o ejecutables estructuradas, como cálculo lambda, SQL, SPARQL o lógica de primer orden. Componente central del parsing semántico y de los sistemas neurosimbólicos.",
zh = "将自然语言表述映射为结构化的逻辑或可执行表示(如 λ 演算、SQL、SPARQL 或一阶逻辑)的任务,是语义解析和神经符号系统的核心组成部分。",
term_es = "generación de forma lógica",
term_zh = "逻辑形式生成",
aliases_es = { "parsing semántico", "generación de logical form", "conversión a forma lógica" },
aliases_zh = { "语义解析", "逻辑形式抽取" },
}
data["logiqa"] = {
short = "A reading-comprehension benchmark of multiple-choice questions translated from the Chinese civil-service examination, designed to test logical reasoning skills such as categorical and conditional inference in language models.",
article = nil,
aliases = { "LogiQA", "LogiQA benchmark", "LogiQA dataset" },
es = "Benchmark de comprensión lectora con preguntas de opción múltiple traducidas del examen de la función pública china, diseñado para evaluar capacidades de razonamiento lógico —como inferencia categórica y condicional— en modelos de lenguaje.",
zh = "一个阅读理解基准,由中国国家公务员考试题翻译而来的多项选择题构成,用于评估语言模型在范畴推理和条件推理等逻辑推理能力上的表现。",
term_es = "LogiQA",
term_zh = "LogiQA",
aliases_es = { "benchmark LogiQA", "conjunto LogiQA" },
aliases_zh = { "LogiQA 基准", "LogiQA 数据集" },
}
data["logistic regression"] = {
short = "A statistical model that estimates the probability of a binary outcome by passing a linear combination of features through the sigmoid function. The classic baseline for binary classification.",
article = "Logistic regression",
aliases = { "logit regression" },
es = "Modelo estadístico que estima la probabilidad de un resultado binario aplicando la función sigmoide a una combinación lineal de características.",
zh = "一种统计模型,通过将特征的线性组合传入 sigmoid 函数来估计二元结果的概率。是二分类的经典基线方法。",
term_es = "regresión logística",
term_zh = "逻辑回归",
aliases_es = {},
aliases_zh = { "对数几率回归" },
}
data["logit attribution"] = {
short = "An interpretability technique that decomposes a model's output logits into additive contributions from individual components such as attention heads, MLP layers, or residual-stream directions.",
article = nil,
aliases = { "direct logit attribution", "DLA", "logit decomposition" },
es = "Técnica de interpretabilidad que descompone los logits de salida de un modelo en contribuciones aditivas de componentes individuales como cabezas de atención, capas MLP o direcciones del flujo residual.",
zh = "一种可解释性技术,将模型输出的 logits 分解为来自各个组件(如注意力头、MLP 层或残差流方向)的可加贡献。",
term_es = "atribución de logits",
term_zh = "logit 归因",
aliases_es = { "atribución directa de logits", "DLA", "descomposición de logits" },
aliases_zh = { "直接 logit 归因", "DLA", "logit 分解" },
}
data["logit difference"] = {
short = "The difference between the logit of the correct (or target) token and that of a contrasting token, commonly used in mechanistic interpretability as a scalar performance metric for individual circuits.",
article = nil,
aliases = { "logit diff", "target-vs-incorrect logit gap" },
es = "Diferencia entre el logit del token correcto (o objetivo) y el de un token contrastivo; se usa habitualmente en interpretabilidad mecanicista como métrica escalar del desempeño de circuitos concretos.",
zh = "正确(或目标)token 与对比 token 的 logit 之差,常作为机制可解释性中评估具体电路表现的标量指标。",
term_es = "diferencia de logits",
term_zh = "logit 差",
aliases_es = { "logit diff", "brecha de logits objetivo-incorrecto" },
aliases_zh = { "logit 差值", "logit difference", "目标-错误 logit 差距" },
}
data["logit lens"] = {
short = "A diagnostic technique that applies a transformer's final unembedding matrix to intermediate residual-stream activations, revealing the token distribution the model would predict if it stopped at that layer.",
article = nil,
aliases = { "tuned lens", "logit lens probe", "early-exit logit projection" },
es = "Técnica diagnóstica que aplica la matriz de desembebido final de un transformador a las activaciones intermedias del flujo residual, revelando la distribución de tokens que predeciría el modelo si se detuviera en esa capa.",
zh = "一种诊断技术,将 Transformer 最终的反嵌入矩阵应用到中间残差流激活上,以揭示模型若在该层停止将预测的 token 分布。",
term_es = "logit lens",
term_zh = "logit lens",
aliases_es = { "lente de logits", "tuned lens", "proyección de logits por salida temprana" },
aliases_zh = { "logit 透镜", "tuned lens", "早退 logit 投影" },
}
data["logit prism"] = {
short = "An extension of the logit lens that decomposes the residual-stream contribution to the output logits across components or directions, exposing how each part of the network refracts toward specific tokens.",
article = nil,
aliases = { "logit prism decomposition", "prism lens" },
es = "Extensión del logit lens que descompone la contribución del flujo residual a los logits de salida entre componentes o direcciones, mostrando cómo cada parte de la red refracta hacia tokens concretos.",
zh = "logit lens 的扩展方法,将残差流对输出 logits 的贡献分解到各组件或方向上,揭示网络各部分如何\"折射\"至特定 token。",
term_es = "logit prism",
term_zh = "logit prism",
aliases_es = { "prisma de logits", "descomposición logit prism" },
aliases_zh = { "logit 棱镜", "logit prism 分解" },
}
data["logits"] = {
short = "The unnormalized real-valued outputs of a classifier's final linear layer, before being passed through softmax (or sigmoid for binary tasks) to produce probabilities.",
article = nil,
aliases = { "logit" },
es = "Las salidas reales no normalizadas de la capa lineal final de un clasificador, antes de pasarlas por softmax (o sigmoide para tareas binarias) para producir probabilidades.",
zh = "分类器最后线性层的未归一化实值输出,在经过 softmax(或二分类的 sigmoid)转换为概率之前的形式。",
term_es = "logits",
term_zh = "logits",
aliases_es = { "logit" },
aliases_zh = { "logit" },
}
data["logp"] = {
short = "The logarithm of the octanol–water partition coefficient, measuring the equilibrium concentration ratio of a neutral compound between the two phases; a fundamental descriptor of lipophilicity and a Lipinski Rule-of-Five criterion.",
article = nil,
aliases = { "logP", "log P", "octanol-water partition coefficient", "log Po/w", "log Kow" },
es = "Logaritmo del coeficiente de partición octanol-agua, que mide la razón de concentración en equilibrio de un compuesto neutro entre las dos fases; un descriptor fundamental de la lipofilicidad y un criterio de la Regla de Cinco de Lipinski.",
zh = "辛醇-水分配系数的对数,衡量中性化合物在两相之间的平衡浓度比;是亲脂性的基础描述符,也是 Lipinski 五规则的判定标准之一。",
term_es = "logP",
term_zh = "logP",
aliases_es = { "logP", "log P", "coeficiente de partición octanol-agua" },
aliases_zh = { "logP", "log P", "辛醇水分配系数对数", "正辛醇水分配系数" },
}
data["long short-term memory"] = {
short = "A recurrent neural network architecture using gated memory cells (input, forget, and output gates) to learn long-range dependencies while mitigating vanishing-gradient problems in vanilla RNNs.",
article = nil,
aliases = { "LSTM", "LSTM network", "long short term memory", "LSTM cell", "LSTM unit" },
es = "Arquitectura de red neuronal recurrente que utiliza celdas de memoria con compuertas (de entrada, de olvido y de salida) para aprender dependencias de largo alcance, mitigando el problema del desvanecimiento del gradiente de las RNN clásicas.",
zh = "一种循环神经网络架构,使用带有输入门、遗忘门和输出门的门控记忆单元,能够学习长程依赖并缓解普通 RNN 的梯度消失问题。",
term_es = "memoria a largo y corto plazo",
term_zh = "长短期记忆",
aliases_es = { "LSTM", "red LSTM", "memoria larga a corto plazo" },
aliases_zh = { "LSTM", "长短期记忆网络", "长短时记忆" },
}
data["long-clip"] = {
short = "A variant of CLIP that extends the maximum text input length beyond the original 77-token limit by interpolating positional embeddings, enabling long-caption text-image alignment.",
article = nil,
aliases = { "Long-CLIP", "LongCLIP", "Long CLIP" },
es = "Variante de CLIP que extiende la longitud máxima de entrada de texto más allá del límite original de 77 tokens mediante la interpolación de embeddings posicionales, permitiendo alineación texto-imagen con descripciones largas.",
zh = "CLIP 的一种变体,通过对位置嵌入进行插值,将文本输入的最大长度扩展到原始 77 个 token 限制之外,从而支持长描述的文图对齐。",
term_es = "Long-CLIP",
term_zh = "Long-CLIP",
aliases_es = { "LongCLIP", "Long CLIP" },
aliases_zh = { "LongCLIP", "Long CLIP" },
}
data["long-context"] = {
short = "Describes language models or techniques that support context windows of tens of thousands to millions of tokens, enabling reasoning over long documents, codebases, or multi-turn histories without truncation.",
article = nil,
aliases = { "long context", "long-context model", "long context model", "long context window", "long-context LLM" },
es = "Se refiere a modelos de lenguaje o técnicas que admiten ventanas de contexto de decenas de miles a millones de tokens, lo que permite razonar sobre documentos largos, bases de código o historiales extensos sin truncar.",
zh = "指支持数万至数百万 token 上下文窗口的语言模型或相关技术,能够在不截断的情况下对长文档、代码库或多轮对话历史进行推理。",
term_es = "contexto largo",
term_zh = "长上下文",
aliases_es = { "long-context", "long context", "modelo de contexto largo" },
aliases_zh = { "long-context", "长上下文模型", "超长上下文" },
}
data["long-read sequencing"] = {
short = "DNA or RNA sequencing technologies — chiefly Pacific Biosciences SMRT and Oxford Nanopore — that produce reads from several to hundreds of kilobases, enabling resolution of repetitive regions, structural variants, and full-length transcripts.",
article = nil,
aliases = { "long read sequencing", "LRS", "third-generation sequencing", "third generation sequencing", "PacBio sequencing", "nanopore sequencing" },
es = "Tecnologías de secuenciación de ADN o ARN — principalmente PacBio SMRT y Oxford Nanopore — que producen lecturas de varios a cientos de kilobases, lo que permite resolver regiones repetitivas, variantes estructurales y transcritos de longitud completa.",
zh = "主要包括 Pacific Biosciences SMRT 和 Oxford Nanopore 等的 DNA 或 RNA 测序技术,可生成数千到数十万碱基的读段,用于解析重复区域、结构变异和全长转录本。",
term_es = "secuenciación de lecturas largas",
term_zh = "长读长测序",
aliases_es = { "secuenciación de tercera generación", "LRS", "secuenciación de larga lectura" },
aliases_zh = { "长读测序", "三代测序", "第三代测序" },
}
data["long-term fairness"] = {
short = "The study of how fair-now decisions interact with downstream individual and population dynamics over time, including feedback loops, reinforcement of disparities, and delayed welfare effects.",
article = nil,
aliases = { "longitudinal fairness", "dynamic fairness", "long term fairness" },
es = "Estudio de cómo las decisiones actualmente justas interactúan con la dinámica individual y poblacional a lo largo del tiempo, incluidos los ciclos de retroalimentación, el refuerzo de disparidades y los efectos de bienestar diferidos.",
zh = "研究当前公平的决策如何随时间与下游个体和群体动态交互,包括反馈循环、差距强化和延迟的福利影响。",
term_es = "equidad a largo plazo",
term_zh = "长期公平性",
aliases_es = { "equidad longitudinal", "equidad dinámica" },
aliases_zh = { "长期公平", "动态公平性" },
}
data["longbench"] = {
short = "A bilingual (English and Chinese) benchmark for evaluating long-context capabilities of LLMs across tasks such as single- and multi-document QA, summarization, few-shot learning, code completion, and synthetic retrieval.",
article = nil,
aliases = { "LongBench", "Long Bench", "LongBench v2" },
es = "Banco de pruebas bilingüe (inglés y chino) para evaluar las capacidades de contexto largo de los LLMs en tareas como preguntas y respuestas sobre uno o varios documentos, resumen, aprendizaje few-shot, completado de código y recuperación sintética.",
zh = "一个面向 LLM 长上下文能力的中英双语基准,涵盖单文档与多文档问答、摘要、少样本学习、代码补全以及合成检索等任务。",
term_es = "LongBench",
term_zh = "LongBench",
aliases_es = { "Long Bench" },
aliases_zh = { "Long Bench" },
}
data["longitudinal causal inference"] = {
short = "Causal inference for repeated-measures data with time-varying treatments, time-varying confounders, and outcomes observed over time. Standard regression adjustment is biased when confounders are themselves affected by past treatment, motivating g-methods.",
article = nil,
aliases = { "longitudinal causal analysis", "time-varying causal inference", "causal inference for longitudinal data", "panel causal inference" },
es = "Inferencia causal para datos con mediciones repetidas, tratamientos que varían en el tiempo, confusores variables en el tiempo y resultados observados a lo largo del tiempo. El ajuste por regresión estándar es sesgado cuando los confusores están afectados por tratamientos previos, lo que motiva el uso de métodos g.",
zh = "针对纵向数据的因果推断,涉及随时间变化的处理、随时间变化的混杂变量以及随时间观测的结果。当混杂变量本身受过去处理影响时,标准回归调整会产生偏差,因此需要 g 方法。",
term_es = "inferencia causal longitudinal",
term_zh = "纵向因果推断",
aliases_es = { "inferencia causal con datos longitudinales", "análisis causal longitudinal" },
aliases_zh = { "时变因果推断", "面板数据因果推断", "纵向数据因果分析" },
}
data["longlora"] = {
short = "A parameter-efficient fine-tuning method that extends pretrained LLM context lengths by combining shifted-sparse attention during training with LoRA adapters on attention and embedding layers, enabling long-context adaptation on modest hardware.",
article = nil,
aliases = { "LongLoRA", "Long LoRA", "Long-LoRA" },
es = "Método de ajuste fino eficiente en parámetros que amplía la longitud de contexto preentrenada de los LLMs combinando atención dispersa desplazada durante el entrenamiento con adaptadores LoRA en las capas de atención y embedding, permitiendo la adaptación a contexto largo con hardware modesto.",
zh = "一种参数高效微调方法,通过在训练时使用移位稀疏注意力,并在注意力层与嵌入层上添加 LoRA 适配器,扩展预训练 LLM 的上下文长度,使其能在普通硬件上完成长上下文适配。",
term_es = "LongLoRA",
term_zh = "LongLoRA",
aliases_es = { "Long-LoRA" },
aliases_zh = { "Long-LoRA" },
}
data["longrope"] = {
short = "A position-encoding extension method that searches for non-uniform rescaling factors of rotary position embeddings to extend pretrained LLMs to context lengths of two million tokens or more with minimal degradation.",
article = nil,
aliases = { "LongRoPE", "Long RoPE", "Long-RoPE" },
es = "Método de extensión de codificación posicional que busca factores de reescalado no uniformes de los embeddings de posición rotatorios para ampliar LLMs preentrenados a longitudes de contexto de dos millones de tokens o más con una degradación mínima.",
zh = "一种位置编码扩展方法,通过搜索旋转位置编码的非均匀重缩放因子,将预训练 LLM 的上下文长度扩展到二百万词元甚至更长,同时仅造成极小的性能下降。",
term_es = "LongRoPE",
term_zh = "LongRoPE",
aliases_es = { "Long-RoPE" },
aliases_zh = { "Long-RoPE" },
}
data["longvila"] = {
short = "A long-context vision-language model that scales VILA to long videos by combining sequence parallelism, long-context training, and a multi-stage data recipe for hour-long video understanding.",
article = nil,
aliases = { "LongVILA", "Long-VILA" },
es = "Modelo de visión-lenguaje de contexto largo que escala VILA a videos extensos combinando paralelismo de secuencias, entrenamiento de contexto largo y una receta de datos multietapa para la comprensión de videos de hasta una hora.",
zh = "一种长上下文视觉-语言模型,通过结合序列并行、长上下文训练和多阶段数据配方,将 VILA 扩展到长视频,实现长达一小时的视频理解。",
term_es = "LongVILA",
term_zh = "LongVILA",
aliases_es = { "Long-VILA" },
aliases_zh = { "Long-VILA" },
}
data["lookahead context"] = {
short = "In streaming sequence models such as ASR, the number of future frames the model is allowed to observe before emitting an output for the current frame, trading recognition latency for accuracy.",
article = nil,
aliases = { "look-ahead context", "look ahead context", "lookahead frames", "future context", "right context" },
es = "En modelos de secuencia en streaming, como el ASR, número de tramas futuras que el modelo puede observar antes de emitir una salida para la trama actual, lo que supone un compromiso entre latencia de reconocimiento y precisión.",
zh = "在流式序列模型(如语音识别)中,模型在为当前帧输出结果之前允许观察的未来帧数量,是识别延迟与准确率之间的权衡。",
term_es = "contexto de anticipación",
term_zh = "前瞻上下文",
aliases_es = { "contexto futuro", "contexto derecho", "tramas de anticipación" },
aliases_zh = { "前瞻帧", "未来上下文", "右侧上下文" },
}
data["lookahead decoding"] = {
short = "A parallel decoding algorithm for LLM inference that maintains a Jacobi-style window of n-gram candidates and verifies them in a single forward pass, achieving speedups over autoregressive decoding without a separate draft model.",
article = nil,
aliases = { "Lookahead decoding", "look-ahead decoding", "lookahead-decoding" },
es = "Algoritmo de decodificación paralela para inferencia de LLMs que mantiene una ventana estilo Jacobi de candidatos de n-gramas y los verifica en un solo paso hacia adelante, logrando aceleraciones frente a la decodificación autorregresiva sin necesidad de un modelo borrador independiente.",
zh = "一种用于 LLM 推理的并行解码算法,维护一个 Jacobi 风格的 n-gram 候选窗口,并在一次前向传播中进行验证,在无需独立草稿模型的情况下相对自回归解码获得加速。",
term_es = "decodificación lookahead",
term_zh = "前瞻解码",
aliases_es = { "decodificación con lookahead", "look-ahead decoding" },
aliases_zh = { "lookahead 解码", "look-ahead 解码" },
}
data["lookahead optimizer"] = {
short = "An optimization wrapper that maintains slow weights updated periodically toward fast weights produced by an inner optimizer, improving stability and generalization with minimal compute overhead.",
article = nil,
aliases = { "Lookahead", "Lookahead optimization", "k-step lookahead optimizer" },
es = "Envoltorio de optimización que mantiene pesos lentos actualizados periódicamente hacia los pesos rápidos producidos por un optimizador interno, mejorando estabilidad y generalización con un costo computacional mínimo.",
zh = "一种优化器包装方法:维护一组慢权重,周期性地朝内部优化器产生的快权重方向更新,以极小的计算代价提升稳定性和泛化能力。",
term_es = "optimizador Lookahead",
term_zh = "Lookahead 优化器",
aliases_es = { "Lookahead", "optimización Lookahead" },
aliases_zh = { "Lookahead", "Lookahead 优化", "前瞻优化器" },
}
data["lookahead optimizer federated"] = {
short = "An adaptation of the Lookahead optimizer to federated learning, where the server interpolates between its previous global model and the freshly aggregated client update along a slow-weights trajectory to stabilize convergence.",
article = nil,
aliases = { "federated Lookahead", "FedLookahead", "server-side Lookahead" },
es = "Adaptación del optimizador Lookahead al aprendizaje federado, donde el servidor interpola entre su modelo global previo y la actualización agregada de los clientes siguiendo una trayectoria de pesos lentos para estabilizar la convergencia.",
zh = "将 Lookahead 优化器引入联邦学习的变体:服务器沿“慢权重”轨迹在上一轮全局模型与新聚合的客户端更新之间插值,以稳定收敛。",
term_es = "optimizador Lookahead federado",
term_zh = "联邦 Lookahead 优化器",
aliases_es = { "Lookahead federado", "FedLookahead" },
aliases_zh = { "FedLookahead", "联邦版 Lookahead", "服务端 Lookahead" },
}
data["lookup table latency"] = {
short = "A latency-estimation technique used in hardware-aware NAS that builds a precomputed table of measured runtimes for each candidate operation or block on a target device, then estimates total network latency by summing per-component entries.",
article = nil,
aliases = { "latency lookup table", "LUT latency", "operation latency LUT", "lookup-table-based latency", "latency LUT" },
es = "Técnica de estimación de latencia utilizada en NAS consciente de hardware: construye una tabla precalculada de tiempos de ejecución medidos para cada operación o bloque candidato en un dispositivo objetivo y luego estima la latencia total de la red sumando las entradas por componente.",
zh = "硬件感知 NAS 中使用的延迟估计技术:在目标设备上预先测量每个候选算子或模块的运行时间并构建查找表,对候选网络通过逐组件累加表项来估计总延迟。",
term_es = "latencia por tabla de búsqueda",
term_zh = "查找表延迟",
aliases_es = { "tabla de búsqueda de latencia", "LUT de latencia", "latencia mediante LUT" },
aliases_zh = { "延迟查找表", "LUT延迟", "算子延迟LUT" },
}
data["loom format"] = {
short = "HDF5-based file format developed at the Linnarsson lab for efficient storage and access to large single-cell omics matrices together with row, column, and global attribute metadata.",
article = nil,
aliases = { "loom", ".loom", "loom file", "loom file format" },
es = "Formato de archivo basado en HDF5 desarrollado en el laboratorio Linnarsson para almacenar y acceder de forma eficiente a grandes matrices ómicas de célula única junto con metadatos de filas, columnas y atributos globales.",
zh = "由 Linnarsson 实验室开发、基于 HDF5 的文件格式,用于高效存储和访问大型单细胞组学矩阵及其行、列和全局属性元数据。",
term_es = "formato loom",
term_zh = "loom 格式",
aliases_es = { "archivo loom", "formato de archivo loom", ".loom" },
aliases_zh = { "loom", "loom 文件", "loom 文件格式" },
}
data["loop cutset"] = {
short = "A subset of nodes in a Bayesian network whose instantiation removes all undirected cycles, leaving a polytree; cutset conditioning enumerates assignments of the cutset to enable exact inference in multiply connected networks.",
article = nil,
aliases = { "cutset", "loop-cutset", "cycle cutset" },
es = "Subconjunto de nodos de una red bayesiana cuya instanciación elimina todos los ciclos no dirigidos dejando un poliárbol; el condicionamiento por cutset enumera asignaciones del cutset para permitir inferencia exacta en redes con múltiples conexiones.",
zh = "贝叶斯网络中的一组节点,对其实例化后可消除所有无向环,使网络变为多树;割集条件化通过枚举割集赋值以在多重连通网络中实现精确推断。",
term_es = "cutset de bucles",
term_zh = "环割集",
aliases_es = { "cutset", "conjunto de corte de ciclos" },
aliases_zh = { "割集", "回路割集" },
}
data["loopy belief propagation"] = {
short = "An approximate inference algorithm that applies the sum-product or max-product belief propagation updates on graphs with cycles; converges to fixed points corresponding to stationary points of the Bethe free energy.",
article = nil,
aliases = { "LBP", "loopy BP", "iterative belief propagation" },
es = "Algoritmo de inferencia aproximada que aplica las actualizaciones de propagación de creencias suma-producto o máximo-producto en grafos con ciclos; converge a puntos fijos correspondientes a puntos estacionarios de la energía libre de Bethe.",
zh = "一种近似推断算法,在含环图上应用和-积或最大-积信念传播更新;其不动点对应于Bethe自由能的稳定点。",
term_es = "propagación de creencias en bucles",
term_zh = "环信念传播",
aliases_es = { "BP en bucles", "BP iterativa" },
aliases_zh = { "LBP", "loopy BP", "环路信念传播" },
}
data["lora alpha"] = {
short = "A scaling hyperparameter in LoRA that multiplies the low-rank update by alpha/r before adding it to the frozen base weights, controlling the effective magnitude of the adapter contribution.",
article = nil,
aliases = { "LoRA alpha", "lora_alpha", "alpha (LoRA)", "LoRA scaling factor" },
es = "Hiperparámetro de escala en LoRA que multiplica la actualización de bajo rango por alpha/r antes de sumarla a los pesos base congelados, controlando la magnitud efectiva de la contribución del adaptador.",
zh = "LoRA 中的一个缩放超参数,在将低秩更新加到被冻结的基础权重之前,将其乘以 alpha/r,从而控制适配器贡献的有效幅度。",
term_es = "alpha de LoRA",
term_zh = "LoRA alpha",
aliases_es = { "LoRA alpha", "factor de escala de LoRA" },
aliases_zh = { "LoRA 缩放因子", "lora_alpha" },
}
data["lora image"] = {
short = "The application of Low-Rank Adaptation to image generation models (typically diffusion models), in which small low-rank weight matrices are trained on top of frozen base weights to specialize the model for a style, subject, or concept with minimal parameters and storage.",
article = nil,
aliases = { "image LoRA", "diffusion LoRA", "LoRA for diffusion" },
es = "Aplicación de Low-Rank Adaptation a modelos de generación de imágenes (típicamente modelos de difusión), donde pequeñas matrices de pesos de bajo rango se entrenan sobre pesos base congelados para especializar el modelo en un estilo, sujeto o concepto con parámetros y almacenamiento mínimos.",
zh = "将低秩适配(LoRA)应用于图像生成模型(通常是扩散模型)的方法,通过在冻结的基础权重之上训练小型低秩权重矩阵,以极少的参数和存储将模型专门化到某种风格、主体或概念。",
term_es = "LoRA de imagen",
term_zh = "图像 LoRA",
aliases_es = { "LoRA para difusión" },
aliases_zh = { "扩散模型 LoRA", "image LoRA" },
}
data["lora merging"] = {
short = "The process of folding a trained LoRA adapter's low-rank update into the base model's weight matrices, producing a single merged checkpoint that requires no adapter at inference time.",
article = nil,
aliases = { "LoRA merging", "LoRA merge", "merging LoRA", "LoRA weight merging", "merge LoRA adapter" },
es = "Proceso de incorporar la actualización de bajo rango de un adaptador LoRA entrenado a las matrices de pesos del modelo base, produciendo un único checkpoint fusionado que no requiere adaptador en tiempo de inferencia.",
zh = "将训练好的 LoRA 适配器的低秩更新合并到基础模型权重矩阵中的过程,得到一个单一的合并检查点,使得推理阶段无需再加载适配器。",
term_es = "fusión de LoRA",
term_zh = "LoRA 合并",
aliases_es = { "merging de LoRA", "fusión de adaptadores LoRA" },
aliases_zh = { "LoRA 融合", "合并 LoRA 适配器" },
}
data["lora rank"] = {
short = "The hyperparameter r in LoRA that sets the inner dimension of the low-rank decomposition B·A used to approximate weight updates, trading expressiveness for parameter count and memory.",
article = nil,
aliases = { "LoRA rank", "lora_r", "rank (LoRA)", "r (LoRA)" },
es = "El hiperparámetro r en LoRA que define la dimensión interna de la descomposición de bajo rango B·A utilizada para aproximar las actualizaciones de pesos, equilibrando expresividad frente al número de parámetros y la memoria.",
zh = "LoRA 中的超参数 r,决定用于近似权重更新的低秩分解 B·A 的内部维度,在表达能力与参数量、显存消耗之间进行权衡。",
term_es = "rango de LoRA",
term_zh = "LoRA 秩",
aliases_es = { "rank de LoRA", "r de LoRA" },
aliases_zh = { "LoRA rank", "lora_r" },
}
data["lord's paradox"] = {
short = "An apparent contradiction in pre-post analyses of group differences, in which an unadjusted change-score analysis and an analysis adjusting for baseline lead to opposite conclusions. Pearl's resolution is that each answers a different causal question and the correct choice depends on the underlying DAG.",
article = nil,
aliases = { "Lord paradox", "Lord's paradox", "Lord's Paradox" },
es = "Aparente contradicción en análisis pre-post de diferencias entre grupos, en la que un análisis de puntajes de cambio sin ajustar y otro que ajusta por el valor basal conducen a conclusiones opuestas. La resolución de Pearl es que cada análisis responde a una pregunta causal distinta y la elección correcta depende del DAG subyacente.",
zh = "组间前后差异分析中的一个明显矛盾:未调整的变化分数分析与调整基线值的分析得出相反结论。Pearl 的解释是,二者回答的是不同的因果问题,正确的选择取决于潜在的因果有向无环图。",
term_es = "paradoja de Lord",
term_zh = "Lord 悖论",
aliases_es = { "paradoja de Lord" },
aliases_zh = { "Lord 悖论", "洛德悖论" },
}
data["loss function"] = {
short = "A function that measures how far a model's predictions are from the true values. Training minimizes this function.",
article = "Loss Functions",
aliases = { "objective function", "cost function" },
es = "Función que mide cuán lejos están las predicciones del modelo de los valores reales. El entrenamiento minimiza esta función.",
zh = "衡量模型预测值与真实值之间差距的函数。训练过程即是最小化此函数。",
term_es = "función de pérdida",
term_zh = "损失函数",
aliases_es = { "función de coste", "función objetivo" },
aliases_zh = { "代价函数", "目标函数" },
}
data["loss landscape"] = {
short = "The geometric structure of the loss function viewed as a surface over the parameter space, including its minima, maxima, saddle points, and curvature.",
article = nil,
aliases = { "loss surface", "optimization landscape", "energy landscape" },
es = "Estructura geométrica de la función de pérdida vista como una superficie sobre el espacio de parámetros, incluyendo sus mínimos, máximos, puntos de silla y curvatura.",
zh = "将损失函数视为参数空间上一个曲面所形成的几何结构,包括其极小值、极大值、鞍点和曲率。",
term_es = "paisaje de pérdida",
term_zh = "损失地形",
aliases_es = { "superficie de pérdida", "paisaje de optimización" },
aliases_zh = { "损失曲面", "loss landscape" },
}
data["loss scaling"] = {
short = "A technique used in FP16 mixed-precision training that multiplies the loss by a large factor before backpropagation so that small gradients survive the limited dynamic range of FP16; gradients are unscaled before the optimizer step.",
article = nil,
aliases = { "static loss scaling", "dynamic loss scaling", "gradient scaling" },
es = "Técnica utilizada en el entrenamiento de precisión mixta en FP16 que multiplica la pérdida por un factor grande antes de la retropropagación para que los gradientes pequeños sobrevivan al rango dinámico limitado de FP16; los gradientes se desescalan antes del paso del optimizador.",
zh = "FP16 混合精度训练中常用的技术:在反向传播前将损失乘以一个较大因子,使小梯度不致因 FP16 动态范围受限而下溢;在优化器更新前再将梯度还原。",
term_es = "escalado de pérdida",
term_zh = "损失缩放",
aliases_es = { "escalado dinámico de pérdida", "escalado de gradientes" },
aliases_zh = { "梯度缩放", "动态损失缩放", "静态损失缩放" },
}
data["loss surface"] = {
short = "The graph of the loss function over parameter space, treated as a high-dimensional surface whose geometry governs optimization dynamics.",
article = nil,
aliases = { "loss landscape", "error surface" },
es = "Gráfica de la función de pérdida sobre el espacio de parámetros, tratada como una superficie de alta dimensión cuya geometría rige la dinámica de optimización.",
zh = "损失函数在参数空间上的图像,可视为高维曲面,其几何形状决定了优化过程的动态特性。",
term_es = "superficie de pérdida",
term_zh = "损失曲面",
aliases_es = { "paisaje de pérdida", "superficie de error" },
aliases_zh = { "损失地形", "误差曲面" },
}
data["lottery ticket hypothesis"] = {
short = "The conjecture that randomly initialized dense neural networks contain sparse subnetworks (\"winning tickets\") which, when trained in isolation from their original initialization, can match the accuracy of the full network.",
article = nil,
aliases = { "LTH", "winning ticket hypothesis", "lottery ticket" },
es = "Conjetura que sostiene que las redes neuronales densas inicializadas al azar contienen subredes dispersas («billetes ganadores») que, al entrenarse aisladamente desde su inicialización original, pueden igualar la precisión de la red completa.",
zh = "一种假设:随机初始化的稠密神经网络中存在稀疏子网络(“中奖彩票”),当从其原始初始化单独训练时,可达到与完整网络相当的精度。",
term_es = "hipótesis del billete de lotería",
term_zh = "彩票假设",
aliases_es = { "LTH", "hipótesis de la lotería", "billete ganador" },
aliases_zh = { "LTH", "中奖彩票假设", "彩票票据假设" },
}
data["love plot"] = {
short = "A diagnostic plot for matching or weighting that displays standardized mean differences of covariates between treatment groups before and after balancing. Named after Thomas Love; widely used to assess covariate balance.",
article = nil,
aliases = { "Love plot", "balance plot", "standardized difference plot", "covariate balance plot" },
es = "Gráfico diagnóstico para emparejamiento o ponderación que muestra las diferencias estandarizadas de medias de las covariables entre grupos de tratamiento antes y después del balanceo. Recibe su nombre por Thomas Love y se usa ampliamente para evaluar el balance de covariables.",
zh = "用于匹配或加权的诊断图,展示协变量在处理组之间标准化均值差异在平衡前后的变化。以 Thomas Love 命名,广泛用于评估协变量平衡。",
term_es = "gráfico de Love",
term_zh = "Love 图",
aliases_es = { "gráfico de balance", "gráfico de diferencias estandarizadas" },
aliases_zh = { "协变量平衡图", "标准化差异图" },
}
data["low-energy conformer"] = {
short = "A 3D arrangement of a flexible molecule that sits near a local or global minimum on its potential energy surface, dominating the Boltzmann-weighted ensemble at room temperature and most likely to participate in binding.",
article = nil,
aliases = { "low energy conformer", "low-energy conformation", "minimum-energy conformer", "minimum energy conformer" },
es = "Disposición 3D de una molécula flexible que se sitúa cerca de un mínimo local o global de su superficie de energía potencial, dominando el conjunto ponderado por Boltzmann a temperatura ambiente y siendo la más probable de participar en la unión.",
zh = "柔性分子的三维排列形式,位于其势能面的局部或全局最小值附近,在室温下主导玻尔兹曼加权系综,最有可能参与结合。",
term_es = "confórmero de baja energía",
term_zh = "低能构象",
aliases_es = { "conformación de baja energía", "confórmero de mínima energía" },
aliases_zh = { "低能量构象", "最低能量构象", "极小能量构象" },
}
data["low-fidelity training"] = {
short = "Producing a cheap proxy estimate of an architecture or hyperparameter configuration's performance by training under reduced fidelity — fewer epochs, a smaller dataset, lower image resolution, or a smaller model — used as a low-cost rung in HPO and NAS.",
article = nil,
aliases = { "low fidelity training", "low-fidelity evaluation", "low-fidelity proxy", "reduced-fidelity training" },
es = "Producción de una estimación proxy barata del rendimiento de una arquitectura o configuración de hiperparámetros entrenando con fidelidad reducida —menos épocas, un conjunto de datos más pequeño, menor resolución de imagen o un modelo más pequeño— utilizada como peldaño de bajo coste en HPO y NAS.",
zh = "通过降低保真度(更少的训练轮数、更小的数据子集、更低的图像分辨率或更小的模型)来获得架构或超参数配置性能的廉价代理估计,作为 HPO 和 NAS 中低成本的评估档位。",
term_es = "entrenamiento de baja fidelidad",
term_zh = "低保真训练",
aliases_es = { "evaluación de baja fidelidad", "proxy de baja fidelidad", "entrenamiento de fidelidad reducida" },
aliases_zh = { "低保真度训练", "低保真评估", "降保真训练" },
}
data["low-power federated learning"] = {
short = "Federated learning designed for energy- and compute-constrained devices, using techniques such as model compression, partial participation, sparse updates, and adaptive scheduling to fit within battery and thermal budgets.",
article = nil,
aliases = { "energy-efficient federated learning", "battery-aware FL", "resource-constrained FL", "edge FL" },
es = "Aprendizaje federado diseñado para dispositivos con limitaciones de energía y cómputo, que usa técnicas como compresión de modelos, participación parcial, actualizaciones dispersas y planificación adaptativa para ajustarse al presupuesto de batería y disipación térmica.",
zh = "面向能量与算力受限设备的联邦学习:通过模型压缩、部分参与、稀疏更新与自适应调度等手段,在电量与散热预算内完成训练。",
term_es = "aprendizaje federado de bajo consumo",
term_zh = "低功耗联邦学习",
aliases_es = { "aprendizaje federado eficiente en energía", "FL en dispositivos de bajos recursos" },
aliases_zh = { "节能联邦学习", "资源受限联邦学习", "边缘联邦学习" },
}
data["low-rank adaptation"] = {
short = "A parameter-efficient fine-tuning method that freezes the pretrained weights and learns small low-rank update matrices (B·A) injected into selected linear layers, dramatically reducing the number of trainable parameters.",
article = nil,
aliases = { "LoRA", "lora", "low rank adaptation", "low-rank adapters" },
es = "Método de ajuste fino eficiente en parámetros que congela los pesos preentrenados y aprende pequeñas matrices de actualización de rango bajo (B·A) inyectadas en capas lineales seleccionadas, reduciendo drásticamente el número de parámetros entrenables.",
zh = "一种参数高效微调方法,冻结预训练权重,仅在选定的线性层中注入并学习小型低秩更新矩阵(B·A),大幅减少可训练参数数量。",
term_es = "LoRA",
term_zh = "LoRA",
aliases_es = { "LoRA", "adaptación de rango bajo", "adaptadores de rango bajo" },
aliases_zh = { "LoRA", "低秩适配", "低秩自适应", "低秩适应" },
}
data["low-rank gradient compression"] = {
short = "A communication-efficient technique that approximates each gradient or update matrix by a low-rank factorization before transmission, reducing the number of transmitted values from O(mn) to O((m+n)r).",
article = nil,
aliases = { "low-rank update compression", "PowerSGD-style compression", "rank-r gradient compression", "matrix sketching for gradients" },
es = "Técnica de comunicación eficiente que aproxima cada matriz de gradientes o de actualización mediante una factorización de rango bajo antes de transmitirla, reduciendo los valores enviados de O(mn) a O((m+n)r).",
zh = "一种通信高效技术:将每个梯度或更新矩阵在传输前用低秩分解近似,把传输量从 O(mn) 降到 O((m+n)r)。",
term_es = "compresión de gradientes de rango bajo",
term_zh = "低秩梯度压缩",
aliases_es = { "compresión de actualizaciones de rango bajo", "compresión tipo PowerSGD" },
aliases_zh = { "低秩更新压缩", "PowerSGD 式压缩", "矩阵低秩近似压缩" },
}
data["low-rank hessian"] = {
short = "An approximation of the Hessian (or generalized Gauss-Newton matrix) by a low-rank factorization, enabling tractable curvature-based methods such as second-order optimization or Laplace posteriors in high-dimensional models.",
article = nil,
aliases = { "low-rank Hessian approximation", "low rank Hessian", "LR Hessian", "truncated Hessian" },
es = "Aproximación del Hessiano (o matriz Gauss-Newton generalizada) mediante una factorización de bajo rango, permitiendo métodos basados en curvatura tratables, como optimización de segundo orden o posteriors de Laplace en modelos de alta dimensión.",
zh = "对 Hessian(或广义 Gauss-Newton 矩阵)进行低秩分解的近似,使在高维模型中进行二阶优化或拉普拉斯后验等基于曲率的方法成为可能。",
term_es = "Hessiano de bajo rango",
term_zh = "低秩 Hessian",
aliases_es = { "aproximación de bajo rango del Hessiano", "Hessiano truncado" },
aliases_zh = { "低秩 Hessian 近似", "低秩 Hessian 矩阵", "截断 Hessian" },
}
data["low-rank matrix"] = {
short = "A matrix whose rank is much smaller than its row and column dimensions, allowing it to be factored into the product of two thin matrices and stored or applied with cost linear in the rank.",
article = nil,
aliases = { "low rank matrix", "low-rank approximation", "rank-deficient matrix" },
es = "Matriz cuyo rango es mucho menor que sus dimensiones de filas y columnas, lo que permite factorizarla como el producto de dos matrices delgadas y almacenarla o aplicarla con coste lineal en el rango.",
zh = "秩远小于其行数和列数的矩阵,可分解为两个瘦矩阵之积,存储和运算成本随秩线性增长。",
term_es = "matriz de rango bajo",
term_zh = "低秩矩阵",
aliases_es = { "matriz de bajo rango", "aproximación de rango bajo" },
aliases_zh = { "低秩近似" },
}
data["low-rank posterior"] = {
short = "A variational posterior whose covariance is parameterized as a diagonal plus low-rank update, balancing expressiveness and tractability for Bayesian neural networks.",
article = nil,
aliases = { "low rank posterior", "low-rank Gaussian posterior", "low-rank covariance posterior", "diagonal-plus-low-rank posterior" },
es = "Posterior variacional cuya covarianza se parametriza como diagonal más una actualización de bajo rango, equilibrando expresividad y tractabilidad para redes neuronales bayesianas.",
zh = "一种变分后验,其协方差被参数化为对角加低秩更新,在贝叶斯神经网络中兼顾了表达力与可计算性。",
term_es = "posterior de bajo rango",
term_zh = "低秩后验",
aliases_es = { "posterior gaussiano de bajo rango", "posterior de covarianza de bajo rango" },
aliases_zh = { "低秩高斯后验", "低秩协方差后验", "对角加低秩后验" },
}
data["low-resource asr"] = {
short = "Automatic speech recognition for languages or domains with very limited transcribed audio, typically tackled with multilingual pretraining, self-supervised representations, semi-supervised learning, or cross-lingual transfer.",
article = nil,
aliases = { "low resource ASR", "low-resource speech recognition", "low resource speech recognition", "low-resource automatic speech recognition" },
es = "Reconocimiento automático del habla para idiomas o dominios con muy poco audio transcrito, abordado normalmente mediante preentrenamiento multilingüe, representaciones auto-supervisadas, aprendizaje semi-supervisado o transferencia interlingüística.",
zh = "针对仅有少量转录音频的语言或领域开展的自动语音识别,通常借助多语言预训练、自监督表征、半监督学习或跨语言迁移来解决。",
term_es = "ASR de bajos recursos",
term_zh = "低资源语音识别",
aliases_es = { "reconocimiento del habla de bajos recursos", "ASR para idiomas de bajos recursos" },
aliases_zh = { "低资源 ASR", "低资源自动语音识别" },
}
data["lp relaxation"] = {
short = "The replacement of integer constraints in an integer linear program by their continuous (real-valued) counterparts; widely used for MAP inference in graphical models, where the local polytope provides a tractable outer relaxation of the marginal polytope.",
article = nil,
aliases = { "LP relaxation", "linear programming relaxation", "linear-programming relaxation" },
es = "Sustitución de las restricciones enteras de un programa lineal entero por sus equivalentes continuos (con valores reales); se usa ampliamente en inferencia MAP en modelos gráficos, donde el politopo local proporciona una relajación externa tratable del politopo marginal.",
zh = "将整数线性规划中的整数约束替换为对应的连续实数约束;在概率图模型MAP推断中广泛使用,其中局部多面体为边际多面体提供了可处理的外松弛。",
term_es = "relajación LP",
term_zh = "LP松弛",
aliases_es = { "relajación de programación lineal", "relajación lineal" },
aliases_zh = { "线性规划松弛", "LP relaxation" },
}
data["lpc coefficients"] = {
short = "The set of linear predictor coefficients estimated from a frame of speech under linear predictive coding, defining the all-pole filter that models the vocal tract for that frame.",
article = nil,
aliases = { "LPC coefficients", "linear predictive coefficients", "linear prediction coefficients", "LPCs" },
es = "Conjunto de coeficientes del predictor lineal estimados a partir de una trama de habla mediante codificación predictiva lineal, que definen el filtro todo polos que modela el tracto vocal en esa trama.",
zh = "在线性预测编码中由一帧语音估计得到的线性预测器系数,用于定义在该帧建模声道的全极点滤波器。",
term_es = "coeficientes LPC",
term_zh = "LPC 系数",
aliases_es = { "coeficientes de predicción lineal", "coeficientes predictivos lineales" },
aliases_zh = { "线性预测系数", "LPC 参数" },
}
data["lpcnet"] = {
short = "A low-complexity neural vocoder that combines classical linear predictive coding with a small WaveRNN-style recurrent network to predict the LPC excitation residual, enabling high-quality speech synthesis on commodity CPUs.",
article = nil,
aliases = { "LPCNet", "LPC-Net" },
es = "Vocoder neuronal de baja complejidad que combina la codificación predictiva lineal clásica con una pequeña red recurrente al estilo WaveRNN para predecir el residuo de excitación LPC, permitiendo síntesis de voz de alta calidad en CPUs comunes.",
zh = "一种低复杂度的神经声码器,将经典线性预测编码与类似 WaveRNN 的小型循环网络结合,用于预测 LPC 激励残差,从而在普通 CPU 上实现高质量语音合成。",
term_es = "LPCNet",
term_zh = "LPCNet",
aliases_es = { "vocoder LPCNet" },
aliases_zh = { "LPCNet 声码器" },
}
data["lrp-epsilon rule"] = {
short = "A Layer-wise Relevance Propagation rule that adds a small epsilon stabilizer to the denominator, suppressing relevance flow through weak or noisy activations and producing sparser attributions.",
article = nil,
aliases = { "epsilon-LRP", "ε-rule", "LRP-ε" },
es = "Regla de Layer-wise Relevance Propagation que añade un pequeño estabilizador epsilon al denominador, atenuando el flujo de relevancia por activaciones débiles o ruidosas y produciendo atribuciones más dispersas.",
zh = "Layer-wise Relevance Propagation 的一种规则,在分母上加入小量 epsilon 进行稳定化,抑制弱或噪声激活上的相关性流动,从而得到更稀疏的归因。",
term_es = "regla LRP-épsilon",
term_zh = "LRP-epsilon 规则",
aliases_es = { "LRP-epsilon", "regla ε", "LRP-ε" },
aliases_zh = { "epsilon-LRP", "ε 规则", "LRP-ε" },
}
data["lrp-gamma rule"] = {
short = "An LRP propagation rule that amplifies positive weight contributions by a factor gamma, biasing relevance toward features that activate a unit and yielding cleaner attribution maps in deeper layers.",
article = nil,
aliases = { "gamma-LRP", "γ-rule", "LRP-γ" },
es = "Regla de propagación LRP que amplifica las contribuciones de pesos positivos en un factor gamma, sesgando la relevancia hacia los rasgos que activan la unidad y produciendo mapas de atribución más limpios en capas profundas.",
zh = "LRP 的一种传播规则,按因子 gamma 放大正权重的贡献,使相关性偏向激活该单元的特征,在深层中给出更清晰的归因图。",
term_es = "regla LRP-gamma",
term_zh = "LRP-gamma 规则",
aliases_es = { "LRP-gamma", "regla γ", "LRP-γ" },
aliases_zh = { "gamma-LRP", "γ 规则", "LRP-γ" },
}
data["lrp-zb rule"] = {
short = "The LRP z-beta rule, applied at input layers with bounded inputs (such as pixel values), which redistributes relevance using both lower and upper bounds of the activation range to keep attributions within the input domain.",
article = nil,
aliases = { "z-beta rule", "LRP z^B", "zB rule", "LRP zB" },
es = "Regla z-beta de LRP, aplicada en capas de entrada con entradas acotadas (como valores de píxeles), que redistribuye la relevancia usando los límites inferior y superior del rango de activación para mantener las atribuciones dentro del dominio de entrada.",
zh = "LRP 的 z-beta 规则,适用于输入有界的输入层(如像素值),利用激活范围的上下界重新分配相关性,从而使归因保持在输入定义域内。",
term_es = "regla LRP z-beta",
term_zh = "LRP z-beta 规则",
aliases_es = { "regla z-beta", "LRP z^B", "regla zB" },
aliases_zh = { "z-beta 规则", "LRP z^B", "zB 规则" },
}
data["lstm interpretability"] = {
short = "The study of what individual cells, gates, and hidden states of an LSTM network learn to represent, often using activation visualization, ablation, and probing classifiers on internal states.",
article = "Recurrent Neural Networks",
aliases = { "LSTM analysis", "LSTM cell analysis", "interpreting LSTMs", "long short-term memory interpretability" },
es = "Estudio de qué representan las celdas, compuertas y estados ocultos individuales de una red LSTM, usando habitualmente visualización de activaciones, ablación y clasificadores de sondeo sobre estados internos.",
zh = "研究 LSTM 网络中各单元、门控和隐藏状态学到了什么的工作,通常采用激活可视化、消融和对内部状态的探针分类器等方法。",
term_es = "interpretabilidad de LSTM",
term_zh = "LSTM 可解释性",
aliases_es = { "análisis de LSTM", "interpretación de LSTM", "interpretabilidad de long short-term memory" },
aliases_zh = { "LSTM 分析", "LSTM 单元分析", "长短期记忆可解释性" },
}
data["ltx video"] = {
short = "An open-weight diffusion-transformer text-to-video model from Lightricks that generates short high-resolution video clips in real time on a single GPU using a heavily compressed video tokenizer.",
article = nil,
aliases = { "LTX Video", "LTX-Video", "LTXVideo", "LTX-V" },
es = "Modelo de texto a vídeo basado en transformer de difusión con pesos abiertos, desarrollado por Lightricks, que genera clips de vídeo cortos en alta resolución en tiempo real en una sola GPU mediante un tokenizador de vídeo altamente comprimido.",
zh = "Lightricks 推出的开源权重文本到视频扩散 Transformer 模型,借助高度压缩的视频分词器,可在单张 GPU 上实时生成短时高分辨率视频片段。",
term_es = "LTX Video",
term_zh = "LTX Video",
aliases_es = { "LTX-Video", "LTXVideo" },
aliases_zh = { "LTX-Video", "LTXVideo" },
}
data["lu decomposition"] = {
short = "The factorization of a square matrix A as A = LU (often with row permutations PA = LU), where L is lower triangular and U is upper triangular. The standard direct method for solving dense linear systems via Gaussian elimination.",
article = nil,
aliases = { "LU factorization", "LU decomposition", "PLU decomposition", "PA = LU" },
es = "Factorización de una matriz cuadrada A como A = LU (a menudo con permutaciones de filas PA = LU), donde L es triangular inferior y U es triangular superior. Es el método directo estándar para resolver sistemas lineales densos mediante eliminación de Gauss.",
zh = "方阵 A 的分解 A = LU(常带有行置换 PA = LU),其中 L 为下三角矩阵,U 为上三角矩阵。是通过高斯消去法求解稠密线性方程组的标准直接方法。",
term_es = "descomposición LU",
term_zh = "LU 分解",
aliases_es = { "factorización LU", "descomposición PLU" },
aliases_zh = { "LU 因子分解", "PLU 分解" },
}
data["lukasiewicz t-norm"] = {
short = "A continuous fuzzy-logic conjunction defined as max(0, a + b − 1), used in many-valued and probabilistic logics. Together with its dual t-conorm min(1, a + b), it provides a differentiable relaxation of Boolean AND/OR for neuro-symbolic learning.",
article = nil,
aliases = { "Łukasiewicz t-norm", "Lukasiewicz t-norm", "Lukasiewicz conjunction", "Łukasiewicz conjunction" },
es = "Conjunción de lógica difusa continua definida como max(0, a + b − 1), empleada en lógicas multivaluadas y probabilísticas. Junto con su t-conorma dual min(1, a + b), proporciona una relajación diferenciable de los operadores booleanos AND/OR para el aprendizaje neurosimbólico.",
zh = "一种连续模糊逻辑的合取算子,定义为 max(0, a + b − 1),用于多值逻辑和概率逻辑。与其对偶 t-余范 min(1, a + b) 一起,可为神经符号学习提供布尔 AND/OR 的可微松弛。",
term_es = "t-norma de Łukasiewicz",
term_zh = "Łukasiewicz t-范数",
aliases_es = { "t-norma de Lukasiewicz", "conjunción de Łukasiewicz" },
aliases_zh = { "Lukasiewicz t-范数", "卢卡谢维奇 t-范数" },
}
data["luma dream machine"] = {
short = "A commercial text- and image-to-video generative model from Luma AI that produces short, photorealistic video clips with camera motion control, accessible via a web interface and API.",
article = nil,
aliases = { "Luma Dream Machine", "Dream Machine", "Luma AI Dream Machine", "Luma Ray" },
es = "Modelo generativo comercial de texto e imagen a vídeo de Luma AI que produce clips de vídeo cortos y fotorrealistas con control de movimiento de cámara, accesible a través de una interfaz web y una API.",
zh = "Luma AI 推出的商用文本与图像到视频生成模型,可生成具有摄像机运动控制的短时写实视频片段,提供网页界面与 API 接口。",
term_es = "Luma Dream Machine",
term_zh = "Luma Dream Machine",
aliases_es = { "Dream Machine", "Luma AI Dream Machine" },
aliases_zh = { "Dream Machine", "Luma AI Dream Machine" },
}
data["lvis-instruct4v"] = {
short = "A visual instruction tuning dataset built on LVIS images, providing fine-grained, GPT-4V–generated instruction-response pairs to improve object grounding and detailed visual reasoning in multimodal models.",
article = nil,
aliases = { "LVIS-Instruct4V", "LVIS Instruct4V" },
es = "Conjunto de datos de ajuste por instrucciones visuales construido sobre imágenes de LVIS, que proporciona pares de instrucción-respuesta de grano fino generados por GPT-4V para mejorar el anclaje de objetos y el razonamiento visual detallado en modelos multimodales.",
zh = "基于 LVIS 图像构建的视觉指令微调数据集,提供由 GPT-4V 生成的细粒度指令-响应对,以提升多模态模型中的物体定位和细致视觉推理能力。",
term_es = "LVIS-Instruct4V",
term_zh = "LVIS-Instruct4V",
aliases_es = { "LVIS Instruct4V" },
aliases_zh = { "LVIS Instruct4V" },
}
data["lxmert"] = {
short = "A transformer-based vision-language model that learns cross-modal representations from image-text pairs using separate object-relationship, language, and cross-modality encoders pretrained on tasks such as masked language modeling and visual question answering.",
article = nil,
aliases = { "LXMERT", "Learning Cross-Modality Encoder Representations from Transformers" },
es = "Modelo de visión-lenguaje basado en transformadores que aprende representaciones intermodales a partir de pares imagen-texto usando codificadores separados de relaciones entre objetos, lenguaje y cruzados, preentrenados con tareas como modelado de lenguaje enmascarado y respuesta a preguntas visuales.",
zh = "一种基于 Transformer 的视觉-语言模型,使用独立的对象关系编码器、语言编码器和跨模态编码器,通过掩码语言建模和视觉问答等任务进行预训练,学习跨模态表征。",
term_es = "LXMERT",
term_zh = "LXMERT",
aliases_es = {},
aliases_zh = {},
}
data["lyric-to-singing"] = {
short = "The task of synthesizing a sung vocal performance from lyrics, typically with a target melody and singer identity, often abbreviated as part of singing voice synthesis (SVS).",
article = nil,
aliases = { "lyrics-to-singing", "lyric to singing", "lyrics to singing", "lyric-to-singing synthesis", "lyrics-to-singing synthesis", "L2S" },
es = "Tarea de sintetizar una interpretación vocal cantada a partir de la letra, normalmente con una melodía objetivo y una identidad de cantante, frecuentemente considerada como parte de la síntesis de voz cantada (SVS).",
zh = "根据歌词合成演唱声的任务,通常给定目标旋律和歌手身份,常被视为歌声合成(SVS)的一部分。",
term_es = "síntesis de canto a partir de letra",
term_zh = "歌词到歌声合成",
aliases_es = { "letra a canto", "síntesis lyrics-to-singing", "lírica a canto" },
aliases_zh = { "歌词到歌唱", "lyrics-to-singing", "歌词合成歌声" },
}
data["m-bias"] = {
short = "A form of selection bias arising when conditioning on a collider that lies on an M-shaped path between treatment and outcome. Adjusting for such a variable opens a non-causal path and can introduce bias even though the variable is a pre-treatment covariate.",
article = nil,
aliases = { "M-bias", "M bias", "collider M-bias" },
es = "Forma de sesgo de selección que aparece al condicionar sobre un colisionador situado en una trayectoria con forma de M entre tratamiento y resultado. Ajustar por esa variable abre una ruta no causal e introduce sesgo, aunque la variable sea previa al tratamiento.",
zh = "一种选择偏倚,源于对位于处理与结果之间 M 形路径上对撞节点的条件化。即使该变量是前处理协变量,对其进行调整也会打开一条非因果路径并引入偏差。",
term_es = "sesgo M",
term_zh = "M 形偏倚",
aliases_es = { "sesgo de tipo M", "M-bias" },
aliases_zh = { "M 偏倚", "M-bias", "对撞 M 偏倚" },
}
data["m-estimator"] = {
short = "A class of estimators defined as the solution to a system of estimating equations whose population expectation is zero, generalizing maximum likelihood. Used extensively in causal inference because of its flexibility and tractable variance via the influence function.",
article = nil,
aliases = { "M-estimator", "M estimator", "M-estimation", "Z-estimator" },
es = "Clase de estimadores definidos como solución a un sistema de ecuaciones de estimación cuya esperanza poblacional es cero, generalizando la máxima verosimilitud. Se usa ampliamente en inferencia causal por su flexibilidad y por la varianza tratable vía la función de influencia.",
zh = "由满足总体期望为零的估计方程组所确定的一类估计量,是极大似然的推广。因其灵活性以及可通过影响函数获得方差,在因果推断中被广泛使用。",
term_es = "estimador M",
term_zh = "M 估计量",
aliases_es = { "M-estimador", "estimador-M", "estimación M" },
aliases_zh = { "M 估计", "Z 估计量" },
}
data["m-separation"] = {
short = "A graphical criterion that generalizes d-separation to mixed and ancestral graphs (MAGs and ADMGs), reading off conditional independence relations in the presence of bidirected edges that represent latent confounders.",
article = nil,
aliases = { "m separation", "mixed-graph separation" },
es = "Criterio gráfico que generaliza la d-separación a grafos mixtos y ancestrales (MAG y ADMG), leyendo relaciones de independencia condicional en presencia de aristas bidireccionales que representan confundidores latentes.",
zh = "一种图判据,将d分离推广到混合图与祖先图(MAG与ADMG),可在存在表示潜在混杂因子的双向边时读出条件独立关系。",
term_es = "m-separación",
term_zh = "m分离",
aliases_es = { "separación m" },
aliases_zh = { "m-分离", "m-separation" },
}
data["m3-it"] = {
short = "A large-scale multilingual multimodal instruction tuning dataset covering 40 tasks across 80 languages, used to train and evaluate vision-language models with diverse instruction-following abilities.",
article = nil,
aliases = { "M3-IT", "M3IT", "Multi-Modal Multilingual Instruction Tuning" },
es = "Conjunto de datos a gran escala para ajuste por instrucciones multimodal y multilingüe, que cubre 40 tareas en 80 idiomas, utilizado para entrenar y evaluar modelos de visión-lenguaje con capacidades diversas de seguimiento de instrucciones.",
zh = "一个大规模多语言多模态指令微调数据集,涵盖 80 种语言中的 40 项任务,用于训练和评估具备多样化指令跟随能力的视觉-语言模型。",
term_es = "M3-IT",
term_zh = "M3-IT",
aliases_es = { "M3IT" },
aliases_zh = { "M3IT" },
}
data["m3gnet"] = {
short = "A graph neural-network interatomic potential (Chen & Ong, 2022) trained on Materials Project DFT data that incorporates explicit three-body interactions, providing universal energy and force predictions across the periodic table.",
article = nil,
aliases = { "M3GNet", "Materials 3-body Graph Network" },
es = "Potencial interatómico basado en redes neuronales de grafos (Chen y Ong, 2022) entrenado con datos DFT del Materials Project que incorpora interacciones explícitas de tres cuerpos, proporcionando predicciones universales de energía y fuerzas en toda la tabla periódica.",
zh = "基于图神经网络的原子间势(Chen 与 Ong,2022),在 Materials Project 的 DFT 数据上训练并显式包含三体相互作用,可对整个周期表提供通用的能量和力预测。",
term_es = "M3GNet",
term_zh = "M3GNet",
aliases_es = { "M3GNet" },
aliases_zh = { "M3GNet", "三体图网络势" },
}
data["m3n"] = {
short = "Maximum-margin Markov network: a structured prediction model that combines the representational power of Markov random fields with large-margin training, formulated as a quadratic program that generalizes the support vector machine to structured outputs.",
article = nil,
aliases = { "M3N", "max-margin Markov network", "maximum margin Markov network", "Taskar M3N" },
es = "Red de Markov de margen máximo: modelo de predicción estructurada que combina la capacidad representacional de los campos aleatorios de Markov con el entrenamiento de margen amplio, formulado como un programa cuadrático que generaliza la máquina de vectores soporte a salidas estructuradas.",
zh = "最大间隔马尔可夫网络:将马尔可夫随机场的表示能力与大间隔训练相结合的结构化预测模型,形式化为将支持向量机推广到结构化输出的二次规划问题。",
term_es = "red de Markov de máximo margen",
term_zh = "最大间隔马尔可夫网络",
aliases_es = { "M3N", "red de Markov de margen máximo" },
aliases_zh = { "M3N", "最大边际马尔可夫网络" },
}
data["m6a methylation"] = {
short = "N6-methyladenosine: the most abundant internal modification of eukaryotic mRNA, regulating splicing, stability, localization, and translation; mapped genome-wide via methods such as MeRIP-seq and miCLIP.",
article = nil,
aliases = { "m6A", "m6A methylation", "N6-methyladenosine", "N6 methyladenosine", "m6A modification" },
es = "N6-metiladenosina: la modificación interna más abundante del ARNm eucariota, que regula el empalme, la estabilidad, la localización y la traducción; se mapea a nivel genómico mediante métodos como MeRIP-seq y miCLIP.",
zh = "N6-甲基腺苷:真核生物 mRNA 中最丰富的内部修饰,调控剪接、稳定性、定位和翻译,可通过 MeRIP-seq 与 miCLIP 等方法在全基因组范围内定位。",
term_es = "metilación m6A",
term_zh = "m6A 甲基化",
aliases_es = { "m6A", "N6-metiladenosina", "modificación m6A" },
aliases_zh = { "m6A", "N6-甲基腺苷", "m6A 修饰" },
}
data["maccs keys"] = {
short = "Molecular ACCess System keys: a 166-bit (or full 960-bit) substructure fingerprint developed by MDL, where each bit indicates the presence of a predefined chemical pattern; widely used for similarity search despite its age.",
article = nil,
aliases = { "MACCS keys", "MACCS", "MACCS fingerprints", "MDL keys", "Molecular ACCess System keys" },
es = "Claves del Sistema de Acceso Molecular: huella digital de subestructura de 166 bits (o 960 bits completos) desarrollada por MDL, donde cada bit indica la presencia de un patrón químico predefinido; ampliamente utilizada para búsqueda de similitud a pesar de su antigüedad.",
zh = "分子访问系统(MACCS)密钥:由 MDL 开发的 166 位(或完整 960 位)子结构指纹,每一位表示一个预定义化学模式是否出现;尽管历史悠久,仍被广泛用于相似性搜索。",
term_es = "claves MACCS",
term_zh = "MACCS 密钥",
aliases_es = { "MACCS", "huellas MACCS", "claves MDL" },
aliases_zh = { "MACCS keys", "MACCS 指纹", "MDL keys", "分子访问系统密钥" },
}
data["mace counterfactual"] = {
short = "Model-Agnostic Counterfactual Explanations (MACE), a method that uses SAT/SMT solvers to find provably minimal feature changes that flip a black-box classifier's prediction while satisfying user constraints.",
article = nil,
aliases = { "MACE", "Model-Agnostic Counterfactual Explanations", "MACE explanation" },
es = "Model-Agnostic Counterfactual Explanations (MACE), método que usa solvers SAT/SMT para encontrar cambios mínimos demostrables en las variables que cambian la predicción de un clasificador caja negra cumpliendo restricciones del usuario.",
zh = "Model-Agnostic Counterfactual Explanations(MACE)方法,使用 SAT/SMT 求解器寻找可证明最小且满足用户约束的特征改动,以翻转黑盒分类器的预测。",
term_es = "contrafactual MACE",
term_zh = "MACE 反事实",
aliases_es = { "MACE", "explicaciones contrafactuales MACE", "Model-Agnostic Counterfactual Explanations" },
aliases_zh = { "MACE", "MACE 反事实解释", "模型无关反事实解释" },
}
data["mace force field"] = {
short = "An equivariant message-passing neural network potential that uses higher-order tensor products to represent atomic environments, achieving high accuracy on molecular and materials energy and force prediction tasks.",
article = nil,
aliases = { "MACE", "MACE potential", "MACE neural network potential", "MACE NNP" },
es = "Potencial de red neuronal equivariante con paso de mensajes que utiliza productos tensoriales de orden superior para representar entornos atómicos, alcanzando alta precisión en la predicción de energías y fuerzas en moléculas y materiales.",
zh = "一种等变消息传递神经网络势,使用高阶张量积表示原子环境,在分子和材料的能量与力预测中达到很高的精度。",
term_es = "potencial MACE",
term_zh = "MACE 势",
aliases_es = { "MACE", "potencial MACE", "red neuronal MACE" },
aliases_zh = { "MACE", "MACE 势", "MACE 神经网络势" },
}
data["mace-mp"] = {
short = "A foundation-model variant of the MACE neural network potential trained on the Materials Project dataset, providing a general-purpose interatomic potential across the periodic table for inorganic materials simulation.",
article = nil,
aliases = { "MACE-MP", "MACE-MP-0", "MACE Materials Project", "MACE-MP foundation model" },
es = "Variante de modelo fundacional del potencial neuronal MACE entrenada en el conjunto de datos Materials Project, que proporciona un potencial interatómico de propósito general en toda la tabla periódica para la simulación de materiales inorgánicos.",
zh = "MACE 神经网络势的基础模型变体,基于 Materials Project 数据集训练,提供覆盖周期表的通用原子间势,用于无机材料模拟。",
term_es = "MACE-MP",
term_zh = "MACE-MP",
aliases_es = { "MACE-MP", "MACE-MP-0", "modelo fundacional MACE-MP" },
aliases_zh = { "MACE-MP", "MACE-MP-0", "MACE-MP 基础模型" },
}
data["mace-off"] = {
short = "A MACE neural network potential variant trained on organic molecule datasets to provide transferable, force-field-quality energies and forces for biomolecular and small-organic systems.",
article = nil,
aliases = { "MACE-OFF", "MACE-OFF23", "MACE organic force field", "MACE off-equilibrium" },
es = "Variante del potencial neuronal MACE entrenada con conjuntos de datos de moléculas orgánicas para proporcionar energías y fuerzas transferibles, con calidad de campo de fuerzas, en sistemas biomoleculares y orgánicos pequeños.",
zh = "MACE 神经网络势的变体,基于有机分子数据集训练,为生物分子和小分子有机体系提供可迁移的、达到力场精度的能量和力。",
term_es = "MACE-OFF",
term_zh = "MACE-OFF",
aliases_es = { "MACE-OFF", "MACE-OFF23" },
aliases_zh = { "MACE-OFF", "MACE-OFF23" },
}
data["machine learning force field"] = {
short = "An interatomic potential parameterized by a machine learning model—often a graph or equivariant neural network—trained on quantum-mechanical reference data to predict energies and forces at near-DFT accuracy with classical-MD-like cost.",
article = nil,
aliases = { "MLFF", "ML force field", "machine-learned force field", "ML potential", "machine learning potential", "MLP", "neural network potential", "NNP" },
es = "Potencial interatómico parametrizado por un modelo de aprendizaje automático—frecuentemente una red neuronal gráfica o equivariante—entrenado con datos mecano-cuánticos de referencia para predecir energías y fuerzas con precisión cercana a DFT y coste comparable a la dinámica molecular clásica.",
zh = "由机器学习模型(通常是图神经网络或等变神经网络)参数化的原子间势,基于量子力学参考数据训练,可在接近 DFT 精度的同时实现接近经典分子动力学的计算开销。",
term_es = "campo de fuerzas de aprendizaje automático",
term_zh = "机器学习力场",
aliases_es = { "MLFF", "campo de fuerzas ML", "potencial de aprendizaje automático", "potencial neuronal" },
aliases_zh = { "MLFF", "机器学习力场", "机器学习势", "神经网络势", "NNP" },
}
data["machine translation"] = {
short = "The task of automatically translating text or speech from one natural language to another. Modern systems are dominated by neural sequence-to-sequence and Transformer-based models trained on parallel corpora.",
article = nil,
aliases = { "MT", "Machine Translation", "automatic translation", "automated translation" },
es = "Tarea consistente en traducir automáticamente texto o habla de una lengua natural a otra. Los sistemas modernos están dominados por modelos neuronales seq2seq y basados en Transformer entrenados con corpus paralelos.",
zh = "将文本或语音从一种自然语言自动翻译为另一种自然语言的任务。现代系统主要由基于平行语料训练的神经序列到序列模型和 Transformer 架构主导。",
term_es = "traducción automática",
term_zh = "机器翻译",
aliases_es = { "MT", "machine translation", "traducción automatizada", "TA" },
aliases_zh = { "MT", "machine translation", "自动翻译", "MT 翻译" },
}
data["machine unlearning"] = {
short = "A research area focused on removing the influence of specific training data points from a trained model without retraining from scratch, motivated by privacy regulations, copyright takedowns, and safety requirements.",
article = nil,
aliases = { "unlearning", "ML unlearning", "model unlearning", "data unlearning" },
es = "Área de investigación centrada en eliminar la influencia de puntos de datos de entrenamiento específicos en un modelo entrenado sin necesidad de reentrenarlo desde cero, motivada por normativas de privacidad, retiradas por derechos de autor y requisitos de seguridad.",
zh = "一个研究方向,旨在从已训练模型中去除特定训练数据点的影响,而无需从头重新训练,主要源于隐私法规、版权下架请求和安全性需求。",
term_es = "desaprendizaje automático",
term_zh = "机器遗忘",
aliases_es = { "unlearning", "desaprendizaje de modelos", "olvido automático" },
aliases_zh = { "模型遗忘", "数据遗忘", "机器去学习" },
}
data["macro search space"] = {
short = "A NAS search space that searches the entire network topology — operation choices and connections at every layer — instead of fixing a global skeleton and reusing a small repeated cell, contrasting with cell-based or micro search spaces.",
article = nil,
aliases = { "macro NAS search space", "global search space", "whole-network search space", "macro-level search space" },
es = "Espacio de búsqueda en NAS que explora la topología completa de la red —elección de operaciones y conexiones en cada capa— en lugar de fijar un esqueleto global y reutilizar una pequeña celda repetida, contrastando con los espacios de búsqueda basados en celdas o micro.",
zh = "搜索整网络拓扑(每一层的算子选择和连接方式)的 NAS 搜索空间,而非固定全局骨架、重复使用一个小型 cell,与基于 cell 的微观搜索空间形成对比。",
term_es = "espacio de búsqueda macro",
term_zh = "宏搜索空间",
aliases_es = { "espacio de búsqueda global", "espacio de búsqueda a nivel de red completa", "espacio de búsqueda macro de NAS" },
aliases_zh = { "宏观搜索空间", "全网络搜索空间", "宏NAS搜索空间" },
}
data["macro topology"] = {
short = "The global, network-level connectivity pattern of an architecture in NAS — how stages, blocks, and skip connections are arranged — as opposed to the micro topology inside a repeated cell.",
article = nil,
aliases = { "macro architecture", "macro-level topology", "macro-architecture topology", "global topology" },
es = "Patrón global de conectividad a nivel de red de una arquitectura en NAS —cómo se disponen las etapas, bloques y conexiones residuales— en contraposición a la topología micro dentro de una celda repetida.",
zh = "NAS 中架构在网络级别的全局连接结构——阶段、模块及跳跃连接的整体布局——与重复 cell 内部的微观拓扑相对。",
term_es = "topología macro",
term_zh = "宏拓扑",
aliases_es = { "arquitectura macro", "topología a nivel macro", "topología global" },
aliases_zh = { "宏观拓扑", "宏架构", "宏架构拓扑", "全局拓扑" },
}
data["macro-batch"] = {
short = "The aggregate batch formed by accumulating gradients across several micro-batches before an optimizer step, equal to micro_batch_size × accumulation_steps × data_parallel_replicas.",
article = nil,
aliases = { "macrobatch", "global batch", "effective batch", "effective batch size" },
es = "Lote agregado que se forma al acumular gradientes de varios microlotes antes de un paso del optimizador; igual a micro_batch_size × pasos_de_acumulación × réplicas_data-parallel.",
zh = "通过在若干微批量上累积梯度后再执行优化器更新所形成的聚合批量,等于 micro_batch_size × 累积步数 × 数据并行副本数。",
term_es = "macrolote",
term_zh = "宏批量",
aliases_es = { "macro-lote", "lote global", "lote efectivo" },
aliases_zh = { "全局批量", "有效批量", "宏批" },
}
data["macrocycle design"] = {
short = "The computational design of large ring-shaped molecules (typically ≥12 atoms in the ring) for drug discovery, often using generative models or template-based approaches to optimize binding affinity, conformational rigidity, and membrane permeability.",
article = nil,
aliases = { "macrocyclic drug design", "macrocyclization", "macrocycle generation", "cyclic peptide design" },
es = "Diseño computacional de moléculas con anillos grandes (típicamente con 12 o más átomos en el anillo) para el descubrimiento de fármacos, frecuentemente mediante modelos generativos o enfoques basados en plantillas para optimizar afinidad de unión, rigidez conformacional y permeabilidad de membrana.",
zh = "针对药物发现的大环分子(通常环上含 12 个或以上原子)的计算设计,常借助生成模型或基于模板的方法,优化结合亲和力、构象刚性与膜渗透性。",
term_es = "diseño de macrociclos",
term_zh = "大环分子设计",
aliases_es = { "diseño de macrociclos", "macrociclación", "diseño de péptidos cíclicos" },
aliases_zh = { "大环设计", "大环分子设计", "大环化", "环肽设计" },
}
data["macs2"] = {
short = "Model-based Analysis of ChIP-Seq, version 2: widely used peak caller that detects regions of significant read enrichment in ChIP-seq, ATAC-seq, and related assays using a local Poisson background model.",
article = nil,
aliases = { "MACS2", "MACS 2", "Model-based Analysis of ChIP-Seq 2", "macs 2" },
es = "Análisis basado en modelos de ChIP-Seq, versión 2: identificador de picos muy utilizado que detecta regiones con enriquecimiento significativo de lecturas en ChIP-seq, ATAC-seq y ensayos similares, usando un modelo local de fondo de Poisson.",
zh = "Model-based Analysis of ChIP-Seq 第 2 版:广泛使用的峰值识别工具,使用局部泊松背景模型检测 ChIP-seq、ATAC-seq 等实验中显著富集的读段区域。",
term_es = "MACS2",
term_zh = "MACS2",
aliases_es = { "MACS 2", "macs2", "análisis basado en modelos de ChIP-seq versión 2" },
aliases_zh = { "MACS 2", "macs2", "基于模型的 ChIP-Seq 分析第 2 版" },
}
data["made"] = {
short = "A masked autoencoder that enforces an autoregressive ordering on its outputs by zeroing out weights that would create dependencies on later variables, enabling tractable density estimation.",
article = nil,
aliases = { "MADE", "Masked Autoencoder for Distribution Estimation", "masked autoencoder for distribution estimation" },
es = "Autoencoder enmascarado que impone un orden autorregresivo en sus salidas anulando los pesos que crearían dependencias con variables posteriores, permitiendo una estimación de densidad tratable.",
zh = "一种掩码自编码器,通过将会引入对后续变量依赖的权重置零来强制输出遵循自回归顺序,从而实现可计算的密度估计。",
term_es = "MADE",
term_zh = "MADE",
aliases_es = { "MADE", "autoencoder enmascarado para estimación de distribución" },
aliases_zh = { "MADE", "用于分布估计的掩码自编码器" },
}
data["mae"] = {
short = "Masked Autoencoder: a self-supervised vision pretraining method that randomly masks a high fraction of image patches and trains an encoder-decoder transformer to reconstruct the missing pixels from the visible ones.",
article = nil,
aliases = { "MAE", "masked autoencoder", "masked autoencoders" },
es = "Masked Autoencoder: método de preentrenamiento autosupervisado en visión que enmascara aleatoriamente una fracción alta de los parches de la imagen y entrena un transformador codificador-decodificador para reconstruir los píxeles faltantes a partir de los visibles.",
zh = "Masked Autoencoder:一种自监督视觉预训练方法,随机遮盖图像的大部分图块,并训练编码器-解码器Transformer从可见图块重建缺失像素。",
term_es = "MAE",
term_zh = "MAE",
aliases_es = { "MAE", "autoencoder enmascarado" },
aliases_zh = { "MAE", "掩码自编码器" },
}
data["maestro dataset"] = {
short = "A piano performance dataset released by Magenta containing about 200 hours of paired MIDI and audio recordings from the International Piano-e-Competition, widely used for symbolic and audio music modeling.",
article = nil,
aliases = { "MAESTRO", "MAESTRO dataset", "Maestro", "MAESTRO v3" },
es = "Conjunto de datos de interpretaciones de piano publicado por Magenta, que contiene alrededor de 200 horas de grabaciones MIDI y audio emparejadas de la International Piano-e-Competition, ampliamente utilizado para modelado musical simbólico y de audio.",
zh = "由 Magenta 发布的钢琴演奏数据集,包含来自国际 Piano-e-Competition 的约 200 小时配对 MIDI 与音频录音,广泛用于符号化和音频音乐建模。",
term_es = "conjunto de datos MAESTRO",
term_zh = "MAESTRO 数据集",
aliases_es = { "MAESTRO", "dataset MAESTRO" },
aliases_zh = { "MAESTRO", "MAESTRO 钢琴数据集" },
}
data["maf"] = {
short = "A normalizing flow that stacks autoregressive transformations parameterized by MADE-style networks, providing fast density evaluation but slow sampling.",
article = nil,
aliases = { "MAF", "Masked Autoregressive Flow", "masked autoregressive flow" },
es = "Flujo normalizador que apila transformaciones autorregresivas parametrizadas por redes tipo MADE, ofreciendo evaluación de densidad rápida pero muestreo lento.",
zh = "一种标准化流,堆叠由 MADE 风格网络参数化的自回归变换,密度计算快速但采样较慢。",
term_es = "MAF",
term_zh = "MAF",
aliases_es = { "MAF", "flujo autorregresivo enmascarado" },
aliases_zh = { "MAF", "掩码自回归流" },
}
data["mafft"] = {
short = "Multiple sequence alignment program that uses fast Fourier transforms over residue physicochemical encodings, supporting progressive, iterative refinement, and consistency-based strategies for nucleotide and amino acid sequences.",
article = nil,
aliases = { "MAFFT", "MAFFT aligner", "mafft alignment" },
es = "Programa de alineamiento múltiple de secuencias que utiliza transformadas rápidas de Fourier sobre codificaciones fisicoquímicas de residuos y admite estrategias progresivas, de refinamiento iterativo y basadas en consistencia para secuencias de nucleótidos y aminoácidos.",
zh = "多序列比对程序,对残基的理化编码使用快速傅里叶变换,支持渐进式、迭代精化以及基于一致性的策略,可用于核苷酸和氨基酸序列。",
term_es = "MAFFT",
term_zh = "MAFFT",
aliases_es = { "alineador MAFFT", "mafft" },
aliases_zh = { "mafft", "MAFFT 比对工具" },
}
data["mag"] = {
short = "A maximal ancestral graph: a mixed graph with directed and bidirected edges that represents the conditional independence structure over an observed subset of variables in a DAG with latent and selection variables. MAGs are the natural target of causal discovery under hidden confounding.",
article = nil,
aliases = { "MAG", "maximal ancestral graph", "Maximal Ancestral Graph", "ancestral graph" },
es = "Grafo ancestral maximal: grafo mixto con aristas dirigidas y bidireccionales que representa la estructura de independencia condicional sobre un subconjunto observado de variables en un DAG con variables latentes y de selección. Los MAG son el objetivo natural del descubrimiento causal bajo confusión oculta.",
zh = "最大祖先图:一种含有有向边和双向边的混合图,表示在含潜在变量和选择变量的有向无环图中可观测变量子集上的条件独立结构。在存在隐藏混杂时,MAG 是因果发现的自然目标。",
term_es = "MAG",
term_zh = "MAG",
aliases_es = { "grafo ancestral maximal", "grafo ancestral máximo" },
aliases_zh = { "最大祖先图", "祖先图" },
}
data["mageck"] = {
short = "Model-based Analysis of Genome-wide CRISPR-Cas9 Knockout: statistical pipeline that identifies positively and negatively selected genes from pooled CRISPR screen read counts using a negative binomial model and robust ranking.",
article = nil,
aliases = { "MAGeCK", "MAGeCK CRISPR analysis", "MAGeCK-RRA", "MAGeCK MLE" },
es = "Análisis basado en modelos de inactivación CRISPR-Cas9 a escala genómica: tubería estadística que identifica genes seleccionados positiva y negativamente a partir de los conteos de lecturas de cribados CRISPR agrupados, usando un modelo binomial negativo y ranking robusto.",
zh = "Model-based Analysis of Genome-wide CRISPR-Cas9 Knockout:基于负二项模型与稳健排序,从混合 CRISPR 筛选的读段计数中识别正向与负向选择基因的统计分析流程。",
term_es = "MAGeCK",
term_zh = "MAGeCK",
aliases_es = { "MAGeCK-RRA", "MAGeCK MLE", "mageck" },
aliases_zh = { "mageck", "MAGeCK-RRA", "MAGeCK MLE" },
}
data["magenta"] = {
short = "A Google research project and open-source library exploring the role of machine learning in music and art generation, providing models and tools for symbolic music, audio synthesis, and creative applications built on TensorFlow.",
article = nil,
aliases = { "Magenta", "Google Magenta", "Magenta project" },
es = "Proyecto de investigación de Google y biblioteca de código abierto que explora el papel del aprendizaje automático en la generación de música y arte, proporcionando modelos y herramientas para música simbólica, síntesis de audio y aplicaciones creativas construidas sobre TensorFlow.",
zh = "Google 的一个研究项目和开源库,探索机器学习在音乐与艺术生成中的作用,基于 TensorFlow 提供面向符号音乐、音频合成和创意应用的模型与工具。",
term_es = "Magenta",
term_zh = "Magenta",
aliases_es = { "proyecto Magenta", "Magenta de Google" },
aliases_zh = { "Magenta 项目", "Google Magenta" },
}
data["magic3d"] = {
short = "A two-stage text-to-3D generation method that first produces a coarse neural-field representation guided by a low-resolution diffusion prior, then refines a textured mesh using a high-resolution latent diffusion model.",
article = nil,
aliases = { "Magic3D" },
es = "Método de generación 3D a partir de texto en dos etapas que primero produce una representación de campo neuronal aproximada guiada por un prior de difusión de baja resolución, y luego refina una malla texturizada usando un modelo de difusión latente de alta resolución.",
zh = "一种两阶段的文本到 3D 生成方法,先在低分辨率扩散先验引导下生成粗糙的神经场表示,再使用高分辨率潜在扩散模型细化带纹理的网格。",
term_es = "Magic3D",
term_zh = "Magic3D",
aliases_es = {},
aliases_zh = {},
}
data["magicbrush"] = {
short = "A manually annotated dataset of real-image instruction-guided edits, used to fine-tune and evaluate text-driven image editing models on diverse, multi-turn editing scenarios.",
article = nil,
aliases = { "MagicBrush" },
es = "Conjunto de datos anotado manualmente con ediciones de imágenes reales guiadas por instrucciones, utilizado para ajustar y evaluar modelos de edición de imágenes basada en texto en escenarios diversos y de múltiples turnos.",
zh = "一个由人工标注的真实图像指令编辑数据集,用于在多样化的多轮编辑场景中微调和评估文本驱动的图像编辑模型。",
term_es = "MagicBrush",
term_zh = "MagicBrush",
aliases_es = {},
aliases_zh = {},
}
data["magnitude pruning"] = {
short = "A model-compression method that removes weights with the smallest absolute values, optionally followed by fine-tuning, on the heuristic that low-magnitude parameters contribute least to the model's outputs.",
article = nil,
aliases = { "weight magnitude pruning", "absolute-value pruning", "|w| pruning" },
es = "Método de compresión de modelos que elimina los pesos de menor valor absoluto, opcionalmente seguido de un ajuste fino, bajo la heurística de que los parámetros de baja magnitud contribuyen menos a las salidas del modelo.",
zh = "一种模型压缩方法,移除绝对值最小的权重,并可选地进行微调;其启发式假设是:幅值较小的参数对模型输出的贡献最小。",
term_es = "poda por magnitud",
term_zh = "幅值剪枝",
aliases_es = { "poda de magnitud de pesos", "poda por valor absoluto" },
aliases_zh = { "权重幅值剪枝", "绝对值剪枝", "magnitude pruning" },
}
data["magnushammer"] = {
short = "A transformer-based premise-selection system for interactive theorem proving that retrieves relevant lemmas via contrastive embedding learning, substantially outperforming the symbolic Sledgehammer hammer on Isabelle/HOL benchmarks.",
article = nil,
aliases = { "Magnushammer" },
es = "Sistema de selección de premisas basado en transformers para demostración interactiva de teoremas, que recupera lemas relevantes mediante aprendizaje contrastivo de incrustaciones y supera de forma notable al hammer simbólico Sledgehammer en benchmarks de Isabelle/HOL.",
zh = "一种基于 Transformer 的交互式定理证明前提选择系统,通过对比嵌入学习检索相关引理,在 Isabelle/HOL 基准上显著优于符号化的 Sledgehammer。",
term_es = "Magnushammer",
term_zh = "Magnushammer",
aliases_es = { },
aliases_zh = { },
}
data["mahalanobis distance matching"] = {
short = "A matching method that pairs treated and control units by minimizing the Mahalanobis distance between their covariate vectors, which accounts for covariance structure. Performs well when the number of covariates is small relative to the sample size.",
article = nil,
aliases = { "Mahalanobis matching", "Mahalanobis distance matching", "MDM", "Mahalanobis-distance matching" },
es = "Método de emparejamiento que vincula unidades tratadas y de control minimizando la distancia de Mahalanobis entre sus vectores de covariables, lo que tiene en cuenta la estructura de covarianzas. Funciona bien cuando el número de covariables es pequeño respecto al tamaño de muestra.",
zh = "一种匹配方法,通过最小化协变量向量之间的 Mahalanobis 距离来配对处理组与对照组单位,该距离考虑了协变量的协方差结构。当协变量数量相对于样本量较少时表现良好。",
term_es = "emparejamiento por distancia de Mahalanobis",
term_zh = "Mahalanobis 距离匹配",
aliases_es = { "matching de Mahalanobis", "emparejamiento de Mahalanobis", "MDM" },
aliases_zh = { "马氏距离匹配", "MDM", "Mahalanobis 匹配" },
}
data["mahalanobis ood score"] = {
short = "An out-of-distribution detection score equal to the minimum class-conditional Mahalanobis distance between a test feature embedding and class means under a shared covariance, with larger distances flagged as OOD.",
article = nil,
aliases = { "Mahalanobis OOD score", "Mahalanobis distance OOD detector", "Mahalanobis-based OOD detection" },
es = "Puntaje de detección fuera de distribución igual a la distancia de Mahalanobis condicional por clase mínima entre la incrustación de características de prueba y las medias de clase bajo una covarianza compartida, marcando como OOD las distancias mayores.",
zh = "一种分布外检测分数,等于测试特征嵌入与各类别均值之间在共享协方差下的最小马氏距离,较大者被判为 OOD。",
term_es = "puntaje OOD por Mahalanobis",
term_zh = "马氏距离 OOD 分数",
aliases_es = { "puntaje de Mahalanobis para OOD", "detector OOD de Mahalanobis" },
aliases_zh = { "Mahalanobis OOD 分数", "马氏 OOD 检测", "基于马氏距离的 OOD 检测" },
}
data["maieutic prompting"] = {
short = "A prompting method that elicits a tree of abductive explanations from a language model and uses logical-consistency constraints between them, solved with a MaxSAT solver, to derive the final answer. Improves robustness on commonsense reasoning.",
article = nil,
aliases = { "Maieutic Prompting", "maieutic-prompting", "maieutic reasoning" },
es = "Método de prompting que induce un árbol de explicaciones abductivas a partir de un modelo de lenguaje y emplea restricciones de consistencia lógica entre ellas, resueltas con un solucionador MaxSAT, para obtener la respuesta final. Mejora la robustez en razonamiento de sentido común.",
zh = "一种提示方法,从语言模型中引出一棵溯因解释树,并通过 MaxSAT 求解器在解释之间施加逻辑一致性约束以得出最终答案,可提升常识推理的鲁棒性。",
term_es = "prompting mayéutico",
term_zh = "助产式提示",
aliases_es = { "maieutic prompting", "prompting de tipo mayéutico" },
aliases_zh = { "maieutic 提示", "苏格拉底式提示" },
}
data["majority group"] = {
short = "In fairness analysis, the demographic group with the largest representation in a population or dataset, often used as the implicit reference class against which disparities for other groups are measured.",
article = nil,
aliases = { "majority class group", "dominant group" },
es = "En el análisis de equidad, el grupo demográfico con mayor representación en una población o conjunto de datos, utilizado a menudo como clase de referencia implícita frente a la cual se miden las disparidades de otros grupos.",
zh = "在公平性分析中,指在某一总体或数据集中占比最大的人口群体,通常作为衡量其他群体差距的隐含参照类别。",
term_es = "grupo mayoritario",
term_zh = "多数群体",
aliases_es = { "grupo dominante" },
aliases_zh = { "主流群体", "主导群体" },
}
data["make-a-video"] = {
short = "Meta's 2022 text-to-video diffusion model that extended a pretrained text-to-image model with temporal layers and trained on unpaired video data, producing short clips from text prompts without paired text–video supervision.",
article = nil,
aliases = { "Make-A-Video", "Make A Video", "MakeAVideo" },
es = "Modelo de difusión de texto a vídeo de Meta de 2022 que extendió un modelo preentrenado de texto a imagen con capas temporales y se entrenó con datos de vídeo no emparejados, produciendo clips cortos a partir de prompts de texto sin supervisión emparejada texto–vídeo.",
zh = "Meta 于 2022 年发布的文本到视频扩散模型,通过为预训练的文本到图像模型添加时间层并在无配对视频数据上训练,能够在没有文本-视频配对监督的情况下根据文本提示生成短视频片段。",
term_es = "Make-A-Video",
term_zh = "Make-A-Video",
aliases_es = { "Make A Video", "MakeAVideo" },
aliases_zh = { "Make A Video", "MakeAVideo" },
}
data["mala"] = {
short = "Metropolis-adjusted Langevin algorithm: a Markov chain Monte Carlo method that proposes new states using a discretized Langevin diffusion (gradient-driven Gaussian step) and corrects for discretization bias with a Metropolis-Hastings accept/reject step.",
article = nil,
aliases = { "MALA", "Metropolis-adjusted Langevin algorithm", "Langevin Monte Carlo with Metropolis correction" },
es = "Algoritmo de Langevin ajustado por Metropolis: método Monte Carlo por cadenas de Markov que propone nuevos estados mediante una difusión de Langevin discretizada (paso gaussiano dirigido por el gradiente) y corrige el sesgo de discretización con un paso de aceptación/rechazo de Metropolis-Hastings.",
zh = "Metropolis调整的Langevin算法:一种MCMC方法,使用离散化的Langevin扩散(由梯度驱动的高斯步长)提议新状态,并通过Metropolis-Hastings接受/拒绝步骤修正离散化偏差。",
term_es = "MALA",
term_zh = "MALA",
aliases_es = { "algoritmo de Langevin con corrección Metropolis", "Langevin Metropolis" },
aliases_zh = { "Metropolis调整Langevin算法", "Metropolis-adjusted Langevin algorithm" },
}
data["malicious client detection"] = {
short = "The task of identifying federated learning clients whose updates are crafted to harm the global model — through poisoning, backdoors, or sign-flipping — typically by analyzing the geometry or statistics of submitted updates.",
article = nil,
aliases = { "Byzantine client detection", "adversarial client detection", "malicious participant detection", "poisoner detection" },
es = "Tarea de identificar clientes de aprendizaje federado cuyas actualizaciones están diseñadas para dañar el modelo global —mediante envenenamiento, puertas traseras o cambios de signo— normalmente analizando la geometría o las estadísticas de las actualizaciones enviadas.",
zh = "识别联邦学习中提交恶意更新(投毒、后门或翻转符号)以损害全局模型的客户端,通常通过分析提交更新的几何或统计特征来完成。",
term_es = "detección de clientes maliciosos",
term_zh = "恶意客户端检测",
aliases_es = { "detección de clientes bizantinos", "detección de participantes adversariales" },
aliases_zh = { "拜占庭客户端检测", "对抗客户端检测", "投毒客户端检测" },
}
data["mamba"] = {
short = "A selective state space model architecture that introduces input-dependent state transitions, achieving Transformer-quality language modeling with linear-time complexity in sequence length.",
article = nil,
aliases = { "Mamba", "Mamba SSM", "selective state space model" },
es = "Arquitectura de modelo de espacio de estados selectivo que introduce transiciones de estado dependientes de la entrada, alcanzando una calidad de modelado de lenguaje comparable a la de un Transformer con complejidad lineal en la longitud de la secuencia.",
zh = "一种选择性状态空间模型架构,引入依赖输入的状态转移,在序列长度上以线性复杂度达到与 Transformer 相当的语言建模质量。",
term_es = "Mamba",
term_zh = "Mamba",
aliases_es = { "Mamba", "Mamba SSM", "modelo de espacio de estados selectivo" },
aliases_zh = { "Mamba", "Mamba SSM", "选择性状态空间模型" },
}
data["maml"] = {
short = "Model-Agnostic Meta-Learning: a meta-learning algorithm that finds an initialization of model parameters such that a small number of gradient steps on a new task yields strong performance.",
article = nil,
aliases = { "MAML", "Model-Agnostic Meta-Learning", "model agnostic meta learning" },
es = "Meta-aprendizaje agnóstico al modelo: algoritmo de meta-aprendizaje que busca una inicialización de los parámetros tal que unos pocos pasos de gradiente sobre una nueva tarea produzcan un buen rendimiento.",
zh = "模型无关元学习:一种元学习算法,寻找模型参数的初始化,使得在新任务上经过少量梯度步即可获得良好性能。",
term_es = "MAML",
term_zh = "MAML",
aliases_es = { "meta-aprendizaje agnóstico al modelo" },
aliases_zh = { "模型无关元学习" },
}
data["maml++"] = {
short = "How to Train Your MAML (Antoniou, Edwards, Storkey, 2019): a set of stabilization and efficiency improvements to MAML — including multi-step loss optimization, per-step batch normalization statistics, and per-layer learnable inner-loop learning rates — yielding more stable and accurate few-shot learning.",
article = nil,
aliases = { "MAML++", "MAML plus plus", "How to Train Your MAML" },
es = "How to Train Your MAML (Antoniou, Edwards, Storkey, 2019): conjunto de mejoras de estabilización y eficiencia para MAML —optimización de la pérdida por múltiples pasos, estadísticas de batch normalization por paso y tasas de aprendizaje internas aprendibles por capa— que producen un aprendizaje few-shot más estable y preciso.",
zh = "How to Train Your MAML(Antoniou、Edwards、Storkey,2019):对 MAML 的一组稳定性与效率改进,包括多步损失优化、按步分别维护批归一化统计、以及每层可学习的内循环学习率,从而获得更稳定、更精确的小样本学习。",
term_es = "MAML++",
term_zh = "MAML++",
aliases_es = { "How to Train Your MAML" },
aliases_zh = { "How to Train Your MAML", "MAML改进版" },
}
data["manhattan plot"] = {
short = "Scatterplot used in genome-wide association studies that displays −log10 of the association p-value on the y-axis against genomic position on the x-axis, with chromosomes laid out sequentially.",
article = nil,
aliases = { "Manhattan plot", "GWAS Manhattan plot" },
es = "Diagrama de dispersión utilizado en estudios de asociación a nivel del genoma que representa −log10 del valor p de asociación en el eje y frente a la posición genómica en el eje x, con los cromosomas dispuestos secuencialmente.",
zh = "全基因组关联研究中使用的散点图,纵轴为关联 p 值的 −log10,横轴为基因组位置,并将染色体顺序排列。",
term_es = "gráfico de Manhattan",
term_zh = "曼哈顿图",
aliases_es = { "diagrama de Manhattan", "Manhattan plot", "gráfico Manhattan de GWAS" },
aliases_zh = { "Manhattan 图", "GWAS 曼哈顿图" },
}
data["manipulation theorem"] = {
short = "A foundational result by Spirtes, Glymour, and Scheines stating that the post-intervention distribution under do(X = x) equals the pre-intervention distribution computed in the mutilated graph in which all incoming edges to X are removed. It justifies graphical computation of interventional distributions.",
article = nil,
aliases = { "Manipulation Theorem", "intervention theorem", "do-operator theorem", "Spirtes-Glymour-Scheines manipulation theorem" },
es = "Resultado fundacional de Spirtes, Glymour y Scheines que establece que la distribución posintervención bajo do(X = x) coincide con la distribución preintervención calculada en el grafo mutilado al que se le han eliminado todas las aristas entrantes a X. Justifica el cálculo gráfico de distribuciones intervencionales.",
zh = "Spirtes、Glymour 和 Scheines 提出的基础性结果:在 do(X = x) 干预下的后干预分布等于在去除所有指向 X 的边的截断图中计算的前干预分布。该定理为干预分布的图形化计算提供依据。",
term_es = "teorema de manipulación",
term_zh = "操控定理",
aliases_es = { "teorema de la intervención", "teorema del operador do" },
aliases_zh = { "干预定理", "操作定理", "Spirtes–Glymour–Scheines 操控定理" },
}
data["manski bounds"] = {
short = "Sharp partial-identification bounds on causal effects derived without imposing untestable point-identifying assumptions, introduced by Charles Manski. They use the support and observable quantities of potential outcomes to bracket effects when only weak assumptions hold.",
article = nil,
aliases = { "Manski bounds", "Manski's bounds", "no-assumptions bounds", "worst-case bounds" },
es = "Cotas de identificación parcial nítidas para efectos causales obtenidas sin imponer supuestos no testeables de identificación puntual, introducidas por Charles Manski. Usan el soporte y cantidades observables de los resultados potenciales para acotar los efectos cuando solo se cumplen supuestos débiles.",
zh = "Charles Manski 提出的因果效应锐部分识别界,不依赖不可检验的点识别假设。它利用潜在结果的支撑集和可观察量在仅有弱假设时给出效应的上下界。",
term_es = "cotas de Manski",
term_zh = "Manski 界",
aliases_es = { "límites de Manski", "cotas de Manski sin supuestos" },
aliases_zh = { "Manski 边界", "Manski 部分识别界", "无假设界" },
}
data["mantis vlm"] = {
short = "A multi-image vision-language model trained on the Mantis-Instruct dataset to handle interleaved multi-image and text inputs for tasks such as image comparison, ordering, and multi-image reasoning.",
article = nil,
aliases = { "Mantis", "Mantis-VLM", "Mantis VLM" },
es = "Modelo de visión-lenguaje multi-imagen entrenado en el conjunto de datos Mantis-Instruct para manejar entradas intercaladas de múltiples imágenes y texto en tareas como comparación de imágenes, ordenamiento y razonamiento multi-imagen.",
zh = "一种多图视觉-语言模型,基于 Mantis-Instruct 数据集训练,用于处理多图与文本交错输入的任务,如图像比较、排序和多图推理。",
term_es = "Mantis VLM",
term_zh = "Mantis VLM",
aliases_es = { "Mantis", "Mantis-VLM" },
aliases_zh = { "Mantis", "Mantis-VLM" },
}
data["many-shot jailbreak"] = {
short = "An attack on long-context language models that prepends hundreds of fabricated user/assistant turns demonstrating harmful compliance, exploiting in-context learning to coerce the model into bypassing safety training. Disclosed by Anthropic in 2024.",
article = nil,
aliases = { "many-shot jailbreaking", "MSJ", "Many-shot Jailbreaking", "many shot jailbreak" },
es = "Ataque a modelos de lenguaje con contextos largos que antepone cientos de turnos ficticios de usuario y asistente que muestran un cumplimiento dañino, aprovechando el aprendizaje en contexto para forzar al modelo a eludir su entrenamiento de seguridad. Divulgado por Anthropic en 2024.",
zh = "一种针对长上下文大语言模型的越狱攻击:在提示中预置数百个伪造的用户/助手对话示例,让模型遵从有害指令,利用上下文学习绕过安全训练。由 Anthropic 于 2024 年披露。",
term_es = "many-shot jailbreak",
term_zh = "many-shot 越狱",
aliases_es = { "many-shot jailbreaking", "MSJ", "jailbreak de muchos ejemplos" },
aliases_zh = { "many-shot jailbreaking", "MSJ", "多示例越狱" },
}
data["many-shot prompting"] = {
short = "An in-context learning regime that supplies hundreds or thousands of demonstration examples within a long-context prompt, often closing the gap to fine-tuning on classification, translation, and reasoning tasks.",
article = nil,
aliases = { "many-shot in-context learning", "many-shot ICL", "many shot prompting" },
es = "Régimen de aprendizaje en contexto que proporciona cientos o miles de ejemplos de demostración dentro de un prompt de contexto largo, a menudo igualando los resultados del ajuste fino en tareas de clasificación, traducción y razonamiento.",
zh = "一种上下文学习方式,在长上下文提示中提供数百到数千个示例,在分类、翻译和推理任务上常可逼近微调效果。",
term_es = "prompting de muchos ejemplos",
term_zh = "many-shot 提示",
aliases_es = { "many-shot prompting", "aprendizaje en contexto de muchos ejemplos" },
aliases_zh = { "many-shot prompting", "多示例上下文学习" },
}
data["map"] = {
short = "Mean Average Precision — the principal metric for object detection and information retrieval, computed by averaging the area under the precision-recall curve (Average Precision) across classes (and, in COCO, across IoU thresholds).",
article = nil,
aliases = { "mAP", "mean average precision", "mean AP", "AP", "average precision", "mAP@0.5", "mAP@[.5:.95]" },
es = "Mean Average Precision — métrica principal para detección de objetos y recuperación de información, calculada promediando el área bajo la curva precisión-recall (Average Precision) entre clases (y, en COCO, entre umbrales de IoU).",
zh = "Mean Average Precision(平均精度均值)——目标检测和信息检索的主要指标,通过对各类别(以及在 COCO 中跨 IoU 阈值)的精度-召回曲线下面积(Average Precision)取平均得到。",
term_es = "mAP",
term_zh = "mAP",
aliases_es = { "precisión media promedio", "AP", "precisión promedio" },
aliases_zh = { "mAP", "平均精度均值", "AP", "平均精度" },
}
data["map inference"] = {
short = "Maximum a posteriori inference: the task of finding the joint assignment to all unobserved variables that maximizes the posterior probability given evidence, equivalent to most-probable explanation in Bayesian networks.",
article = nil,
aliases = { "MAP inference", "maximum a posteriori inference", "most probable explanation", "MPE", "MAP estimation" },
es = "Inferencia máxima a posteriori: la tarea de encontrar la asignación conjunta a todas las variables no observadas que maximiza la probabilidad posterior dada la evidencia, equivalente a la explicación más probable en redes bayesianas.",
zh = "最大后验推断:在给定证据时寻找使后验概率最大化的所有未观测变量的联合赋值的任务,在贝叶斯网络中等价于最大可能解释。",
term_es = "inferencia MAP",
term_zh = "MAP推断",
aliases_es = { "inferencia máxima a posteriori", "MPE", "explicación más probable" },
aliases_zh = { "最大后验推断", "MPE", "最可能解释" },
}
data["map4 fingerprint"] = {
short = "MinHashed Atom-Pair fingerprint up to 4 bonds: a molecular fingerprint that hashes shingles of atom-pair shortest paths up to length 4, designed for similarity search across molecules of widely different sizes including peptides and macrocycles.",
article = nil,
aliases = { "MAP4", "MAP4 fingerprint", "MinHashed Atom-Pair fingerprint", "MinHashed atom-pair 4-bond fingerprint" },
es = "Huella molecular MinHashed Atom-Pair de hasta 4 enlaces: representación que aplica hashing a fragmentos de pares atómicos sobre caminos mínimos de hasta longitud 4, diseñada para búsquedas de similitud entre moléculas de tamaños muy distintos, incluidos péptidos y macrociclos.",
zh = "MAP4 是最长 4 键的 MinHash 原子对指纹,对原子对最短路径的片段进行哈希编码,用于在尺寸差异很大的分子(包括多肽和大环)之间进行相似性搜索。",
term_es = "huella MAP4",
term_zh = "MAP4 指纹",
aliases_es = { "MAP4", "huella MAP4", "huella MinHashed Atom-Pair" },
aliases_zh = { "MAP4", "MAP4 指纹", "MinHash 原子对指纹" },
}
data["marginal likelihood"] = {
short = "The probability of the observed data under a model, integrated over all parameter values: P(D) = ∫ P(D|θ) P(θ) dθ. It serves as the normalizer of Bayes' theorem and as a model-comparison score (the model evidence).",
article = nil,
aliases = { "model evidence", "evidence", "marginal data likelihood", "Bayesian evidence", "P(D)", "Z" },
es = "Probabilidad de los datos observados bajo un modelo, integrada sobre todos los valores de los parámetros: P(D) = ∫ P(D|θ) P(θ) dθ. Sirve como normalizador del teorema de Bayes y como puntuación para comparar modelos (la evidencia del modelo).",
zh = "在某模型下,观测数据对所有参数取值积分得到的概率:P(D) = ∫ P(D|θ) P(θ) dθ。它既是贝叶斯定理的归一化常数,也是模型比较的依据(即模型证据)。",
term_es = "verosimilitud marginal",
term_zh = "边际似然",
aliases_es = { "evidencia del modelo", "evidencia", "evidencia bayesiana", "P(D)", "Z" },
aliases_zh = { "模型证据", "证据", "边缘似然", "P(D)", "Z" },
}
data["marginal map"] = {
short = "An inference problem that maximizes a marginal posterior over a subset of query variables, summing or integrating out the remaining variables; computationally harder than full MAP because maximization and summation must alternate.",
article = nil,
aliases = { "marginal MAP", "MMAP", "marginal MAP inference" },
es = "Problema de inferencia que maximiza una posterior marginal sobre un subconjunto de variables de consulta, sumando o integrando las restantes; computacionalmente más difícil que el MAP completo porque maximización y suma deben alternarse.",
zh = "一种推断问题:在查询变量子集上最大化边际后验,同时对其余变量求和或积分;由于最大化与求和必须交替进行,其计算难度高于完全MAP。",
term_es = "MAP marginal",
term_zh = "边际MAP",
aliases_es = { "MMAP", "inferencia MAP marginal" },
aliases_zh = { "MMAP", "marginal MAP" },
}
data["marginal polytope"] = {
short = "The convex set of vectors of mean parameters (singleton and clique marginals) that arise from some valid joint distribution over a graphical model; its description has exponentially many facets in general, motivating relaxations like the local polytope.",
article = nil,
aliases = { "marginal polytope of a graph", "mean parameter polytope" },
es = "Conjunto convexo de vectores de parámetros medios (marginales unitarios y de clique) que surgen de alguna distribución conjunta válida sobre un modelo gráfico; su descripción tiene en general un número exponencial de facetas, lo que motiva relajaciones como el politopo local.",
zh = "由概率图模型上某种有效联合分布产生的均值参数向量(一元与团边际)所构成的凸集;其一般有指数多个面,因而催生了局部多面体等松弛。",
term_es = "politopo marginal",
term_zh = "边际多面体",
aliases_es = { "politopo de marginales", "politopo de parámetros medios" },
aliases_zh = { "marginal polytope", "均值参数多面体" },
}
data["marginal structural model"] = {
short = "A causal model for the marginal distribution of potential outcomes under hypothetical treatment regimes, fit to longitudinal data using inverse-probability-of-treatment weighting. It yields unbiased estimates of time-varying treatment effects in the presence of time-varying confounding affected by past treatment.",
article = nil,
aliases = { "MSM", "marginal structural models", "Marginal Structural Model", "Robins MSM" },
es = "Modelo causal para la distribución marginal de los resultados potenciales bajo regímenes de tratamiento hipotéticos, ajustado a datos longitudinales mediante ponderación por la probabilidad inversa del tratamiento. Permite estimar de forma insesgada efectos de tratamientos variables en el tiempo cuando hay confusión variable en el tiempo afectada por tratamientos previos.",
zh = "对潜在结果在假设处理方案下边际分布建模的因果模型,使用处理概率的逆概率加权对纵向数据进行拟合。在存在受过去处理影响的时变混杂时,可无偏估计时变处理效应。",
term_es = "modelo estructural marginal",
term_zh = "边际结构模型",
aliases_es = { "MSM", "modelos estructurales marginales", "modelo estructural marginal de Robins" },
aliases_zh = { "MSM", "Robins 边际结构模型" },
}
data["marginal treatment effect"] = {
short = "Introduced by Heckman and Vytlacil, the treatment effect for individuals at the margin of indifference between taking and not taking treatment, indexed by their unobserved resistance to treatment. Conventional parameters such as ATE, ATT, and LATE are weighted averages of MTEs.",
article = nil,
aliases = { "MTE", "Heckman-Vytlacil MTE", "marginal treatment effects" },
es = "Introducido por Heckman y Vytlacil, es el efecto del tratamiento para individuos en el margen de indiferencia entre recibir o no el tratamiento, indexado por su resistencia no observada al tratamiento. Parámetros convencionales como ATE, ATT y LATE son promedios ponderados de MTE.",
zh = "由 Heckman 和 Vytlacil 提出,指对处理无差异边际处个体的处理效应,按其对处理的不可观测抗拒程度索引。诸如 ATE、ATT 和 LATE 等常规参数都是 MTE 的加权平均。",
term_es = "efecto marginal del tratamiento",
term_zh = "边际处理效应",
aliases_es = { "MTE", "efecto de tratamiento marginal", "MTE de Heckman-Vytlacil" },
aliases_zh = { "MTE", "Heckman–Vytlacil 边际处理效应" },
}
data["marginalized importance sampling"] = {
short = "An off-policy evaluation technique that reweights observed data by ratios of state-visitation or state-action distributions rather than per-step policy ratios, dramatically reducing variance in long-horizon settings. Foundational in modern offline reinforcement learning.",
article = nil,
aliases = { "MIS", "marginalized IS", "stationary distribution importance sampling", "state-marginal importance sampling" },
es = "Técnica de evaluación fuera de política que repondera los datos observados mediante razones de distribuciones de visita a estados o estado-acción, en lugar de razones de política por paso, reduciendo drásticamente la varianza en horizontes largos. Es fundamental en aprendizaje por refuerzo fuera de línea moderno.",
zh = "一种离策略评估技术,使用状态访问或状态-动作分布的比率而非逐步策略比率对观察数据进行重加权,可在长时程问题中大幅降低方差。它是现代离线强化学习的基础方法之一。",
term_es = "muestreo por importancia marginalizado",
term_zh = "边缘化重要性采样",
aliases_es = { "MIS", "muestreo de importancia marginalizado", "muestreo de importancia sobre distribución estacionaria" },
aliases_zh = { "MIS", "状态边缘重要性采样", "稳态分布重要性采样" },
}
data["marker gene detection"] = {
short = "Identification of genes whose expression is enriched in a particular cluster, cell type, or condition relative to others. Standard step in single-cell RNA-seq analysis for cell-type annotation.",
article = nil,
aliases = { "marker gene identification", "marker gene discovery", "marker detection", "cell type marker detection" },
es = "Identificación de genes cuya expresión está enriquecida en un grupo, tipo celular o condición particular respecto a los demás. Paso estándar en el análisis de RNA-seq de célula única para anotar tipos celulares.",
zh = "识别相对于其他群体在特定簇、细胞类型或条件中表达富集的基因,是单细胞 RNA-seq 分析中用于细胞类型注释的标准步骤。",
term_es = "detección de genes marcadores",
term_zh = "标志基因检测",
aliases_es = { "identificación de genes marcadores", "descubrimiento de genes marcadores", "detección de marcadores celulares" },
aliases_zh = { "标记基因检测", "标志基因识别", "细胞类型标志物检测" },
}
data["markov blanket"] = {
short = "The minimal set of variables that renders a target node conditionally independent of all other variables in the network; in a Bayesian network it consists of the node's parents, children, and the other parents of those children.",
article = nil,
aliases = { "Markov blanket", "MB" },
es = "Conjunto mínimo de variables que hace que un nodo objetivo sea condicionalmente independiente de todas las demás variables de la red; en una red bayesiana está formado por los padres, los hijos y los demás padres de esos hijos.",
zh = "使目标节点在给定下条件独立于网络中所有其他变量的最小变量集合;在贝叶斯网络中由该节点的父节点、子节点以及这些子节点的其他父节点构成。",
term_es = "manto de Markov",
term_zh = "马尔可夫毯",
aliases_es = { "manta de Markov", "blanket de Markov", "MB" },
aliases_zh = { "马尔可夫毯子", "Markov blanket", "MB" },
}
data["markov chain monte carlo"] = {
short = "A family of algorithms that generates samples from a target distribution by simulating a Markov chain whose stationary distribution is that target. Used for posterior inference when direct sampling or normalization is infeasible.",
article = nil,
aliases = { "MCMC", "Markov chain Monte Carlo", "MCMC sampling", "MCMC methods" },
es = "Familia de algoritmos que genera muestras de una distribución objetivo simulando una cadena de Markov cuya distribución estacionaria es dicha distribución. Se usa para inferencia posterior cuando el muestreo directo o la normalización son inviables.",
zh = "一类算法,通过模拟以目标分布为平稳分布的马尔可夫链来生成该分布的样本。当直接采样或归一化不可行时,用于后验推断。",
term_es = "Markov chain Monte Carlo",
term_zh = "马尔可夫链蒙特卡洛",
aliases_es = { "MCMC", "muestreo MCMC", "métodos MCMC", "Monte Carlo por cadenas de Markov" },
aliases_zh = { "MCMC", "MCMC 采样", "MCMC 方法", "马氏链蒙特卡洛" },
}
data["markov decision process"] = {
short = "A mathematical framework for sequential decision making defined by a tuple (S, A, P, R, γ) of states, actions, transition probabilities, reward function, and discount factor, in which the next state depends only on the current state and action (the Markov property).",
article = nil,
aliases = { "MDP", "Markov Decision Process", "Markov decision processes" },
es = "Marco matemático para la toma de decisiones secuencial definido por una tupla (S, A, P, R, γ) de estados, acciones, probabilidades de transición, función de recompensa y factor de descuento, en el que el siguiente estado depende únicamente del estado y la acción actuales (propiedad de Markov).",
zh = "用于序贯决策的数学框架,由状态、动作、转移概率、奖励函数和折扣因子组成的元组 (S, A, P, R, γ) 定义,下一状态仅依赖于当前状态和动作(马尔可夫性)。",
term_es = "proceso de decisión de Markov",
term_zh = "马尔可夫决策过程",
aliases_es = { "MDP", "procesos de decisión de Markov" },
aliases_zh = { "MDP", "Markov决策过程" },
}
data["markov equivalence"] = {
short = "An equivalence relation between directed acyclic graphs whereby two DAGs are Markov equivalent if and only if they encode the same set of conditional independence relations; equivalently, they share the same skeleton and v-structures.",
article = nil,
aliases = { "Markov equivalence", "Markov equivalence of DAGs", "observational equivalence" },
es = "Relación de equivalencia entre grafos acíclicos dirigidos según la cual dos DAG son Markov-equivalentes si y solo si codifican el mismo conjunto de relaciones de independencia condicional; equivalentemente, comparten el mismo esqueleto y v-estructuras.",
zh = "有向无环图之间的等价关系:两个DAG马尔可夫等价当且仅当它们编码相同的条件独立关系集;等价地,它们具有相同的骨架与v结构。",
term_es = "equivalencia de Markov",
term_zh = "马尔可夫等价",
aliases_es = { "DAG Markov-equivalentes", "equivalencia observacional" },
aliases_zh = { "Markov等价", "观测等价" },
}
data["markov equivalence class"] = {
short = "The set of directed acyclic graphs that imply exactly the same set of conditional independence relations and therefore cannot be distinguished by observational data alone. Represented by a completed partially directed acyclic graph (CPDAG).",
article = nil,
aliases = { "Markov equivalence class", "MEC", "Markov-equivalence class", "equivalence class of DAGs" },
es = "Conjunto de grafos acíclicos dirigidos que implican exactamente las mismas relaciones de independencia condicional y por tanto no pueden distinguirse solo con datos observacionales. Se representa mediante un grafo acíclico parcialmente dirigido completo (CPDAG).",
zh = "蕴含完全相同条件独立关系的有向无环图集合,因而仅凭观察数据无法将其区分。通常用完成的部分有向无环图(CPDAG)来表示。",
term_es = "clase de equivalencia de Markov",
term_zh = "Markov 等价类",
aliases_es = { "MEC", "clase de equivalencia markoviana", "clase de equivalencia de DAGs" },
aliases_zh = { "MEC", "马尔可夫等价类", "DAG 等价类" },
}
data["markov inequality"] = {
short = "A basic concentration result stating that for any nonnegative random variable X and a > 0, P(X ≥ a) ≤ E[X]/a; provides the simplest tail bound and underlies the proofs of Chebyshev and Chernoff bounds.",
article = nil,
aliases = { "Markov's inequality", "Markov inequality", "Markov bound" },
es = "Resultado básico de concentración que afirma que para cualquier variable aleatoria no negativa X y a > 0, P(X ≥ a) ≤ E[X]/a; proporciona la cota de cola más simple y sustenta las pruebas de las cotas de Chebyshev y Chernoff.",
zh = "一条基础集中不等式:对任意非负随机变量 X 和 a > 0,有 P(X ≥ a) ≤ E[X]/a;它给出最简单的尾概率界,是 Chebyshev 和 Chernoff 界证明的基础。",
term_es = "desigualdad de Markov",
term_zh = "马尔可夫不等式",
aliases_es = { "desigualdad Markov", "cota de Markov" },
aliases_zh = { "Markov 不等式", "马尔科夫不等式" },
}
data["markov logic network"] = {
short = "A statistical relational model that attaches a real-valued weight to each first-order logic formula, defining a Markov random field over the ground atoms of a domain. Allows probabilistic inference and learning over relational data with hard and soft logical rules.",
article = nil,
aliases = { "MLN", "Markov logic networks", "Markov logic", "MLNs" },
es = "Modelo relacional estadístico que asocia un peso real a cada fórmula de lógica de primer orden, definiendo un campo aleatorio de Markov sobre los átomos básicos del dominio. Permite inferencia y aprendizaje probabilísticos sobre datos relacionales con reglas lógicas duras y blandas.",
zh = "一种统计关系模型,为每条一阶逻辑公式赋予实值权重,从而在领域基子上定义马尔可夫随机场,支持在关系数据上结合硬约束与软规则进行概率推断和学习。",
term_es = "red lógica de Markov",
term_zh = "马尔可夫逻辑网络",
aliases_es = { "MLN", "redes lógicas de Markov", "lógica de Markov" },
aliases_zh = { "MLN", "马尔可夫逻辑网", "马尔可夫逻辑" },
}
data["martingale"] = {
short = "A discrete- or continuous-time stochastic process whose conditional expected value at the next step, given the entire past, equals its current value; central to probability theory, sequential analysis, and stochastic calculus.",
article = nil,
aliases = { "martingales", "fair-game process", "martingale process" },
es = "Proceso estocástico en tiempo discreto o continuo cuya esperanza condicional del siguiente paso, dado todo el pasado, es igual a su valor actual; central en teoría de la probabilidad, análisis secuencial y cálculo estocástico.",
zh = "离散或连续时间的随机过程,其下一时刻在已知全部历史下的条件期望等于当前值;是概率论、序贯分析与随机微积分中的核心概念。",
term_es = "martingala",
term_zh = "鞅",
aliases_es = { "martingalas", "proceso martingala" },
aliases_zh = { "鞅过程", "martingale" },
}
data["martini force field"] = {
short = "A coarse-grained molecular force field that maps groups of about four heavy atoms to single interaction beads, enabling efficient simulation of lipid bilayers, proteins, and other biomolecular systems on long timescales.",
article = nil,
aliases = { "Martini", "MARTINI", "Martini force field", "Martini CG force field", "Martini model" },
es = "Campo de fuerzas molecular de grano grueso que asigna grupos de aproximadamente cuatro átomos pesados a una sola partícula de interacción, permitiendo simular eficientemente bicapas lipídicas, proteínas y otros sistemas biomoleculares en escalas de tiempo largas.",
zh = "一种粗粒度分子力场,通常将约四个重原子映射为单个相互作用珠子,可高效模拟脂双层、蛋白质等生物分子体系的长时间尺度行为。",
term_es = "campo de fuerzas Martini",
term_zh = "Martini 力场",
aliases_es = { "Martini", "campo de fuerzas Martini", "modelo Martini" },
aliases_zh = { "Martini", "Martini 力场", "Martini 粗粒度力场" },
}
data["masif"] = {
short = "Molecular Surface Interaction Fingerprinting: deep-learning framework that learns geometric and chemical fingerprints of protein molecular surfaces for tasks such as binding-site prediction and protein-protein interaction site identification.",
article = nil,
aliases = { "MaSIF", "Molecular Surface Interaction Fingerprinting", "MASIF" },
es = "Molecular Surface Interaction Fingerprinting: marco de aprendizaje profundo que aprende huellas geométricas y químicas de superficies moleculares de proteínas para tareas como la predicción de sitios de unión y la identificación de sitios de interacción proteína-proteína.",
zh = "Molecular Surface Interaction Fingerprinting:学习蛋白质分子表面几何与化学指纹的深度学习框架,用于结合位点预测和蛋白-蛋白相互作用位点识别等任务。",
term_es = "MaSIF",
term_zh = "MaSIF",
aliases_es = { "MASIF", "huellas de interacción de superficie molecular" },
aliases_zh = { "MASIF", "分子表面相互作用指纹" },
}
data["mask ctc"] = {
short = "A non-autoregressive automatic speech recognition method that first produces a CTC output, masks low-confidence tokens, and iteratively refines them with a conditional masked language model.",
article = nil,
aliases = { "Mask-CTC", "Mask CTC", "masked CTC" },
es = "Método de reconocimiento automático del habla no autorregresivo que produce primero una salida CTC, enmascara los tokens de baja confianza y los refina iterativamente con un modelo de lenguaje enmascarado condicional.",
zh = "一种非自回归语音识别方法,先产生 CTC 输出,将低置信度的标记进行掩码,再通过条件掩码语言模型迭代细化。",
term_es = "Mask-CTC",
term_zh = "Mask-CTC",
aliases_es = { "Mask CTC", "CTC enmascarado" },
aliases_zh = { "Mask CTC", "掩码CTC" },
}
data["mask r-cnn"] = {
short = "An instance segmentation framework introduced by He et al. in 2017 that extends Faster R-CNN with a parallel branch predicting a binary segmentation mask for each detected object, using RoIAlign to preserve spatial alignment.",
article = nil,
aliases = { "Mask R-CNN", "Mask RCNN", "Mask-RCNN" },
es = "Marco de segmentación de instancias presentado por He et al. en 2017 que extiende Faster R-CNN con una rama paralela que predice una máscara de segmentación binaria para cada objeto detectado, utilizando RoIAlign para preservar el alineamiento espacial.",
zh = "由 He 等人于 2017 年提出的实例分割框架,在 Faster R-CNN 基础上增加了一个并行分支,为每个检测到的物体预测二值分割掩码,并使用 RoIAlign 保持空间对齐。",
term_es = "Mask R-CNN",
term_zh = "Mask R-CNN",
aliases_es = { "Mask RCNN" },
aliases_zh = { "Mask RCNN" },
}
data["mask token"] = {
short = "A special placeholder token, typically written [MASK], that replaces selected input tokens during masked-language-model pretraining so the model learns to predict the original tokens from context.",
article = nil,
aliases = { "[MASK]", "MASK token", "[MASK] token", "masking token" },
es = "Token especial marcador, típicamente escrito [MASK], que sustituye a tokens de entrada seleccionados durante el preentrenamiento de modelos de lenguaje enmascarado, de modo que el modelo aprenda a predecir los tokens originales a partir del contexto.",
zh = "通常写作 [MASK] 的特殊占位 token,在掩码语言模型预训练时替换被选中的输入 token,使模型学习根据上下文预测原始 token。",
term_es = "token MASK",
term_zh = "MASK token",
aliases_es = { "[MASK]", "token de enmascaramiento", "token [MASK]" },
aliases_zh = { "[MASK]", "[MASK] 标记", "掩码标记", "掩码 token" },
}
data["maskclip"] = {
short = "A modification of CLIP that extracts dense, pixel-level visual features by removing the final attention pooling layer, enabling open-vocabulary semantic segmentation without additional training.",
article = nil,
aliases = { "MaskCLIP", "Mask-CLIP" },
es = "Modificación de CLIP que extrae características visuales densas a nivel de píxel eliminando la capa final de atención y agrupamiento, permitiendo segmentación semántica de vocabulario abierto sin entrenamiento adicional.",
zh = "对 CLIP 的一种改进,通过去除最后的注意力池化层来提取密集的像素级视觉特征,从而无需额外训练即可实现开放词汇的语义分割。",
term_es = "MaskCLIP",
term_zh = "MaskCLIP",
aliases_es = { "Mask-CLIP" },
aliases_zh = { "Mask-CLIP" },
}
data["masked acoustic model"] = {
short = "A self-supervised pre-training objective for speech in which segments of the acoustic input (frames or features) are masked and the model is trained to reconstruct or predict the missing content.",
article = nil,
aliases = { "MAM", "masked acoustic modeling", "masked acoustic modelling" },
es = "Objetivo de preentrenamiento autosupervisado para el habla en el que se enmascaran segmentos de la entrada acústica (cuadros o características) y el modelo se entrena para reconstruir o predecir el contenido faltante.",
zh = "一种用于语音的自监督预训练目标,对声学输入的片段(帧或特征)进行掩码,训练模型重建或预测被掩盖的内容。",
term_es = "modelo acústico enmascarado",
term_zh = "掩码声学模型",
aliases_es = { "MAM", "modelado acústico enmascarado" },
aliases_zh = { "MAM", "掩蔽声学模型" },
}
data["masked attention"] = {
short = "Attention computed with an additive mask that sets selected query-key scores to negative infinity before softmax, preventing those positions from contributing to the weighted sum.",
article = "Attention Mechanisms",
aliases = { "Masked Attention", "attention masking", "attention mask" },
es = "Atención calculada con una máscara aditiva que asigna menos infinito a determinados puntajes consulta-clave antes del softmax, evitando que esas posiciones contribuyan a la suma ponderada.",
zh = "在 softmax 之前使用加性掩码将选定的查询-键分数设为负无穷的注意力计算方式,从而阻止这些位置参与加权求和。",
term_es = "atención enmascarada",
term_zh = "掩码注意力",
aliases_es = { "masked attention", "enmascaramiento de atención", "máscara de atención" },
aliases_zh = { "masked attention", "注意力掩码", "屏蔽注意力" },
}
data["masked attribution"] = {
short = "A family of attribution methods that estimate a feature's importance by masking it (replacing it with a baseline or special token) and measuring the resulting change in the model's output.",
article = nil,
aliases = { "mask-based attribution", "occlusion attribution", "masking-based importance" },
es = "Familia de métodos de atribución que estiman la importancia de un rasgo enmascarándolo (sustituyéndolo por un valor base o un token especial) y midiendo el cambio resultante en la salida del modelo.",
zh = "一类归因方法,通过对特征进行掩码(替换为基线值或特殊 token)并测量模型输出的变化来估计该特征的重要性。",
term_es = "atribución por enmascaramiento",
term_zh = "掩码归因",
aliases_es = { "atribución basada en máscaras", "atribución por oclusión", "importancia por enmascaramiento" },
aliases_zh = { "基于掩码的归因", "遮挡归因", "掩蔽归因" },
}
data["masked autoencoder"] = {
short = "A self-supervised vision pretraining method (MAE) that randomly masks a high fraction of image patches and trains an encoder-decoder transformer to reconstruct the missing pixels from the visible ones.",
article = nil,
aliases = { "MAE", "masked autoencoders" },
es = "Método de preentrenamiento autosupervisado en visión (MAE) que enmascara aleatoriamente una fracción alta de los parches de la imagen y entrena un transformador codificador-decodificador para reconstruir los píxeles faltantes a partir de los visibles.",
zh = "一种自监督视觉预训练方法(MAE),随机遮盖图像的大部分图块,并训练编码器-解码器Transformer从可见图块重建缺失像素。",
term_es = "autoencoder enmascarado",
term_zh = "掩码自编码器",
aliases_es = { "MAE", "autocodificador enmascarado" },
aliases_zh = { "MAE", "masked autoencoder" },
}
data["masked autoregressive flow posterior"] = {
short = "A variational posterior parameterized as a masked autoregressive flow, transforming a simple base distribution through autoregressive affine layers to express rich, correlated approximations of Bayesian neural-network weights.",
article = nil,
aliases = { "MAF posterior", "MAF variational posterior", "autoregressive flow posterior" },
es = "Posterior variacional parametrizado como un flujo autorregresivo enmascarado, transformando una distribución base simple mediante capas afines autorregresivas para expresar aproximaciones ricas y correlacionadas de los pesos de redes neuronales bayesianas.",
zh = "以掩码自回归流(MAF)参数化的变分后验,通过自回归仿射层把简单基分布变换为对贝叶斯神经网络权重的丰富、相关的近似。",
term_es = "posterior por MAF",
term_zh = "掩码自回归流后验",
aliases_es = { "posterior MAF", "posterior variacional MAF", "posterior con flujo autorregresivo" },
aliases_zh = { "MAF 后验", "MAF 变分后验", "自回归流后验" },
}
data["masked image editing"] = {
short = "An image editing paradigm in which a binary mask designates the region to modify and a generative model — typically a diffusion model — synthesizes content for the masked area conditioned on a text prompt or reference.",
article = nil,
aliases = { "mask-based image editing", "masked image inpainting editing" },
es = "Paradigma de edición de imágenes en el que una máscara binaria designa la región a modificar y un modelo generativo — típicamente un modelo de difusión — sintetiza contenido para el área enmascarada condicionado a un texto o referencia.",
zh = "一种图像编辑范式,使用二值掩码指定要修改的区域,并由生成模型(通常是扩散模型)在文本提示或参考条件下为掩码区域合成内容。",
term_es = "edición de imágenes con máscara",
term_zh = "掩码图像编辑",
aliases_es = { "edición enmascarada de imágenes", "masked image editing" },
aliases_zh = { "蒙版图像编辑", "masked image editing" },
}
data["masked language model"] = {
short = "A language model trained to predict tokens that have been randomly replaced with a mask symbol, conditioning on both left and right context. Introduced as the pretraining objective of BERT.",
article = nil,
aliases = { "MLM", "masked LM", "masked language modeling", "BERT-style pretraining" },
es = "Modelo de lenguaje entrenado para predecir tokens que han sido reemplazados aleatoriamente por un símbolo de máscara, condicionando tanto en el contexto izquierdo como en el derecho. Introducido como objetivo de preentrenamiento de BERT.",
zh = "一种语言模型,训练目标是预测被随机替换为掩码符号的词元,同时利用左右两侧上下文。最初作为 BERT 的预训练目标提出。",
term_es = "modelo de lenguaje enmascarado",
term_zh = "掩码语言模型",
aliases_es = { "MLM", "modelado de lenguaje enmascarado", "preentrenamiento estilo BERT" },
aliases_zh = { "MLM", "遮蔽语言模型", "掩蔽语言模型" },
}
data["masksembles"] = {
short = "An ensemble method that produces multiple predictions from a single network by applying a fixed set of binary masks to its activations, interpolating between MC-dropout and deep ensembles in cost and diversity.",
article = nil,
aliases = { "Masksemble", "mask ensembles", "Masksembles ensemble" },
es = "Método de ensamble que produce múltiples predicciones a partir de una sola red aplicando un conjunto fijo de máscaras binarias a sus activaciones, interpolando entre MC-dropout y deep ensembles en costo y diversidad.",
zh = "一种集成方法:对单个网络的激活施加一组固定的二值掩码以产生多次预测,在成本与多样性上介于 MC-dropout 和深度集成之间。",
term_es = "Masksembles",
term_zh = "Masksembles",
aliases_es = { "Masksemble", "ensambles por máscaras" },
aliases_zh = { "Masksemble", "掩码集成", "Masksembles 集成" },
}
data["mass spectrometry"] = {
short = "Analytical technique that ionizes molecules and separates the resulting ions according to mass-to-charge ratio, used to identify and quantify proteins, peptides, metabolites, and lipids in biological samples.",
article = nil,
aliases = { "MS", "mass spec", "mass-spectrometry", "mass spectrometric analysis" },
es = "Técnica analítica que ioniza moléculas y separa los iones resultantes según su relación masa-carga, utilizada para identificar y cuantificar proteínas, péptidos, metabolitos y lípidos en muestras biológicas.",
zh = "将分子电离并按质荷比分离所产生离子的分析技术,用于鉴定和定量生物样品中的蛋白质、肽、代谢物和脂质。",
term_es = "espectrometría de masas",
term_zh = "质谱法",
aliases_es = { "MS", "espectrometría de masa", "análisis por espectrometría de masas" },
aliases_zh = { "质谱", "MS", "质谱分析" },
}
data["mat"] = {
short = "Molecule Attention Transformer: a transformer architecture for molecular property prediction that augments self-attention with a learned interatomic distance matrix and graph adjacency, enabling learning directly from atom features and 3D geometry.",
article = nil,
aliases = { "MAT", "Molecule Attention Transformer" },
es = "Molecule Attention Transformer: arquitectura tipo transformer para predicción de propiedades moleculares que aumenta la auto-atención con una matriz aprendida de distancias interatómicas y la adyacencia del grafo, permitiendo aprender directamente sobre características atómicas y geometría 3D.",
zh = "Molecule Attention Transformer:一种用于分子性质预测的 Transformer 架构,在自注意力中引入学习到的原子间距离矩阵与图邻接关系,可直接从原子特征和三维几何结构中学习。",
term_es = "MAT",
term_zh = "MAT",
aliases_es = { "MAT", "Molecule Attention Transformer" },
aliases_zh = { "MAT", "Molecule Attention Transformer", "分子注意力 Transformer" },
}
data["matched molecular pairs"] = {
short = "Pairs of molecules that differ only by a single, well-defined chemical transformation, used in medicinal chemistry to attribute changes in properties such as potency, solubility, or metabolism to specific structural modifications.",
article = nil,
aliases = { "MMP", "MMPs", "matched molecular pair", "matched molecular pair analysis" },
es = "Pares de moléculas que difieren únicamente por una transformación química bien definida, utilizadas en química medicinal para atribuir cambios en propiedades como potencia, solubilidad o metabolismo a modificaciones estructurales específicas.",
zh = "仅在单一明确化学转化上不同的分子对,在药物化学中用于将活性、溶解度或代谢等性质的变化归因于特定的结构修饰。",
term_es = "pares moleculares emparejados",
term_zh = "匹配分子对",
aliases_es = { "MMP", "pares moleculares emparejados", "pares de moléculas emparejadas" },
aliases_zh = { "MMP", "匹配分子对", "配对分子" },
}
data["matching estimator"] = {
short = "A causal estimator that imputes counterfactual outcomes for each treated unit using outcomes of one or more control units that are similar on observed covariates. Bias depends on covariate dimension and matching metric and admits formal large-sample theory.",
article = nil,
aliases = { "matching estimator", "matching-based estimator", "Abadie-Imbens matching estimator", "nearest-neighbor matching estimator" },
es = "Estimador causal que imputa los resultados contrafactuales de cada unidad tratada usando los resultados de una o más unidades de control similares en covariables observadas. El sesgo depende de la dimensión de las covariables y de la métrica de emparejamiento, y admite teoría asintótica formal.",
zh = "一种因果估计量,用与处理单位在可观测协变量上相似的一个或多个对照单位的结果来填补其反事实结果。其偏差取决于协变量维度与匹配度量,并具有正式的大样本理论。",
term_es = "estimador por emparejamiento",
term_zh = "匹配估计量",
aliases_es = { "estimador de matching", "estimador por matching", "estimador de Abadie-Imbens" },
aliases_zh = { "匹配法估计量", "Abadie–Imbens 匹配估计量", "最近邻匹配估计量" },
}
data["matching networks"] = {
short = "A few-shot classification model (Vinyals et al., 2016) that classifies a query example by computing an attention-weighted average of support-set labels, where weights come from a learned similarity function in an embedding space.",
article = nil,
aliases = { "Matching Networks", "matching network", "Matching Nets" },
es = "Modelo de clasificación few-shot (Vinyals et al., 2016) que clasifica un ejemplo de consulta calculando un promedio ponderado por atención de las etiquetas del conjunto de soporte, donde los pesos provienen de una función de similitud aprendida en un espacio de embeddings.",
zh = "一种小样本分类模型(Vinyals 等,2016),通过对支持集中样本标签按注意力权重加权求和来对查询样本进行分类,权重由嵌入空间中学习到的相似度函数给出。",
term_es = "Matching Networks",
term_zh = "Matching Networks",
aliases_es = { "redes de emparejamiento", "redes matching", "Matching Nets" },
aliases_zh = { "匹配网络", "Matching Nets" },
}
data["matching weights"] = {
short = "Weights induced by a matching procedure that, when applied to the original data, reproduce the matched sample for downstream analysis. They allow matching estimators to be expressed as weighted regressions and combined with parametric outcome models.",
article = nil,
aliases = { "matching weights", "matched-sample weights", "match-induced weights" },
es = "Pesos inducidos por un procedimiento de emparejamiento que, aplicados a los datos originales, reproducen la muestra emparejada para análisis posteriores. Permiten expresar los estimadores por emparejamiento como regresiones ponderadas y combinarlos con modelos de resultado paramétricos.",
zh = "由匹配过程导出的权重,作用于原始数据时可重现匹配样本以供后续分析。借此可将匹配估计量表示为加权回归,并与参数化结果模型结合。",
term_es = "pesos de emparejamiento",
term_zh = "匹配权重",
aliases_es = { "ponderaciones de matching", "pesos de matching" },
aliases_zh = { "匹配诱导权重", "匹配样本权重" },
}
data["matching with replacement"] = {
short = "A matching design in which each control unit may serve as the match for more than one treated unit. It generally reduces bias relative to without-replacement matching at the cost of higher variance and effective sample size loss.",
article = nil,
aliases = { "with-replacement matching", "matching with replacement", "replacement matching" },
es = "Diseño de emparejamiento en el que cada unidad de control puede servir como emparejada para más de una unidad tratada. Suele reducir el sesgo respecto al emparejamiento sin reemplazo, a costa de mayor varianza y pérdida del tamaño efectivo de muestra.",
zh = "一种匹配方案,允许每个对照单位作为多个处理单位的匹配对象。相比无放回匹配通常可降低偏差,但代价是方差增大和有效样本量减少。",
term_es = "emparejamiento con reemplazo",
term_zh = "有放回匹配",
aliases_es = { "matching con reemplazo", "emparejamiento con reposición" },
aliases_zh = { "可重复匹配", "可重用对照匹配", "with-replacement 匹配" },
}
data["matching without replacement"] = {
short = "A matching design in which each control unit can be matched to at most one treated unit. It tends to produce larger bias than with-replacement matching when good matches are scarce, but yields a simpler matched sample and smaller variance.",
article = nil,
aliases = { "without-replacement matching", "matching without replacement", "no-replacement matching" },
es = "Diseño de emparejamiento en el que cada unidad de control puede emparejarse a lo sumo con una unidad tratada. Suele producir mayor sesgo que el emparejamiento con reemplazo cuando hay pocos buenos matches, pero genera una muestra emparejada más simple y de menor varianza.",
zh = "一种匹配方案,每个对照单位最多只能与一个处理单位配对。当优质匹配稀少时偏差通常大于有放回匹配,但产生的匹配样本更简单且方差更小。",
term_es = "emparejamiento sin reemplazo",
term_zh = "无放回匹配",
aliases_es = { "matching sin reemplazo", "emparejamiento sin reposición" },
aliases_zh = { "不重复匹配", "without-replacement 匹配" },
}
data["matern kernel"] = {
short = "A family of stationary covariance functions for Gaussian processes parameterized by a smoothness parameter ν that controls mean-square differentiability, generalizing the RBF kernel (ν → ∞) and the exponential kernel (ν = 1/2).",
article = nil,
aliases = { "Matérn kernel", "Matern covariance function", "Matérn covariance" },
es = "Familia de funciones de covarianza estacionarias para procesos gaussianos parametrizada por un parámetro de suavidad ν que controla la diferenciabilidad cuadrática media, generalizando el núcleo RBF (ν → ∞) y el núcleo exponencial (ν = 1/2).",
zh = "高斯过程的一族平稳协方差函数,由平滑度参数 ν 控制均方可微性,并将 RBF 核(ν → ∞)和指数核(ν = 1/2)作为特例。",
term_es = "núcleo de Matérn",
term_zh = "Matérn 核",
aliases_es = { "kernel Matérn", "función de covarianza de Matérn" },
aliases_zh = { "Matern 核", "Matérn 协方差函数", "马特恩核" },
}
data["math benchmark"] = {
short = "A benchmark of 12,500 competition mathematics problems (algebra, geometry, number theory, etc.) with step-by-step solutions, used to evaluate advanced mathematical reasoning of language models.",
article = nil,
aliases = { "MATH", "MATH dataset", "MATH benchmark", "Hendrycks MATH" },
es = "Benchmark de 12.500 problemas matemáticos de competición (álgebra, geometría, teoría de números, etc.) con soluciones paso a paso, usado para evaluar el razonamiento matemático avanzado de modelos de lenguaje.",
zh = "一项包含 12500 道竞赛数学题(代数、几何、数论等)及详细解答步骤的基准,用于评估语言模型的高级数学推理能力。",
term_es = "MATH",
term_zh = "MATH 基准",
aliases_es = { "MATH", "benchmark MATH", "conjunto MATH" },
aliases_zh = { "MATH", "MATH 数据集", "Hendrycks MATH" },
}
data["mathstral"] = {
short = "A 7-billion-parameter language model released by Mistral AI in July 2024, fine-tuned from Mistral 7B on mathematical reasoning data and evaluated on MATH and GSM8K benchmarks.",
article = nil,
aliases = { "Mathstral", "Mathstral 7B", "Mathstral-7B" },
es = "Modelo de lenguaje de 7 mil millones de parámetros publicado por Mistral AI en julio de 2024, ajustado a partir de Mistral 7B con datos de razonamiento matemático y evaluado en los bancos de pruebas MATH y GSM8K.",
zh = "Mistral AI 于 2024 年 7 月发布的 70 亿参数语言模型,基于 Mistral 7B 在数学推理数据上微调,并在 MATH 与 GSM8K 等基准上评测。",
term_es = "Mathstral",
term_zh = "Mathstral",
aliases_es = { "Mathstral 7B", "Mathstral-7B" },
aliases_zh = { "Mathstral 7B", "Mathstral-7B" },
}
data["mathvision"] = {
short = "A benchmark of competition-level mathematical problems with visual context, designed to evaluate the multimodal mathematical reasoning ability of large vision-language models.",
article = nil,
aliases = { "MathVision", "MATH-Vision", "MATH-V" },
es = "Benchmark de problemas matemáticos a nivel de competencia con contexto visual, diseñado para evaluar la capacidad de razonamiento matemático multimodal de grandes modelos de visión-lenguaje.",
zh = "一个包含竞赛级数学题目的视觉化基准,用于评估大型视觉-语言模型的多模态数学推理能力。",
term_es = "MathVision",
term_zh = "MathVision",
aliases_es = { "MATH-Vision", "MATH-V" },
aliases_zh = { "MATH-Vision", "MATH-V" },
}
data["mathvista"] = {
short = "A benchmark for evaluating mathematical reasoning of multimodal models in visual contexts, combining tasks from existing math and visual datasets to cover algebraic, geometric, statistical, and logical reasoning.",
article = nil,
aliases = { "MathVista" },
es = "Benchmark para evaluar el razonamiento matemático de modelos multimodales en contextos visuales, que combina tareas de conjuntos de datos matemáticos y visuales existentes para cubrir razonamiento algebraico, geométrico, estadístico y lógico.",
zh = "一个用于评估多模态模型在视觉环境中数学推理能力的基准,整合了现有数学和视觉数据集的任务,涵盖代数、几何、统计和逻辑推理。",
term_es = "MathVista",
term_zh = "MathVista",
aliases_es = {},
aliases_zh = {},
}
data["matrix"] = {
short = "A rectangular array of numbers arranged in rows and columns that represents a linear map between vector spaces; matrices are the basic data and parameter structures for linear algebra computations in machine learning.",
article = nil,
aliases = { "matrices", "rectangular array", "2D tensor", "rank-2 tensor" },
es = "Arreglo rectangular de números dispuesto en filas y columnas que representa una aplicación lineal entre espacios vectoriales; las matrices son las estructuras básicas de datos y de parámetros para los cálculos de álgebra lineal en aprendizaje automático.",
zh = "由数按行和列排列成的矩形数组,用以表示向量空间之间的线性映射;矩阵是机器学习中线性代数计算的基本数据与参数结构。",
term_es = "matriz",
term_zh = "矩阵",
aliases_es = { "matrices", "arreglo rectangular", "tensor 2D", "tensor de rango 2" },
aliases_zh = { "矩阵阵列", "二维张量", "二阶张量", "rank-2 张量" },
}
data["matrix completion estimator"] = {
short = "A causal panel-data estimator that treats unobserved counterfactual outcomes as missing entries in an outcome matrix and recovers them via low-rank matrix completion. Introduced by Athey et al. (2021) as a flexible alternative to synthetic control and difference-in-differences.",
article = nil,
aliases = { "matrix completion estimator", "MC-NNM", "matrix completion with nuclear norm minimization", "Athey matrix completion" },
es = "Estimador causal con datos de panel que trata los resultados contrafactuales no observados como entradas faltantes de una matriz de resultados y los recupera mediante completado de matrices de bajo rango. Introducido por Athey et al. (2021) como alternativa flexible al control sintético y a diferencias en diferencias.",
zh = "面向面板数据的因果估计量,将未观测的反事实结果视为结果矩阵中的缺失项,并通过低秩矩阵补全进行恢复。由 Athey 等人(2021)提出,是合成控制法和双重差分法的灵活替代方案。",
term_es = "estimador por completado de matrices",
term_zh = "矩阵补全估计量",
aliases_es = { "estimador de matrix completion", "MC-NNM", "completado de matrices con norma nuclear" },
aliases_zh = { "MC-NNM", "核范数矩阵补全估计量", "Athey 矩阵补全" },
}
data["matrix multiplication"] = {
short = "A binary operation that takes an m×k matrix A and a k×n matrix B and returns an m×n matrix whose (i,j) entry is the dot product of row i of A with column j of B. Composes linear maps.",
article = nil,
aliases = { "matrix product", "matmul", "matrix-matrix product" },
es = "Operación binaria que toma una matriz A de tamaño m×k y una matriz B de tamaño k×n, devolviendo una matriz m×n cuyo elemento (i,j) es el producto punto de la fila i de A con la columna j de B. Compone aplicaciones lineales.",
zh = "一种二元运算,对 m×k 矩阵 A 和 k×n 矩阵 B 进行计算,得到一个 m×n 矩阵,其 (i,j) 元素为 A 的第 i 行与 B 的第 j 列的点积。它实现了线性映射的复合。",
term_es = "multiplicación de matrices",
term_zh = "矩阵乘法",
aliases_es = { "producto matricial", "matmul", "producto de matrices" },
aliases_zh = { "矩阵相乘", "matmul", "矩阵乘积" },
}
data["matrix rank"] = {
short = "The dimension of the vector space spanned by the columns (equivalently, the rows) of a matrix. Measures the number of linearly independent directions in the matrix.",
article = nil,
aliases = { "rank of a matrix", "rank", "column rank", "row rank" },
es = "Dimensión del espacio vectorial generado por las columnas (equivalentemente, las filas) de una matriz. Mide el número de direcciones linealmente independientes en la matriz.",
zh = "矩阵的列(等价地,行)所张成向量空间的维数。衡量矩阵中线性无关方向的数量。",
term_es = "rango de una matriz",
term_zh = "矩阵的秩",
aliases_es = { "rango matricial", "rango" },
aliases_zh = { "矩阵秩", "秩" },
}
data["matrix scaling"] = {
short = "A post-hoc multiclass calibration method that learns a full matrix transform of the logits (and a bias) by minimizing negative log-likelihood on a held-out set, generalizing temperature and vector scaling.",
article = nil,
aliases = { "matrix scaling calibration", "logit matrix scaling", "linear logit calibration" },
es = "Método de calibración multiclase post-hoc que aprende una transformación matricial completa de los logits (más un sesgo) minimizando la log-verosimilitud negativa sobre un conjunto de validación, generalizando la escala de temperatura y la escala vectorial.",
zh = "一种事后多类校准方法:在保留集上最小化负对数似然,学习对 logits 的完整矩阵变换(以及偏置项),是温度缩放和向量缩放的推广。",
term_es = "escala matricial",
term_zh = "矩阵缩放",
aliases_es = { "calibración por escala matricial", "calibración matricial de logits" },
aliases_zh = { "矩阵缩放校准", "logit 矩阵缩放", "线性 logit 校准" },
}
data["matrix-variate gaussian posterior"] = {
short = "A variational posterior over a weight matrix given by a matrix-normal distribution with separate row and column covariances, capturing structured correlations more compactly than a full multivariate Gaussian.",
article = nil,
aliases = { "matrix variate Gaussian posterior", "matrix normal posterior", "MVG posterior", "matrix-Gaussian posterior" },
es = "Posterior variacional sobre una matriz de pesos dado por una distribución normal matricial con covarianzas separadas para filas y columnas, capturando correlaciones estructuradas de forma más compacta que una gaussiana multivariada completa.",
zh = "一种针对权重矩阵的变分后验,由具有分离行/列协方差的矩阵正态分布给出,可比完整多元高斯更紧凑地刻画结构化相关性。",
term_es = "posterior gaussiano matriz-variado",
term_zh = "矩阵正态后验",
aliases_es = { "posterior normal matricial", "posterior gaussiano de matriz", "posterior MVG" },
aliases_zh = { "矩阵高斯后验", "矩阵变量高斯后验", "MVG 后验" },
}
data["matryoshka embedding"] = {
short = "An embedding produced by Matryoshka Representation Learning, where the leading prefix of every vector is itself a valid lower-dimensional embedding, allowing a single model to serve multiple dimensionality budgets without retraining.",
article = nil,
aliases = { "Matryoshka Representation Learning", "MRL", "matryoshka representation", "matryoshka embeddings", "nested embedding" },
es = "Embedding producido por Matryoshka Representation Learning, donde el prefijo inicial de cada vector constituye por sí mismo un embedding válido de menor dimensión, lo que permite que un único modelo sirva varios presupuestos de dimensionalidad sin reentrenar.",
zh = "由 Matryoshka 表示学习产生的嵌入,每个向量的前缀本身即是一个有效的低维嵌入,从而单一模型无需重训练即可服务多种维度预算。",
term_es = "embedding matryoshka",
term_zh = "套娃嵌入",
aliases_es = { "Matryoshka Representation Learning", "MRL", "representación matryoshka" },
aliases_zh = { "matryoshka 嵌入", "MRL", "嵌套嵌入" },
}
data["mauve"] = {
short = "An open-ended text generation evaluation metric that estimates the divergence between the distributions of human and machine-generated text in a quantized embedding space using a divergence frontier.",
article = nil,
aliases = { "MAUVE", "Mauve" },
es = "Métrica de evaluación de generación abierta de texto que estima la divergencia entre las distribuciones de texto humano y generado por máquina en un espacio de embeddings cuantizado mediante una frontera de divergencia.",
zh = "一种用于开放式文本生成评价的指标,通过在量化的嵌入空间中估计人类文本与机器生成文本分布之间的散度,绘制散度前沿。",
term_es = "MAUVE",
term_zh = "MAUVE",
aliases_es = { "MAUVE" },
aliases_zh = { "MAUVE" },
}
data["max logit score"] = {
short = "An out-of-distribution detection score given by the maximum value of the pre-softmax logits of a classifier, with smaller maxima indicating more uncertain or out-of-distribution inputs.",
article = nil,
aliases = { "MaxLogit", "maximum logit score", "max-logit OOD score", "MaxLogit OOD score" },
es = "Puntaje de detección fuera de distribución dado por el valor máximo de los logits previos al softmax de un clasificador; valores máximos más pequeños indican entradas más inciertas o fuera de distribución.",
zh = "一种分布外检测分数,取分类器 softmax 之前 logits 的最大值,最大值越小表示输入越不确定或越可能为分布外。",
term_es = "puntaje del logit máximo",
term_zh = "最大 logit 分数",
aliases_es = { "MaxLogit", "puntaje MaxLogit", "puntaje OOD por logit máximo" },
aliases_zh = { "MaxLogit", "最大 logit OOD 分数", "MaxLogit OOD 分数" },
}
data["max pooling"] = {
short = "A pooling operation that outputs the maximum value within each local spatial window of the input feature map, retaining the strongest activations while reducing spatial dimensions.",
article = nil,
aliases = { "maxpool", "max-pooling", "MaxPool" },
es = "Operación de pooling que devuelve el valor máximo dentro de cada ventana espacial local del mapa de características de entrada, conservando las activaciones más fuertes mientras reduce las dimensiones espaciales.",
zh = "一种池化操作,输出输入特征图每个局部空间窗口内的最大值,在降低空间维度的同时保留最强的激活。",
term_es = "max pooling",
term_zh = "最大池化",
aliases_es = { "agrupación máxima", "pooling máximo" },
aliases_zh = { "max pooling", "最大值池化" },
}
data["max softmax probability"] = {
short = "The largest entry of a classifier's softmax output, used as a baseline confidence score for misclassification and out-of-distribution detection.",
article = nil,
aliases = { "MSP", "maximum softmax probability", "max-softmax probability", "softmax confidence" },
es = "El valor máximo de la salida softmax de un clasificador, utilizado como puntaje de confianza de referencia para la detección de errores de clasificación y de muestras fuera de distribución.",
zh = "分类器 softmax 输出中的最大分量,常用作误分类和分布外检测的基线置信度指标。",
term_es = "probabilidad softmax máxima",
term_zh = "最大 softmax 概率",
aliases_es = { "MSP", "máxima probabilidad softmax", "confianza softmax" },
aliases_zh = { "MSP", "softmax 最大概率", "softmax 置信度" },
}
data["max-min fairness"] = {
short = "An allocation principle that maximizes the minimum utility (or minimum acceptance rate, accuracy, etc.) across groups or individuals, prioritizing the worst-off as a Rawlsian fairness objective.",
article = nil,
aliases = { "max min fairness", "maximin fairness", "Rawlsian fairness", "min-max welfare" },
es = "Principio de asignación que maximiza la utilidad mínima (o la tasa mínima de aceptación, exactitud, etc.) entre grupos o individuos, priorizando a los más desfavorecidos como objetivo de equidad rawlsiana.",
zh = "一种分配原则,最大化群体或个体间的最小效用(或最小接受率、准确率等),以罗尔斯式公平目标优先考虑最弱势者。",
term_es = "equidad max-min",
term_zh = "最大最小公平",
aliases_es = { "equidad maximin", "equidad rawlsiana" },
aliases_zh = { "最大最小公平性", "max-min 公平", "罗尔斯式公平" },
}
data["max-value entropy search"] = {
short = "An information-theoretic acquisition function for Bayesian optimization that selects query points maximizing the mutual information with the unknown maximum value of the objective.",
article = nil,
aliases = { "MES", "max value entropy search", "max-value entropy" },
es = "Función de adquisición de teoría de la información para la optimización bayesiana que selecciona los puntos de consulta que maximizan la información mutua con el valor máximo desconocido del objetivo.",
zh = "一种用于贝叶斯优化的信息论采集函数,选择能最大化与目标未知最大值之间互信息的查询点。",
term_es = "max-value entropy search",
term_zh = "最大值熵搜索",
aliases_es = { "MES", "búsqueda por entropía del valor máximo" },
aliases_zh = { "MES", "max-value entropy search", "最大值信息熵搜索" },
}
data["maximally activating example"] = {
short = "An input that produces the highest activation for a given neuron, channel, or feature direction, used to qualitatively characterize what that unit has learned to detect.",
article = nil,
aliases = { "max activating example", "top activating example", "MAX example", "maximally activating input" },
es = "Entrada que produce la activación más alta para una neurona, canal o dirección de rasgo dada; se usa para caracterizar cualitativamente qué ha aprendido a detectar esa unidad.",
zh = "使给定神经元、通道或特征方向产生最高激活的输入,用于定性地刻画该单元学到检测什么内容。",
term_es = "ejemplo de máxima activación",
term_zh = "最大激活样本",
aliases_es = { "ejemplo activador máximo", "ejemplo de mayor activación", "entrada de máxima activación" },
aliases_zh = { "最大激活示例", "最高激活样本", "Top 激活样本" },
}
data["maximum a posteriori"] = {
short = "A point estimate of a parameter equal to the mode of its posterior distribution, θ_MAP = argmax_θ P(θ|D) ∝ P(D|θ) P(θ). MAP coincides with maximum likelihood under a flat prior and adds prior-driven regularization otherwise.",
article = nil,
aliases = { "MAP", "MAP estimation", "maximum a posteriori estimation", "MAP estimate", "posterior mode" },
es = "Estimación puntual de un parámetro igual a la moda de su distribución posterior, θ_MAP = argmax_θ P(θ|D) ∝ P(D|θ) P(θ). MAP coincide con la máxima verosimilitud bajo una prior uniforme y, en caso contrario, añade una regularización inducida por la prior.",
zh = "参数的点估计,等于其后验分布的众数:θ_MAP = argmax_θ P(θ|D) ∝ P(D|θ) P(θ)。在使用均匀先验时 MAP 与最大似然一致,否则相当于加入由先验引入的正则化。",
term_es = "máximo a posteriori",
term_zh = "最大后验",
aliases_es = { "MAP", "estimación MAP", "moda posterior" },
aliases_zh = { "MAP", "最大后验估计", "MAP 估计", "后验众数" },
}
data["maximum calibration error"] = {
short = "The largest absolute gap between confidence and accuracy across confidence bins, MCE = max_b |conf(B_b) − acc(B_b)|. Sensitive to worst-case calibration failures rather than average miscalibration.",
article = nil,
aliases = { "MCE" },
es = "Mayor brecha absoluta entre confianza y exactitud entre los bins de confianza, MCE = max_b |conf(B_b) − acc(B_b)|. Es sensible al peor caso de calibración, en lugar de a la descalibración promedio.",
zh = "各置信度分箱中 |置信度 − 准确率| 的最大值,MCE = max_b |conf(B_b) − acc(B_b)|。它关注最糟糕情形下的校准失败,而非平均误差。",
term_es = "error de calibración máximo",
term_zh = "最大校准误差",
aliases_es = { "MCE", "ECE máximo" },
aliases_zh = { "MCE", "maximum calibration error" },
}
data["maximum common substructure"] = {
short = "The largest substructure shared between two or more molecules, computed as a subgraph isomorphism problem and used for molecular alignment, similarity scoring, and scaffold-based analysis.",
article = nil,
aliases = { "MCS", "maximum common subgraph", "MCSS", "maximum common substructure search" },
es = "Mayor subestructura compartida entre dos o más moléculas, calculada como un problema de isomorfismo de subgrafos y utilizada para alineamiento molecular, puntuación de similitud y análisis basado en esqueletos.",
zh = "两个或多个分子之间共享的最大子结构,通过子图同构问题求解,广泛用于分子对齐、相似性评分以及基于骨架的分析。",
term_es = "subestructura común máxima",
term_zh = "最大公共子结构",
aliases_es = { "MCS", "subestructura común máxima", "subgrafo común máximo" },
aliases_zh = { "MCS", "最大公共子结构", "最大公共子图" },
}
data["maximum entropy acquisition"] = {
short = "An active learning acquisition function that selects unlabeled inputs whose predictive distribution has the highest entropy, prioritizing points where the model is most uncertain about the label.",
article = nil,
aliases = { "max entropy acquisition", "predictive entropy acquisition", "entropy sampling" },
es = "Función de adquisición en aprendizaje activo que selecciona las entradas no etiquetadas cuya distribución predictiva tiene mayor entropía, priorizando los puntos donde el modelo es más incierto sobre la etiqueta.",
zh = "一种主动学习采集函数:选择预测分布熵最大的未标注输入,优先标注模型对标签最不确定的样本。",
term_es = "adquisición por máxima entropía",
term_zh = "最大熵采集",
aliases_es = { "muestreo por entropía", "adquisición por entropía predictiva" },
aliases_zh = { "熵采样", "预测熵采集" },
}
data["maximum likelihood estimation"] = {
short = "A method for fitting a parametric model that chooses the parameter value θ̂ maximizing the likelihood of the observed data, θ̂_MLE = argmax_θ P(D|θ). It is consistent and asymptotically efficient under regularity conditions and underlies most discriminative training in machine learning.",
article = nil,
aliases = { "MLE", "maximum-likelihood", "ML estimation", "maximum likelihood", "ML estimate", "MLE estimator" },
es = "Método para ajustar un modelo paramétrico que elige el valor del parámetro θ̂ que maximiza la verosimilitud de los datos observados, θ̂_MLE = argmax_θ P(D|θ). Es consistente y asintóticamente eficiente bajo condiciones de regularidad y sustenta la mayoría del entrenamiento discriminativo en aprendizaje automático.",
zh = "拟合参数化模型的方法,选取使观测数据似然最大的参数值 θ̂_MLE = argmax_θ P(D|θ)。在正则条件下具有相合性与渐近有效性,是机器学习中大多数判别式训练的基础。",
term_es = "estimación por máxima verosimilitud",
term_zh = "最大似然估计",
aliases_es = { "MLE", "máxima verosimilitud", "estimación de máxima verosimilitud", "estimador MLE" },
aliases_zh = { "MLE", "极大似然估计", "最大似然", "MLE 估计" },
}
data["maximum likelihood phylogeny"] = {
short = "Phylogenetic inference approach that selects the tree topology and branch lengths that maximize the probability of the observed sequence alignment under an explicit substitution model.",
article = nil,
aliases = { "ML phylogeny", "maximum-likelihood phylogeny", "maximum likelihood phylogenetics", "ML tree inference", "maximum likelihood tree" },
es = "Enfoque de inferencia filogenética que selecciona la topología del árbol y las longitudes de rama que maximizan la probabilidad del alineamiento de secuencias observado bajo un modelo explícito de sustitución.",
zh = "在显式替换模型下选择使观测序列比对概率最大的树拓扑与分支长度的系统发育推断方法。",
term_es = "filogenia de máxima verosimilitud",
term_zh = "最大似然系统发育",
aliases_es = { "filogenia ML", "filogenética de máxima verosimilitud", "árbol de máxima verosimilitud" },
aliases_zh = { "最大似然系统发生", "ML 系统发育", "最大似然树" },
}
data["maximum mean calibration error"] = {
short = "A calibration metric defined as the largest absolute gap between mean predicted confidence and observed accuracy across confidence bins. A worst-case companion to expected calibration error.",
article = nil,
aliases = { "MMCE", "max mean calibration error", "maximum calibration error" },
es = "Métrica de calibración definida como la mayor diferencia absoluta entre la confianza media predicha y la precisión observada en los bins de confianza. Es la contraparte de peor caso del error de calibración esperado.",
zh = "一种校准度量,定义为各置信度分箱中平均预测置信度与观测准确率之间的最大绝对差,是期望校准误差的最坏情况版本。",
term_es = "error máximo de calibración media",
term_zh = "最大平均校准误差",
aliases_es = { "MMCE", "error máximo de calibración" },
aliases_zh = { "MMCE", "最大校准误差" },
}
data["maxquant"] = {
short = "Computational platform for quantitative proteomics from mass-spectrometry data that supports label-free, SILAC, and isobaric (TMT, iTRAQ) workflows, providing peak detection, identification, and quantification.",
article = nil,
aliases = { "MaxQuant", "Max Quant", "max-quant" },
es = "Plataforma computacional para proteómica cuantitativa a partir de datos de espectrometría de masas que admite flujos de trabajo sin marcaje, SILAC e isobáricos (TMT, iTRAQ), y proporciona detección de picos, identificación y cuantificación.",
zh = "用于基于质谱数据进行定量蛋白质组学的计算平台,支持无标记、SILAC 以及同量异位素(TMT、iTRAQ)工作流,提供峰检测、鉴定与定量功能。",
term_es = "MaxQuant",
term_zh = "MaxQuant",
aliases_es = { "Max Quant", "maxquant" },
aliases_zh = { "Max Quant", "maxquant" },
}
data["maxsat"] = {
short = "The optimization extension of Boolean satisfiability that seeks an assignment maximizing the number (or total weight) of satisfied clauses in a propositional formula. NP-hard in general; widely used as a backend for combinatorial reasoning and neuro-symbolic systems.",
article = nil,
aliases = { "MaxSAT", "Max-SAT", "maximum satisfiability", "weighted MaxSAT" },
es = "Extensión de optimización del problema SAT que busca una asignación que maximice el número —o el peso total— de cláusulas satisfechas en una fórmula proposicional. NP-difícil en general; se usa ampliamente como motor de razonamiento combinatorio y en sistemas neurosimbólicos.",
zh = "布尔可满足性问题的优化版本,旨在为命题公式找到一个赋值,使被满足的子句数(或总权重)最大化。一般为 NP 难,常作为组合推理和神经符号系统的求解后端。",
term_es = "MaxSAT",
term_zh = "MaxSAT",
aliases_es = { "Max-SAT", "satisfacibilidad máxima" },
aliases_zh = { "Max-SAT", "最大可满足性问题", "加权 MaxSAT" },
}
data["maxvit"] = {
short = "A hybrid vision transformer introduced by Tu et al. in 2022 that combines convolutional MBConv blocks with multi-axis attention, alternating local block attention and dilated grid attention to achieve global receptive fields with linear complexity.",
article = nil,
aliases = { "MaxViT", "MaxViT-T", "MaxViT-S", "MaxViT-B", "MaxViT-L", "multi-axis vision transformer" },
es = "Vision transformer híbrido presentado por Tu et al. en 2022 que combina bloques convolucionales MBConv con atención multi-eje, alternando atención local por bloques y atención dilatada por cuadrícula para lograr campos receptivos globales con complejidad lineal.",
zh = "由 Tu 等人于 2022 年提出的混合视觉 Transformer,将卷积 MBConv 块与多轴注意力相结合,交替使用局部块注意力和稀疏网格注意力,以线性复杂度实现全局感受野。",
term_es = "MaxViT",
term_zh = "MaxViT",
aliases_es = { "MaxViT-T", "MaxViT-B", "transformer de visión multi-eje" },
aliases_zh = { "MaxViT-T", "MaxViT-B", "多轴视觉 Transformer" },
}
data["mbart"] = {
short = "A multilingual extension of BART pretrained jointly on 25 (later 50) languages with a denoising objective, used as a strong starting point for multilingual machine translation and generation.",
article = nil,
aliases = { "mBART", "multilingual BART", "Multilingual BART", "mBART-25", "mBART-50" },
es = "Extensión multilingüe de BART preentrenada conjuntamente en 25 (posteriormente 50) idiomas con un objetivo de eliminación de ruido, utilizada como sólido punto de partida para la traducción y generación automática multilingüe.",
zh = "BART 的多语言扩展,在 25 种(后扩展到 50 种)语言上以降噪目标联合预训练,常被用作多语言机器翻译和生成的有力起点。",
term_es = "mBART",
term_zh = "mBART",
aliases_es = { "mBART", "BART multilingüe", "mBART-25", "mBART-50" },
aliases_zh = { "mBART", "多语言 BART", "mBART-25", "mBART-50" },
}
data["mbpp"] = {
short = "A benchmark of around 1,000 short Python programming problems aimed at entry-level programmers, each with a natural-language description, reference solution, and test cases, used to evaluate code generation models.",
article = nil,
aliases = { "MBPP", "Mostly Basic Python Problems", "Mostly Basic Python Programming" },
es = "Benchmark de unos 1.000 problemas cortos de programación en Python orientados a principiantes, cada uno con descripción en lenguaje natural, solución de referencia y casos de prueba, para evaluar modelos de generación de código.",
zh = "一项面向入门级程序员的约 1000 道短 Python 编程题基准,每题包含自然语言描述、参考解答和测试用例,用于评估代码生成模型。",
term_es = "MBPP",
term_zh = "MBPP",
aliases_es = { "MBPP" },
aliases_zh = { "MBPP" },
}
data["mc forward passes"] = {
short = "Repeated stochastic forward evaluations of a Bayesian or dropout-equipped neural network, each using a different sample of the weights or noise, used to estimate predictive means and uncertainties by Monte Carlo averaging.",
article = nil,
aliases = { "Monte Carlo forward passes", "MC passes", "stochastic forward passes" },
es = "Evaluaciones estocásticas repetidas de una red neuronal bayesiana o con dropout, cada una usando una muestra distinta de los pesos o del ruido, empleadas para estimar medias e incertidumbres predictivas mediante promediado Monte Carlo.",
zh = "对贝叶斯网络或带 dropout 的神经网络进行多次随机前向计算,每次使用不同的权重或噪声样本,通过蒙特卡罗平均估计预测均值和不确定性。",
term_es = "pasadas hacia adelante de Monte Carlo",
term_zh = "蒙特卡罗前向传播",
aliases_es = { "pasadas MC", "pasadas estocásticas" },
aliases_zh = { "MC 前向传播", "随机前向传播" },
}
data["mc samples"] = {
short = "Monte Carlo samples — independent stochastic draws (of weights, latent variables, or outputs) used to approximate expectations under an intractable distribution by sample averaging.",
article = nil,
aliases = { "Monte Carlo samples", "MC draws", "Monte Carlo draws" },
es = "Muestras de Monte Carlo: realizaciones estocásticas independientes (de pesos, variables latentes o salidas) utilizadas para aproximar expectativas bajo una distribución intratable mediante promediado muestral.",
zh = "蒙特卡罗样本——从难以解析处理的分布中独立抽取的随机样本(权重、隐变量或输出),通过样本平均来近似期望。",
term_es = "muestras de Monte Carlo",
term_zh = "蒙特卡罗样本",
aliases_es = { "muestras MC", "realizaciones de Monte Carlo" },
aliases_zh = { "MC 样本", "蒙特卡罗抽样" },
}
data["mc4 dataset"] = {
short = "Multilingual C4, a 101-language web corpus derived from Common Crawl using the same cleaning heuristics as C4, introduced by Google to pretrain the mT5 family of multilingual text-to-text models.",
article = nil,
aliases = { "mC4", "mC4 dataset", "multilingual C4", "MC4" },
es = "C4 multilingüe, un corpus web de 101 idiomas derivado de Common Crawl con las mismas heurísticas de limpieza que C4, presentado por Google para preentrenar la familia mT5 de modelos texto-a-texto multilingües.",
zh = "多语言版的 C4 语料库,基于 Common Crawl,使用与 C4 相同的清洗规则覆盖 101 种语言,由 Google 提出,用于预训练 mT5 多语言文本到文本模型系列。",
term_es = "conjunto de datos mC4",
term_zh = "mC4 数据集",
aliases_es = { "mC4", "C4 multilingüe", "MC4" },
aliases_zh = { "mC4", "多语言 C4", "MC4" },
}
data["mcallester bound"] = {
short = "A foundational PAC-Bayes generalization bound by McAllester that bounds the expected loss of a randomized predictor in terms of the empirical loss plus a KL divergence between the posterior and a data-independent prior.",
article = nil,
aliases = { "McAllester PAC-Bayes bound", "McAllester's bound", "McAllester bound" },
es = "Cota de generalización PAC-Bayes fundacional, debida a McAllester, que acota la pérdida esperada de un predictor aleatorizado en términos de la pérdida empírica más una divergencia KL entre la posterior y un prior independiente de los datos.",
zh = "McAllester 提出的奠基性 PAC-Bayes 泛化界,用经验损失加上后验与数据无关先验之间的 KL 散度来上界随机化预测器的期望损失。",
term_es = "cota de McAllester",
term_zh = "McAllester 界",
aliases_es = { "cota PAC-Bayes de McAllester" },
aliases_zh = { "McAllester PAC-Bayes 界", "McAllester 泛化界" },
}
data["mccrary density test"] = {
short = "A diagnostic for regression discontinuity designs that tests for a discontinuity in the density of the running variable at the cutoff, which would indicate manipulation or sorting around the threshold.",
article = nil,
aliases = { "McCrary test", "McCrary density discontinuity test", "density test", "manipulation test" },
es = "Diagnóstico para diseños de regresión discontinua que prueba una discontinuidad en la densidad de la variable de asignación en el umbral, indicio de manipulación o reordenamiento de unidades alrededor del corte.",
zh = "回归断点设计的一种诊断方法,检验运行变量的密度在阈值处是否存在断点,以判断是否存在围绕临界值的操纵或排序行为。",
term_es = "prueba de densidad de McCrary",
term_zh = "McCrary 密度检验",
aliases_es = { "test de McCrary", "prueba de manipulación" },
aliases_zh = { "McCrary 检验", "密度断点检验", "操纵检验" },
}
data["mcd"] = {
short = "Mel cepstral distortion: an objective metric for speech and singing synthesis quality computed as the Euclidean distance between mel-cepstral coefficient sequences of generated and reference audio.",
article = nil,
aliases = { "MCD", "mel cepstral distortion", "mel-cepstral distortion" },
es = "Distorsión cepstral mel: métrica objetiva de calidad para síntesis de voz y canto calculada como la distancia euclidiana entre las secuencias de coeficientes cepstrales mel del audio generado y el de referencia.",
zh = "梅尔倒谱失真:一种用于语音和歌唱合成质量评估的客观指标,计算生成音频与参考音频的梅尔倒谱系数序列之间的欧氏距离。",
term_es = "MCD",
term_zh = "MCD",
aliases_es = { "distorsión cepstral mel", "distorsión mel-cepstral" },
aliases_zh = { "梅尔倒谱失真", "梅尔倒频谱失真" },
}
data["mcs"] = {
short = "Abbreviation for maximum common substructure: the largest substructure shared between two or more molecules, used for molecular alignment, similarity scoring, and scaffold analysis in cheminformatics.",
article = nil,
aliases = { "MCS", "maximum common substructure", "maximum common subgraph", "MCSS" },
es = "Abreviatura de maximum common substructure (subestructura común máxima): la mayor subestructura compartida entre dos o más moléculas, utilizada en quimioinformática para alineamiento, similitud y análisis de esqueletos.",
zh = "MCS 是 maximum common substructure(最大公共子结构)的缩写,指两个或多个分子之间共享的最大子结构,在化学信息学中用于分子对齐、相似性评分和骨架分析。",
term_es = "MCS",
term_zh = "MCS",
aliases_es = { "MCS", "subestructura común máxima" },
aliases_zh = { "MCS", "最大公共子结构" },
}
data["mcts retrosynthesis"] = {
short = "Retrosynthetic planning that uses Monte Carlo tree search to expand a tree of possible disconnections, with a learned policy proposing reactions and a value model scoring partial routes toward commercially available starting materials.",
article = nil,
aliases = { "MCTS retrosynthesis", "Monte Carlo Tree Search retrosynthesis", "MCTS-based retrosynthesis", "tree search retrosynthesis" },
es = "Planificación retrosintética que emplea búsqueda en árbol Monte Carlo para expandir un árbol de posibles desconexiones, con una política aprendida que propone reacciones y un modelo de valor que puntúa las rutas parciales hacia materiales de partida comercialmente disponibles.",
zh = "使用蒙特卡洛树搜索展开可能断键路径的逆合成规划,由学习到的策略模型提出反应,价值模型评估通向商业可得起始原料的部分路线。",
term_es = "retrosíntesis con MCTS",
term_zh = "MCTS 逆合成",
aliases_es = { "retrosíntesis con MCTS", "retrosíntesis con búsqueda en árbol Monte Carlo" },
aliases_zh = { "MCTS 逆合成", "蒙特卡洛树搜索逆合成", "树搜索逆合成" },
}
data["mdanalysis"] = {
short = "An open-source Python library for analyzing molecular dynamics trajectories, providing readers for major MD file formats and tools for selection, geometry, transformation, and trajectory analysis.",
article = nil,
aliases = { "MDAnalysis", "mdanalysis", "MDAnalysis library", "MDAnalysis Python" },
es = "Biblioteca de Python de código abierto para analizar trayectorias de dinámica molecular, con lectores para los principales formatos de archivos de MD y herramientas para selección, geometría, transformaciones y análisis de trayectorias.",
zh = "用于分析分子动力学轨迹的开源 Python 库,支持主要 MD 文件格式的读取,并提供选择、几何、变换和轨迹分析等工具。",
term_es = "MDAnalysis",
term_zh = "MDAnalysis",
aliases_es = { "MDAnalysis", "biblioteca MDAnalysis" },
aliases_zh = { "MDAnalysis", "MDAnalysis 库" },
}
data["mdl probe"] = {
short = "A probing methodology proposed by Voita and Titov that scores representations by the minimum description length needed to compress labels given those representations, penalizing probes that learn rather than reveal.",
article = nil,
aliases = { "MDL probing", "minimum description length probe", "information-theoretic probe", "MDL probing classifier" },
es = "Metodología de sondeo propuesta por Voita y Titov que puntúa las representaciones por la longitud mínima de descripción necesaria para comprimir las etiquetas dadas esas representaciones, penalizando los probes que aprenden en lugar de revelar.",
zh = "Voita 与 Titov 提出的探针方法,依据在给定表示下压缩标签所需的最小描述长度来评分表示,从而惩罚那些是在学习而非揭示信息的探针。",
term_es = "probe MDL",
term_zh = "MDL 探针",
aliases_es = { "sondeo MDL", "probe de longitud de descripción mínima", "probe de teoría de la información" },
aliases_zh = { "MDL 探测", "最小描述长度探针", "信息论探针" },
}
data["mdtraj"] = {
short = "An open-source Python library for fast manipulation and analysis of molecular dynamics trajectories, supporting many MD formats and integrating closely with NumPy and the scientific Python stack.",
article = nil,
aliases = { "MDTraj", "mdtraj", "MDTraj library" },
es = "Biblioteca de Python de código abierto para la manipulación y análisis rápido de trayectorias de dinámica molecular, compatible con muchos formatos de MD e integrada estrechamente con NumPy y el ecosistema científico de Python.",
zh = "用于快速处理和分析分子动力学轨迹的开源 Python 库,支持多种 MD 文件格式,并与 NumPy 及科学计算 Python 生态紧密集成。",
term_es = "MDTraj",
term_zh = "MDTraj",
aliases_es = { "MDTraj", "biblioteca MDTraj" },
aliases_zh = { "MDTraj", "MDTraj 库" },
}
data["mean absolute error"] = {
short = "A regression loss equal to the average of absolute differences between predicted and true values. More robust to outliers than mean squared error.",
article = nil,
aliases = { "MAE", "L1 loss", "absolute error loss" },
es = "Pérdida de regresión igual al promedio de las diferencias absolutas entre los valores predichos y reales. Más robusta a valores atípicos que el error cuadrático medio.",
zh = "回归损失,等于预测值与真实值之差的绝对值的平均值。比均方误差对离群值更稳健。",
term_es = "error absoluto medio",
term_zh = "平均绝对误差",
aliases_es = { "MAE", "EAM", "pérdida L1", "error absoluto" },
aliases_zh = { "MAE", "L1 损失", "绝对误差损失" },
}
data["mean average precision"] = {
short = "The arithmetic mean of average precision values across queries (information retrieval) or across object classes (object detection). Standard summary metric in IR and detection benchmarks such as COCO and PASCAL VOC.",
article = nil,
aliases = { "mAP", "MAP", "mean AP" },
es = "Media aritmética de los valores de precisión promedio a través de consultas (recuperación de información) o de clases de objetos (detección). Es la métrica resumen estándar en benchmarks de IR y de detección como COCO o PASCAL VOC.",
zh = "在检索(信息检索)的多个查询或检测任务的多个类别上,对平均精度求算术平均所得指标。是 COCO、PASCAL VOC 等检索与检测基准的标准汇总指标。",
term_es = "precisión promedio media",
term_zh = "平均精度均值",
aliases_es = { "mAP", "MAP", "mAP@IoU" },
aliases_zh = { "mAP", "MAP", "mean AP" },
}
data["mean calibration"] = {
short = "The property that, on average, a model's predicted confidence equals its empirical accuracy across the dataset. A weak, aggregate form of calibration that ignores per-bin or per-class behavior.",
article = nil,
aliases = { "average calibration", "marginal calibration" },
es = "Propiedad de que, en promedio, la confianza predicha del modelo coincide con su precisión empírica sobre el conjunto de datos. Es una forma débil y agregada de calibración que ignora el comportamiento por bin o por clase.",
zh = "模型预测的平均置信度与数据集上的经验准确率相等的性质,是一种忽略各分箱或各类别行为的弱化、聚合层面的校准。",
term_es = "calibración media",
term_zh = "平均校准",
aliases_es = { "calibración promedio", "calibración marginal" },
aliases_zh = { "平均校准性", "边际校准" },
}
data["mean decrease in accuracy"] = {
short = "A permutation-based feature importance measure equal to the drop in a model's accuracy when the values of a feature are randomly shuffled, breaking its association with the target.",
article = nil,
aliases = { "MDA", "permutation importance", "permutation feature importance" },
es = "Medida de importancia de variables basada en permutación, igual a la caída de la exactitud de un modelo cuando los valores de una variable se permutan al azar, rompiendo su asociación con el objetivo.",
zh = "一种基于置换的特征重要性度量,等于将某特征的值随机打乱以切断其与目标关系后,模型准确率的下降幅度。",
term_es = "disminución media de la exactitud",
term_zh = "平均准确率下降",
aliases_es = { "MDA", "importancia por permutación", "importancia de rasgos por permutación" },
aliases_zh = { "MDA", "置换重要性", "置换特征重要性" },
}
data["mean decrease in impurity"] = {
short = "A tree-based feature importance measure equal to the total reduction in node impurity (e.g., Gini or entropy) attributable to splits on a feature, averaged over all trees in an ensemble.",
article = nil,
aliases = { "MDI", "Gini importance", "impurity-based importance", "tree-based feature importance" },
es = "Medida de importancia de variables basada en árboles, igual a la reducción total de la impureza de nodo (p. ej., Gini o entropía) atribuible a divisiones sobre una variable, promediada sobre todos los árboles del conjunto.",
zh = "基于树模型的特征重要性度量,等于在某特征上的分裂所带来的节点不纯度(如 Gini 或熵)总下降,并在集成的所有树上取平均。",
term_es = "disminución media de la impureza",
term_zh = "平均不纯度下降",
aliases_es = { "MDI", "importancia de Gini", "importancia basada en impureza", "importancia de rasgos basada en árboles" },
aliases_zh = { "MDI", "Gini 重要性", "基于不纯度的重要性", "基于树的特征重要性" },
}
data["mean reciprocal rank"] = {
short = "An information-retrieval metric equal to the average over queries of 1/rank, where rank is the position of the first correct result. Standard for evaluating ranked outputs in question answering and knowledge-graph completion.",
article = nil,
aliases = { "MRR", "mean reciprocal-rank" },
es = "Métrica de recuperación de información igual al promedio, sobre las consultas, de 1/rango, donde rango es la posición del primer resultado correcto. Es estándar para evaluar salidas ordenadas en respuesta a preguntas y completado de grafos de conocimiento.",
zh = "一种信息检索指标,等于在所有查询上对 1/rank 取平均,其中 rank 为第一个正确结果的位置。是问答和知识图谱补全等任务中排序输出的标准评估指标。",
term_es = "rango recíproco medio",
term_zh = "平均倒数排名",
aliases_es = { "MRR", "media del rango recíproco" },
aliases_zh = { "MRR", "平均倒数秩", "平均互反排名" },
}
data["mean squared error"] = {
short = "A regression loss equal to the average of squared differences between predicted and true values. Penalizes large errors quadratically and produces smooth gradients.",
article = nil,
aliases = { "MSE", "L2 loss", "squared error loss", "quadratic loss" },
es = "Pérdida de regresión igual al promedio de las diferencias al cuadrado entre los valores predichos y los reales. Penaliza los errores grandes de forma cuadrática.",
zh = "回归损失,等于预测值与真实值之差的平方的平均值。对大误差进行二次惩罚,并产生平滑梯度。",
term_es = "error cuadrático medio",
term_zh = "均方误差",
aliases_es = { "MSE", "ECM", "pérdida L2", "error cuadrático" },
aliases_zh = { "MSE", "L2 损失", "平方误差损失" },
}
data["mean-field approximation"] = {
short = "A variational inference scheme that assumes the approximating posterior factorizes across disjoint groups of latent variables, decoupling them so each factor can be updated in closed form via coordinate ascent on the ELBO.",
article = nil,
aliases = { "mean field", "mean field approximation", "mean-field VI", "fully factorized variational family", "naive mean field" },
es = "Esquema de inferencia variacional que supone que la posterior aproximada se factoriza en grupos disjuntos de variables latentes, desacoplándolas para que cada factor pueda actualizarse en forma cerrada mediante ascenso por coordenadas sobre el ELBO.",
zh = "一种变分推断方案,假设近似后验在若干互斥的潜变量组上因子分解,从而解耦各因子,可通过坐标上升法对 ELBO 进行闭式更新。",
term_es = "aproximación de campo medio",
term_zh = "平均场近似",
aliases_es = { "campo medio", "VI de campo medio", "familia variacional totalmente factorizada" },
aliases_zh = { "平均场", "平均场变分推断", "完全因子分解变分族" },
}
data["mean-field gaussian posterior"] = {
short = "A variational posterior over neural-network weights factorized as a product of independent Gaussian distributions, one per parameter, with diagonal covariance. Standard choice in Bayes-by-Backprop.",
article = nil,
aliases = { "mean field Gaussian posterior", "diagonal Gaussian posterior", "fully factorized Gaussian posterior" },
es = "Posterior variacional sobre los pesos de una red neuronal factorizada como producto de distribuciones gaussianas independientes, una por parámetro, con covarianza diagonal. Elección estándar en Bayes-by-Backprop.",
zh = "对神经网络权重的变分后验,分解为每个参数独立的高斯分布的乘积,协方差为对角阵。是 Bayes-by-Backprop 的标准选择。",
term_es = "posterior gaussiana de campo medio",
term_zh = "均场高斯后验",
aliases_es = { "posterior gaussiana diagonal", "posterior gaussiana totalmente factorizada" },
aliases_zh = { "对角高斯后验", "完全分解高斯后验" },
}
data["mean-field variational inference"] = {
short = "A variational inference approach that approximates the posterior by a fully factorized distribution, ignoring correlations between latent variables. Yields tractable updates but typically underestimates posterior variance.",
article = nil,
aliases = { "MFVI", "mean field VI", "mean field variational inference", "fully factorized variational inference" },
es = "Enfoque de inferencia variacional que aproxima la posterior mediante una distribución totalmente factorizada, ignorando las correlaciones entre variables latentes. Produce actualizaciones tratables pero suele subestimar la varianza posterior.",
zh = "一种变分推断方法,用完全分解的分布近似后验,忽略隐变量之间的相关性;更新公式可解析处理,但通常低估后验方差。",
term_es = "inferencia variacional de campo medio",
term_zh = "均场变分推断",
aliases_es = { "MFVI", "VI de campo medio" },
aliases_zh = { "MFVI", "均场 VI", "均场变分法" },
}
data["meaningful perturbation"] = {
short = "A saliency method by Fong and Vedaldi that learns the smallest, smoothest input mask whose application most reduces a classifier's confidence in its prediction, highlighting evidence the model relies on.",
article = nil,
aliases = { "meaningful perturbations", "Fong-Vedaldi perturbation", "learned perturbation saliency" },
es = "Método de saliencia de Fong y Vedaldi que aprende la máscara de entrada más pequeña y suave cuya aplicación reduce más la confianza del clasificador en su predicción, destacando la evidencia en que se apoya el modelo.",
zh = "Fong 与 Vedaldi 提出的显著性方法,学习一个最小且最平滑的输入掩码,使其作用后最大幅度地降低分类器对其预测的置信度,从而凸显模型所依赖的证据。",
term_es = "perturbación significativa",
term_zh = "有意义扰动",
aliases_es = { "perturbaciones significativas", "perturbación de Fong-Vedaldi", "saliencia por perturbación aprendida" },
aliases_zh = { "有意义的扰动", "Fong-Vedaldi 扰动", "学习扰动显著性" },
}
data["measurement bias"] = {
short = "Systematic error introduced when an observed feature or label imperfectly captures the underlying construct it is meant to represent, with errors that vary across groups or contexts.",
article = nil,
aliases = { "measurement error bias", "construct measurement bias" },
es = "Error sistemático que se produce cuando una característica o etiqueta observada captura de forma imperfecta el constructo subyacente que pretende representar, con errores que varían entre grupos o contextos.",
zh = "观测到的特征或标签未能完全反映其所代表的潜在构念时引入的系统性误差,且该误差在不同群体或情境下存在差异。",
term_es = "sesgo de medición",
term_zh = "测量偏差",
aliases_es = { "sesgo en la medición", "error sistemático de medición" },
aliases_zh = { "测量偏倚", "度量偏差" },
}
data["measurement error bias"] = {
short = "Systematic distortion of estimated causal effects arising when treatment, outcome, or covariates are measured with error; classical error in the exposure typically attenuates effects, while differential error can bias in either direction.",
article = nil,
aliases = { "measurement error", "errors-in-variables bias", "attenuation bias" },
es = "Sesgo sistemático en los efectos causales estimados que surge cuando el tratamiento, el resultado o las covariables se miden con error; el error clásico en la exposición suele atenuar el efecto, mientras que el error diferencial puede sesgar en cualquier dirección.",
zh = "当处理、结果或协变量存在测量误差时,估计的因果效应所产生的系统性偏差;经典型暴露测量误差通常导致衰减,差异性误差可能在任意方向上产生偏倚。",
term_es = "sesgo por error de medición",
term_zh = "测量误差偏倚",
aliases_es = { "error de medición", "sesgo de atenuación", "errores en variables" },
aliases_zh = { "测量误差", "衰减偏倚", "变量误差偏倚" },
}
data["mechanistic anomaly detection"] = {
short = "A research program that flags abnormal model behavior by monitoring whether the internal computational mechanisms used on a new input differ from those used during normal training, rather than relying on output statistics.",
article = nil,
aliases = { "MAD", "mechanistic OOD detection" },
es = "Línea de investigación que detecta comportamiento anómalo de un modelo monitorizando si los mecanismos computacionales internos usados ante una nueva entrada difieren de los del entrenamiento normal, en lugar de basarse en estadísticas de la salida.",
zh = "一种研究方向,通过监测新输入下模型内部计算机制是否偏离正常训练时使用的机制来标记异常行为,而不是依赖输出统计量。",
term_es = "detección mecanicista de anomalías",
term_zh = "机制性异常检测",
aliases_es = { "MAD", "detección mecanicista de OOD" },
aliases_zh = { "MAD", "机制性 OOD 检测", "机理异常检测" },
}
data["mechanistic interpretability"] = {
short = "A subfield of interpretability that aims to reverse-engineer trained neural networks into human-understandable algorithms, identifying circuits, features, and computations implemented by specific weights.",
article = nil,
aliases = { "mech interp", "circuit-level interpretability", "reverse-engineering neural networks" },
es = "Subcampo de la interpretabilidad que busca aplicar ingeniería inversa a redes neuronales entrenadas para reducirlas a algoritmos comprensibles, identificando circuitos, rasgos y operaciones implementadas por pesos específicos.",
zh = "可解释性的一个子领域,致力于将训练好的神经网络逆向工程为人类可理解的算法,识别由具体权重实现的电路、特征与计算过程。",
term_es = "interpretabilidad mecanicista",
term_zh = "机制可解释性",
aliases_es = { "mech interp", "interpretabilidad a nivel de circuitos", "ingeniería inversa de redes neuronales" },
aliases_zh = { "mech interp", "电路级可解释性", "神经网络逆向工程", "机理可解释性" },
}
data["medaka polishing"] = {
short = "A neural-network-based consensus and variant calling tool from Oxford Nanopore Technologies, used to polish draft genome assemblies built from noisy long reads.",
article = nil,
aliases = { "Medaka", "medaka", "medaka polish" },
es = "Herramienta de consenso y llamada de variantes basada en redes neuronales de Oxford Nanopore, utilizada para pulir ensamblajes de genomas obtenidos con lecturas largas ruidosas.",
zh = "Oxford Nanopore 推出的基于神经网络的共识与变异检测工具,用于对噪声较高的长读长测序所得的草图基因组进行打磨(polishing)。",
term_es = "pulido con Medaka",
term_zh = "Medaka 打磨",
aliases_es = { "Medaka", "pulido Medaka" },
aliases_zh = { "Medaka", "Medaka polishing" },
}
data["median aggregation"] = {
short = "A Byzantine-robust aggregation rule that takes the coordinate-wise median of client updates instead of their mean, providing tolerance to a fraction of arbitrarily corrupted updates.",
article = nil,
aliases = { "coordinate-wise median", "median rule", "robust median aggregation", "geomedian (related)" },
es = "Regla de agregación robusta a fallos bizantinos que toma la mediana coordenada a coordenada de las actualizaciones de los clientes en lugar de su media, tolerando una fracción de actualizaciones arbitrariamente corruptas.",
zh = "一种抗拜占庭的聚合规则:对客户端更新逐坐标取中位数而非平均值,从而容忍一定比例的任意被破坏的更新。",
term_es = "agregación por mediana",
term_zh = "中位数聚合",
aliases_es = { "mediana coordenada a coordenada", "regla de la mediana" },
aliases_zh = { "坐标中位数聚合", "中值聚合", "鲁棒中位数聚合" },
}
data["median stopping rule"] = {
short = "An early-stopping rule for hyperparameter search that terminates a trial when its running mean performance is worse than the median of completed trials at the same step.",
article = nil,
aliases = { "median stopping", "median early stopping" },
es = "Regla de parada temprana para la búsqueda de hiperparámetros que termina un experimento cuando su rendimiento medio acumulado es peor que la mediana de los experimentos completados en el mismo paso.",
zh = "一种超参数搜索的早停规则,当某次试验在相同步骤的累计平均性能低于已完成试验的中位数时即终止该试验。",
term_es = "regla de parada por la mediana",
term_zh = "中位数停止规则",
aliases_es = { "parada temprana por mediana" },
aliases_zh = { "中位数早停", "中位停止规则" },
}
data["mediation analysis"] = {
short = "A causal-inference technique that decomposes the effect of a treatment on an outcome into direct effects and indirect effects flowing through intermediate mediator variables.",
article = nil,
aliases = { "causal mediation analysis", "mediator analysis" },
es = "Técnica de inferencia causal que descompone el efecto de un tratamiento sobre un resultado en efectos directos y efectos indirectos que fluyen a través de variables mediadoras intermedias.",
zh = "一种因果推断技术,将处理对结果的效应分解为直接效应和经由中介变量传递的间接效应。",
term_es = "análisis de mediación",
term_zh = "中介分析",
aliases_es = { "análisis de mediación causal" },
aliases_zh = { "因果中介分析", "中介效应分析" },
}
data["mediation formula"] = {
short = "Pearl's nonparametric identification formula expressing natural direct and indirect effects as integrals over the conditional distribution of the mediator given treatment and covariates, under sequential ignorability assumptions.",
article = nil,
aliases = { "Pearl's mediation formula", "nonparametric mediation formula" },
es = "Fórmula de identificación no paramétrica de Pearl que expresa los efectos directo e indirecto naturales como integrales sobre la distribución condicional del mediador dado el tratamiento y las covariables, bajo supuestos de ignorabilidad secuencial.",
zh = "Pearl 提出的非参数识别公式,在序贯可忽略性假设下,将自然直接效应与自然间接效应表示为关于给定处理与协变量的中介变量条件分布的积分。",
term_es = "fórmula de mediación",
term_zh = "中介公式",
aliases_es = { "fórmula de mediación de Pearl", "fórmula de mediación no paramétrica" },
aliases_zh = { "Pearl 中介公式", "非参数中介公式" },
}
data["mediator"] = {
short = "An intermediate variable on the causal pathway from treatment to outcome, through which part of the treatment's effect is transmitted; conditioning on a mediator without proper adjustment can introduce collider bias.",
article = nil,
aliases = { "mediating variable", "intermediate variable" },
es = "Variable intermedia situada en el camino causal del tratamiento al resultado, a través de la cual se transmite parte del efecto del tratamiento; condicionar sobre un mediador sin un ajuste adecuado puede introducir sesgo por colisionador.",
zh = "位于处理到结果因果路径上的中间变量,处理效应的一部分通过它传递;若未适当调整即在中介变量上进行条件化,可能引入对撞节点偏倚。",
term_es = "mediador",
term_zh = "中介变量",
aliases_es = { "variable mediadora", "variable intermedia" },
aliases_zh = { "中介", "中介因子", "中间变量" },
}
data["mediator-outcome confounding"] = {
short = "Confounding of the mediator-outcome relationship by variables (often post-treatment) that affect both the mediator and the outcome, threatening identification of natural direct and indirect effects.",
article = nil,
aliases = { "post-treatment confounding", "M-Y confounding", "intermediate confounding" },
es = "Confusión de la relación mediador-resultado por variables (a menudo post-tratamiento) que afectan tanto al mediador como al resultado, lo que amenaza la identificación de los efectos directo e indirecto naturales.",
zh = "中介变量-结果关系受到同时影响中介与结果的(通常为处理后)变量的混杂,从而威胁自然直接效应和自然间接效应的识别。",
term_es = "confusión mediador-resultado",
term_zh = "中介-结果混杂",
aliases_es = { "confusión post-tratamiento", "confusión intermedia" },
aliases_zh = { "处理后混杂", "M-Y 混杂", "中间混杂" },
}
data["medical ai bias"] = {
short = "Disparities in clinical AI systems across demographic groups, arising from underrepresented training cohorts, biased proxies (such as healthcare cost as a proxy for need), or differential measurement of disease and outcomes.",
article = nil,
aliases = { "medical AI bias", "clinical AI bias", "healthcare AI bias", "bias in medical AI" },
es = "Disparidades en los sistemas de IA clínica entre grupos demográficos, originadas por cohortes de entrenamiento subrepresentadas, variables proxy sesgadas (como el gasto sanitario como proxy de la necesidad) o la medición diferencial de enfermedades y resultados.",
zh = "临床人工智能系统在不同人群间存在的差异,源于训练队列代表性不足、有偏的代理变量(如以医疗支出代替需求)或对疾病及预后的差异化测量。",
term_es = "sesgo en IA médica",
term_zh = "医疗人工智能偏差",
aliases_es = { "sesgo en IA clínica", "sesgo en inteligencia artificial médica" },
aliases_zh = { "临床 AI 偏差", "医学 AI 偏见" },
}
data["medusa decoding"] = {
short = "A speculative-decoding scheme that augments a base language model with several auxiliary prediction heads, each forecasting a future token; candidates are then verified in parallel against the base model to reduce per-step latency.",
article = nil,
aliases = { "Medusa", "Medusa decoding", "Medusa heads", "Medusa speculative decoding" },
es = "Esquema de decodificación especulativa que añade al modelo de lenguaje base varias cabezas auxiliares de predicción, cada una pronosticando un token futuro; los candidatos se verifican en paralelo contra el modelo base para reducir la latencia por paso.",
zh = "一种投机解码方案,在基础语言模型上附加多个辅助预测头,每个头预测一个未来词元,再在基础模型上并行验证候选序列,从而降低每步生成延迟。",
term_es = "decodificación Medusa",
term_zh = "Medusa 解码",
aliases_es = { "Medusa", "cabezas Medusa", "decodificación especulativa Medusa" },
aliases_zh = { "Medusa", "Medusa 解码头", "Medusa 投机解码" },
}
data["megahit assembly"] = {
short = "Metagenomic assembly produced by MEGAHIT, a memory-efficient de Bruijn graph assembler designed for large complex metagenomes using succinct data structures and multiple k-mer sizes.",
article = nil,
aliases = { "MEGAHIT", "MEGAHIT assembler", "megahit" },
es = "Ensamblaje metagenómico producido por MEGAHIT, un ensamblador de grafos de De Bruijn eficiente en memoria para metagenomas grandes que utiliza estructuras sucintas y múltiples tamaños de k-mer.",
zh = "由 MEGAHIT 生成的宏基因组组装结果。MEGAHIT 是一种基于 de Bruijn 图、采用紧凑数据结构和多 k-mer 策略的高效宏基因组组装工具,特别适合大规模复杂样本。",
term_es = "ensamblaje con MEGAHIT",
term_zh = "MEGAHIT 组装",
aliases_es = { "MEGAHIT", "ensamblador MEGAHIT" },
aliases_zh = { "MEGAHIT", "MEGAHIT 组装器" },
}
data["megatron-lm parallelism"] = {
short = "A tensor-parallel scheme introduced in Megatron-LM that shards transformer weight matrices across GPUs along rows or columns, with all-reduce communication, enabling efficient training of very large language models.",
article = nil,
aliases = { "Megatron tensor parallelism", "Megatron-LM", "intra-layer model parallelism", "row/column-parallel linear layers" },
es = "Esquema de paralelismo tensorial introducido en Megatron-LM que reparte las matrices de pesos del transformer entre GPUs por filas o columnas, con comunicación all-reduce, permitiendo entrenar modelos de lenguaje muy grandes de forma eficiente.",
zh = "Megatron-LM 提出的张量并行方案:按行或列将 Transformer 的权重矩阵切分到多块 GPU 上,并通过 all-reduce 通信,从而高效训练超大规模语言模型。",
term_es = "paralelismo de Megatron-LM",
term_zh = "Megatron-LM 并行",
aliases_es = { "paralelismo tensorial de Megatron", "Megatron-LM" },
aliases_zh = { "Megatron 张量并行", "Megatron-LM 张量并行", "层内模型并行" },
}
data["mel cepstral distortion"] = {
short = "An objective speech and singing synthesis quality metric computed as the Euclidean distance between sequences of mel-cepstral coefficients extracted from generated and reference audio.",
article = nil,
aliases = { "MCD", "mel-cepstral distortion", "mel cepstral distance" },
es = "Métrica objetiva de calidad para síntesis de voz y canto calculada como la distancia euclidiana entre secuencias de coeficientes cepstrales mel extraídas del audio generado y de referencia.",
zh = "一种语音与歌唱合成质量的客观指标,计算从生成音频与参考音频提取的梅尔倒谱系数序列之间的欧氏距离。",
term_es = "distorsión cepstral mel",
term_zh = "梅尔倒谱失真",
aliases_es = { "MCD", "distorsión mel-cepstral" },
aliases_zh = { "MCD", "梅尔倒频谱失真" },
}
data["mel filterbank"] = {
short = "A bank of triangular bandpass filters spaced on the mel scale and applied to the magnitude or power spectrum of audio to produce perceptually motivated frequency-band energies.",
article = nil,
aliases = { "mel filter bank", "mel-filterbank", "Mel filterbank", "mel filters" },
es = "Banco de filtros pasa banda triangulares espaciados en la escala mel y aplicados al espectro de magnitud o potencia del audio para obtener energías por banda de frecuencia con motivación perceptual.",
zh = "在梅尔尺度上间隔排列的三角带通滤波器组,作用于音频的幅度或功率谱,得到具有感知合理性的频带能量。",
term_es = "banco de filtros mel",
term_zh = "梅尔滤波器组",
aliases_es = { "filtros mel", "filterbank mel" },
aliases_zh = { "mel滤波器组", "梅尔滤波组" },
}
data["mel scale"] = {
short = "A perceptual frequency scale on which equal distances correspond to equal perceived pitch differences, calibrated so that 1000 Hz at 40 dB equals 1000 mels.",
article = nil,
aliases = { "Mel scale", "mel-scale" },
es = "Escala perceptual de frecuencias en la que distancias iguales corresponden a diferencias de altura percibida iguales, calibrada de modo que 1000 Hz a 40 dB equivalen a 1000 mels.",
zh = "一种感知频率尺度,相等的距离对应相等的感知音高差,按 40 dB 下 1000 Hz 等于 1000 mel 进行标定。",
term_es = "escala mel",
term_zh = "梅尔尺度",
aliases_es = { "escala de mel" },
aliases_zh = { "mel尺度", "梅尔标度" },
}
data["mel-frequency cepstral coefficients"] = {
short = "A compact representation of an audio signal's short-term power spectrum obtained by taking the discrete cosine transform of log mel-filterbank energies. Long the dominant feature for speech recognition.",
article = nil,
aliases = { "MFCC", "MFCCs", "mel frequency cepstral coefficients", "mel-cepstral coefficients" },
es = "Representación compacta del espectro de potencia a corto plazo de una señal de audio obtenida aplicando la transformada discreta del coseno a las energías logarítmicas del banco de filtros mel. Durante mucho tiempo fue la característica dominante para reconocimiento de voz.",
zh = "一种音频信号短时功率谱的紧凑表示,对对数梅尔滤波器组能量进行离散余弦变换得到。长期以来是语音识别的主流特征。",
term_es = "coeficientes cepstrales en frecuencia mel",
term_zh = "梅尔频率倒谱系数",
aliases_es = { "MFCC", "coeficientes MFCC", "coeficientes cepstrales mel" },
aliases_zh = { "MFCC", "Mel频率倒谱系数" },
}
data["mel-spectrogram"] = {
short = "A time-frequency representation of audio in which the frequency axis of a magnitude spectrogram is mapped onto the mel scale, typically used as input or target for speech and audio neural networks.",
article = nil,
aliases = { "mel spectrogram", "Mel-spectrogram", "Mel spectrogram", "log-mel spectrogram", "log mel spectrogram" },
es = "Representación tiempo-frecuencia del audio en la que el eje de frecuencias de un espectrograma de magnitud se proyecta a la escala mel; suele utilizarse como entrada u objetivo de redes neuronales de habla y audio.",
zh = "一种时频表示,将幅度谱图的频率轴映射到梅尔尺度,通常作为语音与音频神经网络的输入或目标。",
term_es = "mel-espectrograma",
term_zh = "梅尔频谱图",
aliases_es = { "espectrograma mel", "espectrograma de mel", "log-mel espectrograma" },
aliases_zh = { "mel频谱图", "对数梅尔频谱图", "梅尔谱图" },
}
data["mel-text alignment"] = {
short = "The task of aligning mel-spectrogram audio frames with corresponding text tokens, commonly used in text-to-speech and speech recognition to learn time-synchronized representations of audio and language.",
article = nil,
aliases = { "mel text alignment", "mel-spectrogram text alignment" },
es = "Tarea de alinear los marcos de mel-espectrograma de audio con los tokens de texto correspondientes, comúnmente utilizada en síntesis y reconocimiento de voz para aprender representaciones de audio y lenguaje sincronizadas temporalmente.",
zh = "将音频的梅尔频谱帧与对应文本 token 对齐的任务,常用于语音合成和语音识别,以学习音频与语言的时间同步表征。",
term_es = "alineación mel-texto",
term_zh = "梅尔-文本对齐",
aliases_es = { "alineación de mel-espectrograma con texto", "mel-text alignment" },
aliases_zh = { "梅尔频谱与文本对齐", "mel-text alignment" },
}
data["melgan"] = {
short = "A non-autoregressive GAN-based neural vocoder that converts mel-spectrograms to raw waveforms in real time using a fully convolutional generator and multi-scale discriminator.",
article = nil,
aliases = { "MelGAN", "Mel-GAN", "Mel GAN" },
es = "Vocoder neuronal basado en GAN no autorregresivo que convierte mel-espectrogramas en formas de onda en tiempo real mediante un generador totalmente convolucional y un discriminador multiescala.",
zh = "一种基于 GAN 的非自回归神经声码器,使用全卷积生成器和多尺度判别器,将梅尔频谱图实时转换为原始波形。",
term_es = "MelGAN",
term_zh = "MelGAN",
aliases_es = { "Mel-GAN" },
aliases_zh = { "Mel-GAN" },
}
data["melody extraction"] = {
short = "The task of estimating the fundamental frequency contour of the predominant melody in polyphonic audio, typically as a sequence of pitch values over time.",
article = nil,
aliases = { "predominant melody extraction", "predominant pitch estimation", "melody transcription" },
es = "Tarea consistente en estimar el contorno de frecuencia fundamental de la melodía predominante en audio polifónico, normalmente como una secuencia de valores de altura a lo largo del tiempo.",
zh = "从复音音频中估计主旋律基频轮廓的任务,通常输出为随时间变化的音高序列。",
term_es = "extracción de melodía",
term_zh = "旋律提取",
aliases_es = { "extracción de melodía predominante", "transcripción de melodía" },
aliases_zh = { "主旋律提取", "旋律抽取" },
}
data["melody generation"] = {
short = "The task of automatically generating a sequence of pitched notes that form a coherent musical melody, in symbolic form (MIDI, scores) or directly as audio.",
article = nil,
aliases = { "automatic melody generation", "melody synthesis" },
es = "Tarea de generar automáticamente una secuencia de notas con altura que forme una melodía musical coherente, en forma simbólica (MIDI, partituras) o directamente como audio.",
zh = "自动生成构成连贯音乐旋律的有音高音符序列的任务,可以是符号形式(MIDI、乐谱)或直接生成音频。",
term_es = "generación de melodías",
term_zh = "旋律生成",
aliases_es = { "generación automática de melodías", "síntesis de melodías" },
aliases_zh = { "自动旋律生成", "旋律合成" },
}
data["membership inference attack"] = {
short = "A privacy attack that determines whether a particular data record was used to train a target model, typically by exploiting differences in the model's confidence on training versus non-training inputs.",
article = nil,
aliases = { "MIA", "membership inference", "training-set membership attack", "shadow model attack (variant)" },
es = "Ataque de privacidad que determina si un registro concreto formó parte del conjunto de entrenamiento de un modelo, normalmente explotando diferencias en la confianza del modelo entre entradas vistas y no vistas durante el entrenamiento.",
zh = "一种隐私攻击:通过利用模型在训练样本与非训练样本上置信度的差异,判断某条数据是否曾被用于训练目标模型。",
term_es = "ataque de inferencia de pertenencia",
term_zh = "成员推断攻击",
aliases_es = { "MIA", "inferencia de membresía" },
aliases_zh = { "MIA", "成员推理攻击", "训练集成员推断攻击" },
}
data["meme suite"] = {
short = "A collection of motif-based sequence analysis tools (MEME, MAST, FIMO, DREME, Tomtom, others) for discovering, scanning, and comparing DNA, RNA, and protein motifs.",
article = nil,
aliases = { "MEME Suite", "MEME-Suite", "MEME" },
es = "Conjunto de herramientas de análisis de motivos en secuencias (MEME, MAST, FIMO, DREME, Tomtom, entre otras) para el descubrimiento, búsqueda y comparación de motivos de ADN, ARN y proteínas.",
zh = "一组基于序列基序(motif)的分析工具集合(包括 MEME、MAST、FIMO、DREME、Tomtom 等),用于在 DNA、RNA 和蛋白质中发现、扫描与比较基序。",
term_es = "MEME Suite",
term_zh = "MEME 套件",
aliases_es = { "MEME Suite", "MEME" },
aliases_zh = { "MEME Suite", "MEME" },
}
data["memit"] = {
short = "Mass-Editing Memory in a Transformer (MEMIT), a model-editing method by Meng et al. that updates many factual associations simultaneously by inserting rank-one changes into the MLP layers identified by causal tracing.",
article = nil,
aliases = { "MEMIT", "Mass-Editing Memory in a Transformer", "mass model editing" },
es = "Mass-Editing Memory in a Transformer (MEMIT), método de edición de modelos de Meng et al. que actualiza muchas asociaciones fácticas a la vez insertando cambios de rango uno en las capas MLP identificadas mediante rastreo causal.",
zh = "Mass-Editing Memory in a Transformer(MEMIT),Meng 等人提出的模型编辑方法,通过对因果追踪定位到的 MLP 层注入秩一更新,同时修改大量事实关联。",
term_es = "MEMIT",
term_zh = "MEMIT",
aliases_es = { "MEMIT", "Mass-Editing Memory in a Transformer", "edición masiva de modelos" },
aliases_zh = { "MEMIT", "Transformer 大规模记忆编辑", "大规模模型编辑" },
}
data["memit editing"] = {
short = "Mass-Editing Memory in a Transformer, a method that inserts thousands of factual associations into a language model in a single update by solving a constrained least-squares problem over selected MLP layers.",
article = nil,
aliases = { "MEMIT", "Mass-Editing Memory in a Transformer", "MEMIT editing" },
es = "Mass-Editing Memory in a Transformer, método que inserta miles de asociaciones factuales en un modelo de lenguaje en una sola actualización resolviendo un problema de mínimos cuadrados con restricciones sobre capas MLP seleccionadas.",
zh = "Mass-Editing Memory in a Transformer,一种通过在选定 MLP 层上求解带约束的最小二乘问题,在一次更新中将数千条事实关联注入语言模型的方法。",
term_es = "edición MEMIT",
term_zh = "MEMIT 编辑",
aliases_es = { "MEMIT", "Mass-Editing Memory in a Transformer" },
aliases_zh = { "MEMIT", "Mass-Editing Memory in a Transformer", "MEMIT 模型编辑" },
}
data["memory network"] = {
short = "A neural architecture that combines a learned reasoning component with an explicit, queryable long-term memory, designed for tasks like question answering over knowledge bases.",
article = nil,
aliases = { "MemNN", "MemN2N", "memory networks", "Memory Network", "end-to-end memory network" },
es = "Arquitectura neuronal que combina un componente de razonamiento aprendido con una memoria a largo plazo explícita y consultable, diseñada para tareas como la respuesta a preguntas sobre bases de conocimiento.",
zh = "一种神经网络架构,将可学习的推理组件与显式、可查询的长期记忆相结合,专为知识库问答等任务设计。",
term_es = "red de memoria",
term_zh = "记忆网络",
aliases_es = { "MemNN", "MemN2N", "redes de memoria" },
aliases_zh = { "MemNN", "MemN2N", "存储网络" },
}
data["memory-augmented neural networks"] = {
short = "Neural networks coupled with an external differentiable memory matrix that can be read and written via attention-based controllers, enabling rapid binding and few-shot learning. Examples include Neural Turing Machines and Differentiable Neural Computers.",
article = nil,
aliases = { "MANN", "MANNs", "memory augmented neural network", "memory-augmented neural network" },
es = "Redes neuronales acopladas con una matriz de memoria externa diferenciable que se lee y escribe mediante controladores basados en atención, permitiendo el aprendizaje con pocos ejemplos. Ejemplos: Neural Turing Machines y Differentiable Neural Computers.",
zh = "配备外部可微记忆矩阵的神经网络,通过基于注意力的控制器进行读写,从而实现快速绑定和少样本学习;代表性模型包括神经图灵机和可微神经计算机。",
term_es = "redes neuronales con memoria aumentada",
term_zh = "记忆增强神经网络",
aliases_es = { "MANN", "redes neuronales aumentadas con memoria" },
aliases_zh = { "MANN", "记忆增强网络", "外部记忆神经网络" },
}
data["memory-aware nas"] = {
short = "Neural architecture search that incorporates on-device memory consumption — peak activation memory, parameter count, or working-set size — as a constraint or objective during the search.",
article = nil,
aliases = { "memory aware NAS", "memory-aware neural architecture search", "memory-constrained NAS" },
es = "Búsqueda de arquitecturas neuronales que incorpora el consumo de memoria en el dispositivo — memoria pico de activaciones, número de parámetros o tamaño del conjunto de trabajo — como restricción u objetivo durante la búsqueda.",
zh = "在搜索过程中将设备端内存占用——峰值激活内存、参数量或工作集大小——作为约束或目标的神经架构搜索。",
term_es = "NAS consciente de memoria",
term_zh = "内存感知NAS",
aliases_es = { "NAS con restricciones de memoria", "búsqueda de arquitecturas consciente de memoria" },
aliases_zh = { "memory-aware NAS", "内存感知神经架构搜索", "内存约束NAS" },
}
data["memoryless property"] = {
short = "The defining property of geometric and exponential distributions whereby P(X > s + t | X > s) = P(X > t) for all nonnegative s, t; equivalently, the residual lifetime is independent of the elapsed time.",
article = nil,
aliases = { "memorylessness", "memoryless distribution", "Markov property of waiting time", "lack-of-memory property" },
es = "Propiedad que caracteriza a las distribuciones geométrica y exponencial, según la cual P(X > s + t | X > s) = P(X > t) para todo s, t no negativos; equivalentemente, el tiempo de vida residual es independiente del tiempo transcurrido.",
zh = "几何分布与指数分布的特征性质:对任意非负 s 与 t,有 P(X > s + t | X > s) = P(X > t);等价地,剩余寿命与已过去的时间相互独立。",
term_es = "propiedad de pérdida de memoria",
term_zh = "无记忆性",
aliases_es = { "ausencia de memoria", "propiedad sin memoria", "falta de memoria" },
aliases_zh = { "无记忆性质", "memoryless 性质", "无后效性" },
}
data["memsgd"] = {
short = "A communication-efficient SGD variant in which each worker compresses its gradients (e.g., via top-k sparsification) and accumulates the compression error in a local memory, adding it back to the next gradient before compression.",
article = nil,
aliases = { "MemSGD", "memory SGD", "error-feedback SGD", "SGD with error feedback (memory variant)" },
es = "Variante de SGD eficiente en comunicación en la que cada trabajador comprime sus gradientes (por ejemplo, con esparsificación top-k) y acumula el error de compresión en una memoria local, sumándolo al siguiente gradiente antes de comprimir.",
zh = "一种通信高效的 SGD 变体:每个工作节点对梯度进行压缩(如 top-k 稀疏化),并将压缩误差累积在本地记忆中,加回到下一次梯度后再压缩。",
term_es = "MemSGD",
term_zh = "MemSGD",
aliases_es = { "SGD con memoria", "SGD con realimentación de error" },
aliases_zh = { "记忆型 SGD", "带误差反馈的 SGD", "本地记忆 SGD" },
}
data["mendelian randomization"] = {
short = "An epidemiological method that uses genetic variants as instrumental variables to estimate the causal effect of an exposure on an outcome, exploiting the random allocation of alleles at meiosis.",
article = nil,
aliases = { "MR", "Mendelian randomisation", "mendelian randomisation" },
es = "Método epidemiológico que utiliza variantes genéticas como variables instrumentales para estimar el efecto causal de una exposición sobre un desenlace, aprovechando la asignación aleatoria de alelos en la meiosis.",
zh = "一种利用基因变异作为工具变量来推断某种暴露因素对结局的因果效应的流行病学方法,其原理基于减数分裂中等位基因的随机分配。",
term_es = "aleatorización mendeliana",
term_zh = "孟德尔随机化",
aliases_es = { "MR", "randomización mendeliana" },
aliases_zh = { "MR", "Mendelian randomization" },
}
data["merfish"] = {
short = "Multiplexed error-robust fluorescence in situ hybridization, a single-molecule imaging method that profiles the spatial expression of hundreds to thousands of RNA species in fixed cells and tissue.",
article = nil,
aliases = { "MERFISH", "multiplexed error-robust FISH", "multiplexed error-robust fluorescence in situ hybridization" },
es = "Hibridación in situ por fluorescencia multiplexada y robusta a errores (MERFISH); técnica de imagen de moléculas individuales que mide la expresión espacial de cientos a miles de ARN en células y tejidos fijados.",
zh = "多重纠错荧光原位杂交(MERFISH),一种单分子成像技术,可在固定的细胞或组织中对数百至数千种 RNA 进行空间表达谱测定。",
term_es = "MERFISH",
term_zh = "MERFISH",
aliases_es = { "MERFISH", "FISH multiplexada robusta a errores" },
aliases_zh = { "MERFISH", "多重纠错 FISH" },
}
data["meritocratic fairness"] = {
short = "A fairness criterion under which selection or scoring depends only on individual merit (a relevant qualification signal), so that comparably qualified individuals are treated comparably regardless of group membership.",
article = nil,
aliases = { "meritocracy fairness", "merit-based fairness" },
es = "Criterio de equidad bajo el cual la selección o puntuación depende únicamente del mérito individual (una señal de cualificación relevante), de modo que individuos comparablemente cualificados son tratados de forma comparable sin importar su pertenencia a un grupo.",
zh = "一种公平性准则,认为选拔或评分应仅取决于个体的相关资质,使得资质相当的个体不论群体归属都获得可比的对待。",
term_es = "equidad meritocrática",
term_zh = "精英主义公平性",
aliases_es = { "equidad basada en el mérito", "justicia meritocrática" },
aliases_zh = { "基于能力的公平", "唯才是举的公平性" },
}
data["merlot"] = {
short = "A self-supervised video-language model that learns multimodal script knowledge by jointly modeling video frames, ASR transcripts, and temporal ordering, enabling commonsense reasoning over events in time.",
article = nil,
aliases = { "MERLOT", "Merlot", "Multimodal Event Representation Learning Over Time" },
es = "Modelo video-lenguaje autosupervisado que aprende conocimiento de guion multimodal modelando conjuntamente fotogramas de video, transcripciones ASR y orden temporal, permitiendo razonamiento de sentido común sobre eventos en el tiempo.",
zh = "一种自监督视频-语言模型,通过联合建模视频帧、自动语音识别转录和时间顺序来学习多模态脚本知识,从而支持对事件随时间的常识推理。",
term_es = "MERLOT",
term_zh = "MERLOT",
aliases_es = {},
aliases_zh = {},
}
data["merlot reserve"] = {
short = "An extension of MERLOT that jointly learns audio, vision, and language representations from web video using a contrastive masked-span prediction objective, supporting reasoning over sound, image, and speech.",
article = nil,
aliases = { "MERLOT Reserve", "MERLOT-Reserve", "Merlot Reserve" },
es = "Extensión de MERLOT que aprende conjuntamente representaciones de audio, visión y lenguaje a partir de videos web usando un objetivo contrastivo de predicción de tramos enmascarados, soportando razonamiento sobre sonido, imagen y habla.",
zh = "MERLOT 的扩展模型,使用对比式掩码片段预测目标从网络视频中联合学习音频、视觉和语言表征,支持对声音、图像和语音的推理。",
term_es = "MERLOT Reserve",
term_zh = "MERLOT Reserve",
aliases_es = { "MERLOT-Reserve" },
aliases_zh = { "MERLOT-Reserve" },
}
data["mert"] = {
short = "A self-supervised acoustic music understanding model that learns general-purpose music representations using masked language modeling on discretized audio tokens combined with acoustic and musical pseudo-targets.",
article = nil,
aliases = { "MERT", "Music undERstanding model with large-scale self-supervised Training" },
es = "Modelo autosupervisado de comprensión musical acústica que aprende representaciones generales de música usando modelado de lenguaje enmascarado sobre tokens de audio discretizados combinado con pseudo-objetivos acústicos y musicales.",
zh = "一种自监督的声学音乐理解模型,通过对离散化音频标记进行掩码语言建模,并结合声学与音乐伪标签,学习通用音乐表征。",
term_es = "MERT",
term_zh = "MERT",
aliases_es = {},
aliases_zh = {},
}
data["mesh"] = {
short = "A 3D surface representation composed of vertices, edges, and faces (typically triangles or quadrilaterals) that approximates the boundary of an object. Standard format for computer graphics, simulation, and many 3D learning tasks.",
article = nil,
aliases = { "polygon mesh", "triangle mesh", "3D mesh" },
es = "Representación 3D de una superficie compuesta por vértices, aristas y caras (típicamente triángulos o cuadriláteros) que aproxima la frontera de un objeto. Formato estándar en gráficos por computadora, simulación y muchas tareas de aprendizaje 3D.",
zh = "一种三维表面表示,由顶点、边和面(通常为三角形或四边形)组成,用于逼近物体的边界。是计算机图形学、仿真以及许多三维学习任务的标准格式。",
term_es = "malla",
term_zh = "网格",
aliases_es = { "malla poligonal", "malla 3D", "malla triangular" },
aliases_zh = { "mesh", "三角网格", "多边形网格" },
}
data["mesh terms"] = {
short = "Medical Subject Headings, the controlled vocabulary thesaurus maintained by the U.S. National Library of Medicine for indexing and searching biomedical literature in PubMed and MEDLINE.",
article = nil,
aliases = { "MeSH", "MeSH terms", "Medical Subject Headings" },
es = "Encabezados de Materia Médica (MeSH); tesauro de vocabulario controlado mantenido por la Biblioteca Nacional de Medicina de EE. UU. para indexar y consultar la literatura biomédica en PubMed y MEDLINE.",
zh = "医学主题词(MeSH,Medical Subject Headings),由美国国立医学图书馆维护的受控词表,用于在 PubMed 和 MEDLINE 中对生物医学文献进行索引和检索。",
term_es = "términos MeSH",
term_zh = "MeSH 主题词",
aliases_es = { "MeSH", "encabezados MeSH" },
aliases_zh = { "MeSH", "医学主题词" },
}
data["message passing neural network"] = {
short = "A general framework for graph neural networks in which nodes iteratively exchange learned messages with their neighbors and update their state through a learned aggregation function.",
article = nil,
aliases = { "MPNN", "MPNNs", "message passing neural networks", "message-passing neural network" },
es = "Marco general para redes neuronales de grafos en el que los nodos intercambian iterativamente mensajes aprendidos con sus vecinos y actualizan su estado mediante una función de agregación aprendida.",
zh = "图神经网络的通用框架,节点之间迭代地交换学习到的消息,并通过学习到的聚合函数更新自身状态。",
term_es = "red neuronal de paso de mensajes",
term_zh = "消息传递神经网络",
aliases_es = { "MPNN", "MPNNs", "redes neuronales de paso de mensajes" },
aliases_zh = { "MPNN", "消息传递网络" },
}
data["meta-batch"] = {
short = "In meta-learning, a collection of tasks — each with its own support and query sets — sampled together to compute a single meta-gradient update.",
article = nil,
aliases = { "meta batch", "task batch" },
es = "En meta-aprendizaje, conjunto de tareas — cada una con sus propios conjuntos de soporte y consulta — muestreadas conjuntamente para calcular una única actualización de meta-gradiente.",
zh = "元学习中同时采样的一批任务(每个任务包含各自的支持集和查询集),用于计算一次元梯度更新。",
term_es = "meta-lote",
term_zh = "元批次",
aliases_es = { "meta-batch", "lote de tareas" },
aliases_zh = { "meta-batch", "任务批次", "元批量" },
}
data["meta-curvature"] = {
short = "A meta-learning method that learns a curvature matrix transforming the inner-loop gradient, generalizing per-parameter learning rates to capture cross-parameter interactions for faster adaptation.",
article = nil,
aliases = { "meta curvature", "MC" },
es = "Método de meta-aprendizaje que aprende una matriz de curvatura que transforma el gradiente del bucle interno, generalizando las tasas de aprendizaje por parámetro para capturar interacciones entre parámetros y acelerar la adaptación.",
zh = "一种元学习方法,学习一个曲率矩阵以变换内循环梯度,将逐参数学习率推广为能捕获参数间相互作用的形式,以加速适应。",
term_es = "meta-curvature",
term_zh = "元曲率",
aliases_es = { "meta-curvatura" },
aliases_zh = { "meta-curvature" },
}
data["meta-dataset"] = {
short = "A few-shot classification benchmark assembling tasks from multiple image sources (ImageNet, Omniglot, Aircraft, CUB, etc.) with variable numbers of classes and shots, designed to evaluate cross-domain generalization of meta-learners.",
article = nil,
aliases = { "meta dataset", "Meta-Dataset" },
es = "Conjunto de prueba de clasificación con pocos ejemplos que reúne tareas de múltiples fuentes de imágenes (ImageNet, Omniglot, Aircraft, CUB, etc.) con números variables de clases y ejemplos, diseñado para evaluar la generalización entre dominios de los meta-aprendices.",
zh = "一种少样本分类基准,汇集来自多个图像源(ImageNet、Omniglot、Aircraft、CUB等)、类别数和样本数可变的任务,用于评估元学习方法的跨领域泛化能力。",
term_es = "Meta-Dataset",
term_zh = "Meta-Dataset",
aliases_es = { "conjunto Meta-Dataset" },
aliases_zh = { "Meta-Dataset", "元数据集" },
}
data["meta-explanation"] = {
short = "An explanation about explanations: a higher-order analysis that compares, aggregates, or reasons about the outputs of multiple explanation methods to summarize their agreement or relative trustworthiness.",
article = nil,
aliases = { "meta explanation", "explanation of explanations", "second-order explanation" },
es = "Explicación sobre explicaciones: un análisis de orden superior que compara, agrega o razona sobre las salidas de varios métodos de explicación para resumir su acuerdo o confiabilidad relativa.",
zh = "关于解释的解释:一种高阶分析,对多种解释方法的输出进行比较、聚合或推理,以总结它们的一致性或相对可信度。",
term_es = "metaexplicación",
term_zh = "元解释",
aliases_es = { "meta-explicación", "explicación de explicaciones", "explicación de segundo orden" },
aliases_zh = { "元-解释", "解释的解释", "二阶解释" },
}
data["meta-features"] = {
short = "Statistical or descriptive properties of a dataset — number of samples, feature types, class imbalance, mutual information, landmark accuracies — used by meta-learning and AutoML systems to recommend algorithms or warm-start search.",
article = nil,
aliases = { "meta features", "metafeatures", "dataset meta-features" },
es = "Propiedades estadísticas o descriptivas de un conjunto de datos — número de muestras, tipos de variables, desbalance de clases, información mutua, exactitudes de landmark — utilizadas por sistemas de meta-aprendizaje y AutoML para recomendar algoritmos o inicializar la búsqueda.",
zh = "数据集的统计或描述性属性——样本数、特征类型、类别不平衡、互信息、地标准确率等——元学习与AutoML系统据此推荐算法或为搜索热启动提供初值。",
term_es = "meta-características",
term_zh = "元特征",
aliases_es = { "metacaracterísticas", "meta-features" },
aliases_zh = { "meta-features", "元特性", "数据集元特征" },
}
data["meta-learner"] = {
short = "A class of methods for estimating heterogeneous treatment effects that combine arbitrary supervised learners as base components; common variants include the S-, T-, X-, R-, and DR-learners.",
article = nil,
aliases = { "metalearner", "CATE meta-learner", "S-learner", "T-learner", "X-learner", "R-learner" },
es = "Familia de métodos para estimar efectos heterogéneos del tratamiento que combinan aprendices supervisados arbitrarios como componentes base; entre las variantes habituales están los S-, T-, X-, R- y DR-learners.",
zh = "一类估计异质处理效应的方法,以任意监督学习器作为基本组件进行组合;常见变体包括 S-、T-、X-、R- 和 DR-learner。",
term_es = "meta-aprendiz",
term_zh = "元学习器",
aliases_es = { "metaaprendiz", "meta-learner", "S-learner", "T-learner", "X-learner" },
aliases_zh = { "meta-learner", "元学习方法", "S 学习器", "T 学习器", "X 学习器" },
}
data["meta-learner lstm"] = {
short = "A meta-learning approach in which an LSTM is trained to act as the optimizer of a task-specific learner, producing parameter updates that achieve fast few-shot adaptation (Ravi and Larochelle, 2017).",
article = nil,
aliases = { "meta learner LSTM", "LSTM meta-learner", "meta-LSTM" },
es = "Enfoque de meta-aprendizaje en el que se entrena una LSTM para actuar como optimizador de un aprendiz específico de la tarea, generando actualizaciones de parámetros que logran adaptación rápida con pocos ejemplos (Ravi y Larochelle, 2017).",
zh = "一种元学习方法,训练LSTM作为任务特定学习者的优化器,生成参数更新以在少样本下实现快速适应(Ravi 与 Larochelle,2017)。",
term_es = "meta-aprendiz LSTM",
term_zh = "元学习器LSTM",
aliases_es = { "LSTM como meta-aprendiz", "meta-LSTM" },
aliases_zh = { "LSTM元学习器", "meta-learner LSTM", "元LSTM" },
}
data["meta-learning"] = {
short = "A family of methods that train models to learn new tasks quickly, typically by optimizing across a distribution of tasks so the resulting model adapts with few examples or gradient steps.",
article = nil,
aliases = { "metalearning", "meta learning", "learning to learn" },
es = "Familia de métodos que entrenan modelos para aprender nuevas tareas rápidamente, normalmente optimizando sobre una distribución de tareas de modo que el modelo resultante se adapte con pocos ejemplos o pasos de gradiente.",
zh = "一类训练模型以快速学习新任务的方法,通常通过在任务分布上进行优化,使所得模型仅需少量样本或梯度步即可适应。",
term_es = "meta-aprendizaje",
term_zh = "元学习",
aliases_es = { "metaaprendizaje", "meta learning", "aprender a aprender" },
aliases_zh = { "meta-learning", "学会学习", "元学习方法" },
}
data["meta-optimizer"] = {
short = "An optimizer whose update rule is itself learned by an outer optimization process, typically by training a small neural network to map gradients to parameter updates.",
article = nil,
aliases = { "meta optimizer", "learned optimizer" },
es = "Optimizador cuya regla de actualización se aprende mediante un proceso de optimización externo, normalmente entrenando una pequeña red neuronal que asocia gradientes a actualizaciones de parámetros.",
zh = "其更新规则本身由外层优化过程学习得到的优化器,通常通过训练一个小型神经网络将梯度映射为参数更新。",
term_es = "meta-optimizador",
term_zh = "元优化器",
aliases_es = { "optimizador aprendido" },
aliases_zh = { "学习型优化器" },
}
data["meta-overfitting"] = {
short = "Overfitting at the meta-level: a meta-learner specializes to the meta-training task distribution and fails to generalize to held-out tasks, even when within-task adaptation appears effective.",
article = nil,
aliases = { "meta overfitting", "meta-level overfitting" },
es = "Sobreajuste a nivel meta: un meta-aprendiz se especializa en la distribución de tareas de meta-entrenamiento y no generaliza a tareas reservadas, aun cuando la adaptación dentro de cada tarea parezca efectiva.",
zh = "元层级的过拟合:元学习器过度拟合于元训练任务分布,无法泛化到留出任务,即便每个任务内部的适应看似有效。",
term_es = "meta-sobreajuste",
term_zh = "元过拟合",
aliases_es = { "sobreajuste meta", "meta-overfitting" },
aliases_zh = { "meta-overfitting", "元层过拟合" },
}
data["meta-prompting"] = {
short = "A technique in which a language model is given a high-level prompt that instructs it to design or rewrite the actual task prompt, often coordinating sub-tasks across multiple expert personas or tool calls.",
article = nil,
aliases = { "meta prompting", "metaprompting", "meta-prompt", "meta prompt" },
es = "Técnica en la que se proporciona a un modelo de lenguaje un prompt de alto nivel que le indica diseñar o reescribir el prompt real de la tarea, coordinando frecuentemente subtareas entre múltiples personas expertas o llamadas a herramientas.",
zh = "一种提示策略:给大语言模型一个高层提示,要求其设计或改写真正的任务提示,通常用于在多个专家角色或工具调用之间协调子任务。",
term_es = "meta-prompting",
term_zh = "元提示",
aliases_es = { "meta prompting", "metaprompting", "meta-prompt" },
aliases_zh = { "meta-prompting", "元提示词", "meta prompt" },
}
data["meta-sgd"] = {
short = "A meta-learning algorithm that, in addition to learning initial parameters, also learns a per-parameter vector of inner-loop learning rates and update directions, generalizing MAML.",
article = nil,
aliases = { "meta SGD", "Meta-SGD", "MetaSGD" },
es = "Algoritmo de meta-aprendizaje que, además de aprender los parámetros iniciales, también aprende un vector por parámetro de tasas de aprendizaje y direcciones de actualización del bucle interno, generalizando MAML.",
zh = "一种元学习算法,除学习初始参数外,还学习内循环中每个参数的学习率与更新方向向量,是MAML的推广。",
term_es = "Meta-SGD",
term_zh = "Meta-SGD",
aliases_es = { "meta-SGD", "MetaSGD" },
aliases_zh = { "Meta-SGD", "MetaSGD", "元SGD" },
}
data["meta-test"] = {
short = "The set of held-out tasks used after meta-training to evaluate a meta-learner's ability to adapt to new, unseen tasks; the meta-learning analogue of a test set.",
article = nil,
aliases = { "meta test", "meta-testing", "meta test set" },
es = "Conjunto de tareas reservadas que se utiliza tras el meta-entrenamiento para evaluar la capacidad de un meta-aprendiz de adaptarse a tareas nuevas no vistas; análogo al conjunto de prueba en aprendizaje convencional.",
zh = "元训练后用于评估元学习器对未见新任务适应能力的留出任务集合,相当于常规学习中的测试集。",
term_es = "meta-prueba",
term_zh = "元测试",
aliases_es = { "meta-test", "conjunto de meta-prueba" },
aliases_zh = { "meta-test", "元测试集" },
}
data["meta-train"] = {
short = "The collection of tasks used during the meta-training phase of meta-learning to fit the meta-parameters (initial weights, learning rates, optimizer); analogous to the training set in conventional learning.",
article = nil,
aliases = { "meta train", "meta-training", "meta training set" },
es = "Conjunto de tareas utilizado durante la fase de meta-entrenamiento del meta-aprendizaje para ajustar los meta-parámetros (pesos iniciales, tasas de aprendizaje, optimizador); análogo al conjunto de entrenamiento en aprendizaje convencional.",
zh = "元学习的元训练阶段用于拟合元参数(初始权重、学习率、优化器)的任务集合,相当于常规学习中的训练集。",
term_es = "meta-entrenamiento",
term_zh = "元训练",
aliases_es = { "meta-train", "conjunto de meta-entrenamiento" },
aliases_zh = { "meta-train", "元训练集" },
}
data["meta-transformer multimodal"] = {
short = "A unified multimodal framework that uses a single shared transformer encoder with frozen weights to process up to twelve modalities — including image, text, audio, point cloud, and time-series — through modality-specific tokenizers.",
article = nil,
aliases = { "Meta-Transformer", "Meta Transformer", "Meta-Transformer multimodal" },
es = "Marco multimodal unificado que utiliza un único codificador Transformer compartido con pesos congelados para procesar hasta doce modalidades — incluyendo imagen, texto, audio, nube de puntos y series temporales — mediante tokenizadores específicos de modalidad.",
zh = "一种统一的多模态框架,使用一个权重冻结的共享 Transformer 编码器,通过模态特定的分词器处理多达十二种模态,包括图像、文本、音频、点云和时间序列。",
term_es = "Meta-Transformer",
term_zh = "Meta-Transformer",
aliases_es = { "Meta Transformer" },
aliases_zh = { "Meta Transformer" },
}
data["meta-validation"] = {
short = "A set of held-out tasks used during meta-training for meta-level model selection, hyperparameter tuning, and early stopping; analogous to the validation set in standard learning.",
article = nil,
aliases = { "meta validation", "meta validation set" },
es = "Conjunto de tareas reservadas utilizado durante el meta-entrenamiento para la selección de modelos a nivel meta, el ajuste de hiperparámetros y la parada temprana; análogo al conjunto de validación en aprendizaje convencional.",
zh = "元训练期间用于元层级模型选择、超参数调优和早停的留出任务集合,相当于常规学习中的验证集。",
term_es = "meta-validación",
term_zh = "元验证",
aliases_es = { "meta-validation", "conjunto de meta-validación" },
aliases_zh = { "meta-validation", "元验证集" },
}
data["metabat2"] = {
short = "A metagenomic binning tool that groups assembled contigs into genome bins using tetranucleotide frequencies and contig coverage profiles across samples.",
article = nil,
aliases = { "MetaBAT2", "MetaBAT 2", "metabat" },
es = "Herramienta de binning metagenómico que agrupa contigs ensamblados en bins genómicos usando frecuencias de tetranucleótidos y perfiles de cobertura entre muestras.",
zh = "一种宏基因组分箱工具,利用四核苷酸频率和跨样本的 contig 覆盖度,将组装得到的 contig 聚类为基因组分箱(bin)。",
term_es = "MetaBAT2",
term_zh = "MetaBAT2",
aliases_es = { "MetaBAT2", "MetaBAT 2" },
aliases_zh = { "MetaBAT2", "MetaBAT 2" },
}
data["metabolism prediction"] = {
short = "Computational prediction of how a compound is biotransformed in vivo, including likely sites of metabolism, metabolite structures, and responsible enzymes (e.g. cytochrome P450 isoforms), used in early ADMET assessment.",
article = nil,
aliases = { "drug metabolism prediction", "metabolite prediction", "site of metabolism prediction", "SoM prediction", "xenobiotic metabolism prediction" },
es = "Predicción computacional de cómo un compuesto se biotransforma in vivo, incluyendo los sitios probables de metabolismo, las estructuras de los metabolitos y las enzimas responsables (por ejemplo, isoformas del citocromo P450), utilizada en la evaluación temprana de ADMET.",
zh = "对化合物在体内生物转化方式的计算预测,包括可能的代谢位点、代谢产物结构以及参与的酶(如细胞色素 P450 同工酶),广泛用于早期 ADMET 评估。",
term_es = "predicción del metabolismo",
term_zh = "代谢预测",
aliases_es = { "predicción del metabolismo", "predicción de metabolitos", "predicción del sitio de metabolismo" },
aliases_zh = { "代谢预测", "药物代谢预测", "代谢产物预测", "代谢位点预测" },
}
data["metadynamics"] = {
short = "An enhanced-sampling molecular dynamics method that biases simulations along chosen collective variables by depositing history-dependent Gaussian potentials, accelerating barrier crossing and reconstructing the underlying free-energy surface.",
article = nil,
aliases = { "MetaD", "metaD", "metadynamics simulation", "well-tempered metadynamics", "WT-MetaD" },
es = "Método de muestreo mejorado en dinámica molecular que sesga la simulación a lo largo de variables colectivas elegidas depositando potenciales gaussianos dependientes del historial, acelerando el cruce de barreras y reconstruyendo la superficie de energía libre subyacente.",
zh = "一种增强采样分子动力学方法,通过沿选定的集体变量沉积依赖历史的高斯势对模拟施加偏置,加速跨越能量势垒并重建底层的自由能面。",
term_es = "metadinámica",
term_zh = "元动力学",
aliases_es = { "metadinámica", "metadinámica bien templada", "metadinámica well-tempered" },
aliases_zh = { "元动力学", "metadynamics", "良性调温元动力学" },
}
data["metagenome assembled genome"] = {
short = "A draft microbial genome reconstructed by assembling and binning contigs directly from a metagenomic sample, without prior cultivation of the organism.",
article = nil,
aliases = { "MAG", "MAGs", "metagenome-assembled genome" },
es = "Genoma microbiano borrador reconstruido al ensamblar y agrupar contigs directamente desde una muestra metagenómica, sin necesidad de cultivar previamente el organismo.",
zh = "宏基因组组装基因组(MAG):直接从宏基因组样本中通过组装和分箱重建出的微生物草图基因组,无需先对该菌进行纯培养。",
term_es = "genoma ensamblado a partir de metagenoma",
term_zh = "宏基因组组装基因组",
aliases_es = { "MAG", "genoma ensamblado del metagenoma" },
aliases_zh = { "MAG", "metagenome-assembled genome" },
}
data["metagenomic binning"] = {
short = "The process of grouping assembled metagenomic contigs into clusters that represent putative individual genomes, typically using composition (k-mer profiles) and differential coverage across samples.",
article = nil,
aliases = { "binning", "metagenome binning", "genome binning" },
es = "Proceso de agrupar contigs metagenómicos ensamblados en clústeres que representan genomas individuales putativos, normalmente usando composición (perfiles de k-meros) y cobertura diferencial entre muestras.",
zh = "宏基因组分箱:将宏基因组组装得到的 contig 按可能来源的单一基因组聚类的过程,通常基于序列组成(k-mer 谱)和跨样本的差异覆盖度。",
term_es = "binning metagenómico",
term_zh = "宏基因组分箱",
aliases_es = { "binning", "agrupamiento de contigs metagenómicos" },
aliases_zh = { "分箱", "metagenomic binning" },
}
data["metagenomics"] = {
short = "The study of genetic material recovered directly from environmental or host-associated samples, characterizing community composition and function without isolating individual organisms.",
article = nil,
aliases = { "metagenomic analysis", "shotgun metagenomics", "environmental genomics" },
es = "Estudio del material genético recuperado directamente de muestras ambientales o asociadas al huésped, caracterizando la composición y función de la comunidad microbiana sin aislar los organismos.",
zh = "宏基因组学:直接从环境或宿主相关样本中提取并研究全部遗传物质,以表征微生物群落组成与功能,而无需分离培养单个物种。",
term_es = "metagenómica",
term_zh = "宏基因组学",
aliases_es = { "metagenómica shotgun", "análisis metagenómico" },
aliases_zh = { "宏基因组分析", "环境基因组学" },
}
data["metagpt"] = {
short = "A multi-agent framework in which language-model agents take on software-company roles such as product manager, architect, engineer, and QA, exchanging structured artifacts to collaboratively produce code from a single requirement.",
article = nil,
aliases = { "MetaGPT", "Meta-GPT" },
es = "Marco multiagente en el que agentes basados en modelos de lenguaje asumen roles propios de una empresa de software, como gestor de producto, arquitecto, ingeniero y QA, intercambiando artefactos estructurados para producir código colaborativamente a partir de un único requisito.",
zh = "一种多智能体框架,由大语言模型扮演产品经理、架构师、工程师、测试等软件公司角色,通过交换结构化产物从单一需求协同生成代码。",
term_es = "MetaGPT",
term_zh = "MetaGPT",
aliases_es = { "Meta-GPT" },
aliases_zh = { "Meta-GPT" },
}
data["metamath"] = {
short = "A formal language and proof-checking system for expressing mathematics from a small set of axioms, paired with a large public proof database. Frequently used as training data for machine-learning approaches to theorem proving.",
article = nil,
aliases = { "Metamath", "MetaMath", "metamath proof database", "set.mm" },
es = "Lenguaje formal y sistema de verificación de demostraciones que permite expresar las matemáticas a partir de un pequeño conjunto de axiomas, acompañado de una gran base pública de demostraciones. Se utiliza con frecuencia como datos de entrenamiento para enfoques de aprendizaje automático en demostración de teoremas.",
zh = "一种用于从少量公理出发表达数学的形式语言与证明检查系统,配有大型公开证明数据库,常被用作机器学习定理证明方法的训练数据。",
term_es = "Metamath",
term_zh = "Metamath",
aliases_es = { "MetaMath", "base de demostraciones Metamath" },
aliases_zh = { "MetaMath", "Metamath 证明库", "set.mm" },
}
data["metamathqa"] = {
short = "A mathematical reasoning fine-tuning dataset of about 395k question-answer pairs bootstrapped from GSM8K and MATH by rewriting questions through forward, backward, and self-verification transformations.",
article = nil,
aliases = { "MetaMathQA", "MetaMath QA", "MetaMath dataset" },
es = "Conjunto de datos de ajuste fino para razonamiento matemático con cerca de 395 mil pares de pregunta y respuesta generados a partir de GSM8K y MATH mediante reescrituras directas, inversas y de autoverificación.",
zh = "一个数学推理微调数据集,约含 39.5 万问答对,由 GSM8K 与 MATH 通过正向改写、反向改写与自验证改写自举生成。",
term_es = "MetaMathQA",
term_zh = "MetaMathQA",
aliases_es = { "MetaMath QA", "conjunto MetaMath" },
aliases_zh = { "MetaMath QA", "MetaMath 数据集" },
}
data["metapath2vec"] = {
short = "A heterogeneous-network embedding method that performs random walks guided by user-specified meta-paths over typed nodes, then trains a skip-gram model to learn type-aware node representations.",
article = nil,
aliases = { "metapath2vec", "Metapath2Vec", "meta-path2vec", "MP2V" },
es = "Método de embedding para redes heterogéneas que realiza caminatas aleatorias guiadas por meta-trayectorias definidas por el usuario sobre nodos tipados y luego entrena un modelo skip-gram para aprender representaciones de nodos sensibles al tipo.",
zh = "一种异质网络嵌入方法,在带类型节点上沿用户指定的元路径进行随机游走,并训练 skip-gram 模型以学习类型感知的节点表示。",
term_es = "metapath2vec",
term_zh = "metapath2vec",
aliases_es = { "Metapath2Vec", "meta-path2vec" },
aliases_zh = { "Metapath2Vec", "元路径嵌入" },
}
data["metaphlan"] = {
short = "A computational tool that profiles the composition of microbial communities from metagenomic shotgun sequencing data using clade-specific marker genes.",
article = nil,
aliases = { "MetaPhlAn", "MetaPhlAn2", "MetaPhlAn3", "MetaPhlAn4" },
es = "Herramienta computacional que perfila la composición de comunidades microbianas a partir de datos de secuenciación metagenómica shotgun usando genes marcadores específicos de clado.",
zh = "一种计算工具,利用 clade 特异性标记基因,从宏基因组鸟枪法测序数据中刻画微生物群落组成。",
term_es = "MetaPhlAn",
term_zh = "MetaPhlAn",
aliases_es = { "MetaPhlAn", "MetaPhlAn4" },
aliases_zh = { "MetaPhlAn", "MetaPhlAn4" },
}
data["metaqa"] = {
short = "A multi-hop question-answering benchmark over the WikiMovies knowledge base, with one-, two-, and three-hop natural-language questions used to evaluate knowledge-graph QA and path-based reasoning systems.",
article = nil,
aliases = { "MetaQA", "MetaQA benchmark", "MetaQA dataset" },
es = "Benchmark de respuesta a preguntas con múltiples saltos sobre la base de conocimiento WikiMovies, con preguntas en lenguaje natural de uno, dos y tres saltos, utilizado para evaluar sistemas de QA sobre grafos de conocimiento y de razonamiento basado en caminos.",
zh = "一个基于 WikiMovies 知识库的多跳问答基准,包含一跳、两跳和三跳自然语言问题,用于评估知识图谱问答和基于路径推理的系统。",
term_es = "MetaQA",
term_zh = "MetaQA",
aliases_es = { "benchmark MetaQA", "conjunto MetaQA" },
aliases_zh = { "MetaQA 基准", "MetaQA 数据集" },
}
data["meteor"] = {
short = "A machine translation evaluation metric that computes a unigram alignment between hypothesis and reference using exact, stem, synonym, and paraphrase matches, then combines unigram precision and recall with a fragmentation penalty.",
article = nil,
aliases = { "METEOR", "Metric for Evaluation of Translation with Explicit ORdering" },
es = "Métrica de evaluación de traducción automática que calcula un alineamiento de unigramas entre hipótesis y referencia mediante coincidencias exactas, lemas, sinónimos y paráfrasis, combinando precisión y recall con una penalización por fragmentación.",
zh = "一种机器翻译评价指标,通过精确匹配、词干、同义词与释义匹配在假设与参考之间建立单词对齐,并将单词级精确率与召回率与碎片化惩罚相结合。",
term_es = "METEOR",
term_zh = "METEOR",
aliases_es = { "METEOR" },
aliases_zh = { "METEOR" },
}
data["methylation calling"] = {
short = "The computational identification of methylated bases (typically 5-methylcytosine) in DNA sequencing reads, from bisulfite-converted short reads or from raw electrical signals in nanopore sequencing.",
article = nil,
aliases = { "methylation detection", "DNA methylation calling", "5mC calling" },
es = "Identificación computacional de bases metiladas (típicamente 5-metilcitosina) en lecturas de secuenciación de ADN, ya sea a partir de lecturas tratadas con bisulfito o de señales eléctricas crudas en secuenciación nanopore.",
zh = "甲基化检测:从测序读段中识别甲基化碱基(通常为 5-甲基胞嘧啶)的计算过程,可基于亚硫酸氢盐转化的短读长或纳米孔测序的原始电流信号。",
term_es = "llamado de metilación",
term_zh = "甲基化检出",
aliases_es = { "detección de metilación", "metilación calling" },
aliases_zh = { "甲基化识别", "methylation calling" },
}
data["metropolis-hastings"] = {
short = "A general MCMC algorithm that proposes a candidate state from a proposal distribution and accepts it with probability min(1, [π(x') q(x|x')] / [π(x) q(x'|x)]), producing a Markov chain whose stationary distribution is π. The Metropolis algorithm is the special case with a symmetric proposal.",
article = nil,
aliases = { "Metropolis-Hastings algorithm", "MH", "MH algorithm", "Metropolis–Hastings", "Metropolis algorithm" },
es = "Algoritmo MCMC general que propone un estado candidato a partir de una distribución de propuesta y lo acepta con probabilidad min(1, [π(x') q(x|x')] / [π(x) q(x'|x)]), generando una cadena de Markov cuya distribución estacionaria es π. El algoritmo de Metropolis es el caso especial con propuesta simétrica.",
zh = "一种通用的 MCMC 算法:从建议分布中产生候选状态,并以概率 min(1, [π(x') q(x|x')] / [π(x) q(x'|x)]) 接受,得到一个以 π 为平稳分布的马尔可夫链。Metropolis 算法是建议分布对称时的特例。",
term_es = "Metropolis–Hastings",
term_zh = "Metropolis-Hastings",
aliases_es = { "algoritmo de Metropolis–Hastings", "MH", "algoritmo MH", "algoritmo de Metropolis" },
aliases_zh = { "Metropolis-Hastings 算法", "MH 算法", "Metropolis 算法", "梅特罗波利斯-黑斯廷斯" },
}
data["mfa"] = {
short = "Montreal Forced Aligner: an open-source toolkit that produces phoneme- and word-level time alignments between speech audio and transcripts using HMM-GMM acoustic models trained on Kaldi.",
article = nil,
aliases = { "MFA", "Montreal Forced Aligner" },
es = "Montreal Forced Aligner: kit de herramientas de código abierto que produce alineaciones temporales a nivel de fonema y palabra entre audio de voz y transcripciones, usando modelos acústicos HMM-GMM entrenados con Kaldi.",
zh = "Montreal Forced Aligner:一个开源工具包,使用基于 Kaldi 训练的 HMM-GMM 声学模型,在语音音频与转写之间生成音素级和词级的时间对齐。",
term_es = "MFA",
term_zh = "MFA",
aliases_es = { "Montreal Forced Aligner", "alineador forzado de Montreal" },
aliases_zh = { "Montreal Forced Aligner", "蒙特利尔强制对齐器" },
}
data["mfcc"] = {
short = "Mel-frequency cepstral coefficients: a compact representation of a signal's short-term power spectrum obtained by taking the discrete cosine transform of log mel-filterbank energies.",
article = nil,
aliases = { "MFCC", "MFCCs", "mel-frequency cepstral coefficients", "mel frequency cepstral coefficients" },
es = "Coeficientes cepstrales en frecuencia mel: representación compacta del espectro de potencia a corto plazo de una señal obtenida aplicando la transformada discreta del coseno a las energías logarítmicas del banco de filtros mel.",
zh = "梅尔频率倒谱系数:信号短时功率谱的紧凑表示,对对数梅尔滤波器组能量进行离散余弦变换得到。",
term_es = "MFCC",
term_zh = "MFCC",
aliases_es = { "coeficientes cepstrales en frecuencia mel", "coeficientes cepstrales mel" },
aliases_zh = { "梅尔频率倒谱系数", "Mel频率倒谱系数" },
}
data["mfold"] = {
short = "A web server and program for predicting the secondary structure of single-stranded nucleic acids by minimizing free energy according to the nearest-neighbor thermodynamic model.",
article = nil,
aliases = { "Mfold", "mFold", "UNAfold" },
es = "Servidor web y programa para predecir la estructura secundaria de ácidos nucleicos monocatenarios mediante la minimización de la energía libre según el modelo termodinámico de vecinos más próximos.",
zh = "一种用于预测单链核酸二级结构的网页服务器与程序,通过基于最近邻热力学模型最小化自由能来给出可能的折叠构象。",
term_es = "Mfold",
term_zh = "Mfold",
aliases_es = { "Mfold", "UNAfold" },
aliases_zh = { "Mfold", "UNAfold" },
}
data["mhc binding prediction"] = {
short = "The computational prediction of whether a peptide binds to a given MHC class I or class II molecule, used in immunoinformatics to identify candidate T-cell epitopes.",
article = nil,
aliases = { "MHC binding prediction", "peptide-MHC binding prediction", "HLA binding prediction" },
es = "Predicción computacional de si un péptido se une a una molécula MHC de clase I o II; herramienta clave en inmunoinformática para identificar candidatos a epítopos de células T.",
zh = "MHC 结合预测:使用计算方法预测某条肽段是否能与给定的 MHC I 类或 II 类分子结合,是免疫信息学中识别潜在 T 细胞表位的重要手段。",
term_es = "predicción de unión a MHC",
term_zh = "MHC 结合预测",
aliases_es = { "predicción de unión péptido-MHC", "predicción de unión a HLA" },
aliases_zh = { "MHC 结合预测", "HLA 结合预测" },
}
data["mhcflurry"] = {
short = "An open-source neural-network-based predictor of peptide–MHC class I binding affinity and presentation, trained on quantitative binding and mass-spectrometry-derived ligandome data.",
article = nil,
aliases = { "MHCflurry", "mhc flurry" },
es = "Predictor de afinidad y presentación de uniones péptido–MHC clase I basado en redes neuronales de código abierto, entrenado con datos cuantitativos de unión y ligandomas obtenidos por espectrometría de masas.",
zh = "MHCflurry:一个开源的、基于神经网络的肽–MHC I 类结合亲和力与呈递预测工具,使用定量结合数据和质谱获取的配体组数据进行训练。",
term_es = "MHCflurry",
term_zh = "MHCflurry",
aliases_es = { "MHCflurry" },
aliases_zh = { "MHCflurry" },
}
data["mhfp fingerprint"] = {
short = "MinHash Fingerprint: a molecular fingerprint that applies MinHash to circular substructure shingles (similar to ECFP) to produce a compact integer signature suitable for fast Jaccard-based similarity search at large scale.",
article = nil,
aliases = { "MHFP", "MHFP6", "MHFP fingerprint", "MinHash fingerprint" },
es = "Huella MinHash: huella molecular que aplica MinHash a fragmentos circulares (similares a ECFP) para producir una firma entera compacta adecuada para la búsqueda rápida de similitud basada en Jaccard a gran escala.",
zh = "MHFP 是一种分子指纹,对圆形子结构片段(类似 ECFP)应用 MinHash,生成紧凑的整数签名,适用于大规模、基于 Jaccard 相似度的快速相似性搜索。",
term_es = "huella MHFP",
term_zh = "MHFP 指纹",
aliases_es = { "MHFP", "huella MHFP", "huella MinHash" },
aliases_zh = { "MHFP", "MHFP 指纹", "MinHash 指纹" },
}
data["mhubert"] = {
short = "A multilingual variant of the HuBERT self-supervised speech model trained on speech from many languages to produce shared discrete units used for multilingual speech representation, translation, and synthesis.",
article = nil,
aliases = { "mHuBERT", "multilingual HuBERT", "Multilingual HuBERT" },
es = "Variante multilingüe del modelo autosupervisado de habla HuBERT, entrenada con voz de muchos idiomas para producir unidades discretas compartidas utilizadas en representación, traducción y síntesis multilingüe del habla.",
zh = "HuBERT 自监督语音模型的多语言变体,使用多种语言的语音进行训练,产生共享的离散单元,用于多语言语音表征、翻译与合成。",
term_es = "mHuBERT",
term_zh = "mHuBERT",
aliases_es = { "HuBERT multilingüe" },
aliases_zh = { "多语言HuBERT" },
}
data["mice counterfactual"] = {
short = "Minimum-Cost Counterfactual Explanations (MICE), a method that searches for the cheapest feasible feature change — under a user-defined cost metric — that flips a model's prediction.",
article = nil,
aliases = { "MICE", "Minimum-Cost Counterfactual Explanations", "minimum cost counterfactual" },
es = "Minimum-Cost Counterfactual Explanations (MICE), método que busca el cambio de variables factible más barato —bajo una métrica de coste definida por el usuario— que cambia la predicción de un modelo.",
zh = "Minimum-Cost Counterfactual Explanations(MICE)方法,在用户定义的代价度量下搜索能翻转模型预测的最便宜可行特征改动。",
term_es = "contrafactual MICE",
term_zh = "MICE 反事实",
aliases_es = { "MICE", "explicaciones contrafactuales MICE", "Minimum-Cost Counterfactual Explanations" },
aliases_zh = { "MICE", "MICE 反事实解释", "最小代价反事实" },
}
data["micro search space"] = {
short = "A neural architecture search space focused on the internal structure of a repeated cell — the operations and connectivity inside one block — while the macro architecture (number of cells, channel counts) is fixed by hand.",
article = nil,
aliases = { "micro architecture search space", "cell-level search space" },
es = "Espacio de búsqueda de arquitecturas neuronales centrado en la estructura interna de una celda repetida — las operaciones y conexiones dentro de un bloque — mientras la arquitectura macro (número de celdas, canales) se fija manualmente.",
zh = "神经架构搜索空间的一种,聚焦于重复单元(cell)内部的操作与连接结构,而宏观架构(单元数量、通道数)由人工固定。",
term_es = "espacio de búsqueda micro",
term_zh = "微观搜索空间",
aliases_es = { "espacio de búsqueda a nivel de celda", "espacio micro" },
aliases_zh = { "细胞级搜索空间", "micro search space" },
}
data["micro-batch"] = {
short = "A small partition of a global batch processed in a single forward/backward pass on one device, used in gradient accumulation and pipeline parallelism to reduce per-step memory while preserving the effective batch size.",
article = nil,
aliases = { "microbatch", "micro batch", "micro-batches" },
es = "Pequeña partición de un lote global que se procesa en una sola pasada forward/backward en un dispositivo; se utiliza en la acumulación de gradiente y el paralelismo de tubería para reducir la memoria por paso conservando el tamaño efectivo de lote.",
zh = "全局批量的一个小划分,在单个设备上通过一次前向/反向传播完成;用于梯度累积和流水线并行,以在保持有效批量大小的同时降低单步显存占用。",
term_es = "microlote",
term_zh = "微批量",
aliases_es = { "micro-lote", "microbatch" },
aliases_zh = { "microbatch", "微批", "微批次" },
}
data["micro-c"] = {
short = "A chromosome conformation capture method using micrococcal nuclease digestion to map chromatin contacts at near-nucleosome resolution, an extension of Hi-C with finer resolution.",
article = nil,
aliases = { "Micro-C", "MicroC", "micro C" },
es = "Método de captura de conformación cromosómica que utiliza digestión con nucleasa micrococal para mapear contactos de cromatina con resolución cercana al nucleosoma; una extensión de Hi-C con mayor resolución.",
zh = "Micro-C:一种染色质构象捕获方法,利用微球菌核酸酶(MNase)消化,以接近单核小体的分辨率绘制染色质接触图谱,是 Hi-C 的高分辨率改进版本。",
term_es = "Micro-C",
term_zh = "Micro-C",
aliases_es = { "Micro-C", "MicroC" },
aliases_zh = { "Micro-C", "MicroC" },
}
data["microbiome analysis"] = {
short = "The computational and statistical analysis of microbial community composition, diversity, and function from amplicon (e.g. 16S rRNA) or shotgun metagenomic sequencing data.",
article = nil,
aliases = { "microbiome profiling", "microbial community analysis" },
es = "Análisis computacional y estadístico de la composición, diversidad y función de comunidades microbianas a partir de datos de secuenciación de amplicones (p. ej. 16S rRNA) o metagenómica shotgun.",
zh = "微生物组分析:基于扩增子测序(如 16S rRNA)或鸟枪法宏基因组数据,对微生物群落的组成、多样性和功能进行计算与统计分析。",
term_es = "análisis del microbioma",
term_zh = "微生物组分析",
aliases_es = { "perfil del microbioma", "análisis de comunidades microbianas" },
aliases_zh = { "微生物组学分析", "微生物群落分析" },
}
data["microphone array"] = {
short = "An arrangement of multiple microphones at known relative positions whose signals can be combined to estimate spatial properties of sound, perform beamforming, or enhance and separate sources.",
article = nil,
aliases = { "mic array", "microphone arrays" },
es = "Disposición de varios micrófonos en posiciones relativas conocidas cuyas señales pueden combinarse para estimar propiedades espaciales del sonido, realizar beamforming o mejorar y separar fuentes.",
zh = "由多个麦克风按已知相对位置排列组成的阵列,可对各路信号进行组合以估计声音的空间特性、执行波束形成或增强和分离声源。",
term_es = "arreglo de micrófonos",
term_zh = "麦克风阵列",
aliases_es = { "matriz de micrófonos", "array de micrófonos" },
aliases_zh = { "话筒阵列", "麦克阵列" },
}
data["microsatellite instability"] = {
short = "A hypermutable phenotype caused by impaired DNA mismatch repair, characterized by length variation at short tandem repeats; an important biomarker for Lynch syndrome and immunotherapy response.",
article = nil,
aliases = { "MSI", "MSI-H", "microsatellite instability high" },
es = "Fenotipo hipermutable causado por la pérdida de la reparación de errores de apareamiento del ADN, caracterizado por la variación de longitud en repeticiones cortas en tándem; biomarcador clave en síndrome de Lynch y respuesta a inmunoterapia.",
zh = "微卫星不稳定性(MSI):由于 DNA 错配修复缺陷导致的高突变表型,表现为短串联重复序列的长度变化,是 Lynch 综合征和免疫治疗响应的重要生物标志物。",
term_es = "inestabilidad de microsatélites",
term_zh = "微卫星不稳定性",
aliases_es = { "MSI", "MSI alta", "MSI-H" },
aliases_zh = { "MSI", "微卫星不稳定" },
}
data["mid-training"] = {
short = "A training stage inserted between large-scale pretraining and task-specific fine-tuning, in which a model is further trained on a smaller curated mixture of high-quality or domain-targeted data to upgrade specific capabilities.",
article = nil,
aliases = { "mid training", "midtraining", "mid-train", "continued pretraining stage" },
es = "Etapa de entrenamiento intercalada entre el preentrenamiento a gran escala y el ajuste fino específico de tarea, en la que el modelo se sigue entrenando sobre una mezcla curada de datos de alta calidad o de dominio para mejorar capacidades concretas.",
zh = "介于大规模预训练与任务微调之间的训练阶段,在该阶段对模型继续训练,使用较小但精选的高质量或领域定向数据,以增强特定能力。",
term_es = "entrenamiento intermedio",
term_zh = "中期训练",
aliases_es = { "mid-training", "mid training", "preentrenamiento intermedio" },
aliases_zh = { "mid-training", "中段训练", "继续预训练阶段" },
}
data["midas integration"] = {
short = "Multi-Omics Data Analysis Suite or MOFA-style multi-view integration approach that jointly models heterogeneous omics layers; in microbiome contexts, MIDAS also refers to a strain-level metagenomics pipeline.",
article = nil,
aliases = { "MIDAS", "MIDAS pipeline", "MIDAS strain profiling" },
es = "Integración con MIDAS: en microbioma, pipeline metagenómico para análisis a nivel de cepa; en multi-ómica, suite o enfoque que modela conjuntamente capas heterogéneas de datos ómicos.",
zh = "MIDAS 整合:在微生物组学中,MIDAS 是一个用于菌株级别宏基因组分析的流程;在多组学上下文中,也可指联合建模异质组学层次的整合分析方法。",
term_es = "integración MIDAS",
term_zh = "MIDAS 整合",
aliases_es = { "MIDAS", "pipeline MIDAS" },
aliases_zh = { "MIDAS", "MIDAS 分析" },
}
data["midi diffusion"] = {
short = "MiDi: a 3D molecule diffusion model that jointly generates 2D molecular graphs and 3D coordinates by denoising atom types, bond types, and atomic positions, producing chemically valid and geometrically realistic structures.",
article = nil,
aliases = { "MiDi", "MiDi diffusion", "MiDi diffusion model", "MiDi joint diffusion" },
es = "MiDi: modelo de difusión 3D para moléculas que genera conjuntamente grafos moleculares 2D y coordenadas 3D mediante el denoising de tipos de átomo, tipos de enlace y posiciones atómicas, produciendo estructuras químicamente válidas y geométricamente realistas.",
zh = "MiDi:一种三维分子扩散模型,通过对原子类型、键类型和原子坐标进行联合去噪,同时生成二维分子图与三维结构,得到化学合理且几何真实的分子。",
term_es = "MiDi",
term_zh = "MiDi",
aliases_es = { "MiDi", "modelo de difusión MiDi" },
aliases_zh = { "MiDi", "MiDi 扩散模型" },
}
data["midi tokenization"] = {
short = "The process of converting MIDI files into discrete token sequences (encoding pitch, duration, velocity, time, and control events) suitable as input to autoregressive symbolic music models.",
article = nil,
aliases = { "MIDI tokenization", "MIDI tokenisation", "symbolic music tokenization" },
es = "Proceso de convertir archivos MIDI en secuencias de tokens discretos (que codifican altura, duración, velocidad, tiempo y eventos de control) adecuadas como entrada para modelos autorregresivos de música simbólica.",
zh = "将 MIDI 文件转换为离散标记序列(编码音高、时值、力度、时间和控制事件)的过程,便于作为自回归符号音乐模型的输入。",
term_es = "tokenización MIDI",
term_zh = "MIDI分词",
aliases_es = { "tokenización de MIDI", "tokenización de música simbólica" },
aliases_zh = { "MIDI令牌化", "符号音乐分词" },
}
data["midjourney"] = {
short = "A proprietary text-to-image generative model and service operated via a Discord bot and web interface, producing high-quality stylized imagery from natural-language prompts.",
article = nil,
aliases = { "Midjourney", "MJ" },
es = "Modelo y servicio generativo propietario de texto a imagen, operado a través de un bot de Discord y una interfaz web, que produce imágenes estilizadas de alta calidad a partir de indicaciones en lenguaje natural.",
zh = "一款专有的文本到图像生成模型和服务,通过 Discord 机器人和网页界面运行,可根据自然语言提示生成高质量的风格化图像。",
term_es = "Midjourney",
term_zh = "Midjourney",
aliases_es = { "MJ" },
aliases_zh = { "MJ" },
}
data["mime federated"] = {
short = "A federated optimization framework (Mime) that mimics the trajectory of a centralized algorithm by combining server-side momentum and adaptive statistics with local SGD updates, mitigating client drift under heterogeneity.",
article = nil,
aliases = { "Mime", "Mime framework", "Mime algorithm", "MimeLite" },
es = "Marco de optimización federada (Mime) que imita la trayectoria de un algoritmo centralizado combinando momento y estadísticas adaptativas del lado del servidor con actualizaciones locales de SGD, atenuando la deriva del cliente ante heterogeneidad.",
zh = "一种联邦优化框架(Mime):在客户端进行本地 SGD 的同时,将服务端的动量与自适应统计量带入更新,使其轨迹接近集中式算法,从而缓解异构性下的客户端漂移。",
term_es = "marco Mime federado",
term_zh = "联邦 Mime",
aliases_es = { "Mime", "MimeLite", "algoritmo Mime" },
aliases_zh = { "Mime", "MimeLite", "Mime 框架", "Mime 算法" },
}
data["mimi codec"] = {
short = "A streaming neural audio codec by Kyutai used in the Moshi speech-language model that compresses 24 kHz speech to discrete tokens at very low bitrates while preserving semantic and acoustic content.",
article = nil,
aliases = { "Mimi", "Mimi codec", "Mimi neural codec" },
es = "Códec de audio neuronal en streaming desarrollado por Kyutai y utilizado en el modelo de habla y lenguaje Moshi, que comprime voz a 24 kHz en tokens discretos a tasas de bits muy bajas conservando contenido semántico y acústico.",
zh = "Kyutai 推出的流式神经音频编解码器,用于 Moshi 语音语言模型,可将 24 kHz 语音以极低比特率压缩为离散标记,同时保留语义与声学内容。",
term_es = "códec Mimi",
term_zh = "Mimi编解码器",
aliases_es = { "Mimi", "códec neuronal Mimi" },
aliases_zh = { "Mimi", "Mimi编码器" },
}
data["mimo ensemble"] = {
short = "An implicit ensemble in which a single network is trained to produce multiple predictions from multiple independent inputs presented in parallel, yielding diverse outputs at near single-model cost (Havasi et al. 2021).",
article = nil,
aliases = { "MIMO", "MIMO ensemble", "multi-input multi-output ensemble", "MIMO networks" },
es = "Conjunto implícito en el que una sola red se entrena para producir múltiples predicciones a partir de múltiples entradas independientes presentadas en paralelo, generando salidas diversas a un costo cercano al de un solo modelo (Havasi et al. 2021).",
zh = "一种隐式集成方法:单个网络被训练为从并行输入的多个独立样本同时输出多组预测,以接近单模型的代价获得多样化输出(Havasi 等人,2021)。",
term_es = "conjunto MIMO",
term_zh = "MIMO 集成",
aliases_es = { "MIMO", "ensemble MIMO", "conjunto multi-entrada multi-salida" },
aliases_zh = { "MIMO", "MIMO 网络", "多输入多输出集成" },
}
data["min-p sampling"] = {
short = "A truncated sampling method that keeps only tokens whose probability is at least a fraction p of the most probable token's probability, then samples from the renormalized set. Adapts more aggressively than top-p when the distribution is peaked.",
article = nil,
aliases = { "min-p", "Min-P Sampling", "min p sampling", "min-p decoding" },
es = "Método de muestreo truncado que conserva únicamente los tokens cuya probabilidad sea al menos una fracción p de la probabilidad del token más probable, y luego muestrea del conjunto renormalizado. Se adapta de forma más agresiva que top-p cuando la distribución es muy concentrada.",
zh = "一种截断采样方法,仅保留概率至少为最高概率 token 一定比例 p 的 token,再从重新归一化后的集合中采样。当分布尖锐时,其自适应能力比 top-p 更强。",
term_es = "muestreo min-p",
term_zh = "min-p 采样",
aliases_es = { "min-p sampling", "min-p", "muestreo mínimo p", "decodificación min-p" },
aliases_zh = { "min-p sampling", "min-p", "最小 p 采样", "Min-P 采样" },
}
data["minerva"] = {
short = "A Google language model from 2022 obtained by continually pretraining PaLM on 38 billion tokens of mathematical web pages and arXiv papers, achieving strong few-shot performance on quantitative reasoning benchmarks.",
article = nil,
aliases = { "Minerva", "Minerva model", "Google Minerva", "Minerva LLM" },
es = "Modelo de lenguaje de Google de 2022 obtenido al continuar el preentrenamiento de PaLM sobre 38 mil millones de tokens de páginas web matemáticas y artículos de arXiv, logrando un fuerte desempeño con pocos ejemplos en bancos de razonamiento cuantitativo.",
zh = "Google 于 2022 年发布的语言模型,通过对 PaLM 在 380 亿数学网页和 arXiv 论文词元上继续预训练得到,在定量推理基准的少样本评测中表现出色。",
term_es = "Minerva",
term_zh = "Minerva",
aliases_es = { "modelo Minerva", "Minerva de Google" },
aliases_zh = { "Minerva 模型", "Google Minerva" },
}
data["minerva math"] = {
short = "Shorthand for the quantitative-reasoning evaluation suite reported in the Minerva paper, combining MATH, GSM8K, MMLU-STEM, and a curated set of undergraduate STEM problems used to measure mathematical reasoning in language models.",
article = nil,
aliases = { "Minerva Math", "Minerva math benchmark", "Minerva benchmarks" },
es = "Abreviatura de la suite de evaluación de razonamiento cuantitativo presentada en el artículo de Minerva, que combina MATH, GSM8K, MMLU-STEM y un conjunto curado de problemas STEM de pregrado para medir el razonamiento matemático en modelos de lenguaje.",
zh = "Minerva 论文中报告的定量推理评测套件的简称,包含 MATH、GSM8K、MMLU-STEM 以及一组本科 STEM 问题,用于评估语言模型的数学推理能力。",
term_es = "Minerva Math",
term_zh = "Minerva Math",
aliases_es = { "benchmark Minerva Math", "evaluación Minerva" },
aliases_zh = { "Minerva 数学基准", "Minerva 评测" },
}
data["minerva path reasoning"] = {
short = "A reinforcement-learning agent that answers knowledge-graph queries by walking along edges from a source entity, choosing relations stepwise to reach the answer entity. Trained with policy gradients using a hit-or-miss reward.",
article = nil,
aliases = { "MINERVA", "MINERVA path reasoning", "MINERVA agent", "MINERVA KG walker" },
es = "Agente de aprendizaje por refuerzo que responde consultas sobre grafos de conocimiento recorriendo aristas desde una entidad fuente, eligiendo relaciones paso a paso hasta alcanzar la entidad respuesta. Se entrena con gradientes de política y una recompensa binaria de acierto/fallo.",
zh = "一种强化学习智能体,通过从源实体出发逐步沿关系边游走以到达答案实体来回答知识图谱查询,使用基于命中/未命中奖励的策略梯度方法训练。",
term_es = "razonamiento de caminos MINERVA",
term_zh = "MINERVA 路径推理",
aliases_es = { "MINERVA", "agente MINERVA" },
aliases_zh = { "MINERVA", "MINERVA 智能体", "MINERVA 知识图谱推理" },
}
data["minhash dedup"] = {
short = "A near-duplicate-removal procedure for large text corpora that estimates Jaccard similarity between documents using MinHash signatures and locality-sensitive hashing, widely used to clean web-scale pretraining data.",
article = nil,
aliases = { "MinHash deduplication", "MinHash dedup", "MinHashLSH dedup", "MinHash LSH deduplication", "minhash deduplication" },
es = "Procedimiento de eliminación de casi duplicados en corpus de texto a gran escala que estima la similitud de Jaccard entre documentos mediante firmas MinHash y hashing sensible a la localidad, ampliamente usado para depurar datos de preentrenamiento a escala web.",
zh = "一种针对大规模文本语料的近似去重流程,利用 MinHash 签名与局部敏感哈希估计文档间的 Jaccard 相似度,广泛用于清洗网络规模的预训练数据。",
term_es = "deduplicación MinHash",
term_zh = "MinHash 去重",
aliases_es = { "MinHash dedup", "deduplicación con MinHash LSH" },
aliases_zh = { "MinHash 去重复", "MinHashLSH 去重" },
}
data["mini-batch"] = {
short = "A small subset of training examples processed together in a single forward/backward pass to compute one stochastic estimate of the gradient, intermediate between full-batch and single-example updates.",
article = nil,
aliases = { "minibatch", "mini batch", "mini-batches" },
es = "Pequeño subconjunto de ejemplos de entrenamiento procesados conjuntamente en una sola pasada forward/backward para calcular una estimación estocástica del gradiente, situado entre las actualizaciones de lote completo y por ejemplo único.",
zh = "训练样本的一小部分子集,在一次前向/反向传播中一起处理,用于计算一次随机的梯度估计;介于全批量和单样本更新之间。",
term_es = "mini-lote",
term_zh = "小批量",
aliases_es = { "minibatch", "mini lote", "mini-lotes" },
aliases_zh = { "minibatch", "mini-batch", "小批", "迷你批量" },
}
data["mini-batch gradient descent"] = {
short = "A gradient descent variant that computes parameter updates from a small subset (mini-batch) of the training data, balancing the noise of stochastic updates with the cost of full-batch computation.",
article = nil,
aliases = { "minibatch gradient descent", "mini batch gradient descent", "mini-batch SGD", "MBGD" },
es = "Variante del descenso de gradiente que calcula las actualizaciones de parámetros a partir de un pequeño subconjunto (mini-lote) de los datos de entrenamiento, equilibrando el ruido de las actualizaciones estocásticas con el coste del cálculo en lote completo.",
zh = "梯度下降的一种变体,通过训练数据的小子集(小批量)计算参数更新,在随机更新的噪声与全批量计算的成本之间取得平衡。",
term_es = "descenso de gradiente por mini-lotes",
term_zh = "小批量梯度下降",
aliases_es = { "mini-batch SGD", "descenso de gradiente mini-batch" },
aliases_zh = { "小批量SGD", "mini-batch梯度下降" },
}
data["mini-binder design"] = {
short = "The de novo design of small (typically 50–100 residue) protein binders that selectively recognize a chosen target surface, often produced by deep-learning methods such as RFdiffusion combined with sequence design and AlphaFold filtering.",
article = nil,
aliases = { "miniprotein binder design", "mini-binder", "miniprotein binders", "small protein binder design", "de novo mini-binder design" },
es = "Diseño de novo de pequeños aglutinantes proteicos (típicamente de 50–100 residuos) que reconocen selectivamente una superficie objetivo elegida, frecuentemente producidos mediante métodos de aprendizaje profundo como RFdiffusion combinados con diseño de secuencia y filtrado con AlphaFold.",
zh = "对小型蛋白结合剂(通常 50–100 个残基)的从头设计,使其选择性地识别目标蛋白表面,常通过 RFdiffusion 等深度学习方法结合序列设计和 AlphaFold 过滤来获得。",
term_es = "diseño de mini-aglutinantes",
term_zh = "微型结合剂设计",
aliases_es = { "diseño de miniaglutinantes", "diseño de mini-binders", "diseño de mini-proteínas aglutinantes" },
aliases_zh = { "微型结合剂设计", "mini-binder 设计", "小型蛋白结合剂设计", "微蛋白结合剂设计" },
}
data["mini-gemini"] = {
short = "A multimodal vision-language framework that uses a dual vision encoder design — a low-resolution ViT and a high-resolution convolutional encoder — with patch information mining to enhance visual detail in LLM-based dialogue and generation.",
article = nil,
aliases = { "Mini-Gemini", "MGM", "MiniGemini" },
es = "Marco multimodal de visión-lenguaje que utiliza un diseño de doble codificador visual — un ViT de baja resolución y un codificador convolucional de alta resolución — junto con minería de información de parches para realzar el detalle visual en diálogos y generación basados en LLM.",
zh = "一种多模态视觉-语言框架,采用双视觉编码器设计(低分辨率 ViT 和高分辨率卷积编码器)以及补丁信息挖掘,以增强基于大语言模型的对话与生成中的视觉细节。",
term_es = "Mini-Gemini",
term_zh = "Mini-Gemini",
aliases_es = { "MGM", "MiniGemini" },
aliases_zh = { "MGM", "MiniGemini" },
}
data["mini-imagenet"] = {
short = "A few-shot image classification benchmark derived from ImageNet, comprising 100 classes split into 64 train / 16 validation / 20 test classes with 600 images per class downsampled to 84×84.",
article = nil,
aliases = { "mini imagenet", "miniImageNet", "Mini-ImageNet" },
es = "Conjunto de prueba para clasificación con pocos ejemplos derivado de ImageNet, con 100 clases divididas en 64 de entrenamiento / 16 de validación / 20 de prueba, 600 imágenes por clase reducidas a 84×84.",
zh = "源自ImageNet的少样本图像分类基准,包含100个类别(64训练/16验证/20测试),每类600张图像,下采样至84×84。",
term_es = "mini-ImageNet",
term_zh = "mini-ImageNet",
aliases_es = { "miniImageNet", "Mini-ImageNet" },
aliases_zh = { "miniImageNet", "Mini-ImageNet", "迷你ImageNet" },
}
data["minicpm-v"] = {
short = "A family of compact multimodal language models from OpenBMB and Tsinghua that pair a small language backbone with a vision encoder, optimized for efficient on-device image, document, and video understanding.",
article = nil,
aliases = { "MiniCPM-V", "MiniCPM V", "MiniCPM-V 2", "MiniCPM-V 2.6" },
es = "Familia de modelos de lenguaje multimodales compactos de OpenBMB y Tsinghua que combinan un backbone de lenguaje pequeño con un codificador visual, optimizados para comprensión eficiente de imágenes, documentos y vídeo en dispositivo.",
zh = "由 OpenBMB 与清华大学推出的紧凑多模态语言模型系列,将小型语言主干与视觉编码器结合,面向端侧高效图像、文档与视频理解。",
term_es = "MiniCPM-V",
term_zh = "MiniCPM-V",
aliases_es = { "MiniCPM V", "MiniCPM-V 2.6" },
aliases_zh = { "MiniCPM V", "MiniCPM-V 2.6" },
}
data["minif2f"] = {
short = "A benchmark of Olympiad- and undergraduate-level mathematics problems formalized in multiple proof assistants (Lean, Isabelle, Metamath, HOL Light), used to evaluate machine-learning systems for formal theorem proving.",
article = nil,
aliases = { "miniF2F", "MiniF2F", "mini-F2F", "miniF2F benchmark" },
es = "Benchmark de problemas de matemáticas de nivel olímpico y universitario formalizados en varios asistentes de demostración (Lean, Isabelle, Metamath, HOL Light), utilizado para evaluar sistemas de aprendizaje automático en demostración formal de teoremas.",
zh = "一个由奥赛级和本科级数学题构成的基准,已在多种证明助手(Lean、Isabelle、Metamath、HOL Light)中形式化,用于评估形式化定理证明的机器学习系统。",
term_es = "miniF2F",
term_zh = "miniF2F",
aliases_es = { "MiniF2F", "mini-F2F", "benchmark miniF2F" },
aliases_zh = { "MiniF2F", "mini-F2F", "miniF2F 基准" },
}
data["minigpt-4"] = {
short = "A vision-language model that aligns a frozen ViT-G visual encoder with the frozen Vicuna LLM through a single trainable linear projection layer, enabling image-grounded conversational and descriptive abilities.",
article = nil,
aliases = { "MiniGPT-4", "Mini-GPT-4", "MiniGPT 4" },
es = "Modelo de visión-lenguaje que alinea un codificador visual ViT-G congelado con el LLM Vicuna congelado mediante una única capa de proyección lineal entrenable, habilitando capacidades conversacionales y descriptivas basadas en imágenes.",
zh = "一种视觉-语言模型,通过单一可训练的线性投影层将冻结的 ViT-G 视觉编码器与冻结的 Vicuna 大语言模型对齐,实现基于图像的对话和描述能力。",
term_es = "MiniGPT-4",
term_zh = "MiniGPT-4",
aliases_es = { "Mini-GPT-4" },
aliases_zh = { "Mini-GPT-4" },
}
data["minigpt-v2"] = {
short = "A unified vision-language model that uses task-specific identifier tokens to handle multiple multimodal tasks — captioning, grounding, VQA, referring expression — with a single instruction-tuned LLM backbone.",
article = nil,
aliases = { "MiniGPT-v2", "MiniGPT v2", "Mini-GPT-v2" },
es = "Modelo unificado de visión-lenguaje que utiliza tokens identificadores específicos de tarea para manejar múltiples tareas multimodales — descripción, anclaje, VQA, expresiones referenciales — con un único LLM ajustado por instrucciones.",
zh = "一种统一的视觉-语言模型,使用任务特定的标识符 token,通过单个经指令微调的大语言模型骨干来处理多种多模态任务,包括图像描述、视觉定位、视觉问答和指代表达理解。",
term_es = "MiniGPT-v2",
term_zh = "MiniGPT-v2",
aliases_es = { "MiniGPT v2" },
aliases_zh = { "MiniGPT v2" },
}
data["minimal adjustment set"] = {
short = "A smallest subset of observed covariates whose adjustment suffices to identify a causal effect from a graphical criterion such as the back-door criterion; multiple non-comparable minimal sets may exist for one query.",
article = nil,
aliases = { "minimal sufficient adjustment set", "minimum adjustment set" },
es = "Subconjunto mínimo de covariables observadas cuyo ajuste basta para identificar un efecto causal según un criterio gráfico como el de puerta trasera; pueden existir varios conjuntos mínimos no comparables para una misma consulta.",
zh = "通过后门准则等图形判据识别因果效应所需调整的、规模最小的可观测协变量子集;同一因果查询可能存在多个互不可比的最小集。",
term_es = "conjunto mínimo de ajuste",
term_zh = "最小调整集",
aliases_es = { "conjunto de ajuste mínimo suficiente", "conjunto de ajuste mínimo" },
aliases_zh = { "最小充分调整集", "最小充分集" },
}
data["minimal contrast set"] = {
short = "A small collection of input pairs that differ along a single targeted attribute (e.g., gender, syntactic structure) and are used to probe whether a model's predictions track that attribute as expected.",
article = nil,
aliases = { "contrast set", "minimal pair set", "minimal contrastive set" },
es = "Conjunto reducido de pares de entradas que difieren en un único atributo seleccionado (por ejemplo, género o estructura sintáctica) y que se usa para comprobar si las predicciones del modelo dependen de ese atributo como cabría esperar.",
zh = "一组规模较小的输入对,它们仅在单一目标属性(如性别、句法结构)上有所不同,用于检验模型预测是否按预期依赖于该属性。",
term_es = "conjunto de contraste mínimo",
term_zh = "最小对比集",
aliases_es = { "conjunto de contraste", "conjunto contrastivo mínimo" },
aliases_zh = { "最小对照集", "最小对比样本集" },
}
data["minimal counterfactual"] = {
short = "A counterfactual example obtained by making the smallest possible change to an input — measured under some distance metric — such that the model's prediction flips to a desired class.",
article = nil,
aliases = { "minimum counterfactual", "minimal counterfactual explanation", "smallest counterfactual" },
es = "Ejemplo contrafactual obtenido aplicando la modificación más pequeña posible a una entrada — medida según alguna distancia — de modo que la predicción del modelo cambie a la clase deseada.",
zh = "通过对输入施加在某种距离度量下尽可能小的修改而得到的反事实样本,使模型预测翻转到目标类别。",
term_es = "contrafactual mínimo",
term_zh = "最小反事实",
aliases_es = { "contrafactual de mínimo cambio", "explicación contrafactual mínima" },
aliases_zh = { "最小反事实解释", "最小反事实样本" },
}
data["minimap2"] = {
short = "A fast pairwise sequence aligner that handles long noisy reads, spliced reads, and whole-genome alignments using minimizer-based seed-and-chain followed by base-level alignment.",
article = nil,
aliases = { "Minimap2", "minimap 2", "minimap" },
es = "Alineador por pares rápido que maneja lecturas largas y ruidosas, lecturas con splicing y alineamientos de genomas completos, utilizando seed-and-chain basado en minimizers seguido de alineamiento a nivel de base.",
zh = "minimap2:一种高速的成对序列比对工具,支持长读长噪声序列、剪接读段和全基因组比对,采用基于 minimizer 的种子—链化策略并辅以碱基级比对。",
term_es = "minimap2",
term_zh = "minimap2",
aliases_es = { "minimap2", "minimap 2" },
aliases_zh = { "minimap2", "minimap 2" },
}
data["minimax fairness"] = {
short = "A learning objective that minimizes the maximum group-level loss, ensuring the worst-performing group is as good as possible rather than optimizing average performance.",
article = nil,
aliases = { "min-max fairness", "min max fairness", "worst-case-group fairness" },
es = "Objetivo de aprendizaje que minimiza la pérdida máxima entre grupos, asegurando que el grupo con peor desempeño sea lo mejor posible en lugar de optimizar el rendimiento promedio.",
zh = "一种学习目标,最小化各群体损失的最大值,确保最差表现群体尽可能好,而非优化平均表现。",
term_es = "equidad minimax",
term_zh = "最小最大公平",
aliases_es = { "equidad min-max", "minimización del peor grupo" },
aliases_zh = { "minimax 公平", "极小化极大公平", "最差群体公平" },
}
data["minimum dcf"] = {
short = "Minimum Detection Cost Function: an evaluation metric for speaker verification and detection that reports the lowest weighted sum of miss and false-alarm probabilities over all decision thresholds.",
article = nil,
aliases = { "minDCF", "min DCF", "minimum DCF", "minimum detection cost function" },
es = "Función de coste de detección mínima: métrica de evaluación para verificación e identificación de locutor que reporta la menor suma ponderada de probabilidades de falso rechazo y falsa alarma sobre todos los umbrales de decisión.",
zh = "最小检测代价函数:用于说话人验证与检测的评价指标,报告在所有决策阈值上漏检概率与虚警概率加权和的最小值。",
term_es = "minDCF",
term_zh = "minDCF",
aliases_es = { "min DCF", "función de coste de detección mínima" },
aliases_zh = { "min DCF", "最小检测代价函数" },
}
data["minimum description length probe"] = {
short = "A probing methodology that scores a representation's information about a property using the minimum description length (codelength) needed to transmit the labels given the representations, rather than probe accuracy, to control for probe expressivity.",
article = nil,
aliases = { "MDL probe", "MDL probing", "minimum description length probing", "description length probing" },
es = "Metodología de probing que mide cuánta información sobre una propiedad contiene una representación mediante la longitud de descripción mínima (codelength) necesaria para transmitir las etiquetas dadas las representaciones, en lugar de la exactitud del probe, controlando así la expresividad del clasificador.",
zh = "一种探针方法,使用在给定表示下传输标签所需的最小描述长度(编码长度)来衡量表示中关于某属性的信息量,而非使用探针的准确率,从而控制探针自身的表达能力。",
term_es = "probe de longitud de descripción mínima",
term_zh = "最小描述长度探针",
aliases_es = { "probe MDL", "probing por MDL" },
aliases_zh = { "MDL探针", "最短编码长度探针" },
}
data["minimum word error rate training"] = {
short = "A sequence-level discriminative training criterion for ASR that directly minimizes the expected word error rate over hypotheses sampled from the model, rather than a frame-level cross-entropy.",
article = nil,
aliases = { "MWER", "MWER training", "minimum WER training" },
es = "Criterio de entrenamiento discriminativo a nivel de secuencia para ASR que minimiza directamente la tasa de error de palabras esperada sobre hipótesis muestreadas del modelo, en lugar de una entropía cruzada a nivel de cuadro.",
zh = "一种用于自动语音识别的序列级判别训练准则,直接在从模型采样的假设上最小化期望词错误率,而非帧级交叉熵。",
term_es = "entrenamiento de tasa mínima de error de palabras",
term_zh = "最小词错误率训练",
aliases_es = { "MWER", "entrenamiento MWER" },
aliases_zh = { "MWER训练", "最小WER训练" },
}
data["minoritized group"] = {
short = "A demographic group rendered subordinate by social, political, or institutional processes regardless of its numerical size, used in fairness scholarship to emphasize structural causes of disadvantage.",
article = nil,
aliases = { "minoritised group" },
es = "Grupo demográfico subordinado por procesos sociales, políticos o institucionales, independientemente de su tamaño numérico, utilizado en la literatura sobre equidad para destacar las causas estructurales de la desventaja.",
zh = "通过社会、政治或制度过程而被边缘化的人口群体,无论其在数量上是否为少数,用于公平性研究以强调劣势的结构性成因。",
term_es = "grupo minorizado",
term_zh = "被边缘化群体",
aliases_es = { "grupo subalternizado" },
aliases_zh = { "弱势化群体", "被少数化群体" },
}
data["minority group"] = {
short = "In fairness analysis, a demographic group with smaller representation in a population or dataset, often more vulnerable to underfitting, sample-size disparities, and disparate model performance.",
article = nil,
aliases = { "minority class group", "underrepresented group" },
es = "En el análisis de equidad, grupo demográfico con menor representación en una población o conjunto de datos, a menudo más vulnerable al subajuste, a las disparidades de tamaño muestral y al desempeño desigual del modelo.",
zh = "在公平性分析中,在总体或数据集中代表性较小的人口群体,通常更易受欠拟合、样本规模差距和模型表现不均的影响。",
term_es = "grupo minoritario",
term_zh = "少数群体",
aliases_es = { "grupo subrepresentado" },
aliases_zh = { "弱势群体", "代表性不足群体" },
}
data["mip-net"] = {
short = "A graph-neural-network architecture that operates over the bipartite variable-constraint graph of a mixed-integer program to predict branching decisions or solver heuristics, accelerating combinatorial optimization with learned guidance.",
article = nil,
aliases = { "MIP-Net", "MIPNet", "MIP Net", "mixed-integer programming network" },
es = "Arquitectura de red neuronal de grafos que opera sobre el grafo bipartito variable-restricción de un programa entero mixto para predecir decisiones de ramificación o heurísticas del solver, acelerando la optimización combinatoria mediante guía aprendida.",
zh = "一种图神经网络架构,作用于混合整数规划的变量–约束二分图,用于预测分支决策或求解器启发式,从而以学习到的指导加速组合优化。",
term_es = "MIP-Net",
term_zh = "MIP-Net",
aliases_es = { "MIPNet", "red para programación entera mixta" },
aliases_zh = { "MIPNet", "混合整数规划网络" },
}
data["mirna prediction"] = {
short = "Computational identification of microRNA genes or their target mRNAs, typically using sequence complementarity, secondary structure features, and evolutionary conservation.",
article = nil,
aliases = { "miRNA prediction", "microRNA prediction", "miRNA target prediction" },
es = "Identificación computacional de genes de microARN o de sus ARNm diana, normalmente usando complementariedad de secuencia, características de estructura secundaria y conservación evolutiva.",
zh = "miRNA 预测:通过序列互补性、二级结构特征及进化保守性等信息,利用计算方法识别 microRNA 基因或其靶 mRNA。",
term_es = "predicción de miARN",
term_zh = "miRNA 预测",
aliases_es = { "predicción de microARN", "predicción de dianas de miARN" },
aliases_zh = { "microRNA 预测", "miRNA 靶标预测" },
}
data["mirostat sampling"] = {
short = "A decoding algorithm that adapts the truncation parameter at each step to keep the cross-entropy of generated tokens close to a user-specified target, controlling output surprise without manually tuning top-k or top-p.",
article = nil,
aliases = { "Mirostat", "Mirostat decoding", "Mirostat sampler" },
es = "Algoritmo de decodificación que ajusta el parámetro de truncamiento en cada paso para mantener la entropía cruzada de los tokens generados cerca de un objetivo especificado por el usuario, controlando la sorpresa de salida sin ajustar manualmente top-k o top-p.",
zh = "一种解码算法,在每一步动态调整截断参数,使生成词元的交叉熵保持在用户指定的目标附近,从而控制输出的惊奇度,无需手动调节 top-k 或 top-p。",
term_es = "muestreo Mirostat",
term_zh = "Mirostat 采样",
aliases_es = { "Mirostat", "decodificación Mirostat" },
aliases_zh = { "Mirostat", "Mirostat 解码" },
}
data["mish"] = {
short = "Self-regularized non-monotonic activation defined as x · tanh(softplus(x)) = x · tanh(ln(1 + e^x)). Smooth alternative to ReLU/Swish proposed by Misra (2019).",
article = nil,
aliases = { "Mish", "mish activation" },
es = "Activación no monótona auto-regularizada definida como x · tanh(softplus(x)) = x · tanh(ln(1 + e^x)). Alternativa suave a ReLU/Swish, propuesta por Misra (2019).",
zh = "自正则化的非单调激活函数,定义为 x · tanh(softplus(x)) = x · tanh(ln(1 + e^x))。由 Misra 于 2019 年提出,是 ReLU/Swish 的平滑替代。",
term_es = "Mish",
term_zh = "Mish",
aliases_es = { "Mish" },
aliases_zh = { "Mish" },
}
data["mislabel detection"] = {
short = "The task of automatically identifying training examples whose labels are likely incorrect, typically using model loss, learning dynamics, influence functions, or disagreement across an ensemble.",
article = nil,
aliases = { "mislabeled example detection", "label noise detection", "noisy label detection", "label error detection" },
es = "Tarea de identificar automáticamente ejemplos de entrenamiento cuyas etiquetas probablemente sean incorrectas, normalmente mediante la pérdida del modelo, la dinámica de aprendizaje, funciones de influencia o el desacuerdo entre un conjunto de modelos.",
zh = "自动识别训练集中标签可能错误样本的任务,通常借助模型损失、学习动态、影响函数或集成模型之间的不一致来实现。",
term_es = "detección de etiquetas erróneas",
term_zh = "错标检测",
aliases_es = { "detección de errores de etiquetado", "detección de ruido de etiquetas", "detección de ejemplos mal etiquetados" },
aliases_zh = { "错误标签检测", "标签噪声检测", "标签错误识别" },
}
data["missing modality"] = {
short = "A condition in multimodal learning where one or more input modalities are unavailable at training or inference time, requiring models to be robust to incomplete inputs through imputation, dropout, or modality-invariant representations.",
article = nil,
aliases = { "missing modalities", "modality missingness", "incomplete modality" },
es = "Condición en aprendizaje multimodal en la que una o más modalidades de entrada no están disponibles en entrenamiento o inferencia, requiriendo que los modelos sean robustos a entradas incompletas mediante imputación, dropout o representaciones invariantes a la modalidad.",
zh = "多模态学习中的一种情形,即在训练或推理时一个或多个输入模态缺失,要求模型通过插补、丢弃或模态不变表征对不完整输入保持鲁棒。",
term_es = "modalidad faltante",
term_zh = "缺失模态",
aliases_es = { "modalidades faltantes", "ausencia de modalidad" },
aliases_zh = { "模态缺失", "不完整模态" },
}
data["mistral"] = {
short = "An open-weight 7-billion-parameter transformer language model from Mistral AI introduced in 2023, using grouped-query and sliding-window attention for efficiency, often referring also to the broader Mistral family.",
article = nil,
aliases = { "Mistral", "Mistral 7B", "Mistral-7B", "mistral 7b" },
es = "Modelo de lenguaje transformer de pesos abiertos de 7.000 millones de parámetros presentado por Mistral AI en 2023, que utiliza atención por consultas agrupadas y ventana deslizante para mayor eficiencia; también suele referirse a la familia Mistral en general.",
zh = "Mistral AI 于 2023 年推出的 70 亿参数开放权重 Transformer 语言模型,使用分组查询注意力和滑动窗口注意力以提升效率,通常也用来指代更广泛的 Mistral 模型家族。",
term_es = "Mistral",
term_zh = "Mistral",
aliases_es = { "Mistral", "Mistral 7B", "Mistral-7B" },
aliases_zh = { "Mistral", "Mistral 7B", "Mistral-7B" },
}
data["mistral 7b"] = {
short = "A 7.3-billion-parameter open-weight transformer language model released by Mistral AI in September 2023, using grouped-query and sliding-window attention to outperform Llama 2 13B on most benchmarks.",
article = nil,
aliases = { "Mistral 7B", "Mistral-7B", "Mistral-7B-v0.1", "Mistral 7B Instruct" },
es = "Modelo de lenguaje transformer de pesos abiertos con 7.3 mil millones de parámetros publicado por Mistral AI en septiembre de 2023, que utiliza atención grouped-query y ventana deslizante para superar a Llama 2 13B en la mayoría de los bancos de pruebas.",
zh = "Mistral AI 于 2023 年 9 月发布的 73 亿参数开源权重 Transformer 语言模型,采用分组查询注意力和滑动窗口注意力,在多数基准上优于 Llama 2 13B。",
term_es = "Mistral 7B",
term_zh = "Mistral 7B",
aliases_es = { "Mistral-7B", "Mistral 7B Instruct" },
aliases_zh = { "Mistral-7B", "Mistral 7B Instruct" },
}
data["mistral large"] = {
short = "Mistral AI's flagship closed-weight large language model, accessed via API and through partner clouds, designed for complex reasoning, multilingual generation, and tool use.",
article = nil,
aliases = { "Mistral Large", "Mistral-Large", "Mistral Large 2" },
es = "Modelo de lenguaje grande insignia de Mistral AI, de pesos cerrados y accedido vía API y nubes asociadas, diseñado para razonamiento complejo, generación multilingüe y uso de herramientas.",
zh = "Mistral AI 的旗舰闭源大语言模型,通过 API 及合作云平台提供服务,面向复杂推理、多语言生成和工具调用场景。",
term_es = "Mistral Large",
term_zh = "Mistral Large",
aliases_es = { "Mistral-Large", "Mistral Large 2" },
aliases_zh = { "Mistral-Large", "Mistral Large 2" },
}
data["mistral nemo"] = {
short = "A 12-billion-parameter open-weight language model released by Mistral AI and NVIDIA in July 2024, featuring a 128k-token context window and the Tekken multilingual tokenizer.",
article = nil,
aliases = { "Mistral NeMo", "Mistral Nemo", "Mistral-NeMo", "Mistral NeMo 12B" },
es = "Modelo de lenguaje de pesos abiertos con 12 mil millones de parámetros publicado por Mistral AI y NVIDIA en julio de 2024, con ventana de contexto de 128k tokens y el tokenizador multilingüe Tekken.",
zh = "Mistral AI 与 NVIDIA 于 2024 年 7 月联合发布的 120 亿参数开源权重语言模型,支持 128k 词元上下文窗口,采用多语言分词器 Tekken。",
term_es = "Mistral NeMo",
term_zh = "Mistral NeMo",
aliases_es = { "Mistral Nemo", "Mistral-NeMo", "Mistral NeMo 12B" },
aliases_zh = { "Mistral Nemo", "Mistral-NeMo", "Mistral NeMo 12B" },
}
data["mistral small"] = {
short = "A mid-range language model from Mistral AI offered through its API, positioned between the open Mistral 7B and the flagship Mistral Large for cost-sensitive workloads requiring strong multilingual and reasoning quality.",
article = nil,
aliases = { "Mistral Small", "Mistral-Small", "Mistral Small 3" },
es = "Modelo de lenguaje de gama media de Mistral AI ofrecido a través de su API, posicionado entre el Mistral 7B abierto y el Mistral Large insignia para cargas sensibles al costo que requieren buena calidad multilingüe y de razonamiento.",
zh = "Mistral AI 通过 API 提供的中端语言模型,定位介于开源的 Mistral 7B 与旗舰 Mistral Large 之间,面向需要良好多语言与推理质量的成本敏感场景。",
term_es = "Mistral Small",
term_zh = "Mistral Small",
aliases_es = { "Mistral-Small", "Mistral Small 3" },
aliases_zh = { "Mistral-Small", "Mistral Small 3" },
}
data["miwae"] = {
short = "A variational autoencoder trained with the importance-weighted ELBO adapted to data with missing entries, by averaging the IWAE bound only over observed dimensions (Mattei & Frellsen 2019).",
article = nil,
aliases = { "MIWAE", "missing data importance weighted autoencoder", "missing-data IWAE" },
es = "Autoencoder variacional entrenado con el ELBO ponderado por importancia adaptado a datos con entradas faltantes, promediando la cota IWAE solo sobre las dimensiones observadas (Mattei y Frellsen, 2019).",
zh = "一种变分自编码器,使用为缺失数据设计的重要性加权 ELBO 进行训练,仅在观测维度上对 IWAE 界取平均(Mattei 与 Frellsen,2019)。",
term_es = "MIWAE",
term_zh = "MIWAE",
aliases_es = { "MIWAE", "IWAE para datos faltantes" },
aliases_zh = { "MIWAE", "缺失数据 IWAE" },
}
data["mix-n-match calibration"] = {
short = "A family of post-hoc calibration methods that combine parametric scaling (such as temperature or Platt scaling) with non-parametric binning, achieving lower calibration error than either component alone (Zhang et al. 2020).",
article = nil,
aliases = { "mix-n-match", "mix and match calibration", "Mix-n-Match" },
es = "Familia de métodos de calibración post-hoc que combinan escalado paramétrico (como temperature scaling o Platt scaling) con binning no paramétrico, logrando un menor error de calibración que cualquiera de los componentes por separado (Zhang et al. 2020).",
zh = "一类事后校准方法,将参数化缩放(如温度缩放或 Platt 缩放)与非参数分箱相结合,能取得比单一组件更低的校准误差(Zhang 等人,2020)。",
term_es = "calibración mix-n-match",
term_zh = "mix-n-match 校准",
aliases_es = { "mix-n-match", "calibración combinada" },
aliases_zh = { "Mix-n-Match", "混合搭配校准" },
}
data["mixed operation"] = {
short = "In differentiable neural architecture search (e.g., DARTS), the weighted combination of all candidate operations on an edge during search, with weights given by a softmax over learnable architecture parameters.",
article = nil,
aliases = { "mixed op", "mixedop" },
es = "En la búsqueda de arquitecturas neuronales diferenciable (p. ej., DARTS), la combinación ponderada de todas las operaciones candidatas en una arista durante la búsqueda, con pesos dados por una softmax sobre parámetros de arquitectura aprendibles.",
zh = "在可微神经架构搜索(如DARTS)中,搜索阶段在每条边上对所有候选操作进行加权组合,权重由可学习架构参数经softmax得到。",
term_es = "operación mixta",
term_zh = "混合操作",
aliases_es = { "operación combinada", "mixed op" },
aliases_zh = { "mixed op", "混合算子" },
}
data["mixed precision training"] = {
short = "A training regime that stores and computes most operations in a low-precision format (FP16 or BF16) while keeping a master copy of weights and certain reductions in FP32, reducing memory and accelerating throughput on tensor-core hardware.",
article = nil,
aliases = { "mixed-precision training", "mixed precision", "low-precision training" },
es = "Régimen de entrenamiento que almacena y calcula la mayoría de las operaciones en un formato de baja precisión (FP16 o BF16) y mantiene una copia maestra de los pesos y ciertas reducciones en FP32, reduciendo la memoria y acelerando el rendimiento en hardware con tensor cores.",
zh = "一种训练方式:大多数操作以低精度(FP16 或 BF16)存储和计算,但保留 FP32 的权重主副本及部分归约运算,从而降低显存占用并在张量核硬件上提升吞吐量。",
term_es = "entrenamiento de precisión mixta",
term_zh = "混合精度训练",
aliases_es = { "entrenamiento en precisión mixta", "precisión mixta" },
aliases_zh = { "混合精度", "低精度训练" },
}
data["mixed-integer programming"] = {
short = "A class of optimization problems with a linear (or sometimes nonlinear) objective and constraints, where some variables must take integer values. NP-hard in general; solved via branch-and-bound, cutting planes, and modern MIP solvers.",
article = nil,
aliases = { "MIP", "mixed integer programming", "mixed-integer linear programming", "MILP", "mixed integer linear programming" },
es = "Clase de problemas de optimización con un objetivo y restricciones lineales —o a veces no lineales— en los que algunas variables deben tomar valores enteros. NP-difícil en general; se resuelve mediante branch-and-bound, planos de corte y solvers MIP modernos.",
zh = "一类优化问题,目标函数与约束为线性(有时为非线性),且部分变量必须取整数值。一般为 NP 难,可通过分支定界、割平面以及现代 MIP 求解器求解。",
term_es = "programación entera mixta",
term_zh = "混合整数规划",
aliases_es = { "MIP", "MILP", "programación lineal entera mixta" },
aliases_zh = { "MIP", "MILP", "混合整数线性规划" },
}
data["mixing matrix"] = {
short = "A doubly stochastic matrix that defines how nodes in a decentralized or gossip-based optimization scheme combine their parameters with those of their neighbors at each communication step. Its spectral gap controls convergence speed.",
article = nil,
aliases = { "gossip matrix", "consensus matrix", "doubly stochastic mixing matrix", "communication matrix" },
es = "Matriz doblemente estocástica que define cómo los nodos de un esquema de optimización descentralizado o de tipo gossip combinan sus parámetros con los de sus vecinos en cada paso de comunicación. Su brecha espectral determina la velocidad de convergencia.",
zh = "去中心化或 gossip 优化中的双随机矩阵,定义每次通信时各节点如何与其邻居加权混合参数;其谱间隙决定收敛速度。",
term_es = "matriz de mezcla",
term_zh = "混合矩阵",
aliases_es = { "matriz de gossip", "matriz de consenso", "matriz doblemente estocástica" },
aliases_zh = { "gossip 矩阵", "共识矩阵", "通信混合矩阵" },
}
data["mixmatch"] = {
short = "A semi-supervised learning algorithm that combines guessing low-entropy labels for unlabeled data, sharpening those predictions, and applying MixUp between labeled and unlabeled examples to produce a unified loss.",
article = nil,
aliases = { "MixMatch" },
es = "Algoritmo de aprendizaje semisupervisado que combina la predicción de etiquetas de baja entropía para datos no etiquetados, el agudizado de esas predicciones y la aplicación de MixUp entre ejemplos etiquetados y no etiquetados para producir una pérdida unificada.",
zh = "一种半监督学习算法,结合为未标注数据预测低熵标签、对这些预测进行锐化以及在带标签和未标注样本间应用 MixUp,以构造统一的损失函数。",
term_es = "MixMatch",
term_zh = "MixMatch",
aliases_es = { "algoritmo MixMatch" },
aliases_zh = { "MixMatch 算法" },
}
data["mixtral"] = {
short = "Mistral AI's sparse mixture-of-experts transformer language model that activates two of eight feed-forward expert networks per token, providing the capacity of a much larger dense model at lower inference cost.",
article = nil,
aliases = { "Mixtral", "Mixtral 8x7B", "Mixtral-8x7B", "mixtral 8x7b", "Mixtral 8x22B" },
es = "Modelo de lenguaje transformer con mezcla dispersa de expertos de Mistral AI que activa dos de ocho redes de expertos feed-forward por token, ofreciendo la capacidad de un modelo denso mucho mayor con menor coste de inferencia.",
zh = "Mistral AI 推出的稀疏专家混合 Transformer 语言模型,每个 token 激活 8 个前馈专家网络中的 2 个,在更低的推理成本下提供与更大稠密模型相当的容量。",
term_es = "Mixtral",
term_zh = "Mixtral",
aliases_es = { "Mixtral", "Mixtral 8x7B", "Mixtral-8x7B", "Mixtral 8x22B" },
aliases_zh = { "Mixtral", "Mixtral 8x7B", "Mixtral-8x7B", "Mixtral 8x22B" },
}
data["mixtral 8x22b"] = {
short = "A sparse mixture-of-experts language model released by Mistral AI in April 2024 with 8 experts of 22B parameters each, activating roughly 39B parameters per token and supporting a 64k-token context window.",
article = nil,
aliases = { "Mixtral 8x22B", "Mixtral-8x22B", "Mixtral 8X22B" },
es = "Modelo de lenguaje con mezcla dispersa de expertos publicado por Mistral AI en abril de 2024, con 8 expertos de 22B parámetros cada uno, que activa unos 39B parámetros por token y soporta una ventana de contexto de 64k tokens.",
zh = "Mistral AI 于 2024 年 4 月发布的稀疏专家混合语言模型,包含 8 个 22B 参数专家,每个词元约激活 390 亿参数,支持 64k 词元上下文窗口。",
term_es = "Mixtral 8x22B",
term_zh = "Mixtral 8x22B",
aliases_es = { "Mixtral-8x22B", "Mixtral 8X22B" },
aliases_zh = { "Mixtral-8x22B", "Mixtral 8X22B" },
}
data["mixtral 8x7b"] = {
short = "A sparse mixture-of-experts language model released by Mistral AI in December 2023 with 8 experts of about 7B parameters each, routing two experts per token for roughly 13B active parameters and competitive performance with much larger dense models.",
article = nil,
aliases = { "Mixtral 8x7B", "Mixtral-8x7B", "Mixtral 8X7B", "Mixtral" },
es = "Modelo de lenguaje con mezcla dispersa de expertos publicado por Mistral AI en diciembre de 2023, con 8 expertos de aproximadamente 7B parámetros cada uno, que enruta dos expertos por token para unos 13B parámetros activos y un desempeño competitivo frente a modelos densos mucho mayores.",
zh = "Mistral AI 于 2023 年 12 月发布的稀疏专家混合语言模型,包含 8 个约 7B 参数的专家,每个词元路由 2 个专家,约激活 130 亿参数,性能可与更大稠密模型竞争。",
term_es = "Mixtral 8x7B",
term_zh = "Mixtral 8x7B",
aliases_es = { "Mixtral-8x7B", "Mixtral 8X7B", "Mixtral" },
aliases_zh = { "Mixtral-8x7B", "Mixtral 8X7B", "Mixtral" },
}
data["mixture model"] = {
short = "A probabilistic model that represents a distribution as a weighted sum p(x) = Σ_k π_k p_k(x | θ_k) of K component distributions. Each component captures a sub-population, with mixture weights π_k summing to one.",
article = nil,
aliases = { "finite mixture model", "mixture distribution", "latent class model" },
es = "Modelo probabilístico que representa una distribución como una suma ponderada p(x) = Σ_k π_k p_k(x | θ_k) de K distribuciones componentes. Cada componente captura una subpoblación y los pesos de mezcla π_k suman uno.",
zh = "一种概率模型,将分布表示为 K 个分量分布的加权和 p(x) = Σ_k π_k p_k(x | θ_k)。每个分量刻画一个子总体,混合权重 π_k 之和为一。",
term_es = "modelo de mezcla",
term_zh = "混合模型",
aliases_es = { "modelo de mezcla finita", "distribución de mezcla", "modelo de clases latentes" },
aliases_zh = { "有限混合模型", "混合分布", "潜类别模型" },
}
data["mixture of agents"] = {
short = "An ensemble framework in which several language-model agents propose responses in a first layer and additional layers iteratively aggregate and refine those proposals, yielding higher quality than any single model.",
article = nil,
aliases = { "Mixture-of-Agents", "MoA", "mixture-of-agents", "Mixture of Agents" },
es = "Marco de ensamblado en el que varios agentes basados en modelos de lenguaje proponen respuestas en una primera capa y capas adicionales agregan y refinan iterativamente esas propuestas, obteniendo mayor calidad que cualquier modelo individual.",
zh = "一种集成框架:在第一层由多个大语言模型代理给出回答,后续层依次聚合并精炼这些提案,从而获得优于任何单一模型的质量。",
term_es = "mezcla de agentes",
term_zh = "代理混合",
aliases_es = { "Mixture of Agents", "MoA", "Mixture-of-Agents" },
aliases_zh = { "Mixture of Agents", "MoA", "Mixture-of-Agents", "智能体混合" },
}
data["mixture of experts"] = {
short = "An ensemble architecture in which a gating network routes each input to one or a few specialized subnetworks (experts), whose outputs are combined to form the final prediction.",
article = nil,
aliases = { "MoE", "Mixture of Experts", "mixture-of-experts", "MoE model" },
es = "Arquitectura de ensamble en la que una red de compuerta enruta cada entrada a una o pocas subredes especializadas (expertos), cuyas salidas se combinan para formar la predicción final.",
zh = "一种集成架构,由门控网络将每个输入路由到一个或几个专门的子网络(专家),并将其输出组合形成最终预测。",
term_es = "mezcla de expertos",
term_zh = "专家混合",
aliases_es = { "MoE", "modelo de mezcla de expertos" },
aliases_zh = { "MoE", "混合专家", "混合专家模型" },
}
data["mixture of experts federated"] = {
short = "A federated learning architecture where each client (or group) is associated with one or more expert subnetworks, and a gating mechanism routes inputs to experts, enabling personalization while sharing capacity across clients.",
article = nil,
aliases = { "federated MoE", "FedMoE", "personalized mixture of experts", "expert routing in federated learning" },
es = "Arquitectura de aprendizaje federado donde cada cliente (o grupo) se asocia a una o varias subredes expertas, y un mecanismo de enrutamiento dirige las entradas a los expertos adecuados, lo que permite personalización compartiendo capacidad entre clientes.",
zh = "一种联邦学习架构:每个客户端(或客户端组)与一个或多个专家子网络关联,由门控机制将输入路由到相应专家,从而在客户端间共享容量的同时实现个性化。",
term_es = "mezcla de expertos federada",
term_zh = "联邦专家混合",
aliases_es = { "MoE federada", "FedMoE", "mezcla de expertos personalizada" },
aliases_zh = { "FedMoE", "联邦 MoE", "联邦混合专家" },
}
data["mixture of modality experts"] = {
short = "An architecture pattern in which different feed-forward expert networks are specialized to different modalities, and a routing mechanism dispatches each token to its modality-specific expert within a shared transformer.",
article = nil,
aliases = { "MoME", "modality experts", "mixture-of-modality-experts" },
es = "Patrón arquitectónico en el que distintas redes feed-forward expertas se especializan en diferentes modalidades, y un mecanismo de enrutamiento envía cada token a su experto específico de modalidad dentro de un Transformer compartido.",
zh = "一种架构模式,不同的前馈专家网络专门处理不同模态,路由机制在共享 Transformer 中将每个 token 分派到其对应模态的专家。",
term_es = "mezcla de expertos por modalidad",
term_zh = "模态专家混合",
aliases_es = { "MoME", "expertos de modalidad" },
aliases_zh = { "MoME", "模态专家", "模态混合专家" },
}
data["mixup"] = {
short = "A data-augmentation technique that creates new training examples as convex combinations of pairs of inputs and their labels, encouraging linear behavior between examples and improving generalization and robustness.",
article = nil,
aliases = { "Mixup", "mix-up", "mixup augmentation" },
es = "Técnica de aumento de datos que crea nuevos ejemplos de entrenamiento como combinaciones convexas de pares de entradas y sus etiquetas, fomentando un comportamiento lineal entre ejemplos y mejorando la generalización y la robustez.",
zh = "一种数据增强技术,将成对的输入及其标签按凸组合方式合成新的训练样本,鼓励样本之间呈现线性行为,从而提升泛化能力和鲁棒性。",
term_es = "mixup",
term_zh = "mixup",
aliases_es = { "aumento mixup", "mix-up" },
aliases_zh = { "mixup 增强", "Mixup", "混合增强" },
}
data["mizar mathematical library"] = {
short = "A large body of formalized mathematics written in the Mizar language and verified by the Mizar checker, covering thousands of theorems from algebra, topology, and analysis. A standard corpus for premise-selection and automated theorem-proving research.",
article = nil,
aliases = { "MML", "Mizar Mathematical Library", "Mizar library", "Mizar MML" },
es = "Amplio corpus de matemáticas formalizadas escritas en el lenguaje Mizar y verificadas por su comprobador, que cubre miles de teoremas de álgebra, topología y análisis. Es un corpus estándar para la investigación en selección de premisas y demostración automática de teoremas.",
zh = "一个用 Mizar 语言书写并由 Mizar 检查器验证的大型形式化数学库,涵盖代数、拓扑和分析等领域的数千条定理,是前提选择和自动定理证明研究的标准语料。",
term_es = "Biblioteca Matemática Mizar",
term_zh = "Mizar 数学库",
aliases_es = { "MML", "biblioteca Mizar" },
aliases_zh = { "MML", "Mizar 库", "Mizar 数学文库" },
}
data["ml governance"] = {
short = "Organizational policies, processes, and controls that govern the development, deployment, and monitoring of machine learning systems, covering risk, compliance, documentation, accountability, and lifecycle review.",
article = nil,
aliases = { "ML governance", "machine learning governance", "AI/ML governance" },
es = "Políticas, procesos y controles organizativos que rigen el desarrollo, despliegue y monitorización de sistemas de aprendizaje automático, cubriendo riesgo, cumplimiento, documentación, rendición de cuentas y revisión del ciclo de vida.",
zh = "管理机器学习系统开发、部署与监控的组织政策、流程和控制措施,涵盖风险、合规、文档、问责和生命周期审查。",
term_es = "gobernanza de ML",
term_zh = "机器学习治理",
aliases_es = { "gobernanza de aprendizaje automático", "gobernanza de IA/ML" },
aliases_zh = { "ML 治理", "AI/ML 治理" },
}
data["mlff"] = {
short = "Abbreviation for machine learning force field: an interatomic potential parameterized by an ML model and trained on quantum-mechanical reference data to predict energies and forces at near-DFT accuracy with classical-MD-like cost.",
article = nil,
aliases = { "MLFF", "machine learning force field", "machine-learned force field", "ML force field" },
es = "Abreviatura de machine learning force field (campo de fuerzas de aprendizaje automático): potencial interatómico parametrizado por un modelo ML y entrenado con datos mecano-cuánticos para predecir energías y fuerzas con precisión cercana a DFT y coste similar al de la dinámica molecular clásica.",
zh = "MLFF 是 machine learning force field(机器学习力场)的缩写,指由机器学习模型参数化、基于量子力学参考数据训练的原子间势,可在接近 DFT 精度的同时获得接近经典分子动力学的计算开销。",
term_es = "MLFF",
term_zh = "MLFF",
aliases_es = { "MLFF", "campo de fuerzas de aprendizaje automático", "campo de fuerzas ML" },
aliases_zh = { "MLFF", "机器学习力场" },
}
data["mlflow tracking"] = {
short = "The component of the MLflow platform that logs parameters, metrics, source code versions, and artifacts of machine-learning runs to a backend store, enabling experiment comparison and reproducibility.",
article = nil,
aliases = { "MLflow Tracking", "MLflow tracking server", "mlflow tracking" },
es = "Componente de la plataforma MLflow que registra parámetros, métricas, versiones del código fuente y artefactos de las ejecuciones de aprendizaje automático en un almacén backend, permitiendo la comparación de experimentos y la reproducibilidad.",
zh = "MLflow平台中的组件,将机器学习运行的参数、指标、源码版本和工件记录至后端存储,以便实验比较与可复现。",
term_es = "MLflow Tracking",
term_zh = "MLflow Tracking",
aliases_es = { "seguimiento de MLflow", "servidor de seguimiento MLflow" },
aliases_zh = { "MLflow追踪", "MLflow跟踪", "MLflow Tracking服务" },
}
data["mljar"] = {
short = "An open-source AutoML framework for tabular data that explores diverse model families (linear, tree, ensemble, neural) and produces automatic Markdown reports documenting the search and final model.",
article = nil,
aliases = { "MLJAR", "mljar-supervised" },
es = "Marco de AutoML de código abierto para datos tabulares que explora diversas familias de modelos (lineales, árboles, ensambles, redes neuronales) y produce informes Markdown automáticos que documentan la búsqueda y el modelo final.",
zh = "面向表格数据的开源AutoML框架,探索多种模型家族(线性、树、集成、神经网络),并自动生成Markdown报告,记录搜索过程与最终模型。",
term_es = "MLJAR",
term_zh = "MLJAR",
aliases_es = { "mljar-supervised" },
aliases_zh = { "mljar", "mljar-supervised" },
}
data["mlp connector"] = {
short = "A small multilayer perceptron that maps frozen vision encoder features to the input embedding space of a language model, used in vision-language models such as LLaVA-1.5 to fuse visual and textual representations.",
article = nil,
aliases = { "MLP connector", "MLP cross-modal connector" },
es = "Pequeño perceptrón multicapa que mapea las características de un codificador visual congelado al espacio de embeddings de entrada de un modelo de lenguaje, utilizado en modelos de visión-lenguaje como LLaVA-1.5 para fusionar representaciones visuales y textuales.",
zh = "一种小型多层感知机,将冻结视觉编码器的特征映射到语言模型的输入嵌入空间,用于 LLaVA-1.5 等视觉-语言模型,以融合视觉与文本表征。",
term_es = "conector MLP",
term_zh = "MLP 连接器",
aliases_es = { "MLP connector" },
aliases_zh = { "MLP connector", "MLP 连接层" },
}
data["mlp projector"] = {
short = "A multilayer perceptron used to project visual or other modality features into the token embedding space of a language model, serving as the trainable bridge between a frozen modality encoder and an LLM.",
article = nil,
aliases = { "MLP projector", "MLP projection layer", "MLP projection head" },
es = "Perceptrón multicapa utilizado para proyectar características visuales o de otras modalidades al espacio de embeddings de tokens de un modelo de lenguaje, sirviendo como puente entrenable entre un codificador de modalidad congelado y un LLM.",
zh = "一种多层感知机,用于将视觉或其他模态特征投影到语言模型的 token 嵌入空间,作为冻结的模态编码器与大语言模型之间的可训练桥梁。",
term_es = "proyector MLP",
term_zh = "MLP 投影器",
aliases_es = { "MLP projector", "capa de proyección MLP" },
aliases_zh = { "MLP projector", "MLP 投影层" },
}
data["mlp-mixer"] = {
short = "An image classification architecture introduced by Tolstikhin et al. in 2021 that replaces convolutions and self-attention with two types of multilayer perceptrons: one mixing features within each patch (channel mixing) and one mixing the same feature across patches (token mixing).",
article = nil,
aliases = { "MLP-Mixer", "Mixer", "MLP Mixer" },
es = "Arquitectura de clasificación de imágenes presentada por Tolstikhin et al. en 2021 que reemplaza las convoluciones y la self-attention con dos tipos de perceptrones multicapa: uno que mezcla características dentro de cada parche (mezcla de canales) y otro que mezcla la misma característica entre parches (mezcla de tokens).",
zh = "由 Tolstikhin 等人于 2021 年提出的图像分类架构,用两种多层感知机取代卷积和自注意力:一种在每个图块内混合特征(通道混合),另一种在图块之间混合同一特征(token 混合)。",
term_es = "MLP-Mixer",
term_zh = "MLP-Mixer",
aliases_es = { "Mixer" },
aliases_zh = { "Mixer", "MLP 混合器" },
}
data["mlvu benchmark"] = {
short = "A benchmark for long video understanding that evaluates multimodal large language models on diverse hour-scale videos and tasks including plot QA, action ordering, and detail recall.",
article = nil,
aliases = { "MLVU", "MLVU benchmark", "Multi-task Long Video Understanding" },
es = "Benchmark para la comprensión de videos largos que evalúa modelos grandes multimodales en videos diversos a escala de horas y tareas como respuesta a preguntas sobre la trama, ordenamiento de acciones y recuerdo de detalles.",
zh = "一个长视频理解基准,用于在多样化的小时级视频和包括剧情问答、动作排序和细节回忆等任务上评估多模态大语言模型。",
term_es = "benchmark MLVU",
term_zh = "MLVU 基准",
aliases_es = { "MLVU" },
aliases_zh = { "MLVU", "MLVU 评测" },
}
data["mlx llm"] = {
short = "Tooling for running and fine-tuning large language models with MLX, Apple's array framework for Apple Silicon, providing unified-memory inference and training that take advantage of the GPU and Neural Engine on Mac hardware.",
article = nil,
aliases = { "mlx-lm", "MLX LM", "MLX-LM", "mlx_lm", "Apple MLX LLM" },
es = "Herramientas para ejecutar y ajustar modelos de lenguaje grandes con MLX, el marco de arrays de Apple para Apple Silicon, que ofrece inferencia y entrenamiento con memoria unificada aprovechando la GPU y el Neural Engine del hardware Mac.",
zh = "用于在 MLX 上运行和微调大语言模型的工具集;MLX 是 Apple 为 Apple Silicon 推出的数组计算框架,提供统一内存的推理与训练,可充分利用 Mac 硬件上的 GPU 与神经引擎。",
term_es = "MLX LM",
term_zh = "MLX LM",
aliases_es = { "mlx-lm", "MLX-LM", "Apple MLX LLM" },
aliases_zh = { "mlx-lm", "MLX-LM", "Apple MLX LLM" },
}
data["mm-gbsa"] = {
short = "Molecular Mechanics with Generalized Born and Surface Area: an end-state free-energy method that estimates protein-ligand binding free energies by combining MM energies, a generalized Born implicit-solvent term, and a surface-area nonpolar term over MD snapshots.",
article = nil,
aliases = { "MM-GBSA", "MM/GBSA", "molecular mechanics generalized Born surface area", "MMGBSA" },
es = "Molecular Mechanics with Generalized Born and Surface Area: método de energía libre de estados terminales que estima las energías libres de unión proteína-ligando combinando energías de mecánica molecular, un término implícito de solvatación de Born generalizado y un término no polar de área superficial sobre instantáneas de MD.",
zh = "MM-GBSA 是结合分子力学能量、广义 Born 隐式溶剂项和表面积非极性项的端态自由能方法,基于分子动力学快照估算蛋白质–配体的结合自由能。",
term_es = "MM-GBSA",
term_zh = "MM-GBSA",
aliases_es = { "MM-GBSA", "MM/GBSA", "MMGBSA" },
aliases_zh = { "MM-GBSA", "MM/GBSA", "MMGBSA" },
}
data["mm-pbsa"] = {
short = "Molecular Mechanics with Poisson-Boltzmann and Surface Area: an end-state free-energy method that estimates protein-ligand binding free energies using MM energies, a Poisson-Boltzmann implicit-solvent term, and a surface-area nonpolar term over MD snapshots.",
article = nil,
aliases = { "MM-PBSA", "MM/PBSA", "molecular mechanics Poisson-Boltzmann surface area", "MMPBSA" },
es = "Molecular Mechanics with Poisson-Boltzmann and Surface Area: método de energía libre de estados terminales que estima las energías libres de unión proteína-ligando usando energías de mecánica molecular, un término implícito de solvatación de Poisson-Boltzmann y un término no polar de área superficial sobre instantáneas de MD.",
zh = "MM-PBSA 是结合分子力学能量、Poisson–Boltzmann 隐式溶剂项和表面积非极性项的端态自由能方法,基于分子动力学快照估算蛋白质–配体的结合自由能。",
term_es = "MM-PBSA",
term_zh = "MM-PBSA",
aliases_es = { "MM-PBSA", "MM/PBSA", "MMPBSA" },
aliases_zh = { "MM-PBSA", "MM/PBSA", "MMPBSA" },
}
data["mm-vet"] = {
short = "An evaluation benchmark for large multimodal models that measures six core vision-language capabilities — recognition, OCR, knowledge, language generation, spatial awareness, and math — using open-ended questions scored by an LLM judge.",
article = nil,
aliases = { "MM-Vet", "MMVet", "MM Vet" },
es = "Benchmark de evaluación para grandes modelos multimodales que mide seis capacidades centrales de visión-lenguaje — reconocimiento, OCR, conocimiento, generación de lenguaje, conciencia espacial y matemáticas — usando preguntas abiertas calificadas por un juez LLM.",
zh = "一个用于大型多模态模型的评估基准,通过由大语言模型评分的开放式问题测量六项核心视觉-语言能力:识别、OCR、知识、语言生成、空间感知和数学。",
term_es = "MM-Vet",
term_zh = "MM-Vet",
aliases_es = { "MMVet", "MM Vet" },
aliases_zh = { "MMVet", "MM Vet" },
}
data["mm-vid"] = {
short = "A system that uses GPT-4V combined with specialized speech, character, and scene tools to convert long-form videos into structured scripts for downstream video understanding tasks.",
article = nil,
aliases = { "MM-Vid", "MMVid", "MM Vid" },
es = "Sistema que combina GPT-4V con herramientas especializadas de voz, personajes y escenas para convertir videos largos en guiones estructurados para tareas posteriores de comprensión de video.",
zh = "一个系统,将 GPT-4V 与专门的语音、角色和场景工具结合,将长视频转换为结构化脚本,以支持下游的视频理解任务。",
term_es = "MM-Vid",
term_zh = "MM-Vid",
aliases_es = { "MMVid" },
aliases_zh = { "MMVid" },
}
data["mmbench"] = {
short = "A multimodal evaluation benchmark for large vision-language models that tests roughly twenty fine-grained ability dimensions through multiple-choice questions, scored with a CircularEval protocol to reduce option-position bias.",
article = nil,
aliases = { "MMBench", "MM-Bench" },
es = "Benchmark de evaluación multimodal para grandes modelos de visión-lenguaje que evalúa unas veinte dimensiones de capacidad de grano fino mediante preguntas de opción múltiple, calificadas con un protocolo CircularEval para reducir el sesgo de posición de las opciones.",
zh = "一个面向大型视觉-语言模型的多模态评估基准,通过多项选择题测试约二十个细粒度能力维度,并使用 CircularEval 协议进行评分以减少选项位置偏差。",
term_es = "MMBench",
term_zh = "MMBench",
aliases_es = { "MM-Bench" },
aliases_zh = { "MM-Bench" },
}
data["mmc4"] = {
short = "Multimodal C4, a large interleaved image-and-text dataset that pairs documents from the C4 web corpus with their original embedded images, used to pretrain multimodal language models on long-form image-text sequences.",
article = nil,
aliases = { "MMC4", "Multimodal C4", "MMC4 dataset" },
es = "C4 multimodal, un gran conjunto de datos intercalado de imágenes y texto que empareja documentos del corpus web C4 con sus imágenes originales incrustadas, utilizado para preentrenar modelos de lenguaje multimodales en secuencias largas de imagen y texto.",
zh = "Multimodal C4 数据集,将 C4 网络语料中的文档与其原始嵌入图片配对成图文交错的大规模数据,用于预训练多模态语言模型处理长篇图文序列。",
term_es = "MMC4",
term_zh = "MMC4",
aliases_es = { "C4 multimodal", "conjunto MMC4" },
aliases_zh = { "Multimodal C4", "MMC4 数据集" },
}
data["mmdit"] = {
short = "Multimodal Diffusion Transformer, a backbone introduced in Stable Diffusion 3 that processes image patches and text tokens through a shared transformer with two parallel parameter streams, enabling joint attention between modalities.",
article = nil,
aliases = { "MMDiT", "Multimodal Diffusion Transformer", "MM-DiT", "MMDiT block" },
es = "Multimodal Diffusion Transformer, un backbone introducido en Stable Diffusion 3 que procesa parches de imagen y tokens de texto a través de un transformer compartido con dos flujos paralelos de parámetros, habilitando atención conjunta entre modalidades.",
zh = "Multimodal Diffusion Transformer,由 Stable Diffusion 3 引入的骨干网络,使用具有两条并行参数流的共享 Transformer 同时处理图像块与文本词元,实现模态间的联合注意力。",
term_es = "MMDiT",
term_zh = "MMDiT",
aliases_es = { "Multimodal Diffusion Transformer", "MM-DiT" },
aliases_zh = { "Multimodal Diffusion Transformer", "MM-DiT", "多模态扩散 Transformer" },
}
data["mme benchmark"] = {
short = "A multimodal evaluation benchmark for large vision-language models that measures perception and cognition abilities across 14 subtasks using yes/no questions on images. Each subtask is scored independently to expose specific capability gaps.",
article = nil,
aliases = { "MME", "MME benchmark", "Multimodal Model Evaluation" },
es = "Un benchmark de evaluación multimodal para modelos grandes de visión y lenguaje que mide capacidades de percepción y cognición en 14 subtareas mediante preguntas de sí/no sobre imágenes. Cada subtarea se puntúa de forma independiente para revelar brechas específicas.",
zh = "MME 基准,一个面向大型视觉语言模型的多模态评估基准,通过对图像的是/否问题在 14 个子任务上衡量感知与认知能力,各子任务独立评分以揭示具体能力差距。",
term_es = "benchmark MME",
term_zh = "MME 基准",
aliases_es = { "MME", "MME benchmark" },
aliases_zh = { "MME", "MME 评测" },
}
data["mmiu benchmark"] = {
short = "Multimodal Multi-image Understanding benchmark, evaluating large vision-language models on tasks that require reasoning across multiple input images, including comparison, temporal ordering, and multi-view understanding.",
article = nil,
aliases = { "MMIU", "MMIU benchmark", "Multimodal Multi-image Understanding" },
es = "Benchmark MMIU (Multimodal Multi-image Understanding), que evalúa modelos grandes de visión y lenguaje en tareas que requieren razonar sobre varias imágenes de entrada, incluyendo comparación, orden temporal y comprensión multivista.",
zh = "MMIU 基准(多模态多图理解),评估大型视觉语言模型在需要跨多张输入图像推理的任务上的表现,包括比较、时序排序和多视图理解。",
term_es = "benchmark MMIU",
term_zh = "MMIU 基准",
aliases_es = { "MMIU" },
aliases_zh = { "MMIU", "多模态多图理解基准" },
}
data["mmlu"] = {
short = "A multiple-choice benchmark covering 57 academic and professional subjects (humanities, STEM, social sciences) used to measure broad knowledge and reasoning of large language models in zero- and few-shot settings.",
article = nil,
aliases = { "MMLU", "Massive Multitask Language Understanding" },
es = "Benchmark de opción múltiple que cubre 57 áreas académicas y profesionales (humanidades, STEM, ciencias sociales), usado para medir el conocimiento amplio y el razonamiento de modelos de lenguaje grandes en escenarios zero-shot y few-shot.",
zh = "一项涵盖 57 个学术与专业领域(人文、理工、社会科学)的多项选择基准,用于在零样本与少样本设置下衡量大型语言模型的广泛知识与推理能力。",
term_es = "MMLU",
term_zh = "MMLU",
aliases_es = { "MMLU" },
aliases_zh = { "MMLU", "大规模多任务语言理解" },
}
data["mmlu-pro"] = {
short = "An expanded and harder successor to the MMLU benchmark with 12k reasoning-focused multiple-choice questions across 14 disciplines and ten answer options per item, designed to reduce saturation and guessing on frontier language models.",
article = nil,
aliases = { "MMLU-Pro", "MMLU Pro", "MMLU-PRO" },
es = "Sucesor ampliado y más difícil del banco de pruebas MMLU, con 12 mil preguntas de opción múltiple centradas en razonamiento, en 14 disciplinas y diez opciones por ítem, diseñado para reducir la saturación y el azar en modelos de lenguaje de frontera.",
zh = "MMLU 基准的扩展加强版,包含 14 个学科约 1.2 万道侧重推理的多项选择题,每题 10 个选项,旨在减少前沿语言模型的饱和和猜测效应。",
term_es = "MMLU-Pro",
term_zh = "MMLU-Pro",
aliases_es = { "MMLU Pro", "MMLU-PRO" },
aliases_zh = { "MMLU Pro", "MMLU-PRO" },
}
data["mmmu"] = {
short = "Massive Multi-discipline Multimodal Understanding, a benchmark of about 11.5k college-level questions across art, business, science, health, humanities, and tech that pair text with images, charts, or diagrams to evaluate multimodal reasoning.",
article = nil,
aliases = { "MMMU", "MMMU benchmark", "Massive Multi-discipline Multimodal Understanding" },
es = "Massive Multi-discipline Multimodal Understanding, un banco de pruebas con cerca de 11.5 mil preguntas de nivel universitario en arte, negocios, ciencia, salud, humanidades y tecnología que combinan texto con imágenes, gráficos o diagramas para evaluar el razonamiento multimodal.",
zh = "Massive Multi-discipline Multimodal Understanding 基准,约 1.15 万道大学水平题目,覆盖艺术、商业、科学、健康、人文和科技,将文字与图像、图表或示意图结合,用于评估多模态推理。",
term_es = "MMMU",
term_zh = "MMMU",
aliases_es = { "benchmark MMMU", "Massive Multi-discipline Multimodal Understanding" },
aliases_zh = { "MMMU 基准", "Massive Multi-discipline Multimodal Understanding" },
}
data["mmmu-pro"] = {
short = "A more rigorous variant of the MMMU benchmark that filters text-only-solvable questions, augments distractors, and adds vision-only inputs to better isolate true multimodal reasoning ability of large vision-language models.",
article = nil,
aliases = { "MMMU-Pro", "MMMU Pro" },
es = "Variante más rigurosa del benchmark MMMU que filtra preguntas resolubles solo con texto, amplía los distractores e introduce entradas únicamente visuales para aislar mejor la capacidad real de razonamiento multimodal.",
zh = "MMMU-Pro,MMMU 基准的更严格版本,过滤掉仅凭文本即可解决的题目、扩展干扰项,并加入仅视觉输入,以更好地隔离真正的多模态推理能力。",
term_es = "MMMU-Pro",
term_zh = "MMMU-Pro",
aliases_es = { "MMMU Pro" },
aliases_zh = { "MMMU Pro" },
}
data["mmpa"] = {
short = "Matched Molecular Pair Analysis: a cheminformatics technique that mines large compound sets for pairs differing by a single chemical transformation and aggregates the resulting property changes to identify generally beneficial substitutions.",
article = nil,
aliases = { "MMPA", "matched molecular pair analysis", "matched-molecular-pair analysis" },
es = "Matched Molecular Pair Analysis: técnica de quimioinformática que extrae de grandes colecciones de compuestos los pares que difieren por una única transformación química y agrega los cambios de propiedad resultantes para identificar sustituciones generalmente beneficiosas.",
zh = "MMPA(匹配分子对分析)是一种化学信息学技术,在大型化合物集合中挖掘仅相差一个化学转化的分子对,并汇总相应的性质变化,以识别普遍有利的取代模式。",
term_es = "MMPA",
term_zh = "MMPA",
aliases_es = { "MMPA", "análisis de pares moleculares emparejados" },
aliases_zh = { "MMPA", "匹配分子对分析" },
}
data["mmseqs2"] = {
short = "A sequence search and clustering software suite that performs sensitive protein and nucleotide database searches at speeds approaching BLAST clustering, using k-mer-based prefiltering.",
article = nil,
aliases = { "MMseqs2", "MMseqs", "mmseqs" },
es = "Suite de búsqueda y clustering de secuencias que realiza búsquedas sensibles en bases de datos de proteínas y nucleótidos a velocidades comparables a BLAST, usando un prefiltrado basado en k-meros.",
zh = "MMseqs2:一套序列搜索与聚类软件,借助基于 k-mer 的预筛选,在保持高灵敏度的同时实现接近 BLAST 速度的蛋白质和核酸数据库检索。",
term_es = "MMseqs2",
term_zh = "MMseqs2",
aliases_es = { "MMseqs2", "MMseqs" },
aliases_zh = { "MMseqs2", "MMseqs" },
}
data["mmstar"] = {
short = "A vision-indispensable multimodal benchmark that filters samples to retain only those genuinely requiring image understanding, then evaluates large vision-language models across six core abilities and 18 detailed axes.",
article = nil,
aliases = { "MMStar", "MMSTAR" },
es = "Un benchmark multimodal en el que la visión es indispensable: filtra las muestras para conservar solo las que realmente requieren comprensión de imagen y evalúa los modelos de visión y lenguaje en seis capacidades centrales y 18 ejes detallados.",
zh = "MMStar,一个视觉不可或缺的多模态基准,筛选出真正需要图像理解的样本,从六项核心能力与 18 个细分维度评估大型视觉语言模型。",
term_es = "MMStar",
term_zh = "MMStar",
aliases_es = { "MMSTAR" },
aliases_zh = { "MMSTAR" },
}
data["mmt-bench"] = {
short = "A comprehensive multimodal multitask benchmark that evaluates large vision-language models on 32 meta-tasks and 162 subtasks spanning perception, reasoning, planning, and visually grounded knowledge.",
article = nil,
aliases = { "MMT-Bench", "MMT Bench", "Multimodal Multitask Benchmark" },
es = "Un benchmark multimodal multitarea integral que evalúa modelos grandes de visión y lenguaje en 32 metatareas y 162 subtareas que abarcan percepción, razonamiento, planificación y conocimiento visualmente fundamentado.",
zh = "MMT-Bench,一个综合性的多模态多任务基准,在 32 个元任务和 162 个子任务上评估大型视觉语言模型,涵盖感知、推理、规划与视觉接地知识。",
term_es = "MMT-Bench",
term_zh = "MMT-Bench",
aliases_es = { "MMT Bench" },
aliases_zh = { "MMT Bench" },
}
data["mmworld"] = {
short = "A video-based multimodal benchmark that probes world-model understanding in vision-language models through multi-discipline, multi-faceted reasoning questions about real-world dynamics across science, sports, and daily life.",
article = nil,
aliases = { "MMWorld", "MM-World" },
es = "Un benchmark multimodal basado en vídeo que examina la comprensión de modelos del mundo en modelos de visión y lenguaje mediante preguntas de razonamiento multidisciplinar y multifacético sobre dinámicas reales en ciencia, deportes y vida cotidiana.",
zh = "MMWorld,基于视频的多模态基准,通过涵盖科学、体育与日常生活等真实世界动态的多学科、多侧面推理题,探测视觉语言模型的世界模型理解能力。",
term_es = "MMWorld",
term_zh = "MMWorld",
aliases_es = { "MM-World" },
aliases_zh = { "MM-World" },
}
data["mnasnet"] = {
short = "A platform-aware neural architecture search method that jointly optimizes accuracy and on-device latency, using a multi-objective reward and a factorized hierarchical search space to discover mobile-friendly CNNs.",
article = nil,
aliases = { "MnasNet", "Mnas-Net", "MNASNet" },
es = "Método de búsqueda de arquitecturas neuronales consciente de la plataforma que optimiza conjuntamente la precisión y la latencia en dispositivo, utilizando una recompensa multi-objetivo y un espacio de búsqueda jerárquico factorizado para descubrir CNN aptas para móvil.",
zh = "一种平台感知的神经架构搜索方法,使用多目标奖励和分层因子化搜索空间,联合优化精度与设备端延迟,发现适合移动端的CNN。",
term_es = "MnasNet",
term_zh = "MnasNet",
aliases_es = { "MNASNet" },
aliases_zh = { "MnasNet", "MNASNet" },
}
data["mnasnet reward"] = {
short = "The multi-objective reward used in MnasNet, defined as accuracy multiplied by (latency / target)^w, where w is negative when latency exceeds the target — penalizing slow architectures while encouraging fast ones.",
article = nil,
aliases = { "MnasNet reward function", "MnasNet objective", "mnasnet reward function" },
es = "Recompensa multi-objetivo utilizada en MnasNet, definida como precisión multiplicada por (latencia / objetivo)^w, donde w es negativo cuando la latencia supera el objetivo — penalizando las arquitecturas lentas y favoreciendo las rápidas.",
zh = "MnasNet中使用的多目标奖励,定义为精度乘以(延迟/目标)^w,当延迟超过目标时w为负,从而惩罚慢架构、奖励快架构。",
term_es = "recompensa de MnasNet",
term_zh = "MnasNet奖励",
aliases_es = { "función de recompensa de MnasNet", "objetivo de MnasNet" },
aliases_zh = { "MnasNet奖励函数", "MnasNet目标函数" },
}
data["mnasnet-a1"] = {
short = "A specific architecture discovered by MnasNet, balancing top-1 accuracy on ImageNet with low Pixel-phone inference latency; a widely cited baseline for mobile CNN comparisons.",
article = nil,
aliases = { "MnasNet-A1", "MnasNetA1", "mnasnet a1" },
es = "Arquitectura específica descubierta por MnasNet que equilibra la precisión top-1 en ImageNet con una baja latencia de inferencia en teléfonos Pixel; una línea base ampliamente citada para comparaciones de CNN móviles.",
zh = "由MnasNet发现的一种具体架构,在ImageNet top-1精度与Pixel手机推理延迟之间取得平衡,是移动CNN对比中广泛引用的基线。",
term_es = "MnasNet-A1",
term_zh = "MnasNet-A1",
aliases_es = { "MnasNetA1" },
aliases_zh = { "MnasNet-A1", "MnasNetA1" },
}
data["mobile agent multimodal"] = {
short = "A class of multimodal agents that operate on mobile device screens by perceiving UI screenshots, planning actions, and executing taps and gestures to complete user instructions on smartphones or tablets.",
article = nil,
aliases = { "Mobile-Agent", "mobile multimodal agent", "MobileAgent" },
es = "Clase de agentes multimodales que operan sobre pantallas de dispositivos móviles percibiendo capturas de la interfaz, planificando acciones y ejecutando toques y gestos para completar instrucciones del usuario en teléfonos o tabletas.",
zh = "移动端多模态智能体,这类多模态智能体通过感知移动设备界面截图、规划动作并执行点击与手势,在手机或平板上完成用户指令。",
term_es = "agente multimodal móvil",
term_zh = "移动端多模态智能体",
aliases_es = { "Mobile-Agent", "agente móvil multimodal" },
aliases_zh = { "Mobile-Agent", "移动多模态代理" },
}
data["mobile-friendly federated learning"] = {
short = "Federated learning systems engineered for smartphones and similar mobile devices, accounting for intermittent connectivity, limited compute and memory, battery and data costs, and asynchronous participation.",
article = nil,
aliases = { "smartphone federated learning", "on-device federated learning", "cross-device FL", "FL for mobile" },
es = "Sistemas de aprendizaje federado diseñados para smartphones y dispositivos móviles similares, teniendo en cuenta la conectividad intermitente, los límites de cómputo y memoria, el coste de batería y datos, y la participación asincrónica.",
zh = "面向智能手机及类似移动设备的联邦学习系统,需考虑断续连接、算力与内存受限、电量与流量成本以及异步参与等约束。",
term_es = "aprendizaje federado para móviles",
term_zh = "移动端友好联邦学习",
aliases_es = { "FL en dispositivos móviles", "aprendizaje federado en smartphones" },
aliases_zh = { "移动联邦学习", "智能手机联邦学习", "跨设备联邦学习" },
}
data["mobile-friendly nas"] = {
short = "Neural architecture search aimed at producing models efficient on mobile devices, by including latency, FLOPs, parameter count, or memory consumption as constraints or terms in the search objective.",
article = nil,
aliases = { "mobile friendly NAS", "mobile-aware NAS", "mobile NAS" },
es = "Búsqueda de arquitecturas neuronales orientada a producir modelos eficientes en dispositivos móviles, incluyendo latencia, FLOPs, número de parámetros o consumo de memoria como restricciones o términos del objetivo de búsqueda.",
zh = "面向移动设备效率的神经架构搜索,将延迟、FLOPs、参数量或内存占用作为搜索目标中的约束或项。",
term_es = "NAS orientado a móvil",
term_zh = "面向移动端的NAS",
aliases_es = { "NAS apto para móvil", "NAS consciente de móvil" },
aliases_zh = { "mobile-friendly NAS", "移动友好NAS", "面向移动设备的神经架构搜索" },
}
data["mobilenet"] = {
short = "A family of efficient convolutional networks designed for mobile and embedded vision tasks, built around depthwise separable convolutions. Variants include MobileNetV1, V2, and V3.",
article = nil,
aliases = { "MobileNet", "MobileNetV1", "MobileNet v1", "MobileNetV2", "MobileNet v2", "MobileNetV3", "MobileNet v3" },
es = "Familia de redes convolucionales eficientes diseñadas para tareas de visión en dispositivos móviles y embebidos, construidas en torno a convoluciones separables en profundidad. Las variantes incluyen MobileNetV1, V2 y V3.",
zh = "为移动端和嵌入式视觉任务设计的高效卷积网络家族,以深度可分离卷积为核心。变体包括 MobileNetV1、V2 和 V3。",
term_es = "MobileNet",
term_zh = "MobileNet",
aliases_es = { "MobileNetV1", "MobileNetV2", "MobileNetV3" },
aliases_zh = { "MobileNetV1", "MobileNetV2", "MobileNetV3" },
}
data["mobilenetv2"] = {
short = "A lightweight convolutional neural network for mobile and embedded vision built around inverted residual blocks with linear bottlenecks, using depthwise separable convolutions to reduce compute.",
article = nil,
aliases = { "MobileNet v2", "MobileNetV2", "MobileNet V2", "mobilenet v2" },
es = "Red neuronal convolucional ligera para visión en dispositivos móviles y embebidos, basada en bloques residuales invertidos con cuellos de botella lineales y convoluciones separables en profundidad para reducir el cómputo.",
zh = "面向移动与嵌入式视觉的轻量级卷积神经网络,核心是带线性瓶颈的反向残差块,并使用深度可分离卷积降低计算量。",
term_es = "MobileNetV2",
term_zh = "MobileNetV2",
aliases_es = { "MobileNet V2", "MobileNet v2" },
aliases_zh = { "MobileNet V2", "MobileNet v2" },
}
data["mobilenetv3"] = {
short = "The third generation of MobileNet architectures, combining NAS-discovered structure, h-swish nonlinearities, and squeeze-and-excitation modules, delivered in Large and Small variants for different latency targets.",
article = nil,
aliases = { "MobileNet v3", "MobileNetV3", "MobileNet V3", "mobilenet v3" },
es = "Tercera generación de las arquitecturas MobileNet, que combina estructura descubierta por NAS, no linealidades h-swish y módulos squeeze-and-excitation, ofrecida en variantes Large y Small para distintos objetivos de latencia.",
zh = "第三代MobileNet架构,融合NAS发现的结构、h-swish非线性与squeeze-and-excitation模块,并提供Large与Small两种变体以适配不同延迟目标。",
term_es = "MobileNetV3",
term_zh = "MobileNetV3",
aliases_es = { "MobileNet V3", "MobileNet v3" },
aliases_zh = { "MobileNet V3", "MobileNet v3" },
}
data["mobilenetv3-large"] = {
short = "The larger MobileNetV3 variant, designed for higher accuracy on ImageNet at moderate latency; uses a wider stack of inverted residual blocks with squeeze-and-excitation and h-swish activations.",
article = nil,
aliases = { "MobileNetV3-Large", "MobileNetV3 Large", "mobilenet v3 large", "MobileNet v3 Large" },
es = "Variante mayor de MobileNetV3, diseñada para mayor precisión en ImageNet con latencia moderada; emplea una pila más amplia de bloques residuales invertidos con squeeze-and-excitation y activaciones h-swish.",
zh = "MobileNetV3的较大变体,面向中等延迟下的更高ImageNet精度,使用更宽的反向残差块堆叠以及squeeze-and-excitation与h-swish激活。",
term_es = "MobileNetV3-Large",
term_zh = "MobileNetV3-Large",
aliases_es = { "MobileNetV3 Large", "MobileNet v3 Large" },
aliases_zh = { "MobileNetV3 Large", "MobileNet v3 Large", "MobileNetV3大型" },
}
data["mobilenetv3-small"] = {
short = "The smaller MobileNetV3 variant, targeting low-latency inference on resource-constrained devices with fewer blocks and channels than MobileNetV3-Large while retaining h-swish and squeeze-and-excitation.",
article = nil,
aliases = { "MobileNetV3-Small", "MobileNetV3 Small", "mobilenet v3 small", "MobileNet v3 Small" },
es = "Variante menor de MobileNetV3, orientada a inferencia de baja latencia en dispositivos con recursos limitados, con menos bloques y canales que MobileNetV3-Large, conservando h-swish y squeeze-and-excitation.",
zh = "MobileNetV3的较小变体,面向资源受限设备上的低延迟推理,块数与通道数少于MobileNetV3-Large,但保留h-swish与squeeze-and-excitation。",
term_es = "MobileNetV3-Small",
term_zh = "MobileNetV3-Small",
aliases_es = { "MobileNetV3 Small", "MobileNet v3 Small" },
aliases_zh = { "MobileNetV3 Small", "MobileNet v3 Small", "MobileNetV3小型" },
}
data["mobilevlm"] = {
short = "A family of lightweight vision-language models designed for on-device inference, pairing an efficient visual encoder with a compact language model and a downsampling projector to fit mobile-class compute budgets.",
article = nil,
aliases = { "MobileVLM", "Mobile-VLM" },
es = "Familia de modelos de visión y lenguaje ligeros diseñados para inferencia en dispositivo, que combinan un codificador visual eficiente con un modelo de lenguaje compacto y un proyector con submuestreo para ajustarse a presupuestos de cómputo móviles.",
zh = "MobileVLM,一类面向端侧推理的轻量级视觉语言模型,将高效视觉编码器与紧凑语言模型及下采样投影器结合,以适配移动级算力预算。",
term_es = "MobileVLM",
term_zh = "MobileVLM",
aliases_es = { "Mobile-VLM" },
aliases_zh = { "Mobile-VLM" },
}
data["mocha algorithm"] = {
short = "A federated multi-task learning algorithm (MOCHA) that jointly learns related per-client models by exploiting task relationships expressed through a learned similarity matrix, while addressing systems challenges like stragglers and faults.",
article = nil,
aliases = { "MOCHA", "MOCHA federated multi-task", "Smith et al. MOCHA" },
es = "Algoritmo federado de aprendizaje multitarea (MOCHA) que aprende conjuntamente modelos relacionados por cliente explotando relaciones entre tareas representadas mediante una matriz de similitud aprendida, abordando además retos de sistemas como rezagados y fallos.",
zh = "一种联邦多任务学习算法(MOCHA):通过学到的任务相似度矩阵共同训练每个客户端的相关模型,同时处理掉队节点与故障等系统层面的挑战。",
term_es = "algoritmo MOCHA",
term_zh = "MOCHA 算法",
aliases_es = { "MOCHA", "MOCHA federado multitarea" },
aliases_zh = { "MOCHA", "MOCHA 联邦多任务", "联邦多任务 MOCHA" },
}
data["mockingjay"] = {
short = "A self-supervised speech representation model that pre-trains a Transformer encoder by masked acoustic modeling on log mel-spectrograms, predicting masked frames from surrounding context.",
article = nil,
aliases = { "Mockingjay" },
es = "Modelo autosupervisado de representación del habla que preentrena un codificador Transformer mediante modelado acústico enmascarado sobre log-mel-espectrogramas, prediciendo cuadros enmascarados a partir del contexto circundante.",
zh = "一种自监督语音表征模型,在对数梅尔频谱图上通过掩码声学建模预训练 Transformer 编码器,根据上下文预测被掩码的帧。",
term_es = "Mockingjay",
term_zh = "Mockingjay",
aliases_es = {},
aliases_zh = {},
}
data["moco"] = {
short = "Momentum Contrast — a self-supervised representation learning method introduced by He et al. in 2019 that builds a large dynamic queue of negative keys encoded by a momentum-updated encoder, enabling consistent contrastive learning at scale.",
article = nil,
aliases = { "MoCo", "Momentum Contrast", "MoCo v1", "MoCo v2", "MoCov2", "MoCo v3", "MoCov3" },
es = "Momentum Contrast — método de aprendizaje de representaciones autosupervisado presentado por He et al. en 2019 que construye una gran cola dinámica de claves negativas codificadas por un codificador actualizado por momento, permitiendo un aprendizaje contrastivo consistente a gran escala.",
zh = "Momentum Contrast——由 He 等人于 2019 年提出的自监督表示学习方法,构建由动量更新编码器编码的大型动态负样本键队列,从而实现大规模一致的对比学习。",
term_es = "MoCo",
term_zh = "MoCo",
aliases_es = { "Momentum Contrast", "MoCo v2", "MoCo v3" },
aliases_zh = { "动量对比", "MoCo v2", "MoCo v3" },
}
data["modal logic"] = {
short = "An extension of classical logic with operators for necessity (□) and possibility (◇), evaluated over Kripke frames of accessible possible worlds. Underpins reasoning about time, knowledge, belief, and obligation.",
article = nil,
aliases = { "modal logics", "Kripke modal logic", "propositional modal logic" },
es = "Extensión de la lógica clásica con operadores de necesidad (□) y posibilidad (◇), evaluados sobre marcos de Kripke de mundos posibles accesibles. Fundamenta el razonamiento sobre tiempo, conocimiento, creencia y obligación.",
zh = "在经典逻辑基础上引入必然性(□)和可能性(◇)算子的扩展,在可达可能世界的 Kripke 框架上求值,是对时间、知识、信念和义务进行推理的基础。",
term_es = "lógica modal",
term_zh = "模态逻辑",
aliases_es = { "lógicas modales", "lógica modal proposicional" },
aliases_zh = { "模态逻辑学", "命题模态逻辑", "Kripke 模态逻辑" },
}
data["modality adapter"] = {
short = "A small trainable module that maps features from a non-text modality (e.g. images, audio) into the embedding space of a frozen language model, enabling efficient multimodal extension without full fine-tuning.",
article = nil,
aliases = { "modality adaptor", "modality projector", "modality adapters" },
es = "Módulo entrenable pequeño que proyecta características de una modalidad no textual (por ejemplo imágenes o audio) al espacio de embeddings de un modelo de lenguaje congelado, permitiendo una extensión multimodal eficiente sin reentrenar todo el modelo.",
zh = "模态适配器,一种小型可训练模块,将非文本模态(如图像、音频)的特征映射到冻结语言模型的嵌入空间,从而在不进行全量微调的情况下高效扩展多模态能力。",
term_es = "adaptador de modalidad",
term_zh = "模态适配器",
aliases_es = { "proyector de modalidad" },
aliases_zh = { "模态投影器" },
}
data["modality alignment"] = {
short = "The process of mapping features from different modalities into a shared representation space so that semantically related items, such as a caption and its image, lie close together. It is typically achieved via contrastive or projection-based pretraining.",
article = nil,
aliases = { "cross-modal alignment", "cross modal alignment", "multimodal alignment" },
es = "Proceso de proyectar características de distintas modalidades en un espacio de representación compartido para que elementos semánticamente relacionados, como un pie de foto y su imagen, queden cercanos. Suele lograrse mediante preentrenamiento contrastivo o por proyección.",
zh = "模态对齐,将不同模态的特征映射到共享表示空间,使语义相关的内容(如图像与其描述)在空间中靠近,通常通过对比学习或投影式预训练实现。",
term_es = "alineación de modalidades",
term_zh = "模态对齐",
aliases_es = { "alineamiento multimodal", "alineación intermodal" },
aliases_zh = { "跨模态对齐", "多模态对齐" },
}
data["modality bridging"] = {
short = "Techniques that connect a pretrained encoder of one modality to a pretrained model of another, typically through projection layers or query-based connectors, enabling the second model to consume the first modality's features.",
article = nil,
aliases = { "modality bridge", "cross-modal bridging" },
es = "Técnicas que conectan un codificador preentrenado de una modalidad con un modelo preentrenado de otra, normalmente mediante capas de proyección o conectores basados en consultas, para que el segundo modelo consuma las características de la primera modalidad.",
zh = "模态桥接,通过投影层或基于查询的连接器,将一种模态的预训练编码器与另一种模态的预训练模型相连,使后者能够消费前者的特征。",
term_es = "puente entre modalidades",
term_zh = "模态桥接",
aliases_es = { "puente intermodal" },
aliases_zh = { "跨模态桥接", "模态桥" },
}
data["modality completion"] = {
short = "The task of inferring the missing modality of a multimodal sample from the observed ones, for example generating a plausible image from text or audio from video, often used to handle incomplete inputs.",
article = nil,
aliases = { "missing modality completion", "cross-modal completion" },
es = "Tarea de inferir la modalidad ausente de una muestra multimodal a partir de las observadas, por ejemplo generar una imagen plausible desde texto o audio desde vídeo; suele usarse para manejar entradas incompletas.",
zh = "模态补全,根据已观察到的模态推断多模态样本中缺失的模态,例如从文本生成合理的图像或从视频生成音频,常用于处理不完整输入。",
term_es = "completado de modalidades",
term_zh = "模态补全",
aliases_es = { "completado de modalidad faltante" },
aliases_zh = { "缺失模态补全", "跨模态补全" },
}
data["modality dropout"] = {
short = "A regularization technique for multimodal models that randomly drops entire modalities during training, forcing the model to remain robust when one or more inputs are missing or noisy at inference time.",
article = nil,
aliases = { "modality drop-out", "modal dropout" },
es = "Técnica de regularización para modelos multimodales que descarta aleatoriamente modalidades completas durante el entrenamiento, obligando al modelo a ser robusto cuando una o más entradas faltan o son ruidosas en inferencia.",
zh = "模态丢弃,一种用于多模态模型的正则化方法,在训练中随机丢弃整个模态,促使模型在推理时面对缺失或噪声输入仍保持稳健。",
term_es = "dropout de modalidad",
term_zh = "模态丢弃",
aliases_es = { "abandono de modalidad" },
aliases_zh = { "模态 dropout", "模态随机丢弃" },
}
data["modality embedding"] = {
short = "A learned vector added to or concatenated with token embeddings to indicate the modality (e.g. image, audio, text) of each token, helping a unified transformer distinguish inputs from different modalities.",
article = nil,
aliases = { "modality embeddings", "modality type embedding" },
es = "Vector aprendido que se suma o concatena a los embeddings de tokens para indicar la modalidad (imagen, audio, texto) de cada uno, ayudando a un transformer unificado a distinguir entradas de modalidades distintas.",
zh = "模态嵌入,一种可学习向量,加到或拼接到 token 嵌入上以指示该 token 的模态(如图像、音频、文本),帮助统一 Transformer 区分来自不同模态的输入。",
term_es = "embedding de modalidad",
term_zh = "模态嵌入",
aliases_es = { "embeddings de modalidad" },
aliases_zh = { "模态 embedding", "模态类型嵌入" },
}
data["modality fusion"] = {
short = "Techniques for combining representations from multiple modalities into a joint representation, ranging from early fusion at the input level to late fusion at the prediction level, with cross-attention as a common intermediate approach.",
article = nil,
aliases = { "multimodal fusion", "cross-modal fusion", "feature fusion multimodal" },
es = "Técnicas para combinar representaciones de varias modalidades en una representación conjunta, desde la fusión temprana a nivel de entrada hasta la fusión tardía a nivel de predicción, siendo la atención cruzada un enfoque intermedio habitual.",
zh = "模态融合,将多种模态的表示组合为联合表示的技术,从输入级的早期融合到预测级的晚期融合,跨注意力是常见的中间层融合方式。",
term_es = "fusión de modalidades",
term_zh = "模态融合",
aliases_es = { "fusión multimodal" },
aliases_zh = { "多模态融合", "跨模态融合" },
}
data["modality gap"] = {
short = "An empirical phenomenon in contrastively pretrained multimodal models where embeddings from different modalities cluster in distinct cone-like regions of the joint space, leaving a measurable distance between modality clusters.",
article = nil,
aliases = { "modality-gap", "embedding modality gap" },
es = "Fenómeno empírico en modelos multimodales preentrenados de forma contrastiva en el que los embeddings de cada modalidad se agrupan en regiones cónicas distintas del espacio conjunto, dejando una distancia medible entre los clústeres.",
zh = "模态鸿沟,在对比预训练的多模态模型中观察到的现象:不同模态的嵌入聚集在联合空间的不同锥形区域,各模态簇之间存在可度量的距离。",
term_es = "brecha de modalidad",
term_zh = "模态鸿沟",
aliases_es = { "modality gap" },
aliases_zh = { "模态间隙", "模态差距" },
}
data["modality imputation"] = {
short = "Filling in missing modality features at inference time using a model trained to predict them from the available modalities, allowing downstream multimodal models to operate on incomplete inputs.",
article = nil,
aliases = { "missing modality imputation", "modal imputation" },
es = "Rellenar en inferencia las características de una modalidad ausente mediante un modelo entrenado para predecirlas a partir de las modalidades disponibles, permitiendo que los modelos multimodales posteriores operen con entradas incompletas.",
zh = "模态插补,在推理时利用训练好的模型,根据可用模态预测并填补缺失模态的特征,使下游多模态模型能够处理不完整输入。",
term_es = "imputación de modalidad",
term_zh = "模态插补",
aliases_es = { "imputación de modalidad faltante" },
aliases_zh = { "缺失模态插补" },
}
data["modality robustness"] = {
short = "The ability of a multimodal model to maintain performance under perturbed, noisy, or missing inputs in one or more modalities, often evaluated by selectively corrupting or dropping modalities at test time.",
article = nil,
aliases = { "multimodal robustness", "cross-modal robustness" },
es = "Capacidad de un modelo multimodal de mantener su rendimiento ante entradas perturbadas, ruidosas o ausentes en una o varias modalidades, evaluada típicamente corrompiendo o eliminando modalidades de forma selectiva en test.",
zh = "模态鲁棒性,多模态模型在一种或多种模态输入受到扰动、噪声或缺失时仍能保持性能的能力,通常通过在测试时有选择地破坏或丢弃模态进行评估。",
term_es = "robustez de modalidad",
term_zh = "模态鲁棒性",
aliases_es = { "robustez multimodal" },
aliases_zh = { "多模态鲁棒性", "跨模态鲁棒性" },
}
data["modality-agnostic encoder"] = {
short = "An encoder architecture that processes inputs from any modality through a shared backbone after lightweight modality-specific tokenization, producing representations in a unified space without per-modality network branches.",
article = nil,
aliases = { "modality agnostic encoder", "shared modality encoder", "unified encoder" },
es = "Arquitectura de codificador que procesa entradas de cualquier modalidad a través de un tronco compartido tras una tokenización ligera específica por modalidad, produciendo representaciones en un espacio unificado sin ramas separadas por modalidad.",
zh = "模态无关编码器,采用共享骨干网络处理任意模态输入的编码器架构,只在前端进行轻量的模态专用分词,生成统一空间中的表示而无需为各模态设置独立分支。",
term_es = "codificador agnóstico a la modalidad",
term_zh = "模态无关编码器",
aliases_es = { "codificador independiente de la modalidad" },
aliases_zh = { "模态共享编码器", "统一编码器" },
}
data["modality-specific encoder"] = {
short = "An encoder dedicated to a single input modality, such as a vision transformer for images or a wav2vec model for audio, whose outputs are then projected into a shared multimodal representation space.",
article = nil,
aliases = { "modality specific encoder", "per-modality encoder" },
es = "Codificador dedicado a una sola modalidad de entrada, como un vision transformer para imágenes o un modelo wav2vec para audio, cuyas salidas se proyectan luego a un espacio de representación multimodal compartido.",
zh = "模态专用编码器,专门面向单一输入模态的编码器(如用于图像的 Vision Transformer 或用于音频的 wav2vec),其输出再投影到共享的多模态表示空间。",
term_es = "codificador específico de modalidad",
term_zh = "模态专用编码器",
aliases_es = { "codificador por modalidad" },
aliases_zh = { "单模态编码器", "各模态独立编码器" },
}
data["mode connectivity"] = {
short = "The empirical observation that distinct minima found by SGD in deep networks are connected by simple, nearly low-loss curves in parameter space, contradicting the picture of isolated optima (Garipov et al., Draxler et al. 2018).",
article = nil,
aliases = { "loss landscape connectivity", "linear mode connectivity", "neural network mode connectivity" },
es = "Observación empírica de que mínimos distintos hallados por SGD en redes profundas se conectan mediante curvas simples y de pérdida casi baja en el espacio de parámetros, en contra de la idea de óptimos aislados (Garipov et al., Draxler et al. 2018).",
zh = "经验观察表明,SGD 在深度网络中找到的不同极小点可通过参数空间中简单且几乎低损失的曲线相连,与孤立极小的图景相反(Garipov 等人、Draxler 等人,2018)。",
term_es = "conectividad de modos",
term_zh = "模式连通性",
aliases_es = { "conectividad lineal de modos", "conectividad del paisaje de pérdida" },
aliases_zh = { "线性模式连通性", "损失曲面连通性" },
}
data["model agnostic supervised local explanations"] = {
short = "MAPLE: a local explanation method that fits a sparse linear surrogate to a black-box model in the neighbourhood of the instance being explained, using random-forest leaf co-occurrence as a learned similarity kernel.",
article = nil,
aliases = { "MAPLE", "model-agnostic supervised local explanations", "supervised local explanations" },
es = "MAPLE: método de explicación local que ajusta un sustituto lineal disperso a un modelo de caja negra en el vecindario de la instancia a explicar, usando como núcleo de similitud aprendido la coocurrencia de hojas de un random forest.",
zh = "MAPLE:一种局部解释方法,在被解释样本的邻域内对黑盒模型拟合一个稀疏线性代理模型,并使用随机森林叶节点共现作为习得的相似性核。",
term_es = "MAPLE",
term_zh = "MAPLE",
aliases_es = { "explicaciones locales supervisadas agnósticas al modelo", "explicaciones locales supervisadas" },
aliases_zh = { "模型无关的有监督局部解释", "有监督局部解释" },
}
data["model audit"] = {
short = "A structured examination of a machine learning system's data, design, performance, and behavior across subgroups to identify risks such as bias, drift, robustness gaps, or compliance failures.",
article = nil,
aliases = { "ML model audit", "AI model audit", "algorithm audit" },
es = "Examen estructurado de los datos, diseño, rendimiento y comportamiento de un sistema de aprendizaje automático en distintos subgrupos, con el fin de identificar riesgos como sesgo, deriva, brechas de robustez o incumplimientos normativos.",
zh = "对机器学习系统的数据、设计、性能及在子群体上的行为进行的结构化审查,用于识别偏差、漂移、鲁棒性缺口或合规问题等风险。",
term_es = "auditoría de modelo",
term_zh = "模型审计",
aliases_es = { "auditoría de modelos de ML", "auditoría algorítmica" },
aliases_zh = { "AI 模型审计", "算法审计" },
}
data["model card"] = {
short = "A short, structured document that describes a model's intended use, training data, performance metrics across relevant subgroups, limitations, and ethical considerations, popularized by Mitchell et al. (2019).",
article = nil,
aliases = { "model cards", "Model Cards for Model Reporting" },
es = "Documento breve y estructurado que describe el uso previsto de un modelo, los datos de entrenamiento, las métricas de rendimiento en subgrupos relevantes, las limitaciones y las consideraciones éticas, popularizado por Mitchell et al. (2019).",
zh = "简短的结构化文档,描述模型的预期用途、训练数据、在相关子群体上的性能指标、局限性以及伦理考量,由 Mitchell 等人(2019)推广。",
term_es = "ficha de modelo",
term_zh = "模型卡",
aliases_es = { "tarjeta de modelo", "model card" },
aliases_zh = { "模型说明卡", "model card" },
}
data["model complexity"] = {
short = "The richness of the function class a model can express, often correlated with the number of parameters or effective degrees of freedom; controls the bias-variance trade-off and risk of overfitting.",
article = nil,
aliases = { "model-complexity", "complexity of the model", "function complexity" },
es = "Riqueza de la clase de funciones que un modelo puede expresar, a menudo correlacionada con el número de parámetros o los grados de libertad efectivos; controla el equilibrio sesgo-varianza y el riesgo de sobreajuste.",
zh = "模型可表达的函数类的丰富程度,通常与参数数量或有效自由度相关;它控制偏差-方差权衡和过拟合的风险。",
term_es = "complejidad del modelo",
term_zh = "模型复杂度",
aliases_es = { "complejidad de modelo", "complejidad funcional" },
aliases_zh = { "模型复杂性", "model complexity" },
}
data["model context protocol"] = {
short = "An open protocol introduced by Anthropic in 2024 that standardizes how language-model applications connect to external tools, data sources, and prompts through JSON-RPC servers, enabling reusable integrations across clients.",
article = nil,
aliases = { "MCP", "Model Context Protocol", "MCP protocol", "model-context protocol" },
es = "Protocolo abierto presentado por Anthropic en 2024 que estandariza cómo las aplicaciones de modelos de lenguaje se conectan a herramientas externas, fuentes de datos y prompts mediante servidores JSON-RPC, permitiendo integraciones reutilizables entre clientes.",
zh = "Anthropic 于 2024 年提出的开放协议,通过 JSON-RPC 服务器标准化大语言模型应用与外部工具、数据源和提示模板的连接方式,实现可在不同客户端复用的集成。",
term_es = "Model Context Protocol",
term_zh = "模型上下文协议",
aliases_es = { "MCP", "protocolo MCP", "protocolo de contexto del modelo" },
aliases_zh = { "MCP", "Model Context Protocol", "MCP 协议" },
}
data["model debugging"] = {
short = "The systematic process of locating and remediating defects in a trained model — spurious correlations, miscalibration, biased subgroup behaviour, brittle features — using interpretability tools, slice analysis, and counterfactual probing.",
article = nil,
aliases = { "ML model debugging", "machine learning model debugging", "model defect analysis" },
es = "Proceso sistemático de localizar y corregir defectos en un modelo entrenado —correlaciones espurias, mala calibración, comportamiento sesgado en subgrupos, atajos frágiles— usando herramientas de interpretabilidad, análisis por segmentos y sondeo contrafactual.",
zh = "对已训练模型中缺陷(如虚假相关、校准失准、子群体偏差、脆弱特征等)进行系统定位与修复的过程,借助可解释性工具、切片分析和反事实探查实现。",
term_es = "depuración de modelos",
term_zh = "模型调试",
aliases_es = { "depuración de modelos de ML", "debugging de modelos" },
aliases_zh = { "机器学习模型调试", "模型缺陷分析" },
}
data["model editing"] = {
short = "Techniques that surgically update a trained model's parameters to change specific factual or behavioural outputs while leaving the rest of its capabilities intact, e.g., ROME, MEMIT, MEND, knowledge editing.",
article = nil,
aliases = { "knowledge editing", "model knowledge editing", "weight editing", "parameter editing" },
es = "Técnicas que actualizan de forma quirúrgica los parámetros de un modelo entrenado para modificar salidas factuales o de comportamiento específicas, dejando intactas el resto de sus capacidades; por ejemplo ROME, MEMIT o MEND.",
zh = "对已训练模型的参数进行外科式更新的技术,用以修改特定的事实或行为输出,同时保持其他能力不变,例如ROME、MEMIT和MEND等知识编辑方法。",
term_es = "edición de modelos",
term_zh = "模型编辑",
aliases_es = { "edición de conocimiento", "edición de pesos", "edición de parámetros" },
aliases_zh = { "知识编辑", "权重编辑", "参数编辑" },
}
data["model evidence"] = {
short = "The marginal likelihood of the observed data under a model, obtained by integrating the joint distribution over all parameters. Central to Bayesian model selection and the variational lower bound (ELBO).",
article = nil,
aliases = { "marginal likelihood", "Bayesian evidence", "evidence", "log evidence" },
es = "Verosimilitud marginal de los datos observados bajo un modelo, obtenida integrando la distribución conjunta sobre todos los parámetros. Es central en la selección bayesiana de modelos y en la cota inferior variacional (ELBO).",
zh = "在某模型下对观测数据的边际似然,通过对所有参数积分联合分布得到,是贝叶斯模型选择和变分下界(ELBO)的核心量。",
term_es = "evidencia del modelo",
term_zh = "模型证据",
aliases_es = { "verosimilitud marginal", "evidencia bayesiana", "log-evidencia" },
aliases_zh = { "边际似然", "贝叶斯证据", "对数证据" },
}
data["model interpolation federated"] = {
short = "A personalization technique in federated learning where each client uses a convex combination of the global model and its locally trained model, with a per-client mixing weight chosen to balance shared knowledge and local fit.",
article = nil,
aliases = { "global-local interpolation (federated)", "personalized model interpolation", "alpha mixing of FL models", "APFL-style interpolation" },
es = "Técnica de personalización en aprendizaje federado en la que cada cliente usa una combinación convexa del modelo global y su modelo entrenado localmente, con un peso de mezcla por cliente elegido para equilibrar el conocimiento compartido y el ajuste local.",
zh = "联邦学习中的一种个性化技术:每个客户端使用全局模型与其本地训练模型的凸组合,并按客户端选择混合权重,在共享知识与本地拟合之间取得平衡。",
term_es = "interpolación de modelos federada",
term_zh = "联邦模型插值",
aliases_es = { "interpolación global-local", "interpolación personalizada de modelos" },
aliases_zh = { "全局-本地模型插值", "个性化模型插值", "APFL 式插值" },
}
data["model parallelism"] = {
short = "Any distributed training strategy that splits a single model across multiple devices — including tensor, pipeline, sequence, expert and context parallelism — used when the model is too large to fit in one device's memory.",
article = nil,
aliases = { "MP", "model parallel", "model parallelization" },
es = "Cualquier estrategia de entrenamiento distribuido que divide un único modelo entre varios dispositivos — incluidos paralelismos de tensor, tubería, secuencia, expertos y contexto — utilizada cuando el modelo es demasiado grande para caber en la memoria de un único dispositivo.",
zh = "将单个模型拆分到多张设备上的分布式训练策略的总称,涵盖张量并行、流水线并行、序列并行、专家并行和上下文并行等,适用于模型规模超过单卡显存的情况。",
term_es = "paralelismo de modelo",
term_zh = "模型并行",
aliases_es = { "MP", "paralelización de modelo" },
aliases_zh = { "MP", "模型并行化" },
}
data["model parameter randomization test"] = {
short = "A sanity check for saliency methods that compares the explanation produced by a trained network with the explanation produced after its weights are progressively randomized; a faithful method should produce visibly different outputs.",
article = nil,
aliases = { "parameter randomization test", "weight randomization test", "saliency sanity check", "cascading randomization test" },
es = "Prueba de cordura para métodos de saliencia que compara la explicación producida por una red entrenada con la obtenida tras aleatorizar progresivamente sus pesos; un método fiel debería producir salidas visiblemente distintas.",
zh = "对显著性方法的健全性检验:将训练后网络产生的解释与逐层随机化其权重后产生的解释进行比较;忠实的方法应产生明显不同的结果。",
term_es = "prueba de aleatorización de parámetros del modelo",
term_zh = "模型参数随机化检验",
aliases_es = { "prueba de aleatorización de pesos", "test de aleatorización de parámetros" },
aliases_zh = { "参数随机化测试", "权重随机化测试", "显著性健全性检验" },
}
data["model poisoning attack"] = {
short = "An attack on federated learning in which a malicious client uploads carefully crafted model updates — rather than altered data — to manipulate the global model's behavior, often to insert backdoors or degrade accuracy.",
article = nil,
aliases = { "model update poisoning", "update poisoning attack", "FL model poisoning", "weight poisoning" },
es = "Ataque al aprendizaje federado en el que un cliente malicioso envía actualizaciones de modelo cuidadosamente diseñadas —en lugar de datos alterados— para manipular el comportamiento del modelo global, a menudo para insertar puertas traseras o degradar la precisión.",
zh = "针对联邦学习的攻击:恶意客户端不修改训练数据,而是上传精心构造的模型更新,以操纵全局模型的行为,常用于植入后门或降低准确率。",
term_es = "ataque de envenenamiento de modelo",
term_zh = "模型投毒攻击",
aliases_es = { "envenenamiento de actualizaciones", "ataque de envenenamiento de pesos" },
aliases_zh = { "模型更新投毒", "权重投毒攻击", "联邦模型投毒" },
}
data["model reliance"] = {
short = "A model-agnostic measure of feature importance defined as the increase in expected loss when a feature's values are permuted, breaking its association with the target while preserving its marginal distribution.",
article = nil,
aliases = { "MR", "permutation feature importance", "permutation importance", "algorithm reliance" },
es = "Medida agnóstica de importancia de variables definida como el incremento de la pérdida esperada cuando los valores de una característica se permutan, rompiendo su asociación con el objetivo pero conservando su distribución marginal.",
zh = "一种与模型无关的特征重要性度量,定义为对某一特征的取值进行置换(破坏其与目标的关联但保持边缘分布)后期望损失的增加量。",
term_es = "model reliance",
term_zh = "模型依赖度",
aliases_es = { "importancia por permutación", "MR", "dependencia del modelo" },
aliases_zh = { "置换特征重要性", "排列特征重要性", "MR" },
}
data["model replacement attack"] = {
short = "A federated learning attack in which the adversary scales its malicious update so that, after server averaging, the global model is essentially replaced by an attacker-chosen model — frequently used to install backdoors.",
article = nil,
aliases = { "boosted model replacement", "scaling attack (federated)", "backdoor replacement attack", "single-shot model replacement" },
es = "Ataque al aprendizaje federado en el que el adversario escala su actualización maliciosa para que, tras la agregación del servidor, el modelo global quede prácticamente sustituido por un modelo elegido por el atacante; suele usarse para instalar puertas traseras.",
zh = "针对联邦学习的攻击:攻击者放大其恶意更新,使得服务器聚合后,全局模型基本被替换为攻击者选定的模型,常用于植入后门。",
term_es = "ataque de reemplazo de modelo",
term_zh = "模型替换攻击",
aliases_es = { "ataque de escalado federado", "ataque de reemplazo con puerta trasera" },
aliases_zh = { "缩放攻击", "后门替换攻击", "一次性模型替换攻击" },
}
data["model risk management"] = {
short = "A governance discipline, codified in guidance such as the U.S. Federal Reserve's SR 11-7, covering the identification, measurement, monitoring, and control of risks arising from the use of quantitative and ML models.",
article = nil,
aliases = { "MRM", "SR 11-7", "model risk governance" },
es = "Disciplina de gobernanza, codificada en guías como la SR 11-7 de la Reserva Federal de EE. UU., que cubre la identificación, medición, monitorización y control de los riesgos derivados del uso de modelos cuantitativos y de aprendizaje automático.",
zh = "一项治理学科,体现在美联储 SR 11-7 等指南中,涵盖对使用定量模型及机器学习模型所产生风险的识别、计量、监控与控制。",
term_es = "gestión de riesgos de modelo",
term_zh = "模型风险管理",
aliases_es = { "MRM", "gestión del riesgo de modelos", "SR 11-7" },
aliases_zh = { "MRM", "SR 11-7" },
}
data["model serving"] = {
short = "Deploying a trained model behind an API or runtime so that clients can send inputs and receive predictions; covers concerns such as batching, autoscaling, latency, throughput, and version management.",
article = nil,
aliases = { "model deployment", "ML serving", "model inference serving", "serving infrastructure" },
es = "Despliegue de un modelo entrenado tras una API o runtime para que los clientes envíen entradas y reciban predicciones; abarca aspectos como batching, autoescalado, latencia, throughput y gestión de versiones.",
zh = "将训练好的模型部署到 API 或运行时之后,供客户端发送输入并获得预测的过程,涵盖批处理、自动伸缩、延迟、吞吐量与版本管理等问题。",
term_es = "servicio de modelos",
term_zh = "模型服务",
aliases_es = { "model serving", "despliegue de modelos", "servir modelos" },
aliases_zh = { "模型部署", "模型推理服务", "模型上线" },
}
data["model surgery"] = {
short = "Direct, targeted manipulation of a trained network's internal components — replacing weights, ablating heads, patching activations — to study causal structure or alter behaviour without retraining.",
article = nil,
aliases = { "neural network surgery", "weight surgery", "activation surgery" },
es = "Manipulación directa y dirigida de componentes internos de una red entrenada —reemplazar pesos, ablacionar cabezas, parchear activaciones— para estudiar la estructura causal o modificar el comportamiento sin reentrenar.",
zh = "对已训练网络内部组件进行的直接、有针对性的操作,如替换权重、消融注意力头、修补激活值,用以研究因果结构或在不重新训练的情况下改变模型行为。",
term_es = "cirugía de modelos",
term_zh = "模型手术",
aliases_es = { "cirugía de redes neuronales", "cirugía de pesos", "cirugía de activaciones" },
aliases_zh = { "神经网络手术", "权重手术", "激活手术" },
}
data["model transparency"] = {
short = "The degree to which a model's internal computations, parameters, and decision logic are accessible and intelligible to humans, ranging from fully glass-box (e.g., short decision trees) to opaque black-box.",
article = nil,
aliases = { "transparency", "algorithmic transparency", "transparent model" },
es = "Grado en que las computaciones internas, los parámetros y la lógica de decisión de un modelo son accesibles y comprensibles para una persona, desde modelos completamente transparentes (p. ej., árboles de decisión cortos) hasta cajas negras opacas.",
zh = "模型内部计算、参数及决策逻辑对人类的可访问与可理解程度,跨度从完全透明(如较短的决策树)到不透明的黑盒模型。",
term_es = "transparencia del modelo",
term_zh = "模型透明性",
aliases_es = { "transparencia algorítmica", "transparencia" },
aliases_zh = { "算法透明性", "透明性", "模型透明度" },
}
data["model-agnostic explanation"] = {
short = "An explanation method that treats the underlying predictor as a black box and works for any model class by querying input-output behaviour; examples include LIME, SHAP, anchors, and counterfactuals.",
article = nil,
aliases = { "model agnostic explanation", "black-box explanation", "black box explanation", "post-hoc model-agnostic explanation" },
es = "Método de explicación que trata al predictor subyacente como una caja negra y funciona para cualquier clase de modelo consultando su comportamiento entrada-salida; ejemplos incluyen LIME, SHAP, anclas y contrafactuales.",
zh = "将底层预测器视为黑盒并通过查询其输入输出行为而适用于任意模型类别的解释方法,例如LIME、SHAP、anchors和反事实解释。",
term_es = "explicación agnóstica al modelo",
term_zh = "模型无关解释",
aliases_es = { "explicación de caja negra", "explicación post-hoc agnóstica" },
aliases_zh = { "黑盒解释", "与模型无关的解释" },
}
data["model-based rl"] = {
short = "A class of reinforcement learning methods that explicitly learn or are given a model of the environment's transition and reward dynamics and use it for planning, simulation, or policy optimization.",
article = nil,
aliases = { "model-based reinforcement learning", "MBRL", "model based RL" },
es = "Familia de métodos de aprendizaje por refuerzo que aprenden explícitamente o reciben un modelo de la dinámica de transición y recompensa del entorno, y lo utilizan para planificar, simular u optimizar la política.",
zh = "一类强化学习方法,显式地学习或获得环境的转移与奖励动力学模型,并将其用于规划、模拟或策略优化。",
term_es = "RL basado en modelo",
term_zh = "基于模型的强化学习",
aliases_es = { "aprendizaje por refuerzo basado en modelo", "MBRL" },
aliases_zh = { "基于模型的 RL", "model-based RL", "MBRL" },
}
data["model-specific explanation"] = {
short = "An explanation method that exploits the architecture or internals of a particular model class — for example, gradient-based saliency for differentiable networks, attention rollout for Transformers, or path importance for tree ensembles.",
article = nil,
aliases = { "model specific explanation", "white-box explanation", "white box explanation", "architecture-specific explanation" },
es = "Método de explicación que aprovecha la arquitectura o el funcionamiento interno de una clase específica de modelo, por ejemplo: saliencia basada en gradientes para redes diferenciables, rollout de atención en Transformers o importancia de caminos en conjuntos de árboles.",
zh = "依赖特定模型类别的架构或内部机制的解释方法,例如可微网络的基于梯度的显著性、Transformer的注意力展开(attention rollout)或树集成模型的路径重要性。",
term_es = "explicación específica del modelo",
term_zh = "模型相关解释",
aliases_es = { "explicación de caja blanca", "explicación específica de la arquitectura" },
aliases_zh = { "特定模型解释", "白盒解释", "与模型相关的解释" },
}
data["modeller software"] = {
short = "A widely used program for homology or comparative protein structure modeling that builds 3D models by satisfying spatial restraints derived from one or more known template structures.",
article = nil,
aliases = { "MODELLER", "Modeller", "modeller" },
es = "Programa ampliamente usado para el modelado de estructuras proteicas por homología o comparativo; construye modelos 3D satisfaciendo restricciones espaciales derivadas de una o más estructuras plantilla conocidas.",
zh = "MODELLER:一款广泛使用的同源/比较蛋白质结构建模软件,通过满足来自一个或多个已知模板结构的空间约束来构建三维模型。",
term_es = "MODELLER",
term_zh = "MODELLER",
aliases_es = { "MODELLER", "Modeller" },
aliases_zh = { "MODELLER", "MODELLER 软件" },
}
data["modelscope-t2v"] = {
short = "An open-source text-to-video diffusion model released on Alibaba's ModelScope hub, extending a latent image diffusion backbone with temporal layers to generate short clips from text prompts.",
article = nil,
aliases = { "ModelScope-T2V", "ModelScope T2V", "ModelScopeT2V" },
es = "Modelo de difusión texto-a-vídeo de código abierto publicado en el hub ModelScope de Alibaba, que extiende un backbone de difusión latente de imagen con capas temporales para generar clips cortos a partir de indicaciones textuales.",
zh = "ModelScope-T2V,阿里云 ModelScope 平台发布的开源文本生成视频扩散模型,在潜在图像扩散主干上加入时间维度层,从文本提示生成短视频片段。",
term_es = "ModelScope-T2V",
term_zh = "ModelScope-T2V",
aliases_es = { "ModelScope T2V" },
aliases_zh = { "ModelScope T2V" },
}
data["moderated mediation"] = {
short = "A model in which the indirect effect of treatment on outcome through a mediator depends on the level of a moderator variable; equivalently, a conditional indirect effect that varies across subgroups.",
article = nil,
aliases = { "conditional indirect effect", "moderated indirect effect" },
es = "Modelo en el que el efecto indirecto del tratamiento sobre el resultado a través de un mediador depende del nivel de una variable moderadora; equivale a un efecto indirecto condicional que varía entre subgrupos.",
zh = "一种模型,其中处理通过中介变量对结果的间接效应依赖于调节变量的水平;等价于在不同子群间变化的条件间接效应。",
term_es = "mediación moderada",
term_zh = "有调节的中介",
aliases_es = { "efecto indirecto condicional", "mediación condicional" },
aliases_zh = { "调节中介", "条件间接效应", "有调节的中介效应" },
}
data["moderation analysis"] = {
short = "An analysis assessing whether the effect of one variable on another differs across levels of a third (moderator) variable, typically operationalized via interaction terms in regression models.",
article = nil,
aliases = { "moderator analysis", "interaction analysis", "effect modification analysis" },
es = "Análisis que evalúa si el efecto de una variable sobre otra difiere según los niveles de una tercera variable (moderadora), generalmente implementado mediante términos de interacción en modelos de regresión.",
zh = "评估一个变量对另一个变量的效应是否随第三个(调节)变量的水平而变化的分析,通常通过回归模型中的交互项来实现。",
term_es = "análisis de moderación",
term_zh = "调节分析",
aliases_es = { "análisis de moderador", "análisis de interacción", "análisis de modificación del efecto" },
aliases_zh = { "调节作用分析", "交互分析", "效应修饰分析" },
}
data["moderation api"] = {
short = "OpenAI's free classification endpoint that scores text and images against a fixed set of harm categories such as hate, harassment, self-harm, sexual content, and violence, used to filter or flag user input and model output.",
article = nil,
aliases = { "Moderation API", "OpenAI Moderation API", "OpenAI moderation endpoint", "moderation endpoint" },
es = "Endpoint gratuito de clasificación de OpenAI que puntúa texto e imágenes frente a un conjunto fijo de categorías de daño como odio, acoso, autolesiones, contenido sexual y violencia, usado para filtrar o marcar la entrada del usuario y la salida del modelo.",
zh = "OpenAI 提供的免费分类接口,将文本与图像在仇恨、骚扰、自我伤害、性内容、暴力等固定危害类别上打分,用于过滤或标记用户输入与模型输出。",
term_es = "API de moderación",
term_zh = "审核 API",
aliases_es = { "Moderation API", "API de moderación de OpenAI", "endpoint de moderación" },
aliases_zh = { "Moderation API", "OpenAI 审核接口", "审核接口" },
}
data["modular addition circuit"] = {
short = "The mechanistic-interpretability solution discovered inside small Transformers trained on modular addition: tokens are embedded onto discrete Fourier components and the answer is read off via trigonometric identities, yielding a closed-form algorithm and a progress measure for grokking.",
article = nil,
aliases = { "grokking circuit", "modular arithmetic circuit", "Fourier modular addition circuit" },
es = "Solución mecanística descubierta dentro de Transformers pequeños entrenados en suma modular: los tokens se proyectan sobre componentes discretos de Fourier y la respuesta se obtiene mediante identidades trigonométricas, lo que da un algoritmo cerrado y una medida de progreso para el grokking.",
zh = "在训练于模加法任务的小型Transformer中发现的机制性解:将词元嵌入到离散傅里叶分量上,再通过三角恒等式读出结果,从而得到一个闭式算法以及用于度量grokking进程的指标。",
term_es = "circuito de suma modular",
term_zh = "模加法回路",
aliases_es = { "circuito de grokking", "circuito de aritmética modular" },
aliases_zh = { "模加法电路", "grokking回路", "模运算回路" },
}
data["modular rag"] = {
short = "A retrieval-augmented generation paradigm that decomposes the pipeline into interchangeable modules (search, rewrite, rerank, fusion, memory, routing) connected through configurable flow patterns, generalizing naive and advanced RAG.",
article = nil,
aliases = { "Modular RAG", "modular retrieval-augmented generation" },
es = "Paradigma de generación aumentada por recuperación que descompone el proceso en módulos intercambiables (búsqueda, reescritura, reordenamiento, fusión, memoria, enrutamiento) conectados mediante patrones de flujo configurables, generalizando los enfoques naive y advanced RAG.",
zh = "一种检索增强生成范式,将流程分解为可互换的模块(搜索、重写、重排、融合、记忆、路由),通过可配置的流模式连接,从而推广朴素 RAG 与高级 RAG。",
term_es = "modular RAG",
term_zh = "模块化 RAG",
aliases_es = { "RAG modular", "generación aumentada por recuperación modular" },
aliases_zh = { "Modular RAG", "模块化检索增强生成" },
}
data["modular search space"] = {
short = "A neural architecture search space composed of reusable building blocks (modules or cells) that are stacked or wired together according to fixed rules to form complete architectures.",
article = nil,
aliases = { "modular NAS search space", "block-based search space" },
es = "Espacio de búsqueda de arquitecturas neuronales compuesto por bloques reutilizables (módulos o celdas) que se apilan o conectan según reglas fijas para formar arquitecturas completas.",
zh = "由可复用构件(模块或单元)组成的神经架构搜索空间,按固定规则堆叠或连接以形成完整架构。",
term_es = "espacio de búsqueda modular",
term_zh = "模块化搜索空间",
aliases_es = { "espacio de búsqueda basado en bloques", "espacio de búsqueda por módulos" },
aliases_zh = { "modular search space", "基于块的搜索空间", "模块化NAS搜索空间" },
}
data["modularity assumption"] = {
short = "In causal models, the assumption that the structural mechanism for each variable is autonomous, so an intervention on one variable changes only its own assignment and leaves all other mechanisms intact.",
article = nil,
aliases = { "autonomy assumption", "invariance of mechanisms", "modularity" },
es = "En modelos causales, el supuesto de que el mecanismo estructural de cada variable es autónomo, de modo que una intervención sobre una variable solo cambia su propia asignación y deja intactos los demás mecanismos.",
zh = "因果模型中的假设:每个变量的结构机制是自治的,因此对某一变量的干预只改变其自身的赋值,而保持其他所有机制不变。",
term_es = "supuesto de modularidad",
term_zh = "模块性假设",
aliases_es = { "supuesto de autonomía", "invariancia de mecanismos", "modularidad" },
aliases_zh = { "模块化假设", "自治性假设", "机制不变性" },
}
data["moe routing"] = {
short = "The mechanism in mixture-of-experts models that decides which experts process each input token, typically via a learned gating network that produces top-k expert assignments and load-balancing auxiliary losses.",
article = nil,
aliases = { "MoE routing", "expert routing", "mixture-of-experts routing", "gating network", "router" },
es = "Mecanismo en los modelos de mezcla de expertos que decide qué expertos procesan cada token de entrada, normalmente mediante una red de compuertas aprendida que produce asignaciones top-k y pérdidas auxiliares de balance de carga.",
zh = "混合专家模型中决定哪些专家处理每个输入标记的机制,通常通过学习得到的门控网络产生 top-k 专家分配并使用负载均衡辅助损失。",
term_es = "enrutamiento MoE",
term_zh = "MoE 路由",
aliases_es = { "enrutamiento de expertos", "router MoE", "red de compuertas" },
aliases_zh = { "MoE routing", "专家路由", "门控网络" },
}
data["moead"] = {
short = "Multi-Objective Evolutionary Algorithm based on Decomposition: solves a multi-objective problem by decomposing it into a number of scalar subproblems via weight vectors and optimizing them simultaneously with neighborhood-based mating.",
article = nil,
aliases = { "MOEA/D", "MOEAD", "multi-objective evolutionary algorithm based on decomposition" },
es = "Algoritmo evolutivo multi-objetivo basado en descomposición: resuelve un problema multi-objetivo descomponiéndolo en numerosos subproblemas escalares mediante vectores de pesos y optimizándolos simultáneamente con cruce basado en vecindarios.",
zh = "基于分解的多目标进化算法:通过权重向量将多目标问题分解为若干标量子问题,并借助邻域内交配同时优化所有子问题。",
term_es = "MOEA/D",
term_zh = "MOEA/D",
aliases_es = { "MOEAD", "algoritmo evolutivo multi-objetivo basado en descomposición" },
aliases_zh = { "MOEAD", "基于分解的多目标进化算法" },
}
data["mofa"] = {
short = "Multi-Omics Factor Analysis, an unsupervised statistical framework that infers a small number of latent factors capturing shared and view-specific variation across multiple omics modalities.",
article = nil,
aliases = { "MOFA", "Multi-Omics Factor Analysis" },
es = "Análisis de Factores Multi-Ómicos (MOFA); marco estadístico no supervisado que infiere un pequeño número de factores latentes que capturan variación compartida y específica de cada vista en múltiples capas ómicas.",
zh = "MOFA(Multi-Omics Factor Analysis):一种无监督统计框架,从多种组学数据中推断少量隐变量因子,以同时刻画各组学之间的共享变异与各自特有的变异。",
term_es = "MOFA",
term_zh = "MOFA",
aliases_es = { "MOFA", "análisis de factores multi-ómicos" },
aliases_zh = { "MOFA", "多组学因子分析" },
}
data["mofa+"] = {
short = "An extension of MOFA that supports structured data with sample groups and millions of features, enabling joint factor analysis across multi-group multi-omics datasets such as single-cell experiments.",
article = nil,
aliases = { "MOFA+", "MOFA plus", "MOFAplus" },
es = "Extensión de MOFA que soporta datos estructurados con grupos de muestras y millones de variables, permitiendo el análisis factorial conjunto en conjuntos de datos multi-grupo y multi-ómicos como experimentos de célula única.",
zh = "MOFA+:MOFA 的扩展版本,支持包含样本分组结构和百万级特征的数据,可对多组、多组学(包括单细胞)数据集进行联合因子分析。",
term_es = "MOFA+",
term_zh = "MOFA+",
aliases_es = { "MOFA+", "MOFA plus" },
aliases_zh = { "MOFA+", "MOFA plus" },
}
data["moflow"] = {
short = "MoFlow: a flow-based generative model for molecular graphs that uses invertible normalizing flows to jointly generate atom types and bond structure, producing valid molecules and supporting property-conditioned generation.",
article = nil,
aliases = { "MoFlow", "MoFlow model" },
es = "MoFlow: modelo generativo basado en flujos para grafos moleculares que utiliza flujos normalizadores invertibles para generar conjuntamente tipos de átomos y estructura de enlaces, produciendo moléculas válidas y soportando generación condicionada por propiedades.",
zh = "MoFlow:一种基于可逆归一化流的分子图生成模型,联合生成原子类型与化学键结构,可产生有效分子,并支持基于性质的条件生成。",
term_es = "MoFlow",
term_zh = "MoFlow",
aliases_es = { "MoFlow", "modelo MoFlow" },
aliases_zh = { "MoFlow", "MoFlow 模型" },
}
data["mol-cyclegan"] = {
short = "Mol-CycleGAN: a CycleGAN-based generative model for molecular optimization that learns to translate molecules between two domains (e.g. inactive↔active) using unpaired data and cycle-consistency on latent representations.",
article = nil,
aliases = { "Mol-CycleGAN", "MolCycleGAN", "Mol CycleGAN" },
es = "Mol-CycleGAN: modelo generativo basado en CycleGAN para optimización molecular que aprende a trasladar moléculas entre dos dominios (por ejemplo, inactivas↔activas) utilizando datos no emparejados y consistencia de ciclo sobre representaciones latentes.",
zh = "Mol-CycleGAN:一种基于 CycleGAN 的分子优化生成模型,利用非配对数据和潜空间上的循环一致性,在两个分子域(如非活性↔活性)之间进行转换。",
term_es = "Mol-CycleGAN",
term_zh = "Mol-CycleGAN",
aliases_es = { "Mol-CycleGAN", "MolCycleGAN" },
aliases_zh = { "Mol-CycleGAN", "MolCycleGAN" },
}
data["molbert"] = {
short = "MolBERT: a BERT-style masked language model pretrained on SMILES strings to produce contextualized molecular representations that transfer to property prediction and other downstream cheminformatics tasks.",
article = nil,
aliases = { "MolBERT", "Mol-BERT", "Molecular BERT" },
es = "MolBERT: modelo de lenguaje enmascarado tipo BERT preentrenado sobre cadenas SMILES para producir representaciones moleculares contextualizadas que se transfieren a tareas de predicción de propiedades y otras tareas posteriores de quimioinformática.",
zh = "MolBERT:在 SMILES 序列上以 BERT 方式做掩码语言建模预训练的模型,可生成具有上下文信息的分子表示,迁移到性质预测等下游化学信息学任务。",
term_es = "MolBERT",
term_zh = "MolBERT",
aliases_es = { "MolBERT", "Molecular BERT" },
aliases_zh = { "MolBERT", "分子 BERT" },
}
data["molchanov variational dropout"] = {
short = "A reparameterization of variational dropout with a log-uniform prior over weights that drives many variances to infinity, producing sparse Bayesian neural networks with effective weight pruning (Molchanov et al. 2017).",
article = nil,
aliases = { "sparse variational dropout", "variational dropout sparsifies deep neural networks", "Molchanov sparse VD" },
es = "Reparametrización del dropout variacional con un prior log-uniforme sobre los pesos que lleva muchas varianzas a infinito, produciendo redes bayesianas dispersas con poda efectiva de pesos (Molchanov et al. 2017).",
zh = "对变分 dropout 的重参数化,使用权重上的对数均匀先验使许多权重的方差趋于无穷,从而得到稀疏的贝叶斯神经网络并实现有效的权重剪枝(Molchanov 等人,2017)。",
term_es = "dropout variacional de Molchanov",
term_zh = "Molchanov 变分 dropout",
aliases_es = { "dropout variacional disperso", "VD disperso de Molchanov" },
aliases_zh = { "稀疏变分 dropout", "Molchanov 稀疏 VD" },
}
data["molclr"] = {
short = "MolCLR: a self-supervised contrastive learning framework for molecular graphs that pretrains a graph neural network by contrasting different graph augmentations of the same molecule, yielding representations that improve property-prediction benchmarks.",
article = nil,
aliases = { "MolCLR", "Mol-CLR", "Molecular Contrastive Learning of Representations" },
es = "MolCLR: marco de aprendizaje contrastivo autosupervisado para grafos moleculares que preentrena una red neuronal en grafos contrastando distintas augmentaciones del mismo grafo molecular, obteniendo representaciones que mejoran benchmarks de predicción de propiedades.",
zh = "MolCLR:一种针对分子图的自监督对比学习框架,通过对比同一分子图的不同增强视图来预训练图神经网络,所学表征在性质预测基准上表现更优。",
term_es = "MolCLR",
term_zh = "MolCLR",
aliases_es = { "MolCLR" },
aliases_zh = { "MolCLR" },
}
data["moldiff"] = {
short = "MolDiff: a diffusion model for 3D molecule generation that addresses atom-bond inconsistency by jointly diffusing atom types, atom coordinates, and bond information, producing chemically and geometrically consistent molecules.",
article = nil,
aliases = { "MolDiff", "MolDiff model", "MolDiff diffusion" },
es = "MolDiff: modelo de difusión para generación 3D de moléculas que aborda la inconsistencia entre átomos y enlaces difundiendo conjuntamente tipos de átomos, coordenadas atómicas e información de enlaces, produciendo moléculas consistentes química y geométricamente.",
zh = "MolDiff:一种用于三维分子生成的扩散模型,通过联合扩散原子类型、原子坐标和键信息,缓解原子–键不一致问题,生成化学与几何上都一致的分子。",
term_es = "MolDiff",
term_zh = "MolDiff",
aliases_es = { "MolDiff", "modelo MolDiff" },
aliases_zh = { "MolDiff", "MolDiff 扩散模型" },
}
data["moldqn"] = {
short = "MolDQN: a deep reinforcement learning method for goal-directed molecular generation that uses a deep Q-network to choose atomwise editing actions on a molecule, optimizing reward functions such as drug-likeness or predicted activity.",
article = nil,
aliases = { "MolDQN", "Mol-DQN", "Molecule DQN", "molecular DQN" },
es = "MolDQN: método de aprendizaje por refuerzo profundo para la generación dirigida de moléculas que utiliza una deep Q-network para elegir acciones de edición átomo a átomo sobre una molécula, optimizando funciones de recompensa como similitud a fármaco o actividad predicha.",
zh = "MolDQN:一种用于目标导向分子生成的深度强化学习方法,利用深度 Q 网络选择对分子进行原子级编辑的动作,优化药物相似性或预测活性等奖励函数。",
term_es = "MolDQN",
term_zh = "MolDQN",
aliases_es = { "MolDQN", "Molecule DQN" },
aliases_zh = { "MolDQN", "分子 DQN" },
}
data["mole-bert"] = {
short = "Mole-BERT: a self-supervised pretraining method for molecular graph neural networks that introduces context-aware tokenization and triplet masked contrastive learning to mitigate the negative-transfer problem of standard graph masked modeling.",
article = nil,
aliases = { "Mole-BERT", "MoleBERT" },
es = "Mole-BERT: método de preentrenamiento autosupervisado para redes neuronales sobre grafos moleculares que introduce tokenización consciente del contexto y aprendizaje contrastivo enmascarado en tripletas, mitigando el problema de transferencia negativa del modelado enmascarado estándar en grafos.",
zh = "Mole-BERT:一种针对分子图神经网络的自监督预训练方法,引入上下文感知的分词与三元组掩码对比学习,缓解传统图掩码建模中的负迁移问题。",
term_es = "Mole-BERT",
term_zh = "Mole-BERT",
aliases_es = { "Mole-BERT", "MoleBERT" },
aliases_zh = { "Mole-BERT", "MoleBERT" },
}
data["molecular attention transformer"] = {
short = "A graph transformer for molecules (Maziarka et al., 2020) whose self-attention is augmented with inter-atomic distance and adjacency information, enabling property prediction directly from molecular graphs without handcrafted descriptors.",
article = nil,
aliases = { "MAT", "Molecular Attention Transformer" },
es = "Transformador de grafos para moléculas (Maziarka et al., 2020) cuya autoatención se complementa con información de distancias interatómicas y de adyacencia, permitiendo predecir propiedades directamente desde el grafo molecular sin descriptores manuales.",
zh = "用于分子的图 Transformer(Maziarka 等,2020),在自注意力中加入原子间距离和邻接信息,可直接基于分子图预测性质,无需手工设计的描述符。",
term_es = "Molecular Attention Transformer",
term_zh = "分子注意力 Transformer",
aliases_es = { "MAT", "transformador de atención molecular" },
aliases_zh = { "MAT", "Molecular Attention Transformer" },
}
data["molecular clock"] = {
short = "The hypothesis and corresponding statistical framework that genetic divergence accumulates approximately linearly with time, allowing dating of evolutionary events from sequence differences.",
article = nil,
aliases = { "molecular clock hypothesis", "evolutionary clock" },
es = "Hipótesis y marco estadístico según el cual la divergencia genética se acumula aproximadamente de forma lineal con el tiempo, permitiendo datar eventos evolutivos a partir de diferencias de secuencia.",
zh = "分子钟:一种假说及其对应的统计框架,认为基因序列差异随时间近似线性累积,从而可利用序列差异推断进化事件的发生时间。",
term_es = "reloj molecular",
term_zh = "分子钟",
aliases_es = { "hipótesis del reloj molecular", "reloj evolutivo" },
aliases_zh = { "分子钟假说", "进化时钟" },
}
data["molecular conformation"] = {
short = "A specific three-dimensional arrangement of the atoms of a molecule that can be reached by rotation around single bonds without breaking covalent bonds. Sets of low-energy conformations (conformers) are central to docking and 3D property prediction.",
article = nil,
aliases = { "conformation", "conformer", "molecular conformer", "3D conformation" },
es = "Disposición tridimensional específica de los átomos de una molécula alcanzable mediante rotación alrededor de enlaces sencillos sin romper enlaces covalentes. Los conjuntos de conformaciones de baja energía (confórmeros) son fundamentales para el docking y la predicción de propiedades 3D.",
zh = "分子原子的特定三维空间排列,可通过单键旋转在不断裂共价键的情况下相互转化。低能量构象(构象异构体)集合是分子对接和三维性质预测的基础。",
term_es = "conformación molecular",
term_zh = "分子构象",
aliases_es = { "confórmero", "conformación 3D" },
aliases_zh = { "构象", "构象异构体", "三维构象" },
}
data["molecular descriptor"] = {
short = "A numerical value or vector that encodes a structural, physicochemical, topological, or electronic property of a molecule, used as input features for QSAR and molecular machine-learning models.",
article = nil,
aliases = { "chemical descriptor", "molecular descriptors", "QSAR descriptor" },
es = "Valor o vector numérico que codifica una propiedad estructural, fisicoquímica, topológica o electrónica de una molécula, utilizado como característica de entrada para modelos QSAR y de aprendizaje automático molecular.",
zh = "对分子结构、理化、拓扑或电子性质进行编码的数值或向量,作为 QSAR 和分子机器学习模型的输入特征。",
term_es = "descriptor molecular",
term_zh = "分子描述符",
aliases_es = { "descriptor químico", "descriptores moleculares", "descriptor QSAR" },
aliases_zh = { "化学描述符", "QSAR 描述符" },
}
data["molecular docking"] = {
short = "A computational technique that predicts the preferred binding pose and affinity of a small-molecule ligand within a target protein's binding site by searching ligand conformations and orientations and scoring them with empirical or physics-based functions.",
article = nil,
aliases = { "docking", "protein-ligand docking", "ligand docking" },
es = "Técnica computacional que predice la pose y afinidad de unión de un ligando de molécula pequeña en el sitio de unión de una proteína objetivo, explorando conformaciones y orientaciones del ligando y puntuándolas con funciones empíricas o basadas en física.",
zh = "一种计算方法,通过搜索配体的构象和取向并使用经验或基于物理的打分函数,预测小分子配体在靶蛋白结合位点中的最佳结合姿态和亲和力。",
term_es = "docking molecular",
term_zh = "分子对接",
aliases_es = { "acoplamiento molecular", "docking proteína-ligando", "docking de ligandos" },
aliases_zh = { "对接", "蛋白-配体对接", "配体对接" },
}
data["molecular dynamics"] = {
short = "A simulation method that integrates Newton's equations of motion for atoms interacting through an empirical force field, producing time-resolved trajectories used to study conformational dynamics, binding, and free energies.",
article = nil,
aliases = { "MD", "molecular dynamics simulation", "MD simulation" },
es = "Método de simulación que integra las ecuaciones de Newton del movimiento para átomos que interaccionan mediante un campo de fuerzas empírico, produciendo trayectorias en el tiempo utilizadas para estudiar dinámica conformacional, unión y energías libres.",
zh = "一种模拟方法,对通过经验力场相互作用的原子积分牛顿运动方程,得到随时间变化的轨迹,用于研究构象动力学、结合及自由能。",
term_es = "dinámica molecular",
term_zh = "分子动力学",
aliases_es = { "MD", "simulación de dinámica molecular" },
aliases_zh = { "MD", "分子动力学模拟" },
}
data["molecular fingerprint"] = {
short = "A fixed-length bit or integer vector that encodes the presence of structural fragments or hashed circular substructures in a molecule, used for fast similarity search, clustering, and as features for machine-learning models.",
article = nil,
aliases = { "fingerprint", "chemical fingerprint", "structural fingerprint" },
es = "Vector de bits o enteros de longitud fija que codifica la presencia de fragmentos estructurales o subestructuras circulares hasheadas en una molécula, utilizado para búsqueda de similitud, agrupamiento y como características en modelos de aprendizaje automático.",
zh = "对分子中结构片段或经哈希处理的环形子结构的存在情况进行编码的定长比特或整数向量,用于快速相似性检索、聚类以及作为机器学习模型的特征。",
term_es = "huella molecular",
term_zh = "分子指纹",
aliases_es = { "fingerprint", "huella química", "huella estructural" },
aliases_zh = { "指纹", "化学指纹", "结构指纹" },
}
data["molecular generative model"] = {
short = "A machine-learning model that produces novel molecular structures, typically as SMILES strings, SELFIES, or graphs, using architectures such as VAEs, GANs, autoregressive language models, flows, or diffusion models, often conditioned on target properties.",
article = nil,
aliases = { "generative molecular model", "de novo molecular generation", "molecule generative model" },
es = "Modelo de aprendizaje automático que produce estructuras moleculares novedosas, típicamente como cadenas SMILES, SELFIES o grafos, usando arquitecturas como VAE, GAN, modelos de lenguaje autorregresivos, flujos o modelos de difusión, frecuentemente condicionados a propiedades objetivo.",
zh = "用于生成新分子结构的机器学习模型,通常以 SMILES 字符串、SELFIES 或图的形式输出,所用架构包括 VAE、GAN、自回归语言模型、流模型或扩散模型,并常以目标性质为条件。",
term_es = "modelo generativo molecular",
term_zh = "分子生成模型",
aliases_es = { "modelo molecular generativo", "generación de novo de moléculas" },
aliases_zh = { "分子生成式模型", "从头分子生成" },
}
data["molecular glue"] = {
short = "A small molecule that induces or stabilizes a protein-protein interaction between an E3 ligase and a target protein, leading to ubiquitination and proteasomal degradation of the target without forming a covalent bifunctional structure.",
article = nil,
aliases = { "molecular glues", "molecular glue degrader" },
es = "Molécula pequeña que induce o estabiliza una interacción proteína-proteína entre una ligasa E3 y una proteína objetivo, provocando su ubiquitinación y degradación proteasomal sin formar una estructura bifuncional covalente.",
zh = "一种小分子,可诱导或稳定 E3 连接酶与目标蛋白之间的蛋白-蛋白相互作用,从而导致目标蛋白被泛素化并经蛋白酶体降解,且不形成共价双功能结构。",
term_es = "pegamento molecular",
term_zh = "分子胶",
aliases_es = { "pegamentos moleculares", "degradador de pegamento molecular" },
aliases_zh = { "分子胶降解剂", "molecular glue" },
}
data["molecular graph"] = {
short = "A graph representation of a molecule in which nodes correspond to atoms and edges to chemical bonds, with node and edge features encoding element, charge, bond order, and stereochemistry. The standard input format for graph neural networks in chemistry.",
article = nil,
aliases = { "chemical graph", "atom-bond graph" },
es = "Representación en grafo de una molécula en la que los nodos corresponden a átomos y las aristas a enlaces químicos, con características de nodo y arista que codifican elemento, carga, orden de enlace y estereoquímica. Formato de entrada estándar para redes neuronales de grafos en química.",
zh = "分子的图表示,其中节点对应原子,边对应化学键,节点和边特征编码元素、电荷、键级与立体化学。它是化学领域图神经网络的标准输入格式。",
term_es = "grafo molecular",
term_zh = "分子图",
aliases_es = { "grafo químico" },
aliases_zh = { "化学图", "原子-键图" },
}
data["molecular machine learning"] = {
short = "The application of machine-learning methods to molecules — predicting properties, generating new structures, modeling reactions, or learning representations — using inputs such as SMILES, fingerprints, descriptors, or molecular graphs.",
article = nil,
aliases = { "molecular ML", "ML for molecules", "chemistry machine learning" },
es = "Aplicación de métodos de aprendizaje automático a moléculas —predicción de propiedades, generación de estructuras nuevas, modelado de reacciones o aprendizaje de representaciones— usando entradas como SMILES, huellas, descriptores o grafos moleculares.",
zh = "将机器学习方法应用于分子——预测性质、生成新结构、建模反应或学习表示——使用 SMILES、指纹、描述符或分子图等作为输入。",
term_es = "aprendizaje automático molecular",
term_zh = "分子机器学习",
aliases_es = { "ML molecular", "aprendizaje automático en química" },
aliases_zh = { "分子 ML", "化学机器学习" },
}
data["molecular optimization"] = {
short = "The task of modifying a starting molecule to improve one or more target properties (potency, selectivity, ADMET) while keeping it chemically valid and synthesizable, often formulated as reinforcement learning, Bayesian optimization, or genetic search over molecular space.",
article = nil,
aliases = { "molecule optimization", "lead optimization", "molecular property optimization" },
es = "Tarea de modificar una molécula de partida para mejorar una o varias propiedades objetivo (potencia, selectividad, ADMET) manteniéndola químicamente válida y sintetizable, formulada frecuentemente como aprendizaje por refuerzo, optimización bayesiana o búsqueda genética en el espacio molecular.",
zh = "对起始分子进行修饰以改善一项或多项目标性质(活性、选择性、ADMET),同时保持其化学有效性和可合成性的任务,常被建模为强化学习、贝叶斯优化或在分子空间上的遗传搜索。",
term_es = "optimización molecular",
term_zh = "分子优化",
aliases_es = { "optimización de moléculas", "optimización de hits/leads" },
aliases_zh = { "分子性质优化", "先导化合物优化" },
}
data["molecular property prediction"] = {
short = "The supervised task of predicting physicochemical, biological, or ADMET properties of a molecule from its structure, typically benchmarked on datasets such as MoleculeNet (ESOL, FreeSolv, Lipophilicity, Tox21, BBBP, HIV).",
article = nil,
aliases = { "property prediction", "molecular property regression", "molecular property classification" },
es = "Tarea supervisada de predecir propiedades fisicoquímicas, biológicas o ADMET de una molécula a partir de su estructura, evaluada típicamente en conjuntos como MoleculeNet (ESOL, FreeSolv, Lipophilicity, Tox21, BBBP, HIV).",
zh = "根据分子结构预测其理化、生物或 ADMET 性质的监督任务,通常在 MoleculeNet(ESOL、FreeSolv、Lipophilicity、Tox21、BBBP、HIV 等)数据集上评测。",
term_es = "predicción de propiedades moleculares",
term_zh = "分子性质预测",
aliases_es = { "predicción de propiedades", "regresión/clasificación de propiedades moleculares" },
aliases_zh = { "性质预测", "分子性质回归", "分子性质分类" },
}
data["molecular similarity"] = {
short = "A quantitative measure of how alike two molecules are, most often computed as the Tanimoto coefficient between their fingerprints; underpins virtual screening, scaffold hopping, and the similar-property principle.",
article = nil,
aliases = { "chemical similarity", "Tanimoto similarity", "structural similarity" },
es = "Medida cuantitativa de cuán parecidas son dos moléculas, calculada habitualmente como el coeficiente de Tanimoto entre sus huellas; sustenta el cribado virtual, el salto de andamiaje y el principio de propiedades similares.",
zh = "衡量两个分子相似程度的定量指标,最常用其指纹之间的 Tanimoto 系数计算;它是虚拟筛选、骨架跃迁以及相似性质原理的基础。",
term_es = "similitud molecular",
term_zh = "分子相似性",
aliases_es = { "similitud química", "similitud de Tanimoto", "similitud estructural" },
aliases_zh = { "化学相似性", "Tanimoto 相似度", "结构相似性" },
}
data["molecular transformer"] = {
short = "A sequence-to-sequence transformer model (Schwaller et al., 2019) that maps reactant SMILES to product SMILES, achieving state-of-the-art accuracy in forward chemical reaction prediction without explicit reaction templates.",
article = nil,
aliases = { "Molecular Transformer", "MolecularTransformer", "Schwaller Molecular Transformer" },
es = "Modelo Transformer secuencia a secuencia (Schwaller et al., 2019) que asigna SMILES de reactivos a SMILES de productos, alcanzando precisión del estado del arte en predicción directa de reacciones químicas sin plantillas de reacción explícitas.",
zh = "一种序列到序列 Transformer 模型(Schwaller 等,2019),将反应物 SMILES 映射为产物 SMILES,无需显式反应模板即可在正向化学反应预测中达到最先进的准确率。",
term_es = "Molecular Transformer",
term_zh = "Molecular Transformer",
aliases_es = { "transformador molecular", "Molecular Transformer de Schwaller" },
aliases_zh = { "分子 Transformer", "Schwaller 分子 Transformer" },
}
data["molecule chef"] = {
short = "A graph-based molecular generative model (Bradshaw et al., 2019) that builds molecules by selecting from a discrete bag of available reactant building blocks, ensuring the generated structures are synthesizable from a known reagent inventory.",
article = nil,
aliases = { "Molecule Chef", "MoleculeChef" },
es = "Modelo generativo molecular basado en grafos (Bradshaw et al., 2019) que construye moléculas seleccionando de un conjunto discreto de bloques reactivos disponibles, garantizando que las estructuras generadas sean sintetizables a partir de un inventario conocido.",
zh = "一种基于图的分子生成模型(Bradshaw 等,2019),通过从一个离散的可用反应物构件集合中选择来构建分子,确保生成的结构可由已知试剂库合成。",
term_es = "Molecule Chef",
term_zh = "Molecule Chef",
aliases_es = { "MoleculeChef" },
aliases_zh = { "MoleculeChef" },
}
data["molecule diffusion model"] = {
short = "A diffusion-based generative model adapted to molecules — operating on 2D graphs, 3D coordinates, or SMILES — that learns to denoise noised molecular structures and is widely used for de novo and structure-based drug design.",
article = nil,
aliases = { "molecular diffusion model", "diffusion model for molecules", "molecule diffusion" },
es = "Modelo generativo basado en difusión adaptado a moléculas —operando sobre grafos 2D, coordenadas 3D o SMILES— que aprende a eliminar ruido de estructuras moleculares ruidosas y se utiliza ampliamente en diseño de fármacos de novo y basado en estructura.",
zh = "适配于分子的扩散式生成模型,可作用于二维图、三维坐标或 SMILES,通过学习对加噪分子结构去噪来工作,广泛用于从头药物设计和基于结构的药物设计。",
term_es = "modelo de difusión molecular",
term_zh = "分子扩散模型",
aliases_es = { "modelo de difusión para moléculas", "difusión molecular" },
aliases_zh = { "分子扩散生成模型", "面向分子的扩散模型" },
}
data["moleculenet"] = {
short = "A benchmark suite (Wu et al., 2018) for molecular machine learning that bundles standardized datasets across quantum mechanics, physical chemistry, biophysics, and physiology (e.g., QM9, ESOL, FreeSolv, Tox21, BBBP, HIV, MUV) with prescribed splits and metrics.",
article = nil,
aliases = { "MoleculeNet", "MoleculeNet benchmark" },
es = "Suite de evaluación (Wu et al., 2018) para aprendizaje automático molecular que agrupa conjuntos estandarizados de mecánica cuántica, química física, biofísica y fisiología (p. ej. QM9, ESOL, FreeSolv, Tox21, BBBP, HIV, MUV) con particiones y métricas prescritas.",
zh = "面向分子机器学习的基准套件(Wu 等,2018),整合了量子力学、物理化学、生物物理和生理学等领域的标准化数据集(如 QM9、ESOL、FreeSolv、Tox21、BBBP、HIV、MUV),并规定了划分和评价指标。",
term_es = "MoleculeNet",
term_zh = "MoleculeNet",
aliases_es = { "benchmark MoleculeNet" },
aliases_zh = { "MoleculeNet 基准" },
}
data["molformer"] = {
short = "A large-scale chemical language model (IBM, 2022) pre-trained on hundreds of millions of SMILES with a linear-attention transformer and rotary embeddings, producing transferable molecular representations for property prediction.",
article = nil,
aliases = { "MoLFormer", "MolFormer", "MoLFormer-XL" },
es = "Modelo de lenguaje químico a gran escala (IBM, 2022) preentrenado sobre cientos de millones de SMILES con un transformador de atención lineal y codificaciones rotatorias, que produce representaciones moleculares transferibles para predicción de propiedades.",
zh = "大规模化学语言模型(IBM,2022),在数亿条 SMILES 上以线性注意力 Transformer 和旋转位置编码进行预训练,可生成可迁移的分子表示用于性质预测。",
term_es = "MoLFormer",
term_zh = "MoLFormer",
aliases_es = { "MolFormer", "MoLFormer-XL" },
aliases_zh = { "MolFormer", "MoLFormer-XL" },
}
data["molgan"] = {
short = "A generative adversarial network (De Cao & Kipf, 2018) that operates directly on small molecular graphs, generating adjacency and node-feature tensors and using a reinforcement-learning reward to improve chemical validity and target properties.",
article = nil,
aliases = { "MolGAN" },
es = "Red generativa antagónica (De Cao & Kipf, 2018) que opera directamente sobre grafos moleculares pequeños, generando tensores de adyacencia y características de nodo y empleando una recompensa de aprendizaje por refuerzo para mejorar validez química y propiedades objetivo.",
zh = "一种直接作用于小型分子图的生成对抗网络(De Cao 与 Kipf,2018),生成邻接矩阵和节点特征张量,并通过强化学习奖励来提升化学有效性和目标性质。",
term_es = "MolGAN",
term_zh = "MolGAN",
aliases_es = {},
aliases_zh = {},
}
data["molgpt"] = {
short = "An autoregressive GPT-style language model (Bagal et al., 2021) trained on SMILES strings to perform conditional molecular generation, producing valid molecules with controllable properties such as logP, SAS, and target activity.",
article = nil,
aliases = { "MolGPT" },
es = "Modelo de lenguaje autorregresivo estilo GPT (Bagal et al., 2021) entrenado sobre cadenas SMILES para generación molecular condicional, produciendo moléculas válidas con propiedades controlables como logP, SAS y actividad sobre un objetivo.",
zh = "一种 GPT 风格的自回归语言模型(Bagal 等,2021),在 SMILES 字符串上训练以进行条件分子生成,可产出具有可控性质(如 logP、SAS、靶点活性)的有效分子。",
term_es = "MolGPT",
term_zh = "MolGPT",
aliases_es = {},
aliases_zh = {},
}
data["molmo"] = {
short = "A family of open-weight vision-language models from the Allen Institute for AI trained on the PixMo dataset of human-annotated image descriptions, designed to match proprietary multimodal models on visual question answering.",
article = nil,
aliases = { "Molmo", "Molmo-7B", "Molmo-72B" },
es = "Familia de modelos de visión y lenguaje de pesos abiertos del Allen Institute for AI, entrenados con el conjunto de datos PixMo de descripciones de imágenes anotadas por humanos, diseñados para igualar a los modelos multimodales propietarios en preguntas y respuestas visuales.",
zh = "由艾伦人工智能研究所发布的开放权重视觉-语言模型系列,使用人工标注图像描述数据集 PixMo 训练,旨在视觉问答任务上匹敌专有多模态模型。",
term_es = "Molmo",
term_zh = "Molmo",
aliases_es = { "Molmo-7B", "Molmo-72B" },
aliases_zh = { "Molmo-7B", "Molmo-72B" },
}
data["molnet benchmark"] = {
short = "Common shorthand for the MoleculeNet benchmark suite — a curated collection of molecular datasets and standardized splits used to compare property-prediction models on tasks ranging from solubility to toxicity to bioactivity.",
article = nil,
aliases = { "MolNet benchmark", "MolNet", "MoleculeNet benchmark" },
es = "Forma abreviada habitual para referirse a la suite de evaluación MoleculeNet —una colección curada de conjuntos moleculares y particiones estandarizadas utilizadas para comparar modelos de predicción de propiedades en tareas que van desde solubilidad hasta toxicidad y bioactividad.",
zh = "MoleculeNet 基准套件的常见简称——一组经过整理的分子数据集和标准化划分,用于在溶解度、毒性、生物活性等任务上比较性质预测模型。",
term_es = "benchmark MolNet",
term_zh = "MolNet 基准",
aliases_es = { "MolNet", "benchmark MoleculeNet" },
aliases_zh = { "MolNet", "MoleculeNet 基准" },
}
data["molt5"] = {
short = "A T5-based encoder-decoder model (Edwards et al., 2022) jointly pre-trained on natural-language text and SMILES and fine-tuned for molecule-to-text captioning and text-to-molecule generation, bridging chemical structures and human-readable descriptions.",
article = nil,
aliases = { "MolT5" },
es = "Modelo codificador-decodificador basado en T5 (Edwards et al., 2022) preentrenado conjuntamente sobre texto en lenguaje natural y SMILES y ajustado para subtitulado de moléculas a texto y generación de texto a molécula, conectando estructuras químicas y descripciones legibles por humanos.",
zh = "基于 T5 的编码器-解码器模型(Edwards 等,2022),在自然语言文本和 SMILES 上联合预训练,并被微调用于分子到文本的描述和文本到分子的生成,桥接化学结构与人类可读描述。",
term_es = "MolT5",
term_zh = "MolT5",
aliases_es = {},
aliases_zh = {},
}
data["moltrans"] = {
short = "A drug-target interaction prediction model (Huang et al., 2021) that uses a transformer to encode substructure sequences of both drug SMILES and protein amino-acid sequences and predicts binding through an interaction map between the two.",
article = nil,
aliases = { "MolTrans" },
es = "Modelo de predicción de interacción fármaco-objetivo (Huang et al., 2021) que utiliza un transformador para codificar secuencias de subestructuras tanto del SMILES del fármaco como de la secuencia de aminoácidos de la proteína, y predice la unión mediante un mapa de interacción entre ambas.",
zh = "一种药物-靶点相互作用预测模型(Huang 等,2021),使用 Transformer 对药物 SMILES 和蛋白质氨基酸序列的子结构序列分别编码,并通过两者之间的相互作用图预测结合。",
term_es = "MolTrans",
term_zh = "MolTrans",
aliases_es = {},
aliases_zh = {},
}
data["moment matching"] = {
short = "An approximate inference technique that fits an approximating distribution by matching its low-order moments (typically mean and covariance) to those of the target. Underlies expectation propagation and assumed-density filtering.",
article = nil,
aliases = { "moment-matching", "method of moments inference" },
es = "Técnica de inferencia aproximada que ajusta una distribución aproximadora igualando sus momentos de orden bajo (típicamente media y covarianza) a los del objetivo. Es la base de expectation propagation y del filtrado por densidad supuesta.",
zh = "一种近似推断技术:通过将近似分布的低阶矩(通常是均值和协方差)与目标分布对齐来拟合分布,是期望传播和假定密度滤波的基础。",
term_es = "ajuste de momentos",
term_zh = "矩匹配",
aliases_es = { "emparejamiento de momentos", "método de los momentos" },
aliases_zh = { "矩对齐", "矩方法推断" },
}
data["moment retrieval"] = {
short = "The task of localizing a specific temporal segment in an untrimmed video that matches a natural-language query, returning start and end timestamps of the relevant moment.",
article = nil,
aliases = { "video moment retrieval", "moment localization", "natural language moment retrieval" },
es = "Tarea de localizar en un vídeo sin recortar un segmento temporal concreto que coincide con una consulta en lenguaje natural, devolviendo las marcas de inicio y fin del momento relevante.",
zh = "时刻检索,在未剪辑的视频中定位与自然语言查询相匹配的具体时间片段,返回相关时刻的起止时间戳。",
term_es = "recuperación de momentos",
term_zh = "时刻检索",
aliases_es = { "localización de momentos en vídeo", "recuperación de momentos en vídeo" },
aliases_zh = { "视频时刻检索", "时刻定位" },
}
data["moments accountant"] = {
short = "A privacy accounting technique that tracks the moments of the privacy loss random variable during DP-SGD, yielding tighter (epsilon, delta)-differential privacy bounds than naive composition.",
article = nil,
aliases = { "Abadi moments accountant", "DP-SGD moments accountant", "log-moment accountant", "RDP-style accountant (related)" },
es = "Técnica de contabilidad de privacidad que rastrea los momentos de la variable aleatoria de pérdida de privacidad durante DP-SGD, obteniendo cotas (epsilon, delta) de privacidad diferencial más ajustadas que la composición ingenua.",
zh = "一种隐私预算追踪技术:在 DP-SGD 训练过程中跟踪隐私损失随机变量的矩,从而得到比朴素组合更紧的 (ε, δ) 差分隐私界。",
term_es = "contador de momentos",
term_zh = "矩会计",
aliases_es = { "moments accountant", "contabilidad por momentos de la pérdida de privacidad" },
aliases_zh = { "moments accountant", "矩会计法", "矩隐私会计" },
}
data["momentum"] = {
short = "An optimization technique that accelerates gradient descent by accumulating an exponentially decaying moving average of past gradients, helping traverse flat regions and dampen oscillations in narrow ravines.",
article = nil,
aliases = { "classical momentum", "heavy ball method", "Polyak momentum" },
es = "Técnica de optimización que acelera el descenso de gradiente acumulando un promedio móvil con decaimiento exponencial de gradientes pasados, ayudando a atravesar regiones planas y a amortiguar oscilaciones en valles estrechos.",
zh = "一种优化技术,通过累积过去梯度的指数衰减移动平均来加速梯度下降,有助于穿越平坦区域并抑制狭窄峡谷中的振荡。",
term_es = "momentum",
term_zh = "动量",
aliases_es = { "momento", "método de la bola pesada", "momentum clásico" },
aliases_zh = { "momentum", "经典动量", "重球法", "Polyak 动量" },
}
data["moniqua"] = {
short = "A communication-efficient decentralized training method (Moniqua) that quantizes the differences between neighboring nodes' models using a small number of bits, while provably preserving convergence under appropriate conditions.",
article = nil,
aliases = { "Moniqua", "Moniqua algorithm", "quantized decentralized SGD (Moniqua)" },
es = "Método de entrenamiento descentralizado eficiente en comunicación (Moniqua) que cuantiza las diferencias entre los modelos de nodos vecinos usando pocos bits, preservando demostrablemente la convergencia bajo condiciones adecuadas.",
zh = "一种通信高效的去中心化训练方法(Moniqua):用少量比特对相邻节点模型之间的差进行量化,并在适当条件下可证明保持收敛性。",
term_es = "Moniqua",
term_zh = "Moniqua",
aliases_es = { "algoritmo Moniqua", "SGD descentralizado cuantizado (Moniqua)" },
aliases_zh = { "Moniqua 算法", "量化去中心化 SGD (Moniqua)" },
}
data["monkey vlm"] = {
short = "Monkey, a large multimodal model that supports high-resolution image inputs by partitioning images into local crops processed alongside a global view, improving fine-grained perception and OCR-style tasks.",
article = nil,
aliases = { "Monkey", "Monkey VLM", "Monkey-VLM" },
es = "Monkey, un modelo multimodal grande que admite entradas de imagen de alta resolución dividiéndolas en recortes locales procesados junto con una vista global, mejorando la percepción fina y las tareas tipo OCR.",
zh = "Monkey,一种支持高分辨率图像输入的大型多模态模型,将图像切分为局部子图与全局视图一同处理,以提升细粒度感知与 OCR 类任务的表现。",
term_es = "Monkey",
term_zh = "Monkey",
aliases_es = { "Monkey VLM" },
aliases_zh = { "Monkey VLM", "Monkey 视觉语言模型" },
}
data["monocle"] = {
short = "An R/Bioconductor toolkit for single-cell transcriptomics analysis that orders cells along inferred pseudotime trajectories to study dynamic biological processes such as differentiation.",
article = nil,
aliases = { "Monocle", "Monocle3", "Monocle 3", "Monocle2" },
es = "Conjunto de herramientas en R/Bioconductor para el análisis de transcriptómica de célula única que ordena las células a lo largo de trayectorias de pseudotiempo, útil para estudiar procesos dinámicos como la diferenciación.",
zh = "Monocle:一个用于单细胞转录组分析的 R/Bioconductor 工具包,可沿推断出的伪时间轨迹对细胞进行排序,以研究分化等动态生物过程。",
term_es = "Monocle",
term_zh = "Monocle",
aliases_es = { "Monocle3", "Monocle 3" },
aliases_zh = { "Monocle", "Monocle3" },
}
data["monosemantic feature"] = {
short = "A learned direction, neuron, or sparse-autoencoder feature that activates for a single, coherent, human-interpretable concept across the data distribution rather than for an unrelated mixture of concepts.",
article = nil,
aliases = { "monosemantic neuron", "monosemantic direction", "monosemantic unit" },
es = "Dirección, neurona o característica de un autoencoder disperso que se activa ante un único concepto coherente e interpretable por humanos en toda la distribución de datos, en lugar de hacerlo ante una mezcla de conceptos no relacionados.",
zh = "在整个数据分布上仅对单一、连贯且可被人类解释的概念产生激活的方向、神经元或稀疏自编码器特征,而非对一组不相关概念的混合产生响应。",
term_es = "característica monosemántica",
term_zh = "单义特征",
aliases_es = { "neurona monosemántica", "dirección monosemántica" },
aliases_zh = { "单语义特征", "单义神经元", "单义方向" },
}
data["monosemanticity"] = {
short = "The property of an internal feature, neuron, or direction that responds to one coherent concept; a key target of mechanistic interpretability and the motivation for sparse autoencoders that decompose polysemantic activations.",
article = nil,
aliases = { "monosemanticity property", "feature monosemanticity", "neuron monosemanticity" },
es = "Propiedad de una característica, neurona o dirección interna que responde a un único concepto coherente; objetivo central de la interpretabilidad mecanística y motivación de los autoencoders dispersos que descomponen activaciones polisémicas.",
zh = "内部特征、神经元或方向只对单一连贯概念产生响应的性质;它是机制可解释性的核心目标,也是稀疏自编码器分解多义激活的动机所在。",
term_es = "monosemanticidad",
term_zh = "单义性",
aliases_es = { "propiedad de monosemanticidad", "monosemanticidad de características" },
aliases_zh = { "单语义性", "特征单义性", "神经元单义性" },
}
data["monotonic alignment search"] = {
short = "A dynamic-programming algorithm used in models such as Glow-TTS to find the most likely monotonic alignment between text tokens and acoustic latent frames during training.",
article = nil,
aliases = { "MAS", "Monotonic Alignment Search" },
es = "Algoritmo de programación dinámica usado en modelos como Glow-TTS para encontrar la alineación monótona más probable entre tokens de texto y cuadros latentes acústicos durante el entrenamiento.",
zh = "一种动态规划算法,用于 Glow-TTS 等模型在训练时寻找文本标记与声学潜变量帧之间最可能的单调对齐。",
term_es = "búsqueda de alineamiento monótono",
term_zh = "单调对齐搜索",
aliases_es = { "MAS", "búsqueda monótona de alineación" },
aliases_zh = { "MAS", "单调对齐查找" },
}
data["monotonic chunkwise attention"] = {
short = "An online attention mechanism for sequence-to-sequence models that performs soft attention within fixed-size chunks chosen by a learned monotonic policy, enabling streaming decoding.",
article = nil,
aliases = { "MoChA", "monotonic chunk-wise attention", "monotonic chunkwise attention", "Monotonic Chunkwise Attention" },
es = "Mecanismo de atención en línea para modelos secuencia a secuencia que aplica atención suave dentro de bloques de tamaño fijo seleccionados por una política monótona aprendida, permitiendo decodificación en streaming.",
zh = "一种用于序列到序列模型的在线注意力机制,在由学习到的单调策略选定的固定大小块内执行软注意力,从而支持流式解码。",
term_es = "atención monótona por bloques",
term_zh = "单调分块注意力",
aliases_es = { "MoChA", "atención chunkwise monótona" },
aliases_zh = { "MoChA", "单调块状注意力" },
}
data["monotonic explanation"] = {
short = "An explanation, typically of a constrained model, in which increasing the value of a designated feature can only push the prediction in one direction, faithfully reflecting an underlying monotonic dependence.",
article = nil,
aliases = { "monotonic explanations", "monotone explanation" },
es = "Explicación —normalmente de un modelo con restricciones— en la que aumentar el valor de una característica designada solo puede desplazar la predicción en una dirección, reflejando fielmente una dependencia monótona subyacente.",
zh = "通常用于带约束模型的一类解释,其中指定特征值的增加只能使预测沿单一方向变化,从而忠实反映其潜在的单调依赖关系。",
term_es = "explicación monótona",
term_zh = "单调解释",
aliases_es = { "explicaciones monótonas" },
aliases_zh = { "单调性解释" },
}
data["monotonicity assumption"] = {
short = "In instrumental variable analysis with a binary instrument and treatment, the assumption that the instrument shifts treatment in only one direction across all units, ruling out defiers and enabling identification of the LATE.",
article = nil,
aliases = { "no-defiers assumption", "Imbens-Angrist monotonicity", "monotonicity" },
es = "En el análisis de variables instrumentales con instrumento y tratamiento binarios, el supuesto de que el instrumento desplaza el tratamiento en una única dirección para todas las unidades, descartando desafiadores y permitiendo identificar el LATE.",
zh = "在工具变量与处理均为二值的工具变量分析中,假设工具变量对所有单位仅在同一方向上改变处理状态,从而排除违抗者并实现局部平均处理效应(LATE)的识别。",
term_es = "supuesto de monotonicidad",
term_zh = "单调性假设",
aliases_es = { "supuesto de no desafiadores", "monotonicidad de Imbens-Angrist", "monotonicidad" },
aliases_zh = { "无违抗者假设", "Imbens-Angrist 单调性", "单调性" },
}
data["monotonicity constraint"] = {
short = "A modelling constraint requiring the predicted output to be a non-decreasing (or non-increasing) function of one or more designated input features; commonly enforced in monotonic GBMs, lattice networks, and constrained MLPs for fairness or domain compliance.",
article = nil,
aliases = { "monotonic constraint", "monotonicity constraints", "monotone constraint" },
es = "Restricción de modelado que exige que la salida predicha sea una función no decreciente (o no creciente) respecto a una o varias características de entrada designadas; se aplica comúnmente en GBMs monótonos, redes lattice y MLPs restringidos por motivos de equidad o cumplimiento normativo.",
zh = "一种建模约束,要求预测输出对一个或多个指定输入特征是非递减(或非递增)函数;常用于单调GBM、格子网络和受约束的MLP中,以满足公平性或领域合规要求。",
term_es = "restricción de monotonicidad",
term_zh = "单调性约束",
aliases_es = { "restricción monótona", "restricciones de monotonicidad" },
aliases_zh = { "单调约束", "单调性限制" },
}
data["monte carlo dropout"] = {
short = "Treating dropout applied at both training and test time as a variational approximation to a Bayesian neural network, with predictive uncertainty estimated by averaging multiple stochastic forward passes (Gal & Ghahramani 2016).",
article = "Dropout",
aliases = { "MC dropout", "MC-dropout", "Monte Carlo Dropout", "Bayesian dropout" },
es = "Tratar el dropout aplicado tanto en entrenamiento como en inferencia como una aproximación variacional a una red neuronal bayesiana, estimando la incertidumbre predictiva promediando múltiples pasadas estocásticas hacia adelante (Gal y Ghahramani, 2016).",
zh = "将训练和测试时都启用的 dropout 视为对贝叶斯神经网络的变分近似,通过对多次随机前向传播取平均来估计预测不确定性(Gal 与 Ghahramani,2016)。",
term_es = "dropout de Monte Carlo",
term_zh = "蒙特卡罗 dropout",
aliases_es = { "MC dropout", "dropout bayesiano" },
aliases_zh = { "MC dropout", "MC-dropout", "贝叶斯 dropout" },
}
data["monte carlo method"] = {
short = "In reinforcement learning, a class of model-free methods that estimate value functions by averaging sampled returns from complete episodes, without bootstrapping from successor estimates.",
article = nil,
aliases = { "Monte Carlo method", "Monte Carlo methods", "MC method", "Monte Carlo estimation", "Monte Carlo learning" },
es = "En aprendizaje por refuerzo, familia de métodos sin modelo que estiman funciones de valor promediando los retornos muestreados de episodios completos, sin recurrir al bootstrapping a partir de estimaciones de estados sucesores.",
zh = "在强化学习中,一类无模型方法,通过对完整回合的采样回报取平均来估计价值函数,而不依赖对后继状态估计的自举。",
term_es = "método de Monte Carlo",
term_zh = "蒙特卡洛方法",
aliases_es = { "métodos de Monte Carlo", "estimación de Monte Carlo" },
aliases_zh = { "蒙特卡罗方法", "MC 方法" },
}
data["monte carlo tree search"] = {
short = "A heuristic search algorithm that builds a search tree by simulating random rollouts from selected nodes and using the results, balanced via UCB-style exploration, to focus on promising actions; central to programs such as AlphaGo.",
article = nil,
aliases = { "MCTS", "Monte Carlo tree search", "Monte-Carlo tree search" },
es = "Algoritmo de búsqueda heurística que construye un árbol de búsqueda simulando despliegues aleatorios desde nodos seleccionados y usando los resultados, equilibrados mediante exploración tipo UCB, para concentrarse en las acciones más prometedoras; clave en programas como AlphaGo.",
zh = "一种启发式搜索算法,通过从选定节点进行随机模拟(rollout)来构建搜索树,并以类 UCB 的探索方式利用模拟结果聚焦于有前景的动作;在 AlphaGo 等程序中起核心作用。",
term_es = "búsqueda en árbol de Monte Carlo",
term_zh = "蒙特卡洛树搜索",
aliases_es = { "MCTS", "búsqueda Monte Carlo en árboles" },
aliases_zh = { "MCTS", "蒙特卡罗树搜索" },
}
data["moon algorithm"] = {
short = "Model-Contrastive Federated Learning (MOON), a federated method that uses a contrastive loss between each client's local model representation and the previous global representation to correct local drift under non-IID data.",
article = nil,
aliases = { "MOON", "Model-Contrastive Federated Learning", "model-contrastive FL" },
es = "Aprendizaje federado contrastivo de modelos (MOON), un método federado que usa una pérdida contrastiva entre la representación del modelo local de cada cliente y la representación global anterior para corregir la deriva local en datos no IID.",
zh = "模型对比联邦学习(MOON):在客户端本地模型的表示与上一轮全局模型的表示之间施加对比损失,以纠正非独立同分布数据下的本地漂移。",
term_es = "algoritmo MOON",
term_zh = "MOON 算法",
aliases_es = { "MOON", "aprendizaje federado contrastivo de modelos" },
aliases_zh = { "MOON", "模型对比联邦学习", "模型对比 FL" },
}
data["moondream"] = {
short = "A small open vision-language model designed for efficient on-device inference, pairing a compact image encoder with a few-billion-parameter language model to support image question answering and captioning.",
article = nil,
aliases = { "Moondream", "moondream2" },
es = "Modelo abierto pequeño de visión y lenguaje diseñado para inferencia eficiente en dispositivo, que combina un codificador de imagen compacto con un modelo de lenguaje de pocos miles de millones de parámetros para responder preguntas sobre imágenes y generar descripciones.",
zh = "Moondream,一种面向端侧高效推理的小型开源视觉语言模型,将紧凑图像编码器与数十亿参数级语言模型结合,支持图像问答与图像描述。",
term_es = "Moondream",
term_zh = "Moondream",
aliases_es = { "moondream2" },
aliases_zh = { "moondream2" },
}
data["moral machine"] = {
short = "An online experiment by Awad et al. (2018) that crowdsourced human preferences for autonomous-vehicle trolley-problem scenarios across millions of participants, surfacing cross-cultural variation in moral judgments.",
article = nil,
aliases = { "Moral Machine", "Moral Machine experiment" },
es = "Experimento en línea de Awad et al. (2018) que recopiló de forma colaborativa las preferencias humanas en escenarios tipo dilema del tranvía para vehículos autónomos entre millones de participantes, revelando variaciones interculturales en los juicios morales.",
zh = "Awad 等人(2018)开展的在线实验,通过数百万参与者众包关于自动驾驶车辆电车难题情境的道德偏好,揭示了道德判断的跨文化差异。",
term_es = "Moral Machine",
term_zh = "道德机器",
aliases_es = { "experimento Moral Machine", "máquina moral" },
aliases_zh = { "Moral Machine", "道德机器实验" },
}
data["moralization"] = {
short = "The graph operation of converting a directed acyclic graph into its moral graph by connecting (marrying) all pairs of nodes that share a common child and then dropping edge directions.",
article = nil,
aliases = { "moralisation", "graph moralization", "moralizing a DAG" },
es = "Operación gráfica que convierte un grafo acíclico dirigido en su grafo moral conectando (\"casando\") todos los pares de nodos que comparten un hijo común y eliminando luego la dirección de las aristas.",
zh = "将有向无环图转换为其道德图的图操作:为所有共享公共子节点的节点对添加边(\"结亲\"),然后去除所有边的方向。",
term_es = "moralización",
term_zh = "道德化",
aliases_es = { "moralización de un DAG", "moralización de grafos" },
aliases_zh = { "道德化操作", "图的道德化", "DAG 道德化" },
}
data["moralized graph"] = {
short = "The undirected graph obtained from a directed acyclic graph by adding edges between every pair of nodes with a common child and then making all edges undirected; used for d-separation via classical separation.",
article = nil,
aliases = { "moral graph" },
es = "Grafo no dirigido obtenido de un grafo acíclico dirigido agregando aristas entre todo par de nodos con un hijo común y haciendo no dirigidas todas las aristas; se usa para evaluar la d-separación mediante la separación clásica.",
zh = "由有向无环图得到的无向图:为每对具有共同子节点的节点之间添加边,再把所有边变为无向边;用于通过经典分离判断 d-分离。",
term_es = "grafo moral",
term_zh = "道德图",
aliases_es = { "grafo moralizado" },
aliases_zh = { "道德化图", "moral 图" },
}
data["mordred descriptors"] = {
short = "A free, open-source molecular-descriptor calculator (Moriwaki et al., 2018) that computes more than 1,800 2D and 3D descriptors and is widely used as a feature source for QSAR and molecular machine-learning models.",
article = nil,
aliases = { "Mordred", "Mordred descriptor", "Mordred molecular descriptors" },
es = "Calculadora de descriptores moleculares libre y de código abierto (Moriwaki et al., 2018) que computa más de 1.800 descriptores 2D y 3D y se usa ampliamente como fuente de características para modelos QSAR y de aprendizaje automático molecular.",
zh = "一款免费开源的分子描述符计算工具(Moriwaki 等,2018),可计算 1800 多种二维和三维描述符,被广泛用作 QSAR 与分子机器学习模型的特征来源。",
term_es = "descriptores Mordred",
term_zh = "Mordred 描述符",
aliases_es = { "Mordred", "descriptor Mordred" },
aliases_zh = { "Mordred", "Mordred 分子描述符" },
}
data["morgan fingerprint"] = {
short = "A circular molecular fingerprint that, for each atom, hashes its neighborhood iteratively up to a fixed radius (typically 2 or 3) and folds the resulting identifiers into a fixed-length bit vector. The ECFP family is a Morgan fingerprint variant.",
article = nil,
aliases = { "Morgan fingerprints", "ECFP", "extended-connectivity fingerprint", "circular fingerprint" },
es = "Huella molecular circular que, para cada átomo, hashea iterativamente su vecindario hasta un radio fijo (típicamente 2 o 3) y combina los identificadores resultantes en un vector de bits de longitud fija. La familia ECFP es una variante de huella de Morgan.",
zh = "一种环形分子指纹,对每个原子在固定半径(通常为 2 或 3)内迭代地对其邻域进行哈希,并将所得标识符折叠为定长比特向量。ECFP 家族是 Morgan 指纹的一种变体。",
term_es = "huella de Morgan",
term_zh = "Morgan 指纹",
aliases_es = { "huellas de Morgan", "ECFP", "huella de conectividad extendida", "huella circular" },
aliases_zh = { "Morgan 指纹族", "ECFP", "扩展连通性指纹", "环形指纹" },
}
data["morphological profiling"] = {
short = "A high-content imaging approach that extracts quantitative cellular morphology features from microscopy images to characterize phenotypic responses, often used in compound and gene perturbation screens.",
article = nil,
aliases = { "image-based profiling", "Cell Painting profiling", "high-content morphological profiling" },
es = "Enfoque de imagen de alto contenido que extrae características cuantitativas de la morfología celular a partir de imágenes de microscopía para caracterizar respuestas fenotípicas, frecuentemente en cribados de compuestos y perturbaciones génicas.",
zh = "形态学谱分析:一种高内涵成像方法,从显微图像中提取定量的细胞形态特征,用于刻画表型响应,常用于化合物筛选和基因扰动筛选。",
term_es = "perfilado morfológico",
term_zh = "形态学谱分析",
aliases_es = { "perfilado basado en imagen", "perfilado por imagen" },
aliases_zh = { "图像谱分析", "Cell Painting 形态分析" },
}
data["mos"] = {
short = "Mean Opinion Score: a subjective audio quality metric obtained by averaging numerical ratings (typically on a 1-5 scale) given by listeners to processed or synthesized audio samples.",
article = nil,
aliases = { "MOS", "mean opinion score" },
es = "Puntuación media de opinión: métrica subjetiva de calidad de audio obtenida promediando las valoraciones numéricas (típicamente en una escala de 1 a 5) que los oyentes asignan a muestras de audio procesadas o sintetizadas.",
zh = "平均意见得分:一种主观音频质量指标,对听者给出的处理或合成音频样本评分(通常为 1–5 分制)取平均值得到。",
term_es = "MOS",
term_zh = "MOS",
aliases_es = { "puntuación media de opinión", "puntaje medio de opinión" },
aliases_zh = { "平均意见得分", "平均主观评分" },
}
data["moses benchmark"] = {
short = "The Molecular Sets benchmarking platform (Polykovskiy et al., 2020) that provides a curated training set, baseline implementations, and standard distribution-learning metrics (validity, uniqueness, novelty, FCD, SNN, IntDiv) for evaluating molecular generative models.",
article = nil,
aliases = { "MOSES", "Molecular Sets", "MOSES benchmark" },
es = "Plataforma de evaluación Molecular Sets (Polykovskiy et al., 2020) que ofrece un conjunto de entrenamiento curado, implementaciones de referencia y métricas estándar de aprendizaje de distribuciones (validez, unicidad, novedad, FCD, SNN, IntDiv) para evaluar modelos generativos moleculares.",
zh = "Molecular Sets 基准平台(Polykovskiy 等,2020),提供整理过的训练集、基线实现以及标准的分布学习指标(有效性、唯一性、新颖性、FCD、SNN、IntDiv),用于评估分子生成模型。",
term_es = "benchmark MOSES",
term_zh = "MOSES 基准",
aliases_es = { "MOSES", "Molecular Sets" },
aliases_zh = { "MOSES", "Molecular Sets", "MOSES 评测" },
}
data["mossformer"] = {
short = "A monaural speech separation model that combines a convolutional augmented joint self-attention with a gated single-head transformer to separate overlapping speakers from a single-channel mixture.",
article = nil,
aliases = { "MossFormer", "Mossformer" },
es = "Modelo monoaural de separación de voz que combina autoatención conjunta aumentada con convoluciones y un transformer de una cabeza con compuerta para separar hablantes superpuestos a partir de una mezcla monocanal.",
zh = "一种单通道语音分离模型,将卷积增强的联合自注意力与带门控的单头 Transformer 相结合,从单通道混合音中分离重叠说话人。",
term_es = "MossFormer",
term_zh = "MossFormer",
aliases_es = {},
aliases_zh = {},
}
data["motif discovery"] = {
short = "The unsupervised computational identification of recurrent short sequence patterns (motifs) in a set of biological sequences, typically representing transcription factor binding sites or RNA regulatory elements.",
article = nil,
aliases = { "de novo motif discovery", "sequence motif discovery", "motif finding" },
es = "Identificación computacional no supervisada de patrones cortos recurrentes (motivos) en un conjunto de secuencias biológicas, normalmente correspondientes a sitios de unión de factores de transcripción o elementos reguladores de ARN.",
zh = "基序发现:在一组生物序列中无监督地识别反复出现的短序列模式(motif),通常对应于转录因子结合位点或 RNA 调控元件。",
term_es = "descubrimiento de motivos",
term_zh = "基序发现",
aliases_es = { "descubrimiento de motivos de novo", "búsqueda de motivos" },
aliases_zh = { "motif 发现", "从头基序发现" },
}
data["motif scanning"] = {
short = "Searching a set of sequences for occurrences of a known motif or position weight matrix and scoring potential matches, often as the complement to motif discovery.",
article = nil,
aliases = { "motif search", "PWM scanning", "motif matching" },
es = "Búsqueda de ocurrencias de un motivo conocido o de una matriz de pesos posicional (PWM) en un conjunto de secuencias, puntuando las posibles coincidencias; complementa al descubrimiento de motivos.",
zh = "基序扫描:在一组序列中搜索已知 motif 或位置权重矩阵(PWM)的出现并对潜在匹配打分,通常作为 motif 发现的下游互补步骤。",
term_es = "escaneo de motivos",
term_zh = "基序扫描",
aliases_es = { "búsqueda de motivos", "escaneo PWM" },
aliases_zh = { "motif 扫描", "PWM 扫描" },
}
data["movement pruning"] = {
short = "A fine-tuning-aware pruning method that retains weights based on how their values move during training rather than their final magnitude, particularly effective for pruning pretrained transformers under transfer-learning regimes.",
article = nil,
aliases = { "movement-based pruning" },
es = "Método de poda consciente del ajuste fino que conserva los pesos según cómo varían sus valores durante el entrenamiento, en lugar de su magnitud final; resulta especialmente eficaz al podar transformadores preentrenados bajo regímenes de transferencia.",
zh = "一种与微调相结合的剪枝方法,根据权重在训练过程中数值的变化(而非最终幅值)来保留权重,对在迁移学习场景中剪枝预训练 Transformer 尤其有效。",
term_es = "poda por movimiento",
term_zh = "运动剪枝",
aliases_es = { "poda basada en movimiento" },
aliases_zh = { "movement pruning", "基于运动的剪枝" },
}
data["moviechat"] = {
short = "A long-video understanding model that combines a short-term memory of recent frame features with a consolidated long-term memory, enabling conversation about hour-long videos within tractable compute budgets.",
article = nil,
aliases = { "MovieChat", "Movie-Chat" },
es = "Modelo de comprensión de vídeos largos que combina una memoria a corto plazo con características de los últimos fotogramas y una memoria consolidada a largo plazo, permitiendo conversar sobre vídeos de una hora con un coste computacional manejable.",
zh = "MovieChat,一种长视频理解模型,将近期帧特征的短期记忆与压缩后的长期记忆结合,可在可控算力下对长达一小时的视频进行对话式理解。",
term_es = "MovieChat",
term_zh = "MovieChat",
aliases_es = { "Movie-Chat" },
aliases_zh = { "Movie-Chat" },
}
data["moving average baseline"] = {
short = "A baseline for variance reduction in REINFORCE-style policy gradients, computed as a running (often exponentially weighted) average of past rewards and subtracted from the current return.",
article = nil,
aliases = { "EMA baseline", "running average baseline", "exponential moving average baseline" },
es = "Línea base para la reducción de varianza en gradientes de política de tipo REINFORCE, calculada como un promedio móvil (a menudo exponencialmente ponderado) de las recompensas pasadas y restada del retorno actual.",
zh = "REINFORCE类策略梯度中的方差缩减基线,由历史奖励的滑动(通常为指数加权)平均得到,并从当前回报中减去。",
term_es = "línea base de promedio móvil",
term_zh = "滑动平均基线",
aliases_es = { "baseline de media móvil", "baseline EMA", "línea base EMA" },
aliases_zh = { "EMA基线", "指数移动平均基线", "运行平均基线" },
}
data["mpi all-reduce"] = {
short = "A collective communication operation in MPI in which each process contributes a value (or vector) and every process receives the same combined result, typically a sum, computed across all participants.",
article = nil,
aliases = { "MPI_Allreduce", "all-reduce (MPI)", "allreduce collective", "ring all-reduce (implementation)" },
es = "Operación de comunicación colectiva en MPI en la que cada proceso aporta un valor (o vector) y todos los procesos reciben el mismo resultado combinado, normalmente la suma, calculado entre todos los participantes.",
zh = "MPI 中的一种集合通信操作:每个进程提供一个值或向量,所有进程都收到对所有参与者执行归约(通常是求和)后的相同结果。",
term_es = "all-reduce de MPI",
term_zh = "MPI All-Reduce",
aliases_es = { "MPI_Allreduce", "all-reduce", "operación colectiva all-reduce" },
aliases_zh = { "MPI_Allreduce", "全归约", "All-Reduce 集合通信" },
}
data["mpileup"] = {
short = "A samtools/bcftools command and underlying file format that summarizes per-base read coverage and allele counts from BAM alignments, used as input to variant callers and coverage analyses.",
article = nil,
aliases = { "samtools mpileup", "bcftools mpileup", "pileup format", "mpileup format" },
es = "Comando de samtools/bcftools y formato de archivo asociado que resume la cobertura de lecturas y los conteos de alelos por base a partir de alineaciones BAM, utilizado como entrada para llamadores de variantes y análisis de cobertura.",
zh = "samtools/bcftools 提供的命令及对应文件格式,用于从 BAM 比对结果中按位点汇总读段覆盖度和等位基因计数,常作为变异检测和覆盖度分析的输入。",
term_es = "mpileup",
term_zh = "mpileup",
aliases_es = { "samtools mpileup", "bcftools mpileup", "formato pileup" },
aliases_zh = { "samtools mpileup", "bcftools mpileup", "pileup 格式", "mpileup 格式" },
}
data["mplug"] = {
short = "A series of multimodal pretrained models from Alibaba DAMO Academy that uses a cross-modal skip-connected architecture to align vision and language, including variants for understanding, generation, and document analysis.",
article = nil,
aliases = { "mPLUG", "MPLUG", "m-PLUG" },
es = "Serie de modelos multimodales preentrenados de Alibaba DAMO Academy que usa una arquitectura intermodal con conexiones residuales para alinear visión y lenguaje, con variantes para comprensión, generación y análisis de documentos.",
zh = "mPLUG,阿里巴巴达摩院推出的一系列多模态预训练模型,采用跨模态跳跃连接架构对齐视觉与语言,涵盖理解、生成与文档分析等多种变体。",
term_es = "mPLUG",
term_zh = "mPLUG",
aliases_es = { "MPLUG", "m-PLUG" },
aliases_zh = { "MPLUG", "m-PLUG" },
}
data["mplug-docowl"] = {
short = "A document-understanding extension of the mPLUG family that handles OCR-free analysis of document images, supporting tasks such as visual question answering on tables, charts, and structured layouts.",
article = nil,
aliases = { "mPLUG-DocOwl", "DocOwl", "mPLUG DocOwl" },
es = "Extensión de la familia mPLUG centrada en la comprensión de documentos, que realiza análisis de imágenes de documentos sin OCR explícito y soporta tareas como respuesta a preguntas visuales sobre tablas, gráficos y diseños estructurados.",
zh = "mPLUG-DocOwl,mPLUG 系列面向文档理解的扩展模型,可在无显式 OCR 的情况下分析文档图像,支持对表格、图表与结构化版面的视觉问答等任务。",
term_es = "mPLUG-DocOwl",
term_zh = "mPLUG-DocOwl",
aliases_es = { "DocOwl" },
aliases_zh = { "DocOwl" },
}
data["mplug-owl"] = {
short = "A multimodal large language model from Alibaba's mPLUG family that pairs a frozen vision encoder with a trainable visual abstractor and a tunable language model to support image-grounded dialogue.",
article = nil,
aliases = { "mPLUG-Owl", "mPLUG Owl" },
es = "Modelo multimodal de lenguaje de gran escala de la familia mPLUG de Alibaba que combina un codificador visual congelado con un abstractor visual entrenable y un modelo de lenguaje ajustable para diálogo basado en imágenes.",
zh = "阿里巴巴 mPLUG 系列的多模态大语言模型,将冻结的视觉编码器、可训练的视觉抽象器与可微调的语言模型结合,用于支持基于图像的对话。",
term_es = "mPLUG-Owl",
term_zh = "mPLUG-Owl",
aliases_es = { "mPLUG-Owl" },
aliases_zh = { "mPLUG-Owl" },
}
data["mplug-owl2"] = {
short = "The successor to mPLUG-Owl that introduces modality-adaptive modules within a shared transformer, allowing vision and language signals to be processed jointly while preserving language-only capabilities.",
article = nil,
aliases = { "mPLUG-Owl2", "mPLUG Owl 2", "mPLUG-Owl 2" },
es = "Sucesor de mPLUG-Owl que introduce módulos adaptativos por modalidad dentro de un transformador compartido, permitiendo procesar conjuntamente señales de visión y lenguaje sin degradar las capacidades puramente textuales.",
zh = "mPLUG-Owl 的后续版本,在共享 Transformer 中引入模态自适应模块,使视觉与语言信号可以联合处理,同时保留纯文本任务的能力。",
term_es = "mPLUG-Owl2",
term_zh = "mPLUG-Owl2",
aliases_es = { "mPLUG-Owl 2" },
aliases_zh = { "mPLUG-Owl 2" },
}
data["mpt"] = {
short = "MosaicML Pretrained Transformer, an open-source family of decoder-only LLMs (7B and 30B) released by MosaicML in 2023, notable for ALiBi positional encoding and a permissive commercial license.",
article = nil,
aliases = { "MPT", "MPT-7B", "MPT-30B", "MosaicML Pretrained Transformer" },
es = "MosaicML Pretrained Transformer, una familia de LLM de solo decodificador de código abierto (7B y 30B) publicada por MosaicML en 2023, destacada por usar codificación posicional ALiBi y una licencia comercial permisiva.",
zh = "MosaicML Pretrained Transformer,由 MosaicML 于 2023 年发布的开源仅解码器大语言模型系列(7B 和 30B),以采用 ALiBi 位置编码和宽松的商业许可而著称。",
term_es = "MPT",
term_zh = "MPT",
aliases_es = { "MPT-7B", "MPT-30B" },
aliases_zh = { "MPT-7B", "MPT-30B", "MosaicML 预训练 Transformer" },
}
data["mr-egger"] = {
short = "An extension of inverse-variance weighted Mendelian randomization that allows the regression of variant-outcome on variant-exposure associations to have a non-zero intercept, providing a sensitivity analysis for directional pleiotropy.",
article = nil,
aliases = { "MR-Egger", "MR Egger regression", "Egger regression in Mendelian randomization" },
es = "Extensión de la aleatorización mendeliana ponderada por la inversa de la varianza que permite que la regresión de las asociaciones variante-resultado sobre variante-exposición tenga una intercepción no nula, proporcionando un análisis de sensibilidad ante la pleiotropía direccional.",
zh = "对逆方差加权孟德尔随机化的扩展,允许变异-结果关联对变异-暴露关联的回归具有非零截距,从而对方向性多效性提供敏感性分析。",
term_es = "MR-Egger",
term_zh = "MR-Egger",
aliases_es = { "regresión de Egger en MR", "MR Egger" },
aliases_zh = { "MR-Egger 回归", "Egger 回归(孟德尔随机化)" },
}
data["mr-presso"] = {
short = "A method for Mendelian randomization that detects and corrects for horizontal pleiotropy by identifying outlier instruments via residual sums of squares and re-estimating the causal effect after their removal.",
article = nil,
aliases = { "MR-PRESSO", "Mendelian Randomization Pleiotropy RESidual Sum and Outlier" },
es = "Método para aleatorización mendeliana que detecta y corrige la pleiotropía horizontal identificando instrumentos atípicos mediante sumas de cuadrados residuales y reestimando el efecto causal tras eliminarlos.",
zh = "一种孟德尔随机化方法,通过残差平方和识别离群工具变量来检测并校正水平多效性,并在剔除离群点后重新估计因果效应。",
term_es = "MR-PRESSO",
term_zh = "MR-PRESSO",
aliases_es = { "Pleiotropy RESidual Sum and Outlier" },
aliases_zh = { "MR-PRESSO 方法", "多效性残差和离群检验" },
}
data["msa subsampling"] = {
short = "The process of selecting a representative subset of sequences from a large multiple sequence alignment, used to reduce computational cost and bias in protein structure predictors such as AlphaFold.",
article = nil,
aliases = { "MSA subsampling", "multiple sequence alignment subsampling", "MSA sampling", "alignment subsampling" },
es = "Proceso de seleccionar un subconjunto representativo de secuencias de un alineamiento múltiple grande, utilizado para reducir el costo computacional y el sesgo en predictores de estructura proteica como AlphaFold.",
zh = "从规模较大的多序列比对中挑选一个具有代表性的序列子集的过程,用于降低 AlphaFold 等蛋白质结构预测模型的计算开销并控制偏差。",
term_es = "submuestreo de MSA",
term_zh = "MSA 子采样",
aliases_es = { "submuestreo de alineamiento múltiple", "muestreo de MSA", "subsampling de MSA" },
aliases_zh = { "MSA 子采样", "多序列比对子采样", "MSA 采样" },
}
data["msa transformer"] = {
short = "A protein language model (Rao et al., 2021) that takes a multiple sequence alignment as input and applies tied row and column attention across sequences, achieving strong unsupervised contact prediction by leveraging evolutionary co-variation.",
article = nil,
aliases = { "MSA Transformer", "MSA-Transformer" },
es = "Modelo de lenguaje proteico (Rao et al., 2021) que toma un alineamiento múltiple de secuencias como entrada y aplica atención por filas y por columnas con pesos compartidos a través de las secuencias, logrando una sólida predicción no supervisada de contactos al aprovechar la covariación evolutiva.",
zh = "一种蛋白质语言模型(Rao 等,2021),以多序列比对为输入,并在序列间施加共享权重的行注意力和列注意力,借助进化共变实现强大的无监督接触预测。",
term_es = "MSA Transformer",
term_zh = "MSA Transformer",
aliases_es = { "MSA-Transformer" },
aliases_zh = { "MSA-Transformer", "多序列比对 Transformer" },
}
data["msigdb"] = {
short = "The Molecular Signatures Database, a curated collection of annotated gene sets (hallmark, canonical pathways, GO terms, oncogenic and immunologic signatures) widely used as input for gene set enrichment analysis.",
article = nil,
aliases = { "MSigDB", "Molecular Signatures Database", "MSigDB gene sets" },
es = "Base de datos Molecular Signatures Database (MSigDB), una colección curada de conjuntos génicos anotados (hallmark, vías canónicas, términos GO, firmas oncogénicas e inmunológicas) ampliamente utilizada como entrada para el análisis de enriquecimiento de conjuntos génicos (GSEA).",
zh = "Molecular Signatures Database(分子特征数据库),一个经人工整理的注释基因集合集(包括 hallmark、经典通路、GO 条目、肿瘤和免疫相关特征等),广泛用作基因集富集分析(GSEA)的输入。",
term_es = "MSigDB",
term_zh = "MSigDB",
aliases_es = { "Molecular Signatures Database", "base de datos MSigDB", "conjuntos génicos de MSigDB" },
aliases_zh = { "MSigDB", "Molecular Signatures Database", "分子特征数据库", "MSigDB 基因集" },
}
data["msr-vtt"] = {
short = "A large-scale video captioning and retrieval benchmark consisting of about 10,000 web video clips, each paired with twenty natural-language descriptions, widely used to evaluate video-text models.",
article = nil,
aliases = { "MSR-VTT", "MSRVTT", "MSR Video to Text", "Microsoft Research Video to Text" },
es = "Conjunto de evaluación a gran escala para descripción y recuperación de vídeo, con unos 10 000 clips web acompañados cada uno por veinte descripciones en lenguaje natural; muy utilizado para evaluar modelos vídeo-texto.",
zh = "面向视频字幕生成与检索的大规模评测集,包含约 10000 段网络视频,每段配有 20 条自然语言描述,被广泛用于评估视频-文本模型。",
term_es = "MSR-VTT",
term_zh = "MSR-VTT",
aliases_es = { "MSRVTT" },
aliases_zh = { "MSRVTT" },
}
data["msvd"] = {
short = "The Microsoft Research Video Description corpus: roughly 2,000 short YouTube clips paired with multilingual one-sentence descriptions, used as a compact benchmark for video captioning and video question answering.",
article = nil,
aliases = { "MSVD", "Microsoft Research Video Description", "Microsoft Video Description Corpus" },
es = "Corpus Microsoft Research Video Description: alrededor de 2000 clips cortos de YouTube emparejados con descripciones de una frase en varios idiomas, utilizado como referencia compacta para descripción de vídeo y respuesta a preguntas sobre vídeo.",
zh = "Microsoft Research Video Description 语料:约 2000 段短 YouTube 视频,每段配有多语言的一句话描述,常作为视频字幕生成和视频问答的小规模评测基准。",
term_es = "MSVD",
term_zh = "MSVD",
aliases_es = { "Microsoft Research Video Description" },
aliases_zh = { "Microsoft Research Video Description" },
}
data["mt-bench"] = {
short = "A benchmark of 80 multi-turn questions across eight categories used to evaluate chat assistants, with responses scored by a strong LLM judge such as GPT-4 to approximate human preference rankings.",
article = nil,
aliases = { "MT-Bench", "MT Bench", "Multi-Turn Bench" },
es = "Banco de pruebas de 80 preguntas multi-turno en ocho categorías usado para evaluar asistentes conversacionales, con respuestas calificadas por un LLM juez fuerte como GPT-4 para aproximar el ranking de preferencias humanas.",
zh = "用于评估聊天助手的基准测试,包含八个类别的 80 个多轮问题,回答由 GPT-4 等强大的 LLM 评判者打分,以近似人类偏好排序。",
term_es = "MT-Bench",
term_zh = "MT-Bench",
aliases_es = { "MT Bench" },
aliases_zh = { "MT Bench", "多轮基准" },
}
data["mt5"] = {
short = "A multilingual extension of T5 pretrained on the mC4 corpus covering 101 languages, providing a unified text-to-text foundation for cross-lingual transfer learning.",
article = nil,
aliases = { "mT5", "multilingual T5", "Multilingual T5" },
es = "Extensión multilingüe de T5 preentrenada en el corpus mC4 que cubre 101 idiomas, proporcionando una base unificada texto a texto para el aprendizaje por transferencia entre idiomas.",
zh = "T5 的多语言扩展,在覆盖 101 种语言的 mC4 语料上预训练,为跨语言迁移学习提供统一的文本到文本基础。",
term_es = "mT5",
term_zh = "mT5",
aliases_es = { "mT5", "T5 multilingüe" },
aliases_zh = { "mT5", "多语言 T5" },
}
data["mteb benchmark"] = {
short = "Massive Text Embedding Benchmark: a comprehensive evaluation suite for text embedding models covering tasks such as classification, clustering, retrieval, reranking, and semantic similarity across many languages.",
article = nil,
aliases = { "MTEB", "MTEB benchmark", "Massive Text Embedding Benchmark" },
es = "Massive Text Embedding Benchmark: conjunto integral de evaluación para modelos de embeddings de texto que abarca tareas como clasificación, agrupamiento, recuperación, reordenamiento y similitud semántica en múltiples idiomas.",
zh = "Massive Text Embedding Benchmark:面向文本嵌入模型的综合评测套件,涵盖分类、聚类、检索、重排序和语义相似度等多语言任务。",
term_es = "benchmark MTEB",
term_zh = "MTEB 基准",
aliases_es = { "MTEB", "Massive Text Embedding Benchmark" },
aliases_zh = { "MTEB", "MTEB 评测", "大规模文本嵌入基准" },
}
data["multi-agent system"] = {
short = "A system composed of multiple autonomous agents (typically LLM-driven) that interact, communicate, and coordinate to solve tasks, often with specialized roles such as planner, executor, critic, and tools.",
article = nil,
aliases = { "MAS", "multi-agent systems", "multiagent system", "agentic system", "LLM multi-agent system" },
es = "Sistema compuesto por múltiples agentes autónomos (normalmente impulsados por LLM) que interactúan, se comunican y coordinan para resolver tareas, a menudo con roles especializados como planificador, ejecutor, crítico y herramientas.",
zh = "由多个自主智能体(通常由 LLM 驱动)组成的系统,这些智能体通过交互、通信和协调来解决任务,通常具有规划者、执行者、批评者和工具等专门角色。",
term_es = "sistema multiagente",
term_zh = "多智能体系统",
aliases_es = { "MAS", "sistema multi-agente", "sistema agéntico" },
aliases_zh = { "MAS", "多代理系统", "智能体系统" },
}
data["multi-armed bandit"] = {
short = "A simplified reinforcement learning problem with a single state and multiple actions ('arms'), each yielding stochastic rewards, in which the learner must balance exploration of arms with exploitation of the best one to minimize regret.",
article = nil,
aliases = { "MAB", "multi armed bandit", "multiarmed bandit", "k-armed bandit", "n-armed bandit", "bandit problem" },
es = "Problema simplificado de aprendizaje por refuerzo con un único estado y múltiples acciones (\"brazos\"), cada una con recompensas estocásticas, en el que el aprendiz debe equilibrar la exploración de los brazos con la explotación del mejor para minimizar el arrepentimiento.",
zh = "一种简化的强化学习问题,只有单一状态和多个动作(\"摇臂\"),每个摇臂产生随机奖励,学习者需在探索各摇臂与利用最佳摇臂之间取得平衡以最小化遗憾。",
term_es = "bandido multibrazo",
term_zh = "多臂赌博机",
aliases_es = { "MAB", "problema del bandido multibrazo", "bandido de múltiples brazos" },
aliases_zh = { "MAB", "多臂老虎机", "多臂强盗" },
}
data["multi-armed bandit hpo"] = {
short = "Hyperparameter optimization formulated as a multi-armed bandit problem, where each configuration is an arm and the goal is to allocate compute to the most promising arms; underlies Successive Halving and Hyperband.",
article = nil,
aliases = { "bandit-based hyperparameter optimization", "bandit HPO", "multi-armed bandit hyperparameter optimization", "MAB HPO" },
es = "Optimización de hiperparámetros formulada como un problema de bandidos multi-brazo, donde cada configuración es un brazo y el objetivo es asignar recursos a los brazos más prometedores; subyace a Successive Halving y Hyperband.",
zh = "将超参数优化形式化为多臂老虎机问题的方法,每个配置视为一个臂,目标是将计算资源分配给最有前景的臂;是 Successive Halving 和 Hyperband 的基础。",
term_es = "optimización de hiperparámetros tipo bandido",
term_zh = "多臂老虎机超参数优化",
aliases_es = { "HPO basada en bandidos", "optimización tipo bandido multi-brazo" },
aliases_zh = { "基于老虎机的超参数优化", "多臂赌博机 HPO" },
}
data["multi-attribute fairness"] = {
short = "Fairness analysis or constraints defined over multiple protected attributes simultaneously (e.g., race and gender), addressing intersectional disparities that single-attribute audits miss.",
article = nil,
aliases = { "multi attribute fairness", "multiattribute fairness", "intersectional fairness" },
es = "Análisis o restricciones de equidad definidas simultáneamente sobre múltiples atributos protegidos (por ejemplo, raza y género), abordando disparidades interseccionales que las auditorías de un solo atributo pasan por alto.",
zh = "针对多个受保护属性(例如种族与性别)同时定义的公平性分析或约束,关注单一属性审计所忽略的交叉性差异。",
term_es = "equidad multiatributo",
term_zh = "多属性公平性",
aliases_es = { "equidad sobre múltiples atributos", "equidad interseccional" },
aliases_zh = { "多属性公平", "交叉公平性" },
}
data["multi-band melgan"] = {
short = "A MelGAN variant that splits the waveform into multiple frequency sub-bands and predicts each band with a smaller generator, improving training stability and inference speed of GAN vocoding.",
article = nil,
aliases = { "Multi-Band MelGAN", "Multi-band MelGAN", "MB-MelGAN", "multiband MelGAN" },
es = "Variante de MelGAN que divide la forma de onda en múltiples subbandas de frecuencia y predice cada banda con un generador más pequeño, mejorando la estabilidad de entrenamiento y la velocidad de inferencia de la vocodificación basada en GAN.",
zh = "MelGAN 的一种变体,将波形划分为多个频率子带,并用更小的生成器分别预测各子带,从而提升 GAN 声码器的训练稳定性与推理速度。",
term_es = "Multi-Band MelGAN",
term_zh = "Multi-Band MelGAN",
aliases_es = { "MB-MelGAN", "MelGAN multibanda" },
aliases_zh = { "MB-MelGAN", "多频带MelGAN" },
}
data["multi-channel asr"] = {
short = "Automatic speech recognition that processes signals from multiple microphone channels jointly, often via beamforming, neural front-ends, or end-to-end multi-channel encoders to improve robustness in noisy and far-field conditions.",
article = nil,
aliases = { "multi-channel ASR", "multichannel ASR", "multi-channel speech recognition", "multichannel speech recognition" },
es = "Reconocimiento automático de la voz que procesa conjuntamente las señales de varios canales de micrófono, frecuentemente mediante beamforming, front-ends neuronales o codificadores multicanal de extremo a extremo, para mejorar la robustez en condiciones ruidosas y de campo lejano.",
zh = "一种联合处理多麦克风通道信号的自动语音识别,常通过波束形成、神经前端或端到端多通道编码器来提升在噪声和远场环境下的鲁棒性。",
term_es = "ASR multicanal",
term_zh = "多通道语音识别",
aliases_es = { "reconocimiento de voz multicanal", "ASR multi-canal" },
aliases_zh = { "多通道ASR", "多麦克风语音识别" },
}
data["multi-class calibration"] = {
short = "Calibration metrics and methods for classifiers with more than two classes, such as classwise expected calibration error or full-distribution calibration, going beyond the top-label confidence used in binary settings.",
article = nil,
aliases = { "multiclass calibration", "class-wise calibration", "K-class calibration" },
es = "Métricas y métodos de calibración para clasificadores con más de dos clases, como el error de calibración esperado por clase o la calibración de toda la distribución, que van más allá de la confianza de la etiqueta principal usada en el caso binario.",
zh = "多于二分类情形下的校准度量与方法,例如按类别计算的期望校准误差或全分布校准,超越了二分类中仅使用最大置信度的做法。",
term_es = "calibración multiclase",
term_zh = "多类校准",
aliases_es = { "calibración por clase", "calibración K-clase" },
aliases_zh = { "按类别校准", "K 类校准" },
}
data["multi-cutoff rd"] = {
short = "A regression discontinuity design with multiple cutoff values of the running variable across units or contexts, allowing identification of treatment effects at each cutoff and pooled estimands across cutoffs.",
article = nil,
aliases = { "multi-cutoff regression discontinuity", "multiple-cutoff RD", "multi-threshold RD design" },
es = "Diseño de regresión discontinua con múltiples valores de corte de la variable de asignación a lo largo de unidades o contextos, lo que permite identificar efectos del tratamiento en cada corte y estimandos agrupados entre cortes.",
zh = "具有多个临界值(跨单位或情境)的回归断点设计,可识别每个临界值处的处理效应以及跨临界值的合并估计量。",
term_es = "RD con múltiples cortes",
term_zh = "多临界值断点回归",
aliases_es = { "regresión discontinua con múltiples cortes", "diseño RD multi-corte" },
aliases_zh = { "多临界值 RD", "多阈值断点回归设计" },
}
data["multi-fidelity bayesian optimization"] = {
short = "Bayesian optimization variant that combines cheap low-fidelity evaluations (e.g., fewer training epochs, smaller datasets) with expensive high-fidelity ones, modeling fidelity as an additional input to the surrogate.",
article = nil,
aliases = { "MFBO", "multi-fidelity BO", "multifidelity Bayesian optimization", "multi-fidelity bayesian optimisation" },
es = "Variante de optimización bayesiana que combina evaluaciones baratas de baja fidelidad (p. ej., menos épocas de entrenamiento, conjuntos más pequeños) con evaluaciones caras de alta fidelidad, modelando la fidelidad como una entrada adicional del surrogate.",
zh = "贝叶斯优化的一种变体,将廉价的低保真度评估(如较少的训练轮数或更小的数据集)与昂贵的高保真度评估相结合,把保真度作为代理模型的额外输入。",
term_es = "optimización bayesiana multi-fidelidad",
term_zh = "多保真度贝叶斯优化",
aliases_es = { "BO multi-fidelidad", "MFBO" },
aliases_zh = { "多精度贝叶斯优化", "MFBO" },
}
data["multi-fidelity nas"] = {
short = "Neural architecture search that uses cheaper proxy evaluations such as fewer training epochs, smaller subsets, or reduced resolution to estimate the relative quality of candidate architectures before committing to full training.",
article = nil,
aliases = { "multi-fidelity neural architecture search", "MF-NAS", "multifidelity NAS" },
es = "Búsqueda de arquitecturas neuronales que utiliza evaluaciones baratas (menos épocas, subconjuntos más pequeños, resolución reducida) para estimar la calidad relativa de las arquitecturas candidatas antes de entrenarlas por completo.",
zh = "神经架构搜索的一类方法,使用更廉价的代理评估(如较少的训练轮数、子集数据或降低的分辨率)来估计候选架构的相对优劣,从而避免对每个架构进行完整训练。",
term_es = "NAS multi-fidelidad",
term_zh = "多保真度神经架构搜索",
aliases_es = { "búsqueda de arquitecturas multi-fidelidad", "MF-NAS" },
aliases_zh = { "多精度 NAS", "MF-NAS" },
}
data["multi-head attention"] = {
short = "An attention layer that runs several scaled dot-product attention operations in parallel over different learned projections of queries, keys, and values, then concatenates and projects the results.",
article = "Attention Mechanisms",
aliases = { "MHA", "Multi-Head Attention", "multihead attention", "multi head attention" },
es = "Capa de atención que ejecuta varias operaciones de atención por producto punto escalado en paralelo sobre distintas proyecciones aprendidas de consultas, claves y valores, y luego concatena y proyecta los resultados.",
zh = "一种注意力层,对查询、键和值的不同可学习投影并行执行多次缩放点积注意力,然后将结果拼接并进行投影。",
term_es = "atención multi-cabeza",
term_zh = "多头注意力",
aliases_es = { "MHA", "multi-head attention", "atención multicabezal" },
aliases_zh = { "MHA", "multi-head attention", "多头注意力机制" },
}
data["multi-hop question answering"] = {
short = "Question-answering tasks where the answer cannot be obtained from a single passage or fact and instead requires combining evidence from two or more documents, knowledge-graph edges, or reasoning steps.",
article = nil,
aliases = { "multi-hop QA", "multihop question answering", "multi hop question answering", "multi-hop QA task" },
es = "Tareas de respuesta a preguntas en las que la respuesta no puede obtenerse de un único pasaje o hecho, sino que requieren combinar evidencia de dos o más documentos, aristas de un grafo de conocimiento o pasos de razonamiento.",
zh = "一类问答任务,答案无法从单一段落或事实中直接获得,而需要综合两个或多个文档、知识图谱边或推理步骤的证据。",
term_es = "respuesta a preguntas multietapa",
term_zh = "多跳问答",
aliases_es = { "multi-hop QA", "QA multietapa", "QA multisalto" },
aliases_zh = { "多跳 QA", "多跳问题回答", "multi-hop 问答" },
}
data["multi-hop reasoning"] = {
short = "Inference that chains together multiple intermediate facts or rules to derive a conclusion that no single fact entails. Common in knowledge-graph completion, multi-document reading comprehension, and chain-of-thought prompting.",
article = nil,
aliases = { "multihop reasoning", "multi hop reasoning", "multi-step reasoning", "multi-step inference" },
es = "Inferencia que encadena múltiples hechos o reglas intermedias para derivar una conclusión que ningún hecho único implica por sí solo. Es común en el completado de grafos de conocimiento, la comprensión de lectura multidocumento y el prompting de cadena de pensamiento.",
zh = "一种推理形式,通过将多个中间事实或规则串联起来得出任何单一事实都无法直接蕴含的结论,常见于知识图谱补全、多文档阅读理解和思维链提示。",
term_es = "razonamiento multietapa",
term_zh = "多跳推理",
aliases_es = { "razonamiento multisalto", "razonamiento de múltiples pasos" },
aliases_zh = { "多步推理", "多跳推断", "multi-hop 推理" },
}
data["multi-image reasoning"] = {
short = "A capability of vision-language models in which a model jointly attends to two or more input images and produces an answer that depends on relations, comparisons, or temporal changes among them.",
article = nil,
aliases = { "multi-image reasoning", "multi image reasoning", "reasoning over multiple images" },
es = "Capacidad de los modelos de visión-lenguaje para atender conjuntamente a dos o más imágenes de entrada y generar una respuesta que depende de relaciones, comparaciones o cambios temporales entre ellas.",
zh = "视觉-语言模型同时关注两张或多张输入图像,并基于它们之间的关系、对比或时序变化给出答案的能力。",
term_es = "razonamiento multi-imagen",
term_zh = "多图推理",
aliases_es = { "razonamiento sobre múltiples imágenes", "multi-image reasoning" },
aliases_zh = { "多图像推理", "multi-image reasoning" },
}
data["multi-image vqa"] = {
short = "A visual question answering setting where the model must answer a question grounded in two or more images, requiring cross-image comparison, aggregation, or change detection rather than single-image perception.",
article = nil,
aliases = { "multi-image VQA", "multi-image visual question answering", "multi image VQA" },
es = "Variante de respuesta visual a preguntas en la que el modelo debe responder a una pregunta apoyándose en dos o más imágenes, requiriendo comparación, agregación o detección de cambios entre ellas en lugar de percepción de una sola imagen.",
zh = "视觉问答的一种变体,模型需基于两张或多张图像回答问题,要求跨图像的比较、聚合或变化检测,而非单图感知。",
term_es = "VQA multi-imagen",
term_zh = "多图视觉问答",
aliases_es = { "respuesta visual a preguntas multi-imagen", "multi-image VQA" },
aliases_zh = { "多图像视觉问答", "multi-image VQA" },
}
data["multi-input multi-output ensemble"] = {
short = "An ensemble obtained by training a single network with multiple parallel input/output heads so that each subnetwork acts as an independent ensemble member, sharing most of the weights (Havasi et al. 2021).",
article = nil,
aliases = { "MIMO ensemble", "MIMO networks", "multi input multi output ensemble", "MIMO" },
es = "Conjunto obtenido al entrenar una sola red con múltiples cabezas paralelas de entrada y salida, de modo que cada subred actúe como un miembro independiente del conjunto compartiendo la mayoría de los pesos (Havasi et al. 2021).",
zh = "通过训练具有多个并行输入/输出头的单一网络得到的集成,每个子网络在共享大部分权重的同时充当独立的集成成员(Havasi 等人,2021)。",
term_es = "conjunto multi-entrada multi-salida",
term_zh = "多输入多输出集成",
aliases_es = { "MIMO", "ensemble MIMO" },
aliases_zh = { "MIMO", "MIMO 集成", "多头集成" },
}
data["multi-krum"] = {
short = "A Byzantine-robust aggregation rule that extends Krum by selecting the m client updates with the smallest sum of squared distances to their nearest neighbors and averaging them, balancing robustness and statistical efficiency.",
article = nil,
aliases = { "Multi-Krum", "Multi-KRUM", "extended Krum", "robust aggregation (Multi-Krum)" },
es = "Regla de agregación robusta a fallos bizantinos que extiende Krum seleccionando las m actualizaciones de clientes con la menor suma de distancias al cuadrado a sus vecinos más cercanos y promediándolas, equilibrando robustez y eficiencia estadística.",
zh = "一种抗拜占庭聚合规则:在 Krum 的基础上,选择到最近邻距离平方和最小的 m 个客户端更新并对其求平均,在鲁棒性与统计效率之间取得平衡。",
term_es = "Multi-Krum",
term_zh = "Multi-Krum",
aliases_es = { "Multi-KRUM", "Krum extendido" },
aliases_zh = { "Multi-KRUM", "扩展 Krum", "多 Krum 聚合" },
}
data["multi-label audio classification"] = {
short = "An audio classification setting in which each clip can be assigned multiple non-exclusive labels simultaneously (e.g., several sound events or tags), trained with sigmoid outputs and per-class binary cross-entropy.",
article = nil,
aliases = { "multilabel audio classification", "multi-label audio tagging", "audio multi-label classification" },
es = "Configuración de clasificación de audio en la que cada fragmento puede recibir simultáneamente varias etiquetas no excluyentes (por ejemplo, varios eventos sonoros o etiquetas), entrenada con salidas sigmoides y entropía cruzada binaria por clase.",
zh = "一种音频分类设定,每段音频可同时被赋予多个互不排斥的标签(例如多个声音事件或标记),通常使用 sigmoid 输出和按类二元交叉熵进行训练。",
term_es = "clasificación de audio multietiqueta",
term_zh = "多标签音频分类",
aliases_es = { "clasificación multi-etiqueta de audio", "etiquetado multietiqueta de audio" },
aliases_zh = { "多标签音频标注", "音频多标签分类" },
}
data["multi-layer perceptron"] = {
short = "A feedforward neural network composed of an input layer, one or more fully connected hidden layers with nonlinear activations, and an output layer; trained by backpropagation.",
article = "Neural Networks",
aliases = { "MLP", "multilayer perceptron", "fully connected network", "FCN", "feedforward network" },
es = "Red neuronal de propagación hacia adelante compuesta por una capa de entrada, una o más capas ocultas totalmente conectadas con activaciones no lineales y una capa de salida; se entrena mediante retropropagación.",
zh = "一种前馈神经网络,由输入层、一个或多个带非线性激活的全连接隐藏层以及输出层组成,通过反向传播进行训练。",
term_es = "perceptrón multicapa",
term_zh = "多层感知机",
aliases_es = { "MLP", "red totalmente conectada", "red completamente conectada" },
aliases_zh = { "MLP", "多层感知器", "全连接网络" },
}
data["multi-lora"] = {
short = "A serving technique that loads many LoRA adapters on top of a single shared base model and dispatches each request through the appropriate adapter, enabling cost-efficient multi-tenant fine-tuned model serving.",
article = nil,
aliases = { "Multi-LoRA", "multi-LoRA serving", "S-LoRA", "LoRAX" },
es = "Técnica de servicio que carga numerosos adaptadores LoRA sobre un único modelo base compartido y despacha cada solicitud a través del adaptador adecuado, permitiendo servir modelos ajustados multi-tenant de forma rentable.",
zh = "一种推理服务技术,在共享的单一基础模型之上加载多个 LoRA 适配器,并将每个请求路由到相应的适配器,从而以低成本提供多租户的微调模型服务。",
term_es = "multi-LoRA",
term_zh = "Multi-LoRA",
aliases_es = { "S-LoRA", "servicio multi-LoRA" },
aliases_zh = { "S-LoRA", "LoRAX", "多 LoRA" },
}
data["multi-modal explanation"] = {
short = "An explanation that combines two or more modalities — for example a saliency heatmap together with a natural-language rationale, or text plus audio cues — to convey why a multi-modal model produced its output.",
article = nil,
aliases = { "multimodal explanation", "multi modal explanation", "multimodal explanations" },
es = "Explicación que combina dos o más modalidades —por ejemplo, un mapa de saliencia junto con una justificación en lenguaje natural, o texto más pistas de audio— para transmitir por qué un modelo multimodal produjo su salida.",
zh = "结合两种或多种模态的解释方式,例如同时给出显著性热图与自然语言理由,或文字加音频线索,以说明多模态模型为何产生该输出。",
term_es = "explicación multimodal",
term_zh = "多模态解释",
aliases_es = { "explicaciones multimodales" },
aliases_zh = { "多模态可解释性", "跨模态解释" },
}
data["multi-objective bayesian optimization"] = {
short = "Bayesian optimization that targets several conflicting objectives simultaneously, returning a Pareto front rather than a single optimum; common acquisition functions include expected hypervolume improvement (EHVI) and ParEGO.",
article = nil,
aliases = { "MOBO", "multi-objective BO", "multiobjective Bayesian optimization", "multi-objective bayesian optimisation" },
es = "Optimización bayesiana que aborda varios objetivos en conflicto de forma simultánea y devuelve un frente de Pareto en lugar de un óptimo único; las funciones de adquisición comunes incluyen la mejora esperada del hipervolumen (EHVI) y ParEGO.",
zh = "同时针对多个相互冲突目标的贝叶斯优化,返回帕累托前沿而非单一最优解;常用的采集函数包括期望超体积改进(EHVI)和 ParEGO。",
term_es = "optimización bayesiana multi-objetivo",
term_zh = "多目标贝叶斯优化",
aliases_es = { "BO multi-objetivo", "MOBO" },
aliases_zh = { "多目标 BO", "MOBO" },
}
data["multi-objective evolutionary algorithm"] = {
short = "Evolutionary algorithm that optimizes multiple objectives simultaneously by maintaining a population approximating the Pareto front; canonical instances include NSGA-II, NSGA-III, SPEA2, and MOEA/D.",
article = nil,
aliases = { "MOEA", "multiobjective evolutionary algorithm", "multi-objective EA" },
es = "Algoritmo evolutivo que optimiza varios objetivos a la vez manteniendo una población que aproxima el frente de Pareto; ejemplos canónicos son NSGA-II, NSGA-III, SPEA2 y MOEA/D.",
zh = "同时优化多个目标的进化算法,通过维护逼近帕累托前沿的种群进行搜索;典型代表包括 NSGA-II、NSGA-III、SPEA2 和 MOEA/D。",
term_es = "algoritmo evolutivo multi-objetivo",
term_zh = "多目标进化算法",
aliases_es = { "MOEA", "EA multi-objetivo" },
aliases_zh = { "MOEA", "多目标演化算法" },
}
data["multi-objective molecular optimization"] = {
short = "Molecular optimization formulated to balance several objectives simultaneously — e.g., potency, selectivity, solubility, and synthetic accessibility — typically tackled with Pareto-based search, scalarized rewards, or multi-objective Bayesian optimization.",
article = nil,
aliases = { "multi-objective optimization for molecules", "Pareto molecular optimization", "MOO molecular optimization" },
es = "Optimización molecular formulada para balancear varios objetivos simultáneamente —p. ej., potencia, selectividad, solubilidad y accesibilidad sintética— abordada típicamente con búsqueda basada en Pareto, recompensas escalarizadas u optimización bayesiana multiobjetivo.",
zh = "需要同时权衡多项目标(如活性、选择性、溶解度和合成可及性)的分子优化,通常采用基于 Pareto 的搜索、标量化奖励或多目标贝叶斯优化来求解。",
term_es = "optimización molecular multiobjetivo",
term_zh = "多目标分子优化",
aliases_es = { "optimización multiobjetivo de moléculas", "optimización molecular de Pareto" },
aliases_zh = { "分子多目标优化", "Pareto 分子优化" },
}
data["multi-objective nas"] = {
short = "Neural architecture search that jointly optimizes accuracy with one or more deployment-relevant objectives such as latency, memory, FLOPs, or energy, producing a Pareto front of architectures.",
article = nil,
aliases = { "multi-objective neural architecture search", "MO-NAS", "Pareto NAS" },
es = "Búsqueda de arquitecturas neuronales que optimiza conjuntamente la precisión con uno o varios objetivos de despliegue, como latencia, memoria, FLOPs o energía, produciendo un frente de Pareto de arquitecturas.",
zh = "同时优化精度与一个或多个部署相关目标(如延迟、内存、FLOPs 或能耗)的神经架构搜索方法,输出架构的帕累托前沿。",
term_es = "NAS multi-objetivo",
term_zh = "多目标神经架构搜索",
aliases_es = { "búsqueda de arquitecturas multi-objetivo", "MO-NAS", "NAS de Pareto" },
aliases_zh = { "多目标 NAS", "帕累托 NAS" },
}
data["multi-omics integration"] = {
short = "Computational methods that jointly analyze data from multiple omics layers (e.g., genomics, transcriptomics, proteomics, metabolomics, epigenomics) to recover shared biological signals that no single modality could capture alone.",
article = nil,
aliases = { "multiomics integration", "multi-omic integration", "integrative omics", "joint omics analysis", "multi-omics data integration" },
es = "Métodos computacionales que analizan conjuntamente datos de varias capas ómicas (por ejemplo, genómica, transcriptómica, proteómica, metabolómica, epigenómica) para recuperar señales biológicas compartidas que ninguna modalidad podría capturar por sí sola.",
zh = "联合分析多种组学层数据(如基因组学、转录组学、蛋白质组学、代谢组学和表观基因组学)的计算方法,旨在挖掘单一组学无法捕获的共享生物学信号。",
term_es = "integración multiómica",
term_zh = "多组学整合",
aliases_es = { "integración multi-ómica", "ómica integrativa", "análisis ómico conjunto", "integración de datos multiómicos" },
aliases_zh = { "多组学数据整合", "多组学集成", "整合组学分析", "联合组学分析" },
}
data["multi-output deep gp"] = {
short = "A deep Gaussian process whose final layer produces vector-valued outputs and is augmented with a coregionalization or linear mixing kernel to model correlations across outputs.",
article = nil,
aliases = { "multi-output deep Gaussian process", "MO-DGP", "multioutput deep GP" },
es = "Proceso gaussiano profundo cuya capa final produce salidas vectoriales y se complementa con un núcleo de coregionalización o mezcla lineal para modelar correlaciones entre salidas.",
zh = "一种深度高斯过程:最后一层输出向量值,并通过协区域化核或线性混合核建模各输出之间的相关性。",
term_es = "GP profundo multi-salida",
term_zh = "多输出深度 GP",
aliases_es = { "DGP multi-salida", "proceso gaussiano profundo multi-salida" },
aliases_zh = { "多输出深度高斯过程", "MO-DGP" },
}
data["multi-output gaussian process"] = {
short = "A Gaussian process producing vector-valued outputs whose joint kernel captures correlations among outputs, often constructed via the linear model of coregionalization or convolutional kernels.",
article = nil,
aliases = { "multi-output GP", "MOGP", "multioutput Gaussian process", "vector-valued Gaussian process" },
es = "Proceso gaussiano que produce salidas vectoriales cuyo núcleo conjunto captura correlaciones entre las salidas, construido a menudo mediante el modelo lineal de coregionalización o con núcleos convolucionales.",
zh = "一种输出为向量的高斯过程,其联合核刻画各输出之间的相关性,常通过线性协区域化模型或卷积核构造。",
term_es = "proceso gaussiano multi-salida",
term_zh = "多输出高斯过程",
aliases_es = { "GP multi-salida", "MOGP", "GP de salida vectorial" },
aliases_zh = { "MOGP", "向量值高斯过程", "多输出 GP" },
}
data["multi-party computation"] = {
short = "A cryptographic framework that allows multiple parties to jointly compute a function over their private inputs while revealing nothing beyond the output, used in privacy-preserving machine learning and secure aggregation.",
article = nil,
aliases = { "MPC", "secure multi-party computation", "SMPC", "secure computation" },
es = "Marco criptográfico que permite a varias partes calcular conjuntamente una función sobre sus entradas privadas sin revelar nada más allá de la salida; se usa en aprendizaje automático con privacidad y en agregación segura.",
zh = "一种密码学框架:多方在不泄露各自私有输入(仅暴露最终输出)的前提下共同计算一个函数;在隐私保护机器学习与安全聚合中广泛使用。",
term_es = "computación multiparte",
term_zh = "多方计算",
aliases_es = { "MPC", "computación multiparte segura", "SMPC", "cómputo seguro multipartito" },
aliases_zh = { "MPC", "SMPC", "安全多方计算", "多方安全计算" },
}
data["multi-pitch estimation"] = {
short = "The task of estimating the multiple simultaneous fundamental frequencies present at each time step in polyphonic audio, often as a precursor to automatic music transcription.",
article = nil,
aliases = { "multipitch estimation", "multi-f0 estimation", "multiple f0 estimation", "polyphonic pitch estimation" },
es = "Tarea de estimar las múltiples frecuencias fundamentales simultáneas presentes en cada instante de audio polifónico, a menudo como paso previo a la transcripción musical automática.",
zh = "在复音音频中估计每个时间点同时存在的多个基频的任务,常作为自动音乐转录的前置步骤。",
term_es = "estimación multi-pitch",
term_zh = "多音高估计",
aliases_es = { "estimación de múltiples f0", "estimación de pitch polifónico" },
aliases_zh = { "多基频估计", "复音音高估计" },
}
data["multi-query attention"] = {
short = "An attention variant in which all query heads share a single key and value head, drastically reducing KV cache size and memory bandwidth at modest quality cost.",
article = nil,
aliases = { "MQA", "Multi-Query Attention", "multi query attention" },
es = "Variante de atención en la que todas las cabezas de consulta comparten una única cabeza de clave y valor, reduciendo drásticamente el tamaño de la caché KV y el ancho de banda de memoria con un costo modesto en calidad.",
zh = "一种注意力变体,所有查询头共享一个键头和一个值头,从而大幅降低 KV 缓存大小和显存带宽,仅带来较小的质量损失。",
term_es = "MQA",
term_zh = "多查询注意力",
aliases_es = { "MQA", "multi-query attention", "atención multi-consulta" },
aliases_zh = { "MQA", "multi-query attention", "多查询注意力机制" },
}
data["multi-query retrieval"] = {
short = "A retrieval strategy that uses an LLM to rewrite a user query into multiple paraphrased or perspective-shifted variants, retrieves documents for each, and unions the results to improve recall.",
article = nil,
aliases = { "MultiQuery retrieval", "multi-query rewriting", "query expansion retrieval", "MultiQueryRetriever" },
es = "Estrategia de recuperación que usa un LLM para reescribir la consulta del usuario en múltiples variantes parafraseadas o con cambios de perspectiva, recupera documentos para cada una y une los resultados para mejorar el recall.",
zh = "一种检索策略,利用 LLM 将用户查询改写为多个释义或视角变体,对每个变体分别检索文档,并合并结果以提高召回率。",
term_es = "recuperación multi-query",
term_zh = "多查询检索",
aliases_es = { "reescritura multi-query", "expansión de consultas" },
aliases_zh = { "MultiQuery 检索", "多查询改写" },
}
data["multi-relational graph"] = {
short = "A graph in which edges carry one of several relation types, equivalently a labelled directed graph or knowledge graph. The standard data structure for relational learning, link prediction, and KG embedding.",
article = nil,
aliases = { "multirelational graph", "multi relational graph", "multi-relational network", "labelled multi-relational graph" },
es = "Grafo en el que cada arista lleva uno de varios tipos de relación; equivalentemente, un grafo dirigido etiquetado o grafo de conocimiento. Es la estructura de datos estándar para aprendizaje relacional, predicción de enlaces y embeddings de KG.",
zh = "一种图结构,其每条边都带有多种关系类型之一,等价于带标签的有向图或知识图谱。它是关系学习、链接预测和知识图谱嵌入的标准数据结构。",
term_es = "grafo multirrelacional",
term_zh = "多关系图",
aliases_es = { "grafo multi-relacional", "red multirrelacional" },
aliases_zh = { "多关系网络", "多关系图谱", "带标签的多关系图" },
}
data["multi-sample objective"] = {
short = "A variational training objective, such as the IWAE bound, that uses K importance-weighted samples per data point to obtain a tighter lower bound on the log marginal likelihood than the standard ELBO.",
article = nil,
aliases = { "importance-weighted objective", "multi sample bound", "K-sample objective", "multi-sample bound" },
es = "Objetivo variacional de entrenamiento, como la cota IWAE, que utiliza K muestras ponderadas por importancia por punto de datos para obtener una cota inferior más ajustada del log-verosímil marginal que el ELBO estándar.",
zh = "一种变分训练目标(如 IWAE 界),对每个数据点使用 K 个重要性加权样本,以得到比标准 ELBO 更紧的对数边际似然下界。",
term_es = "objetivo de múltiples muestras",
term_zh = "多样本目标",
aliases_es = { "objetivo ponderado por importancia", "cota multi-muestra" },
aliases_zh = { "重要性加权目标", "K 样本目标", "多样本下界" },
}
data["multi-singer tts"] = {
short = "A singing voice synthesis system that can generate the voices of multiple distinct singers from text or musical score, typically conditioned on a singer identity or embedding.",
article = nil,
aliases = { "multi-singer TTS", "multi-singer SVS", "multi-singer singing synthesis", "multispeaker singing synthesis" },
es = "Sistema de síntesis de voz cantada capaz de generar las voces de varios cantantes distintos a partir de texto o partitura, condicionando habitualmente la generación a una identidad o embedding de cantante.",
zh = "一种歌声合成系统,可从文本或乐谱生成多位不同歌手的歌声,通常以歌手身份或嵌入向量作为条件。",
term_es = "síntesis de canto multi-cantante",
term_zh = "多歌手歌声合成",
aliases_es = { "TTS multi-cantante", "SVS multi-cantante" },
aliases_zh = { "多歌手TTS", "多歌手SVS" },
}
data["multi-speaker tts"] = {
short = "A text-to-speech system capable of synthesizing speech in multiple distinct voices, typically conditioned on a speaker identifier or speaker embedding.",
article = nil,
aliases = { "multi-speaker text-to-speech", "multispeaker TTS", "multi speaker TTS" },
es = "Sistema de síntesis de voz capaz de generar habla en múltiples voces distintas, normalmente condicionado por un identificador o un embedding de hablante.",
zh = "一种文本转语音系统,能够合成多种不同说话人的语音,通常以说话人标识符或说话人嵌入作为条件。",
term_es = "TTS multi-hablante",
term_zh = "多说话人TTS",
aliases_es = { "TTS de múltiples hablantes", "síntesis de voz multi-hablante" },
aliases_zh = { "多说话人语音合成", "多发音人TTS" },
}
data["multi-stakeholder fairness"] = {
short = "Fairness frameworks for systems such as recommender systems or marketplaces where multiple parties (users, providers, platform) have distinct and possibly conflicting fairness concerns that must be balanced jointly.",
article = nil,
aliases = { "multi stakeholder fairness", "multistakeholder fairness" },
es = "Marcos de equidad para sistemas como recomendadores o mercados en los que múltiples partes (usuarios, proveedores, plataforma) tienen preocupaciones de equidad distintas y posiblemente en conflicto que deben equilibrarse de forma conjunta.",
zh = "针对推荐系统或市场等系统的公平性框架,其中多个相关方(用户、提供者、平台)具有不同且可能相互冲突的公平性诉求,需要联合权衡。",
term_es = "equidad multistakeholder",
term_zh = "多利益相关方公平性",
aliases_es = { "equidad multipartícipe", "equidad para múltiples partes interesadas" },
aliases_zh = { "多方公平", "多利益相关者公平" },
}
data["multi-swag"] = {
short = "An ensemble of SWAG (Stochastic Weight Averaging-Gaussian) approximations obtained from independent SGD runs, combining deep ensembles with low-rank Gaussian posteriors over weights (Wilson & Izmailov 2020).",
article = nil,
aliases = { "MultiSWAG", "Multi-SWAG", "Multi SWAG" },
es = "Conjunto de aproximaciones SWAG (Stochastic Weight Averaging-Gaussian) obtenidas a partir de ejecuciones independientes de SGD, que combina conjuntos profundos con posteriores gaussianos de bajo rango sobre los pesos (Wilson e Izmailov, 2020).",
zh = "由多次独立 SGD 训练得到的若干 SWAG(随机权重平均-高斯)近似组成的集成,将深度集成与权重上的低秩高斯后验相结合(Wilson 与 Izmailov,2020)。",
term_es = "MultiSWAG",
term_zh = "MultiSWAG",
aliases_es = { "MultiSWAG", "Multi-SWAG" },
aliases_zh = { "MultiSWAG", "Multi-SWAG", "多 SWAG" },
}
data["multi-task bayesian optimization"] = {
short = "Bayesian optimization that shares information across related tasks via a multi-task surrogate (e.g., a multi-output Gaussian process), enabling warm-starting and transfer between hyperparameter optimization problems.",
article = nil,
aliases = { "MTBO", "multi-task BO", "multitask Bayesian optimization", "multi-task bayesian optimisation" },
es = "Optimización bayesiana que comparte información entre tareas relacionadas mediante un surrogate multi-tarea (p. ej., un proceso gaussiano de múltiples salidas), permitiendo el arranque en caliente y la transferencia entre problemas de optimización de hiperparámetros.",
zh = "通过多任务代理模型(如多输出高斯过程)在相关任务之间共享信息的贝叶斯优化方法,可在不同超参数优化问题间实现热启动和迁移。",
term_es = "optimización bayesiana multi-tarea",
term_zh = "多任务贝叶斯优化",
aliases_es = { "BO multi-tarea", "MTBO" },
aliases_zh = { "多任务 BO", "MTBO" },
}
data["multi-task gaussian process"] = {
short = "A Gaussian process model in which several related tasks share information through a kernel that factorizes into an input kernel and a task covariance matrix, enabling transfer across tasks (Bonilla et al. 2008).",
article = nil,
aliases = { "multitask Gaussian process", "MTGP", "multi-task GP" },
es = "Modelo de proceso gaussiano en el que varias tareas relacionadas comparten información mediante un núcleo que se factoriza como un núcleo de entrada y una matriz de covarianza entre tareas, permitiendo transferencia entre tareas (Bonilla et al. 2008).",
zh = "一种高斯过程模型:多个相关任务通过可分解为输入核和任务协方差矩阵的核共享信息,从而实现任务间迁移(Bonilla 等人,2008)。",
term_es = "proceso gaussiano multitarea",
term_zh = "多任务高斯过程",
aliases_es = { "GP multitarea", "MTGP" },
aliases_zh = { "MTGP", "多任务 GP" },
}
data["multi-task learning"] = {
short = "A learning paradigm in which a single model is trained jointly on several related tasks, sharing representations to improve generalization and data efficiency on each task.",
article = nil,
aliases = { "MTL", "multitask learning", "joint training", "joint multi-task learning" },
es = "Paradigma de aprendizaje en el que un único modelo se entrena conjuntamente sobre varias tareas relacionadas, compartiendo representaciones para mejorar la generalización y la eficiencia de datos en cada tarea.",
zh = "一种学习范式,单个模型在多个相关任务上联合训练,通过共享表示来提升每个任务的泛化能力和数据效率。",
term_es = "aprendizaje multitarea",
term_zh = "多任务学习",
aliases_es = { "MTL", "aprendizaje multi-tarea", "entrenamiento conjunto" },
aliases_zh = { "MTL", "联合训练", "多任务训练" },
}
data["multi-vector retrieval"] = {
short = "A dense retrieval approach that represents each document with multiple vectors (e.g., one per token, chunk, or summary) and scores against a query using late interaction or max-similarity pooling, as in ColBERT.",
article = nil,
aliases = { "multi-vector dense retrieval", "late interaction retrieval", "multi-vector embeddings" },
es = "Enfoque de recuperación densa que representa cada documento con múltiples vectores (por ejemplo, uno por token, fragmento o resumen) y los puntúa frente a una consulta mediante interacción tardía o agrupación por máxima similitud, como en ColBERT.",
zh = "一种稠密检索方法,用多个向量(例如每个 token、片段或摘要一个向量)表示每个文档,并通过 ColBERT 等所采用的延迟交互或最大相似度池化与查询打分。",
term_es = "recuperación multi-vector",
term_zh = "多向量检索",
aliases_es = { "recuperación con interacción tardía", "embeddings multi-vector" },
aliases_zh = { "多向量稠密检索", "延迟交互检索" },
}
data["multiaccuracy"] = {
short = "A fairness criterion introduced by Hébert-Johnson et al. requiring that a predictor's expected error be small on every subgroup in a rich, computationally identifiable family, providing accuracy guarantees beyond marginal accuracy.",
article = nil,
aliases = { "multi-accuracy", "multi accuracy" },
es = "Criterio de equidad introducido por Hébert-Johnson et al. que exige que el error esperado de un predictor sea pequeño en cada subgrupo de una familia rica y computacionalmente identificable, ofreciendo garantías de exactitud más allá de la exactitud marginal.",
zh = "由 Hébert-Johnson 等人提出的公平性准则,要求预测器在某个丰富且可计算辨识的子群体族中,每个子群体上的期望误差都较小,从而提供超越边际准确率的精度保证。",
term_es = "multiexactitud",
term_zh = "多准确性",
aliases_es = { "multi-exactitud", "multi-precisión" },
aliases_zh = { "多精度公平", "multiaccuracy" },
}
data["multicalibration"] = {
short = "A fairness criterion introduced by Hébert-Johnson et al. requiring that a predictor be calibrated on every subgroup in a rich, computationally identifiable family, strengthening calibration to hold within fine-grained subpopulations.",
article = nil,
aliases = { "multi-calibration", "multi calibration" },
es = "Criterio de equidad introducido por Hébert-Johnson et al. que exige que un predictor esté calibrado en cada subgrupo de una familia rica y computacionalmente identificable, reforzando la calibración para que se cumpla en subpoblaciones de grano fino.",
zh = "由 Hébert-Johnson 等人提出的公平性准则,要求预测器在某个丰富且可计算辨识的子群体族中每个子群体上都得到校准,将校准强化到细粒度子群体层面。",
term_es = "multicalibración",
term_zh = "多重校准",
aliases_es = { "multi-calibración" },
aliases_zh = { "多校准", "multicalibration" },
}
data["multifidelity gp"] = {
short = "A Gaussian process model that fuses observations from multiple fidelity levels — for example cheap low-fidelity simulations and expensive high-fidelity ones — using a kernel structure that ties the levels together for cost-efficient prediction.",
article = nil,
aliases = { "multifidelity Gaussian process", "multi-fidelity GP", "multi-fidelity Gaussian process", "MFGP" },
es = "Modelo de proceso gaussiano que fusiona observaciones de múltiples niveles de fidelidad —por ejemplo, simulaciones baratas de baja fidelidad y costosas de alta fidelidad— mediante una estructura de núcleo que vincula los niveles para una predicción eficiente en coste.",
zh = "一种高斯过程模型:通过将各保真度层级关联起来的核结构融合多保真度的观测(例如廉价的低保真仿真与昂贵的高保真仿真),实现成本高效的预测。",
term_es = "GP multifidelidad",
term_zh = "多保真度 GP",
aliases_es = { "proceso gaussiano multifidelidad", "MFGP" },
aliases_zh = { "多保真度高斯过程", "MFGP" },
}
data["multilingual asr"] = {
short = "Automatic speech recognition systems trained to transcribe speech across multiple languages within a single shared model, often leveraging language identification or language-conditioning inputs.",
article = nil,
aliases = { "multilingual automatic speech recognition", "multi-lingual ASR", "polyglot ASR" },
es = "Sistemas de reconocimiento automático de voz entrenados para transcribir habla en múltiples idiomas con un único modelo compartido, a menudo aprovechando identificación o condicionamiento por idioma.",
zh = "在单一共享模型中训练以转写多种语言语音的自动语音识别系统,通常借助语言识别或语言条件输入。",
term_es = "ASR multilingüe",
term_zh = "多语言ASR",
aliases_es = { "reconocimiento automático de voz multilingüe" },
aliases_zh = { "多语种语音识别", "多语言语音识别" },
}
data["multilingual librispeech"] = {
short = "A large-scale multilingual speech recognition corpus derived from public-domain audiobooks, covering eight European languages and providing a standard benchmark for multilingual ASR.",
article = nil,
aliases = { "MLS", "MLS dataset", "Multilingual LibriSpeech" },
es = "Corpus multilingüe de gran escala para reconocimiento de voz derivado de audiolibros de dominio público, que abarca ocho idiomas europeos y constituye una referencia estándar para ASR multilingüe.",
zh = "源自公有领域有声书的大规模多语言语音识别语料库,涵盖八种欧洲语言,是多语言ASR的标准基准。",
term_es = "Multilingual LibriSpeech",
term_zh = "Multilingual LibriSpeech",
aliases_es = { "MLS", "LibriSpeech multilingüe" },
aliases_zh = { "MLS", "多语言LibriSpeech" },
}
data["multimodal adapter"] = {
short = "A small set of trainable parameters inserted between a frozen vision encoder and a frozen language model to bridge their representations, enabling parameter-efficient adaptation of multimodal LLMs.",
article = nil,
aliases = { "multimodal adapter", "multi-modal adapter", "vision-language adapter", "VL adapter" },
es = "Conjunto reducido de parámetros entrenables que se inserta entre un codificador visual congelado y un modelo de lenguaje congelado para conectar sus representaciones, permitiendo una adaptación eficiente en parámetros de los LLM multimodales.",
zh = "插入在冻结的视觉编码器与冻结的语言模型之间的少量可训练参数,用于连接两者的表示,从而实现多模态大模型的参数高效适配。",
term_es = "adaptador multimodal",
term_zh = "多模态适配器",
aliases_es = { "adaptador visión-lenguaje", "multimodal adapter" },
aliases_zh = { "视觉-语言适配器", "multimodal adapter" },
}
data["multimodal alignment loss"] = {
short = "A training objective that pushes representations of paired inputs from different modalities (for example an image and its caption) closer together while separating non-matching pairs in a shared embedding space.",
article = nil,
aliases = { "multimodal alignment loss", "multi-modal alignment loss", "cross-modal alignment loss" },
es = "Función de pérdida que acerca, en un espacio de representación compartido, las representaciones de pares emparejados de distintas modalidades (por ejemplo, una imagen y su descripción) y aleja los pares no coincidentes.",
zh = "一种训练目标,在共享的表示空间中拉近来自不同模态的配对输入(例如图像与其描述)的表示,同时拉远不匹配的对。",
term_es = "pérdida de alineación multimodal",
term_zh = "多模态对齐损失",
aliases_es = { "pérdida de alineación cross-modal", "multimodal alignment loss" },
aliases_zh = { "跨模态对齐损失", "multimodal alignment loss" },
}
data["multimodal attention"] = {
short = "An attention mechanism in which queries from one modality (such as text tokens) attend to keys and values from another (such as image patches), enabling cross-modal information exchange inside a transformer.",
article = "Attention Mechanisms",
aliases = { "multimodal attention", "cross-modal attention", "multi-modal attention" },
es = "Mecanismo de atención en el que las consultas de una modalidad (por ejemplo, tokens de texto) atienden a claves y valores de otra (por ejemplo, parches de imagen), permitiendo el intercambio de información entre modalidades dentro de un transformador.",
zh = "一种注意力机制,其中一个模态(如文本 token)的查询关注另一个模态(如图像 patch)的键和值,从而在 Transformer 内部实现跨模态信息交互。",
term_es = "atención multimodal",
term_zh = "多模态注意力",
aliases_es = { "atención cross-modal", "multimodal attention" },
aliases_zh = { "跨模态注意力", "multimodal attention" },
}
data["multimodal benchmark"] = {
short = "An evaluation suite that measures model performance across tasks involving more than one modality, such as image captioning, visual question answering, audio-text retrieval, or video reasoning.",
article = nil,
aliases = { "multimodal benchmark", "multi-modal benchmark", "vision-language benchmark" },
es = "Conjunto de evaluación que mide el rendimiento de un modelo en tareas que involucran más de una modalidad, como descripción de imágenes, respuesta visual a preguntas, recuperación audio-texto o razonamiento sobre vídeo.",
zh = "用于衡量模型在涉及多个模态任务上的表现的评测集合,例如图像描述、视觉问答、音频-文本检索或视频推理。",
term_es = "benchmark multimodal",
term_zh = "多模态基准测试",
aliases_es = { "punto de referencia multimodal", "multimodal benchmark" },
aliases_zh = { "多模态评测", "multimodal benchmark" },
}
data["multimodal chain-of-thought"] = {
short = "A prompting and training paradigm that elicits intermediate reasoning steps grounded in both vision and language inputs, often by interleaving image regions, captions, and rationales before producing a final answer.",
article = nil,
aliases = { "multimodal chain-of-thought", "multimodal CoT", "multi-modal chain of thought", "MCoT", "multimodal chain of thought" },
es = "Paradigma de uso y entrenamiento que provoca pasos intermedios de razonamiento apoyados tanto en señales visuales como textuales, a menudo intercalando regiones de imagen, subtítulos y justificaciones antes de la respuesta final.",
zh = "一种提示与训练范式,引导模型在给出最终答案前生成同时基于视觉和语言输入的中间推理步骤,常交替使用图像区域、描述与理由。",
term_es = "cadena de pensamiento multimodal",
term_zh = "多模态思维链",
aliases_es = { "multimodal CoT", "MCoT" },
aliases_zh = { "多模态 CoT", "MCoT" },
}
data["multimodal contrastive loss"] = {
short = "A contrastive objective applied to paired multimodal data that maximizes similarity between matched pairs (e.g., image and caption) while minimizing similarity to in-batch negatives, as used in CLIP and ALIGN.",
article = nil,
aliases = { "multimodal contrastive loss", "multi-modal contrastive loss", "cross-modal contrastive loss" },
es = "Función de pérdida contrastiva aplicada a datos multimodales emparejados que maximiza la similitud entre pares correctos (por ejemplo, imagen y subtítulo) y la minimiza frente a negativos del propio lote, como en CLIP y ALIGN.",
zh = "应用于成对多模态数据的对比损失,最大化匹配对(如图像与描述)的相似度,并最小化与同批次负样本的相似度,是 CLIP 和 ALIGN 等模型的核心目标。",
term_es = "pérdida contrastiva multimodal",
term_zh = "多模态对比损失",
aliases_es = { "pérdida contrastiva cross-modal", "multimodal contrastive loss" },
aliases_zh = { "跨模态对比损失", "multimodal contrastive loss" },
}
data["multimodal data filtering"] = {
short = "A preprocessing pipeline that removes low-quality, misaligned, duplicated, or unsafe image-text (or video-text) pairs from large multimodal corpora to improve training efficiency and downstream model quality.",
article = nil,
aliases = { "multimodal data filtering", "multi-modal data filtering", "image-text filtering", "vision-language data filtering" },
es = "Tubería de preprocesamiento que elimina pares imagen-texto (o vídeo-texto) de baja calidad, mal alineados, duplicados o no seguros de grandes corpus multimodales para mejorar la eficiencia de entrenamiento y la calidad del modelo final.",
zh = "一种预处理流程,从大规模多模态语料中剔除低质量、错位、重复或不安全的图文(或视频-文本)配对,以提高训练效率和下游模型质量。",
term_es = "filtrado de datos multimodales",
term_zh = "多模态数据过滤",
aliases_es = { "filtrado imagen-texto", "multimodal data filtering" },
aliases_zh = { "图文数据过滤", "multimodal data filtering" },
}
data["multimodal embedding"] = {
short = "A vector representation of inputs from multiple modalities placed in a shared space so that semantically related items, such as an image and its caption, lie close together regardless of their modality of origin.",
article = nil,
aliases = { "multimodal embedding", "multi-modal embedding", "joint embedding", "cross-modal embedding" },
es = "Representación vectorial de entradas de varias modalidades situadas en un espacio compartido, de modo que elementos semánticamente relacionados, como una imagen y su descripción, queden próximos independientemente de su modalidad de origen.",
zh = "将不同模态的输入映射到共享向量空间的表示形式,使语义相关的项目(如图像与其描述)无论来自哪种模态都彼此接近。",
term_es = "embedding multimodal",
term_zh = "多模态嵌入",
aliases_es = { "embedding conjunto", "multimodal embedding" },
aliases_zh = { "联合嵌入", "跨模态嵌入", "multimodal embedding" },
}
data["multimodal evaluation"] = {
short = "The systematic measurement of multimodal model performance, covering accuracy, alignment, robustness, hallucination, and bias across tasks that combine vision, language, audio, or other modalities.",
article = nil,
aliases = { "multimodal evaluation", "multi-modal evaluation", "vision-language evaluation" },
es = "Medición sistemática del rendimiento de modelos multimodales, abarcando exactitud, alineación, robustez, alucinación y sesgos en tareas que combinan visión, lenguaje, audio u otras modalidades.",
zh = "对多模态模型性能的系统性度量,涵盖准确性、对齐、鲁棒性、幻觉与偏差等方面,覆盖视觉、语言、音频等多模态结合的任务。",
term_es = "evaluación multimodal",
term_zh = "多模态评估",
aliases_es = { "evaluación visión-lenguaje", "multimodal evaluation" },
aliases_zh = { "多模态评测", "multimodal evaluation" },
}
data["multimodal foundation model"] = {
short = "A large pretrained model designed to ingest and produce multiple modalities (such as text, images, audio, or video) and to be adapted via prompting or fine-tuning to a wide range of downstream tasks.",
article = nil,
aliases = { "multimodal foundation model", "multi-modal foundation model", "MFM" },
es = "Modelo grande preentrenado diseñado para procesar y generar varias modalidades (como texto, imágenes, audio o vídeo) y adaptarse mediante prompting o ajuste fino a una amplia gama de tareas finales.",
zh = "一种大规模预训练模型,能够输入与生成多种模态(如文本、图像、音频或视频),并可通过提示或微调适配到广泛的下游任务。",
term_es = "modelo fundacional multimodal",
term_zh = "多模态基础模型",
aliases_es = { "MFM", "multimodal foundation model" },
aliases_zh = { "MFM", "multimodal foundation model" },
}
data["multimodal fusion"] = {
short = "The process of combining features from different modalities into a unified representation; common strategies include early fusion at the input level, late fusion at the decision level, and cross-attention based fusion inside a transformer.",
article = nil,
aliases = { "multimodal fusion", "multi-modal fusion", "modality fusion", "cross-modal fusion" },
es = "Proceso de combinar características de distintas modalidades en una representación unificada; las estrategias comunes incluyen fusión temprana en la entrada, fusión tardía en la decisión y fusión basada en atención cruzada dentro de un transformador.",
zh = "将不同模态的特征整合为统一表示的过程;常见策略包括输入层的早期融合、决策层的后期融合,以及在 Transformer 内部基于交叉注意力的融合。",
term_es = "fusión multimodal",
term_zh = "多模态融合",
aliases_es = { "fusión cross-modal", "multimodal fusion" },
aliases_zh = { "跨模态融合", "模态融合", "multimodal fusion" },
}
data["multimodal hallucination"] = {
short = "A failure mode of multimodal models in which the model produces text that contradicts or invents content not supported by the provided image, video, or audio input, despite appearing fluent and confident.",
article = nil,
aliases = { "multimodal hallucination", "multi-modal hallucination", "vision-language hallucination", "VLM hallucination", "object hallucination" },
es = "Modo de fallo de los modelos multimodales en el que el modelo produce texto que contradice o inventa contenido no respaldado por la imagen, vídeo o audio de entrada, a pesar de parecer fluido y seguro.",
zh = "多模态模型的一种失败模式:模型生成的文本与所提供的图像、视频或音频输入不符或凭空捏造,尽管表面上流畅且自信。",
term_es = "alucinación multimodal",
term_zh = "多模态幻觉",
aliases_es = { "alucinación visión-lenguaje", "multimodal hallucination" },
aliases_zh = { "视觉-语言幻觉", "对象幻觉", "multimodal hallucination" },
}
data["multimodal in-context learning"] = {
short = "The ability of a multimodal model to perform a new task at inference time using a prompt that contains a few image-text (or video-text) demonstrations, without any parameter updates.",
article = nil,
aliases = { "multimodal in-context learning", "multimodal ICL", "multi-modal in-context learning", "vision-language in-context learning" },
es = "Capacidad de un modelo multimodal de realizar una nueva tarea en inferencia a partir de un prompt que contiene unas pocas demostraciones de imagen-texto (o vídeo-texto), sin actualizar parámetros.",
zh = "多模态模型在推理时仅通过包含若干图文(或视频-文本)示例的提示就能完成新任务的能力,无需更新参数。",
term_es = "aprendizaje en contexto multimodal",
term_zh = "多模态上下文学习",
aliases_es = { "ICL multimodal", "multimodal in-context learning" },
aliases_zh = { "多模态 ICL", "multimodal in-context learning" },
}
data["multimodal instruction tuning"] = {
short = "A fine-tuning stage in which a multimodal model is trained on instruction-response pairs that include images, videos, or audio so that it can follow natural-language instructions grounded in non-text inputs.",
article = nil,
aliases = { "multimodal instruction tuning", "multi-modal instruction tuning", "visual instruction tuning", "VLM instruction tuning" },
es = "Etapa de ajuste fino en la que un modelo multimodal se entrena con pares instrucción-respuesta que incluyen imágenes, vídeos o audio para que pueda seguir instrucciones en lenguaje natural ancladas a entradas no textuales.",
zh = "在多模态模型上进行的一种微调阶段,使用包含图像、视频或音频的指令-响应对进行训练,使模型能够依据非文本输入执行自然语言指令。",
term_es = "ajuste por instrucciones multimodal",
term_zh = "多模态指令微调",
aliases_es = { "ajuste de instrucciones visual", "multimodal instruction tuning" },
aliases_zh = { "视觉指令微调", "multimodal instruction tuning" },
}
data["multimodal jailbreak"] = {
short = "An adversarial technique that bypasses safety policies of a multimodal model by hiding harmful instructions inside images, audio, or video so that the model executes them despite text-only safeguards.",
article = nil,
aliases = { "multimodal jailbreak", "multi-modal jailbreak", "visual jailbreak", "image-based jailbreak" },
es = "Técnica adversaria que evade las políticas de seguridad de un modelo multimodal ocultando instrucciones dañinas en imágenes, audio o vídeo, de modo que el modelo las ejecute pese a las salvaguardas de solo texto.",
zh = "一种对抗手段,通过将有害指令隐藏在图像、音频或视频中绕过多模态模型的安全策略,使模型在仅针对文本的防护下仍然执行这些指令。",
term_es = "jailbreak multimodal",
term_zh = "多模态越狱",
aliases_es = { "jailbreak visual", "multimodal jailbreak" },
aliases_zh = { "视觉越狱", "multimodal jailbreak" },
}
data["multimodal llm"] = {
short = "A large language model extended to accept and, in some cases, emit non-text modalities such as images, video, or audio, typically by attaching modality encoders or decoders to a text-based transformer backbone.",
article = nil,
aliases = { "multimodal LLM", "MLLM", "multi-modal LLM", "multimodal large language model" },
es = "Modelo de lenguaje de gran escala ampliado para aceptar y, en algunos casos, emitir modalidades no textuales como imágenes, vídeo o audio, normalmente añadiendo codificadores o decodificadores de modalidad a una columna vertebral transformadora basada en texto.",
zh = "一种大语言模型,扩展为可接收(部分情况下还可生成)图像、视频或音频等非文本模态,通常通过在文本 Transformer 主干上附加模态编码器或解码器实现。",
term_es = "LLM multimodal",
term_zh = "多模态大语言模型",
aliases_es = { "MLLM", "modelo de lenguaje multimodal", "multimodal LLM" },
aliases_zh = { "MLLM", "多模态 LLM", "multimodal LLM" },
}
data["multimodal masked autoencoder"] = {
short = "A self-supervised pretraining method that masks tokens or patches across multiple modalities (such as image patches and text tokens) and trains a model to reconstruct the masked content from the remaining context.",
article = nil,
aliases = { "multimodal masked autoencoder", "multimodal MAE", "multi-modal masked autoencoder", "M3AE" },
es = "Método de preentrenamiento autosupervisado que enmascara tokens o parches en varias modalidades (por ejemplo, parches de imagen y tokens de texto) y entrena un modelo para reconstruir el contenido enmascarado a partir del contexto restante.",
zh = "一种自监督预训练方法,对多个模态(例如图像 patch 与文本 token)的 token 或 patch 进行掩码,训练模型基于剩余上下文重建被掩码部分。",
term_es = "autoencoder enmascarado multimodal",
term_zh = "多模态掩码自编码器",
aliases_es = { "MAE multimodal", "multimodal masked autoencoder" },
aliases_zh = { "多模态 MAE", "multimodal masked autoencoder" },
}
data["multimodal pretraining"] = {
short = "Large-scale self-supervised or weakly supervised training of a model on paired data from multiple modalities, such as image-text or video-text, to learn aligned representations transferable to downstream tasks.",
article = nil,
aliases = { "multimodal pretraining", "multi-modal pretraining", "vision-language pretraining", "VLP" },
es = "Entrenamiento autosupervisado o débilmente supervisado a gran escala de un modelo sobre datos emparejados de varias modalidades, como imagen-texto o vídeo-texto, para aprender representaciones alineadas transferibles a tareas finales.",
zh = "在大规模成对多模态数据(如图文或视频-文本)上对模型进行自监督或弱监督训练,以学习可迁移到下游任务的对齐表示。",
term_es = "preentrenamiento multimodal",
term_zh = "多模态预训练",
aliases_es = { "preentrenamiento visión-lenguaje", "VLP", "multimodal pretraining" },
aliases_zh = { "视觉-语言预训练", "VLP", "multimodal pretraining" },
}
data["multimodal prompting"] = {
short = "Constructing inputs that mix text with images, audio, video, or structured signals to steer a multimodal model's behavior, including approaches such as visual chain-of-thought and image-conditioned few-shot prompts.",
article = nil,
aliases = { "multimodal prompting", "multi-modal prompting", "vision-language prompting" },
es = "Construcción de entradas que combinan texto con imágenes, audio, vídeo o señales estructuradas para guiar el comportamiento de un modelo multimodal, incluyendo enfoques como cadena de pensamiento visual o prompts pocos disparos condicionados por imagen.",
zh = "构造将文本与图像、音频、视频或结构化信号混合的输入,以引导多模态模型的行为,涵盖视觉思维链与图像条件少样本提示等方法。",
term_es = "prompting multimodal",
term_zh = "多模态提示",
aliases_es = { "prompting visión-lenguaje", "multimodal prompting" },
aliases_zh = { "多模态 prompting", "multimodal prompting" },
}
data["multimodal reasoning"] = {
short = "Inference that integrates information from multiple modalities, such as combining visual perception with linguistic knowledge, to answer questions, solve problems, or plan actions grounded in heterogeneous inputs.",
article = nil,
aliases = { "multimodal reasoning", "multi-modal reasoning", "vision-language reasoning" },
es = "Inferencia que integra información de varias modalidades, como combinar percepción visual con conocimiento lingüístico, para responder preguntas, resolver problemas o planificar acciones a partir de entradas heterogéneas.",
zh = "整合来自多个模态的信息进行推理,例如结合视觉感知与语言知识,以回答问题、求解任务或基于异构输入进行规划。",
term_es = "razonamiento multimodal",
term_zh = "多模态推理",
aliases_es = { "razonamiento visión-lenguaje", "multimodal reasoning" },
aliases_zh = { "视觉-语言推理", "multimodal reasoning" },
}
data["multimodal red teaming"] = {
short = "A safety evaluation practice in which testers craft adversarial multimodal inputs, including manipulated images, audio, or video, to elicit harmful or policy-violating behavior from a multimodal model.",
article = nil,
aliases = { "multimodal red teaming", "multi-modal red teaming", "multimodal red-teaming", "vision-language red teaming" },
es = "Práctica de evaluación de seguridad en la que los evaluadores diseñan entradas multimodales adversarias, incluidas imágenes, audio o vídeo manipulados, para inducir comportamientos dañinos o contrarios a la política en un modelo multimodal.",
zh = "一种安全评估实践,测试者构造对抗性的多模态输入(包括被篡改的图像、音频或视频),以诱发多模态模型产生有害或违反政策的行为。",
term_es = "red teaming multimodal",
term_zh = "多模态红队测试",
aliases_es = { "evaluación adversaria multimodal", "multimodal red teaming" },
aliases_zh = { "多模态红队", "multimodal red teaming" },
}
data["multimodal representation learning"] = {
short = "The study of methods that learn vector representations of inputs from multiple modalities so that semantic relationships, such as image-caption matching, are captured in a shared or coordinated embedding space.",
article = nil,
aliases = { "multimodal representation learning", "multi-modal representation learning", "joint representation learning" },
es = "Estudio de métodos que aprenden representaciones vectoriales de entradas de varias modalidades de modo que las relaciones semánticas, como la correspondencia imagen-subtítulo, queden capturadas en un espacio de embedding compartido o coordinado.",
zh = "研究学习多模态输入的向量表示的方法,使语义关系(如图文匹配)在共享或协同的嵌入空间中得到刻画。",
term_es = "aprendizaje de representaciones multimodales",
term_zh = "多模态表示学习",
aliases_es = { "aprendizaje de representaciones conjuntas", "multimodal representation learning" },
aliases_zh = { "联合表示学习", "multimodal representation learning" },
}
data["multimodal retrieval"] = {
short = "The task of retrieving items from one modality given a query in another, such as searching images with a text caption or videos with a natural-language description, typically using a shared embedding space.",
article = nil,
aliases = { "multimodal retrieval", "multi-modal retrieval", "cross-modal retrieval", "image-text retrieval", "text-to-image retrieval", "text-to-video retrieval" },
es = "Tarea de recuperar elementos de una modalidad a partir de una consulta en otra, por ejemplo buscar imágenes con un subtítulo en texto o vídeos con una descripción en lenguaje natural, normalmente mediante un espacio de embedding compartido.",
zh = "根据一种模态的查询检索另一种模态条目的任务,例如用文本描述搜索图像或视频,通常借助共享的嵌入空间实现。",
term_es = "recuperación multimodal",
term_zh = "多模态检索",
aliases_es = { "recuperación cross-modal", "recuperación imagen-texto", "multimodal retrieval" },
aliases_zh = { "跨模态检索", "图文检索", "multimodal retrieval" },
}
data["multimodal rlhf"] = {
short = "Reinforcement learning from human feedback applied to multimodal models, where a reward model is trained on human preferences over responses grounded in images, video, or audio, then used to fine-tune the policy.",
article = nil,
aliases = { "multimodal RLHF", "multi-modal RLHF", "multimodal reinforcement learning from human feedback", "VLM RLHF" },
es = "Aprendizaje por refuerzo a partir de retroalimentación humana aplicado a modelos multimodales: se entrena un modelo de recompensa con preferencias humanas sobre respuestas ancladas a imágenes, vídeo o audio y se usa para ajustar la política.",
zh = "将基于人类反馈的强化学习应用于多模态模型:在以图像、视频或音频为基础的回复上利用人类偏好训练奖励模型,再用其微调策略。",
term_es = "RLHF multimodal",
term_zh = "多模态 RLHF",
aliases_es = { "aprendizaje por refuerzo a partir de retroalimentación humana multimodal", "multimodal RLHF" },
aliases_zh = { "多模态人类反馈强化学习", "multimodal RLHF" },
}
data["multimodal safety"] = {
short = "The study and practice of ensuring that multimodal models avoid generating harmful, biased, or unsafe outputs when conditioned on combinations of text, images, audio, or video. Includes red-teaming, safety filters, and evaluation benchmarks specific to cross-modal failure modes.",
article = nil,
aliases = { "multi-modal safety", "cross-modal safety", "vision-language safety", "MLLM safety" },
es = "Estudio y práctica destinados a garantizar que los modelos multimodales eviten producir salidas dañinas, sesgadas o inseguras cuando se condicionan con combinaciones de texto, imagen, audio o video. Incluye red-teaming, filtros de seguridad y evaluaciones específicas para fallos multimodales.",
zh = "针对多模态模型在文本、图像、音频或视频组合条件下避免产生有害、偏见或不安全输出的研究与实践,包括红队测试、安全过滤器以及针对跨模态失败模式的评测基准。",
term_es = "seguridad multimodal",
term_zh = "多模态安全",
aliases_es = { "seguridad multi-modal", "seguridad de modelos multimodales" },
aliases_zh = { "多模态安全性", "跨模态安全" },
}
data["multimodal token"] = {
short = "A discrete or continuous unit produced by encoding non-text modalities (images, audio, video) so they can be processed jointly with text tokens by a transformer. Often obtained from VQ-VAE, ViT patches, or audio codec discretizers.",
article = nil,
aliases = { "multi-modal token", "vision token", "image token", "audio token", "modality token", "cross-modal token" },
es = "Unidad discreta o continua que resulta de codificar modalidades no textuales (imágenes, audio, video) para que un transformer pueda procesarlas junto con tokens de texto. Suele obtenerse mediante VQ-VAE, parches de ViT o discretizadores de codecs de audio.",
zh = "通过对非文本模态(图像、音频、视频)进行编码而得到的离散或连续单元,可被 Transformer 与文本 token 共同处理,通常由 VQ-VAE、ViT 图块或音频编解码器离散化得到。",
term_es = "token multimodal",
term_zh = "多模态 token",
aliases_es = { "token multi-modal", "token visual", "token de imagen", "token de audio" },
aliases_zh = { "多模态标记", "视觉 token", "图像 token", "音频 token" },
}
data["multimodal toxicity"] = {
short = "Harmful or offensive content that arises from the joint interpretation of multiple modalities, such as benign text paired with a harmful image. A failure mode that purely text-based or image-based safety classifiers may miss.",
article = nil,
aliases = { "multi-modal toxicity", "cross-modal toxicity", "vision-language toxicity" },
es = "Contenido dañino u ofensivo que surge de la interpretación conjunta de varias modalidades, por ejemplo un texto inofensivo combinado con una imagen dañina. Modo de fallo que los clasificadores de seguridad puramente textuales o visuales pueden pasar por alto.",
zh = "由多种模态共同解释而产生的有害或冒犯性内容,例如无害文本与有害图像的组合,是单纯基于文本或图像的安全分类器可能漏检的失败模式。",
term_es = "toxicidad multimodal",
term_zh = "多模态毒性",
aliases_es = { "toxicidad multi-modal", "toxicidad cruzada" },
aliases_zh = { "多模态有害内容", "跨模态毒性" },
}
data["multimodal transformer"] = {
short = "A transformer architecture that ingests and produces representations spanning multiple modalities, typically by tokenizing each modality and applying shared or modality-specific attention layers. Foundational to vision-language and audio-language models.",
article = "Transformer",
aliases = { "multi-modal transformer", "cross-modal transformer", "vision-language transformer" },
es = "Arquitectura de transformer que recibe y produce representaciones que abarcan múltiples modalidades, generalmente mediante la tokenización de cada modalidad y la aplicación de capas de atención compartidas o específicas. Es la base de los modelos visión-lenguaje y audio-lenguaje.",
zh = "一种处理并产生跨多种模态表示的 Transformer 结构,通常先对每种模态进行 token 化,再使用共享或模态特定的注意力层,是视觉-语言与音频-语言模型的基础架构。",
term_es = "transformer multimodal",
term_zh = "多模态 Transformer",
aliases_es = { "transformer multi-modal", "transformer cruzado", "transformer visión-lenguaje" },
aliases_zh = { "多模态变换器", "跨模态 Transformer", "视觉-语言 Transformer" },
}
data["multinomial distribution"] = {
short = "The discrete distribution over the counts (n₁,…,n_K) of K outcomes obtained from n independent categorical trials with probabilities (p₁,…,p_K). It generalizes the binomial to K categories and reduces to the categorical distribution when n = 1.",
article = nil,
aliases = { "Multinomial", "Mult(n,π)", "Multinomial(n,p)", "multinomial" },
es = "Distribución discreta sobre los conteos (n₁,…,n_K) de K resultados obtenidos en n ensayos categóricos independientes con probabilidades (p₁,…,p_K). Generaliza la binomial a K categorías y se reduce a la distribución categórica cuando n = 1.",
zh = "在 n 次独立类别试验(概率为 (p₁,…,p_K))下,K 个结果计数 (n₁,…,n_K) 的离散分布。它将二项分布推广到 K 类,并在 n = 1 时退化为类别分布。",
term_es = "distribución multinomial",
term_zh = "多项分布",
aliases_es = { "Multinomial", "Mult(n,π)", "Multinomial(n,p)" },
aliases_zh = { "多项式分布", "Multinomial", "Mult(n,π)" },
}
data["multiple sequence alignment"] = {
short = "An alignment of three or more biological sequences (DNA, RNA, or protein) that arranges homologous positions in columns, used to detect evolutionary conservation, infer phylogeny, and provide co-evolutionary signal for structure prediction.",
article = nil,
aliases = { "MSA", "multiple alignment", "sequence alignment (multiple)" },
es = "Alineamiento de tres o más secuencias biológicas (ADN, ARN o proteínas) que coloca las posiciones homólogas en columnas, utilizado para detectar conservación evolutiva, inferir filogenia y proporcionar señal coevolutiva para la predicción de estructura.",
zh = "对三条或更多生物序列(DNA、RNA 或蛋白质)的比对,将同源位置排列在同一列中,用于检测进化保守性、推断系统发生关系,并为结构预测提供共进化信号。",
term_es = "alineamiento múltiple de secuencias",
term_zh = "多序列比对",
aliases_es = { "MSA", "alineamiento múltiple" },
aliases_zh = { "MSA", "多重序列比对" },
}
data["multiplex imaging"] = {
short = "Microscopy techniques (such as CODEX, MIBI, IMC, and CyCIF) that detect dozens of antibody-tagged or oligo-tagged markers in a single tissue section, enabling spatially resolved profiling of cell types and states.",
article = nil,
aliases = { "multiplexed imaging", "highly multiplexed imaging", "multiplexed tissue imaging", "high-plex imaging" },
es = "Técnicas de microscopía (como CODEX, MIBI, IMC y CyCIF) que detectan decenas de marcadores etiquetados con anticuerpos u oligonucleótidos en una misma sección de tejido, permitiendo el perfilado espacial de tipos y estados celulares.",
zh = "在同一组织切片上检测数十种抗体或寡核苷酸标记的显微成像技术(如 CODEX、MIBI、IMC、CyCIF 等),可实现具有空间分辨率的细胞类型与状态分析。",
term_es = "imagen multiplexada",
term_zh = "多重成像",
aliases_es = { "imagen multiplex", "imágenes multiplexadas", "imagen tisular multiplexada", "imagen de alto plex" },
aliases_zh = { "多重成像", "多重组织成像", "高通量多重成像", "多通道成像" },
}
data["multiplicative gaussian noise"] = {
short = "Stochastic noise injected into activations or weights by element-wise multiplication with a Gaussian random variable, used in Gaussian dropout and as a reparameterization in variational dropout.",
article = nil,
aliases = { "multiplicative Gaussian noise", "Gaussian multiplicative noise", "Gaussian dropout noise" },
es = "Ruido estocástico inyectado en las activaciones o los pesos mediante multiplicación elemento a elemento con una variable aleatoria gaussiana, utilizado en el Gaussian dropout y como reparametrización en el dropout variacional.",
zh = "通过与高斯随机变量逐元素相乘注入到激活或权重中的随机噪声,用于 Gaussian dropout 以及变分 dropout 中的重参数化。",
term_es = "ruido gaussiano multiplicativo",
term_zh = "乘性高斯噪声",
aliases_es = { "ruido multiplicativo gaussiano", "ruido de Gaussian dropout" },
aliases_zh = { "高斯乘性噪声", "Gaussian dropout 噪声" },
}
data["multiplicative normalizing flow"] = {
short = "A flexible variational posterior for Bayesian neural networks in which weights are scaled by latent variables transformed by a normalizing flow, capturing richer posterior structure than a fully factorized Gaussian (Louizos & Welling 2017).",
article = nil,
aliases = { "MNF", "multiplicative normalising flow", "MNF posterior" },
es = "Posterior variacional flexible para redes neuronales bayesianas en el que los pesos se escalan por variables latentes transformadas por un flujo normalizante, capturando una estructura posterior más rica que una gaussiana totalmente factorizada (Louizos y Welling, 2017).",
zh = "用于贝叶斯神经网络的灵活变分后验:权重由经规范化流变换的隐变量进行缩放,相比完全分解高斯能够捕获更丰富的后验结构(Louizos 与 Welling,2017)。",
term_es = "flujo normalizante multiplicativo",
term_zh = "乘性规范化流",
aliases_es = { "MNF", "flujo normalizador multiplicativo" },
aliases_zh = { "MNF", "乘性归一化流", "MNF 后验" },
}
data["multitrack music generation"] = {
short = "The task of generating music as multiple synchronized instrument tracks (e.g., drums, bass, piano) rather than a single mixed waveform, allowing per-instrument control and editing.",
article = nil,
aliases = { "multi-track music generation", "multi track music generation", "multi-instrument music generation" },
es = "Tarea de generación musical que produce múltiples pistas instrumentales sincronizadas (por ejemplo, batería, bajo, piano) en lugar de una única forma de onda mezclada, permitiendo el control y la edición por instrumento.",
zh = "音乐生成任务,输出多条同步的乐器音轨(如鼓、贝斯、钢琴),而非单一的混合波形,支持按乐器独立控制与编辑。",
term_es = "generación musical multipista",
term_zh = "多轨音乐生成",
aliases_es = { "generación de música multipista", "generación musical multi-instrumento" },
aliases_zh = { "多音轨音乐生成", "多乐器音乐生成" },
}
data["multivariable mendelian randomization"] = {
short = "An extension of Mendelian randomization that simultaneously models multiple correlated exposures using genetic instruments to estimate their direct causal effects on an outcome while accounting for shared genetic predictors.",
article = nil,
aliases = { "MVMR", "multivariate Mendelian randomization (loose usage)", "multi-exposure MR" },
es = "Extensión de la aleatorización mendeliana que modela simultáneamente múltiples exposiciones correlacionadas mediante instrumentos genéticos para estimar sus efectos causales directos sobre un resultado, controlando por predictores genéticos compartidos.",
zh = "对孟德尔随机化的扩展,利用遗传工具变量同时建模多个相关暴露,以估计它们对结果的直接因果效应,同时控制共享的遗传预测因子。",
term_es = "aleatorización mendeliana multivariable",
term_zh = "多变量孟德尔随机化",
aliases_es = { "MVMR", "MR multivariable", "MR de múltiples exposiciones" },
aliases_zh = { "MVMR", "多暴露 MR", "多变量 MR" },
}
data["multivariate gaussian"] = {
short = "A joint distribution over a vector x ∈ ℝᵈ with density p(x) = (2π)^(−d/2) |Σ|^(−1/2) exp(−½(x−μ)ᵀ Σ⁻¹ (x−μ)), parameterized by mean vector μ and positive-definite covariance Σ. Marginals and conditionals of a multivariate Gaussian are themselves Gaussian.",
article = nil,
aliases = { "multivariate normal", "MVN", "multivariate normal distribution", "joint Gaussian", "N(μ,Σ)" },
es = "Distribución conjunta sobre un vector x ∈ ℝᵈ con densidad p(x) = (2π)^(−d/2) |Σ|^(−1/2) exp(−½(x−μ)ᵀ Σ⁻¹ (x−μ)), parametrizada por el vector de medias μ y la covarianza definida positiva Σ. Las marginales y condicionales de una gaussiana multivariada son también gaussianas.",
zh = "向量 x ∈ ℝᵈ 上的联合分布,密度为 p(x) = (2π)^(−d/2) |Σ|^(−1/2) exp(−½(x−μ)ᵀ Σ⁻¹ (x−μ)),由均值向量 μ 和正定协方差矩阵 Σ 参数化。多元高斯的边缘分布与条件分布仍为高斯分布。",
term_es = "gaussiana multivariada",
term_zh = "多元高斯分布",
aliases_es = { "normal multivariada", "MVN", "distribución normal multivariada", "gaussiana conjunta", "N(μ,Σ)" },
aliases_zh = { "多元正态分布", "MVN", "联合高斯", "多变量高斯", "N(μ,Σ)" },
}
data["multivariate treatment"] = {
short = "A treatment variable that is itself vector-valued or has multiple components administered jointly, such that potential outcomes are defined over treatment vectors rather than scalar levels.",
article = nil,
aliases = { "vector treatment", "multidimensional treatment", "joint treatment" },
es = "Variable de tratamiento que es ella misma vectorial o que se compone de múltiples componentes administrados conjuntamente, de modo que los resultados potenciales se definen sobre vectores de tratamiento en vez de niveles escalares.",
zh = "处理变量本身为向量或由多个共同施加的成分构成,因此潜在结果是定义在处理向量上的,而非单一标量水平。",
term_es = "tratamiento multivariante",
term_zh = "多元处理",
aliases_es = { "tratamiento vectorial", "tratamiento multidimensional", "tratamiento conjunto" },
aliases_zh = { "向量处理", "多维处理", "联合处理" },
}
data["mure"] = {
short = "A Euclidean knowledge-graph embedding model that scores triples using relation-specific Möbius matrices and translation vectors over real-valued entity embeddings. Companion to the hyperbolic MuRP model.",
article = nil,
aliases = { "MuRE", "Multi-Relational Euclidean", "Multi-Relational Euclidean embedding" },
es = "Modelo euclidiano de embeddings para grafos de conocimiento que puntúa triples mediante matrices de Möbius y vectores de traslación específicos por relación sobre embeddings reales de entidades. Complementario al modelo hiperbólico MuRP.",
zh = "一种欧几里得空间下的知识图谱嵌入模型,对每条关系使用专属的 Möbius 矩阵和平移向量,在实值实体嵌入上对三元组打分;与双曲模型 MuRP 互为对照。",
term_es = "MuRE",
term_zh = "MuRE",
aliases_es = { "Multi-Relational Euclidean", "embedding multirrelacional euclidiano" },
aliases_zh = { "多关系欧氏嵌入", "Multi-Relational Euclidean" },
}
data["murp"] = {
short = "A hyperbolic knowledge-graph embedding model that places entities in the Poincaré ball and parameterizes each relation as a Möbius matrix-vector composition, capturing hierarchical relations more compactly than Euclidean counterparts.",
article = nil,
aliases = { "MuRP", "Multi-Relational Poincaré", "Multi-Relational Poincare embedding", "MuRP embedding" },
es = "Modelo hiperbólico de embeddings para grafos de conocimiento que sitúa las entidades en la bola de Poincaré y parametriza cada relación como una composición matriz-vector de Möbius, capturando relaciones jerárquicas de forma más compacta que sus contrapartes euclidianas.",
zh = "一种双曲空间的知识图谱嵌入模型,将实体放置于 Poincaré 球内,并将每条关系参数化为 Möbius 矩阵-向量复合,从而比欧氏模型更紧凑地捕捉层级关系。",
term_es = "MuRP",
term_zh = "MuRP",
aliases_es = { "Multi-Relational Poincaré", "embedding multirrelacional de Poincaré" },
aliases_zh = { "多关系 Poincaré 嵌入", "Multi-Relational Poincaré" },
}
data["muscle aligner"] = {
short = "A widely used multiple sequence alignment program that builds progressive alignments via iterative refinement and a UPGMA-like guide tree, balancing speed and accuracy for protein and nucleotide sequences.",
article = nil,
aliases = { "MUSCLE", "MUSCLE aligner", "MUSCLE alignment", "MUltiple Sequence Comparison by Log-Expectation" },
es = "Programa de alineamiento múltiple de secuencias muy utilizado que construye alineamientos progresivos mediante refinamiento iterativo y un árbol guía tipo UPGMA, equilibrando velocidad y precisión para secuencias de proteínas y nucleótidos.",
zh = "一款常用的多序列比对程序,通过 UPGMA 类引导树和迭代精化构建渐进式比对,在蛋白质和核酸序列上兼顾速度与准确性。",
term_es = "MUSCLE",
term_zh = "MUSCLE",
aliases_es = { "MUSCLE", "alineador MUSCLE", "alineamiento MUSCLE" },
aliases_zh = { "MUSCLE", "MUSCLE 比对器", "MUSCLE 比对工具" },
}
data["musdb18"] = {
short = "A standard benchmark dataset for music source separation containing 150 full-length stereo songs with isolated stems for vocals, drums, bass, and other instruments.",
article = nil,
aliases = { "MUSDB18", "MUSDB", "MUSDB18-HQ" },
es = "Conjunto de datos de referencia para la separación de fuentes musicales que contiene 150 canciones estéreo completas con pistas aisladas de voces, batería, bajo y otros instrumentos.",
zh = "音乐源分离的标准基准数据集,包含150首完整立体声歌曲,并提供人声、鼓、贝斯及其他乐器的独立音轨。",
term_es = "MUSDB18",
term_zh = "MUSDB18",
aliases_es = { "MUSDB", "MUSDB18-HQ" },
aliases_zh = { "MUSDB", "MUSDB18-HQ" },
}
data["muse"] = {
short = "A 2023 Google text-to-image model based on a masked generative transformer that operates on discrete VQ tokens, producing images via parallel iterative decoding rather than diffusion or autoregression.",
article = nil,
aliases = { "Muse", "Google Muse", "Muse text-to-image" },
es = "Modelo texto-a-imagen de Google de 2023 basado en un transformer generativo enmascarado que opera sobre tokens VQ discretos, produciendo imágenes mediante decodificación iterativa en paralelo en lugar de difusión o autorregresión.",
zh = "Google 于 2023 年提出的文本到图像模型,基于在离散 VQ 标记上运行的掩码生成式 Transformer,通过并行迭代解码而非扩散或自回归生成图像。",
term_es = "Muse",
term_zh = "Muse",
aliases_es = { "Muse de Google", "Google Muse" },
aliases_zh = { "Muse 模型", "谷歌 Muse" },
}
data["music captioning"] = {
short = "The task of generating natural-language descriptions of music audio, typically describing genre, instrumentation, mood, tempo, or other musical attributes.",
article = nil,
aliases = { "music caption generation", "audio captioning for music", "music-to-text" },
es = "Tarea de generar descripciones en lenguaje natural de audio musical, normalmente caracterizando el género, la instrumentación, el estado de ánimo, el tempo u otros atributos musicales.",
zh = "为音乐音频生成自然语言描述的任务,通常涉及风格、乐器编制、情绪、节奏等音乐属性的刻画。",
term_es = "subtitulado musical",
term_zh = "音乐字幕生成",
aliases_es = { "captioning musical", "descripción de música en texto" },
aliases_zh = { "音乐描述生成", "音乐到文本" },
}
data["music classification"] = {
short = "The task of assigning categorical labels to music audio, such as genre, mood, instrument, or artist, typically framed as supervised single-label or multi-label classification.",
article = nil,
aliases = { "music genre classification", "music audio classification" },
es = "Tarea de asignar etiquetas categóricas a audio musical, como género, estado de ánimo, instrumento o artista, planteada habitualmente como clasificación supervisada mono- o multietiqueta.",
zh = "为音乐音频分配类别标签的任务,如风格、情绪、乐器或艺术家,通常以单标签或多标签的有监督分类形式建模。",
term_es = "clasificación musical",
term_zh = "音乐分类",
aliases_es = { "clasificación de música", "clasificación de género musical" },
aliases_zh = { "音乐流派分类", "音乐音频分类" },
}
data["music embedding"] = {
short = "A learned vector representation of music audio that captures perceptual or semantic similarity, used as features for retrieval, classification, recommendation, and generation tasks.",
article = nil,
aliases = { "music embeddings", "audio music embedding", "music representation" },
es = "Representación vectorial aprendida de audio musical que captura similitud perceptual o semántica y se utiliza como característica para tareas de recuperación, clasificación, recomendación y generación.",
zh = "音乐音频的学习型向量表示,能够捕捉感知或语义相似性,可用作检索、分类、推荐和生成任务的特征。",
term_es = "embedding musical",
term_zh = "音乐嵌入",
aliases_es = { "embeddings de música", "representación musical" },
aliases_zh = { "音乐表示", "音乐音频嵌入" },
}
data["music information retrieval"] = {
short = "An interdisciplinary field studying the extraction, indexing, and retrieval of information from music, covering tasks such as transcription, tagging, similarity search, and recommendation.",
article = nil,
aliases = { "MIR", "music IR" },
es = "Campo interdisciplinario que estudia la extracción, indexación y recuperación de información musical, abarcando tareas como transcripción, etiquetado, búsqueda por similitud y recomendación.",
zh = "研究从音乐中提取、索引和检索信息的跨学科领域,涵盖转录、标注、相似度检索和推荐等任务。",
term_es = "recuperación de información musical",
term_zh = "音乐信息检索",
aliases_es = { "MIR", "recuperación de información de música" },
aliases_zh = { "MIR", "音乐信息提取" },
}
data["music source separation"] = {
short = "The task of decomposing a mixed music recording into its constituent sources or stems, such as vocals, drums, bass, and accompaniment, often using deep neural networks.",
article = nil,
aliases = { "MSS", "music separation", "stem separation", "source separation for music" },
es = "Tarea de descomponer una grabación musical mezclada en sus fuentes o pistas constitutivas, como voces, batería, bajo y acompañamiento, generalmente mediante redes neuronales profundas.",
zh = "将混合音乐录音分解为人声、鼓、贝斯、伴奏等组成音源或音轨的任务,通常借助深度神经网络。",
term_es = "separación de fuentes musicales",
term_zh = "音乐源分离",
aliases_es = { "MSS", "separación de pistas musicales" },
aliases_zh = { "MSS", "音乐分离", "音轨分离" },
}
data["music tagging"] = {
short = "The task of automatically assigning multiple descriptive tags (genre, mood, instrument, era, etc.) to a music track, typically formulated as multi-label audio classification.",
article = nil,
aliases = { "auto-tagging", "music auto-tagging", "automatic music tagging" },
es = "Tarea de asignar automáticamente múltiples etiquetas descriptivas (género, estado de ánimo, instrumento, época, etc.) a una pista musical, normalmente formulada como clasificación multietiqueta de audio.",
zh = "为音乐曲目自动分配多个描述性标签(风格、情绪、乐器、年代等)的任务,通常作为多标签音频分类问题建模。",
term_es = "etiquetado musical",
term_zh = "音乐标注",
aliases_es = { "auto-etiquetado musical", "etiquetado automático de música" },
aliases_zh = { "音乐自动标注", "音乐打标签" },
}
data["music transformer"] = {
short = "A Transformer-based model for symbolic music generation introduced by Huang et al. (2018) that uses relative self-attention to capture long-range structure in MIDI sequences.",
article = nil,
aliases = { "Music Transformer" },
es = "Modelo basado en Transformer para generación de música simbólica propuesto por Huang et al. (2018), que utiliza autoatención relativa para capturar estructura de largo alcance en secuencias MIDI.",
zh = "Huang等人2018年提出的基于Transformer的符号音乐生成模型,利用相对自注意力捕捉MIDI序列中的长程结构。",
term_es = "Music Transformer",
term_zh = "Music Transformer",
aliases_es = { "transformer musical" },
aliases_zh = { "音乐Transformer" },
}
data["music vae"] = {
short = "A hierarchical variational autoencoder developed by Magenta for learning latent representations of musical sequences, enabling smooth interpolation and structured sampling of melodies.",
article = nil,
aliases = { "MusicVAE", "Music VAE" },
es = "Autoencoder variacional jerárquico desarrollado por Magenta para aprender representaciones latentes de secuencias musicales, permitiendo interpolación suave y muestreo estructurado de melodías.",
zh = "Magenta提出的分层变分自编码器,用于学习音乐序列的潜在表示,支持旋律的平滑插值与结构化采样。",
term_es = "MusicVAE",
term_zh = "MusicVAE",
aliases_es = { "VAE musical" },
aliases_zh = { "音乐VAE" },
}
data["musiccaps"] = {
short = "A benchmark dataset released by Google Research consisting of 5,500 music clips paired with rich text descriptions written by professional musicians. Used to evaluate text-to-music generation systems.",
article = nil,
aliases = { "MusicCaps", "MusicCaps dataset", "MusicCaps benchmark" },
es = "Conjunto de datos de referencia publicado por Google Research que reúne 5500 fragmentos musicales emparejados con descripciones textuales detalladas escritas por músicos profesionales, utilizado para evaluar sistemas de generación de música a partir de texto.",
zh = "由 Google Research 发布的基准数据集,包含 5500 段音乐片段,每段都配有专业音乐人撰写的详细文本描述,用于评测文本到音乐生成系统。",
term_es = "MusicCaps",
term_zh = "MusicCaps",
aliases_es = { "conjunto MusicCaps", "benchmark MusicCaps" },
aliases_zh = { "MusicCaps 数据集", "MusicCaps 基准" },
}
data["musicgen"] = {
short = "A single-stage autoregressive transformer for text- and melody-conditioned music generation released by Meta AI in 2023. Operates over discrete EnCodec audio tokens with a delay-pattern decoding scheme.",
article = nil,
aliases = { "MusicGen", "Meta MusicGen", "Meta AI MusicGen" },
es = "Transformer autorregresivo de una sola etapa para la generación de música condicionada por texto y melodía, publicado por Meta AI en 2023. Opera sobre tokens de audio discretos de EnCodec con un esquema de decodificación con patrón de retardo.",
zh = "Meta AI 于 2023 年发布的单阶段自回归 Transformer 音乐生成模型,可基于文本和旋律条件生成音乐,使用 EnCodec 离散音频 token,并采用延迟模式解码方案。",
term_es = "MusicGen",
term_zh = "MusicGen",
aliases_es = { "MusicGen de Meta" },
aliases_zh = { "Meta MusicGen" },
}
data["musicldm"] = {
short = "A latent diffusion model for text-to-music generation that adapts the audio LDM framework to the music domain, introducing beat-synchronous mixup strategies to mitigate plagiarism and improve diversity.",
article = nil,
aliases = { "MusicLDM", "Music LDM", "Music Latent Diffusion Model" },
es = "Modelo de difusión latente para la generación de música a partir de texto que adapta el marco LDM de audio al dominio musical, introduciendo estrategias de mezcla sincronizadas al compás para mitigar el plagio y mejorar la diversidad.",
zh = "面向文本到音乐生成的潜在扩散模型,将音频 LDM 框架迁移到音乐领域,并引入节拍同步的混合策略以缓解抄袭并提升生成多样性。",
term_es = "MusicLDM",
term_zh = "MusicLDM",
aliases_es = { "modelo de difusión latente para música" },
aliases_zh = { "音乐潜在扩散模型" },
}
data["musiclm"] = {
short = "A hierarchical sequence-to-sequence music generation model from Google that produces high-fidelity music from text descriptions by cascading semantic and acoustic tokens derived from MuLan and SoundStream.",
article = nil,
aliases = { "MusicLM", "Google MusicLM" },
es = "Modelo jerárquico de generación de música secuencia a secuencia desarrollado por Google que produce música de alta fidelidad a partir de descripciones textuales encadenando tokens semánticos y acústicos derivados de MuLan y SoundStream.",
zh = "Google 提出的分层序列到序列音乐生成模型,通过级联由 MuLan 与 SoundStream 派生的语义与声学 token,从文本描述生成高保真音乐。",
term_es = "MusicLM",
term_zh = "MusicLM",
aliases_es = { "MusicLM de Google" },
aliases_zh = { "Google MusicLM" },
}
data["musique"] = {
short = "A multi-hop question-answering benchmark constructed by composing single-hop questions into 2-to-4-hop reasoning chains with explicit decompositions, with adversarial unanswerable variants to discourage shortcut learning.",
article = nil,
aliases = { "MuSiQue", "MuSiQue benchmark", "MuSiQue dataset", "Multi-hop Questions via Single-hop Question Composition" },
es = "Benchmark de respuesta a preguntas con múltiples saltos construido al componer preguntas de un solo salto en cadenas de razonamiento de 2 a 4 saltos con descomposiciones explícitas, e incluye variantes adversariales sin respuesta para desincentivar el uso de atajos.",
zh = "一个多跳问答基准,通过将单跳问题组合为 2 到 4 跳带显式分解的推理链构造而成,并包含对抗性不可回答变体,以抑制模型走捷径。",
term_es = "MuSiQue",
term_zh = "MuSiQue",
aliases_es = { "benchmark MuSiQue", "conjunto MuSiQue" },
aliases_zh = { "MuSiQue 基准", "MuSiQue 数据集" },
}
data["musr"] = {
short = "Multistep Soft Reasoning, a benchmark of synthetically generated narrative scenarios (murder mysteries, object placements, team allocations) that requires LLMs to perform multi-hop commonsense reasoning over long contexts.",
article = nil,
aliases = { "MuSR", "Multistep Soft Reasoning" },
es = "Multistep Soft Reasoning, un banco de pruebas de escenarios narrativos generados sintéticamente (misterios de asesinato, ubicaciones de objetos, asignaciones de equipos) que exige a los LLM realizar razonamiento de sentido común multi-salto sobre contextos largos.",
zh = "Multistep Soft Reasoning,一个由合成生成的叙事场景(谋杀谜案、物品摆放、团队分配)组成的基准测试,要求 LLM 在长上下文中执行多跳常识推理。",
term_es = "MuSR",
term_zh = "MuSR",
aliases_es = { "Multistep Soft Reasoning" },
aliases_zh = { "Multistep Soft Reasoning", "多步软推理" },
}
data["mustc dataset"] = {
short = "A multilingual speech translation corpus built from English TED talks aligned with translations into multiple target languages, widely used as a benchmark for end-to-end speech translation.",
article = nil,
aliases = { "MuST-C", "MuST-C dataset", "MuSTC" },
es = "Corpus multilingüe de traducción de voz construido a partir de charlas TED en inglés alineadas con traducciones a múltiples idiomas objetivo, ampliamente utilizado como referencia para traducción de voz extremo a extremo.",
zh = "基于英语TED演讲并与多种目标语言译文对齐构建的多语言语音翻译语料库,是端到端语音翻译的常用基准。",
term_es = "MuST-C",
term_zh = "MuST-C数据集",
aliases_es = { "conjunto de datos MuST-C", "corpus MuST-C" },
aliases_zh = { "MuST-C", "MuST-C语料库" },
}
data["mutation operator"] = {
short = "In evolutionary algorithms, a stochastic operator that introduces small random changes to an individual's genotype to maintain diversity and enable local exploration of the search space.",
article = nil,
aliases = { "mutation", "mutation operation" },
es = "En algoritmos evolutivos, operador estocástico que introduce pequeñas modificaciones aleatorias en el genotipo de un individuo para mantener la diversidad y permitir la exploración local del espacio de búsqueda.",
zh = "在进化算法中,对个体基因型引入小幅随机变化的随机算子,用于保持种群多样性并实现搜索空间的局部探索。",
term_es = "operador de mutación",
term_zh = "变异算子",
aliases_es = { "mutación", "operación de mutación" },
aliases_zh = { "突变算子", "变异操作" },
}
data["mutational signature"] = {
short = "A characteristic pattern of single-base substitutions (and contextual trinucleotides) that reflects the activity of an underlying mutagenic process such as UV damage, tobacco exposure, or APOBEC editing in cancer genomes.",
article = nil,
aliases = { "mutational signatures", "COSMIC mutational signature", "SBS signature", "single base substitution signature" },
es = "Patrón característico de sustituciones de una sola base (y sus contextos trinucleotídicos) que refleja la actividad de un proceso mutagénico subyacente, como daño por UV, exposición al tabaco o edición por APOBEC en genomas tumorales.",
zh = "一种特征性的单碱基替换(及其三核苷酸上下文)模式,反映特定致突变过程(如紫外损伤、烟草暴露、APOBEC 编辑等)在癌症基因组中的活动。",
term_es = "firma mutacional",
term_zh = "突变特征",
aliases_es = { "firmas mutacionales", "firma mutacional COSMIC", "firma SBS", "firma de sustituciones de base única" },
aliases_zh = { "突变特征", "COSMIC 突变特征", "SBS 特征", "单碱基替换特征", "突变签名" },
}
data["mutect2"] = {
short = "A somatic short-variant caller in GATK that uses a local Bayesian haplotype model with paired tumor-normal data to detect SNVs and indels at low allele frequency in cancer samples.",
article = nil,
aliases = { "Mutect2", "MuTect2", "GATK Mutect2", "Mutect 2" },
es = "Llamador de variantes somáticas cortas dentro de GATK que utiliza un modelo bayesiano de haplotipos locales con datos pareados tumor-normal para detectar SNV e indels a baja frecuencia alélica en muestras de cáncer.",
zh = "GATK 中的体细胞短变异检测工具,基于局部单倍型贝叶斯模型,结合肿瘤-正常配对样本,可检测低等位频率的 SNV 与 indel。",
term_es = "Mutect2",
term_zh = "Mutect2",
aliases_es = { "Mutect2", "GATK Mutect2", "MuTect2" },
aliases_zh = { "Mutect2", "GATK Mutect2", "MuTect2" },
}
data["mutilated graph"] = {
short = "A graph obtained from a causal DAG by deleting all incoming edges to variables targeted by an intervention; used to define and reason about post-intervention distributions in Pearl's do-calculus.",
article = nil,
aliases = { "manipulated graph", "post-intervention graph", "do-graph" },
es = "Grafo obtenido a partir de un DAG causal eliminando todas las aristas entrantes a las variables sobre las que se interviene; se utiliza para definir y razonar sobre distribuciones post-intervención en el do-cálculo de Pearl.",
zh = "通过从因果有向无环图中删除所有指向被干预变量的入边而得到的图;用于在 Pearl 的 do-演算中定义并推理干预后的分布。",
term_es = "grafo mutilado",
term_zh = "切割图",
aliases_es = { "grafo manipulado", "grafo post-intervención", "do-grafo" },
aliases_zh = { "mutilated 图", "干预后图", "manipulated 图", "do 图" },
}
data["mutual information"] = {
short = "A symmetric measure of the statistical dependence between two random variables: I(X;Y) = H(X) + H(Y) − H(X,Y) = KL(p(x,y)‖p(x)p(y)). It is zero iff X and Y are independent.",
article = nil,
aliases = { "MI", "I(X;Y)", "Shannon mutual information" },
es = "Medida simétrica de la dependencia estadística entre dos variables aleatorias: I(X;Y) = H(X) + H(Y) − H(X,Y) = KL(p(x,y)‖p(x)p(y)). Es cero si y solo si X e Y son independientes.",
zh = "衡量两个随机变量统计依赖性的对称度量:I(X;Y) = H(X) + H(Y) − H(X,Y) = KL(p(x,y)‖p(x)p(y))。当且仅当 X 与 Y 相互独立时为零。",
term_es = "información mutua",
term_zh = "互信息",
aliases_es = { "información mutua de Shannon", "IM" },
aliases_zh = { "互信息 I(X;Y)", "Shannon 互信息" },
}
data["mutual information acquisition"] = {
short = "An acquisition function that selects inputs maximizing the mutual information between predicted labels and model parameters, isolating epistemic uncertainty. Underlies BALD in Bayesian active learning.",
article = nil,
aliases = { "BALD", "BALD acquisition", "Bayesian active learning by disagreement", "MI acquisition" },
es = "Función de adquisición que selecciona las entradas que maximizan la información mutua entre las etiquetas predichas y los parámetros del modelo, aislando la incertidumbre epistémica. Es la base de BALD en aprendizaje activo bayesiano.",
zh = "一种采集函数:选择使预测标签与模型参数之间互信息最大的输入,以隔离认知不确定性,是贝叶斯主动学习方法 BALD 的基础。",
term_es = "adquisición por información mutua",
term_zh = "互信息采集",
aliases_es = { "BALD", "adquisición BALD", "aprendizaje activo bayesiano por desacuerdo" },
aliases_zh = { "BALD", "BALD 采集", "贝叶斯主动学习(按不一致性)" },
}
data["mutual information uncertainty"] = {
short = "An epistemic uncertainty estimate given by the mutual information between the predictive label and the model parameters, equal to total predictive entropy minus the expected entropy under the posterior.",
article = nil,
aliases = { "MI uncertainty", "mutual-information uncertainty", "epistemic mutual information" },
es = "Estimación de incertidumbre epistémica dada por la información mutua entre la etiqueta predicha y los parámetros del modelo, igual a la entropía predictiva total menos la entropía esperada bajo la posterior.",
zh = "一种认知不确定性估计:预测标签与模型参数之间的互信息,等于总预测熵减去后验下的期望熵。",
term_es = "incertidumbre por información mutua",
term_zh = "互信息不确定性",
aliases_es = { "incertidumbre MI", "información mutua epistémica" },
aliases_zh = { "MI 不确定性", "认知互信息" },
}
data["muv dataset"] = {
short = "The Maximum Unbiased Validation dataset (Rohrer & Baumann, 2009): 17 PubChem assays in which actives and decoys are spatially separated in chemical space to remove analog and artificial-enrichment bias, providing a hard benchmark for virtual screening.",
article = nil,
aliases = { "MUV", "Maximum Unbiased Validation", "MUV benchmark" },
es = "Conjunto Maximum Unbiased Validation (Rohrer y Baumann, 2009): 17 ensayos de PubChem en los que activos y señuelos están espacialmente separados en el espacio químico para eliminar sesgos por análogos y enriquecimiento artificial, ofreciendo un benchmark exigente para cribado virtual.",
zh = "Maximum Unbiased Validation 数据集(Rohrer 与 Baumann,2009):包含 17 个 PubChem 测定,其中活性化合物与诱饵在化学空间中被空间分离,以消除类似物偏差和人为富集偏差,为虚拟筛选提供严格基准。",
term_es = "conjunto MUV",
term_zh = "MUV 数据集",
aliases_es = { "MUV", "Maximum Unbiased Validation", "benchmark MUV" },
aliases_zh = { "MUV", "Maximum Unbiased Validation", "MUV 基准" },
}
data["mvbench"] = {
short = "A comprehensive multimodal video understanding benchmark covering 20 challenging video tasks designed to evaluate temporal reasoning capabilities of video large language models, introduced with VideoChat2 in 2023.",
article = nil,
aliases = { "MVBench", "MVBench benchmark", "Multimodal Video Benchmark" },
es = "Benchmark integral de comprensión de video multimodal que abarca 20 tareas desafiantes diseñadas para evaluar las capacidades de razonamiento temporal de los grandes modelos de lenguaje sobre video, presentado junto con VideoChat2 en 2023.",
zh = "一个综合性多模态视频理解基准,涵盖 20 项具挑战性的视频任务,用于评测视频大语言模型的时间推理能力,于 2023 年与 VideoChat2 一同提出。",
term_es = "MVBench",
term_zh = "MVBench",
aliases_es = { "benchmark MVBench" },
aliases_zh = { "MVBench 基准", "多模态视频基准" },
}
data["mvdr beamformer"] = {
short = "Minimum Variance Distortionless Response beamformer: a multichannel filter that minimizes output noise variance while preserving the target signal from a specified direction without distortion.",
article = nil,
aliases = { "MVDR", "MVDR beamforming", "minimum variance distortionless response" },
es = "Beamformer de Mínima Varianza con Respuesta sin Distorsión: filtro multicanal que minimiza la varianza del ruido de salida preservando sin distorsión la señal objetivo procedente de una dirección especificada.",
zh = "最小方差无失真响应波束形成器:一种多通道滤波器,在不失真地保留来自指定方向的目标信号的同时,最小化输出噪声方差。",
term_es = "beamformer MVDR",
term_zh = "MVDR波束形成器",
aliases_es = { "MVDR", "conformador de haz MVDR" },
aliases_zh = { "MVDR", "最小方差无失真响应波束形成" },
}
data["mvdream"] = {
short = "A multi-view diffusion model that generates four geometrically consistent views of an object simultaneously, used as a 3D prior for text-to-3D generation via score distillation sampling.",
article = nil,
aliases = { "MVDream", "Multi-View Dream" },
es = "Modelo de difusión multi-vista que genera simultáneamente cuatro vistas geométricamente consistentes de un objeto, usado como prior 3D para la generación de texto a 3D mediante score distillation sampling.",
zh = "一种多视角扩散模型,可同时生成物体的四个几何一致视图,并作为 3D 先验通过分数蒸馏采样用于文本到 3D 生成。",
term_es = "MVDream",
term_zh = "MVDream",
aliases_es = { "Multi-View Dream" },
aliases_zh = { "Multi-View Dream", "多视角 Dream" },
}
data["mwer training"] = {
short = "Minimum Word Error Rate training: a sequence-level discriminative training criterion for speech recognition that directly minimizes expected word error rate over an N-best or sampled hypothesis set.",
article = nil,
aliases = { "MWER", "MWER training", "minimum word error rate training" },
es = "Entrenamiento de Mínima Tasa de Error de Palabra: criterio discriminativo a nivel de secuencia para reconocimiento de voz que minimiza directamente la tasa de error de palabra esperada sobre un conjunto de hipótesis N-best o muestreadas.",
zh = "最小词错误率训练:一种用于语音识别的序列级判别训练准则,在N-best或采样得到的假设集合上直接最小化期望的词错误率。",
term_es = "entrenamiento MWER",
term_zh = "MWER训练",
aliases_es = { "MWER", "entrenamiento de mínima tasa de error de palabra" },
aliases_zh = { "MWER", "最小词错率训练" },
}
data["mxfold2"] = {
short = "A deep learning-based RNA secondary structure prediction tool that combines a thermodynamic model with neural-network-learned scoring, improving accuracy over purely thermodynamic algorithms.",
article = nil,
aliases = { "MXfold2", "MXFold2", "mxfold 2" },
es = "Herramienta de predicción de estructura secundaria de ARN basada en aprendizaje profundo que combina un modelo termodinámico con puntuaciones aprendidas por una red neuronal, mejorando la precisión respecto a los algoritmos puramente termodinámicos.",
zh = "一种基于深度学习的 RNA 二级结构预测工具,将热力学模型与神经网络学习到的打分相结合,相较于纯热力学算法显著提升预测准确性。",
term_es = "MXfold2",
term_zh = "MXfold2",
aliases_es = { "MXfold2", "mxfold 2" },
aliases_zh = { "MXfold2", "MXFold2" },
}
data["mxmnet"] = {
short = "A multiplex molecular graph neural network for 3D molecular property prediction that uses two parallel message-passing layers — one over local chemical bonds and one over global geometric distances — to model both topology and geometry.",
article = nil,
aliases = { "MXMNet", "Multiplex Molecular Graph Neural Network" },
es = "Red neuronal de grafos moleculares multiplex para predecir propiedades moleculares en 3D, que combina dos capas paralelas de paso de mensajes —una sobre enlaces químicos locales y otra sobre distancias geométricas globales— para modelar topología y geometría.",
zh = "一种用于三维分子属性预测的多路分子图神经网络,通过两条并行的消息传递通路(一条沿局部化学键,一条基于全局几何距离)同时建模分子的拓扑与几何结构。",
term_es = "MXMNet",
term_zh = "MXMNet",
aliases_es = { "MXMNet" },
aliases_zh = { "多路分子图神经网络" },
}
data["n-best rescoring"] = {
short = "A two-pass decoding strategy in which a first-pass model produces a list of N candidate hypotheses (N-best list) that a second, typically larger or more contextual model rescores to select the final output.",
article = nil,
aliases = { "N-best rescoring", "n best rescoring", "nbest rescoring", "N-best list rescoring" },
es = "Estrategia de decodificación en dos pasos en la que un primer modelo produce una lista de N hipótesis candidatas (lista N-best) que un segundo modelo, normalmente mayor o más contextual, vuelve a puntuar para seleccionar la salida final.",
zh = "一种两遍解码策略:第一遍模型生成N个候选假设(N-best列表),由第二个通常更大或更具上下文能力的模型重新打分以选出最终输出。",
term_es = "rescoring N-best",
term_zh = "N-best重打分",
aliases_es = { "rescoring de lista N-best", "repuntuación N-best" },
aliases_zh = { "N-best重评分", "N最佳重打分" },
}
data["n-gram"] = {
short = "A contiguous sequence of n tokens (typically words or characters) extracted from a text. N-grams are a basic feature for language modeling, smoothing, and classical text classification.",
article = nil,
aliases = { "ngram", "n-grams", "N-gram", "n gram", "ngrams" },
es = "Secuencia contigua de n tokens (normalmente palabras o caracteres) extraída de un texto. Los n-gramas son una característica básica para el modelado del lenguaje, el suavizado y la clasificación clásica de textos.",
zh = "从文本中抽取的连续 n 个词项(通常是单词或字符)的序列。n-gram 是语言建模、平滑和传统文本分类中的基础特征。",
term_es = "n-grama",
term_zh = "n-gram",
aliases_es = { "n-grama", "n-gramas", "ngrama" },
aliases_zh = { "N 元语法", "N 元组", "n 元模型", "n 元文法" },
}
data["n-way k-shot"] = {
short = "Standard few-shot learning evaluation protocol in which each episode contains N novel classes and K labeled support examples per class, and the model must classify queries from those N classes.",
article = nil,
aliases = { "N-way K-shot", "n-way-k-shot", "few-shot N-way K-shot" },
es = "Protocolo estándar de evaluación en aprendizaje con pocos ejemplos en el que cada episodio contiene N clases nuevas y K ejemplos de apoyo etiquetados por clase, y el modelo debe clasificar consultas de esas N clases.",
zh = "少样本学习的标准评估协议,每个 episode 包含 N 个新类别且每类有 K 个带标签的支持样本,模型需要对来自这 N 个类别的查询样本进行分类。",
term_es = "N-vías K-disparos",
term_zh = "N-way K-shot",
aliases_es = { "N-way K-shot", "evaluación N-vías K-disparos" },
aliases_zh = { "N 类 K 样本", "N 路 K 样本" },
}
data["nadam"] = {
short = "An Adam variant that incorporates Nesterov momentum into the adaptive moment estimation, applying the lookahead update to the first-moment estimate.",
article = nil,
aliases = { "NAdam", "Nadam", "Nesterov-accelerated adaptive moment estimation" },
es = "Variante de Adam que incorpora el momentum de Nesterov en la estimación adaptativa de momentos, aplicando la actualización anticipada al estimador del primer momento.",
zh = "Adam 的一种变体,将 Nesterov 动量引入自适应矩估计,对一阶矩估计应用前瞻更新。",
term_es = "NAdam",
term_zh = "NAdam",
aliases_es = { "Adam con momentum de Nesterov" },
aliases_zh = { "NAdam 优化器", "Nesterov 加速自适应矩估计" },
}
data["naive rag"] = {
short = "The simplest retrieval-augmented generation pipeline: chunk and embed a corpus, retrieve top-k chunks for a user query by vector similarity, and concatenate them into the LLM prompt.",
article = nil,
aliases = { "Naive RAG", "vanilla RAG", "basic RAG", "retrieve-then-read" },
es = "El pipeline de generación aumentada por recuperación más simple: fragmentar y embeber un corpus, recuperar los k fragmentos más similares a la consulta del usuario por similitud vectorial y concatenarlos en el prompt del LLM.",
zh = "最简单的检索增强生成流程:将语料分块并嵌入,按向量相似度检索与用户查询最相近的 top-k 片段,并将其拼接到 LLM 提示中。",
term_es = "RAG naive",
term_zh = "朴素 RAG",
aliases_es = { "Naive RAG", "RAG básico", "RAG vanilla", "recuperar y leer" },
aliases_zh = { "Naive RAG", "基础 RAG", "原始 RAG" },
}
data["namd"] = {
short = "A parallel molecular dynamics code designed for high-performance simulation of large biomolecular systems, developed at the University of Illinois and widely used with the CHARMM and AMBER force fields.",
article = nil,
aliases = { "NAMD", "Nanoscale Molecular Dynamics" },
es = "Código paralelo de dinámica molecular diseñado para la simulación de alto rendimiento de grandes sistemas biomoleculares, desarrollado en la Universidad de Illinois y ampliamente utilizado con los campos de fuerza CHARMM y AMBER.",
zh = "一款面向大规模生物分子体系高性能模拟的并行分子动力学程序,由伊利诺伊大学开发,广泛与 CHARMM 和 AMBER 力场配合使用。",
term_es = "NAMD",
term_zh = "NAMD",
aliases_es = { "NAMD" },
aliases_zh = { "NAMD" },
}
data["name mover head"] = {
short = "An attention head identified in the IOI circuit of GPT-2 small that, at the final token position, attends to and copies the indirect-object name token into the residual stream so it becomes the predicted output.",
article = nil,
aliases = { "name mover heads", "name-mover head", "IOI name mover head", "name moving head" },
es = "Cabeza de atención identificada en el circuito IOI de GPT-2 small que, en la posición del último token, atiende al token del nombre del objeto indirecto y lo copia al flujo residual para que se convierta en la predicción.",
zh = "在GPT-2 small的IOI回路中被识别出的一种注意力头:在最后一个词元位置上关注并复制间接宾语的名字词元到残差流中,使其成为模型的最终预测。",
term_es = "cabeza name mover",
term_zh = "name mover注意力头",
aliases_es = { "cabezas name mover", "cabeza desplazadora de nombres" },
aliases_zh = { "name mover head", "姓名搬运注意力头", "名字搬运头" },
}
data["name perturbation"] = {
short = "An audit technique that swaps names in inputs (e.g., switching first names associated with different demographic groups) to detect whether a model's predictions change in response to demographic signal alone.",
article = nil,
aliases = { "name swapping", "name substitution test", "name-based audit", "name-perturbation audit" },
es = "Técnica de auditoría que sustituye nombres en las entradas (por ejemplo, intercambiando nombres asociados a distintos grupos demográficos) para detectar si las predicciones del modelo cambian solo por la señal demográfica.",
zh = "一种审计技术,通过替换输入中的人名(例如交换与不同人口群体相关联的名字)来检测模型预测是否仅因人口学信号而改变。",
term_es = "perturbación de nombres",
term_zh = "姓名扰动",
aliases_es = { "intercambio de nombres", "auditoría por sustitución de nombres" },
aliases_zh = { "姓名替换", "姓名替换测试", "基于姓名的审计" },
}
data["named entity recognition"] = {
short = "An NLP task that locates spans of text referring to named entities (such as persons, organizations, locations, dates) and classifies them into predefined categories. Typically formulated as sequence labeling.",
article = nil,
aliases = { "NER", "Named Entity Recognition", "named-entity recognition", "entity recognition", "entity extraction" },
es = "Tarea de PLN que localiza fragmentos de texto que se refieren a entidades nombradas (como personas, organizaciones, lugares o fechas) y los clasifica en categorías predefinidas. Suele formularse como etiquetado de secuencias.",
zh = "一项自然语言处理任务,识别文本中指代命名实体(如人名、机构、地名、日期)的片段,并将其归入预定义的类别,通常被建模为序列标注问题。",
term_es = "reconocimiento de entidades nombradas",
term_zh = "命名实体识别",
aliases_es = { "NER", "named entity recognition", "reconocimiento de entidades", "extracción de entidades" },
aliases_zh = { "NER", "named entity recognition", "实体识别", "命名实体抽取" },
}
data["nanobody design"] = {
short = "The computational engineering of nanobodies — single-domain antibody fragments (VHH) derived from camelid heavy-chain antibodies — using sequence- or structure-based generative models to obtain target-specific binders.",
article = nil,
aliases = { "Nanobody design", "VHH design", "single-domain antibody design" },
es = "Ingeniería computacional de nanocuerpos —fragmentos de anticuerpo de dominio único (VHH) derivados de los anticuerpos de cadena pesada de camélidos— mediante modelos generativos basados en secuencia o estructura para obtener aglutinantes específicos de una diana.",
zh = "对纳米抗体(源自骆驼科重链抗体的单域抗体片段 VHH)进行计算设计,通过基于序列或结构的生成模型获得对特定靶点具有亲和力的结合分子。",
term_es = "diseño de nanocuerpos",
term_zh = "纳米抗体设计",
aliases_es = { "diseño de nanobodies", "diseño de anticuerpos de dominio único" },
aliases_zh = { "VHH 设计", "单域抗体设计" },
}
data["nanopore sequencing"] = {
short = "A long-read sequencing technology, commercialized by Oxford Nanopore, that infers nucleotide identity from changes in ionic current as a single-stranded DNA or RNA molecule passes through a protein nanopore.",
article = nil,
aliases = { "Oxford Nanopore sequencing", "ONT sequencing", "nanopore sequencing technology", "Nanopore sequencing", "long-read nanopore" },
es = "Tecnología de secuenciación de lecturas largas, comercializada por Oxford Nanopore, que infiere la identidad de los nucleótidos a partir de los cambios de corriente iónica generados al pasar una molécula de ADN o ARN monocatenario por un nanoporo proteico.",
zh = "由 Oxford Nanopore 公司商业化的长读长测序技术,通过测量单链 DNA 或 RNA 分子穿过蛋白质纳米孔时离子电流的变化来推断核苷酸序列。",
term_es = "secuenciación por nanoporos",
term_zh = "纳米孔测序",
aliases_es = { "secuenciación nanopore", "secuenciación Oxford Nanopore", "secuenciación ONT", "tecnología de nanoporos" },
aliases_zh = { "纳米孔测序", "Oxford Nanopore 测序", "ONT 测序", "纳米孔长读长测序" },
}
data["nansy"] = {
short = "Neural Analysis and Synthesis: a voice modeling framework that disentangles speech into linguistic, pitch, energy, and timbre components for controllable resynthesis and voice conversion.",
article = nil,
aliases = { "NANSY", "neural analysis and synthesis" },
es = "Análisis y Síntesis Neuronal: marco de modelado de voz que desenreda el habla en componentes lingüístico, de tono, de energía y de timbre para una resíntesis controlable y conversión de voz.",
zh = "Neural Analysis and Synthesis:一种语音建模框架,将语音解耦为语言、音高、能量和音色等成分,以实现可控的再合成和语音转换。",
term_es = "NANSY",
term_zh = "NANSY",
aliases_es = { "análisis y síntesis neuronal" },
aliases_zh = { "神经分析与合成" },
}
data["nansy plus plus"] = {
short = "An extension of the NANSY voice modeling framework that improves disentanglement, robustness, and synthesis quality, supporting tasks such as zero-shot voice conversion and singing voice synthesis.",
article = nil,
aliases = { "NANSY++", "NANSY plus plus", "NANSYpp" },
es = "Extensión del marco de modelado de voz NANSY que mejora la separación de factores, la robustez y la calidad de síntesis, dando soporte a tareas como la conversión de voz zero-shot y la síntesis de voz cantada.",
zh = "NANSY语音建模框架的扩展版本,提升了特征解耦、鲁棒性和合成质量,支持零样本语音转换、歌唱语音合成等任务。",
term_es = "NANSY++",
term_zh = "NANSY++",
aliases_es = { "NANSY plus plus" },
aliases_zh = { "NANSY plus plus" },
}
data["nao"] = {
short = "Neural Architecture Optimization: a NAS method that maps discrete architectures to a continuous embedding via an encoder, optimizes a performance predictor by gradient ascent in that latent space, and decodes back to discrete architectures.",
article = nil,
aliases = { "NAO", "Neural Architecture Optimization" },
es = "Neural Architecture Optimization: método de NAS que mapea arquitecturas discretas a un embedding continuo mediante un codificador, optimiza un predictor de rendimiento por ascenso de gradiente en ese espacio latente y decodifica de vuelta a arquitecturas discretas.",
zh = "Neural Architecture Optimization(神经架构优化):一种 NAS 方法,通过编码器将离散架构映射到连续嵌入空间,在隐空间中通过梯度上升优化性能预测器,再解码回离散架构。",
term_es = "NAO",
term_zh = "NAO",
aliases_es = { "Neural Architecture Optimization", "optimización de arquitecturas neuronales" },
aliases_zh = { "神经架构优化", "Neural Architecture Optimization" },
}
data["nas accuracy reward"] = {
short = "In reinforcement-learning-based neural architecture search, the reward signal given to the controller, typically the validation accuracy (or a monotonic transform of it) of the child network sampled by the controller.",
article = nil,
aliases = { "NAS accuracy reward", "validation accuracy reward", "accuracy reward" },
es = "En búsqueda de arquitecturas neuronales basada en aprendizaje por refuerzo, la señal de recompensa dada al controlador, normalmente la precisión de validación (o una transformación monótona de ella) de la red hija muestreada.",
zh = "在基于强化学习的神经架构搜索中,提供给控制器的奖励信号,通常是控制器采样得到的子网络的验证集精度(或其单调变换)。",
term_es = "recompensa por precisión en NAS",
term_zh = "NAS 精度奖励",
aliases_es = { "recompensa de precisión", "recompensa de validación en NAS" },
aliases_zh = { "验证精度奖励", "精度奖励" },
}
data["nas controller"] = {
short = "The agent in reinforcement-learning-based neural architecture search that proposes child architectures, typically an RNN trained with policy gradient (REINFORCE or PPO) using validation accuracy as reward.",
article = nil,
aliases = { "NAS controller", "architecture controller", "RNN controller" },
es = "Agente en la búsqueda de arquitecturas neuronales basada en aprendizaje por refuerzo que propone arquitecturas hijas, normalmente una RNN entrenada con gradiente de política (REINFORCE o PPO) usando la precisión de validación como recompensa.",
zh = "基于强化学习的神经架构搜索中的智能体,负责提出子架构,通常是一个使用策略梯度(REINFORCE 或 PPO)训练的 RNN,以验证精度作为奖励。",
term_es = "controlador de NAS",
term_zh = "NAS 控制器",
aliases_es = { "controlador de arquitecturas", "controlador RNN" },
aliases_zh = { "架构控制器", "RNN 控制器" },
}
data["nas for nlp"] = {
short = "Application of neural architecture search to natural language processing tasks, optimizing recurrent, convolutional, or transformer-based architectures for problems such as language modeling, translation, and classification.",
article = nil,
aliases = { "NAS for NLP", "neural architecture search for NLP", "NAS in NLP" },
es = "Aplicación de la búsqueda de arquitecturas neuronales a tareas de procesamiento del lenguaje natural, optimizando arquitecturas recurrentes, convolucionales o basadas en transformers para problemas como modelado del lenguaje, traducción y clasificación.",
zh = "将神经架构搜索应用于自然语言处理任务,针对语言建模、翻译和分类等问题优化循环网络、卷积网络或基于 Transformer 的架构。",
term_es = "NAS para PLN",
term_zh = "面向 NLP 的 NAS",
aliases_es = { "búsqueda de arquitecturas para PLN", "NAS para procesamiento del lenguaje natural" },
aliases_zh = { "NLP 的神经架构搜索", "面向自然语言处理的 NAS" },
}
data["nas for object detection"] = {
short = "Application of neural architecture search to object detection, jointly or separately searching for backbones, necks (feature pyramids), and detection heads; representative methods include DetNAS, NAS-FCOS, and SpineNet.",
article = nil,
aliases = { "NAS for object detection", "neural architecture search for object detection", "detection NAS" },
es = "Aplicación de la búsqueda de arquitecturas neuronales a la detección de objetos, buscando de forma conjunta o separada backbones, cuellos (pirámides de características) y cabezas de detección; métodos representativos incluyen DetNAS, NAS-FCOS y SpineNet.",
zh = "将神经架构搜索应用于目标检测,联合或分别搜索骨干网络、颈部(特征金字塔)和检测头;代表性方法包括 DetNAS、NAS-FCOS 和 SpineNet。",
term_es = "NAS para detección de objetos",
term_zh = "面向目标检测的 NAS",
aliases_es = { "búsqueda de arquitecturas para detección", "NAS de detección" },
aliases_zh = { "目标检测 NAS", "检测 NAS" },
}
data["nas for segmentation"] = {
short = "Application of neural architecture search to semantic or instance segmentation, jointly searching cell topology and network-level features such as resolution paths; representative methods include Auto-DeepLab and DPC.",
article = nil,
aliases = { "NAS for segmentation", "neural architecture search for segmentation", "segmentation NAS" },
es = "Aplicación de la búsqueda de arquitecturas neuronales a la segmentación semántica o de instancias, buscando conjuntamente la topología de las celdas y características a nivel de red, como las rutas de resolución; métodos representativos incluyen Auto-DeepLab y DPC.",
zh = "将神经架构搜索应用于语义分割或实例分割,联合搜索单元拓扑和网络级特征(如分辨率路径);代表性方法包括 Auto-DeepLab 和 DPC。",
term_es = "NAS para segmentación",
term_zh = "面向分割的 NAS",
aliases_es = { "búsqueda de arquitecturas para segmentación", "NAS de segmentación" },
aliases_zh = { "分割 NAS", "语义分割 NAS" },
}
data["nas for transformers"] = {
short = "Neural architecture search applied to transformer models, optimizing dimensions such as depth, width, number of heads, FFN expansion, and attention variants; representative methods include AutoFormer, HAT, and the Evolved Transformer.",
article = nil,
aliases = { "NAS for transformers", "transformer NAS", "neural architecture search for transformers" },
es = "Búsqueda de arquitecturas neuronales aplicada a modelos transformer, optimizando dimensiones como profundidad, anchura, número de cabezas, expansión de la FFN y variantes de atención; métodos representativos incluyen AutoFormer, HAT y el Evolved Transformer.",
zh = "将神经架构搜索应用于 Transformer 模型,优化深度、宽度、头数、前馈层扩展系数和注意力变体等维度;代表性方法包括 AutoFormer、HAT 和 Evolved Transformer。",
term_es = "NAS para transformers",
term_zh = "面向 Transformer 的 NAS",
aliases_es = { "búsqueda de arquitecturas para transformers", "NAS de transformers" },
aliases_zh = { "Transformer NAS", "面向变换器的 NAS" },
}
data["nas latency penalty"] = {
short = "A reward-shaping term in NAS objectives that subtracts (or otherwise discounts) a function of measured or predicted inference latency, biasing the search toward hardware-efficient architectures.",
article = nil,
aliases = { "NAS latency penalty", "latency penalty", "latency-aware reward" },
es = "Término de modelado de recompensa en objetivos de NAS que resta (o descuenta) una función de la latencia de inferencia medida o predicha, sesgando la búsqueda hacia arquitecturas eficientes en hardware.",
zh = "NAS 目标中的奖励整形项,从奖励中减去(或以其他方式折扣)推理延迟(实测或预测)的函数,使搜索偏向硬件高效的架构。",
term_es = "penalización por latencia en NAS",
term_zh = "NAS 延迟惩罚",
aliases_es = { "penalización de latencia", "recompensa con penalización de latencia" },
aliases_zh = { "延迟惩罚项", "延迟感知奖励" },
}
data["nas operations"] = {
short = "The set of candidate primitive layers — such as 3x3 convolution, depthwise-separable convolution, max-pool, average-pool, identity, and zero — that a NAS algorithm can place at each edge or node of its search space.",
article = nil,
aliases = { "NAS operations", "candidate operations", "search space operations", "NAS ops" },
es = "Conjunto de capas primitivas candidatas — como convolución 3x3, convolución separable por profundidad, max-pool, average-pool, identidad y cero — que un algoritmo de NAS puede colocar en cada arista o nodo de su espacio de búsqueda.",
zh = "NAS 算法可在搜索空间的每条边或每个节点上放置的候选基本层集合,包括 3x3 卷积、深度可分离卷积、最大池化、平均池化、恒等映射和零操作等。",
term_es = "operaciones de NAS",
term_zh = "NAS 操作集",
aliases_es = { "operaciones candidatas", "operaciones del espacio de búsqueda" },
aliases_zh = { "候选操作", "搜索空间操作", "NAS 算子" },
}
data["nas reward shaping"] = {
short = "Modification of the reward signal in reinforcement-learning-based neural architecture search to incorporate auxiliary objectives — such as latency, FLOPs, or model size — beyond raw validation accuracy.",
article = nil,
aliases = { "NAS reward shaping", "reward shaping in NAS", "shaped NAS reward" },
es = "Modificación de la señal de recompensa en la búsqueda de arquitecturas neuronales basada en aprendizaje por refuerzo para incorporar objetivos auxiliares — como latencia, FLOPs o tamaño del modelo — además de la precisión de validación pura.",
zh = "在基于强化学习的神经架构搜索中,对奖励信号进行修改以纳入除原始验证精度之外的辅助目标(如延迟、FLOPs 或模型大小)。",
term_es = "modelado de recompensa en NAS",
term_zh = "NAS 奖励整形",
aliases_es = { "reward shaping en NAS", "modelado de recompensa para arquitecturas" },
aliases_zh = { "奖励塑造", "NAS 奖励塑形" },
}
data["nas search space"] = {
short = "The set of architectures a NAS algorithm can express, defined by allowed operations, connectivity patterns, depth, width, and macro-structure; common families include cell-based, chain-structured, and hierarchical search spaces.",
article = nil,
aliases = { "NAS search space", "architecture search space", "neural architecture search space" },
es = "Conjunto de arquitecturas que un algoritmo de NAS puede expresar, definido por las operaciones permitidas, los patrones de conectividad, la profundidad, la anchura y la macro-estructura; las familias comunes incluyen espacios basados en celdas, en cadena y jerárquicos.",
zh = "NAS 算法可以表达的架构集合,由允许的操作、连接模式、深度、宽度和宏观结构定义;常见的搜索空间家族包括基于单元的、链式结构的以及层次化的搜索空间。",
term_es = "espacio de búsqueda de NAS",
term_zh = "NAS 搜索空间",
aliases_es = { "espacio de búsqueda de arquitecturas", "espacio de búsqueda de NAS" },
aliases_zh = { "架构搜索空间", "神经架构搜索空间" },
}
data["nas-bench-101"] = {
short = "A tabular NAS benchmark of about 423,000 unique convolutional cell architectures trained on CIFAR-10, with precomputed accuracies and training times that allow query-based evaluation of NAS algorithms without retraining.",
article = nil,
aliases = { "NAS-Bench-101", "NASBench-101", "NASBench101" },
es = "Benchmark tabular de NAS con aproximadamente 423,000 arquitecturas únicas de celdas convolucionales entrenadas en CIFAR-10, con precisiones y tiempos de entrenamiento precomputados que permiten evaluar algoritmos de NAS por consulta sin reentrenar.",
zh = "一个表格化的 NAS 基准,包含约 42.3 万个在 CIFAR-10 上训练过的独特卷积单元架构,以及预先计算好的精度和训练时间,可通过查表评估 NAS 算法而无需重新训练。",
term_es = "NAS-Bench-101",
term_zh = "NAS-Bench-101",
aliases_es = { "NAS-Bench-101", "NASBench-101" },
aliases_zh = { "NAS-Bench-101", "NASBench101" },
}
data["nas-bench-1shot1"] = {
short = "A NAS benchmark that re-uses three subsets of the NAS-Bench-101 search space to enable fair, reproducible evaluation of one-shot weight-sharing NAS methods against ground-truth architecture rankings.",
article = nil,
aliases = { "NAS-Bench-1Shot1", "NASBench-1Shot1", "NAS-Bench-1shot1" },
es = "Benchmark de NAS que reutiliza tres subconjuntos del espacio de búsqueda de NAS-Bench-101 para permitir una evaluación justa y reproducible de métodos de NAS one-shot con compartición de pesos frente a rankings de arquitecturas de referencia.",
zh = "一个 NAS 基准,复用 NAS-Bench-101 搜索空间的三个子集,可对基于权重共享的一次性 NAS 方法进行公平、可复现的评估,并与真实架构排名对比。",
term_es = "NAS-Bench-1Shot1",
term_zh = "NAS-Bench-1Shot1",
aliases_es = { "NAS-Bench-1Shot1", "NASBench-1Shot1" },
aliases_zh = { "NAS-Bench-1Shot1", "NASBench-1Shot1" },
}
data["nas-bench-201"] = {
short = "A tabular NAS benchmark of 15,625 cell architectures over a fixed 4-node DARTS-like search space, with precomputed performance on CIFAR-10, CIFAR-100, and ImageNet-16-120.",
article = nil,
aliases = { "NAS-Bench-201", "NASBench-201", "NASBench201" },
es = "Benchmark tabular de NAS con 15,625 arquitecturas de celda sobre un espacio de búsqueda fijo de 4 nodos similar a DARTS, con rendimiento precomputado en CIFAR-10, CIFAR-100 e ImageNet-16-120.",
zh = "一个表格化的 NAS 基准,在固定的 4 节点类 DARTS 搜索空间上枚举了 15,625 个单元架构,并在 CIFAR-10、CIFAR-100 和 ImageNet-16-120 上提供预计算的性能。",
term_es = "NAS-Bench-201",
term_zh = "NAS-Bench-201",
aliases_es = { "NAS-Bench-201", "NASBench-201" },
aliases_zh = { "NAS-Bench-201", "NASBench201" },
}
data["nas-bench-301"] = {
short = "A surrogate NAS benchmark that uses regression models trained on a sample of evaluations to estimate accuracy for the entire DARTS search space (~10^18 architectures), enabling cheap evaluation of NAS algorithms on it.",
article = nil,
aliases = { "NAS-Bench-301", "NASBench-301", "NASBench301" },
es = "Benchmark de NAS basado en surrogates que usa modelos de regresión entrenados con una muestra de evaluaciones para estimar la precisión en todo el espacio de búsqueda de DARTS (~10^18 arquitecturas), permitiendo evaluar algoritmos de NAS de forma barata.",
zh = "一个基于代理模型的 NAS 基准,使用在评估样本上训练的回归模型,为整个 DARTS 搜索空间(约 10^18 个架构)估计精度,从而以较低成本评估 NAS 算法。",
term_es = "NAS-Bench-301",
term_zh = "NAS-Bench-301",
aliases_es = { "NAS-Bench-301", "NASBench-301" },
aliases_zh = { "NAS-Bench-301", "NASBench301" },
}
data["nas-bench-asr"] = {
short = "A NAS benchmark for automatic speech recognition that provides precomputed performance for thousands of architectures from a convolutional-recurrent search space evaluated on TIMIT.",
article = nil,
aliases = { "NAS-Bench-ASR", "NASBench-ASR" },
es = "Benchmark de NAS para reconocimiento automático del habla que proporciona rendimiento precomputado de miles de arquitecturas de un espacio de búsqueda convolucional-recurrente evaluadas en TIMIT.",
zh = "面向自动语音识别的 NAS 基准,在 TIMIT 上对来自卷积-循环搜索空间的数千个架构提供预计算的性能数据。",
term_es = "NAS-Bench-ASR",
term_zh = "NAS-Bench-ASR",
aliases_es = { "NAS-Bench-ASR", "NASBench-ASR" },
aliases_zh = { "NAS-Bench-ASR", "NASBench-ASR" },
}
data["nas-bench-graph"] = {
short = "A tabular NAS benchmark for graph neural networks that enumerates GNN architectures over a unified search space and reports precomputed performance across multiple node and graph classification datasets.",
article = nil,
aliases = { "NAS-Bench-Graph", "NASBench-Graph", "NAS-Bench Graph" },
es = "Benchmark tabular de NAS para redes neuronales sobre grafos que enumera arquitecturas GNN en un espacio de búsqueda unificado e informa rendimiento precomputado en múltiples conjuntos de datos de clasificación de nodos y grafos.",
zh = "面向图神经网络的表格化 NAS 基准,在统一的搜索空间中枚举 GNN 架构,并在多个节点分类和图分类数据集上提供预计算的性能。",
term_es = "NAS-Bench-Graph",
term_zh = "NAS-Bench-Graph",
aliases_es = { "NAS-Bench-Graph", "NASBench-Graph" },
aliases_zh = { "NAS-Bench-Graph", "NASBench-Graph" },
}
data["nas-bench-nlp"] = {
short = "A NAS benchmark for natural language processing that provides precomputed metrics for recurrent cell architectures trained on language modeling tasks (Penn Treebank, WikiText), targeting RNN-style search spaces.",
article = nil,
aliases = { "NAS-Bench-NLP", "NASBench-NLP" },
es = "Benchmark de NAS para procesamiento del lenguaje natural que proporciona métricas precomputadas para arquitecturas de celdas recurrentes entrenadas en tareas de modelado del lenguaje (Penn Treebank, WikiText), dirigido a espacios de búsqueda de tipo RNN.",
zh = "面向自然语言处理的 NAS 基准,为在语言建模任务(Penn Treebank、WikiText)上训练的循环单元架构提供预计算指标,针对 RNN 类型的搜索空间。",
term_es = "NAS-Bench-NLP",
term_zh = "NAS-Bench-NLP",
aliases_es = { "NAS-Bench-NLP", "NASBench-NLP" },
aliases_zh = { "NAS-Bench-NLP", "NASBench-NLP" },
}
data["nas-bench-x11"] = {
short = "A surrogate NAS benchmark that exposes full learning curves (rather than only final accuracies) for the NAS-Bench-101, NAS-Bench-201, and NAS-Bench-301 spaces, enabling evaluation of multi-fidelity and learning-curve-aware NAS methods.",
article = nil,
aliases = { "NAS-Bench-x11", "NAS-Bench-X11", "NASBench-x11" },
es = "Benchmark de NAS basado en surrogates que expone curvas de aprendizaje completas (no solo precisiones finales) para los espacios NAS-Bench-101, NAS-Bench-201 y NAS-Bench-301, permitiendo evaluar métodos de NAS multi-fidelidad y conscientes de la curva de aprendizaje.",
zh = "一个基于代理模型的 NAS 基准,为 NAS-Bench-101、NAS-Bench-201 和 NAS-Bench-301 等搜索空间提供完整的学习曲线(而非仅最终精度),便于评估多保真度和考虑学习曲线的 NAS 方法。",
term_es = "NAS-Bench-x11",
term_zh = "NAS-Bench-x11",
aliases_es = { "NAS-Bench-x11", "NASBench-x11" },
aliases_zh = { "NAS-Bench-x11", "NASBench-x11" },
}
data["nas-bench-zero"] = {
short = "A NAS benchmark designed to evaluate zero-cost proxies — predictors of architecture quality computed from a single mini-batch without training — across multiple search spaces and datasets.",
article = nil,
aliases = { "NAS-Bench-Zero", "NASBench-Zero", "Zero-Cost NAS-Bench" },
es = "Benchmark de NAS diseñado para evaluar proxies de coste cero — predictores de la calidad de arquitecturas calculados a partir de un único mini-batch sin entrenamiento — en múltiples espacios de búsqueda y conjuntos de datos.",
zh = "用于评估零成本代理(zero-cost proxies)的 NAS 基准,这些代理仅用一个 mini-batch 即可在不训练的情况下预测架构质量,基准覆盖多个搜索空间和数据集。",
term_es = "NAS-Bench-Zero",
term_zh = "NAS-Bench-Zero",
aliases_es = { "NAS-Bench-Zero", "benchmark de NAS de coste cero" },
aliases_zh = { "NAS-Bench-Zero", "零成本 NAS 基准" },
}
data["nas-fpn"] = {
short = "A neural architecture search method that learns the topology of a feature pyramid network for object detection by searching over candidate cross-scale connections, producing scalable detection backbones.",
article = nil,
aliases = { "NAS-FPN", "NASFPN" },
es = "Método de búsqueda de arquitecturas neuronales que aprende la topología de una red piramidal de características (FPN) para detección de objetos buscando conexiones candidatas entre escalas, produciendo backbones de detección escalables.",
zh = "一种神经架构搜索方法,通过在候选的跨尺度连接上进行搜索来学习用于目标检测的特征金字塔网络(FPN)拓扑,生成可扩展的检测主干网络。",
term_es = "NAS-FPN",
term_zh = "NAS-FPN",
aliases_es = { "NAS-FPN", "FPN buscada con NAS" },
aliases_zh = { "NAS-FPN", "搜索得到的特征金字塔网络" },
}
data["nas-rl"] = {
short = "Reinforcement learning approach to neural architecture search introduced by Zoph and Le (2017), in which an RNN controller samples architectures and is trained with REINFORCE using validation accuracy as reward.",
article = nil,
aliases = { "NAS-RL", "neural architecture search with reinforcement learning", "RL-based NAS", "Zoph and Le NAS" },
es = "Enfoque de búsqueda de arquitecturas neuronales basado en aprendizaje por refuerzo de Zoph y Le (2017), en el que un controlador RNN muestrea arquitecturas y se entrena con REINFORCE usando la precisión de validación como recompensa.",
zh = "Zoph 和 Le (2017) 提出的基于强化学习的神经架构搜索方法,使用 RNN 控制器采样架构,并以验证准确率作为奖励通过 REINFORCE 算法训练控制器。",
term_es = "NAS-RL",
term_zh = "NAS-RL",
aliases_es = { "búsqueda de arquitecturas con refuerzo", "NAS basado en RL" },
aliases_zh = { "基于强化学习的神经架构搜索", "强化学习 NAS" },
}
data["nas-vit"] = {
short = "Family of vision transformer architectures discovered via neural architecture search, jointly searching depth, width, embedding dimension, head count, and MLP ratio under FLOPs or latency constraints.",
article = nil,
aliases = { "NAS-ViT", "NASViT", "searched ViT", "searched vision transformer" },
es = "Familia de arquitecturas de transformer de visión descubiertas mediante búsqueda de arquitecturas neuronales, optimizando conjuntamente profundidad, ancho, dimensión de embedding, número de cabezas y ratio MLP bajo restricciones de FLOPs o latencia.",
zh = "通过神经架构搜索发现的视觉 Transformer 架构族,在 FLOPs 或延迟约束下联合搜索深度、宽度、嵌入维度、注意力头数和 MLP 比例。",
term_es = "NAS-ViT",
term_zh = "NAS-ViT",
aliases_es = { "ViT obtenido por NAS", "transformer de visión buscado" },
aliases_zh = { "搜索得到的 ViT", "NAS 视觉 Transformer" },
}
data["nasbot"] = {
short = "Neural architecture search method based on Bayesian optimization with a Gaussian process kernel defined over networks via the optimal transport (OTMANN) distance between architectures.",
article = nil,
aliases = { "NASBOT", "Neural Architecture Search with Bayesian Optimisation and Optimal Transport", "OTMANN-NAS" },
es = "Método de búsqueda de arquitecturas neuronales basado en optimización bayesiana con un kernel de proceso gaussiano definido sobre redes mediante la distancia OTMANN (transporte óptimo) entre arquitecturas.",
zh = "基于贝叶斯优化的神经架构搜索方法,通过架构间的最优传输距离(OTMANN)定义高斯过程核函数。",
term_es = "NASBOT",
term_zh = "NASBOT",
aliases_es = { "NAS bayesiano con transporte óptimo" },
aliases_zh = { "贝叶斯优化神经架构搜索", "NASBOT 方法" },
}
data["nasformer"] = {
short = "Neural architecture search applied to transformer search spaces, jointly exploring attention type, head dimension, FFN ratio, and depth to obtain efficient transformer variants for vision or language tasks.",
article = nil,
aliases = { "NASformer", "NAS-former", "searched transformer architecture" },
es = "Aplicación de búsqueda de arquitecturas neuronales a espacios de transformers, explorando conjuntamente tipo de atención, dimensión de cabezas, ratio FFN y profundidad para obtener variantes eficientes para tareas de visión o lenguaje.",
zh = "将神经架构搜索应用于 Transformer 搜索空间,联合搜索注意力类型、头维度、FFN 比例和深度,以获得用于视觉或语言任务的高效 Transformer 变体。",
term_es = "NASformer",
term_zh = "NASformer",
aliases_es = { "transformer buscado por NAS" },
aliases_zh = { "搜索的 Transformer", "NAS Transformer" },
}
data["naslib"] = {
short = "Open-source Python library that provides modular implementations of neural architecture search algorithms, search spaces, and benchmarks under a unified API for fair comparison and reproducibility.",
article = nil,
aliases = { "NASLib", "NAS-Lib", "naslib library" },
es = "Biblioteca Python de código abierto que ofrece implementaciones modulares de algoritmos, espacios de búsqueda y benchmarks de NAS bajo una API unificada para facilitar la comparación justa y la reproducibilidad.",
zh = "开源 Python 库,在统一 API 下提供神经架构搜索算法、搜索空间和基准测试的模块化实现,便于公平比较和可复现研究。",
term_es = "NASLib",
term_zh = "NASLib",
aliases_es = { "biblioteca NASLib" },
aliases_zh = { "NASLib 库" },
}
data["nasnet"] = {
short = "A convolutional network architecture introduced by Zoph et al. in 2018 whose building blocks (cells) were discovered automatically by neural architecture search on a smaller proxy dataset, then transferred to ImageNet.",
article = nil,
aliases = { "NASNet", "NASNet-A", "NASNet-Large", "NASNet-Mobile" },
es = "Arquitectura de red convolucional presentada por Zoph et al. en 2018 cuyos bloques constructivos (celdas) fueron descubiertos automáticamente mediante búsqueda de arquitecturas neuronales en un conjunto de datos sustituto más pequeño y luego transferidos a ImageNet.",
zh = "由 Zoph 等人于 2018 年提出的卷积网络架构,其构建块(cell)通过在较小的代理数据集上进行神经架构搜索自动发现,然后迁移到 ImageNet。",
term_es = "NASNet",
term_zh = "NASNet",
aliases_es = { "NASNet-A", "NASNet-Large", "NASNet-Mobile" },
aliases_zh = { "NASNet-A", "NASNet-Large", "NASNet-Mobile" },
}
data["nasnet-a-mobile"] = {
short = "Mobile-sized variant of NASNet-A obtained by stacking fewer normal and reduction cells discovered via reinforcement-learning-based search on CIFAR-10, designed for resource-constrained ImageNet inference.",
article = nil,
aliases = { "NASNet-A Mobile", "NASNet-A-Mobile", "mobile NASNet" },
es = "Variante móvil de NASNet-A obtenida apilando menos celdas normales y de reducción descubiertas mediante búsqueda basada en aprendizaje por refuerzo en CIFAR-10, diseñada para inferencia en ImageNet con recursos limitados.",
zh = "NASNet-A 的移动端变体,通过堆叠较少的在 CIFAR-10 上经强化学习搜索得到的 normal cell 和 reduction cell 而得,面向资源受限的 ImageNet 推理。",
term_es = "NASNet-A Mobile",
term_zh = "NASNet-A Mobile",
aliases_es = { "NASNet-A móvil" },
aliases_zh = { "移动版 NASNet-A", "NASNet-A 移动端" },
}
data["nasnet-large"] = {
short = "Larger configuration of NASNet that stacks more cells and uses higher channel widths than the mobile variant, achieving stronger ImageNet accuracy at the cost of substantially higher FLOPs and parameters.",
article = nil,
aliases = { "NASNet-Large", "NASNet large", "large NASNet" },
es = "Configuración mayor de NASNet que apila más celdas y usa anchos de canal superiores que la variante móvil, logrando mayor precisión en ImageNet a costa de más FLOPs y parámetros.",
zh = "NASNet 的大型配置,相比移动版堆叠更多 cell 并使用更宽的通道,可在 ImageNet 上取得更高准确率,但 FLOPs 和参数量也显著增加。",
term_es = "NASNet-Large",
term_zh = "NASNet-Large",
aliases_es = { "NASNet grande" },
aliases_zh = { "大型 NASNet", "NASNet 大模型" },
}
data["naswot"] = {
short = "Training-free neural architecture search proxy that scores candidate networks by the diversity of their activation patterns on a single mini-batch at initialization, correlating with final trained accuracy.",
article = nil,
aliases = { "NASWOT", "NAS Without Training", "Neural Architecture Search Without Training", "training-free NAS proxy" },
es = "Proxy de búsqueda de arquitecturas neuronales sin entrenamiento que puntúa redes candidatas por la diversidad de sus patrones de activación en un único minilote al inicializar, correlacionada con la precisión final tras entrenar.",
zh = "无训练神经架构搜索代理,通过候选网络在初始化时单个小批次上激活模式的多样性来评分,该评分与最终训练后的准确率相关。",
term_es = "NASWOT",
term_zh = "NASWOT",
aliases_es = { "NAS sin entrenamiento", "proxy NAS sin entrenamiento" },
aliases_zh = { "无训练 NAS", "免训练神经架构搜索" },
}
data["nationality bias"] = {
short = "Systematic unfairness in which a model's outputs differ based on a person's nationality or country of origin, often reflecting stereotypes present in training data.",
article = nil,
aliases = { "country-of-origin bias", "nationality-based bias", "national-origin bias" },
es = "Sesgo sistemático en el que las salidas de un modelo difieren según la nacionalidad o el país de origen de una persona, reflejando con frecuencia estereotipos presentes en los datos de entrenamiento.",
zh = "一种系统性不公平,模型的输出会因个人的国籍或原籍国而不同,常反映训练数据中存在的刻板印象。",
term_es = "sesgo de nacionalidad",
term_zh = "国籍偏见",
aliases_es = { "sesgo por país de origen", "sesgo basado en nacionalidad" },
aliases_zh = { "原籍国偏见", "基于国籍的偏见" },
}
data["nats-bench"] = {
short = "Benchmark for neural architecture search that extends NAS-Bench-201 with a topology search space and a size search space, providing tabular access to trained accuracies and costs across many configurations.",
article = nil,
aliases = { "NATS-Bench", "NATS Bench", "Neural Architecture Topology and Size Bench" },
es = "Banco de pruebas para búsqueda de arquitecturas neuronales que amplía NAS-Bench-201 con un espacio de topología y otro de tamaño, ofreciendo acceso tabular a precisiones y costos entrenados en muchas configuraciones.",
zh = "神经架构搜索基准,在 NAS-Bench-201 基础上扩展出拓扑搜索空间和尺寸搜索空间,以表格形式提供大量配置的训练准确率与成本。",
term_es = "NATS-Bench",
term_zh = "NATS-Bench",
aliases_es = { "benchmark NATS-Bench" },
aliases_zh = { "NATS-Bench 基准" },
}
data["natural compression"] = {
short = "A randomized gradient compression scheme that rounds each scalar to the nearest power of two with probabilities matching its magnitude, yielding an unbiased estimator with bounded variance and very low communication cost.",
article = nil,
aliases = { "Cnat", "natural dithering compression", "power-of-two compression (Horváth et al.)", "natural compressor" },
es = "Esquema aleatorizado de compresión de gradientes que redondea cada escalar a la potencia de dos más cercana con probabilidades acordes a su magnitud, produciendo un estimador insesgado con varianza acotada y muy bajo coste de comunicación.",
zh = "一种随机化的梯度压缩方法:按与数值大小匹配的概率将每个标量舍入到最近的 2 的幂,得到方差有界的无偏估计且通信成本极低。",
term_es = "compresión natural",
term_zh = "自然压缩",
aliases_es = { "Cnat", "compresor natural", "compresión por potencias de dos" },
aliases_zh = { "Cnat", "自然压缩器", "二的幂自然压缩" },
}
data["natural direct effect"] = {
short = "The expected change in outcome due to a change in treatment while holding the mediator at the value it would naturally take under the control treatment; a key estimand in causal mediation analysis.",
article = nil,
aliases = { "NDE", "pure direct effect", "natural direct causal effect" },
es = "Cambio esperado en el resultado debido a un cambio en el tratamiento manteniendo el mediador en el valor que tomaría naturalmente bajo el tratamiento de control; un estimando clave en el análisis de mediación causal.",
zh = "在中介变量取其在对照处理下自然取值时,处理变化所引起的结果的期望变化;这是因果中介分析中的一个关键估计量。",
term_es = "efecto directo natural",
term_zh = "自然直接效应",
aliases_es = { "NDE", "efecto directo puro" },
aliases_zh = { "NDE", "纯直接效应", "自然直接因果效应" },
}
data["natural experiment"] = {
short = "An empirical study in which units are exposed to treatment by an external event or policy that is plausibly as-if random with respect to outcomes, allowing causal inference without a designed randomized trial.",
article = nil,
aliases = { "quasi-experiment (loose usage)", "as-if random experiment" },
es = "Estudio empírico en el que las unidades se exponen al tratamiento mediante un evento o política externos que es plausiblemente como-si-aleatorio respecto al resultado, lo que permite la inferencia causal sin un ensayo aleatorizado diseñado.",
zh = "一种实证研究,其中单位通过外部事件或政策接受处理,且该过程相对于结果可视为\"近似随机\",从而无需设计的随机试验即可进行因果推断。",
term_es = "experimento natural",
term_zh = "自然实验",
aliases_es = { "cuasi-experimento (uso laxo)", "experimento como-si-aleatorio" },
aliases_zh = { "准实验(宽义)", "近似随机实验" },
}
data["natural gradient descent"] = {
short = "An optimization method that preconditions the gradient by the inverse Fisher information matrix, producing parameter updates that are invariant to smooth reparameterizations of the model.",
article = nil,
aliases = { "natural gradient", "NGD", "Amari natural gradient" },
es = "Método de optimización que precondiciona el gradiente con la inversa de la matriz de información de Fisher, produciendo actualizaciones de parámetros invariantes ante reparametrizaciones suaves del modelo.",
zh = "通过Fisher信息矩阵的逆对梯度进行预条件化的优化方法,使参数更新对模型的光滑重参数化保持不变。",
term_es = "descenso por gradiente natural",
term_zh = "自然梯度下降",
aliases_es = { "gradiente natural", "NGD" },
aliases_zh = { "自然梯度", "自然梯度法", "NGD" },
}
data["natural indirect effect"] = {
short = "The expected change in outcome attributable to changing the mediator from its value under control to its value under treatment, while holding treatment fixed; the complement of the natural direct effect.",
article = nil,
aliases = { "NIE", "pure indirect effect", "natural indirect causal effect" },
es = "Cambio esperado en el resultado atribuible a cambiar el mediador desde su valor bajo control al valor que tomaría bajo tratamiento, manteniendo fijo el tratamiento; complemento del efecto directo natural.",
zh = "在保持处理不变时,将中介变量从其在对照下的取值改为其在处理下的取值所引起的结果的期望变化;它与自然直接效应互为补充。",
term_es = "efecto indirecto natural",
term_zh = "自然间接效应",
aliases_es = { "NIE", "efecto indirecto puro" },
aliases_zh = { "NIE", "纯间接效应", "自然间接因果效应" },
}
data["natural language explanation"] = {
short = "A free-form textual rationale that describes, in human language, the reasoning or evidence behind a model's prediction; can be self-generated by an LLM, distilled from chain-of-thought, or trained against human-written rationales.",
article = nil,
aliases = { "NLE", "natural-language explanation", "free-text rationale", "free-form rationale", "textual explanation" },
es = "Justificación textual en formato libre que describe, en lenguaje humano, el razonamiento o las evidencias detrás de una predicción del modelo; puede generarse por el propio LLM, destilarse a partir de cadenas de pensamiento o entrenarse contra justificaciones escritas por personas.",
zh = "用自然语言以自由文本形式给出的解释,描述模型预测背后的推理或证据;可由大语言模型自身生成、从思维链中蒸馏,或基于人类撰写的理由进行训练。",
term_es = "explicación en lenguaje natural",
term_zh = "自然语言解释",
aliases_es = { "NLE", "explicación textual", "justificación en lenguaje natural" },
aliases_zh = { "NLE", "自然语言理由", "文本解释" },
}
data["natural language inference"] = {
short = "The task of deciding whether a hypothesis sentence is entailed by, contradicts, or is neutral with respect to a premise sentence. A core benchmark for evaluating sentence-level semantic understanding.",
article = nil,
aliases = { "NLI", "textual entailment", "recognizing textual entailment", "RTE" },
es = "Tarea consistente en decidir si una hipótesis es implicada por, contradice o es neutral respecto a una premisa. Es un benchmark central para evaluar la comprensión semántica a nivel de oración.",
zh = "判断一个假设句子相对于前提句子是蕴含、矛盾还是中立的任务,是评估句级语义理解能力的核心基准之一。",
term_es = "inferencia en lenguaje natural",
term_zh = "自然语言推理",
aliases_es = { "NLI", "implicación textual", "reconocimiento de implicación textual", "RTE" },
aliases_zh = { "NLI", "文本蕴含", "文本蕴涵识别", "RTE" },
}
data["natural-language proof"] = {
short = "A proof of a mathematical or logical statement written in (semi-)natural language rather than a formal calculus, optionally annotated with structure such as steps, justifications, and lemmas. Used as training and evaluation data for LLM-based theorem proving.",
article = nil,
aliases = { "natural language proof", "NL proof", "informal proof", "natural-language mathematical proof" },
es = "Demostración de un enunciado matemático o lógico escrita en lenguaje (semi)natural en lugar de un cálculo formal, opcionalmente anotada con estructura como pasos, justificaciones y lemas. Se utiliza como datos de entrenamiento y evaluación para la demostración de teoremas con LLM.",
zh = "用(半)自然语言而非形式演算书写的数学或逻辑命题证明,可选地以步骤、依据和引理等结构进行标注,常用作基于大语言模型的定理证明的训练与评估数据。",
term_es = "demostración en lenguaje natural",
term_zh = "自然语言证明",
aliases_es = { "prueba en lenguaje natural", "demostración informal", "prueba NL" },
aliases_zh = { "自然语言形式证明", "非形式化证明", "NL 证明" },
}
data["naturalness mos"] = {
short = "A subjective Mean Opinion Score in which human listeners rate the naturalness of synthesized or processed speech on a 1-5 scale, used as a standard quality metric for TTS and voice conversion.",
article = nil,
aliases = { "MOS naturalness", "naturalness MOS", "naturalness mean opinion score" },
es = "Puntuación Media de Opinión subjetiva en la que oyentes humanos valoran la naturalidad del habla sintetizada o procesada en una escala de 1 a 5, empleada como métrica estándar de calidad en TTS y conversión de voz.",
zh = "一种主观平均意见分,由听者按1至5分评价合成或处理后语音的自然度,是TTS和语音转换的标准质量指标。",
term_es = "MOS de naturalidad",
term_zh = "自然度MOS",
aliases_es = { "puntuación media de opinión de naturalidad" },
aliases_zh = { "自然度平均意见分", "naturalness MOS" },
}
data["naturalspeech"] = {
short = "A neural text-to-speech system from Microsoft that achieves human-level naturalness on LJSpeech using a fully end-to-end variational architecture with phoneme pre-training and bidirectional prior/posterior modeling.",
article = nil,
aliases = { "NaturalSpeech", "Natural Speech" },
es = "Sistema neuronal de síntesis de voz de Microsoft que alcanza naturalidad de nivel humano en LJSpeech mediante una arquitectura variacional totalmente extremo a extremo con preentrenamiento de fonemas y modelado bidireccional de a priori/a posteriori.",
zh = "微软提出的神经文本转语音系统,采用端到端变分架构,结合音素预训练和双向先验/后验建模,在LJSpeech上达到人类水平的自然度。",
term_es = "NaturalSpeech",
term_zh = "NaturalSpeech",
aliases_es = { "NaturalSpeech" },
aliases_zh = { "NaturalSpeech" },
}
data["naturalspeech 2"] = {
short = "A latent diffusion text-to-speech model from Microsoft that synthesizes high-fidelity speech with natural prosody using a residual vector quantizer codec and a non-autoregressive diffusion prior.",
article = nil,
aliases = { "NaturalSpeech 2", "NaturalSpeech2", "NS2" },
es = "Modelo de texto a voz basado en difusión latente desarrollado por Microsoft que sintetiza habla de alta fidelidad con prosodia natural mediante un códec de cuantización vectorial residual y un prior de difusión no autorregresivo.",
zh = "微软提出的潜在扩散文本到语音模型,使用残差向量量化编解码器和非自回归扩散先验,合成具有自然韵律的高保真语音。",
term_es = "NaturalSpeech 2",
term_zh = "NaturalSpeech 2",
aliases_es = { "NaturalSpeech2" },
aliases_zh = { "NaturalSpeech2", "自然语音 2" },
}
data["naturalspeech 3"] = {
short = "A factorized codec text-to-speech system from Microsoft that disentangles speech into content, prosody, timbre, and acoustic details, generating each attribute with a dedicated discrete diffusion model for zero-shot voice synthesis.",
article = nil,
aliases = { "NaturalSpeech 3", "NaturalSpeech3", "NS3" },
es = "Sistema de texto a voz con códec factorizado de Microsoft que descompone el habla en contenido, prosodia, timbre y detalles acústicos, generando cada atributo con un modelo de difusión discreto dedicado para síntesis de voz zero-shot.",
zh = "微软提出的因子化编解码器文本到语音系统,将语音解耦为内容、韵律、音色和声学细节,并用各自的离散扩散模型分别生成,从而实现零样本语音合成。",
term_es = "NaturalSpeech 3",
term_zh = "NaturalSpeech 3",
aliases_es = { "NaturalSpeech3" },
aliases_zh = { "NaturalSpeech3", "自然语音 3" },
}
data["nccl"] = {
short = "NVIDIA Collective Communications Library, a high-performance library providing multi-GPU and multi-node collective primitives (all-reduce, all-gather, broadcast, reduce-scatter) optimized for NVLink, PCIe, and InfiniBand topologies.",
article = nil,
aliases = { "NCCL", "NVIDIA Collective Communications Library", "nccl2" },
es = "NVIDIA Collective Communications Library, biblioteca de alto rendimiento que ofrece primitivas colectivas multi-GPU y multi-nodo (all-reduce, all-gather, broadcast, reduce-scatter) optimizadas para topologías NVLink, PCIe e InfiniBand.",
zh = "NVIDIA 集合通信库(NCCL),提供针对 NVLink、PCIe 和 InfiniBand 拓扑优化的高性能多 GPU、多节点集合通信原语(all-reduce、all-gather、broadcast、reduce-scatter)。",
term_es = "NCCL",
term_zh = "NCCL",
aliases_es = { "NCCL", "biblioteca NCCL", "NVIDIA Collective Communications Library" },
aliases_zh = { "NCCL", "NVIDIA 集合通信库" },
}
data["nce loss"] = {
short = "The Noise Contrastive Estimation loss, a binary cross-entropy objective that trains a model to distinguish data samples from samples drawn from a known noise distribution, providing a tractable alternative to maximum likelihood for unnormalized models.",
article = nil,
aliases = { "NCE loss", "noise contrastive estimation loss", "NCE objective" },
es = "Pérdida de Estimación por Contraste con Ruido, un objetivo de entropía cruzada binaria que entrena al modelo para distinguir muestras de datos de muestras de una distribución de ruido conocida, ofreciendo una alternativa tratable a la máxima verosimilitud para modelos no normalizados.",
zh = "噪声对比估计损失:一种二元交叉熵目标,训练模型区分数据样本与从已知噪声分布中抽取的样本,为未归一化模型提供了一种可计算的最大似然替代方案。",
term_es = "pérdida NCE",
term_zh = "NCE 损失",
aliases_es = { "pérdida de estimación por contraste con ruido", "objetivo NCE" },
aliases_zh = { "NCE 损失", "噪声对比估计损失", "NCE 目标" },
}
data["nearest counterfactual"] = {
short = "Among all inputs that the model classifies into a target alternative class, the one closest to the original input under a chosen distance metric, used to explain a prediction by exhibiting a minimal flip-inducing edit.",
article = nil,
aliases = { "nearest counterfactual explanation", "closest counterfactual", "nearest counterfactual example" },
es = "Entre todas las entradas que el modelo clasifica en una clase alternativa deseada, la más cercana a la entrada original según una métrica de distancia elegida; se utiliza para explicar una predicción mostrando la edición mínima que cambia el resultado.",
zh = "在被模型分类为目标替代类别的所有输入中,按选定距离度量与原始输入最接近的那一个,用以通过展示能使预测翻转的最小修改来解释预测结果。",
term_es = "contrafactual más cercano",
term_zh = "最近反事实",
aliases_es = { "explicación contrafactual más cercana", "contrafactual mínimo más próximo" },
aliases_zh = { "最近反事实解释", "最接近反事实", "最相近反事实样本" },
}
data["nearest neighbor matching"] = {
short = "A matching estimator for causal effects that pairs each treated unit with the control unit (or units) closest in covariate or propensity-score space; estimates effects from outcome differences within matched sets.",
article = nil,
aliases = { "NN matching", "nearest-neighbour matching", "k-nearest-neighbor matching" },
es = "Estimador por emparejamiento para efectos causales que asocia cada unidad tratada con la(s) unidad(es) de control más cercana(s) en el espacio de covariables o de puntaje de propensión; estima efectos a partir de diferencias de resultados dentro de los conjuntos emparejados.",
zh = "一种用于因果效应估计的匹配方法,将每个处理单位与协变量或倾向得分空间中最接近的对照单位(或多个单位)配对,并基于匹配集中的结果差异估计效应。",
term_es = "emparejamiento por vecino más cercano",
term_zh = "最近邻匹配",
aliases_es = { "matching de vecino más cercano", "emparejamiento NN", "matching k-NN" },
aliases_zh = { "最近邻配对", "NN 匹配", "k 近邻匹配" },
}
data["needle in a haystack"] = {
short = "An evaluation protocol for long-context language models that inserts a small piece of unrelated information (the needle) at a controlled position inside a long document (the haystack) and tests whether the model can recall it.",
article = nil,
aliases = { "needle-in-a-haystack", "NIAH", "needle in haystack test", "long-context recall test" },
es = "Protocolo de evaluación para modelos de lenguaje de contexto largo que inserta una pequeña pieza de información no relacionada (la aguja) en una posición controlada dentro de un documento largo (el pajar) y comprueba si el modelo puede recuperarla.",
zh = "一种针对长上下文语言模型的评估方法,在长文档(草堆)的特定位置插入一小段不相关信息(针),测试模型能否准确回忆该信息。",
term_es = "aguja en un pajar",
term_zh = "大海捞针",
aliases_es = { "needle in a haystack", "NIAH", "prueba de recuperación de contexto largo" },
aliases_zh = { "needle in a haystack", "NIAH", "长上下文检索测试" },
}
data["needleman-wunsch"] = {
short = "A dynamic programming algorithm for global pairwise sequence alignment that finds the optimal alignment of two sequences end-to-end under a given scoring scheme.",
article = nil,
aliases = { "Needleman-Wunsch", "Needleman–Wunsch", "Needleman-Wunsch algorithm", "global alignment algorithm", "NW algorithm" },
es = "Algoritmo de programación dinámica para el alineamiento global de pares de secuencias que encuentra el alineamiento óptimo de extremo a extremo de dos secuencias bajo un esquema de puntuación dado.",
zh = "一种用于全局两两序列比对的动态规划算法,在给定打分方案下求解两条序列从头到尾的最优比对。",
term_es = "Needleman-Wunsch",
term_zh = "Needleman-Wunsch 算法",
aliases_es = { "algoritmo de Needleman-Wunsch", "alineamiento global de Needleman-Wunsch", "algoritmo NW" },
aliases_zh = { "Needleman-Wunsch", "Needleman-Wunsch 算法", "全局比对算法", "NW 算法" },
}
data["negation as failure"] = {
short = "A non-monotonic inference rule, used in Prolog and answer-set programming, that derives ¬p whenever p cannot be proved from the program. Treats the database as closed and is distinct from classical logical negation.",
article = nil,
aliases = { "NAF", "negation-as-failure", "closed-world negation", "Prolog negation as failure" },
es = "Regla de inferencia no monotónica, usada en Prolog y en programación con conjuntos de respuestas, que deriva ¬p cuando p no puede demostrarse a partir del programa. Trata la base de datos como cerrada y se distingue de la negación lógica clásica.",
zh = "一种非单调推理规则,在 Prolog 和回答集编程中使用:若无法从程序推出 p,则导出 ¬p。它将数据库视为封闭世界,与经典逻辑否定不同。",
term_es = "negación como fallo",
term_zh = "失败即否定",
aliases_es = { "NAF", "negación por fallo", "negación de mundo cerrado" },
aliases_zh = { "NAF", "否定即失败", "封闭世界否定", "Prolog 失败即否定" },
}
data["negative attribution"] = {
short = "An attribution score with negative sign, indicating that the corresponding feature or token decreases the model's score for the explained class — i.e., it pushes the prediction away from that class.",
article = nil,
aliases = { "negative attributions", "negative feature attribution", "negative saliency" },
es = "Puntuación de atribución con signo negativo que indica que la característica o el token correspondiente disminuye la puntuación del modelo para la clase explicada, es decir, aleja la predicción de esa clase.",
zh = "带负号的归因分数,表示对应特征或词元会降低模型在被解释类别上的得分,即将预测推离该类别。",
term_es = "atribución negativa",
term_zh = "负归因",
aliases_es = { "atribuciones negativas", "atribución de características negativa", "saliencia negativa" },
aliases_zh = { "负向归因", "负贡献", "负显著性" },
}
data["negative control exposure"] = {
short = "An exposure variable known to have no causal effect on the outcome of interest but expected to share unmeasured confounders with the actual exposure; used to detect and adjust for residual confounding.",
article = nil,
aliases = { "NCE", "negative exposure control", "negative-control treatment" },
es = "Variable de exposición de la que se sabe que no tiene efecto causal sobre el resultado de interés, pero que se espera comparta confusores no medidos con la exposición real; se utiliza para detectar y ajustar por confusión residual.",
zh = "一种已知对所关注结果不存在因果效应、但预期与真实暴露共享未观测混杂因子的暴露变量;用于检测并校正残余混杂。",
term_es = "exposición de control negativo",
term_zh = "阴性对照暴露",
aliases_es = { "control negativo de exposición", "exposición control negativa", "NCE" },
aliases_zh = { "阴性暴露对照", "负控制暴露", "negative control exposure" },
}
data["negative control outcome"] = {
short = "An outcome variable known to be unaffected by the treatment but plausibly subject to the same unmeasured confounding as the outcome of interest; used as a falsification test for residual confounding.",
article = nil,
aliases = { "NCO", "negative outcome control", "falsification outcome" },
es = "Variable de resultado que se sabe no está afectada por el tratamiento pero que plausiblemente sufre la misma confusión no medida que el resultado de interés; se usa como prueba de falsación para la confusión residual.",
zh = "一种已知不受处理影响、但很可能与所关注结果共享同样未观测混杂的结果变量;用作残余混杂的证伪检验。",
term_es = "resultado de control negativo",
term_zh = "阴性对照结果",
aliases_es = { "control negativo de resultado", "resultado control negativo", "NCO" },
aliases_zh = { "阴性结果对照", "负控制结果", "证伪结果", "negative control outcome" },
}
data["negative correlation learning"] = {
short = "An ensemble training method that adds a penalty term encouraging individual learners to make errors that are negatively correlated with those of the rest of the ensemble, increasing diversity and reducing combined error (Liu & Yao 1999).",
article = nil,
aliases = { "NCL", "negative-correlation learning", "negatively correlated ensemble training" },
es = "Método de entrenamiento de conjuntos que añade un término de penalización que incentiva a los aprendices individuales a producir errores negativamente correlacionados con los del resto del conjunto, aumentando la diversidad y reduciendo el error combinado (Liu y Yao, 1999).",
zh = "一种集成训练方法:在损失中加入惩罚项,鼓励各个体学习器产生与集成其他成员负相关的误差,从而增加多样性并降低组合误差(Liu 与 Yao,1999)。",
term_es = "aprendizaje por correlación negativa",
term_zh = "负相关学习",
aliases_es = { "NCL", "entrenamiento de conjuntos por correlación negativa" },
aliases_zh = { "NCL", "负相关集成学习" },
}
data["negative elbo"] = {
short = "The negation of the evidence lower bound, used as a loss function minimized during variational inference to approximate intractable posteriors.",
article = nil,
aliases = { "negative ELBO", "neg-ELBO", "NELBO", "-ELBO" },
es = "Negación del límite inferior de la evidencia (ELBO), usada como función de pérdida que se minimiza durante la inferencia variacional para aproximar posteriores intratables.",
zh = "证据下界(ELBO)的相反数,在变分推断中作为损失函数最小化,用于近似难以处理的后验分布。",
term_es = "ELBO negativo",
term_zh = "负ELBO",
aliases_es = { "ELBO negativo", "negative ELBO", "NELBO" },
aliases_zh = { "负ELBO", "负证据下界", "negative ELBO" },
}
data["negative log likelihood"] = {
short = "The loss equal to the negative logarithm of the probability assigned by the model to the observed data. Minimizing it is equivalent to maximum likelihood estimation.",
article = nil,
aliases = { "NLL", "negative log-likelihood", "log loss", "negative log likelihood loss" },
es = "Pérdida igual al logaritmo negativo de la probabilidad asignada por el modelo a los datos observados. Minimizarla equivale a la estimación de máxima verosimilitud.",
zh = "等于模型为观测数据所赋概率取负对数的损失函数,最小化它等价于极大似然估计。",
term_es = "log-verosimilitud negativa",
term_zh = "负对数似然",
aliases_es = { "NLL", "logaritmo negativo de verosimilitud" },
aliases_zh = { "NLL", "负对数似然损失" },
}
data["negative log predictive density"] = {
short = "A proper scoring rule equal to the negative log probability that a probabilistic model assigns to held-out observations; lower values indicate better calibration and sharpness.",
article = nil,
aliases = { "NLPD", "negative log-predictive density", "log loss", "negative log likelihood on test data" },
es = "Regla de puntuación propia igual al logaritmo negativo de la probabilidad que un modelo probabilístico asigna a observaciones de prueba; valores más bajos indican mejor calibración y precisión.",
zh = "一种严格的评分规则,等于概率模型分配给测试观测值的概率的负对数;数值越低表明校准和锐度越好。",
term_es = "densidad predictiva logarítmica negativa",
term_zh = "负对数预测密度",
aliases_es = { "NLPD", "densidad predictiva log-negativa" },
aliases_zh = { "NLPD", "负对数预测概率密度" },
}
data["negative prompt"] = {
short = "In text-to-image diffusion models, a secondary prompt that specifies concepts to suppress in the generated image, implemented by replacing the unconditional score in classifier-free guidance with the score conditioned on the negative prompt.",
article = nil,
aliases = { "negative prompts", "negative prompting", "negative conditioning" },
es = "En modelos de difusión de texto a imagen, un prompt secundario que especifica conceptos a suprimir en la imagen generada, implementado al reemplazar la puntuación incondicional en la guía sin clasificador por la puntuación condicionada al prompt negativo.",
zh = "在文本到图像扩散模型中,用于指定生成图像中应抑制的概念的辅助提示,通过在无分类器引导中将无条件分数替换为以负向提示为条件的分数来实现。",
term_es = "prompt negativo",
term_zh = "负向提示",
aliases_es = { "prompts negativos", "condicionamiento negativo" },
aliases_zh = { "负面提示", "negative prompt", "负向条件" },
}
data["neighbor joining"] = {
short = "A distance-based clustering algorithm for phylogenetic tree reconstruction that iteratively joins the pair of taxa minimizing a corrected pairwise distance, producing an unrooted tree in polynomial time.",
article = nil,
aliases = { "neighbour joining", "neighbor-joining", "neighbour-joining", "NJ", "neighbor joining algorithm", "NJ algorithm" },
es = "Algoritmo de agrupamiento basado en distancias para la reconstrucción de árboles filogenéticos que une iterativamente el par de taxones que minimiza una distancia por pares corregida, produciendo un árbol no enraizado en tiempo polinomial.",
zh = "一种基于距离的系统发育树构建聚类算法,迭代地选择并合并使校正后两两距离最小的分类单元对,能够在多项式时间内得到一棵无根树。",
term_es = "unión de vecinos",
term_zh = "邻接法",
aliases_es = { "neighbor joining", "neighbour joining", "NJ", "algoritmo NJ", "algoritmo de unión de vecinos" },
aliases_zh = { "邻接法", "邻接算法", "邻位连接法", "NJ 算法", "Neighbor Joining" },
}
data["neighborhood gossip"] = {
short = "A decentralized communication protocol in which each node exchanges and averages parameters only with a subset of neighbors defined by a graph topology, propagating information incrementally instead of via global synchronization.",
article = nil,
aliases = { "neighborhood gossip protocol", "gossip averaging", "decentralized gossip", "neighbor-only averaging" },
es = "Protocolo de comunicación descentralizada en el que cada nodo intercambia y promedia parámetros solo con un subconjunto de vecinos definido por una topología de grafo, propagando la información de forma incremental en lugar de mediante sincronización global.",
zh = "一种去中心化通信协议:每个节点仅与图拓扑定义的邻居子集交换并平均参数,从而以增量方式传播信息,而非进行全局同步。",
term_es = "gossip de vecindad",
term_zh = "邻域 gossip",
aliases_es = { "protocolo de gossip de vecindad", "promediado gossip descentralizado" },
aliases_zh = { "邻域 gossip 协议", "邻居平均", "去中心化 gossip" },
}
data["neighborhood treatment effect"] = {
short = "Under interference, a causal estimand summarizing the effect of the treatment status of a unit's neighborhood (e.g., social, geographic, network) on its own outcome, holding the unit's own treatment fixed.",
article = nil,
aliases = { "spillover effect (neighborhood)", "neighbourhood treatment effect", "peer treatment effect" },
es = "Bajo interferencia, un estimando causal que resume el efecto del estado de tratamiento del vecindario de una unidad (social, geográfico, en red) sobre su propio resultado, manteniendo fijo el tratamiento de la unidad.",
zh = "在存在干扰的情形下,一种因果估计量,衡量在保持单位自身处理状态不变时,其邻域(社会、地理或网络)的处理状态对其自身结果的效应。",
term_es = "efecto del tratamiento del vecindario",
term_zh = "邻域处理效应",
aliases_es = { "efecto de derrame en el vecindario", "efecto del tratamiento entre pares" },
aliases_zh = { "邻域处理效应", "邻域溢出效应", "同伴处理效应" },
}
data["nell knowledge base"] = {
short = "A continuously growing knowledge base produced by the Never-Ending Language Learner, an agent that has been reading the web since 2010 to extract beliefs about entities and relations, with confidence-weighted facts.",
article = nil,
aliases = { "NELL", "NELL knowledge base", "Never-Ending Language Learner", "NELL KB" },
es = "Base de conocimiento en crecimiento continuo producida por el Never-Ending Language Learner, un agente que lee la web desde 2010 para extraer creencias sobre entidades y relaciones, con hechos ponderados por confianza.",
zh = "由 Never-Ending Language Learner 持续构建的知识库——该智能体自 2010 年起持续阅读网页,抽取关于实体和关系的带置信度信念。",
term_es = "base de conocimiento NELL",
term_zh = "NELL 知识库",
aliases_es = { "NELL", "Never-Ending Language Learner", "KB de NELL" },
aliases_zh = { "NELL", "永不停止的语言学习者", "NELL KB" },
}
data["nell-995"] = {
short = "A subset of the NELL knowledge base curated by the DeepPath authors, containing 995 entity types and 200 relations, used as a standard benchmark for knowledge-graph completion and path-based reasoning.",
article = nil,
aliases = { "NELL-995", "NELL995", "NELL 995", "NELL-995 benchmark" },
es = "Subconjunto de la base de conocimiento NELL curado por los autores de DeepPath, que contiene 995 tipos de entidad y 200 relaciones, usado como benchmark estándar para completado de grafos de conocimiento y razonamiento basado en caminos.",
zh = "由 DeepPath 作者整理的 NELL 知识库子集,包含 995 种实体类型和 200 种关系,是知识图谱补全和基于路径推理的标准基准。",
term_es = "NELL-995",
term_zh = "NELL-995",
aliases_es = { "NELL995", "NELL 995", "benchmark NELL-995" },
aliases_zh = { "NELL995", "NELL 995", "NELL-995 基准" },
}
data["nemo asr"] = {
short = "The automatic speech recognition module of NVIDIA's NeMo toolkit, providing pretrained CTC, transducer, and attention-based ASR models with training and inference utilities.",
article = nil,
aliases = { "NeMo ASR", "NVIDIA NeMo ASR" },
es = "Módulo de reconocimiento automático de voz del kit de herramientas NeMo de NVIDIA, que proporciona modelos preentrenados de ASR basados en CTC, transductores y atención, junto con utilidades de entrenamiento e inferencia.",
zh = "NVIDIA NeMo工具包的自动语音识别模块,提供基于CTC、transducer和注意力的预训练ASR模型,以及训练和推理工具。",
term_es = "NeMo ASR",
term_zh = "NeMo ASR",
aliases_es = { "NeMo ASR de NVIDIA" },
aliases_zh = { "NVIDIA NeMo ASR", "NeMo语音识别" },
}
data["nemo toolkit"] = {
short = "An open-source PyTorch-based toolkit from NVIDIA for building and training conversational AI models, including modules for automatic speech recognition, text-to-speech, and natural language processing.",
article = nil,
aliases = { "NVIDIA NeMo", "NeMo", "NeMo framework" },
es = "Kit de herramientas de código abierto basado en PyTorch desarrollado por NVIDIA para construir y entrenar modelos de IA conversacional, con módulos para reconocimiento de voz, síntesis de voz y procesamiento de lenguaje natural.",
zh = "NVIDIA推出的基于PyTorch的开源工具包,用于构建和训练对话式AI模型,包含语音识别、文本转语音和自然语言处理等模块。",
term_es = "NeMo",
term_zh = "NeMo工具包",
aliases_es = { "NVIDIA NeMo", "framework NeMo" },
aliases_zh = { "NVIDIA NeMo", "NeMo框架" },
}
data["nemoguardrails"] = {
short = "An open-source toolkit from NVIDIA for adding programmable safety, topic, and dialog guardrails around LLM applications, configured through the Colang language and runtime-enforced at the edges of the model.",
article = nil,
aliases = { "NeMo Guardrails", "NeMo-Guardrails", "Nemo Guardrails", "NVIDIA NeMo Guardrails" },
es = "Conjunto de herramientas de código abierto de NVIDIA para añadir guardarraíles programables de seguridad, tema y diálogo a aplicaciones de LLM, configurado mediante el lenguaje Colang y aplicado en tiempo de ejecución en los bordes del modelo.",
zh = "NVIDIA 开源工具包,用于在 LLM 应用周围添加可编程的安全、主题与对话护栏,通过 Colang 语言进行配置并在模型边界处于运行时强制执行。",
term_es = "NeMo Guardrails",
term_zh = "NeMo Guardrails",
aliases_es = { "NeMo-Guardrails", "guardarraíles NeMo" },
aliases_zh = { "NeMo-Guardrails", "NVIDIA NeMo 护栏" },
}
data["nequip"] = {
short = "An E(3)-equivariant graph neural network interatomic potential that uses tensor products of spherical harmonics to model atomic environments, achieving high accuracy on molecular and materials simulation tasks with limited training data.",
article = nil,
aliases = { "NequIP", "Neural Equivariant Interatomic Potentials" },
es = "Potencial interatómico basado en redes neuronales de grafos equivariantes bajo E(3), que emplea productos tensoriales de armónicos esféricos para representar entornos atómicos, alcanzando alta precisión en simulación molecular y de materiales con pocos datos de entrenamiento.",
zh = "一种 E(3) 等变图神经网络原子间势能模型,通过球谐函数的张量积刻画原子局部环境,在分子与材料模拟任务上以较少训练数据即可实现高精度。",
term_es = "NequIP",
term_zh = "NequIP",
aliases_es = { "NequIP" },
aliases_zh = { "NequIP" },
}
data["nerf"] = {
short = "Neural Radiance Field: a 3D scene representation that encodes volumetric density and view-dependent color as a multilayer perceptron mapping a 3D position and viewing direction to color and density, enabling photorealistic novel-view synthesis via differentiable volume rendering.",
article = nil,
aliases = { "NeRF", "neural radiance field", "neural radiance fields" },
es = "Neural Radiance Field: representación 3D de una escena que codifica la densidad volumétrica y el color dependiente de la vista mediante un perceptrón multicapa que mapea una posición 3D y una dirección de vista a color y densidad, permitiendo la síntesis fotorrealista de vistas nuevas mediante renderizado volumétrico diferenciable.",
zh = "Neural Radiance Field:一种三维场景表示,使用多层感知机将三维位置和观察方向映射为颜色与密度,编码体积密度和视角相关颜色,并通过可微体绘制实现照片级真实感的新视角合成。",
term_es = "NeRF",
term_zh = "NeRF",
aliases_es = { "NeRF", "campo de radiancia neuronal" },
aliases_zh = { "NeRF", "神经辐射场" },
}
data["nested optimization"] = {
short = "Optimization problem with two coupled levels in which the inner objective is solved (or approximated) for each setting of the outer variables; central to bilevel hyperparameter tuning, meta-learning, and differentiable NAS.",
article = nil,
aliases = { "bilevel optimization", "nested optimisation", "two-level optimization", "inner-outer optimization" },
es = "Problema de optimización con dos niveles acoplados en el que el objetivo interno se resuelve (o aproxima) para cada configuración de las variables externas; central en ajuste bilevel de hiperparámetros, metaaprendizaje y NAS diferenciable.",
zh = "具有两个耦合层级的优化问题,内层目标针对外层变量的每个取值求解(或近似),广泛应用于双层超参数调优、元学习和可微 NAS。",
term_es = "optimización anidada",
term_zh = "嵌套优化",
aliases_es = { "optimización bilevel", "optimización en dos niveles" },
aliases_zh = { "双层优化", "嵌套优化问题", "二层优化" },
}
data["nested sampling"] = {
short = "A Monte Carlo algorithm that computes the marginal likelihood (model evidence) by transforming a high-dimensional integral into a one-dimensional integral over nested likelihood contours.",
article = nil,
aliases = { "Skilling nested sampling" },
es = "Algoritmo de Monte Carlo que calcula la verosimilitud marginal (evidencia del modelo) transformando una integral de alta dimensión en una integral unidimensional sobre contornos anidados de verosimilitud.",
zh = "一种蒙特卡洛算法,通过将高维积分转换为对嵌套似然轮廓的一维积分来计算边际似然(模型证据)。",
term_es = "muestreo anidado",
term_zh = "嵌套采样",
aliases_es = { "muestreo anidado", "nested sampling" },
aliases_zh = { "嵌套抽样", "nested sampling" },
}
data["nesterov momentum"] = {
short = "A momentum variant that evaluates the gradient at the lookahead position obtained by applying the current velocity, rather than at the current parameters. Provides better convergence rates than classical momentum on convex problems.",
article = nil,
aliases = { "Nesterov accelerated gradient", "NAG", "Nesterov's accelerated gradient", "Nesterov's momentum" },
es = "Variante del momentum que evalúa el gradiente en la posición anticipada obtenida al aplicar la velocidad actual, en lugar de en los parámetros actuales. Ofrece mejores tasas de convergencia que el momentum clásico en problemas convexos.",
zh = "动量的一种变体,在应用当前速度得到的前瞻位置处计算梯度,而非在当前参数处。在凸问题上比经典动量具有更好的收敛速率。",
term_es = "momentum de Nesterov",
term_zh = "Nesterov 动量",
aliases_es = { "gradiente acelerado de Nesterov", "NAG" },
aliases_zh = { "NAG", "Nesterov 加速梯度" },
}
data["nesymres"] = {
short = "A neural symbolic-regression system that pretrains a transformer on millions of synthetic equation-data pairs and at inference predicts a closed-form symbolic expression for unseen numeric data, optionally refined by constant optimization.",
article = nil,
aliases = { "NeSymReS", "Neural Symbolic Regression that Scales", "neural symbolic regression that scales" },
es = "Sistema neuronal de regresión simbólica que preentrena un transformer con millones de pares sintéticos de ecuaciones y datos y, en inferencia, predice una expresión simbólica en forma cerrada para datos numéricos no vistos, refinada opcionalmente mediante optimización de constantes.",
zh = "一种神经符号回归系统:在数百万合成的方程–数据对上预训练 Transformer,在推理时为未见过的数值数据预测闭式符号表达式,并可通过常数优化进一步精化。",
term_es = "NeSymReS",
term_zh = "NeSymReS",
aliases_es = { "Neural Symbolic Regression that Scales", "regresión simbólica neuronal escalable" },
aliases_zh = { "Neural Symbolic Regression that Scales", "可扩展神经符号回归" },
}
data["netmhcpan"] = {
short = "A neural-network-based predictor of peptide binding to MHC class I (and, in NetMHCIIpan, class II) molecules across alleles, widely used for in silico T-cell epitope and neoantigen prediction.",
article = nil,
aliases = { "NetMHCpan", "NetMHC-pan", "NetMHCpan predictor", "Net MHC pan" },
es = "Predictor basado en redes neuronales de la unión de péptidos a moléculas MHC clase I (y, en NetMHCIIpan, clase II) a través de alelos, ampliamente usado para la predicción in silico de epítopos T y neoantígenos.",
zh = "一种基于神经网络的肽段-MHC 结合预测工具,可在多种等位基因之间预测 MHC I 类(及在 NetMHCIIpan 中预测 II 类)结合,广泛用于 T 细胞表位和新抗原的计算机预测。",
term_es = "NetMHCpan",
term_zh = "NetMHCpan",
aliases_es = { "NetMHCpan", "NetMHC-pan" },
aliases_zh = { "NetMHCpan", "NetMHC-pan" },
}
data["network dissection"] = {
short = "A framework introduced by Bau et al. that aligns individual CNN units with human-interpretable concepts (objects, parts, textures, colors) by measuring intersection-over-union between unit activation maps and a densely labeled segmentation dataset such as Broden.",
article = nil,
aliases = { "Network Dissection", "NetDissect", "net dissect", "unit dissection" },
es = "Marco introducido por Bau et al. que alinea unidades individuales de una CNN con conceptos interpretables (objetos, partes, texturas, colores) midiendo la intersección sobre la unión entre los mapas de activación de cada unidad y un conjunto de datos densamente segmentado como Broden.",
zh = "Bau等人提出的框架,通过计算单元激活图与稠密分割数据集(如Broden)之间的交并比,将CNN中的单个单元与可解释概念(物体、部件、纹理、颜色)对齐。",
term_es = "network dissection",
term_zh = "网络解剖",
aliases_es = { "disección de redes", "disección de unidades" },
aliases_zh = { "Network Dissection", "网络剖析", "单元剖析" },
}
data["network heterogeneity"] = {
short = "In federated learning, the variability across participating clients in network conditions such as bandwidth, latency, and connection reliability, which affects communication scheduling and aggregation timing.",
article = nil,
aliases = { "communication heterogeneity", "system network heterogeneity", "bandwidth heterogeneity" },
es = "En aprendizaje federado, la variabilidad entre los clientes participantes en condiciones de red como ancho de banda, latencia y fiabilidad de la conexión, lo cual afecta a la planificación de la comunicación y al momento de la agregación.",
zh = "在联邦学习中,参与客户端之间在带宽、延迟和连接可靠性等网络条件上的差异性,会影响通信调度与聚合时机。",
term_es = "heterogeneidad de red",
term_zh = "网络异构性",
aliases_es = { "heterogeneidad de comunicación", "heterogeneidad del sistema de red", "heterogeneidad de ancho de banda" },
aliases_zh = { "通信异构性", "带宽异构性", "网络条件异构" },
}
data["network propagation"] = {
short = "A class of methods that diffuse signal (e.g., gene scores or mutations) over a biological network using random-walk or heat-kernel operators to identify functional modules and disease-associated subnetworks.",
article = nil,
aliases = { "network diffusion", "graph propagation", "label propagation on networks", "random walk on networks", "heat diffusion on networks" },
es = "Familia de métodos que difunden una señal (por ejemplo, puntuaciones génicas o mutaciones) sobre una red biológica utilizando operadores de paseo aleatorio o núcleo de calor para identificar módulos funcionales y subredes asociadas a enfermedades.",
zh = "一类利用随机游走或热核算子在生物网络上扩散信号(如基因评分或突变)的方法,用于识别功能模块和与疾病相关的子网络。",
term_es = "propagación en redes",
term_zh = "网络传播",
aliases_es = { "difusión en redes", "propagación de etiquetas en redes", "paseo aleatorio en redes", "difusión de calor en redes", "propagación en grafos" },
aliases_zh = { "网络扩散", "图传播", "网络上的标签传播", "网络随机游走", "网络热扩散" },
}
data["neural algorithmic reasoning"] = {
short = "A research program that trains neural networks—typically graph neural networks—to imitate classical algorithms (e.g., shortest paths, sorting, dynamic programming) so that learned representations can be reused on noisy real-world inputs.",
article = nil,
aliases = { "NAR", "neural-algorithmic reasoning", "algorithmic reasoning with neural networks", "neural execution of algorithms" },
es = "Programa de investigación que entrena redes neuronales —normalmente redes neuronales sobre grafos— para imitar algoritmos clásicos (caminos más cortos, ordenación, programación dinámica), de modo que las representaciones aprendidas puedan reutilizarse sobre entradas reales ruidosas.",
zh = "一类研究方向,训练神经网络(通常为图神经网络)模仿经典算法(如最短路径、排序、动态规划),从而使学到的表示能够迁移到噪声较大的真实输入上。",
term_es = "razonamiento algorítmico neuronal",
term_zh = "神经算法推理",
aliases_es = { "NAR", "razonamiento algorítmico con redes neuronales" },
aliases_zh = { "NAR", "神经网络算法推理", "算法的神经化执行" },
}
data["neural architecture search"] = {
short = "A family of automated machine learning methods that search over a space of neural network architectures—using reinforcement learning, evolutionary algorithms, or gradient-based relaxations—to discover designs that maximize a target metric such as accuracy or efficiency.",
article = nil,
aliases = { "NAS", "architecture search", "automated architecture search" },
es = "Familia de métodos de aprendizaje automático automatizado que buscan en un espacio de arquitecturas de redes neuronales —mediante aprendizaje por refuerzo, algoritmos evolutivos o relajaciones basadas en gradientes— para descubrir diseños que maximicen una métrica objetivo como la precisión o la eficiencia.",
zh = "一类自动机器学习方法,在神经网络架构空间中通过强化学习、进化算法或基于梯度的松弛进行搜索,以发现能最大化目标指标(如精度或效率)的设计。",
term_es = "búsqueda de arquitecturas neuronales",
term_zh = "神经架构搜索",
aliases_es = { "NAS", "búsqueda de arquitecturas" },
aliases_zh = { "NAS", "网络架构搜索", "架构搜索" },
}
data["neural audio codec"] = {
short = "A learned audio compression system in which neural networks encode raw waveforms into discrete or low-bitrate latent tokens and decode them back to audio, often used as the tokenizer for audio generative models.",
article = nil,
aliases = { "neural codec", "neural speech codec", "learned audio codec" },
es = "Sistema de compresión de audio aprendido en el que redes neuronales codifican formas de onda en tokens latentes discretos o de baja tasa de bits y los decodifican de vuelta a audio, utilizado a menudo como tokenizador para modelos generativos de audio.",
zh = "一种学习型音频压缩系统,由神经网络将原始波形编码为离散或低比特率潜在令牌,再解码回音频,常被用作音频生成模型的分词器。",
term_es = "códec de audio neuronal",
term_zh = "神经音频编解码器",
aliases_es = { "códec neuronal", "códec neuronal de voz" },
aliases_zh = { "神经音频编码器", "神经音频codec", "学习型音频编解码器" },
}
data["neural backed decision tree"] = {
short = "A hybrid classifier in which a deep network produces feature embeddings whose final classifier head is replaced by a soft decision tree, yielding hierarchical, inspectable predictions while retaining most of the underlying network's accuracy.",
article = nil,
aliases = { "NBDT", "neural-backed decision tree", "neural backed decision trees" },
es = "Clasificador híbrido en el que una red profunda produce embeddings de características cuya capa de clasificación final se sustituye por un árbol de decisión suave, ofreciendo predicciones jerárquicas e inspeccionables y conservando gran parte de la exactitud de la red subyacente.",
zh = "一种混合分类器,由深度网络产生特征嵌入,并将最终分类头替换为软决策树,从而在保留底层网络大部分精度的同时提供分层、可检查的预测。",
term_es = "árbol de decisión respaldado por redes neuronales",
term_zh = "神经支撑决策树",
aliases_es = { "NBDT", "árbol de decisión neural" },
aliases_zh = { "NBDT", "神经决策树", "神经网络支持的决策树" },
}
data["neural decision forest"] = {
short = "An ensemble of differentiable decision trees with soft, probabilistic routing at each split node, allowing the entire forest to be trained jointly with backpropagation and combined with deep feature extractors.",
article = nil,
aliases = { "deep neural decision forest", "dNDF", "neural forest", "differentiable decision forest" },
es = "Conjunto de árboles de decisión diferenciables con enrutamiento probabilístico suave en cada nodo de división, lo que permite entrenar todo el bosque conjuntamente mediante retropropagación y combinarlo con extractores de características profundos.",
zh = "由可微分决策树组成的集成,每个分裂节点采用软概率路由,使整个森林可通过反向传播联合训练,并能与深度特征提取器结合。",
term_es = "bosque de decisión neural",
term_zh = "神经决策森林",
aliases_es = { "bosque de decisión neuronal", "bosque de decisión profundo" },
aliases_zh = { "深度神经决策森林", "可微决策森林" },
}
data["neural decision tree"] = {
short = "A decision-tree model whose split decisions and/or leaf predictors are parameterized by neural networks and trained end-to-end, enabling soft, differentiable routing of inputs through the tree.",
article = nil,
aliases = { "differentiable decision tree", "soft decision tree", "neural tree" },
es = "Modelo de árbol de decisión cuyas decisiones de división y/o predictores en las hojas están parametrizados por redes neuronales y se entrenan de extremo a extremo, lo que permite un enrutamiento suave y diferenciable de las entradas a través del árbol.",
zh = "一种决策树模型,其分裂决策和/或叶子预测器由神经网络参数化,并端到端训练,从而实现输入在树中的软可微分路由。",
term_es = "árbol de decisión neural",
term_zh = "神经决策树",
aliases_es = { "árbol de decisión neuronal", "árbol de decisión diferenciable", "árbol de decisión suave" },
aliases_zh = { "可微决策树", "软决策树" },
}
data["neural execution engine"] = {
short = "A neural architecture trained to simulate the step-by-step execution of classical algorithms, taking algorithm inputs and intermediate state as input and producing the next state, often using attention or graph networks.",
article = nil,
aliases = { "NEE", "neural algorithm executor" },
es = "Arquitectura neural entrenada para simular la ejecución paso a paso de algoritmos clásicos, tomando como entrada los datos del algoritmo y los estados intermedios y produciendo el siguiente estado, a menudo mediante redes de atención o de grafos.",
zh = "一种神经网络架构,被训练用于模拟经典算法的逐步执行:以算法输入和中间状态作为输入,输出下一步状态,常采用注意力或图神经网络。",
term_es = "motor de ejecución neural",
term_zh = "神经执行引擎",
aliases_es = { "ejecutor neural de algoritmos" },
aliases_zh = { "神经算法执行器" },
}
data["neural logic machine"] = {
short = "A neuro-symbolic architecture that represents predicates as tensors and applies differentiable logical operators (AND, OR, NOT, quantifiers) across layers, enabling learning of first-order rules and generalization to varying numbers of objects.",
article = nil,
aliases = { "NLM", "neural logic machines" },
es = "Arquitectura neuro-simbólica que representa los predicados como tensores y aplica operadores lógicos diferenciables (AND, OR, NOT, cuantificadores) entre capas, permitiendo aprender reglas de primer orden y generalizar a un número variable de objetos.",
zh = "一种神经-符号架构,将谓词表示为张量,并在各层间应用可微分的逻辑算子(与、或、非、量词),从而学习一阶规则并能泛化到不同数量的对象。",
term_es = "máquina lógica neural",
term_zh = "神经逻辑机",
aliases_es = { "máquinas lógicas neurales", "NLM" },
aliases_zh = { "神经逻辑机器", "NLM" },
}
data["neural logic programming"] = {
short = "A family of methods that learn first-order logic rules end-to-end with neural networks by representing rule structure and confidence as differentiable parameters, often used for inductive reasoning over knowledge graphs.",
article = nil,
aliases = { "Neural LP", "neural-LP", "differentiable logic programming" },
es = "Familia de métodos que aprenden reglas de lógica de primer orden de extremo a extremo con redes neuronales, representando la estructura y confianza de las reglas como parámetros diferenciables, y se aplican habitualmente al razonamiento inductivo sobre grafos de conocimiento.",
zh = "一类方法,将一阶逻辑规则的结构和置信度表示为可微分参数,通过神经网络端到端学习这些规则,常用于在知识图谱上的归纳推理。",
term_es = "programación lógica neural",
term_zh = "神经逻辑编程",
aliases_es = { "Neural LP", "programación lógica diferenciable" },
aliases_zh = { "Neural LP", "可微逻辑编程" },
}
data["neural machine translation"] = {
short = "Machine translation performed by neural networks—typically encoder-decoder Transformers or RNNs with attention—trained end-to-end on parallel corpora to map source-language sequences to target-language sequences.",
article = nil,
aliases = { "NMT", "Neural Machine Translation", "neural MT", "neural machine translation systems" },
es = "Traducción automática realizada por redes neuronales —normalmente Transformers codificador-decodificador o RNN con atención— entrenadas de extremo a extremo sobre corpus paralelos para mapear secuencias del idioma fuente al idioma destino.",
zh = "由神经网络(通常为编码器-解码器架构的 Transformer 或带注意力的 RNN)执行的机器翻译,在平行语料上端到端训练,将源语言序列映射为目标语言序列。",
term_es = "traducción automática neuronal",
term_zh = "神经机器翻译",
aliases_es = { "NMT", "neural machine translation", "TA neuronal", "traducción neuronal" },
aliases_zh = { "NMT", "neural machine translation", "神经翻译", "神经网络机器翻译" },
}
data["neural network gaussian process"] = {
short = "The Gaussian process obtained as the infinite-width limit of a Bayesian neural network with i.i.d. priors over weights, characterized by a deterministic kernel computed from the network architecture.",
article = nil,
aliases = { "NNGP", "neural network Gaussian process", "infinite-width NN GP", "NNGP kernel" },
es = "Proceso gaussiano que se obtiene como el límite de ancho infinito de una red neuronal bayesiana con priores i.i.d. sobre los pesos, caracterizado por un núcleo determinista calculado a partir de la arquitectura de la red.",
zh = "贝叶斯神经网络在权重独立同分布先验下的无限宽度极限所得到的高斯过程,其核函数由网络架构确定性地计算得出。",
term_es = "proceso gaussiano de red neuronal",
term_zh = "神经网络高斯过程",
aliases_es = { "NNGP", "proceso gaussiano de red neural" },
aliases_zh = { "NNGP", "神经网络高斯过程", "NNGP核" },
}
data["neural network intelligence"] = {
short = "Open-source AutoML toolkit by Microsoft, also known as NNI, that supports hyperparameter tuning, neural architecture search, model compression, and feature engineering across local and cluster environments.",
article = nil,
aliases = { "NNI", "Microsoft NNI", "Microsoft Neural Network Intelligence" },
es = "Conjunto de herramientas AutoML de código abierto de Microsoft, también llamado NNI, que admite ajuste de hiperparámetros, búsqueda de arquitecturas neuronales, compresión de modelos e ingeniería de características en entornos locales y de clúster.",
zh = "微软开源的 AutoML 工具包,简称 NNI,支持超参数调优、神经架构搜索、模型压缩和特征工程,可运行在本地和集群环境。",
term_es = "Neural Network Intelligence",
term_zh = "Neural Network Intelligence",
aliases_es = { "NNI", "NNI de Microsoft" },
aliases_zh = { "NNI", "微软 NNI", "神经网络智能工具包" },
}
data["neural network potential"] = {
short = "A machine-learning model that approximates the potential energy surface of atomic systems by learning energies and forces from quantum-mechanical reference calculations, enabling near-DFT accuracy at a fraction of the cost.",
article = nil,
aliases = { "NNP", "neural network potentials", "machine-learned interatomic potential", "ML potential", "MLIP" },
es = "Modelo de aprendizaje automático que aproxima la superficie de energía potencial de sistemas atómicos aprendiendo energías y fuerzas a partir de cálculos cuánticos de referencia, logrando precisión cercana a DFT a una fracción del coste.",
zh = "一种机器学习模型,通过从量子力学参考计算中学习能量与力来逼近原子体系的势能面,可在远低于第一性原理计算的成本下达到接近 DFT 的精度。",
term_es = "potencial de red neuronal",
term_zh = "神经网络势",
aliases_es = { "NNP", "potencial interatómico aprendido", "potencial de aprendizaje automático" },
aliases_zh = { "NNP", "神经网络势能", "机器学习原子间势" },
}
data["neural network prior"] = {
short = "A prior probability distribution placed over the weights and biases of a neural network in Bayesian deep learning, typically chosen as independent Gaussians or hierarchical alternatives.",
article = nil,
aliases = { "NN prior", "weight prior", "prior over weights" },
es = "Distribución de probabilidad a priori sobre los pesos y sesgos de una red neuronal en aprendizaje profundo bayesiano, típicamente elegida como gaussianas independientes o alternativas jerárquicas.",
zh = "贝叶斯深度学习中对神经网络权重和偏置施加的先验概率分布,通常选择独立高斯分布或分层替代方案。",
term_es = "prior de red neuronal",
term_zh = "神经网络先验",
aliases_es = { "prior sobre los pesos", "prior de pesos" },
aliases_zh = { "权重先验", "网络权重先验" },
}
data["neural network surrogate"] = {
short = "Neural network used as a surrogate model in optimization, mapping inputs (e.g. architectures, hyperparameters, designs) to predicted objective values to avoid expensive direct evaluations.",
article = nil,
aliases = { "neural surrogate", "neural network surrogate model", "NN surrogate" },
es = "Red neuronal utilizada como modelo sustituto en optimización, que asigna entradas (como arquitecturas, hiperparámetros o diseños) a valores predichos del objetivo para evitar evaluaciones directas costosas.",
zh = "用作优化中代理模型的神经网络,将输入(如架构、超参数或设计)映射到预测的目标值,以避免昂贵的直接评估。",
term_es = "sustituto basado en red neuronal",
term_zh = "神经网络代理模型",
aliases_es = { "modelo sustituto neuronal", "surrogate neuronal" },
aliases_zh = { "神经网络代理", "神经代理模型" },
}
data["neural ode"] = {
short = "A continuous-depth model that parameterizes the derivative of the hidden state with a neural network and computes outputs by solving an initial value problem with an ODE solver.",
article = nil,
aliases = { "Neural ODE", "Neural Ordinary Differential Equation", "neural ordinary differential equation", "NODE" },
es = "Modelo de profundidad continua que parametriza la derivada del estado oculto mediante una red neuronal y calcula la salida resolviendo un problema de valor inicial con un solver de EDO.",
zh = "一种连续深度模型,使用神经网络参数化隐状态的导数,并通过常微分方程求解器求解初值问题来计算输出。",
term_es = "Neural ODE",
term_zh = "Neural ODE",
aliases_es = { "EDO neuronal", "ecuación diferencial ordinaria neuronal", "NODE" },
aliases_zh = { "神经常微分方程", "神经ODE", "NODE" },
}
data["neural predictor"] = {
short = "Performance predictor for neural architecture search implemented as a neural network that maps an architecture's encoding to its predicted validation accuracy or other metric, replacing expensive training.",
article = nil,
aliases = { "neural performance predictor", "NAS neural predictor", "accuracy predictor" },
es = "Predictor de rendimiento para búsqueda de arquitecturas neuronales implementado como una red neuronal que asigna la codificación de una arquitectura a su precisión de validación predicha u otra métrica, sustituyendo el entrenamiento costoso.",
zh = "用于神经架构搜索的性能预测器,实现为将架构编码映射到预测验证准确率或其他指标的神经网络,从而避免昂贵的训练过程。",
term_es = "predictor neuronal",
term_zh = "神经预测器",
aliases_es = { "predictor de rendimiento neuronal" },
aliases_zh = { "神经性能预测器", "准确率预测器" },
}
data["neural process"] = {
short = "A family of neural latent variable models that learn distributions over functions by conditioning on a context set, combining the flexibility of neural networks with the uncertainty estimation of Gaussian processes.",
article = nil,
aliases = { "NP", "neural processes", "conditional neural process", "CNP" },
es = "Familia de modelos neuronales con variables latentes que aprenden distribuciones sobre funciones condicionando en un conjunto de contexto, combinando la flexibilidad de las redes neuronales con la estimación de incertidumbre de los procesos gaussianos.",
zh = "一类神经潜变量模型,通过条件化于上下文集合来学习函数上的分布,结合了神经网络的灵活性与高斯过程的不确定性估计能力。",
term_es = "proceso neuronal",
term_zh = "神经过程",
aliases_es = { "procesos neuronales", "NP", "neural process" },
aliases_zh = { "神经过程", "NP", "条件神经过程", "CNP" },
}
data["neural program induction"] = {
short = "Learning a neural network whose weights implicitly represent a program, so that the network reproduces the input-output behaviour of an underlying algorithm without ever emitting source code.",
article = nil,
aliases = { "program induction", "NPI (induction)", "neural induction of programs" },
es = "Aprendizaje de una red neuronal cuyos pesos representan implícitamente un programa, de modo que la red reproduce el comportamiento de entrada-salida de un algoritmo subyacente sin emitir código fuente.",
zh = "学习一种神经网络,其权重隐式地表示一个程序,使网络能够复现底层算法的输入-输出行为,而无需输出源代码。",
term_es = "inducción neural de programas",
term_zh = "神经程序归纳",
aliases_es = { "inducción de programas" },
aliases_zh = { "程序归纳", "神经程序归纳学习" },
}
data["neural program synthesis"] = {
short = "Generating explicit source code or programs in a target language from input-output examples, natural-language specifications, or other context, using neural models such as sequence-to-sequence networks or large language models.",
article = nil,
aliases = { "neural code synthesis", "learned program synthesis" },
es = "Generación de código fuente o programas explícitos en un lenguaje objetivo a partir de ejemplos de entrada-salida, especificaciones en lenguaje natural u otro contexto, mediante modelos neuronales como redes secuencia a secuencia o grandes modelos de lenguaje.",
zh = "从输入-输出示例、自然语言规约或其他上下文出发,使用神经模型(如序列到序列网络或大语言模型)在目标语言中生成显式的源代码或程序。",
term_es = "síntesis neural de programas",
term_zh = "神经程序合成",
aliases_es = { "síntesis de programas neural", "síntesis neuronal de programas" },
aliases_zh = { "神经代码合成", "神经程序综合" },
}
data["neural programmer"] = {
short = "A neural model that answers questions over structured tables by learning to compose a small set of differentiable arithmetic and aggregation operations, trained end-to-end with weak supervision from answer denotations.",
article = nil,
aliases = { "Neural Programmer" },
es = "Modelo neural que responde preguntas sobre tablas estructuradas aprendiendo a componer un pequeño conjunto de operaciones aritméticas y de agregación diferenciables, entrenado de extremo a extremo con supervisión débil a partir de las respuestas.",
zh = "一种神经模型,通过学习组合一小组可微分的算术与聚合操作来回答关于结构化表格的问题,并以答案作为弱监督进行端到端训练。",
term_es = "Neural Programmer",
term_zh = "Neural Programmer",
aliases_es = { "programador neural" },
aliases_zh = { "神经程序员" },
}
data["neural programmer-interpreter"] = {
short = "A neural architecture, introduced by Reed and de Freitas (2016), that learns to execute programs by composing primitive operations through a recurrent controller with an external program memory and call stack.",
article = nil,
aliases = { "NPI", "neural programmer interpreter", "Neural Programmer-Interpreter" },
es = "Arquitectura neural, introducida por Reed y de Freitas (2016), que aprende a ejecutar programas componiendo operaciones primitivas mediante un controlador recurrente con memoria de programas externa y pila de llamadas.",
zh = "一种神经网络架构,由 Reed 和 de Freitas(2016)提出,通过带有外部程序存储和调用栈的循环控制器组合基本操作来学习执行程序。",
term_es = "intérprete-programador neural",
term_zh = "神经程序员-解释器",
aliases_es = { "NPI", "programador-intérprete neural" },
aliases_zh = { "NPI", "神经程序-解释器" },
}
data["neural radiance field"] = {
short = "A 3D scene representation (NeRF) that encodes volumetric density and view-dependent color as a multilayer perceptron mapping a 3D position and viewing direction to color and density, enabling photorealistic novel-view synthesis via differentiable volume rendering.",
article = nil,
aliases = { "NeRF", "neural radiance fields" },
es = "Representación 3D de una escena (NeRF) que codifica la densidad volumétrica y el color dependiente de la vista mediante un perceptrón multicapa que mapea una posición 3D y una dirección de vista a color y densidad, permitiendo la síntesis fotorrealista de vistas nuevas mediante renderizado volumétrico diferenciable.",
zh = "一种三维场景表示(NeRF),使用多层感知机将三维位置和观察方向映射为颜色与密度,编码体积密度和视角相关颜色,并通过可微体绘制实现照片级真实感的新视角合成。",
term_es = "campo de radiancia neuronal",
term_zh = "神经辐射场",
aliases_es = { "NeRF" },
aliases_zh = { "NeRF", "neural radiance field" },
}
data["neural sketch learning"] = {
short = "A program-synthesis approach that uses a neural network to predict a partial program with holes, called a sketch, which is then completed by a symbolic search or constraint solver.",
article = nil,
aliases = { "sketch learning", "Bayou (neural sketch learning)" },
es = "Enfoque de síntesis de programas que utiliza una red neuronal para predecir un programa parcial con huecos, llamado boceto, que luego se completa mediante búsqueda simbólica o un resolvedor de restricciones.",
zh = "一种程序合成方法,使用神经网络预测带有空缺的部分程序(称为草图),再由符号搜索或约束求解器完成。",
term_es = "aprendizaje neural de bocetos",
term_zh = "神经草图学习",
aliases_es = { "aprendizaje de bocetos de programas" },
aliases_zh = { "神经程序草图学习" },
}
data["neural symbolic regression"] = {
short = "Symbolic regression performed by neural models, typically transformers trained on synthetic equation datasets, that map numerical input-output samples directly to closed-form mathematical expressions.",
article = nil,
aliases = { "neural symbolic regression transformer", "NeSyMReS" },
es = "Regresión simbólica realizada por modelos neuronales, normalmente transformers entrenados en conjuntos de datos sintéticos de ecuaciones, que mapean muestras numéricas de entrada-salida directamente a expresiones matemáticas en forma cerrada.",
zh = "由神经模型(通常是基于合成方程数据集训练的 Transformer)执行的符号回归,将数值输入-输出样本直接映射为闭式数学表达式。",
term_es = "regresión simbólica neural",
term_zh = "神经符号回归",
aliases_es = { "regresión simbólica con redes neuronales" },
aliases_zh = { "神经符号回归方法" },
}
data["neural tangent kernel"] = {
short = "The kernel that governs the training dynamics of an infinitely wide neural network under gradient descent; it is constant during training and reduces learning to kernel regression.",
article = nil,
aliases = { "NTK", "neural tangent kernel", "tangent kernel" },
es = "Núcleo que gobierna la dinámica de entrenamiento de una red neuronal infinitamente ancha bajo descenso de gradiente; permanece constante durante el entrenamiento y reduce el aprendizaje a regresión por núcleos.",
zh = "在梯度下降下支配无限宽神经网络训练动态的核函数;其在训练过程中保持恒定,将学习简化为核回归。",
term_es = "núcleo tangente neuronal",
term_zh = "神经正切核",
aliases_es = { "NTK", "kernel tangente neuronal", "neural tangent kernel" },
aliases_zh = { "NTK", "神经切线核", "神经正切核" },
}
data["neural tensor network"] = {
short = "A neural architecture for relational reasoning that scores triples by combining entity embeddings through a bilinear tensor operator, introduced by Socher et al. (2013) for knowledge-base completion.",
article = nil,
aliases = { "NTN", "Neural Tensor Network" },
es = "Arquitectura neural para razonamiento relacional que puntúa tripletas combinando representaciones de entidades mediante un operador tensorial bilineal, introducida por Socher et al. (2013) para completar bases de conocimiento.",
zh = "一种用于关系推理的神经架构,通过双线性张量算子组合实体嵌入来对三元组打分,由 Socher 等人(2013)提出,用于知识库补全。",
term_es = "red tensorial neural",
term_zh = "神经张量网络",
aliases_es = { "NTN", "red neural tensorial" },
aliases_zh = { "NTN", "神经张量网路" },
}
data["neural theorem prover"] = {
short = "A differentiable analogue of backward-chaining theorem proving in which symbols are replaced by learned vector embeddings and unification by soft similarity, allowing rules to be induced from data while still producing proof traces.",
article = nil,
aliases = { "NTP", "differentiable theorem prover", "neural theorem provers" },
es = "Análogo diferenciable de la demostración de teoremas por encadenamiento hacia atrás en el que los símbolos se reemplazan por embeddings vectoriales aprendidos y la unificación por similitud suave, lo que permite inducir reglas a partir de datos manteniendo trazas de prueba.",
zh = "一种可微分的反向链推理定理证明器,将符号替换为学习到的向量嵌入,将合一替换为软相似度,从而能够从数据中归纳规则同时仍可产生证明轨迹。",
term_es = "demostrador neural de teoremas",
term_zh = "神经定理证明器",
aliases_es = { "NTP", "demostrador de teoremas diferenciable" },
aliases_zh = { "NTP", "可微定理证明器" },
}
data["neural transducer"] = {
short = "A streaming sequence-to-sequence ASR architecture (also known as RNN-T) consisting of an acoustic encoder, a label predictor, and a joint network that produces output tokens monotonically from audio frames.",
article = nil,
aliases = { "RNN-T", "RNN transducer", "RNN-Transducer", "recurrent neural network transducer", "transducer model" },
es = "Arquitectura de reconocimiento de voz secuencia a secuencia en streaming (también llamada RNN-T) compuesta por un codificador acústico, un predictor de etiquetas y una red conjunta que emite tokens de salida de forma monótona a partir de los fotogramas de audio.",
zh = "一种流式序列到序列ASR架构(亦称RNN-T),由声学编码器、标签预测器和联合网络组成,从音频帧出发按单调顺序生成输出令牌。",
term_es = "transductor neuronal",
term_zh = "神经转录器",
aliases_es = { "RNN-T", "transductor RNN", "transductor de red neuronal recurrente" },
aliases_zh = { "RNN-T", "RNN转录器", "循环神经网络转录器", "神经转换器" },
}
data["neural turing machine"] = {
short = "A neural architecture that augments a recurrent controller with an external differentiable memory accessed via content- and location-based attention, allowing it to learn simple algorithms.",
article = nil,
aliases = { "NTM", "NTMs", "Neural Turing Machine", "neural Turing machines" },
es = "Arquitectura neuronal que amplía un controlador recurrente con una memoria externa diferenciable accedida mediante atención basada en contenido y ubicación, permitiéndole aprender algoritmos simples.",
zh = "一种神经网络架构,将循环控制器与一个通过基于内容和位置的注意力访问的可微外部记忆相结合,从而能够学习简单算法。",
term_es = "máquina de Turing neuronal",
term_zh = "神经图灵机",
aliases_es = { "NTM", "NTMs", "máquinas de Turing neuronales" },
aliases_zh = { "NTM", "神经图灵机器" },
}
data["neural vocoder"] = {
short = "A neural network that synthesizes raw audio waveforms from acoustic features such as mel-spectrograms, replacing classical signal-processing vocoders in modern text-to-speech pipelines.",
article = nil,
aliases = { "neural vocoders", "neural-network vocoder", "deep vocoder" },
es = "Red neuronal que sintetiza formas de onda de audio crudas a partir de características acústicas como mel-espectrogramas, reemplazando a los vocoders de procesamiento de señal clásico en los sistemas modernos de síntesis de voz.",
zh = "一种从梅尔频谱等声学特征合成原始音频波形的神经网络,在现代语音合成系统中取代了传统信号处理声码器。",
term_es = "vocoder neuronal",
term_zh = "神经声码器",
aliases_es = { "vocoder neural", "vocoder basado en redes neuronales", "vocóder neuronal" },
aliases_zh = { "神经网络声码器", "神经 vocoder", "深度学习声码器" },
}
data["neural-lp"] = {
short = "A differentiable framework by Yang, Yang and Cohen (2017) that learns first-order logic rules and their confidences for knowledge-graph reasoning by composing matrices of relations within an end-to-end neural model.",
article = nil,
aliases = { "Neural LP", "Neural-LP", "NeuralLP" },
es = "Marco diferenciable propuesto por Yang, Yang y Cohen (2017) que aprende reglas de lógica de primer orden y sus confianzas para razonar sobre grafos de conocimiento componiendo matrices de relaciones dentro de un modelo neural de extremo a extremo.",
zh = "由 Yang、Yang 和 Cohen(2017)提出的可微分框架,通过在端到端神经模型中组合关系矩阵,学习一阶逻辑规则及其置信度,用于知识图谱推理。",
term_es = "Neural-LP",
term_zh = "Neural-LP",
aliases_es = { "Neural LP", "NeuralLP" },
aliases_zh = { "Neural LP", "NeuralLP" },
}
data["neural-symbolic integration"] = {
short = "An umbrella term for techniques that combine neural networks with symbolic representations or reasoning (e.g. logic, knowledge graphs, programs) to obtain models that are both learnable from data and capable of structured inference.",
article = nil,
aliases = { "neuro-symbolic integration", "neurosymbolic integration", "neural symbolic integration" },
es = "Término general para técnicas que combinan redes neuronales con representaciones o razonamiento simbólicos (lógica, grafos de conocimiento, programas) con el fin de obtener modelos que sean a la vez aprendibles a partir de datos y capaces de inferencia estructurada.",
zh = "一个总称,指将神经网络与符号表示或符号推理(如逻辑、知识图谱、程序)相结合的技术,使所得模型既能从数据中学习,又能进行结构化推理。",
term_es = "integración neuro-simbólica",
term_zh = "神经-符号集成",
aliases_es = { "integración neural-simbólica", "integración neurosimbólica" },
aliases_zh = { "神经符号融合", "神经-符号集成方法" },
}
data["neuralplexer"] = {
short = "A geometric deep learning model that jointly predicts protein-ligand complex structures, including ligand pose and induced protein conformational changes, using a diffusion-based generative framework.",
article = nil,
aliases = { "NeuralPLexer" },
es = "Modelo de aprendizaje profundo geométrico que predice conjuntamente la estructura de complejos proteína-ligando, incluyendo la pose del ligando y los cambios conformacionales inducidos en la proteína, mediante un marco generativo basado en difusión.",
zh = "一种几何深度学习模型,采用基于扩散的生成框架,联合预测蛋白质-配体复合物的结构,包括配体的结合姿态以及由其诱导的蛋白质构象变化。",
term_es = "NeuralPLexer",
term_zh = "NeuralPLexer",
aliases_es = { "NeuralPLexer" },
aliases_zh = { "NeuralPLexer" },
}
data["neuro-symbolic ai"] = {
short = "A subfield of artificial intelligence that designs systems combining neural learning with symbolic knowledge representation and reasoning, aiming for models that are sample-efficient, interpretable, and capable of compositional generalization.",
article = nil,
aliases = { "neurosymbolic AI", "neural-symbolic AI", "neuro symbolic AI", "NeSy" },
es = "Subcampo de la inteligencia artificial que diseña sistemas que combinan aprendizaje neuronal con representación y razonamiento simbólicos del conocimiento, con el objetivo de obtener modelos eficientes en datos, interpretables y capaces de generalización composicional.",
zh = "人工智能的一个分支,研究将神经学习与符号化知识表示和推理结合起来的系统,目标是获得样本高效、可解释且具备组合泛化能力的模型。",
term_es = "IA neuro-simbólica",
term_zh = "神经-符号人工智能",
aliases_es = { "inteligencia artificial neuro-simbólica", "IA neurosimbólica", "NeSy" },
aliases_zh = { "神经符号人工智能", "神经符号 AI", "NeSy" },
}
data["neuro-symbolic concept learner"] = {
short = "A neuro-symbolic model by Mao et al. (2019) that jointly learns visual concepts, words, and a domain-specific program executor from images and natural-language question-answer pairs without explicit concept supervision.",
article = nil,
aliases = { "NSCL", "Neuro-Symbolic Concept Learner" },
es = "Modelo neuro-simbólico de Mao et al. (2019) que aprende conjuntamente conceptos visuales, palabras y un ejecutor de programas específico del dominio a partir de imágenes y pares pregunta-respuesta en lenguaje natural, sin supervisión explícita de conceptos.",
zh = "由 Mao 等人(2019)提出的神经-符号模型,能够从图像和自然语言问答对中联合学习视觉概念、词汇及特定领域的程序执行器,且无需对概念进行显式监督。",
term_es = "aprendiz de conceptos neuro-simbólico",
term_zh = "神经-符号概念学习器",
aliases_es = { "NSCL", "Neuro-Symbolic Concept Learner" },
aliases_zh = { "NSCL", "神经符号概念学习器" },
}
data["neuro-symbolic vqa"] = {
short = "Visual question answering systems that combine neural perception with symbolic program execution: a neural network parses the image into a structured scene representation and a separate executor runs symbolic programs derived from the question.",
article = nil,
aliases = { "NS-VQA", "neuro symbolic VQA", "neurosymbolic VQA", "neural-symbolic VQA" },
es = "Sistemas de respuesta a preguntas visuales que combinan percepción neuronal con ejecución simbólica de programas: una red neuronal analiza la imagen en una representación estructurada de la escena y un ejecutor independiente ejecuta programas simbólicos derivados de la pregunta.",
zh = "将神经感知与符号程序执行相结合的视觉问答系统:神经网络将图像解析为结构化的场景表示,独立的执行器再运行由问题派生的符号程序。",
term_es = "VQA neuro-simbólico",
term_zh = "神经-符号视觉问答",
aliases_es = { "NS-VQA", "respuesta visual a preguntas neuro-simbólica" },
aliases_zh = { "NS-VQA", "神经符号 VQA" },
}
data["neuron coverage"] = {
short = "A deep-learning testing metric defined as the fraction of neurons whose activation exceeds a threshold for at least one input in a test set, used to gauge how thoroughly the test set exercises a network.",
article = nil,
aliases = { "NC", "neuron-coverage", "neuron activation coverage" },
es = "Métrica de pruebas para deep learning definida como la fracción de neuronas cuya activación supera un umbral para al menos una entrada del conjunto de pruebas; se utiliza para estimar cuán exhaustivamente dicho conjunto ejercita la red.",
zh = "一种深度学习测试度量,定义为测试集中至少有一个输入能使其激活超过阈值的神经元所占比例,用以衡量测试集对网络的覆盖程度。",
term_es = "cobertura de neuronas",
term_zh = "神经元覆盖率",
aliases_es = { "NC", "cobertura neuronal", "cobertura de activación de neuronas" },
aliases_zh = { "NC", "神经元覆盖", "神经元激活覆盖率" },
}
data["neuron interpretation"] = {
short = "The task of identifying what concept, feature, or input pattern causes a particular neuron to fire, typically via dataset-example browsing, activation maximization, automated labeling, or LLM-generated descriptions.",
article = nil,
aliases = { "neuron interpretability", "neuron labeling", "neuron description", "automated neuron interpretation" },
es = "Tarea de identificar qué concepto, característica o patrón de entrada hace que se active una neurona concreta, normalmente mediante exploración de ejemplos del conjunto de datos, maximización de la activación, etiquetado automatizado o descripciones generadas por LLM.",
zh = "识别使某个特定神经元激活的概念、特征或输入模式的任务,通常通过浏览数据集示例、激活最大化、自动标注或大语言模型生成的描述来实现。",
term_es = "interpretación de neuronas",
term_zh = "神经元解释",
aliases_es = { "interpretabilidad de neuronas", "etiquetado de neuronas", "descripción de neuronas" },
aliases_zh = { "神经元可解释性", "神经元标注", "神经元描述" },
}
data["neuron polysemanticity"] = {
short = "The phenomenon in which a single neuron activates for multiple unrelated concepts because the network is representing more features than it has dimensions, often via superposition.",
article = nil,
aliases = { "polysemanticity", "polysemantic neuron", "neuron polysemy", "polysemantic unit" },
es = "Fenómeno en el que una sola neurona se activa ante múltiples conceptos no relacionados porque la red representa más características que dimensiones disponibles, a menudo mediante superposición.",
zh = "单个神经元对多个互不相关概念产生激活的现象,原因是网络所表征的特征数量超过其维度数量,通常通过叠加(superposition)实现。",
term_es = "polisemanticidad neuronal",
term_zh = "神经元多义性",
aliases_es = { "polisemanticidad", "neurona polisemántica" },
aliases_zh = { "多义性", "多义神经元", "神经元多义现象" },
}
data["neuron selectivity"] = {
short = "A scalar measure of how specifically a neuron responds to one concept versus all others, commonly defined as the normalized difference between its mean activation on examples of the target concept and on the rest of the data.",
article = nil,
aliases = { "neuronal selectivity", "selectivity index", "neuron selectivity index", "class selectivity" },
es = "Medida escalar de cuán específicamente responde una neurona a un concepto frente a todos los demás, definida habitualmente como la diferencia normalizada entre su activación media en ejemplos del concepto objetivo y en el resto de los datos.",
zh = "衡量神经元对某一概念相对于其他所有概念响应特异性的标量指标,通常定义为该神经元在目标概念样本上的平均激活与在其余数据上的平均激活之间的归一化差。",
term_es = "selectividad neuronal",
term_zh = "神经元选择性",
aliases_es = { "índice de selectividad", "selectividad de clase" },
aliases_zh = { "神经元选择度", "选择性指数", "类别选择性" },
}
data["neuron visualization"] = {
short = "An interpretability technique that depicts what input patterns a single hidden unit responds to, typically by optimizing an input to maximize its activation or by retrieving the dataset examples that activate it most strongly.",
article = nil,
aliases = { "neuron visualisation", "feature visualization", "feature visualisation", "unit visualization", "activation visualization" },
es = "Técnica de interpretabilidad que muestra a qué patrones de entrada responde una neurona oculta, normalmente optimizando una entrada para maximizar su activación o recuperando los ejemplos del conjunto de datos que más la activan.",
zh = "一种可解释性技术,用于展示单个隐藏单元对何种输入模式产生响应,通常通过优化输入以最大化其激活,或检索数据集中激活该单元最强的样本来实现。",
term_es = "visualización de neuronas",
term_zh = "神经元可视化",
aliases_es = { "visualización de unidades", "visualización de características", "visualización de activaciones" },
aliases_zh = { "神经元激活可视化", "特征可视化", "单元可视化" },
}
data["never-taker"] = {
short = "In the principal stratification framework with a binary instrument and treatment, a unit who would never take the treatment regardless of instrument value; one of the four compliance types alongside compliers, always-takers, and defiers.",
article = nil,
aliases = { "never taker", "non-taker (in IV)", "never-taker stratum" },
es = "En el marco de estratificación principal con instrumento y tratamiento binarios, unidad que nunca tomaría el tratamiento independientemente del valor del instrumento; uno de los cuatro tipos de cumplimiento junto con cumplidores, siempre-tomadores y desafiadores.",
zh = "在二值工具变量和处理的主分层框架中,无论工具变量取何值都不会接受处理的单位;与依从者、始终接受者和违抗者并列的四种依从类型之一。",
term_es = "nunca-tomador",
term_zh = "始终不接受者",
aliases_es = { "never-taker", "estrato de nunca tomadores", "no tomador (en VI)" },
aliases_zh = { "never-taker", "从不接受者", "始终不依从者" },
}
data["nevergrad"] = {
short = "Open-source Python library by Meta for derivative-free and evolutionary optimization, providing a unified API over CMA-ES, differential evolution, particle swarm, Bayesian methods, and bandit-based portfolios.",
article = nil,
aliases = { "Nevergrad", "facebook nevergrad", "Meta Nevergrad" },
es = "Biblioteca Python de código abierto de Meta para optimización sin derivadas y evolutiva, que ofrece una API unificada sobre CMA-ES, evolución diferencial, enjambre de partículas, métodos bayesianos y portafolios basados en bandits.",
zh = "Meta 开源的 Python 无梯度优化与进化优化库,在 CMA-ES、差分进化、粒子群、贝叶斯方法和基于多臂老虎机的算法组合之上提供统一 API。",
term_es = "Nevergrad",
term_zh = "Nevergrad",
aliases_es = { "biblioteca Nevergrad" },
aliases_zh = { "Nevergrad 库", "Facebook Nevergrad" },
}
data["newton method"] = {
short = "A second-order optimization method that updates parameters using the inverse Hessian, x_{k+1} = x_k - H^{-1} g, achieving local quadratic convergence near a minimum.",
article = nil,
aliases = { "Newton's method", "Newton-Raphson method", "Newton–Raphson method", "Newton's iteration" },
es = "Método de optimización de segundo orden que actualiza los parámetros con la inversa de la Hessiana, x_{k+1} = x_k - H^{-1} g, logrando convergencia cuadrática local cerca de un mínimo.",
zh = "一种二阶优化方法,利用海森矩阵的逆来更新参数:x_{k+1} = x_k - H^{-1} g,在极小点附近具有局部二次收敛性。",
term_es = "método de Newton",
term_zh = "牛顿法",
aliases_es = { "método Newton-Raphson", "iteración de Newton" },
aliases_zh = { "牛顿迭代法", "牛顿-拉弗森法", "Newton's method" },
}
data["next sentence prediction"] = {
short = "An auxiliary BERT pretraining task that, given two sentences, asks the model to predict whether the second one actually follows the first in the original corpus or was sampled at random.",
article = nil,
aliases = { "NSP", "next-sentence prediction", "next sentence prediction task" },
es = "Tarea auxiliar de preentrenamiento de BERT que, dadas dos oraciones, pide al modelo predecir si la segunda realmente sigue a la primera en el corpus original o fue muestreada al azar.",
zh = "BERT 的一项辅助预训练任务,给定两句文本,要求模型预测第二句是否真的紧跟第一句出现在原始语料中,还是随机采样得到。",
term_es = "predicción de la siguiente oración",
term_zh = "下一句预测",
aliases_es = { "NSP", "predicción de oración siguiente" },
aliases_zh = { "NSP", "下一句子预测", "句子顺序预测" },
}
data["next-generation sequencing"] = {
short = "Massively parallel DNA sequencing technologies (e.g., Illumina, Ion Torrent) that produce millions to billions of short reads per run, enabling whole-genome, exome, and transcriptome studies at low cost.",
article = nil,
aliases = { "NGS", "next generation sequencing", "high-throughput sequencing", "HTS", "massively parallel sequencing", "second-generation sequencing" },
es = "Tecnologías de secuenciación de ADN masivamente paralelas (por ejemplo, Illumina, Ion Torrent) que producen de millones a miles de millones de lecturas cortas por ejecución, permitiendo estudios de genoma, exoma y transcriptoma completos a bajo costo.",
zh = "大规模平行 DNA 测序技术(如 Illumina、Ion Torrent),单次运行可产生数百万至数十亿条短读段,使全基因组、外显子组和转录组研究的成本大幅降低。",
term_es = "secuenciación de nueva generación",
term_zh = "新一代测序",
aliases_es = { "NGS", "secuenciación de nueva generación", "secuenciación de próxima generación", "secuenciación de alto rendimiento", "secuenciación masivamente paralela", "secuenciación de segunda generación" },
aliases_zh = { "NGS", "新一代测序", "下一代测序", "高通量测序", "大规模平行测序", "二代测序" },
}
data["nextflow"] = {
short = "A domain-specific language and workflow engine for reproducible bioinformatics pipelines, written in Groovy on the JVM and supporting containerization (Docker, Singularity) and execution on HPC, cloud, and Kubernetes backends.",
article = nil,
aliases = { "Nextflow", "nf-core", "Nextflow workflow engine", "Nextflow DSL2" },
es = "Lenguaje específico de dominio y motor de flujos de trabajo para pipelines bioinformáticos reproducibles, escrito en Groovy sobre la JVM y compatible con contenedores (Docker, Singularity) y ejecución en HPC, nube y Kubernetes.",
zh = "一种用于构建可复现生物信息学流水线的领域特定语言与工作流引擎,基于 JVM 上的 Groovy 实现,支持 Docker、Singularity 等容器化方案,并可在 HPC、云平台和 Kubernetes 等后端运行。",
term_es = "Nextflow",
term_zh = "Nextflow",
aliases_es = { "Nextflow", "nf-core", "motor de flujos de trabajo Nextflow", "Nextflow DSL2" },
aliases_zh = { "Nextflow", "nf-core", "Nextflow 工作流引擎", "Nextflow DSL2" },
}
data["nextgpt"] = {
short = "An any-to-any multimodal large language model that connects an LLM with multimodal adaptors and diffusion decoders, enabling input and output across text, image, audio, and video with end-to-end instruction tuning.",
article = nil,
aliases = { "NExT-GPT", "Next-GPT", "NextGPT", "Any-to-Any MLLM" },
es = "Gran modelo de lenguaje multimodal de cualquier modalidad a cualquier modalidad que conecta un LLM con adaptadores multimodales y decodificadores de difusión, permitiendo entrada y salida en texto, imagen, audio y video con ajuste de instrucciones de extremo a extremo.",
zh = "一种任意到任意的多模态大语言模型,将 LLM 与多模态适配器和扩散解码器相连,可在文本、图像、音频和视频之间进行输入输出,并支持端到端指令微调。",
term_es = "NExT-GPT",
term_zh = "NExT-GPT",
aliases_es = { "NextGPT", "MLLM cualquiera-a-cualquiera" },
aliases_zh = { "NextGPT", "任意到任意 MLLM" },
}
data["nextqa"] = {
short = "A video question-answering benchmark of 5,440 videos and 52,000 multiple-choice and open-ended questions targeting causal and temporal action reasoning rather than recognition.",
article = nil,
aliases = { "NExT-QA", "Next-QA", "NextQA" },
es = "Benchmark de pregunta-respuesta sobre video con 5440 vídeos y 52 000 preguntas de opción múltiple y de respuesta abierta enfocadas en el razonamiento causal y temporal sobre acciones más que en el reconocimiento.",
zh = "一个视频问答基准,包含 5440 段视频和 52000 道选择题与开放式问题,重点考查因果与时间动作推理,而非简单识别。",
term_es = "NExT-QA",
term_zh = "NExT-QA",
aliases_es = { "NextQA", "benchmark NExT-QA" },
aliases_zh = { "NextQA", "NExT-QA 基准" },
}
data["neyman orthogonality"] = {
short = "A property of a moment condition for a target parameter under which the moment is locally insensitive (orthogonal) to small errors in nuisance estimates, enabling robust inference with machine-learning-based nuisance functions.",
article = nil,
aliases = { "Neyman-orthogonal moment", "orthogonality condition (Neyman)", "Neyman orthogonal score" },
es = "Propiedad de una condición de momento para un parámetro objetivo según la cual el momento es localmente insensible (ortogonal) a pequeños errores en las estimaciones de los parámetros de molestia, lo que permite una inferencia robusta con funciones de molestia basadas en aprendizaje automático.",
zh = "目标参数的一种矩条件性质,该矩对干扰参数估计的小幅误差具有局部不敏感(正交)性,从而可在使用基于机器学习的干扰函数估计时进行稳健推断。",
term_es = "ortogonalidad de Neyman",
term_zh = "Neyman 正交性",
aliases_es = { "momento Neyman-ortogonal", "score Neyman-ortogonal", "condición de ortogonalidad (Neyman)" },
aliases_zh = { "Neyman 正交矩", "Neyman 正交得分", "Neyman 正交条件" },
}
data["neyman-rubin model"] = {
short = "The potential outcomes framework for causal inference, attributed to Neyman and Rubin, in which each unit has a fixed pair (or set) of potential outcomes under each treatment level and causal effects are differences between them.",
article = nil,
aliases = { "Neyman-Rubin causal model", "Rubin causal model", "RCM", "potential outcomes framework" },
es = "Marco de resultados potenciales para la inferencia causal, atribuido a Neyman y Rubin, en el que cada unidad tiene un par (o conjunto) fijo de resultados potenciales para cada nivel de tratamiento, y los efectos causales son diferencias entre ellos.",
zh = "由 Neyman 和 Rubin 提出的因果推断潜在结果框架:每个单位在每个处理水平下都有一组固定的潜在结果,因果效应是这些潜在结果之间的差。",
term_es = "modelo de Neyman-Rubin",
term_zh = "Neyman-Rubin 模型",
aliases_es = { "modelo causal de Rubin", "RCM", "marco de resultados potenciales" },
aliases_zh = { "Rubin 因果模型", "RCM", "潜在结果框架", "Neyman-Rubin 因果模型" },
}
data["nf4 quantization"] = {
short = "A 4-bit data type introduced in QLoRA that uses information-theoretically optimal quantization levels for normally distributed weights, enabling memory-efficient fine-tuning of large language models with minimal accuracy loss.",
article = nil,
aliases = { "NF4", "NF4 quantization", "NormalFloat 4-bit", "4-bit NormalFloat", "NF4 quant" },
es = "Tipo de dato de 4 bits introducido en QLoRA que utiliza niveles de cuantización óptimos desde el punto de vista de la teoría de la información para pesos distribuidos normalmente, permitiendo el ajuste fino eficiente en memoria de grandes modelos de lenguaje con pérdida mínima de precisión.",
zh = "QLoRA 中引入的一种 4 位数据类型,针对正态分布的权重采用信息论最优的量化级别,可在精度损失极小的情况下对大语言模型进行内存高效的微调。",
term_es = "cuantización NF4",
term_zh = "NF4 量化",
aliases_es = { "NF4", "NormalFloat de 4 bits" },
aliases_zh = { "NF4", "4 位 NormalFloat", "NF4 量化" },
}
data["nist ai rmf"] = {
short = "The NIST AI Risk Management Framework, a voluntary U.S. National Institute of Standards and Technology guideline (released 2023) for governing, mapping, measuring, and managing risks of AI systems.",
article = nil,
aliases = { "NIST AI RMF", "AI Risk Management Framework", "NIST AI Risk Management Framework", "AI RMF 1.0" },
es = "Marco de Gestión de Riesgos de IA del NIST, una guía voluntaria del Instituto Nacional de Estándares y Tecnología de Estados Unidos (publicada en 2023) para gobernar, mapear, medir y gestionar los riesgos de los sistemas de IA.",
zh = "美国国家标准与技术研究院(NIST)发布的人工智能风险管理框架(2023 年),是一份自愿性指南,用于治理、识别、测量和管理人工智能系统的风险。",
term_es = "Marco de Gestión de Riesgos de IA del NIST",
term_zh = "NIST 人工智能风险管理框架",
aliases_es = { "NIST AI RMF", "Marco AI RMF", "AI RMF 1.0" },
aliases_zh = { "NIST AI RMF", "AI 风险管理框架", "人工智能风险管理框架" },
}
data["nlp bias evaluation"] = {
short = "The set of methods and benchmarks used to measure social and demographic bias in natural language processing systems, including word embeddings, language models, and downstream text classifiers.",
article = nil,
aliases = { "bias evaluation in NLP", "NLP bias benchmarks", "bias measurement in language models", "language model bias evaluation" },
es = "Conjunto de métodos y conjuntos de referencia utilizados para medir el sesgo social y demográfico en sistemas de procesamiento de lenguaje natural, incluidos embeddings de palabras, modelos de lenguaje y clasificadores de texto posteriores.",
zh = "用于衡量自然语言处理系统中社会与人口学偏见的方法和基准集合,涵盖词嵌入、语言模型以及下游文本分类器。",
term_es = "evaluación de sesgo en PLN",
term_zh = "自然语言处理偏见评估",
aliases_es = { "evaluación de sesgo en NLP", "métricas de sesgo en modelos de lenguaje", "benchmarks de sesgo en PLN" },
aliases_zh = { "NLP 偏见评估", "语言模型偏见评估", "NLP 偏见基准" },
}
data["nlvr"] = {
short = "Natural Language for Visual Reasoning: a benchmark of synthetic images paired with sentences whose truth value depends on counting, spatial relations, and quantifiers, used to test compositional visual reasoning.",
article = nil,
aliases = { "NLVR", "Natural Language for Visual Reasoning", "NLVR1" },
es = "Natural Language for Visual Reasoning: banco de pruebas de imágenes sintéticas emparejadas con oraciones cuyo valor de verdad depende de conteo, relaciones espaciales y cuantificadores, utilizado para evaluar razonamiento visual composicional.",
zh = "Natural Language for Visual Reasoning:一个由合成图像与句子组成的基准,其真值依赖于计数、空间关系和量词,用于评估组合式视觉推理。",
term_es = "NLVR",
term_zh = "NLVR",
aliases_es = { "Natural Language for Visual Reasoning" },
aliases_zh = { "自然语言视觉推理基准", "Natural Language for Visual Reasoning" },
}
data["nlvr2"] = {
short = "A successor to NLVR that pairs each natural-language statement with two real photographs, requiring a model to determine whether the statement is true with respect to the pair; widely used for evaluating grounded language understanding.",
article = nil,
aliases = { "NLVR2", "NLVR 2", "Natural Language for Visual Reasoning 2" },
es = "Sucesor de NLVR que asocia cada oración en lenguaje natural con dos fotografías reales y requiere que un modelo determine si la oración es verdadera respecto al par; muy utilizado para evaluar la comprensión del lenguaje fundamentada en imágenes.",
zh = "NLVR 的继任基准,将每个自然语言陈述与两张真实照片配对,要求模型判断该陈述对该图片对是否成立;广泛用于评估基于视觉的语言理解。",
term_es = "NLVR2",
term_zh = "NLVR2",
aliases_es = { "NLVR 2", "Natural Language for Visual Reasoning 2" },
aliases_zh = { "NLVR 2", "自然语言视觉推理 2" },
}
data["nngp"] = {
short = "Abbreviation for neural network Gaussian process: the Gaussian process arising as the infinite-width limit of a Bayesian neural network, with kernel determined by the network architecture.",
article = nil,
aliases = { "NNGP", "neural network Gaussian process", "NNGP kernel" },
es = "Abreviatura de proceso gaussiano de red neuronal: el proceso gaussiano que surge como límite de ancho infinito de una red neuronal bayesiana, con núcleo determinado por la arquitectura de la red.",
zh = "神经网络高斯过程(neural network Gaussian process)的缩写:贝叶斯神经网络在无限宽度极限下产生的高斯过程,其核由网络架构决定。",
term_es = "NNGP",
term_zh = "NNGP",
aliases_es = { "proceso gaussiano de red neuronal", "NNGP" },
aliases_zh = { "神经网络高斯过程", "NNGP" },
}
data["nni"] = {
short = "Acronym for Neural Network Intelligence, Microsoft's open-source AutoML toolkit for hyperparameter tuning, neural architecture search, model compression, and feature engineering.",
article = nil,
aliases = { "NNI", "Neural Network Intelligence", "Microsoft NNI" },
es = "Acrónimo de Neural Network Intelligence, el conjunto de herramientas AutoML de código abierto de Microsoft para ajuste de hiperparámetros, búsqueda de arquitecturas neuronales, compresión de modelos e ingeniería de características.",
zh = "Neural Network Intelligence 的缩写,微软开源的 AutoML 工具包,用于超参数调优、神经架构搜索、模型压缩和特征工程。",
term_es = "NNI",
term_zh = "NNI",
aliases_es = { "Neural Network Intelligence", "NNI de Microsoft" },
aliases_zh = { "Neural Network Intelligence", "微软 NNI" },
}
data["nnp"] = {
short = "Abbreviation for neural network potential — a machine-learning surrogate for quantum-mechanical potential energy surfaces, trained on energies and forces to drive molecular dynamics at near ab initio accuracy.",
article = nil,
aliases = { "NNP", "neural network potential", "ML potential" },
es = "Abreviatura de neural network potential —potencial de red neuronal—, un sustituto basado en aprendizaje automático de superficies de energía potencial cuánticas, entrenado con energías y fuerzas para realizar dinámica molecular con precisión cercana a la ab initio.",
zh = "neural network potential(神经网络势)的缩写,是基于机器学习的量子势能面替代模型,通过能量和力数据训练后可驱动分子动力学,精度接近从头算水平。",
term_es = "NNP",
term_zh = "NNP",
aliases_es = { "potencial de red neuronal" },
aliases_zh = { "神经网络势" },
}
data["no interference assumption"] = {
short = "The assumption that one unit's potential outcomes do not depend on the treatment assigned to other units. Together with no hidden treatment versions, it forms the Stable Unit Treatment Value Assumption (SUTVA) underlying most causal inference.",
article = nil,
aliases = { "non-interference", "non-interference assumption", "SUTVA interference component", "no spillover assumption" },
es = "Supuesto de que los resultados potenciales de una unidad no dependen del tratamiento asignado a otras unidades. Junto con la ausencia de versiones ocultas del tratamiento, conforma el supuesto SUTVA que sustenta la inferencia causal.",
zh = "假设一个单元的潜在结果不依赖于其他单元所接受的处理。该条件与处理无多重版本一起构成稳定单元处理值假设(SUTVA),是大多数因果推断的基础。",
term_es = "supuesto de no interferencia",
term_zh = "无干扰假设",
aliases_es = { "no interferencia", "supuesto de no derrame", "componente de no interferencia de SUTVA" },
aliases_zh = { "非干扰假设", "无溢出假设", "SUTVA 无干扰条件" },
}
data["no-u-turn sampler"] = {
short = "An adaptive extension of Hamiltonian Monte Carlo that automatically chooses the trajectory length by stopping the leapfrog integrator as soon as the simulated path begins to double back (a U-turn) on itself, removing the need to tune the number of steps. It is the default sampler in PyMC, Stan and many other probabilistic programming systems.",
article = nil,
aliases = { "NUTS", "No U-Turn Sampler", "NUTS sampler", "Hoffman-Gelman NUTS" },
es = "Extensión adaptativa de Hamiltonian Monte Carlo que elige automáticamente la longitud de la trayectoria deteniendo el integrador leapfrog tan pronto como el camino simulado comienza a doblarse sobre sí mismo (un giro en U), eliminando la necesidad de ajustar el número de pasos. Es el muestreador por defecto en PyMC, Stan y muchos otros sistemas de programación probabilística.",
zh = "Hamiltonian Monte Carlo 的自适应扩展,在模拟轨迹开始向自身回折(出现 U 形转弯)时自动停止 leapfrog 积分器,从而自动选择轨迹长度,无需手动调节步数。它是 PyMC、Stan 等许多概率编程系统的默认采样器。",
term_es = "No-U-Turn Sampler",
term_zh = "No-U-Turn 采样器",
aliases_es = { "NUTS", "muestreador NUTS", "muestreador sin giros en U" },
aliases_zh = { "NUTS", "NUTS 采样器", "无 U 形转弯采样器" },
}
data["nocaps"] = {
short = "A novel object captioning benchmark with about 166,000 captions over 15,100 images drawn from Open Images, evaluating a model's ability to describe object categories that were not seen during caption-supervised training.",
article = nil,
aliases = { "nocaps", "NoCaps", "Novel Object Captioning at Scale" },
es = "Benchmark de subtitulación de objetos novedosos con cerca de 166 000 descripciones sobre 15 100 imágenes extraídas de Open Images, que evalúa la capacidad de un modelo para describir categorías de objetos no vistas durante el entrenamiento supervisado con subtítulos.",
zh = "一个新对象图像描述基准,包含约 166000 条描述和取自 Open Images 的 15100 张图像,用于评测模型在描述训练时未见过的对象类别时的能力。",
term_es = "nocaps",
term_zh = "nocaps",
aliases_es = { "NoCaps", "subtitulación de objetos novedosos a escala" },
aliases_zh = { "NoCaps", "大规模新对象描述基准" },
}
data["node features"] = {
short = "The per-node feature vectors that encode attributes of vertices in a graph neural network — for molecules typically atom type, formal charge, hybridization, and other atomic descriptors.",
article = nil,
aliases = { "node features", "vertex features", "atom features" },
es = "Vectores de características asociados a cada nodo de un grafo en una red neuronal de grafos; para moléculas suelen codificar tipo de átomo, carga formal, hibridación y otros descriptores atómicos.",
zh = "图神经网络中描述图节点属性的特征向量;对于分子图,通常编码原子类型、形式电荷、杂化方式等原子级描述符。",
term_es = "características de nodo",
term_zh = "节点特征",
aliases_es = { "atributos de nodo", "características atómicas" },
aliases_zh = { "顶点特征", "原子特征" },
}
data["node2vec"] = {
short = "A graph-embedding method by Grover and Leskovec (2016) that learns continuous node representations by simulating biased random walks parameterized to interpolate between breadth-first and depth-first sampling, then training a skip-gram model on the walks.",
article = nil,
aliases = { "node2vec", "Node2Vec", "node-2-vec" },
es = "Método de embedding de grafos de Grover y Leskovec (2016) que aprende representaciones continuas de nodos simulando recorridos aleatorios sesgados parametrizados para interpolar entre muestreo en anchura y en profundidad, y entrenando luego un modelo skip-gram sobre los recorridos.",
zh = "Grover 与 Leskovec(2016)提出的图嵌入方法,通过模拟带偏置的随机游走(参数可在广度优先与深度优先采样间插值)生成节点序列,再在游走序列上训练 skip-gram 模型,从而学习节点的连续表示。",
term_es = "node2vec",
term_zh = "node2vec",
aliases_es = { "Node2Vec" },
aliases_zh = { "Node2Vec", "节点向量化(node2vec)" },
}
data["noise contrastive estimation"] = {
short = "A density-estimation technique that learns an unnormalized model by training a logistic classifier to distinguish samples from the data distribution and samples from a fixed noise distribution. Widely used in word embeddings and self-supervised learning.",
article = nil,
aliases = { "NCE", "Gutmann-Hyvärinen NCE", "noise-contrastive estimation" },
es = "Técnica de estimación de densidad que aprende un modelo no normalizado entrenando un clasificador logístico para distinguir muestras de la distribución de datos de muestras de una distribución de ruido fija. Muy utilizada en embeddings de palabras y aprendizaje auto-supervisado.",
zh = "一种密度估计技术:通过训练逻辑回归分类器区分数据分布与固定噪声分布中的样本,从而学习未归一化模型。广泛用于词嵌入和自监督学习。",
term_es = "estimación por contraste con ruido",
term_zh = "噪声对比估计",
aliases_es = { "NCE", "estimación contrastiva con ruido" },
aliases_zh = { "NCE", "噪声对比估计法" },
}
data["noise contrastive priors"] = {
short = "A technique for setting priors in Bayesian neural networks by enforcing high predictive uncertainty on out-of-distribution inputs sampled as noise around the training data.",
article = nil,
aliases = { "NCP", "noise-contrastive prior", "noise contrastive prior" },
es = "Técnica para definir priores en redes neuronales bayesianas que impone alta incertidumbre predictiva sobre entradas fuera de distribución muestreadas como ruido alrededor de los datos de entrenamiento.",
zh = "一种为贝叶斯神经网络设定先验的技术,通过在训练数据周围以噪声形式采样的分布外输入上强制高预测不确定性。",
term_es = "priores contrastivos de ruido",
term_zh = "噪声对比先验",
aliases_es = { "NCP", "prior contrastivo de ruido" },
aliases_zh = { "NCP", "噪声对比先验", "对比噪声先验" },
}
data["noise scale"] = {
short = "A measure of the variance of stochastic gradients relative to their mean. Used to predict how large the batch size can grow before parallel training stops yielding speedups.",
article = nil,
aliases = { "gradient noise scale" },
es = "Medida de la varianza de los gradientes estocásticos en relación con su media. Se usa para predecir cuánto puede crecer el tamaño del lote antes de que el entrenamiento paralelo deje de aportar aceleración.",
zh = "随机梯度方差相对于均值的度量,用于预测批量规模可扩大到何种程度后并行训练将不再带来加速。",
term_es = "escala de ruido",
term_zh = "噪声尺度",
aliases_es = { "escala de ruido del gradiente" },
aliases_zh = { "梯度噪声尺度" },
}
data["noise schedule"] = {
short = "In diffusion models, the function that determines the variance of Gaussian noise added at each forward-process timestep, shaping signal-to-noise ratio across the trajectory and strongly affecting sample quality.",
article = nil,
aliases = { "noise schedules", "diffusion noise schedule", "variance schedule", "beta schedule" },
es = "En los modelos de difusión, la función que determina la varianza del ruido gaussiano añadido en cada paso del proceso directo, modelando la relación señal-ruido a lo largo de la trayectoria y afectando fuertemente la calidad de las muestras.",
zh = "在扩散模型中,决定前向过程每个时间步所添加高斯噪声方差的函数,塑造整个轨迹上的信噪比并显著影响样本质量。",
term_es = "esquema de ruido",
term_zh = "噪声调度",
aliases_es = { "calendario de ruido", "esquema de varianza", "esquema beta" },
aliases_zh = { "噪声调度表", "方差调度", "beta 调度" },
}
data["noise tunnel"] = {
short = "A wrapper that improves attribution methods by averaging or aggregating attributions computed over multiple noisy copies of the input, generalizing SmoothGrad to families such as integrated gradients and gradient × input.",
article = nil,
aliases = { "NoiseTunnel", "noise-tunnel", "smoothgrad-style averaging" },
es = "Envoltura que mejora los métodos de atribución promediando o agregando las atribuciones calculadas sobre múltiples copias ruidosas de la entrada, generalizando SmoothGrad a familias como los gradientes integrados o gradiente × entrada.",
zh = "一种包装方法,通过对在多份加噪输入上计算得到的归因进行平均或聚合来改进归因算法,将 SmoothGrad 推广到积分梯度、梯度×输入等方法族。",
term_es = "noise tunnel",
term_zh = "噪声隧道",
aliases_es = { "túnel de ruido", "NoiseTunnel" },
aliases_zh = { "Noise Tunnel", "噪声平滑包装" },
}
data["noise variance"] = {
short = "The variance parameter representing the magnitude of observation noise added to model predictions in regression and Gaussian process models, often denoted sigma squared.",
article = nil,
aliases = { "observation noise variance", "sigma squared", "likelihood noise", "noise level" },
es = "Parámetro de varianza que representa la magnitud del ruido de observación añadido a las predicciones del modelo en regresión y procesos gaussianos, frecuentemente denotado sigma cuadrado.",
zh = "在回归和高斯过程模型中表示加在模型预测上的观测噪声大小的方差参数,常记为sigma平方。",
term_es = "varianza del ruido",
term_zh = "噪声方差",
aliases_es = { "varianza de observación", "sigma cuadrado" },
aliases_zh = { "观测噪声方差", "似然噪声", "噪声水平" },
}
data["noisegrad"] = {
short = "A saliency-smoothing variant that perturbs model parameters with Gaussian noise rather than the input, averaging the resulting attribution maps to reduce sensitivity to model-specific noise.",
article = nil,
aliases = { "NoiseGrad", "noise-grad", "parameter-noise saliency" },
es = "Variante de suavizado de mapas de saliencia que perturba los parámetros del modelo con ruido gaussiano en lugar de la entrada, promediando los mapas de atribución resultantes para reducir la sensibilidad al ruido específico del modelo.",
zh = "一种显著图平滑变体,向模型参数(而非输入)注入高斯噪声,并对得到的归因图取平均,以降低对模型特定噪声的敏感性。",
term_es = "NoiseGrad",
term_zh = "NoiseGrad",
aliases_es = { "noisegrad", "atribución con ruido en parámetros" },
aliases_zh = { "参数噪声归因", "参数扰动平滑" },
}
data["noisy adam"] = {
short = "A variational inference algorithm that performs Bayesian neural network training by injecting carefully scaled noise into Adam's parameter updates, approximating sampling from a Gaussian posterior.",
article = nil,
aliases = { "Noisy Adam", "noisy-Adam" },
es = "Algoritmo de inferencia variacional que entrena redes neuronales bayesianas inyectando ruido cuidadosamente escalado en las actualizaciones de parámetros de Adam, aproximando el muestreo de un posterior gaussiano.",
zh = "一种变分推断算法,通过向Adam的参数更新中注入精心缩放的噪声来训练贝叶斯神经网络,近似从高斯后验中采样。",
term_es = "Adam ruidoso",
term_zh = "噪声Adam",
aliases_es = { "Noisy Adam", "Adam con ruido" },
aliases_zh = { "Noisy Adam", "噪声Adam", "带噪Adam" },
}
data["noisy aggregation"] = {
short = "An aggregation procedure in federated learning where calibrated random noise is added to client updates or to the aggregated result, typically to provide differential privacy or to obscure individual contributions.",
article = nil,
aliases = { "noisy averaging", "DP aggregation", "noise-perturbed aggregation" },
es = "Procedimiento de agregación en aprendizaje federado en el que se añade ruido aleatorio calibrado a las actualizaciones de los clientes o al resultado agregado, normalmente para garantizar privacidad diferencial o ocultar las aportaciones individuales.",
zh = "联邦学习中的一种聚合过程:向客户端更新或聚合结果中加入经过校准的随机噪声,通常用于提供差分隐私或掩盖单个贡献。",
term_es = "agregación con ruido",
term_zh = "带噪聚合",
aliases_es = { "agregación ruidosa", "agregación DP", "agregación perturbada con ruido" },
aliases_zh = { "noisy aggregation", "差分隐私聚合", "噪声扰动聚合" },
}
data["noisy darts"] = {
short = "Variant of differentiable architecture search that injects noise into the architecture parameters or operations during search to alleviate skip-connection collapse and improve robustness of the discovered cell.",
article = nil,
aliases = { "Noisy DARTS", "NoisyDARTS", "noise-injected DARTS" },
es = "Variante de búsqueda de arquitecturas diferenciable que inyecta ruido en los parámetros de arquitectura o en las operaciones durante la búsqueda para mitigar el colapso hacia conexiones residuales y mejorar la robustez de la celda descubierta.",
zh = "可微架构搜索的一种变体,在搜索过程中向架构参数或操作中注入噪声,以缓解跳跃连接坍缩问题并提升所搜得 cell 的鲁棒性。",
term_es = "Noisy DARTS",
term_zh = "Noisy DARTS",
aliases_es = { "DARTS con ruido" },
aliases_zh = { "噪声 DARTS", "带噪声的 DARTS" },
}
data["noisy kfac"] = {
short = "A variational inference algorithm that approximates a matrix-variate Gaussian posterior over neural network weights by adding noise to K-FAC's natural gradient updates.",
article = nil,
aliases = { "Noisy K-FAC", "noisy K-FAC", "noisy-KFAC" },
es = "Algoritmo de inferencia variacional que aproxima un posterior gaussiano matricial sobre los pesos de una red neuronal añadiendo ruido a las actualizaciones de gradiente natural de K-FAC.",
zh = "一种变分推断算法,通过向K-FAC的自然梯度更新中加入噪声,来近似神经网络权重上的矩阵变量高斯后验分布。",
term_es = "K-FAC ruidoso",
term_zh = "噪声K-FAC",
aliases_es = { "Noisy K-FAC", "K-FAC con ruido" },
aliases_zh = { "Noisy K-FAC", "噪声K-FAC", "带噪K-FAC" },
}
data["noisy natural gradient"] = {
short = "A class of variational inference methods that approximate Bayesian neural network posteriors by adding noise to natural gradient updates, yielding samples from an approximate Gaussian posterior.",
article = nil,
aliases = { "NNG", "Noisy Natural Gradient" },
es = "Familia de métodos de inferencia variacional que aproximan posteriores de redes neuronales bayesianas añadiendo ruido a actualizaciones de gradiente natural, produciendo muestras de un posterior gaussiano aproximado.",
zh = "一类变分推断方法,通过向自然梯度更新中添加噪声来近似贝叶斯神经网络的后验分布,从近似高斯后验中产生样本。",
term_es = "gradiente natural ruidoso",
term_zh = "噪声自然梯度",
aliases_es = { "NNG", "gradiente natural con ruido" },
aliases_zh = { "NNG", "带噪自然梯度" },
}
data["noisy networks"] = {
short = "An exploration technique for deep reinforcement learning that adds learnable parametric noise to the weights of the policy or value network, replacing epsilon-greedy with state-dependent stochasticity that the agent can adapt over training.",
article = nil,
aliases = { "NoisyNet", "NoisyNets", "noisy nets", "noisy networks for exploration" },
es = "Técnica de exploración para aprendizaje por refuerzo profundo que añade ruido paramétrico aprendible a los pesos de la red de política o de valor, reemplazando epsilon-greedy con una estocasticidad dependiente del estado que el agente puede adaptar durante el entrenamiento.",
zh = "一种深度强化学习探索技术,在策略网络或价值网络的权重上添加可学习的参数化噪声,用依赖状态且可在训练中调整的随机性取代 epsilon-greedy。",
term_es = "noisy networks",
term_zh = "noisy networks",
aliases_es = { "redes ruidosas", "NoisyNet" },
aliases_zh = { "噪声网络", "NoisyNet" },
}
data["noisy student"] = {
short = "A self-training method that uses a teacher model to label unlabeled data, then trains a larger or equally sized student model on labeled plus pseudo-labeled data with strong noise injected (data augmentation, dropout, stochastic depth).",
article = nil,
aliases = { "Noisy Student", "noisy student training", "noisy student self-training" },
es = "Método de auto-entrenamiento que utiliza un modelo profesor para etiquetar datos no etiquetados y luego entrena un modelo estudiante de igual o mayor tamaño con los datos etiquetados y pseudo-etiquetados, inyectando fuerte ruido (aumento de datos, dropout, profundidad estocástica).",
zh = "一种自训练方法,先用教师模型为未标注数据生成标签,再用带标签数据加伪标签数据训练同等或更大规模的学生模型,并注入强噪声(数据增强、dropout、随机深度)。",
term_es = "Noisy Student",
term_zh = "Noisy Student",
aliases_es = { "estudiante ruidoso", "entrenamiento Noisy Student" },
aliases_zh = { "Noisy Student 训练", "噪声学生" },
}
data["nomic-embed-text"] = {
short = "An open-source 8192-context text embedding model from Nomic AI, released with fully reproducible training data and code, that matches or exceeds OpenAI's text-embedding-ada-002 on standard benchmarks.",
article = nil,
aliases = { "Nomic Embed Text", "nomic-embed-text-v1", "Nomic Embed", "nomic-embed" },
es = "Modelo de embeddings de texto de código abierto y contexto de 8192 tokens de Nomic AI, publicado con datos de entrenamiento y código totalmente reproducibles, que iguala o supera a text-embedding-ada-002 de OpenAI en los benchmarks estándar.",
zh = "Nomic AI 发布的开源文本嵌入模型,上下文长度为 8192,训练数据和代码完全可复现,在标准基准上达到或超过 OpenAI 的 text-embedding-ada-002。",
term_es = "nomic-embed-text",
term_zh = "nomic-embed-text",
aliases_es = { "Nomic Embed Text", "Nomic Embed" },
aliases_zh = { "Nomic Embed Text", "Nomic Embed" },
}
data["nominal coverage"] = {
short = "The target probability that a prediction interval or confidence set is intended to contain the true value, such as 95% for a 95% interval; the empirical coverage may differ.",
article = nil,
aliases = { "target coverage", "nominal level", "nominal confidence level" },
es = "Probabilidad objetivo de que un intervalo de predicción o conjunto de confianza contenga el valor verdadero, por ejemplo 95% para un intervalo del 95%; la cobertura empírica puede diferir.",
zh = "预测区间或置信集旨在包含真实值的目标概率,例如95%区间的95%;实证覆盖率可能与之不同。",
term_es = "cobertura nominal",
term_zh = "名义覆盖率",
aliases_es = { "nivel nominal", "cobertura objetivo" },
aliases_zh = { "目标覆盖率", "名义置信水平" },
}
data["non-autoregressive tts"] = {
short = "Text-to-speech models that generate all output frames in parallel rather than one-by-one, dramatically accelerating inference at the cost of requiring duration prediction or alignment supervision.",
article = nil,
aliases = { "NAR-TTS", "non-autoregressive text-to-speech", "parallel TTS", "non autoregressive TTS" },
es = "Modelos de síntesis de voz que generan todos los marcos de salida en paralelo en lugar de uno a uno, acelerando notablemente la inferencia a costa de requerir predicción de duración o supervisión de alineamiento.",
zh = "并行而非逐帧生成所有输出帧的文本转语音模型,显著加快推理速度,但需要时长预测或对齐监督。",
term_es = "TTS no autorregresivo",
term_zh = "非自回归 TTS",
aliases_es = { "NAR-TTS", "síntesis de voz no autorregresiva", "TTS paralelo" },
aliases_zh = { "NAR-TTS", "非自回归语音合成", "并行 TTS" },
}
data["non-centered parameterization"] = {
short = "A reparameterization of hierarchical Bayesian models that decouples a latent variable from its scale by writing it as a deterministic transformation of an independent standard variable, easing posterior geometry for samplers.",
article = nil,
aliases = { "non-centered parametrisation", "noncentered parameterization", "NCP", "non-centered reparameterization" },
es = "Reparametrización de modelos bayesianos jerárquicos que desacopla una variable latente de su escala escribiéndola como transformación determinista de una variable estándar independiente, mejorando la geometría posterior para los muestreadores.",
zh = "分层贝叶斯模型的一种重参数化方法,通过将潜变量写为独立标准变量的确定性变换,将其与尺度解耦,从而改善采样器的后验几何结构。",
term_es = "parametrización no centrada",
term_zh = "非中心参数化",
aliases_es = { "reparametrización no centrada", "NCP" },
aliases_zh = { "非中心化参数化", "去中心参数化" },
}
data["non-iid data"] = {
short = "Data that is not independently and identically distributed across sources or partitions; in federated learning, the standard term for the statistical heterogeneity of client datasets that breaks classical convergence assumptions.",
article = nil,
aliases = { "non-IID", "heterogeneous data", "statistically heterogeneous data", "non-i.i.d. data" },
es = "Datos que no están distribuidos de manera independiente e idénticamente entre fuentes o particiones; en aprendizaje federado, término estándar para la heterogeneidad estadística de los conjuntos de datos de los clientes que rompe los supuestos clásicos de convergencia.",
zh = "不满足独立同分布的数据;在联邦学习中是描述客户端数据集统计异构性的标准术语,会破坏经典的收敛性假设。",
term_es = "datos no IID",
term_zh = "非独立同分布数据",
aliases_es = { "non-IID", "datos heterogéneos", "datos estadísticamente heterogéneos", "datos no i.i.d." },
aliases_zh = { "non-IID", "非IID数据", "异构数据", "non-i.i.d. 数据" },
}
data["non-linear probe"] = {
short = "A probing classifier with a non-linear architecture (e.g., a multilayer perceptron) trained on frozen representations to test whether a property is recoverable, in contrast to the more common linear probe.",
article = nil,
aliases = { "nonlinear probe", "MLP probe", "non-linear probing classifier", "nonlinear probing" },
es = "Clasificador de probing con arquitectura no lineal (por ejemplo, un perceptrón multicapa) entrenado sobre representaciones congeladas para comprobar si una propiedad es recuperable, en contraste con el más habitual probe lineal.",
zh = "采用非线性结构(如多层感知机)的探针分类器,在冻结的表示上训练,用以检验某属性是否可被恢复,与更常见的线性探针相对。",
term_es = "probe no lineal",
term_zh = "非线性探针",
aliases_es = { "sonda no lineal", "clasificador de probing no lineal", "probe MLP" },
aliases_zh = { "非线性探测器", "MLP 探针", "非线性探测分类器" },
}
data["non-maximum suppression"] = {
short = "A post-processing step in object detection that, given a set of overlapping candidate boxes with confidence scores, iteratively keeps the highest-scoring box and suppresses any other box with intersection-over-union above a threshold.",
article = nil,
aliases = { "NMS", "non maximum suppression", "non max suppression", "Soft-NMS", "soft NMS" },
es = "Paso de posprocesado en detección de objetos que, dado un conjunto de cajas candidatas superpuestas con puntuaciones de confianza, conserva iterativamente la caja con mayor puntuación y suprime cualquier otra caja con intersección sobre unión por encima de un umbral.",
zh = "目标检测中的后处理步骤:给定一组重叠的候选框及其置信度得分,迭代保留得分最高的框,并抑制任何与其交并比超过阈值的其他框。",
term_es = "supresión de no máximos",
term_zh = "非极大值抑制",
aliases_es = { "NMS", "Soft-NMS" },
aliases_zh = { "NMS", "非最大值抑制", "Soft-NMS" },
}
data["noncompliance"] = {
short = "A situation in randomized experiments in which some subjects do not adhere to the treatment assignment, taking the opposite or no treatment. It motivates instrumental-variable analyses and the local average treatment effect.",
article = nil,
aliases = { "non-compliance", "treatment non-compliance", "imperfect compliance", "non-adherence" },
es = "Situación en experimentos aleatorizados en la que algunos sujetos no se adhieren a la asignación del tratamiento, tomando el tratamiento contrario o ninguno. Motiva el uso de variables instrumentales y del efecto promedio del tratamiento local.",
zh = "随机实验中部分受试者不遵从处理分配,接受相反处理或不接受任何处理的情形。这种现象推动了工具变量分析和局部平均处理效应的发展。",
term_es = "incumplimiento",
term_zh = "不依从",
aliases_es = { "no cumplimiento", "incumplimiento del tratamiento", "no adherencia", "cumplimiento imperfecto" },
aliases_zh = { "不遵从", "处理不依从", "不完全依从", "依从性不足" },
}
data["nonconformity score"] = {
short = "A real-valued function in conformal prediction that measures how unusual a candidate label is relative to a training set; used to construct distribution-free prediction sets with finite-sample coverage guarantees.",
article = nil,
aliases = { "non-conformity score", "conformity score", "nonconformity measure" },
es = "Función de valor real en predicción conforme que mide cuán inusual es una etiqueta candidata respecto a un conjunto de entrenamiento; se usa para construir conjuntos de predicción sin distribución con garantías de cobertura en muestra finita.",
zh = "在共形预测中衡量候选标签相对于训练集异常程度的实值函数;用于构造具有有限样本覆盖保证的分布无关预测集。",
term_es = "puntuación de no conformidad",
term_zh = "非一致性分数",
aliases_es = { "score de no conformidad", "medida de no conformidad" },
aliases_zh = { "非一致性度量", "不一致性分数", "nonconformity score" },
}
data["nonconvex federated convergence"] = {
short = "Convergence analysis of federated learning algorithms under nonconvex objectives, characterizing rates at which the expected gradient norm decays subject to client drift, partial participation, and stochastic noise.",
article = nil,
aliases = { "nonconvex FL convergence", "nonconvex federated learning convergence", "FedAvg nonconvex analysis" },
es = "Análisis de convergencia de los algoritmos de aprendizaje federado con objetivos no convexos, caracterizando las tasas a las que la norma esperada del gradiente decae bajo deriva de cliente, participación parcial y ruido estocástico.",
zh = "在非凸目标下对联邦学习算法的收敛性分析,刻画在客户端漂移、部分参与和随机噪声影响下期望梯度范数的衰减速率。",
term_es = "convergencia federada no convexa",
term_zh = "非凸联邦收敛",
aliases_es = { "convergencia FL no convexa", "análisis no convexo de FedAvg", "convergencia de aprendizaje federado no convexo" },
aliases_zh = { "非凸联邦学习收敛", "FedAvg 非凸分析", "nonconvex FL convergence" },
}
data["nonnegative matrix factorization"] = {
short = "A matrix factorization technique that decomposes a non-negative matrix V into two non-negative factors W and H such that V ≈ WH. Widely used for parts-based representations, topic modeling, and source separation.",
article = nil,
aliases = { "NMF", "non-negative matrix factorization", "non-negative matrix factorisation", "nonnegative matrix factorisation", "Non-negative Matrix Factorization", "NNMF" },
es = "Técnica de factorización de matrices que descompone una matriz no negativa V en dos factores no negativos W y H tales que V ≈ WH. Se utiliza ampliamente para representaciones basadas en partes, modelado de temas y separación de fuentes.",
zh = "一种矩阵分解技术,将非负矩阵 V 分解为两个非负因子 W 和 H,使得 V ≈ WH,常用于基于部件的表示、主题建模和源分离。",
term_es = "factorización de matrices no negativas",
term_zh = "非负矩阵分解",
aliases_es = { "NMF", "factorización no negativa de matrices", "factorización en matrices no negativas" },
aliases_zh = { "NMF", "非负矩阵因子分解" },
}
data["nonparametric bounds"] = {
short = "Ranges for a causal estimand derived without parametric modeling assumptions, typically by enumerating all distributions of potential outcomes consistent with the observed data. Manski's bounds on average treatment effects are a canonical example.",
article = nil,
aliases = { "non-parametric bounds", "Manski bounds", "partial identification bounds", "worst-case bounds" },
es = "Rangos para un estimando causal obtenidos sin supuestos paramétricos, típicamente enumerando todas las distribuciones de resultados potenciales compatibles con los datos observados. Las cotas de Manski para el efecto promedio del tratamiento son el ejemplo canónico.",
zh = "不依赖参数模型假设而得到的因果估计量取值范围,通常通过枚举所有与观测数据相容的潜在结果分布构造。Manski 关于平均处理效应的界是典型例子。",
term_es = "cotas no paramétricas",
term_zh = "非参数界",
aliases_es = { "cotas de Manski", "cotas de identificación parcial", "cotas en el peor caso" },
aliases_zh = { "非参数边界", "Manski 界", "部分识别界", "最坏情况界" },
}
data["nonparametric identification"] = {
short = "Identification of a causal parameter from the observed data distribution without assuming any parametric functional form for the structural equations or potential-outcome distributions. The strongest form of identifiability in causal inference.",
article = nil,
aliases = { "non-parametric identification", "nonparametric identifiability", "model-free identification" },
es = "Identificación de un parámetro causal a partir de la distribución de datos observados sin suponer ninguna forma funcional paramétrica para las ecuaciones estructurales o las distribuciones de resultados potenciales. Es la forma más fuerte de identificabilidad en inferencia causal.",
zh = "在不对结构方程或潜在结果分布假定任何参数化函数形式的前提下,从观测数据分布中识别因果参数。这是因果推断中最强的可识别性形式。",
term_es = "identificación no paramétrica",
term_zh = "非参数识别",
aliases_es = { "identificabilidad no paramétrica", "identificación libre de modelo" },
aliases_zh = { "非参数可识别性", "无模型识别" },
}
data["nonparametric structural equation model"] = {
short = "A causal model in which each variable is a deterministic function of its parents and an exogenous noise term, without restricting those functions to any parametric class. Foundational to Pearl's structural causal model framework.",
article = nil,
aliases = { "NPSEM", "non-parametric structural equation model", "nonparametric SEM", "structural causal model with arbitrary functions" },
es = "Modelo causal en el que cada variable es una función determinista de sus padres y de un término de ruido exógeno, sin restringir dichas funciones a ninguna clase paramétrica. Es fundamental en el marco de modelos causales estructurales de Pearl.",
zh = "一种因果模型,其中每个变量都是其父节点和外生噪声项的确定性函数,且不将这些函数限制在任何参数族中。是 Pearl 结构因果模型框架的基础。",
term_es = "modelo de ecuaciones estructurales no paramétrico",
term_zh = "非参数结构方程模型",
aliases_es = { "NPSEM", "SEM no paramétrico", "modelo causal estructural con funciones arbitrarias" },
aliases_zh = { "NPSEM", "非参数 SEM", "任意函数结构因果模型" },
}
data["norm clipping aggregation"] = {
short = "An aggregation strategy in federated learning that bounds each client update by a fixed L2 norm before averaging, used to limit the influence of outliers and to enable differentially private aggregation.",
article = nil,
aliases = { "clipped aggregation", "gradient clipping aggregation", "bounded-norm aggregation" },
es = "Estrategia de agregación en aprendizaje federado que recorta cada actualización de cliente a una norma L2 fija antes de promediar, utilizada para limitar la influencia de los valores atípicos y permitir la agregación con privacidad diferencial.",
zh = "联邦学习中的一种聚合策略:在求平均之前将每个客户端的更新按固定的 L2 范数裁剪,以限制离群值的影响,并支持差分隐私聚合。",
term_es = "agregación con recorte de norma",
term_zh = "范数裁剪聚合",
aliases_es = { "agregación recortada", "agregación con clipping del gradiente", "agregación de norma acotada" },
aliases_zh = { "裁剪聚合", "梯度裁剪聚合", "有界范数聚合" },
}
data["normal cell"] = {
short = "In NAS cell-based search spaces, the building block that preserves spatial resolution and channel count, repeatedly stacked between reduction cells to form the full network.",
article = nil,
aliases = { "Normal Cell", "normal-cell", "preserving cell" },
es = "En los espacios de búsqueda NAS basados en celdas, bloque constructivo que preserva la resolución espacial y el número de canales, apilado repetidamente entre reduction cells para formar la red completa.",
zh = "在基于 cell 的 NAS 搜索空间中,保持空间分辨率和通道数不变的构建模块,在 reduction cell 之间反复堆叠以构成完整网络。",
term_es = "normal cell",
term_zh = "normal cell",
aliases_es = { "celda normal", "celda de preservación" },
aliases_zh = { "正常单元", "normal 单元" },
}
data["normal-inverse-gamma evidential"] = {
short = "An evidential deep learning approach for regression that places a normal-inverse-gamma prior over the mean and variance, letting a single network output the four NIG hyperparameters and decompose aleatoric and epistemic uncertainty.",
article = nil,
aliases = { "NIG evidential", "deep evidential regression", "evidential regression", "normal inverse gamma evidential" },
es = "Enfoque de aprendizaje profundo evidencial para regresión que coloca un prior normal-inverso-gamma sobre la media y la varianza, permitiendo que una sola red produzca los cuatro hiperparámetros NIG y descomponga la incertidumbre aleatoria y epistémica.",
zh = "一种用于回归的证据深度学习方法,对均值和方差施加正态-逆伽马先验,使单个网络输出四个NIG超参数并分解偶然不确定性与认知不确定性。",
term_es = "evidencial normal-inverso-gamma",
term_zh = "正态-逆伽马证据模型",
aliases_es = { "regresión evidencial profunda", "NIG evidencial" },
aliases_zh = { "NIG证据回归", "深度证据回归", "正态逆伽马证据" },
}
data["normal-jeffreys prior"] = {
short = "A scale-invariant improper prior obtained by combining a normal likelihood for the mean with a Jeffreys prior on the variance; in Bayesian neural networks it induces sparsity through heavy-tailed marginal distributions.",
article = nil,
aliases = { "normal Jeffreys prior", "NJ prior", "Jeffreys prior on scale" },
es = "Prior impropio invariante a escala obtenido al combinar una verosimilitud normal para la media con un prior de Jeffreys sobre la varianza; en redes neuronales bayesianas induce esparsidad mediante distribuciones marginales de colas pesadas.",
zh = "通过对均值采用正态似然并对方差采用杰弗里斯先验所得到的尺度不变非正常先验;在贝叶斯神经网络中通过重尾边际分布诱导稀疏性。",
term_es = "prior normal-Jeffreys",
term_zh = "正态-杰弗里斯先验",
aliases_es = { "prior NJ", "prior de Jeffreys normal" },
aliases_zh = { "正态-Jeffreys先验", "NJ先验" },
}
data["normalizing flow"] = {
short = "A generative model that transforms a simple base distribution into a complex one through a sequence of invertible mappings, allowing exact likelihood evaluation via the change-of-variables formula.",
article = nil,
aliases = { "Normalizing Flow", "normalizing flows", "NF", "flow-based model" },
es = "Modelo generativo que transforma una distribución base simple en una compleja mediante una secuencia de aplicaciones invertibles, permitiendo evaluar la verosimilitud exacta con la fórmula de cambio de variables.",
zh = "一种生成模型,通过一系列可逆映射将简单的基础分布转换为复杂分布,并借助变量替换公式实现精确似然计算。",
term_es = "flujo normalizador",
term_zh = "标准化流",
aliases_es = { "flujos normalizadores", "normalizing flow", "NF", "modelo basado en flujo" },
aliases_zh = { "归一化流", "正规化流", "normalizing flow", "NF", "基于流的模型" },
}
data["normalizing flow posterior"] = {
short = "An expressive variational posterior approximation constructed by transforming a simple base distribution through an invertible neural network, enabling tractable density evaluation and sampling.",
article = nil,
aliases = { "normalising flow posterior", "flow-based posterior", "NF posterior" },
es = "Aproximación posterior variacional expresiva construida transformando una distribución base simple mediante una red neuronal invertible, permitiendo evaluación de densidad y muestreo tratables.",
zh = "通过可逆神经网络变换简单基分布而构造的表达力强的变分后验近似,支持可处理的密度评估和采样。",
term_es = "posterior con flujos normalizadores",
term_zh = "归一化流后验",
aliases_es = { "posterior basado en flujos", "posterior NF" },
aliases_zh = { "标准化流后验", "归一化流近似后验", "NF后验" },
}
data["notears"] = {
short = "An algorithm for learning directed acyclic graph structure that recasts the combinatorial acyclicity constraint as a smooth equality constraint involving the matrix exponential, enabling continuous optimization of causal structure.",
article = nil,
aliases = { "NOTEARS", "No Tears", "continuous DAG learning", "smooth acyclicity constraint" },
es = "Algoritmo para aprender la estructura de un grafo acíclico dirigido que reformula la restricción combinatoria de aciclicidad como una restricción suave de igualdad basada en la exponencial matricial, permitiendo la optimización continua de la estructura causal.",
zh = "一种学习有向无环图结构的算法,将无环性这一组合约束重新表述为基于矩阵指数的光滑等式约束,从而能够通过连续优化学习因果结构。",
term_es = "NOTEARS",
term_zh = "NOTEARS",
aliases_es = { "aprendizaje continuo de DAG", "restricción suave de aciclicidad" },
aliases_zh = { "连续 DAG 学习", "光滑无环约束" },
}
data["novel object captioning"] = {
short = "The task of generating image descriptions that include object categories not present in the paired image-caption training data, requiring transfer from external object recognition datasets or external knowledge.",
article = nil,
aliases = { "NOC", "novel object caption generation", "out-of-domain captioning", "novel-object captioning" },
es = "Tarea de generar descripciones de imágenes que incluyan categorías de objetos no presentes en los datos de entrenamiento de pares imagen-descripción, lo cual requiere transferencia desde conjuntos de reconocimiento de objetos externos o conocimiento externo.",
zh = "为图像生成包含训练图文配对数据中未出现的对象类别的描述,需要从外部对象识别数据集或外部知识进行迁移的任务。",
term_es = "subtitulación de objetos novedosos",
term_zh = "新对象图像描述",
aliases_es = { "generación de descripciones para objetos novedosos", "subtitulación fuera de dominio" },
aliases_zh = { "新颖对象描述", "跨域图像描述", "新对象字幕生成" },
}
data["novelty detection"] = {
short = "The task of identifying inputs that differ from a learned representation of normal data; closely related to one-class classification, anomaly detection, and out-of-distribution detection.",
article = nil,
aliases = { "anomaly detection", "outlier detection", "one-class classification" },
es = "Tarea de identificar entradas que difieren de una representación aprendida de datos normales; estrechamente relacionada con clasificación de una clase, detección de anomalías y detección fuera de distribución.",
zh = "识别与正常数据习得表示不同的输入的任务;与单类分类、异常检测和分布外检测密切相关。",
term_es = "detección de novedades",
term_zh = "新颖性检测",
aliases_es = { "detección de anomalías", "detección de valores atípicos" },
aliases_zh = { "新奇检测", "异常检测", "离群点检测" },
}
data["novelty search"] = {
short = "Evolutionary optimization paradigm that selects individuals based on behavioral novelty rather than a task-specific objective, encouraging exploration in deceptive or open-ended fitness landscapes.",
article = nil,
aliases = { "Novelty Search", "NS", "novelty-driven search" },
es = "Paradigma de optimización evolutiva que selecciona individuos según la novedad de su comportamiento en lugar de un objetivo específico de la tarea, fomentando la exploración en paisajes de aptitud engañosos o abiertos.",
zh = "一种进化优化范式,根据个体行为的新颖性而非特定任务目标进行选择,以鼓励在欺骗性或开放性适应度景观中的探索。",
term_es = "búsqueda por novedad",
term_zh = "新颖性搜索",
aliases_es = { "novelty search", "búsqueda basada en novedad" },
aliases_zh = { "新奇性搜索", "基于新颖性的搜索" },
}
data["npc"] = {
short = "Neural Predictive Coding, a self-supervised speech representation learning approach that predicts future audio frames from past context using a contrastive or regression objective without phonetic labels.",
article = nil,
aliases = { "NPC", "Neural Predictive Coding", "neural predictive coding" },
es = "Codificación Predictiva Neuronal, un enfoque autosupervisado de aprendizaje de representaciones de voz que predice marcos de audio futuros a partir del contexto pasado mediante un objetivo contrastivo o de regresión, sin etiquetas fonéticas.",
zh = "神经预测编码,一种自监督语音表示学习方法,使用对比或回归目标根据过去上下文预测未来音频帧,无需音素标签。",
term_es = "NPC",
term_zh = "NPC",
aliases_es = { "NPC", "codificación predictiva neuronal" },
aliases_zh = { "NPC", "神经预测编码" },
}
data["ns-vqa"] = {
short = "Neural-Symbolic Visual Question Answering: a model by Yi et al. (2018) that parses an image into a structured scene representation and a question into an executable symbolic program, then runs the program on the scene to answer.",
article = nil,
aliases = { "NS-VQA", "Neural-Symbolic VQA (Yi et al.)", "neural-symbolic VQA model" },
es = "Neural-Symbolic Visual Question Answering: modelo de Yi et al. (2018) que analiza una imagen en una representación estructurada de la escena y una pregunta en un programa simbólico ejecutable, y luego ejecuta el programa sobre la escena para responder.",
zh = "Neural-Symbolic Visual Question Answering:Yi 等人(2018)提出的模型,将图像解析为结构化的场景表示,将问题解析为可执行的符号程序,然后在场景上运行该程序以得到答案。",
term_es = "NS-VQA",
term_zh = "NS-VQA",
aliases_es = { "VQA neuro-simbólico (Yi et al.)" },
aliases_zh = { "神经符号视觉问答 (Yi et al.)" },
}
data["nscl"] = {
short = "Neuro-Symbolic Concept Learner: an acronym for the Mao et al. (2019) model that jointly learns visual concepts, words, and a symbolic program executor from images and natural-language questions.",
article = nil,
aliases = { "NSCL", "Neuro-Symbolic Concept Learner" },
es = "Neuro-Symbolic Concept Learner: acrónimo del modelo de Mao et al. (2019) que aprende conjuntamente conceptos visuales, palabras y un ejecutor simbólico de programas a partir de imágenes y preguntas en lenguaje natural.",
zh = "Neuro-Symbolic Concept Learner 的缩写,指 Mao 等人(2019)提出的模型,可从图像和自然语言问题中联合学习视觉概念、词汇以及符号程序执行器。",
term_es = "NSCL",
term_zh = "NSCL",
aliases_es = { "Neuro-Symbolic Concept Learner" },
aliases_zh = { "Neuro-Symbolic Concept Learner", "神经-符号概念学习器" },
}
data["nsga-ii"] = {
short = "Non-dominated Sorting Genetic Algorithm II by Deb et al. (2002), a fast multi-objective evolutionary algorithm that uses non-dominated sorting and crowding distance to maintain a diverse Pareto front.",
article = nil,
aliases = { "NSGA-II", "NSGA2", "Non-dominated Sorting Genetic Algorithm II" },
es = "Algoritmo genético de ordenación no dominada II de Deb et al. (2002), un algoritmo evolutivo multiobjetivo rápido que usa ordenación no dominada y distancia de hacinamiento para mantener un frente de Pareto diverso.",
zh = "Deb 等(2002)提出的非支配排序遗传算法 II,一种高效的多目标进化算法,通过非支配排序和拥挤距离维持多样化的 Pareto 前沿。",
term_es = "NSGA-II",
term_zh = "NSGA-II",
aliases_es = { "algoritmo genético de ordenación no dominada II" },
aliases_zh = { "NSGA2", "非支配排序遗传算法 II" },
}
data["nsga-iii"] = {
short = "Extension of NSGA-II for many-objective optimization (typically four or more objectives) that replaces crowding distance with a reference-point-based niching mechanism to maintain diversity in high-dimensional Pareto fronts.",
article = nil,
aliases = { "NSGA-III", "NSGA3", "Non-dominated Sorting Genetic Algorithm III" },
es = "Extensión de NSGA-II para optimización con muchos objetivos (típicamente cuatro o más) que sustituye la distancia de hacinamiento por un mecanismo de nichos basado en puntos de referencia para mantener la diversidad en frentes de Pareto de alta dimensión.",
zh = "NSGA-II 面向多目标(通常四个或更多)优化的扩展,使用基于参考点的小生境机制取代拥挤距离,以在高维 Pareto 前沿上维持多样性。",
term_es = "NSGA-III",
term_zh = "NSGA-III",
aliases_es = { "algoritmo genético de ordenación no dominada III" },
aliases_zh = { "NSGA3", "非支配排序遗传算法 III" },
}
data["nsnet"] = {
short = "A real-time deep-learning noise suppression model from Microsoft used as a baseline in the DNS Challenge, operating on STFT magnitudes with a recurrent or GRU-based architecture to estimate a suppression mask.",
article = nil,
aliases = { "NSNet", "NSNet2", "Microsoft NSNet", "noise suppression net" },
es = "Modelo de supresión de ruido en tiempo real basado en aprendizaje profundo de Microsoft, usado como referencia en el DNS Challenge; opera sobre magnitudes STFT con una arquitectura recurrente o basada en GRU para estimar una máscara de supresión.",
zh = "微软提出的实时深度学习降噪模型,是 DNS Challenge 的基线,基于 STFT 幅度,使用循环或 GRU 架构估计抑制掩码。",
term_es = "NSNet",
term_zh = "NSNet",
aliases_es = { "NSNet", "NSNet2", "red de supresión de ruido NSNet" },
aliases_zh = { "NSNet", "NSNet2", "微软 NSNet 降噪模型" },
}
data["nsynth"] = {
short = "A large-scale dataset and WaveNet-based neural synthesizer from Google Magenta containing roughly 305,000 single-note recordings from 1,000 instruments, paired with a model that learns timbre embeddings to generate novel sounds.",
article = nil,
aliases = { "NSynth", "Neural Synthesizer", "NSynth dataset", "NSynth Super" },
es = "Conjunto de datos a gran escala y sintetizador neuronal basado en WaveNet de Google Magenta que contiene cerca de 305,000 grabaciones de notas individuales de 1,000 instrumentos, junto con un modelo que aprende incrustaciones de timbre para generar sonidos nuevos.",
zh = "Google Magenta 提出的大规模数据集与基于 WaveNet 的神经合成器,包含约 30.5 万段来自 1000 件乐器的单音录音,并配套学习音色嵌入以生成新音色的模型。",
term_es = "NSynth",
term_zh = "NSynth",
aliases_es = { "NSynth", "sintetizador neuronal NSynth", "conjunto de datos NSynth" },
aliases_zh = { "NSynth", "神经合成器 NSynth", "NSynth 数据集" },
}
data["nt-xent loss"] = {
short = "Normalized temperature-scaled cross-entropy loss popularized by SimCLR. Treats other examples in the batch as negatives and applies a temperature parameter to logits computed from cosine similarities.",
article = nil,
aliases = { "NT-Xent", "NTXent", "normalized temperature-scaled cross entropy loss", "NT-Xent loss" },
es = "Pérdida de entropía cruzada normalizada y escalada por temperatura popularizada por SimCLR. Trata como negativos al resto de ejemplos del lote y aplica un parámetro de temperatura a logits basados en similitudes coseno.",
zh = "由 SimCLR 推广的归一化温度缩放交叉熵损失。将批次中其他样本视为负样本,并对基于余弦相似度的 logits 应用温度参数。",
term_es = "pérdida NT-Xent",
term_zh = "NT-Xent 损失",
aliases_es = { "NT-Xent", "NTXent" },
aliases_zh = { "NT-Xent", "NTXent" },
}
data["ntk-aware scaling"] = {
short = "A method for extending the context length of rotary position embeddings (RoPE) by interpolating high frequencies less than low frequencies, motivated by neural tangent kernel theory and used to extend Llama-style models without retraining.",
article = nil,
aliases = { "NTK-aware scaling", "NTK scaling", "NTK-aware RoPE", "NTK-aware interpolation", "NTK RoPE scaling" },
es = "Método para extender la longitud de contexto de los embeddings posicionales rotatorios (RoPE) interpolando menos las frecuencias altas que las bajas, motivado por la teoría del kernel tangente neuronal y usado para extender modelos tipo Llama sin reentrenamiento.",
zh = "一种扩展旋转位置编码(RoPE)上下文长度的方法,对高频成分的插值少于低频成分,受神经切线核理论启发,用于在不重新训练的情况下扩展 Llama 类模型。",
term_es = "escalado NTK-aware",
term_zh = "NTK 感知缩放",
aliases_es = { "NTK-aware", "interpolación NTK-aware", "escalado NTK de RoPE" },
aliases_zh = { "NTK-aware scaling", "NTK 缩放", "NTK 感知 RoPE" },
}
data["nuclear norm"] = {
short = "A matrix norm equal to the sum of the singular values, ||A||_* = Σ σ_i(A). The convex envelope of matrix rank on the spectral-norm unit ball; widely used as a surrogate for rank in low-rank recovery problems.",
article = nil,
aliases = { "trace norm", "Schatten 1-norm", "Ky Fan norm", "||A||_*" },
es = "Norma matricial igual a la suma de los valores singulares, ||A||_* = Σ σ_i(A). Es la envoltura convexa del rango matricial sobre la bola unitaria de la norma espectral; se usa ampliamente como sustituto del rango en problemas de recuperación de bajo rango.",
zh = "矩阵范数,等于所有奇异值之和,||A||_* = Σ σ_i(A)。它是矩阵秩在谱范数单位球上的凸包络;常被用作低秩恢复问题中秩的替代。",
term_es = "norma nuclear",
term_zh = "核范数",
aliases_es = { "norma traza", "norma de Schatten 1" },
aliases_zh = { "迹范数", "Schatten 1-范数" },
}
data["nucleosome positioning"] = {
short = "The genomic locations of nucleosomes along DNA, which influence transcription factor access, gene regulation, and chromatin organization, and can be mapped via MNase-seq, ATAC-seq, or chemical cleavage.",
article = nil,
aliases = { "nucleosome position", "nucleosome occupancy", "nucleosome map", "nucleosome organization", "nucleosome positioning map" },
es = "Posiciones genómicas de los nucleosomas a lo largo del ADN, que condicionan el acceso de factores de transcripción, la regulación génica y la organización de la cromatina, y pueden mapearse mediante MNase-seq, ATAC-seq o digestión química.",
zh = "核小体在基因组 DNA 上的位置分布,决定转录因子的可及性、基因调控以及染色质组织,可通过 MNase-seq、ATAC-seq 或化学切割等方法绘制。",
term_es = "posicionamiento de nucleosomas",
term_zh = "核小体定位",
aliases_es = { "posición de nucleosomas", "ocupación de nucleosomas", "mapa de nucleosomas", "organización de nucleosomas" },
aliases_zh = { "核小体位置", "核小体占据", "核小体分布图", "核小体组织", "核小体定位图谱" },
}
data["nucleotide transformer"] = {
short = "A family of large transformer-based foundation models pretrained on genomic DNA sequences with masked-language-modeling objectives, designed to learn general-purpose representations for downstream regulatory and functional prediction tasks.",
article = nil,
aliases = { "Nucleotide Transformer", "Nucleotide Transformer model", "NT model", "InstaDeep Nucleotide Transformer" },
es = "Familia de grandes modelos fundacionales basados en transformer preentrenados sobre secuencias genómicas de ADN con objetivos de modelado de lenguaje enmascarado, diseñados para aprender representaciones generales útiles en tareas posteriores de predicción regulatoria y funcional.",
zh = "一类基于 Transformer 的大型基因组基础模型,使用掩码语言建模目标在基因组 DNA 序列上进行预训练,旨在学习通用表示,用于下游的调控元件和功能预测任务。",
term_es = "Nucleotide Transformer",
term_zh = "Nucleotide Transformer",
aliases_es = { "Nucleotide Transformer", "modelo Nucleotide Transformer", "modelo NT", "Nucleotide Transformer de InstaDeep" },
aliases_zh = { "Nucleotide Transformer", "核苷酸 Transformer", "Nucleotide Transformer 模型", "InstaDeep Nucleotide Transformer" },
}
data["nudged elastic band"] = {
short = "A computational method for finding minimum energy paths and transition states between two stable configurations on a potential energy surface, using a chain of intermediate images connected by springs that are 'nudged' to follow the reaction coordinate.",
article = nil,
aliases = { "NEB", "nudged elastic band method", "Nudged Elastic Band" },
es = "Método computacional para localizar caminos de mínima energía y estados de transición entre dos configuraciones estables sobre una superficie de energía potencial, mediante una cadena de imágenes intermedias conectadas por resortes que se «empujan» a seguir la coordenada de reacción.",
zh = "一种用于在势能面上寻找两个稳定构型之间最低能量路径和过渡态的计算方法,通过一串由弹簧相连的中间镜像沿反应坐标进行「轻推」式优化。",
term_es = "banda elástica empujada",
term_zh = "微动弹性带",
aliases_es = { "NEB", "método NEB", "método de banda elástica nudged" },
aliases_zh = { "NEB", "NEB 方法", "推动弹性带法" },
}
data["nugget term"] = {
short = "A small positive constant added to the diagonal of a Gaussian process kernel matrix to ensure numerical stability of Cholesky factorization and to model independent observation noise.",
article = nil,
aliases = { "nugget", "jitter", "diagonal jitter", "noise nugget" },
es = "Pequeña constante positiva añadida a la diagonal de la matriz núcleo de un proceso gaussiano para asegurar la estabilidad numérica de la factorización de Cholesky y modelar ruido de observación independiente.",
zh = "添加到高斯过程核矩阵对角线上的一个小正常数,用于确保Cholesky分解的数值稳定性并建模独立的观测噪声。",
term_es = "término nugget",
term_zh = "nugget项",
aliases_es = { "nugget", "jitter", "perturbación diagonal" },
aliases_zh = { "nugget", "抖动项", "对角抖动", "块金项" },
}
data["nuisance function"] = {
short = "A function such as the propensity score or outcome regression that must be estimated as an intermediate step but is not itself the target of inference. Modern semiparametric methods often estimate nuisance functions with machine learning.",
article = nil,
aliases = { "nuisance functions", "nuisance components", "infinite-dimensional nuisance" },
es = "Función, como el puntaje de propensión o la regresión del resultado, que debe estimarse como paso intermedio pero que no es en sí misma el objetivo de la inferencia. Los métodos semiparamétricos modernos suelen estimar las funciones nuisance con aprendizaje automático.",
zh = "需要作为中间步骤估计但本身并非推断目标的函数,例如倾向得分或结果回归。现代半参数方法常用机器学习来估计这些干扰函数。",
term_es = "función nuisance",
term_zh = "干扰函数",
aliases_es = { "función de molestia", "componente nuisance", "nuisance infinito-dimensional" },
aliases_zh = { "扰动函数", "讨厌函数", "无穷维干扰函数" },
}
data["nuisance parameter"] = {
short = "A parameter whose value is required to estimate the parameter of interest but which is not itself the target of inference. In causal inference these often include propensity scores and outcome regression coefficients.",
article = nil,
aliases = { "nuisance parameters", "incidental parameter", "auxiliary parameter" },
es = "Parámetro cuyo valor se necesita para estimar el parámetro de interés pero que no es el objetivo de la inferencia. En inferencia causal incluye habitualmente puntajes de propensión y coeficientes de regresión del resultado.",
zh = "为了估计目标参数所必须知道、但本身并非推断对象的参数。在因果推断中通常包括倾向得分和结果回归系数。",
term_es = "parámetro nuisance",
term_zh = "干扰参数",
aliases_es = { "parámetro de molestia", "parámetro incidental", "parámetro auxiliar" },
aliases_zh = { "讨厌参数", "附带参数", "辅助参数" },
}
data["null space"] = {
short = "For a matrix A, the set of all vectors x such that Ax = 0. A linear subspace of the domain whose dimension is the nullity of A; complementary to the row space under the rank-nullity theorem.",
article = nil,
aliases = { "kernel", "kernel of a matrix", "nullspace", "ker(A)", "Nul(A)" },
es = "Para una matriz A, el conjunto de todos los vectores x tales que Ax = 0. Es un subespacio lineal del dominio cuya dimensión es la nulidad de A; es complementario al espacio fila por el teorema del rango y la nulidad.",
zh = "对于矩阵 A,所有满足 Ax = 0 的向量 x 构成的集合。它是定义域的一个线性子空间,其维数为 A 的零度;按秩-零度定理与行空间互补。",
term_es = "espacio nulo",
term_zh = "零空间",
aliases_es = { "núcleo", "kernel", "núcleo de una matriz" },
aliases_zh = { "核", "矩阵的核", "零化空间" },
}
data["null-text inversion"] = {
short = "A technique for editing real images with text-to-image diffusion models that optimizes the unconditional (null) text embedding at each diffusion step so that the deterministic DDIM inversion accurately reconstructs the input image, enabling prompt-based edits.",
article = nil,
aliases = { "Null-Text Inversion", "null text inversion", "NTI" },
es = "Técnica para editar imágenes reales con modelos de difusión de texto a imagen que optimiza el embedding de texto incondicional (nulo) en cada paso de difusión para que la inversión determinista DDIM reconstruya con precisión la imagen de entrada, permitiendo ediciones basadas en prompts.",
zh = "一种使用文本到图像扩散模型编辑真实图像的技术,在每个扩散步骤优化无条件(空)文本嵌入,使确定性 DDIM 反演能够精确重建输入图像,从而支持基于提示词的编辑。",
term_es = "inversión de texto nulo",
term_zh = "空文本反演",
aliases_es = { "null-text inversion", "NTI" },
aliases_zh = { "null-text inversion", "NTI", "无文本反演" },
}
data["number needed to treat"] = {
short = "The expected number of patients who must receive a treatment for one additional patient to benefit. Computed as the reciprocal of the absolute risk reduction, it is a standard summary of clinical effect size.",
article = nil,
aliases = { "NNT", "number-needed-to-treat", "absolute-risk-reduction reciprocal" },
es = "Número esperado de pacientes que deben recibir un tratamiento para que un paciente adicional obtenga beneficio. Se calcula como el inverso de la reducción absoluta del riesgo y es una medida estándar del tamaño del efecto clínico.",
zh = "为使一名额外患者获益而需要接受治疗的预期患者人数,等于绝对风险下降的倒数,是衡量临床效应大小的标准指标。",
term_es = "número necesario a tratar",
term_zh = "需要治疗人数",
aliases_es = { "NNT", "inverso de la reducción absoluta del riesgo" },
aliases_zh = { "NNT", "需治疗人数", "绝对风险降低的倒数" },
}
data["nutrition label for ml"] = {
short = "A standardized, human-readable summary attached to a dataset or model that documents its provenance, intended use, and known limitations, modeled on food nutrition labels. Examples include Datasheets for Datasets and Model Cards.",
article = nil,
aliases = { "nutrition label", "ML nutrition label", "dataset nutrition label", "model nutrition label" },
es = "Resumen estandarizado y legible para humanos asociado a un conjunto de datos o modelo, que documenta su procedencia, uso previsto y limitaciones conocidas, inspirado en las etiquetas nutricionales de alimentos. Incluye Datasheets for Datasets y Model Cards.",
zh = "附加于数据集或模型之上的标准化、可读性强的摘要,借鉴食品营养标签的形式,记录其来源、预期用途和已知局限。代表性形式包括数据集说明书(Datasheets)和模型卡(Model Cards)。",
term_es = "etiqueta nutricional para aprendizaje automático",
term_zh = "机器学习营养标签",
aliases_es = { "etiqueta nutricional ML", "etiqueta nutricional de datos", "etiqueta nutricional de modelo" },
aliases_zh = { "ML 营养标签", "数据集营养标签", "模型营养标签" },
}
data["nvflare"] = {
short = "NVIDIA FLARE, an open-source federated learning framework developed by NVIDIA that provides infrastructure for cross-silo and cross-device collaborative training, with built-in support for privacy mechanisms and secure aggregation.",
article = nil,
aliases = { "NVFlare", "NVIDIA FLARE", "FLARE", "Federated Learning Application Runtime Environment" },
es = "NVIDIA FLARE, un framework de aprendizaje federado de código abierto desarrollado por NVIDIA que proporciona infraestructura para entrenamiento colaborativo entre silos y entre dispositivos, con soporte integrado para mecanismos de privacidad y agregación segura.",
zh = "NVIDIA FLARE,由 NVIDIA 开发的开源联邦学习框架,提供跨机构和跨设备协同训练的基础设施,内置对隐私机制和安全聚合的支持。",
term_es = "NVFlare",
term_zh = "NVFlare",
aliases_es = { "NVIDIA FLARE", "FLARE", "framework NVFlare" },
aliases_zh = { "NVIDIA FLARE", "FLARE", "NVFlare 框架" },
}
data["nvlink interconnect"] = {
short = "NVLink, NVIDIA's high-bandwidth, low-latency point-to-point GPU interconnect that enables fast tensor exchange between GPUs, often used in distributed and federated training to accelerate intra-node communication.",
article = nil,
aliases = { "NVLink", "NVIDIA NVLink", "NVLink bus" },
es = "NVLink, la interconexión punto a punto entre GPUs de NVIDIA, de alto ancho de banda y baja latencia, que permite intercambiar tensores rápidamente entre GPUs y se usa habitualmente en entrenamiento distribuido y federado para acelerar la comunicación dentro de un nodo.",
zh = "NVLink,NVIDIA 提供的高带宽、低延迟 GPU 点对点互连技术,可在 GPU 之间快速交换张量,常用于分布式与联邦训练以加速节点内通信。",
term_es = "interconexión NVLink",
term_zh = "NVLink 互连",
aliases_es = { "NVLink", "NVIDIA NVLink", "bus NVLink" },
aliases_zh = { "NVLink", "NVIDIA NVLink", "NVLink 总线" },
}
data["nvlm"] = {
short = "A family of frontier multimodal large language models released by NVIDIA in 2024 that achieves competitive performance on vision-language tasks while preserving text-only LLM capabilities through a careful training recipe.",
article = nil,
aliases = { "NVLM", "NVIDIA NVLM", "NVLM 1.0" },
es = "Familia de grandes modelos de lenguaje multimodales de vanguardia publicada por NVIDIA en 2024 que logra un rendimiento competitivo en tareas visión-lenguaje al tiempo que conserva las capacidades de los LLM solo de texto mediante una receta de entrenamiento cuidadosa.",
zh = "NVIDIA 于 2024 年发布的前沿多模态大语言模型家族,通过精心设计的训练方案,在视觉-语言任务上取得有竞争力的性能,同时保留了纯文本 LLM 的能力。",
term_es = "NVLM",
term_zh = "NVLM",
aliases_es = { "NVIDIA NVLM" },
aliases_zh = { "NVIDIA NVLM" },
}
data["o1"] = {
short = "OpenAI's first reasoning-focused frontier model, released in 2024, which performs an internal chain-of-thought before responding and trades latency for substantially higher accuracy on math, code, and science benchmarks.",
article = nil,
aliases = { "OpenAI o1", "o1 model", "GPT-o1" },
es = "El primer modelo frontera de OpenAI orientado al razonamiento, publicado en 2024, que realiza una cadena de pensamiento interna antes de responder y sacrifica latencia por una precisión sustancialmente mayor en benchmarks de matemáticas, código y ciencias.",
zh = "OpenAI 于 2024 年发布的首个面向推理的前沿模型,在回应前进行内部思维链推理,以延迟换取在数学、代码与科学基准上显著更高的准确率。",
term_es = "o1",
term_zh = "o1",
aliases_es = { "OpenAI o1", "modelo o1" },
aliases_zh = { "OpenAI o1", "o1 模型" },
}
data["o1-mini"] = {
short = "A smaller, faster, and cheaper variant of OpenAI's o1 reasoning model released in 2024, optimized for STEM tasks and competitive programming with reduced general world knowledge.",
article = nil,
aliases = { "OpenAI o1-mini", "o1 mini", "o1mini" },
es = "Variante más pequeña, rápida y económica del modelo de razonamiento o1 de OpenAI, publicada en 2024, optimizada para tareas STEM y programación competitiva con menor conocimiento general del mundo.",
zh = "OpenAI o1 推理模型的更小、更快、更便宜版本,于 2024 年发布,针对 STEM 任务和竞赛编程进行了优化,但通用世界知识较少。",
term_es = "o1-mini",
term_zh = "o1-mini",
aliases_es = { "OpenAI o1-mini", "o1 mini" },
aliases_zh = { "OpenAI o1-mini", "o1 mini" },
}
data["o1-preview"] = {
short = "The September 2024 preview release of OpenAI's o1 reasoning model, available in ChatGPT and the API ahead of the full o1 launch, used to evaluate the new reasoning paradigm in production settings.",
article = nil,
aliases = { "OpenAI o1-preview", "o1 preview", "o1preview" },
es = "Lanzamiento preview de septiembre de 2024 del modelo de razonamiento o1 de OpenAI, disponible en ChatGPT y la API antes del lanzamiento completo de o1, utilizado para evaluar el nuevo paradigma de razonamiento en producción.",
zh = "OpenAI o1 推理模型于 2024 年 9 月发布的预览版本,在正式推出 o1 之前在 ChatGPT 和 API 中提供,用于在生产环境中评估新的推理范式。",
term_es = "o1-preview",
term_zh = "o1-preview",
aliases_es = { "OpenAI o1-preview", "o1 preview" },
aliases_zh = { "OpenAI o1-preview", "o1 预览版" },
}
data["o3"] = {
short = "OpenAI's third-generation reasoning model, announced in late 2024 as the successor to o1, notable for breakthrough performance on the ARC-AGI benchmark and substantially deeper test-time compute scaling.",
article = nil,
aliases = { "OpenAI o3", "o3 model" },
es = "Modelo de razonamiento de tercera generación de OpenAI, anunciado a finales de 2024 como sucesor de o1, destacable por su rendimiento récord en el benchmark ARC-AGI y por un escalado mucho más profundo del cómputo en tiempo de inferencia.",
zh = "OpenAI 的第三代推理模型,于 2024 年末作为 o1 的继任者发布,在 ARC-AGI 基准上取得突破性表现,并显著扩展了测试时计算的深度。",
term_es = "o3",
term_zh = "o3",
aliases_es = { "OpenAI o3", "modelo o3" },
aliases_zh = { "OpenAI o3", "o3 模型" },
}
data["o3-mini"] = {
short = "A smaller, lower-cost variant of OpenAI's o3 reasoning model released in early 2025, supporting selectable reasoning effort levels (low, medium, high) and tool use, and broadly available to ChatGPT users.",
article = nil,
aliases = { "OpenAI o3-mini", "o3 mini", "o3mini" },
es = "Variante más pequeña y de menor costo del modelo de razonamiento o3 de OpenAI, lanzada a inicios de 2025, que admite niveles seleccionables de esfuerzo de razonamiento (bajo, medio, alto) y uso de herramientas, ampliamente disponible para los usuarios de ChatGPT.",
zh = "OpenAI o3 推理模型的更小、更低成本版本,于 2025 年初发布,支持可选的推理努力级别(低、中、高)和工具调用,并向 ChatGPT 用户广泛开放。",
term_es = "o3-mini",
term_zh = "o3-mini",
aliases_es = { "OpenAI o3-mini", "o3 mini" },
aliases_zh = { "OpenAI o3-mini", "o3 mini" },
}
data["obelics"] = {
short = "Open Bimodal Examples from Large fIltered Commoncrawl Snapshots, an open multimodal dataset of 141 million web documents containing 353 million interleaved images and text, used to train models such as IDEFICS.",
article = nil,
aliases = { "OBELICS", "OBELISC", "Open Bimodal Examples from Large fIltered Commoncrawl Snapshots" },
es = "Open Bimodal Examples from Large fIltered Commoncrawl Snapshots, un conjunto de datos multimodal abierto de 141 millones de documentos web con 353 millones de imágenes y textos intercalados, utilizado para entrenar modelos como IDEFICS.",
zh = "Open Bimodal Examples from Large fIltered Commoncrawl Snapshots,一个开放的多模态数据集,包含 1.41 亿份网络文档与 3.53 亿张交错排列的图像和文本,用于训练 IDEFICS 等模型。",
term_es = "OBELICS",
term_zh = "OBELICS",
aliases_es = { "OBELISC" },
aliases_zh = { "OBELISC" },
}
data["obelics dataset"] = {
short = "An open web-scale dataset of 141 million interleaved image-text documents extracted from Common Crawl, released by HuggingFace in 2023 to train multimodal models such as IDEFICS.",
article = nil,
aliases = { "OBELICS", "OBELICS dataset", "OBELICS corpus", "Open Bimodal Examples from Large fIltered Commoncrawl Snapshots" },
es = "Conjunto de datos abierto a escala web de 141 millones de documentos intercalados de imagen y texto extraídos de Common Crawl, publicado por HuggingFace en 2023 para entrenar modelos multimodales como IDEFICS.",
zh = "HuggingFace 于 2023 年发布的开源网页规模数据集,包含 1.41 亿条从 Common Crawl 抽取的图文交错文档,用于训练 IDEFICS 等多模态模型。",
term_es = "conjunto OBELICS",
term_zh = "OBELICS 数据集",
aliases_es = { "OBELICS", "corpus OBELICS" },
aliases_zh = { "OBELICS", "OBELICS 语料库" },
}
data["object detection"] = {
short = "The computer vision task of localizing and classifying multiple objects in an image, typically by predicting bounding boxes and class labels for each object instance.",
article = nil,
aliases = { "bounding box detection", "2D object detection", "detection" },
es = "Tarea de visión por computadora que consiste en localizar y clasificar múltiples objetos en una imagen, generalmente prediciendo cuadros delimitadores y etiquetas de clase para cada instancia.",
zh = "计算机视觉任务,对图像中的多个物体进行定位和分类,通常为每个物体实例预测边界框和类别标签。",
term_es = "detección de objetos",
term_zh = "目标检测",
aliases_es = { "detección de objetos en imágenes" },
aliases_zh = { "object detection", "物体检测" },
}
data["object hallucination"] = {
short = "A failure mode of vision-language models in which the model describes objects that are not actually present in the input image, often measured with metrics such as CHAIR or POPE.",
article = nil,
aliases = { "visual hallucination", "object-level hallucination", "VLM object hallucination", "captioning hallucination" },
es = "Modo de fallo de los modelos visión-lenguaje en el que el modelo describe objetos que no están realmente presentes en la imagen de entrada, evaluado a menudo con métricas como CHAIR o POPE.",
zh = "视觉-语言模型的一种失败模式,模型在描述图像时提到实际并未出现在输入图像中的对象,常用 CHAIR、POPE 等指标进行衡量。",
term_es = "alucinación de objetos",
term_zh = "对象幻觉",
aliases_es = { "alucinación visual", "alucinación a nivel de objeto" },
aliases_zh = { "物体幻觉", "视觉幻觉", "对象级幻觉" },
}
data["objective perturbation"] = {
short = "A differential privacy mechanism that adds calibrated random noise to the training objective itself before optimization, so that the released minimizer satisfies a privacy guarantee.",
article = nil,
aliases = { "objective-perturbation mechanism", "perturbed-objective DP", "Chaudhuri objective perturbation" },
es = "Mecanismo de privacidad diferencial que añade ruido aleatorio calibrado al propio objetivo de entrenamiento antes de la optimización, de modo que el minimizador resultante satisface una garantía de privacidad.",
zh = "一种差分隐私机制:在优化之前向训练目标本身加入经过校准的随机噪声,使得发布的最小化解满足隐私保证。",
term_es = "perturbación del objetivo",
term_zh = "目标扰动",
aliases_es = { "mecanismo de perturbación del objetivo", "DP por perturbación del objetivo", "perturbación del objetivo de Chaudhuri" },
aliases_zh = { "objective perturbation", "目标函数扰动", "目标扰动机制" },
}
data["oblivious transfer"] = {
short = "A cryptographic primitive in which a sender transmits one of several possible messages to a receiver while remaining oblivious as to which message was received, used as a building block for secure multiparty computation.",
article = nil,
aliases = { "OT", "1-out-of-2 OT", "oblivious transfer protocol" },
es = "Primitiva criptográfica en la que un emisor transmite uno de varios mensajes posibles a un receptor sin saber cuál fue recibido; se utiliza como bloque básico para la computación multiparte segura.",
zh = "一种密码学原语:发送方将多条可能消息中的一条传送给接收方,同时对所传送的具体消息保持不知情;常作为安全多方计算的基本构件。",
term_es = "transferencia inconsciente",
term_zh = "不经意传输",
aliases_es = { "OT", "OT 1-de-2", "transferencia ajena", "protocolo de transferencia inconsciente" },
aliases_zh = { "OT", "茫然传输", "1-out-of-2 OT", "不经意传输协议" },
}
data["observational equivalence"] = {
short = "A relation between causal models that produce identical observed-data distributions and are therefore indistinguishable without further assumptions or interventions. Markov equivalence of DAGs is the canonical example.",
article = nil,
aliases = { "observational equivalence class", "Markov equivalence", "distributional equivalence" },
es = "Relación entre modelos causales que generan distribuciones de datos observados idénticas y, por tanto, son indistinguibles sin supuestos o intervenciones adicionales. La equivalencia de Markov entre DAG es el ejemplo canónico.",
zh = "若两个因果模型产生相同的观测数据分布,则它们观测等价,无法仅凭观测数据区分,除非引入额外假设或干预。DAG 的马尔可夫等价是典型例子。",
term_es = "equivalencia observacional",
term_zh = "观测等价",
aliases_es = { "clase de equivalencia observacional", "equivalencia de Markov", "equivalencia distribucional" },
aliases_zh = { "观测等价类", "马尔可夫等价", "分布等价" },
}
data["observational study"] = {
short = "A study in which the investigator observes treatment assignment as it occurs in nature rather than randomly assigning it. Causal inference from such data requires assumptions to address confounding.",
article = nil,
aliases = { "observational data study", "non-experimental study", "non-randomized study" },
es = "Estudio en el que el investigador observa la asignación del tratamiento tal como ocurre de manera natural, sin aleatorizarla. La inferencia causal a partir de estos datos requiere supuestos para abordar la confusión.",
zh = "研究者只观测处理在自然环境中如何发生,而不进行随机分配的研究。基于此类数据进行因果推断需要附加假设以处理混杂。",
term_es = "estudio observacional",
term_zh = "观察性研究",
aliases_es = { "estudio no experimental", "estudio no aleatorizado" },
aliases_zh = { "观测研究", "非实验研究", "非随机研究" },
}
data["observed confounder"] = {
short = "A confounding variable that is measured in the data and can therefore be adjusted for using methods such as regression, matching, or weighting. Contrasts with unobserved confounders that require sensitivity analysis or instrumental variables.",
article = nil,
aliases = { "measured confounder", "recorded confounder", "observed confounding variable" },
es = "Variable de confusión que se mide en los datos y, por tanto, puede ajustarse mediante métodos como regresión, emparejamiento o ponderación. Contrasta con los confusores no observados, que requieren análisis de sensibilidad o variables instrumentales.",
zh = "在数据中已测量的混杂变量,可通过回归、匹配或加权等方法加以调整。与未观测混杂变量相对,后者需借助敏感性分析或工具变量处理。",
term_es = "confusor observado",
term_zh = "可观测混杂",
aliases_es = { "confusor medido", "variable de confusión observada", "confusor registrado" },
aliases_zh = { "已测混杂", "可观测混杂因素", "观测到的混杂变量" },
}
data["observed fisher information"] = {
short = "The negative Hessian of the log-likelihood evaluated at a parameter estimate, used as a sample-based approximation to the Fisher information matrix and to construct asymptotic confidence intervals.",
article = nil,
aliases = { "observed information", "observed information matrix" },
es = "Hessiana negativa del logaritmo de verosimilitud evaluada en una estimación de parámetros, usada como aproximación muestral a la matriz de información de Fisher y para construir intervalos de confianza asintóticos.",
zh = "在参数估计处求值的对数似然函数的负Hessian矩阵,用作Fisher信息矩阵的样本近似,并用于构造渐近置信区间。",
term_es = "información de Fisher observada",
term_zh = "观测Fisher信息",
aliases_es = { "matriz de información observada", "información observada" },
aliases_zh = { "观察Fisher信息", "观测信息矩阵", "样本Fisher信息" },
}
data["occlusion sensitivity"] = {
short = "An attribution method that estimates a feature's importance by masking or occluding regions of the input and measuring the change in the model's output, producing a heatmap of sensitivity scores.",
article = nil,
aliases = { "occlusion", "occlusion analysis", "occlusion-based attribution", "occlusion saliency", "Zeiler-Fergus occlusion" },
es = "Método de atribución que estima la importancia de una característica ocluyendo o enmascarando regiones de la entrada y midiendo el cambio en la salida del modelo, generando un mapa de calor con las puntuaciones de sensibilidad.",
zh = "一种归因方法,通过遮挡或掩蔽输入的某些区域并测量模型输出的变化来估计特征的重要性,从而生成敏感度热力图。",
term_es = "sensibilidad por oclusión",
term_zh = "遮挡敏感性",
aliases_es = { "análisis de oclusión", "atribución por oclusión", "saliencia por oclusión" },
aliases_zh = { "遮挡分析", "遮挡归因", "遮挡显著性" },
}
data["occupation bias"] = {
short = "Systematic association in models—especially language models and text-to-image systems—between specific occupations and demographic attributes such as gender, race, or age, reproducing real-world stereotypes.",
article = nil,
aliases = { "occupational bias", "occupation stereotyping", "job-role bias" },
es = "Asociación sistemática en los modelos —especialmente modelos de lenguaje y sistemas de texto a imagen— entre ocupaciones específicas y atributos demográficos como género, raza o edad, lo que reproduce estereotipos del mundo real.",
zh = "模型中(尤其是语言模型与文本生成图像系统)将特定职业与性别、种族、年龄等人口学属性系统性关联起来,从而复制现实世界中的刻板印象。",
term_es = "sesgo de ocupación",
term_zh = "职业偏见",
aliases_es = { "sesgo ocupacional", "estereotipo ocupacional", "sesgo de profesión" },
aliases_zh = { "职业刻板印象", "工作角色偏见", "职业关联偏见" },
}
data["ocr-bench"] = {
short = "A benchmark for evaluating the optical character recognition capabilities of multimodal large language models across text recognition, scene-text VQA, document VQA, key information extraction, and handwritten math expression recognition.",
article = nil,
aliases = { "OCRBench", "OCR-Bench", "OCR Bench", "OCR Benchmark for MLLMs" },
es = "Benchmark para evaluar las capacidades de reconocimiento óptico de caracteres de los grandes modelos de lenguaje multimodales en reconocimiento de texto, VQA de texto en escena, VQA documental, extracción de información clave y reconocimiento de expresiones matemáticas manuscritas.",
zh = "用于评测多模态大语言模型光学字符识别能力的基准,涵盖文本识别、场景文字 VQA、文档 VQA、关键信息抽取与手写数学表达式识别等任务。",
term_es = "OCRBench",
term_zh = "OCRBench",
aliases_es = { "OCR-Bench", "benchmark OCRBench" },
aliases_zh = { "OCR-Bench", "OCRBench 基准" },
}
data["ocr-vqa"] = {
short = "A visual question answering dataset of about one million image-question pairs over book covers, where answering requires reading text on the cover via optical character recognition.",
article = nil,
aliases = { "OCR-VQA", "OCRVQA", "OCR VQA", "OCR Visual Question Answering" },
es = "Conjunto de datos de pregunta-respuesta visual de aproximadamente un millón de pares imagen-pregunta sobre portadas de libros, en el que responder exige leer el texto de la portada mediante reconocimiento óptico de caracteres.",
zh = "包含约一百万图像-问题对的视觉问答数据集,图像为书籍封面,回答问题需要通过光学字符识别读取封面上的文字。",
term_es = "OCR-VQA",
term_zh = "OCR-VQA",
aliases_es = { "OCRVQA", "preguntas-respuestas con OCR" },
aliases_zh = { "OCRVQA", "OCR 视觉问答" },
}
data["ocrbench"] = {
short = "A benchmark for evaluating the optical character recognition capabilities of large multimodal models, covering text recognition, scene text VQA, document VQA, key information extraction, and handwritten math expression recognition.",
article = nil,
aliases = { "OCRBench", "OCR-Bench", "OCRBench v2" },
es = "Banco de pruebas para evaluar las capacidades de reconocimiento óptico de caracteres de los grandes modelos multimodales, que cubre reconocimiento de texto, VQA de texto en escenas, VQA de documentos, extracción de información clave y reconocimiento de expresiones matemáticas manuscritas.",
zh = "用于评估大型多模态模型光学字符识别能力的基准,涵盖文本识别、场景文本 VQA、文档 VQA、关键信息抽取以及手写数学表达式识别。",
term_es = "OCRBench",
term_zh = "OCRBench",
aliases_es = { "OCR-Bench" },
aliases_zh = { "OCR-Bench", "OCRBench v2" },
}
data["octopus variant"] = {
short = "A haplotype-based polymorphic Bayesian variant caller (Octopus) capable of jointly calling germline, somatic, and trio variants, including SNVs, indels, and small structural variants.",
article = nil,
aliases = { "Octopus", "Octopus variant caller", "Octopus caller" },
es = "Llamador de variantes bayesiano polimórfico basado en haplotipos (Octopus) capaz de llamar conjuntamente variantes germinales, somáticas y de tríos, incluyendo SNV, indels y pequeñas variantes estructurales.",
zh = "Octopus 变异检测工具,一种基于单倍型的多态贝叶斯变异检测器,能够联合检测胚系、体细胞和家系(trio)变异,包括 SNV、indel 和小型结构变异。",
term_es = "Octopus",
term_zh = "Octopus",
aliases_es = { "Octopus", "llamador Octopus", "variant caller Octopus" },
aliases_zh = { "Octopus", "Octopus 变异检测器", "Octopus 变异检测工具" },
}
data["odds ratio"] = {
short = "The ratio of the odds of an outcome under one condition to the odds under another. Widely used in case-control studies and logistic regression as a measure of association between exposure and binary outcome.",
article = nil,
aliases = { "OR", "odds-ratio", "exposure odds ratio" },
es = "Razón entre las probabilidades (odds) de un resultado en una condición y las odds en otra. Se utiliza ampliamente en estudios de casos y controles y en regresión logística como medida de asociación entre la exposición y un resultado binario.",
zh = "某结果在一种条件下的几率与在另一种条件下几率之比。广泛用于病例对照研究和逻辑回归中,作为暴露与二元结果之间关联的度量。",
term_es = "razón de momios",
term_zh = "比值比",
aliases_es = { "OR", "odds ratio", "razón de odds", "razón de probabilidades" },
aliases_zh = { "OR", "优势比", "几率比", "胜算比" },
}
data["ofa"] = {
short = "One-For-All, a unified sequence-to-sequence multimodal pretrained model from Alibaba DAMO that handles vision, language, and cross-modal tasks under a single architecture and instruction-style I/O.",
article = nil,
aliases = { "OFA", "One-For-All", "OFA model", "Alibaba OFA" },
es = "One-For-All, modelo preentrenado multimodal secuencia-a-secuencia unificado de Alibaba DAMO que aborda tareas de visión, lenguaje y multimodales bajo una única arquitectura y un estilo de entrada-salida basado en instrucciones.",
zh = "阿里巴巴达摩院提出的统一序列到序列多模态预训练模型 One-For-All,在单一架构和指令式输入输出下处理视觉、语言及跨模态任务。",
term_es = "OFA",
term_zh = "OFA",
aliases_es = { "One-For-All", "modelo OFA" },
aliases_zh = { "One-For-All", "OFA 模型" },
}
data["off-policy"] = {
short = "A reinforcement learning setting in which the policy being evaluated or improved (the target policy) differs from the behavior policy that generates the data, typically requiring importance sampling or other corrections.",
article = nil,
aliases = { "off policy", "off-policy learning", "off-policy method" },
es = "Configuración de aprendizaje por refuerzo en la que la política que se evalúa o mejora (política objetivo) es distinta de la política de comportamiento que genera los datos, lo que suele requerir muestreo por importancia u otras correcciones.",
zh = "一种强化学习设定,其中被评估或改进的策略(目标策略)与生成数据的行为策略不同,通常需要重要性采样或其他修正。",
term_es = "fuera de política",
term_zh = "离策略",
aliases_es = { "off-policy", "aprendizaje fuera de política" },
aliases_zh = { "off-policy", "异策略" },
}
data["off-policy evaluation"] = {
short = "Estimating the value of a target policy from data collected under a different behavior policy, using methods such as inverse propensity weighting, doubly robust estimators, or model-based simulation.",
article = nil,
aliases = { "OPE", "counterfactual policy evaluation", "off-policy estimation", "policy evaluation from logged data" },
es = "Estimación del valor de una política objetivo a partir de datos recogidos bajo una política de comportamiento diferente, mediante métodos como ponderación por inversa del puntaje de propensión, estimadores doblemente robustos o simulación basada en modelos.",
zh = "利用在不同行为策略下收集的数据估计目标策略的价值,常用方法包括逆倾向加权、双重稳健估计和基于模型的模拟。",
term_es = "evaluación fuera de política",
term_zh = "离策略评估",
aliases_es = { "OPE", "evaluación contrafactual de políticas", "estimación fuera de política", "evaluación con datos registrados" },
aliases_zh = { "OPE", "反事实策略评估", "离线策略评估", "基于历史数据的策略评估" },
}
data["off-policy learning"] = {
short = "Learning a decision policy from data collected under a different behavior policy. Combines reinforcement learning and causal inference techniques to optimize policies offline without further interaction with the environment.",
article = nil,
aliases = { "off policy learning", "batch policy learning", "offline policy learning", "counterfactual policy learning" },
es = "Aprendizaje de una política de decisión a partir de datos recogidos bajo una política de comportamiento distinta. Combina técnicas de aprendizaje por refuerzo e inferencia causal para optimizar políticas sin interactuar nuevamente con el entorno.",
zh = "在不同行为策略所收集数据上学习决策策略,结合强化学习与因果推断方法在不与环境进一步交互的情况下离线优化策略。",
term_es = "aprendizaje fuera de política",
term_zh = "离策略学习",
aliases_es = { "aprendizaje por lotes de políticas", "aprendizaje de políticas fuera de línea", "aprendizaje contrafactual de políticas" },
aliases_zh = { "批量策略学习", "离线策略学习", "反事实策略学习" },
}
data["offline rl"] = {
short = "A reinforcement learning setting in which the agent must learn a policy entirely from a fixed dataset of previously collected interactions, with no further environment interaction. Also called batch reinforcement learning.",
article = nil,
aliases = { "offline reinforcement learning", "batch reinforcement learning", "batch RL", "offline RL" },
es = "Configuración de aprendizaje por refuerzo en la que el agente debe aprender una política exclusivamente a partir de un conjunto de datos fijo de interacciones previamente recopiladas, sin más interacción con el entorno. También llamado aprendizaje por refuerzo en lotes.",
zh = "一种强化学习设置,智能体必须完全从一个先前收集好的固定交互数据集中学习策略,且不再与环境交互。也称为批量强化学习。",
term_es = "RL offline",
term_zh = "离线强化学习",
aliases_es = { "aprendizaje por refuerzo offline", "RL en lotes", "aprendizaje por refuerzo en lotes" },
aliases_zh = { "批量强化学习", "offline RL", "batch RL" },
}
data["ogb-molhiv"] = {
short = "A graph-level binary classification benchmark from the Open Graph Benchmark in which models predict whether a molecule inhibits HIV replication, based on the MoleculeNet HIV dataset of ~41 k compounds.",
article = nil,
aliases = { "OGB-MolHIV", "ogbg-molhiv", "MolHIV" },
es = "Conjunto de prueba de clasificación binaria a nivel de grafo del Open Graph Benchmark en el que los modelos predicen si una molécula inhibe la replicación del VIH, basado en el conjunto HIV de MoleculeNet (~41 k compuestos).",
zh = "Open Graph Benchmark 中的图级二分类基准,要求模型预测分子是否能抑制 HIV 复制,源自 MoleculeNet 的 HIV 数据集(约 4.1 万化合物)。",
term_es = "OGB-MolHIV",
term_zh = "OGB-MolHIV",
aliases_es = { "ogbg-molhiv", "MolHIV" },
aliases_zh = { "ogbg-molhiv", "MolHIV" },
}
data["ogb-molpcba"] = {
short = "A large-scale multi-task graph classification benchmark from the Open Graph Benchmark, requiring prediction of 128 PubChem BioAssay biological activity labels for ~437 k molecules under sparse and imbalanced supervision.",
article = nil,
aliases = { "OGB-MolPCBA", "ogbg-molpcba", "MolPCBA" },
es = "Conjunto de prueba multitarea a gran escala de clasificación de grafos del Open Graph Benchmark, que requiere predecir 128 etiquetas de actividad biológica de PubChem BioAssay para ~437 k moléculas bajo supervisión escasa y desbalanceada.",
zh = "Open Graph Benchmark 中的大规模多任务图分类基准,需在约 43.7 万分子上预测 128 项 PubChem BioAssay 生物活性标签,标注稀疏且分布失衡。",
term_es = "OGB-MolPCBA",
term_zh = "OGB-MolPCBA",
aliases_es = { "ogbg-molpcba", "MolPCBA" },
aliases_zh = { "ogbg-molpcba", "MolPCBA" },
}
data["ogbl-biokg"] = {
short = "A link-prediction dataset in the Open Graph Benchmark consisting of a heterogeneous biomedical knowledge graph with multiple entity types (drugs, diseases, proteins, side effects) and relation types, used to evaluate knowledge-graph embedding methods.",
article = nil,
aliases = { "ogbl-biokg", "OGBL-BioKG", "OGB BioKG", "ogbl_biokg" },
es = "Conjunto de datos de predicción de enlaces del Open Graph Benchmark formado por un grafo de conocimiento biomédico heterogéneo con múltiples tipos de entidades (fármacos, enfermedades, proteínas, efectos secundarios) y de relaciones, usado para evaluar métodos de embedding de grafos de conocimiento.",
zh = "Open Graph Benchmark 中的链接预测数据集,由一个异质生物医学知识图谱构成,包含多种实体类型(药物、疾病、蛋白质、副作用)和多种关系类型,用于评测知识图谱嵌入方法。",
term_es = "ogbl-biokg",
term_zh = "ogbl-biokg",
aliases_es = { "OGBL-BioKG" },
aliases_zh = { "OGBL-BioKG", "OGB 生物医学知识图谱基准" },
}
data["ogbl-wikikg2"] = {
short = "A large-scale link-prediction dataset in the Open Graph Benchmark derived from Wikidata, containing millions of entities and relations, used to benchmark knowledge-graph embedding models on web-scale data.",
article = nil,
aliases = { "ogbl-wikikg2", "OGBL-WikiKG2", "OGB WikiKG2" },
es = "Conjunto de datos a gran escala para predicción de enlaces del Open Graph Benchmark, derivado de Wikidata, que contiene millones de entidades y relaciones y se utiliza para evaluar modelos de embedding de grafos de conocimiento a escala web.",
zh = "Open Graph Benchmark 中的大规模链接预测数据集,源自 Wikidata,包含数百万实体与关系,用于在网络规模数据上评测知识图谱嵌入模型。",
term_es = "ogbl-wikikg2",
term_zh = "ogbl-wikikg2",
aliases_es = { "OGBL-WikiKG2" },
aliases_zh = { "OGBL-WikiKG2", "OGB Wikidata 知识图谱基准" },
}
data["okvqa"] = {
short = "Outside Knowledge VQA, a visual question answering benchmark of 14,000 questions whose answers cannot be inferred from the image alone and require external world knowledge.",
article = nil,
aliases = { "OK-VQA", "OKVQA", "OK VQA", "Outside Knowledge VQA" },
es = "Outside Knowledge VQA, benchmark de pregunta-respuesta visual con 14 000 preguntas cuyas respuestas no pueden inferirse solo a partir de la imagen y requieren conocimiento externo del mundo.",
zh = "Outside Knowledge VQA,一个包含 14000 道题目的视觉问答基准,其答案无法仅依靠图像得出,必须借助外部世界知识。",
term_es = "OK-VQA",
term_zh = "OK-VQA",
aliases_es = { "OKVQA", "VQA con conocimiento externo" },
aliases_zh = { "OKVQA", "外部知识视觉问答" },
}
data["ollama"] = {
short = "An open-source desktop tool that packages and runs open-weight LLMs locally with a simple CLI and OpenAI-compatible HTTP API, bundling model weights, quantization, and the llama.cpp inference engine.",
article = nil,
aliases = { "Ollama", "ollama.ai" },
es = "Herramienta de escritorio de código abierto que empaqueta y ejecuta LLM de pesos abiertos localmente mediante una CLI sencilla y una API HTTP compatible con OpenAI, integrando pesos de modelos, cuantización y el motor de inferencia llama.cpp.",
zh = "一款开源桌面工具,通过简洁的命令行和兼容 OpenAI 的 HTTP API 在本地打包并运行开放权重的大语言模型,集成模型权重、量化和 llama.cpp 推理引擎。",
term_es = "Ollama",
term_zh = "Ollama",
aliases_es = { "ollama.ai" },
aliases_zh = { "ollama.ai" },
}
data["olmo"] = {
short = "Open Language Model, a family of fully open large language models from the Allen Institute for AI released with open weights, training data (Dolma), training code, and intermediate checkpoints to support reproducible LLM research.",
article = nil,
aliases = { "OLMo", "OLMo 7B", "OLMo 1B", "OLMo 2", "Open Language Model" },
es = "Open Language Model, una familia de grandes modelos de lenguaje totalmente abiertos del Allen Institute for AI, publicados con pesos abiertos, datos de entrenamiento (Dolma), código de entrenamiento y checkpoints intermedios para apoyar la investigación reproducible en LLM.",
zh = "Open Language Model,由艾伦人工智能研究所发布的完全开放大语言模型系列,公开了模型权重、训练数据(Dolma)、训练代码和中间检查点,以支持可复现的大语言模型研究。",
term_es = "OLMo",
term_zh = "OLMo",
aliases_es = { "OLMo 7B", "OLMo 1B", "OLMo 2" },
aliases_zh = { "OLMo 7B", "OLMo 1B", "OLMo 2", "开放语言模型" },
}
data["olmoe"] = {
short = "A fully open mixture-of-experts language model from the Allen Institute for AI with 7 billion total parameters and 1 billion active per token, released with weights, training data, and code in 2024.",
article = nil,
aliases = { "OLMoE", "OLMoE-1B-7B", "Open Language Model of Experts" },
es = "Modelo de lenguaje de mezcla de expertos totalmente abierto del Allen Institute for AI, con 7 mil millones de parámetros totales y 1 mil millón activos por token, publicado con pesos, datos de entrenamiento y código en 2024.",
zh = "由艾伦人工智能研究所发布的完全开放的混合专家语言模型,总参数 70 亿,每个 token 激活 10 亿参数,于 2024 年公开权重、训练数据和代码。",
term_es = "OLMoE",
term_zh = "OLMoE",
aliases_es = { "OLMoE-1B-7B" },
aliases_zh = { "OLMoE-1B-7B" },
}
data["omega conformer"] = {
short = "A conformer generator from OpenEye Scientific that enumerates low-energy 3D conformations of small molecules using rule-based fragment assembly and torsion sampling, widely used as input for docking and virtual screening.",
article = nil,
aliases = { "OMEGA", "OpenEye OMEGA", "OMEGA conformer generator" },
es = "Generador de confórmeros de OpenEye Scientific que enumera conformaciones 3D de baja energía de moléculas pequeñas mediante ensamblaje de fragmentos y muestreo de torsiones basados en reglas, ampliamente usado como entrada para docking y cribado virtual.",
zh = "OpenEye Scientific 提供的构象生成器,基于规则化的片段组装与扭转采样枚举小分子低能量三维构象,被广泛用作分子对接与虚拟筛选的输入。",
term_es = "OMEGA",
term_zh = "OMEGA",
aliases_es = { "OMEGA de OpenEye", "generador de confórmeros OMEGA" },
aliases_zh = { "OpenEye OMEGA", "OMEGA 构象生成器" },
}
data["omegafold"] = {
short = "A protein structure prediction model that predicts atomic 3D structures from a single primary sequence, without requiring multiple sequence alignments, by relying on a protein language model and a geometric attention head.",
article = nil,
aliases = { "OmegaFold" },
es = "Modelo de predicción de estructura proteica que predice estructuras atómicas en 3D a partir de una única secuencia primaria, sin requerir alineamientos múltiples, apoyándose en un modelo de lenguaje de proteínas y una cabeza de atención geométrica.",
zh = "一种蛋白质结构预测模型,无需多序列比对,仅凭单条一级序列即可预测原子级三维结构,核心由蛋白质语言模型与几何注意力模块构成。",
term_es = "OmegaFold",
term_zh = "OmegaFold",
aliases_es = { "OmegaFold" },
aliases_zh = { "OmegaFold" },
}
data["omitted variable bias"] = {
short = "A statistical bias that arises when a relevant explanatory variable is left out of a model, causing the estimated effects of the included variables to absorb the omitted variable's influence.",
article = nil,
aliases = { "OVB", "omitted-variable bias", "left-out variable bias" },
es = "Sesgo estadístico que surge cuando se omite del modelo una variable explicativa relevante, lo que hace que los efectos estimados de las variables incluidas absorban la influencia de la variable omitida.",
zh = "一种统计偏差,发生在模型中遗漏了相关解释变量时,导致已纳入变量的估计效应吸收了被遗漏变量的影响。",
term_es = "sesgo por variable omitida",
term_zh = "遗漏变量偏差",
aliases_es = { "sesgo de variables omitidas", "OVB", "sesgo por omisión de variables" },
aliases_zh = { "遗漏变量偏倚", "省略变量偏差", "OVB" },
}
data["omni-mllm"] = {
short = "An umbrella term for multimodal large language models that natively process and generate across many modalities (text, image, audio, video) within a single architecture, rather than handling each pair separately.",
article = nil,
aliases = { "Omni-MLLM", "omni MLLM", "omni multimodal LLM", "any-to-any MLLM", "omnimodal LLM" },
es = "Término general para los grandes modelos de lenguaje multimodales que procesan y generan de forma nativa en muchas modalidades (texto, imagen, audio, video) dentro de una única arquitectura, en lugar de tratar cada par por separado.",
zh = "对在单一架构内原生处理与生成多种模态(文本、图像、音频、视频)的多模态大语言模型的统称,区别于按模态对分别建模的方法。",
term_es = "Omni-MLLM",
term_zh = "Omni-MLLM",
aliases_es = { "MLLM omni", "MLLM cualquiera-a-cualquiera", "LLM omnimodal" },
aliases_zh = { "全模态 MLLM", "全模态多模态大模型", "任意到任意 MLLM" },
}
data["omnipath"] = {
short = "A curated database and Python/R toolkit (OmniPath) that integrates intra- and inter-cellular signaling networks, including signed and directed protein-protein interactions, transcriptional regulation, and gene-disease links.",
article = nil,
aliases = { "OmniPath", "OmniPath database", "OmniPath resource", "omnipath db" },
es = "Base de datos curada y conjunto de herramientas en Python/R (OmniPath) que integra redes de señalización intra- e intercelular, incluyendo interacciones proteína-proteína con signo y dirección, regulación transcripcional y vínculos gen-enfermedad.",
zh = "OmniPath 是一个经过整理的数据库和 Python/R 工具包,整合了细胞内与细胞间信号网络,包括带方向和符号的蛋白质相互作用、转录调控以及基因-疾病关联。",
term_es = "OmniPath",
term_zh = "OmniPath",
aliases_es = { "OmniPath", "base de datos OmniPath", "recurso OmniPath" },
aliases_zh = { "OmniPath", "OmniPath 数据库", "OmniPath 资源" },
}
data["omnixai"] = {
short = "An open-source Python library from Salesforce that bundles a wide range of explainable AI methods — including SHAP, LIME, integrated gradients, counterfactuals, and contrastive explanations — under a unified API for tabular, vision, text, and time-series models.",
article = nil,
aliases = { "OmniXAI", "omni-xai", "OmniXAI library" },
es = "Biblioteca de Python de código abierto de Salesforce que agrupa un amplio conjunto de métodos de IA explicable — entre ellos SHAP, LIME, gradientes integrados, contrafactuales y explicaciones contrastivas — bajo una API unificada para modelos tabulares, de visión, de texto y de series temporales.",
zh = "Salesforce 推出的开源 Python 库,在统一 API 下集成了 SHAP、LIME、积分梯度、反事实及对比解释等多种可解释 AI 方法,覆盖表格、视觉、文本和时间序列模型。",
term_es = "OmniXAI",
term_zh = "OmniXAI",
aliases_es = { "omnixai", "biblioteca OmniXAI" },
aliases_zh = { "omnixai", "OmniXAI 库" },
}
data["on-device asr"] = {
short = "Automatic speech recognition that runs entirely on a user's device rather than streaming audio to a server, prioritizing latency, privacy and offline operation through compact models and quantization.",
article = nil,
aliases = { "on-device speech recognition", "on device ASR", "edge ASR", "embedded ASR" },
es = "Reconocimiento automático del habla que se ejecuta íntegramente en el dispositivo del usuario en lugar de enviar el audio a un servidor, priorizando la latencia, la privacidad y la operación sin conexión mediante modelos compactos y cuantización.",
zh = "完全在用户设备上运行而非将音频流式传输到服务器的自动语音识别,借助紧凑模型与量化优先考虑延迟、隐私和离线运行。",
term_es = "ASR en el dispositivo",
term_zh = "端侧 ASR",
aliases_es = { "ASR on-device", "reconocimiento de voz en el dispositivo", "ASR en el borde" },
aliases_zh = { "On-device ASR", "设备端语音识别", "嵌入式 ASR", "端侧语音识别" },
}
data["on-device inference"] = {
short = "Execution of a trained machine learning model directly on an end-user device such as a phone, browser, or embedded sensor, without sending input data to a server.",
article = nil,
aliases = { "edge inference", "on-device prediction", "client-side inference" },
es = "Ejecución de un modelo de aprendizaje automático ya entrenado directamente en el dispositivo del usuario final, como un teléfono, un navegador o un sensor embebido, sin enviar los datos de entrada a un servidor.",
zh = "在终端设备(如手机、浏览器或嵌入式传感器)上直接运行已训练好的机器学习模型,无需将输入数据发送到服务器。",
term_es = "inferencia en el dispositivo",
term_zh = "端侧推理",
aliases_es = { "inferencia en el borde", "inferencia local", "predicción en el dispositivo", "inferencia en el cliente" },
aliases_zh = { "on-device inference", "设备端推理", "边缘推理", "本地推理" },
}
data["on-device personalization"] = {
short = "Adaptation of a shared model to an individual user's data on their own device, typically by fine-tuning a small set of parameters locally so that personal data never leaves the device.",
article = nil,
aliases = { "on-device fine-tuning", "local personalization", "client-side personalization" },
es = "Adaptación de un modelo compartido a los datos de un usuario individual en su propio dispositivo, típicamente afinando localmente un conjunto reducido de parámetros para que los datos personales nunca salgan del dispositivo.",
zh = "在用户自身设备上将共享模型针对个人数据进行适配,通常通过本地微调一小组参数实现,使个人数据无需离开设备。",
term_es = "personalización en el dispositivo",
term_zh = "端侧个性化",
aliases_es = { "ajuste fino en el dispositivo", "personalización local", "personalización en el cliente" },
aliases_zh = { "on-device personalization", "设备端个性化", "本地个性化", "客户端个性化" },
}
data["on-device training"] = {
short = "Training or fine-tuning of a machine learning model on an end-user device using locally collected data, a core capability that enables federated learning and personalization without raw data leaving the device.",
article = nil,
aliases = { "on-device learning", "edge training", "device-side training" },
es = "Entrenamiento o ajuste fino de un modelo de aprendizaje automático en el dispositivo del usuario final usando datos recopilados localmente; una capacidad clave que permite el aprendizaje federado y la personalización sin que los datos brutos salgan del dispositivo.",
zh = "在终端用户设备上使用本地收集的数据对机器学习模型进行训练或微调,是支持联邦学习与个性化、且原始数据不离开设备的核心能力。",
term_es = "entrenamiento en el dispositivo",
term_zh = "端侧训练",
aliases_es = { "aprendizaje en el dispositivo", "entrenamiento en el borde", "entrenamiento en el cliente" },
aliases_zh = { "on-device training", "设备端训练", "边缘训练", "本地训练" },
}
data["on-policy"] = {
short = "A reinforcement learning setting in which the policy being evaluated or improved is the same policy used to generate the data, so updates reflect actions actually taken by the current policy.",
article = nil,
aliases = { "on policy", "on-policy learning", "on-policy method" },
es = "Configuración de aprendizaje por refuerzo en la que la política evaluada o mejorada es la misma que se usa para generar los datos, de modo que las actualizaciones reflejan las acciones realmente tomadas por la política actual.",
zh = "一种强化学习设定,其中被评估或改进的策略与用于生成数据的策略相同,因此更新反映的是当前策略实际所采取的动作。",
term_es = "en política",
term_zh = "在策略",
aliases_es = { "on-policy", "aprendizaje en política" },
aliases_zh = { "on-policy", "同策略" },
}
data["once-for-all network"] = {
short = "Single super-network trained once such that many specialized sub-networks of different depths, widths, kernel sizes, and resolutions can be extracted without retraining, supporting deployment across heterogeneous devices.",
article = nil,
aliases = { "OFA network", "OFA", "Once-for-All", "once for all network" },
es = "Red madre entrenada una sola vez de modo que pueden extraerse muchas subredes especializadas con distintas profundidades, anchos, tamaños de kernel y resoluciones sin reentrenamiento, facilitando el despliegue en dispositivos heterogéneos.",
zh = "只需训练一次的超网络,可从中提取具有不同深度、宽度、卷积核大小和输入分辨率的多种专用子网络而无需重新训练,适合在异构设备上部署。",
term_es = "red Once-for-All",
term_zh = "Once-for-All 网络",
aliases_es = { "OFA", "red OFA", "red entrenada una sola vez" },
aliases_zh = { "OFA 网络", "一次训练多设备网络" },
}
data["once-for-all training"] = {
short = "Training scheme for an OFA super-network that uses progressive shrinking, distilling from the largest sub-network to elastic-depth, width, kernel-size, and resolution sub-networks so all configurations achieve high accuracy.",
article = nil,
aliases = { "OFA training", "Once-for-All training", "progressive shrinking training" },
es = "Esquema de entrenamiento para una superred OFA que aplica reducción progresiva, destilando desde la subred más grande hacia subredes elásticas en profundidad, ancho, tamaño de kernel y resolución, de modo que todas las configuraciones alcancen alta precisión.",
zh = "用于 OFA 超网络的训练方法,通过渐进式收缩,从最大子网络蒸馏到深度、宽度、卷积核大小和分辨率均可弹性变化的子网络,使所有配置都能获得高准确率。",
term_es = "entrenamiento Once-for-All",
term_zh = "Once-for-All 训练",
aliases_es = { "entrenamiento OFA", "entrenamiento por reducción progresiva" },
aliases_zh = { "OFA 训练", "渐进式收缩训练" },
}
data["one-bit sgd"] = {
short = "A communication-efficient variant of stochastic gradient descent in which each gradient coordinate is quantized to a single bit (typically its sign), with error feedback used to compensate for quantization error across iterations.",
article = nil,
aliases = { "1-bit SGD", "one-bit stochastic gradient descent", "1bit-SGD", "signSGD with error feedback" },
es = "Variante de descenso de gradiente estocástico eficiente en comunicación en la que cada coordenada del gradiente se cuantiza a un único bit (típicamente su signo), usando realimentación de error para compensar el error de cuantización entre iteraciones.",
zh = "一种通信高效的随机梯度下降变体:将梯度的每个分量量化为单个比特(通常为其符号),并通过误差反馈在多次迭代中补偿量化误差。",
term_es = "SGD de un bit",
term_zh = "一比特 SGD",
aliases_es = { "1-bit SGD", "descenso de gradiente estocástico de un bit", "SGD 1bit", "signSGD con realimentación de error" },
aliases_zh = { "1-bit SGD", "1比特SGD", "1bit-SGD", "带误差反馈的 signSGD" },
}
data["one-cycle policy"] = {
short = "A learning rate schedule that performs a single cycle of warmup followed by annealing over the entire training run, typically pairing inverse momentum scheduling with the rate. Introduced by Smith for super-convergence.",
article = nil,
aliases = { "1cycle policy", "one cycle policy", "1-cycle policy", "OneCycle", "super-convergence" },
es = "Programación de tasa de aprendizaje que realiza un único ciclo de calentamiento seguido de recocido durante toda la ejecución del entrenamiento, normalmente combinando la tasa con una programación inversa de momentum. Introducida por Smith para la superconvergencia.",
zh = "一种学习率调度策略,在整个训练过程中执行单次预热加退火的循环,通常将学习率与反向的动量调度配合使用。由 Smith 提出,用于实现超收敛。",
term_es = "política de un ciclo",
term_zh = "单周期策略",
aliases_es = { "1cycle", "política 1cycle" },
aliases_zh = { "1cycle 策略", "单周期学习率策略" },
}
data["one-hot encoding"] = {
short = "A representation of a categorical variable as a binary vector where exactly one element is 1 (the active class) and the rest are 0.",
article = nil,
aliases = { "one hot", "one-hot" },
es = "Representación de una variable categórica como un vector binario donde exactamente un elemento es 1 (la clase activa) y el resto son 0.",
zh = "将类别变量表示为二元向量的方法,其中恰好有一个元素为 1(活动类别),其余为 0。",
term_es = "codificación one-hot",
term_zh = "独热编码",
aliases_es = { "one-hot" },
aliases_zh = { "one-hot" },
}
data["one-shot federated learning"] = {
short = "A federated learning paradigm in which clients communicate with the server only once, typically by sending a single model update or distillation summary, eliminating the need for iterative communication rounds.",
article = nil,
aliases = { "one-shot FL", "single-round federated learning", "1-shot FL" },
es = "Paradigma de aprendizaje federado en el que los clientes se comunican con el servidor una sola vez, normalmente enviando una única actualización del modelo o un resumen por destilación, eliminando la necesidad de rondas iterativas de comunicación.",
zh = "一种联邦学习范式:客户端与服务器之间仅通信一次,通常发送单次模型更新或蒸馏摘要,从而无需多轮迭代通信。",
term_es = "aprendizaje federado de una sola ronda",
term_zh = "一次性联邦学习",
aliases_es = { "one-shot FL", "FL de una sola ronda", "aprendizaje federado one-shot", "FL de 1 ronda" },
aliases_zh = { "one-shot FL", "one-shot 联邦学习", "单轮联邦学习", "1-shot FL" },
}
data["one-shot learning"] = {
short = "A special case of few-shot learning where the model must generalize to a new class or task from a single labeled example, often using metric learning or meta-learning techniques.",
article = nil,
aliases = { "one shot learning", "oneshot learning", "1-shot learning" },
es = "Caso particular del aprendizaje few-shot en el que el modelo debe generalizar a una nueva clase o tarea a partir de un único ejemplo etiquetado, a menudo mediante aprendizaje métrico o meta-aprendizaje.",
zh = "小样本学习的特例,模型需要从单个带标签样本对新类别或任务进行泛化,常采用度量学习或元学习技术。",
term_es = "aprendizaje one-shot",
term_zh = "单样本学习",
aliases_es = { "aprendizaje con un ejemplo", "one-shot" },
aliases_zh = { "one-shot learning", "一次学习", "单次学习" },
}
data["one-shot nas"] = {
short = "Family of neural architecture search methods that train a single weight-sharing super-network from which candidate sub-networks inherit weights, evaluating many architectures with only one super-network training run.",
article = nil,
aliases = { "one-shot NAS", "one-shot neural architecture search", "weight-sharing NAS", "supernet NAS" },
es = "Familia de métodos de búsqueda de arquitecturas neuronales que entrena una única superred con pesos compartidos de la cual las subredes candidatas heredan parámetros, evaluando muchas arquitecturas con un solo entrenamiento de la superred.",
zh = "一类神经架构搜索方法,训练一个共享权重的超网络,候选子网络从中继承参数,只需训练一次超网络即可评估大量架构。",
term_es = "NAS de un solo disparo",
term_zh = "一次性 NAS",
aliases_es = { "one-shot NAS", "NAS con superred", "NAS con pesos compartidos" },
aliases_zh = { "One-Shot NAS", "权重共享 NAS", "超网络 NAS" },
}
data["one-shot performance estimator"] = {
short = "Performance estimation strategy for NAS that evaluates a candidate architecture using weights inherited from a one-shot super-network instead of training from scratch, drastically reducing search cost.",
article = nil,
aliases = { "one-shot estimator", "supernet performance estimator", "weight-sharing estimator" },
es = "Estrategia de estimación de rendimiento para NAS que evalúa una arquitectura candidata utilizando pesos heredados de una superred one-shot en lugar de entrenarla desde cero, reduciendo drásticamente el costo de búsqueda.",
zh = "一种 NAS 性能估计策略,使用从一次性超网络中继承的权重评估候选架构,而不必从头训练,从而大幅降低搜索成本。",
term_es = "estimador one-shot",
term_zh = "一次性性能估计器",
aliases_es = { "estimador con pesos compartidos", "estimador de superred" },
aliases_zh = { "One-Shot 估计器", "超网络性能估计器", "权重共享估计器" },
}
data["one-shot voice conversion"] = {
short = "Voice conversion that transforms source speech to a target speaker's voice given only a single reference utterance from the target, without speaker-specific training or adaptation.",
article = nil,
aliases = { "one shot voice conversion", "1-shot voice conversion", "one-shot VC", "any-to-any voice conversion" },
es = "Conversión de voz que transforma el habla fuente al timbre de un hablante objetivo dado un único enunciado de referencia, sin entrenamiento ni adaptación específicos de ese hablante.",
zh = "仅凭一段目标说话人的参考语音即可将源语音转换为该说话人音色的语音转换方法,无需针对该说话人的训练或自适应。",
term_es = "conversión de voz one-shot",
term_zh = "单样本语音转换",
aliases_es = { "VC one-shot", "conversión de voz con una sola muestra", "conversión de voz any-to-any" },
aliases_zh = { "one-shot 语音转换", "一次性语音转换", "任意到任意语音转换" },
}
data["one-step estimator"] = {
short = "A semiparametric estimator that adds a single bias-correction term, typically the empirical mean of the efficient influence function, to a plug-in estimate. It achieves first-order debiasing with respect to nuisance estimation error.",
article = nil,
aliases = { "one step estimator", "Newton one-step estimator", "influence-function one-step", "bias-corrected plug-in" },
es = "Estimador semiparamétrico que añade un único término de corrección de sesgo, típicamente la media empírica de la función de influencia eficiente, a un estimador por sustitución. Logra una desinclinación de primer orden respecto al error de estimación nuisance.",
zh = "一种半参数估计量,通过在插入式估计上加入单一偏差修正项(通常为有效影响函数的样本均值),实现对干扰估计误差的一阶去偏。",
term_es = "estimador de un paso",
term_zh = "一步估计量",
aliases_es = { "estimador one-step", "estimador de Newton de un paso", "estimador con función de influencia", "estimador plug-in con corrección de sesgo" },
aliases_zh = { "单步估计量", "一步修正估计", "影响函数一步估计", "去偏插入式估计" },
}
data["one-to-one matching"] = {
short = "A matching strategy in which each treated unit is paired with exactly one control unit selected to be similar in covariates. Simple to interpret but may discard many controls when the treatment group is small.",
article = nil,
aliases = { "1:1 matching", "pair matching", "one to one matching", "1-to-1 matching" },
es = "Estrategia de emparejamiento en la que cada unidad tratada se empareja con exactamente una unidad de control seleccionada por su similitud en covariables. Es fácil de interpretar pero puede descartar muchos controles cuando el grupo tratado es pequeño.",
zh = "一种匹配策略,每个处理单元与一个在协变量上相似的对照单元配对。解释简单,但当处理组较小时会舍弃大量对照样本。",
term_es = "emparejamiento uno a uno",
term_zh = "一对一匹配",
aliases_es = { "matching 1:1", "emparejamiento por pares", "matching uno a uno" },
aliases_zh = { "1:1 匹配", "配对匹配", "一一匹配" },
}
data["onellm"] = {
short = "A unified multimodal large language model that aligns eight modalities — image, audio, video, point cloud, depth, thermal, IMU, and fMRI — to language with a single encoder and progressive multimodal alignment training.",
article = nil,
aliases = { "OneLLM", "One-LLM", "One LLM" },
es = "Gran modelo de lenguaje multimodal unificado que alinea ocho modalidades —imagen, audio, video, nube de puntos, profundidad, térmica, IMU y fMRI— con el lenguaje mediante un único codificador y un entrenamiento de alineación multimodal progresivo.",
zh = "一种统一的多模态大语言模型,使用单一编码器并通过渐进式多模态对齐训练,将图像、音频、视频、点云、深度、热成像、IMU 与 fMRI 等八种模态与语言对齐。",
term_es = "OneLLM",
term_zh = "OneLLM",
aliases_es = { "One-LLM" },
aliases_zh = { "One-LLM", "统一多模态大模型 OneLLM" },
}
data["online hard example mining"] = {
short = "A hard-example-mining variant performed during stochastic mini-batch training: for each mini-batch the loss is computed for all candidate examples and only the highest-loss subset is used for backpropagation.",
article = nil,
aliases = { "OHEM", "online hard negative mining", "online hard-example mining" },
es = "Variante de minería de ejemplos difíciles realizada durante el entrenamiento estocástico por mini-lotes: en cada mini-lote se calcula la pérdida para todos los ejemplos candidatos y solo se utiliza el subconjunto con mayor pérdida para la retropropagación.",
zh = "在随机小批量训练过程中执行的困难样本挖掘变体:对每个小批量计算所有候选样本的损失,仅选取损失最高的子集进行反向传播。",
term_es = "minería de ejemplos difíciles en línea",
term_zh = "在线困难样本挖掘",
aliases_es = { "OHEM", "minería de negativos difíciles en línea", "online hard example mining" },
aliases_zh = { "OHEM", "在线难例挖掘", "online hard example mining" },
}
data["onset detection"] = {
short = "The task of locating the start times of musical notes or acoustic events in an audio signal, typically by detecting peaks in a spectral or energy-based novelty function.",
article = nil,
aliases = { "note onset detection", "musical onset detection", "event onset detection" },
es = "Tarea de localizar los tiempos de inicio de notas musicales o eventos acústicos en una señal de audio, típicamente detectando picos en una función de novedad espectral o de energía.",
zh = "在音频信号中定位音乐音符或声学事件起始时刻的任务,通常通过在频谱或能量新颖度函数中检测峰值来实现。",
term_es = "detección de inicio",
term_zh = "起始点检测",
aliases_es = { "detección de onsets", "detección de ataques", "detección de comienzos" },
aliases_zh = { "音符起始检测", "起音检测", "onset 检测" },
}
data["onsets and frames"] = {
short = "A piano transcription model from Google Magenta that jointly predicts note onsets and per-frame note activations using two stacked CNN+BiLSTM heads, with onset predictions gating frame predictions.",
article = nil,
aliases = { "Onsets and Frames", "Onsets & Frames", "onsets-and-frames", "Magenta Onsets and Frames" },
es = "Modelo de transcripción de piano de Google Magenta que predice conjuntamente los inicios de las notas y las activaciones por marco mediante dos cabezas CNN+BiLSTM apiladas, donde las predicciones de inicio condicionan las de marco.",
zh = "Google Magenta 提出的钢琴转录模型,使用两个堆叠的 CNN+BiLSTM 头共同预测音符起始与每帧音符激活,并以起始预测门控帧级预测。",
term_es = "Onsets and Frames",
term_zh = "Onsets and Frames",
aliases_es = { "Onsets and Frames", "modelo Onsets and Frames", "Onsets & Frames" },
aliases_zh = { "Onsets and Frames", "Onsets & Frames", "起始与帧模型" },
}
data["ontology"] = {
short = "A formal specification of the concepts, properties, and relationships that exist in a domain of interest, typically expressed in a logic-based language such as OWL and used to support data integration and automated reasoning.",
article = nil,
aliases = { "ontologies", "domain ontology", "formal ontology" },
es = "Especificación formal de los conceptos, propiedades y relaciones existentes en un dominio de interés, expresada habitualmente en un lenguaje basado en lógica como OWL y utilizada para integración de datos y razonamiento automático.",
zh = "对某一领域中存在的概念、属性及其相互关系所做的形式化规约,通常以 OWL 等基于逻辑的语言表达,并用于支持数据集成与自动推理。",
term_es = "ontología",
term_zh = "本体",
aliases_es = { "ontologías", "ontología de dominio", "ontología formal" },
aliases_zh = { "本体论", "领域本体", "形式本体" },
}
data["ontology alignment"] = {
short = "The task of finding semantic correspondences between entities (classes, properties, instances) of two or more ontologies, typically producing a set of mappings used for data integration and interoperability.",
article = nil,
aliases = { "ontology mapping", "ontology matching", "schema alignment" },
es = "Tarea consistente en encontrar correspondencias semánticas entre entidades (clases, propiedades, instancias) de dos o más ontologías, que normalmente produce un conjunto de mapeos utilizados para integración de datos e interoperabilidad.",
zh = "在两个或多个本体的实体(类、属性、实例)之间寻找语义对应关系的任务,通常产生一组映射,用于数据集成与互操作。",
term_es = "alineación de ontologías",
term_zh = "本体对齐",
aliases_es = { "mapeo de ontologías", "alineamiento de ontologías", "matching de ontologías" },
aliases_zh = { "本体匹配", "本体映射", "本体对应" },
}
data["ontology embedding"] = {
short = "A representation-learning approach that maps the classes, properties, and individuals of an ontology into a continuous vector space while preserving its logical structure, supporting tasks like link prediction and ontology completion.",
article = nil,
aliases = { "ontology embeddings", "embedding ontologies" },
es = "Enfoque de aprendizaje de representaciones que mapea las clases, propiedades e individuos de una ontología a un espacio vectorial continuo preservando su estructura lógica, y que da soporte a tareas como predicción de enlaces y completado de ontologías.",
zh = "一种表示学习方法,将本体的类、属性和个体映射到连续向量空间,同时尽可能保留其逻辑结构,可用于链接预测、本体补全等任务。",
term_es = "embedding de ontologías",
term_zh = "本体嵌入",
aliases_es = { "incrustación de ontologías", "representaciones vectoriales de ontologías" },
aliases_zh = { "本体向量表示", "本体嵌入表示" },
}
data["ontology matching"] = {
short = "The process of automatically determining correspondences between semantically related entities of different ontologies, combining lexical, structural, and semantic similarity, and serving as the operational core of ontology alignment.",
article = nil,
aliases = { "ontology alignment", "ontology mapping", "schema matching" },
es = "Proceso de determinar automáticamente correspondencias entre entidades semánticamente relacionadas de distintas ontologías, combinando similitud léxica, estructural y semántica, y que constituye el núcleo operacional de la alineación de ontologías.",
zh = "自动确定不同本体中语义相关实体之间对应关系的过程,结合词汇、结构和语义相似度,是本体对齐的操作核心。",
term_es = "emparejamiento de ontologías",
term_zh = "本体匹配",
aliases_es = { "matching de ontologías", "alineación de ontologías", "mapeo de ontologías" },
aliases_zh = { "本体对齐", "本体映射", "模式匹配(本体)" },
}
data["ood benchmark"] = {
short = "A standardized evaluation suite that pairs an in-distribution dataset with one or more disjoint distributions, used to measure how well a model detects or generalizes to out-of-distribution inputs.",
article = nil,
aliases = { "OOD benchmark", "out-of-distribution benchmark", "OOD detection benchmark" },
es = "Suite de evaluación estandarizada que combina un conjunto de datos en distribución con una o más distribuciones disjuntas, usada para medir qué tan bien un modelo detecta o generaliza a entradas fuera de distribución.",
zh = "将分布内数据集与一个或多个互不相交的分布配对的标准化评估套件,用于衡量模型检测或泛化到分布外输入的能力。",
term_es = "benchmark OOD",
term_zh = "OOD基准",
aliases_es = { "benchmark fuera de distribución", "benchmark de detección OOD" },
aliases_zh = { "OOD基准测试", "分布外基准", "OOD检测基准" },
}
data["ood score"] = {
short = "A scalar value assigned to each input by an OOD detector that summarizes the likelihood the input is out-of-distribution; thresholding the score yields a binary in/out decision.",
article = nil,
aliases = { "OOD score", "out-of-distribution score", "anomaly score" },
es = "Valor escalar asignado a cada entrada por un detector OOD que resume la verosimilitud de que la entrada sea fuera de distribución; aplicar un umbral al score produce una decisión binaria dentro/fuera.",
zh = "OOD检测器为每个输入分配的标量值,概括该输入属于分布外的可能性;对该分数设阈值即可得到二值的内/外判定。",
term_es = "puntuación OOD",
term_zh = "OOD分数",
aliases_es = { "score OOD", "puntuación fuera de distribución" },
aliases_zh = { "OOD得分", "分布外分数", "异常分数" },
}
data["open assistant dataset"] = {
short = "A large, human-generated conversational dataset (OASST1/OASST2) released by LAION for training open assistants, containing message trees with multi-turn dialogues and quality annotations contributed by volunteers.",
article = nil,
aliases = { "OpenAssistant dataset", "OASST", "OASST1", "OASST2", "OpenAssistant Conversations" },
es = "Conjunto de datos conversacionales generado por humanos (OASST1/OASST2) publicado por LAION para entrenar asistentes abiertos, con árboles de mensajes multi-turno anotados por voluntarios.",
zh = "由 LAION 发布的大规模人工生成对话数据集(OASST1/OASST2),包含志愿者贡献的多轮对话消息树及质量标注,用于训练开源助手模型。",
term_es = "OpenAssistant dataset",
term_zh = "OpenAssistant 数据集",
aliases_es = { "conjunto de datos OpenAssistant", "OASST", "OASST1" },
aliases_zh = { "OASST", "OASST1", "OASST2", "OpenAssistant 对话数据集" },
}
data["open chromatin"] = {
short = "Regions of nucleosome-depleted, accessible DNA where transcription factors and the transcription machinery can bind, typically mapped by ATAC-seq, DNase-seq, or FAIRE-seq.",
article = nil,
aliases = { "open chromatin region", "accessible chromatin", "chromatin accessibility region", "DNase hypersensitive site", "DHS", "OCR" },
es = "Regiones de ADN accesible y sin nucleosomas donde pueden unirse factores de transcripción y la maquinaria transcripcional, típicamente mapeadas mediante ATAC-seq, DNase-seq o FAIRE-seq.",
zh = "缺乏核小体、可被转录因子和转录机器结合的可及性 DNA 区域,通常通过 ATAC-seq、DNase-seq 或 FAIRE-seq 等方法绘制。",
term_es = "cromatina abierta",
term_zh = "开放染色质",
aliases_es = { "región de cromatina abierta", "cromatina accesible", "región de accesibilidad cromatínica", "sitio hipersensible a DNasa", "DHS", "OCR" },
aliases_zh = { "开放染色质区域", "可及染色质", "染色质可及性区域", "DNase 超敏位点", "DHS", "OCR" },
}
data["open reaction database"] = {
short = "An open, structured, machine-readable database of chemical reaction data using a community-developed schema, designed to enable reproducible reaction reporting and large-scale data-driven retrosynthesis and yield prediction.",
article = nil,
aliases = { "ORD", "Open Reaction Database" },
es = "Base de datos abierta, estructurada y legible por máquina de datos de reacciones químicas, basada en un esquema desarrollado por la comunidad, diseñada para facilitar la publicación reproducible de reacciones y el aprendizaje a gran escala para retrosíntesis y predicción de rendimiento.",
zh = "一个开源、结构化、机器可读的化学反应数据库,采用社区共建的统一模式,旨在支持反应数据的可复现报告以及大规模的数据驱动逆合成与产率预测。",
term_es = "Open Reaction Database",
term_zh = "开放反应数据库",
aliases_es = { "ORD", "base de datos abierta de reacciones" },
aliases_zh = { "ORD", "Open Reaction Database" },
}
data["open-ended vqa"] = {
short = "A visual question answering setting in which the model must produce a free-form natural-language answer rather than choose from a fixed set of candidates, evaluated with metrics such as exact match, BLEU, or LLM-based judging.",
article = nil,
aliases = { "open-ended visual question answering", "open ended VQA", "free-form VQA", "generative VQA" },
es = "Configuración de pregunta-respuesta visual en la que el modelo debe producir una respuesta de forma libre en lenguaje natural en lugar de elegir entre un conjunto fijo de candidatos, evaluada con métricas como coincidencia exacta, BLEU o juicio mediante LLM.",
zh = "一种视觉问答设定,模型必须生成自由形式的自然语言答案,而非从固定候选集中选择,评测常用精确匹配、BLEU 或基于 LLM 的评判等指标。",
term_es = "VQA de respuesta abierta",
term_zh = "开放式视觉问答",
aliases_es = { "preguntas-respuestas visuales abiertas", "VQA generativa", "VQA de forma libre" },
aliases_zh = { "开放式 VQA", "自由形式视觉问答", "生成式 VQA" },
}
data["open-unmix"] = {
short = "An open-source music source separation system based on a three-layer bidirectional LSTM that estimates a soft mask over the magnitude spectrogram for each target stem (vocals, drums, bass, other).",
article = nil,
aliases = { "Open-Unmix", "UMX", "open unmix", "openunmix" },
es = "Sistema de separación de fuentes musicales de código abierto basado en una BiLSTM de tres capas que estima una máscara suave sobre el espectrograma de magnitud para cada pista objetivo (voces, batería, bajo y otros).",
zh = "一个开源音乐源分离系统,基于三层双向 LSTM,为每个目标音轨(人声、鼓、贝斯、其他)在幅度谱上估计软掩码。",
term_es = "Open-Unmix",
term_zh = "Open-Unmix",
aliases_es = { "Open-Unmix", "UMX", "sistema Open-Unmix" },
aliases_zh = { "Open-Unmix", "UMX", "Open-Unmix 模型" },
}
data["open-world assumption"] = {
short = "The semantic assumption, used in description logics and knowledge graphs, that the absence of a fact does not imply its falsehood; statements not entailed by the knowledge base are considered unknown rather than false.",
article = nil,
aliases = { "OWA", "open world assumption" },
es = "Suposición semántica, empleada en lógicas descriptivas y grafos de conocimiento, según la cual la ausencia de un hecho no implica su falsedad; las afirmaciones que la base de conocimiento no implica se consideran desconocidas en lugar de falsas.",
zh = "在描述逻辑和知识图谱中使用的一种语义假设:事实的缺失并不意味着其为假;知识库未蕴含的陈述被视为未知,而非假。",
term_es = "suposición de mundo abierto",
term_zh = "开放世界假设",
aliases_es = { "OWA", "hipótesis de mundo abierto" },
aliases_zh = { "OWA", "开放世界假定" },
}
data["openai assistants api"] = {
short = "An OpenAI API that exposes stateful agents with persistent conversational threads, built-in tools (code interpreter, file search, function calling), and retrieval over uploaded files.",
article = nil,
aliases = { "Assistants API", "OpenAI Assistants" },
es = "API de OpenAI que expone agentes con estado, hilos conversacionales persistentes, herramientas integradas (intérprete de código, búsqueda de archivos, llamadas a funciones) y recuperación sobre archivos cargados.",
zh = "OpenAI 提供的有状态智能体接口,包含持久化对话线程、内置工具(代码解释器、文件检索、函数调用)以及对上传文件的检索能力。",
term_es = "Assistants API de OpenAI",
term_zh = "OpenAI Assistants API",
aliases_es = { "API de Asistentes de OpenAI", "Assistants API" },
aliases_zh = { "Assistants API", "OpenAI 助手 API", "OpenAI 助手接口" },
}
data["openai swarm"] = {
short = "An experimental, lightweight multi-agent orchestration framework released by OpenAI in 2024 that coordinates handoffs between agents using routine-and-handoff primitives over the Chat Completions API.",
article = nil,
aliases = { "Swarm", "OpenAI Swarm framework" },
es = "Framework experimental ligero de orquestación multi-agente publicado por OpenAI en 2024 que coordina transferencias entre agentes usando primitivas de rutina y handoff sobre la API de Chat Completions.",
zh = "OpenAI 于 2024 年发布的实验性轻量级多智能体编排框架,基于 Chat Completions API,通过例程(routine)与交接(handoff)原语协调多个智能体之间的协作。",
term_es = "OpenAI Swarm",
term_zh = "OpenAI Swarm",
aliases_es = { "Swarm", "framework Swarm" },
aliases_zh = { "Swarm", "Swarm 框架" },
}
data["openbabel"] = {
short = "An open-source cheminformatics toolbox for converting between chemical file formats and performing common tasks such as 2D depiction, 3D coordinate generation, fingerprint calculation, and substructure search.",
article = nil,
aliases = { "Open Babel", "OpenBabel", "obabel" },
es = "Caja de herramientas quimioinformática de código abierto para convertir entre formatos de archivo químicos y realizar tareas habituales como representación 2D, generación de coordenadas 3D, cálculo de huellas digitales y búsqueda de subestructuras.",
zh = "一款开源化学信息学工具箱,用于在各种化学文件格式之间转换,并完成常见任务如二维结构绘制、三维坐标生成、分子指纹计算与子结构搜索。",
term_es = "Open Babel",
term_zh = "Open Babel",
aliases_es = { "OpenBabel", "obabel" },
aliases_zh = { "OpenBabel", "obabel" },
}
data["openclip"] = {
short = "An open-source reproduction and extension of OpenAI's CLIP maintained by LAION, providing pretrained contrastive vision-language models trained on public datasets such as LAION-400M and LAION-5B.",
article = nil,
aliases = { "OpenCLIP", "Open CLIP", "open_clip", "LAION OpenCLIP" },
es = "Reproducción y extensión de código abierto del CLIP de OpenAI mantenida por LAION, que ofrece modelos contrastivos visión-lenguaje preentrenados en conjuntos de datos públicos como LAION-400M y LAION-5B.",
zh = "由 LAION 维护的 OpenAI CLIP 开源复现与扩展,基于 LAION-400M、LAION-5B 等公开数据集提供对比式视觉-语言预训练模型。",
term_es = "OpenCLIP",
term_zh = "OpenCLIP",
aliases_es = { "open_clip", "Open CLIP" },
aliases_zh = { "Open CLIP", "open_clip", "LAION OpenCLIP" },
}
data["openfl framework"] = {
short = "OpenFL, an open-source federated learning framework originally developed by Intel and the University of Pennsylvania, designed for cross-silo collaborations such as multi-institution medical research.",
article = nil,
aliases = { "OpenFL", "Open Federated Learning", "Intel OpenFL" },
es = "OpenFL, un framework de aprendizaje federado de código abierto desarrollado originalmente por Intel y la Universidad de Pensilvania, diseñado para colaboraciones entre silos como la investigación médica multiinstitucional.",
zh = "OpenFL,由 Intel 与宾夕法尼亚大学最初开发的开源联邦学习框架,专为多机构医学研究等跨机构协作场景设计。",
term_es = "framework OpenFL",
term_zh = "OpenFL 框架",
aliases_es = { "OpenFL", "Open Federated Learning", "Intel OpenFL" },
aliases_zh = { "OpenFL", "Open Federated Learning", "Intel OpenFL" },
}
data["openfold"] = {
short = "An open-source PyTorch reimplementation of AlphaFold2 that reproduces its protein structure prediction accuracy while supporting custom training, fine-tuning, and integration into downstream pipelines.",
article = nil,
aliases = { "OpenFold" },
es = "Reimplementación de código abierto en PyTorch de AlphaFold2 que reproduce su precisión en la predicción de estructura proteica al tiempo que admite entrenamiento personalizado, ajuste fino e integración en pipelines posteriores.",
zh = "AlphaFold2 的开源 PyTorch 重新实现,在重现其蛋白质结构预测精度的同时,支持自定义训练、微调以及在下游流程中的集成。",
term_es = "OpenFold",
term_zh = "OpenFold",
aliases_es = { "OpenFold" },
aliases_zh = { "OpenFold" },
}
data["openhands"] = {
short = "An open-source AI software-engineering agent platform (formerly OpenDevin) that lets language models edit code, run shell commands, and browse the web inside a sandboxed runtime to complete development tasks.",
article = nil,
aliases = { "OpenHands", "OpenDevin", "Open Devin" },
es = "Plataforma de agentes de ingeniería de software de código abierto (antes OpenDevin) que permite a los modelos de lenguaje editar código, ejecutar comandos de shell y navegar la web dentro de un entorno aislado.",
zh = "开源的 AI 软件工程智能体平台(前身为 OpenDevin),允许语言模型在沙盒运行环境中编辑代码、执行 Shell 命令并浏览网页,以完成软件开发任务。",
term_es = "OpenHands",
term_zh = "OpenHands",
aliases_es = { "OpenDevin" },
aliases_zh = { "OpenDevin" },
}
data["openie"] = {
short = "Open Information Extraction: extracting relational tuples (subject, relation, object) from unstructured text without a predefined schema, producing open-domain knowledge representations.",
article = nil,
aliases = { "Open IE", "Open Information Extraction", "open information extraction", "OpenIE" },
es = "Extracción de información abierta: extracción de tuplas relacionales (sujeto, relación, objeto) a partir de texto no estructurado sin un esquema predefinido, produciendo representaciones de conocimiento de dominio abierto.",
zh = "开放信息抽取:在没有预定义模式的情况下从非结构化文本中抽取关系三元组(主语、关系、宾语),生成开放领域的知识表示。",
term_es = "OpenIE",
term_zh = "开放信息抽取",
aliases_es = { "extracción de información abierta", "Open IE", "OpenIE" },
aliases_zh = { "开放式信息抽取", "OpenIE", "开放信息提取" },
}
data["openmm"] = {
short = "A high-performance, GPU-accelerated molecular dynamics toolkit with a Python API, supporting custom force definitions and widely used as a backend for biomolecular simulation and machine-learning force-field workflows.",
article = nil,
aliases = { "OpenMM" },
es = "Conjunto de herramientas de dinámica molecular de alto rendimiento, acelerado por GPU y con API en Python, que admite definiciones de fuerzas personalizadas y se utiliza ampliamente como backend para la simulación biomolecular y los flujos de trabajo con campos de fuerza basados en aprendizaje automático.",
zh = "一款高性能、GPU 加速的分子动力学工具包,提供 Python API,支持自定义力场定义,被广泛用作生物分子模拟与机器学习力场流程的底层引擎。",
term_es = "OpenMM",
term_zh = "OpenMM",
aliases_es = { "OpenMM" },
aliases_zh = { "OpenMM" },
}
data["openwebtext"] = {
short = "An open-source recreation of OpenAI's WebText dataset built by scraping web pages linked from Reddit submissions with at least three karma, widely used for pretraining language models.",
article = nil,
aliases = { "OpenWebText", "OWT", "OpenWebText2", "OWT2" },
es = "Recreación de código abierto del conjunto WebText de OpenAI, construida raspando páginas web enlazadas desde envíos de Reddit con al menos tres karma; muy usada para preentrenar modelos de lenguaje.",
zh = "OpenAI WebText 数据集的开源复现版本,通过抓取 Reddit 上至少获得三个 karma 的提交所链接的网页构建而成,广泛用于语言模型预训练。",
term_es = "OpenWebText",
term_zh = "OpenWebText",
aliases_es = { "OWT", "OpenWebText2" },
aliases_zh = { "OWT", "OpenWebText2" },
}
data["operation pool"] = {
short = "Predefined set of candidate operations (e.g. 3x3 conv, 5x5 conv, separable conv, identity, zero, max-pool, avg-pool) from which a NAS algorithm selects to populate edges of a cell or layer of a network.",
article = nil,
aliases = { "operation set", "candidate operation set", "op pool", "search operation pool" },
es = "Conjunto predefinido de operaciones candidatas (p. ej. conv 3x3, conv 5x5, conv separable, identidad, cero, max-pooling, average pooling) entre las cuales un algoritmo NAS selecciona para poblar las aristas de una celda o capa de la red.",
zh = "NAS 算法用于填充 cell 边或网络层的候选操作预定义集合(如 3x3 卷积、5x5 卷积、可分离卷积、恒等、零操作、最大池化、平均池化等)。",
term_es = "conjunto de operaciones",
term_zh = "操作池",
aliases_es = { "pool de operaciones", "conjunto de operaciones candidatas" },
aliases_zh = { "候选操作集", "操作集合", "搜索操作池" },
}
data["opls force field"] = {
short = "The Optimized Potentials for Liquid Simulations family of all-atom force fields, originally developed by Jorgensen and coworkers, parameterized to reproduce condensed-phase properties and widely used for organic molecules and biomolecular simulation.",
article = nil,
aliases = { "OPLS", "OPLS force field", "OPLS-AA", "OPLS3", "OPLS4", "Optimized Potentials for Liquid Simulations" },
es = "Familia de campos de fuerza de todos los átomos Optimized Potentials for Liquid Simulations, desarrollada originalmente por Jorgensen y colaboradores, parametrizada para reproducir propiedades en fase condensada y ampliamente utilizada para moléculas orgánicas y simulación biomolecular.",
zh = "由 Jorgensen 等人最初提出的全原子力场系列 Optimized Potentials for Liquid Simulations,通过拟合凝聚相性质参数化,广泛应用于有机分子与生物分子模拟。",
term_es = "campo de fuerza OPLS",
term_zh = "OPLS 力场",
aliases_es = { "OPLS", "OPLS-AA", "OPLS3", "OPLS4" },
aliases_zh = { "OPLS", "OPLS-AA", "OPLS3", "OPLS4" },
}
data["optical flow"] = {
short = "The pattern of apparent motion of pixels between consecutive video frames, represented as a 2D vector field. Estimating optical flow is a classical problem in computer vision used for motion analysis and video understanding.",
article = nil,
aliases = { "flow field", "dense optical flow" },
es = "Patrón de movimiento aparente de los píxeles entre fotogramas de vídeo consecutivos, representado como un campo vectorial 2D. La estimación del flujo óptico es un problema clásico de visión por computadora utilizado para el análisis de movimiento y la comprensión de vídeo.",
zh = "连续视频帧之间像素表观运动的模式,以二维向量场表示。光流估计是计算机视觉中的经典问题,用于运动分析和视频理解。",
term_es = "flujo óptico",
term_zh = "光流",
aliases_es = { "campo de flujo", "flujo óptico denso" },
aliases_zh = { "optical flow", "稠密光流" },
}
data["optimal dynamic treatment regime"] = {
short = "A sequence of decision rules that, applied at successive decision points, maximizes the expected outcome over a target population. Estimated via Q-learning, A-learning, or doubly robust dynamic methods.",
article = nil,
aliases = { "optimal DTR", "optimal adaptive treatment strategy", "optimal sequential treatment regime", "optimal treatment policy" },
es = "Secuencia de reglas de decisión que, aplicadas en sucesivos puntos de decisión, maximiza el resultado esperado en una población objetivo. Se estima mediante Q-learning, A-learning o métodos dinámicos doblemente robustos.",
zh = "在连续决策时点上应用的、能使目标人群期望结果最大化的决策规则序列,可通过 Q 学习、A 学习或双重稳健动态方法进行估计。",
term_es = "régimen óptimo de tratamiento dinámico",
term_zh = "最优动态处理方案",
aliases_es = { "DTR óptimo", "estrategia óptima de tratamiento adaptativo", "régimen secuencial óptimo de tratamiento", "política óptima de tratamiento" },
aliases_zh = { "最优 DTR", "最优自适应治疗策略", "最优序贯治疗方案", "最优治疗策略" },
}
data["optimal matching"] = {
short = "A matching technique that selects pairs or sets to globally minimize a total distance criterion across all matched units, typically solved as a network-flow or assignment problem. Contrasts with greedy nearest-neighbor matching.",
article = nil,
aliases = { "globally optimal matching", "minimum-cost matching", "network-flow matching" },
es = "Técnica de emparejamiento que selecciona pares o conjuntos para minimizar globalmente un criterio de distancia total entre todas las unidades emparejadas, formulada típicamente como un problema de flujo en redes o de asignación. Contrasta con el matching voraz por vecino más cercano.",
zh = "通过将所有匹配单元的总距离全局最小化来选择匹配对或匹配组的方法,通常表述为网络流或指派问题,与贪心最近邻匹配相对。",
term_es = "emparejamiento óptimo",
term_zh = "最优匹配",
aliases_es = { "matching óptimo", "matching globalmente óptimo", "matching de costo mínimo", "matching por flujo en redes" },
aliases_zh = { "全局最优匹配", "最小成本匹配", "网络流匹配" },
}
data["optimal policy"] = {
short = "A decision rule that maximizes an expected reward, value, or counterfactual outcome over a population. In causal inference it is typically the policy that yields the highest expected potential outcome.",
article = nil,
aliases = { "optimal decision rule", "value-maximizing policy", "best policy" },
es = "Regla de decisión que maximiza una recompensa, valor o resultado contrafactual esperado en una población. En inferencia causal suele ser la política que produce el mayor resultado potencial esperado.",
zh = "在某一人群上使期望奖励、价值或反事实结果最大化的决策规则。在因果推断中通常指使期望潜在结果最大的策略。",
term_es = "política óptima",
term_zh = "最优策略",
aliases_es = { "regla óptima de decisión", "política maximizadora de valor", "mejor política" },
aliases_zh = { "最优决策规则", "价值最大化策略", "最佳策略" },
}
data["optimization gap"] = {
short = "The difference between the current value of the objective function and its optimal value, used to quantify how far an iterate is from the optimum.",
article = nil,
aliases = { "suboptimality gap", "optimality gap" },
es = "Diferencia entre el valor actual de la función objetivo y su valor óptimo, utilizada para cuantificar cuán lejos está una iteración del óptimo.",
zh = "目标函数当前值与最优值之间的差距,用于衡量迭代结果与最优解的距离。",
term_es = "brecha de optimización",
term_zh = "优化间隙",
aliases_es = { "brecha de optimalidad", "brecha de suboptimalidad" },
aliases_zh = { "次优间隙", "最优性间隙" },
}
data["option"] = {
short = "In hierarchical reinforcement learning, a temporally extended action defined by an initiation set, an internal policy, and a termination condition; selecting an option lets the high-level policy commit to a sub-behavior over multiple steps.",
article = nil,
aliases = { "options framework", "option (RL)", "temporally extended action", "macro-action" },
es = "En aprendizaje por refuerzo jerárquico, una acción temporalmente extendida definida por un conjunto de iniciación, una política interna y una condición de terminación; seleccionar una opción permite a la política de alto nivel comprometerse con un subcomportamiento durante varios pasos.",
zh = "在分层强化学习中,由起始集合、内部策略和终止条件三者定义的时间扩展动作;选择一个选项使高层策略能在多步内承诺执行某一子行为。",
term_es = "opción",
term_zh = "选项",
aliases_es = { "opciones", "marco de opciones", "acción temporalmente extendida", "macroacción" },
aliases_zh = { "选项框架", "宏动作", "option" },
}
data["optnet"] = {
short = "A differentiable neural network layer that solves a quadratic program in its forward pass, allowing optimization problems to be embedded as components inside end-to-end trained models.",
article = nil,
aliases = { "OptNet", "differentiable QP layer", "differentiable optimization layer" },
es = "Una capa de red neuronal diferenciable que resuelve un programa cuadrático en su paso hacia adelante, lo que permite incorporar problemas de optimización como componentes dentro de modelos entrenados de extremo a extremo.",
zh = "一种可微神经网络层,在前向传播中求解二次规划问题,使优化问题能够作为组件嵌入端到端训练的模型中。",
term_es = "OptNet",
term_zh = "OptNet",
aliases_es = { "OptNet", "capa de optimización diferenciable" },
aliases_zh = { "OptNet", "可微优化层" },
}
data["optuna"] = {
short = "Open-source Python framework for hyperparameter optimization that combines define-by-run search-space construction, TPE and CMA-ES samplers, pruning of unpromising trials, and integrations with major ML libraries.",
article = nil,
aliases = { "Optuna", "optuna framework", "Preferred Networks Optuna" },
es = "Marco Python de código abierto para optimización de hiperparámetros que combina construcción del espacio de búsqueda al estilo define-by-run, muestreadores TPE y CMA-ES, poda de pruebas poco prometedoras e integraciones con las principales bibliotecas de ML.",
zh = "开源 Python 超参数优化框架,结合 define-by-run 风格的搜索空间定义、TPE 和 CMA-ES 采样器、对无前景试验的剪枝,以及与主流机器学习库的集成。",
term_es = "Optuna",
term_zh = "Optuna",
aliases_es = { "framework Optuna" },
aliases_zh = { "Optuna 框架" },
}
data["oral bioavailability"] = {
short = "The fraction of an orally administered drug dose that reaches systemic circulation in unchanged form, reflecting the combined effect of intestinal absorption, gut-wall metabolism, and hepatic first-pass metabolism.",
article = nil,
aliases = { "oral bioavailability", "F", "%F", "oral F" },
es = "Fracción de una dosis de fármaco administrada por vía oral que alcanza la circulación sistémica en forma inalterada, reflejando el efecto combinado de la absorción intestinal, el metabolismo de la pared intestinal y el efecto de primer paso hepático.",
zh = "口服给药剂量中以原型形式进入体循环的比例,反映肠道吸收、肠壁代谢以及肝脏首过代谢的综合影响。",
term_es = "biodisponibilidad oral",
term_zh = "口服生物利用度",
aliases_es = { "F oral", "%F" },
aliases_zh = { "口服生物可利用度", "口服 F 值" },
}
data["orb potential"] = {
short = "A neural network interatomic potential developed by Orbital Materials, trained on large-scale density functional theory data and designed for fast, general-purpose materials simulation including catalysis, batteries, and crystal property prediction.",
article = nil,
aliases = { "Orb", "Orb potential", "Orb model", "Orb-v1", "Orb-v2" },
es = "Potencial interatómico basado en redes neuronales desarrollado por Orbital Materials, entrenado con datos a gran escala de teoría del funcional de la densidad y diseñado para simulación rápida y de propósito general de materiales, incluyendo catálisis, baterías y predicción de propiedades cristalinas.",
zh = "由 Orbital Materials 开发的神经网络原子间势模型,基于大规模密度泛函理论数据训练,面向通用、快速的材料模拟,涵盖催化、电池及晶体性质预测等场景。",
term_es = "potencial Orb",
term_zh = "Orb 势",
aliases_es = { "Orb", "modelo Orb", "Orb-v2" },
aliases_zh = { "Orb", "Orb 模型", "Orb-v2" },
}
data["ord dataset"] = {
short = "A dataset drawn from the Open Reaction Database, providing structured chemical reaction records — including reactants, conditions, and outcomes — for training retrosynthesis, yield prediction, and reaction-condition models.",
article = nil,
aliases = { "ORD dataset", "Open Reaction Database dataset" },
es = "Conjunto de datos extraído de la Open Reaction Database, que aporta registros estructurados de reacciones químicas —reactivos, condiciones y resultados— para entrenar modelos de retrosíntesis, predicción de rendimiento y predicción de condiciones de reacción.",
zh = "源自 Open Reaction Database 的数据集,提供结构化的化学反应记录(反应物、条件、结果),用于训练逆合成、产率预测以及反应条件预测模型。",
term_es = "conjunto de datos ORD",
term_zh = "ORD 数据集",
aliases_es = { "ORD dataset", "datos de la Open Reaction Database" },
aliases_zh = { "ORD dataset", "开放反应数据库数据集" },
}
data["orpo"] = {
short = "A preference fine-tuning method that combines supervised fine-tuning with an odds-ratio penalty on dispreferred responses in a single training stage, removing the need for a separate reference model.",
article = nil,
aliases = { "ORPO", "Odds Ratio Preference Optimization", "Odds-Ratio Preference Optimization", "Odds Ratio Preference Optimisation" },
es = "Método de ajuste por preferencias que combina ajuste supervisado con una penalización de razón de probabilidades sobre las respuestas rechazadas en una sola etapa de entrenamiento, eliminando la necesidad de un modelo de referencia separado.",
zh = "一种偏好微调方法,将监督微调与对非偏好响应的几率比惩罚结合于同一训练阶段,无需单独的参考模型。",
term_es = "ORPO",
term_zh = "ORPO",
aliases_es = { "ORPO", "optimización de preferencias por razón de probabilidades" },
aliases_zh = { "ORPO", "几率比偏好优化", "比值比偏好优化" },
}
data["orthofinder"] = {
short = "A phylogenetic orthology inference tool that infers orthogroups, orthologs, and species/gene trees across multiple proteomes from all-versus-all sequence searches.",
article = nil,
aliases = { "OrthoFinder", "Ortho-Finder", "OrthoFinder2" },
es = "Herramienta filogenética para la inferencia de ortología que deduce ortogrupos, ortólogos y árboles de especies y genes a partir de búsquedas de secuencias todos contra todos en varios proteomas.",
zh = "一种基于系统发育的同源关系推断工具,通过对多个蛋白质组进行全互搜索来推断 ortholog 群(orthogroups)、直系同源关系以及物种树和基因树。",
term_es = "OrthoFinder",
term_zh = "OrthoFinder",
aliases_es = { "OrthoFinder", "OrthoFinder2" },
aliases_zh = { "OrthoFinder", "OrthoFinder2" },
}
data["orthogonal initialization"] = {
short = "A weight initialization that sets each layer's weight matrix to a (semi-)orthogonal matrix, preserving norms during forward and backward propagation and helping mitigate vanishing or exploding gradients in deep networks.",
article = nil,
aliases = { "orthogonal init", "orthogonal initialisation", "orthogonal weight initialization" },
es = "Inicialización de pesos que asigna a la matriz de cada capa una matriz (semi)ortogonal, preservando las normas durante la propagación hacia adelante y hacia atrás y mitigando el desvanecimiento o la explosión de gradientes en redes profundas.",
zh = "一种权重初始化方法,将每层的权重矩阵初始化为(半)正交矩阵,在前向与反向传播中保持范数,有助于缓解深层网络中的梯度消失或爆炸。",
term_es = "inicialización ortogonal",
term_zh = "正交初始化",
aliases_es = { "inicialización ortonormal" },
aliases_zh = { "正交初始化方法" },
}
data["orthogonal matrix"] = {
short = "A real square matrix Q whose columns (and rows) form an orthonormal set, equivalently QᵀQ = QQᵀ = I. Preserves Euclidean norms and angles; its inverse equals its transpose.",
article = nil,
aliases = { "orthogonal matrices", "orthonormal matrix", "rotation/reflection matrix" },
es = "Matriz cuadrada real Q cuyas columnas (y filas) forman un conjunto ortonormal, equivalentemente QᵀQ = QQᵀ = I. Preserva las normas y ángulos euclidianos; su inversa coincide con su transpuesta.",
zh = "其列(与行)构成正交归一集合的实方阵 Q,等价地满足 QᵀQ = QQᵀ = I。保持欧几里得范数与角度;其逆等于其转置。",
term_es = "matriz ortogonal",
term_zh = "正交矩阵",
aliases_es = { "matrices ortogonales", "matriz ortonormal" },
aliases_zh = { "正交方阵", "正交阵" },
}
data["orthogonal moment"] = {
short = "A moment condition for a target parameter that is locally insensitive to perturbations of nuisance functions, achieved by adding influence-function corrections. Foundational to debiased machine-learning estimators.",
article = nil,
aliases = { "Neyman orthogonal moment", "orthogonalized moment condition", "debiased moment", "locally robust moment" },
es = "Condición de momento para un parámetro objetivo que es localmente insensible a perturbaciones de las funciones nuisance, lograda añadiendo correcciones por función de influencia. Es fundamental para los estimadores de aprendizaje automático con desinclinación.",
zh = "针对目标参数的矩条件,通过加入影响函数修正项使其对干扰函数的扰动局部不敏感,是去偏机器学习估计的基础。",
term_es = "momento ortogonal",
term_zh = "正交矩条件",
aliases_es = { "momento ortogonal de Neyman", "condición de momento ortogonalizada", "momento desinclinado", "momento localmente robusto" },
aliases_zh = { "Neyman 正交矩", "正交化矩条件", "去偏矩", "局部稳健矩" },
}
data["orthogonal probe"] = {
short = "A probing approach that constrains successive probes to use directions in representation space orthogonal to those used by previous probes, in order to isolate independent dimensions encoding different properties.",
article = nil,
aliases = { "orthogonal probing", "orthogonality-constrained probe", "orthogonal subspace probing" },
es = "Enfoque de probing que restringe a las sondas sucesivas a usar direcciones del espacio de representación ortogonales a las empleadas por sondas anteriores, con el fin de aislar dimensiones independientes que codifican propiedades distintas.",
zh = "一种探针方法,约束后续探针使用与已有探针正交的表示空间方向,以分离编码不同属性的独立维度。",
term_es = "probe ortogonal",
term_zh = "正交探针",
aliases_es = { "sondeo ortogonal", "probing ortogonal", "probe con restricción de ortogonalidad" },
aliases_zh = { "正交探测", "正交子空间探针", "正交约束探针" },
}
data["orthogonal random features"] = {
short = "A variance-reduction technique for random feature kernel approximations that constrains random projection matrices to be orthogonal, yielding sharper concentration than i.i.d. Gaussian features.",
article = nil,
aliases = { "ORF", "orthogonal random feature", "ORFs" },
es = "Técnica de reducción de varianza para aproximaciones de núcleos por características aleatorias que restringe las matrices de proyección aleatoria a ser ortogonales, produciendo concentración más estrecha que las características gaussianas i.i.d.",
zh = "用于随机特征核近似的方差缩减技术,将随机投影矩阵约束为正交,相比独立同分布的高斯特征获得更紧的集中性。",
term_es = "características aleatorias ortogonales",
term_zh = "正交随机特征",
aliases_es = { "ORF", "rasgos aleatorios ortogonales" },
aliases_zh = { "ORF", "正交随机特征", "正交化随机特征" },
}
data["orthogonal random forest"] = {
short = "A causal random forest variant that estimates conditional treatment effects using Neyman-orthogonal moments and cross-fitting, allowing flexible nuisance estimation while preserving valid inference for heterogeneous effects.",
article = nil,
aliases = { "ORF", "orthogonal forest", "Neyman-orthogonal random forest", "double-machine-learning forest" },
es = "Variante de los bosques aleatorios causales que estima efectos condicionales del tratamiento mediante momentos ortogonales de Neyman y cross-fitting, permitiendo una estimación flexible de las funciones nuisance sin perder inferencia válida para efectos heterogéneos.",
zh = "一种因果随机森林变体,使用 Neyman 正交矩条件和交叉拟合估计条件处理效应,可在灵活估计干扰函数的同时保留对异质效应的有效推断。",
term_es = "bosque aleatorio ortogonal",
term_zh = "正交随机森林",
aliases_es = { "ORF", "bosque ortogonal", "bosque aleatorio Neyman-ortogonal", "bosque de doble aprendizaje automático" },
aliases_zh = { "ORF", "正交森林", "Neyman 正交随机森林", "双重机器学习森林" },
}
data["orthogonal score"] = {
short = "A score function whose Gateaux derivative with respect to nuisance parameters vanishes at the truth, making the resulting estimating equation locally insensitive to nuisance estimation error. Central to double machine learning.",
article = nil,
aliases = { "Neyman orthogonal score", "orthogonal estimating function", "debiased score", "locally robust score" },
es = "Función puntaje cuya derivada de Gateaux respecto a los parámetros nuisance se anula en el valor verdadero, lo que vuelve la ecuación de estimación localmente insensible al error en la estimación de las funciones nuisance. Es central al doble aprendizaje automático.",
zh = "在真值处对干扰参数的 Gateaux 导数为零的得分函数,使所得估计方程对干扰估计误差局部不敏感,是双重机器学习的核心。",
term_es = "puntaje ortogonal",
term_zh = "正交得分",
aliases_es = { "score ortogonal de Neyman", "función de estimación ortogonal", "score desinclinado", "score localmente robusto" },
aliases_zh = { "Neyman 正交得分", "正交估计函数", "去偏得分", "局部稳健得分" },
}
data["ortholog identification"] = {
short = "The computational task of identifying orthologs—genes in different species derived from a single gene in their last common ancestor—using sequence similarity, synteny, and/or phylogenetic-tree reconciliation.",
article = nil,
aliases = { "orthology inference", "orthologue identification", "ortholog detection", "ortholog prediction", "orthology detection", "orthologous gene identification" },
es = "Tarea computacional de identificar ortólogos —genes en distintas especies derivados de un único gen en su último ancestro común— mediante similitud de secuencias, sintenia y/o reconciliación de árboles filogenéticos.",
zh = "通过序列相似性、共线性(synteny)以及/或系统发育树重和(reconciliation)等方法,识别在不同物种中由其最近共同祖先的单一基因衍生而来的直系同源基因(ortholog)的计算任务。",
term_es = "identificación de ortólogos",
term_zh = "直系同源基因识别",
aliases_es = { "inferencia de ortología", "detección de ortólogos", "predicción de ortólogos", "identificación de genes ortólogos" },
aliases_zh = { "直系同源推断", "ortholog 识别", "直系同源基因检测", "直系同源关系预测", "同源基因识别" },
}
data["orthosteric site"] = {
short = "The primary binding site on a receptor where the endogenous ligand binds and exerts its physiological effect, distinguished from allosteric sites that modulate activity through topographically distinct pockets.",
article = nil,
aliases = { "orthosteric site", "orthosteric binding site" },
es = "Sitio de unión principal de un receptor en el que se une el ligando endógeno y ejerce su efecto fisiológico, distinto de los sitios alostéricos, que modulan la actividad a través de cavidades topográficamente diferentes.",
zh = "受体上内源性配体结合并发挥生理效应的主要结合位点,与通过空间上不同口袋调节活性的别构位点相区别。",
term_es = "sitio ortostérico",
term_zh = "正构位点",
aliases_es = { "sitio de unión ortostérico" },
aliases_zh = { "原位结合位点", "正位结合位点" },
}
data["oscar"] = {
short = "Object-Semantics Aligned Pre-training, a vision-language pretraining approach that uses detected object tags as anchor points to align image regions with text tokens, improving performance on captioning and VQA.",
article = nil,
aliases = { "OSCAR", "Oscar", "Object-Semantics Aligned Pre-training", "OSCAR model" },
es = "Object-Semantics Aligned Pre-training, enfoque de preentrenamiento visión-lenguaje que utiliza etiquetas de objetos detectados como puntos de anclaje para alinear regiones de imagen con tokens de texto, mejorando el desempeño en subtitulación y VQA.",
zh = "Object-Semantics Aligned Pre-training,一种视觉-语言预训练方法,使用检测到的对象标签作为锚点,将图像区域与文本 token 对齐,从而提升图像描述和 VQA 性能。",
term_es = "OSCAR",
term_zh = "OSCAR",
aliases_es = { "preentrenamiento OSCAR", "Object-Semantics Aligned Pre-training" },
aliases_zh = { "OSCAR 模型", "对象-语义对齐预训练" },
}
data["otter vlm"] = {
short = "An open-source multimodal model built on OpenFlamingo and fine-tuned on the MIMIC-IT dataset to follow in-context multimodal instructions across image and video inputs.",
article = nil,
aliases = { "Otter", "Otter VLM", "Otter-VLM", "Otter multimodal" },
es = "Modelo multimodal de código abierto construido sobre OpenFlamingo y ajustado con el conjunto MIMIC-IT para seguir instrucciones multimodales en contexto, tanto sobre imágenes como sobre vídeo.",
zh = "基于 OpenFlamingo 构建并在 MIMIC-IT 数据集上微调的开源多模态模型,能够在图像和视频输入上跟随上下文中的多模态指令。",
term_es = "Otter",
term_zh = "Otter",
aliases_es = { "Otter VLM", "Otter-VLM" },
aliases_zh = { "Otter VLM", "Otter-VLM" },
}
data["otu clustering"] = {
short = "The grouping of similar 16S rRNA or other marker-gene sequences into Operational Taxonomic Units (typically at 97% identity) as a proxy for microbial species in amplicon-based microbiome studies.",
article = nil,
aliases = { "OTU clustering", "operational taxonomic unit clustering", "OTU picking", "OTU calling", "16S OTU clustering" },
es = "Agrupación de secuencias similares de ARNr 16S u otros genes marcadores en Unidades Taxonómicas Operacionales (típicamente al 97% de identidad) como aproximación a las especies microbianas en estudios de microbioma basados en amplicones.",
zh = "在基于扩增子的微生物组研究中,将相似的 16S rRNA 或其他标记基因序列聚类为 Operational Taxonomic Unit(操作分类单元,通常以 97% 相似度阈值),作为微生物物种的近似。",
term_es = "agrupamiento OTU",
term_zh = "OTU 聚类",
aliases_es = { "agrupamiento de OTU", "clustering OTU", "agrupación en unidades taxonómicas operacionales", "selección de OTU", "agrupamiento OTU 16S" },
aliases_zh = { "OTU 聚类", "操作分类单元聚类", "OTU 划分", "OTU 选取", "16S OTU 聚类" },
}
data["out-of-distribution detection"] = {
short = "The task of identifying test inputs drawn from a different distribution than the training data, used to flag inputs on which a model's predictions should not be trusted.",
article = nil,
aliases = { "OOD detection", "OOD", "out of distribution detection", "outlier detection", "distributional shift detection" },
es = "Tarea de identificar entradas de prueba provenientes de una distribución diferente a la de los datos de entrenamiento, usada para marcar entradas sobre las que las predicciones del modelo no deben considerarse confiables.",
zh = "识别来自与训练数据不同分布的测试输入的任务,用于标记模型预测不应被信任的输入。",
term_es = "detección fuera de distribución",
term_zh = "分布外检测",
aliases_es = { "detección OOD", "OOD", "detección de muestras fuera de distribución" },
aliases_zh = { "OOD检测", "离分布检测", "分布外样本检测", "OOD" },
}
data["out-of-distribution generalization"] = {
short = "The ability of a model to perform well on inputs drawn from a distribution different from the one used during training. A central concern in machine learning robustness research.",
article = nil,
aliases = { "OOD generalization", "out of distribution generalization", "out-of-distribution generalisation", "OOD generalisation", "extrapolation to unseen distributions" },
es = "Capacidad de un modelo para desempeñarse bien con entradas provenientes de una distribución distinta a la utilizada durante el entrenamiento. Es una preocupación central en la investigación de robustez en aprendizaje automático.",
zh = "模型在与训练分布不同的输入上仍能良好表现的能力,是机器学习鲁棒性研究的核心议题。",
term_es = "generalización fuera de distribución",
term_zh = "分布外泛化",
aliases_es = { "generalización OOD", "generalización a distribuciones no vistas" },
aliases_zh = { "OOD 泛化", "分布外推广" },
}
data["outcome regression"] = {
short = "A model for the conditional expectation of the outcome given treatment and covariates, used as a building block in causal estimation. Combined with propensity-score weighting it yields doubly robust estimators.",
article = nil,
aliases = { "outcome model", "regression adjustment", "g-computation regression", "Q-model" },
es = "Modelo para la esperanza condicional del resultado dadas el tratamiento y las covariables, utilizado como bloque básico en la estimación causal. Combinado con la ponderación por puntaje de propensión produce estimadores doblemente robustos.",
zh = "在给定处理和协变量条件下结果的条件期望模型,是因果估计的基础组件。与倾向得分加权结合可得到双重稳健估计量。",
term_es = "regresión del resultado",
term_zh = "结果回归",
aliases_es = { "modelo del resultado", "ajuste por regresión", "regresión de g-computación", "modelo Q" },
aliases_zh = { "结果模型", "回归调整", "g 计算回归", "Q 模型" },
}
data["outcome reward model"] = {
short = "A reward model trained to score only the final answer of a multi-step trajectory, contrasting with process reward models that score intermediate reasoning steps.",
article = nil,
aliases = { "ORM", "outcome-supervised reward model", "outcome reward models" },
es = "Modelo de recompensa entrenado para puntuar únicamente la respuesta final de una trayectoria de varios pasos, en contraste con los modelos de recompensa de proceso que evalúan cada paso intermedio.",
zh = "一种奖励模型,仅对多步推理轨迹的最终答案进行评分,与对中间推理步骤评分的过程奖励模型(PRM)相对应。",
term_es = "modelo de recompensa por resultado",
term_zh = "结果奖励模型",
aliases_es = { "ORM", "modelo de recompensa basado en resultado" },
aliases_zh = { "ORM", "结果监督奖励模型" },
}
data["outer product"] = {
short = "A bilinear operation that takes two vectors of sizes m and n and returns an m×n matrix whose (i,j) entry is the product of the i-th and j-th components. Produces a rank-1 matrix.",
article = nil,
aliases = { "tensor product of vectors", "dyadic product", "Kronecker product of vectors" },
es = "Operación bilineal que toma dos vectores de tamaños m y n y devuelve una matriz m×n cuyo elemento (i,j) es el producto de las componentes i-ésima y j-ésima. Produce una matriz de rango 1.",
zh = "一种双线性运算,将大小分别为 m 和 n 的两个向量映射为一个 m×n 矩阵,其 (i,j) 元素为两向量第 i 个与第 j 个分量之积。所得矩阵的秩为 1。",
term_es = "producto exterior",
term_zh = "外积",
aliases_es = { "producto diádico", "producto tensorial de vectores" },
aliases_zh = { "外乘积", "并矢积", "向量张量积" },
}
data["outpainting"] = {
short = "A generative image editing task that extends an image beyond its original borders, using a diffusion or inpainting model conditioned on the existing pixels and an optional text prompt.",
article = nil,
aliases = { "out-painting", "image outpainting", "uncropping" },
es = "Tarea de edición generativa de imágenes que extiende una imagen más allá de sus bordes originales, usando un modelo de difusión o inpainting condicionado a los píxeles existentes y, opcionalmente, a un prompt de texto.",
zh = "一种生成式图像编辑任务,将图像扩展到原始边界之外,通常使用以现有像素和可选文本提示为条件的扩散或修复模型来生成新区域。",
term_es = "outpainting",
term_zh = "外绘",
aliases_es = { "extensión de imagen", "out-painting" },
aliases_zh = { "outpainting", "图像外扩", "外延绘制" },
}
data["output perturbation"] = {
short = "A differential privacy mechanism that releases the output of a learning algorithm with calibrated random noise added to the trained model parameters, so that the released model satisfies a privacy guarantee.",
article = nil,
aliases = { "output-perturbation mechanism", "perturbed-output DP", "noisy output release" },
es = "Mecanismo de privacidad diferencial que publica la salida de un algoritmo de aprendizaje añadiendo ruido aleatorio calibrado a los parámetros del modelo entrenado, de modo que el modelo publicado satisfaga una garantía de privacidad.",
zh = "一种差分隐私机制:在学习算法的输出(即训练得到的模型参数)上加入经过校准的随机噪声后再发布,使发布的模型满足隐私保证。",
term_es = "perturbación de la salida",
term_zh = "输出扰动",
aliases_es = { "mecanismo de perturbación de la salida", "DP por perturbación de la salida", "publicación con ruido en la salida" },
aliases_zh = { "output perturbation", "输出扰动机制", "带噪输出发布" },
}
data["output scale"] = {
short = "A kernel hyperparameter in Gaussian processes that scales the prior variance of function outputs, controlling the marginal magnitude of sampled functions independently of their lengthscale.",
article = nil,
aliases = { "signal variance", "output variance", "kernel amplitude", "marginal variance" },
es = "Hiperparámetro del núcleo en procesos gaussianos que escala la varianza a priori de las salidas de la función, controlando la magnitud marginal de las funciones muestreadas independientemente de su escala de longitud.",
zh = "高斯过程中核函数的一个超参数,用于缩放函数输出的先验方差,独立于长度尺度控制采样函数的边际幅度。",
term_es = "escala de salida",
term_zh = "输出尺度",
aliases_es = { "varianza de la señal", "amplitud del kernel", "varianza marginal" },
aliases_zh = { "信号方差", "输出方差", "核幅度", "边际方差" },
}
data["overall accuracy equality"] = {
short = "A group fairness criterion requiring that overall classification accuracy be equal across protected groups, regardless of how errors are distributed between false positives and false negatives.",
article = nil,
aliases = { "overall accuracy parity", "accuracy equality", "equal accuracy" },
es = "Criterio de equidad grupal que exige que la precisión global de clasificación sea igual entre grupos protegidos, sin importar cómo se distribuyan los errores entre falsos positivos y falsos negativos.",
zh = "一种群体公平准则,要求总体分类准确率在各受保护群体之间相等,而不论错误如何分布于假阳性与假阴性之间。",
term_es = "igualdad de exactitud global",
term_zh = "总体准确率平等",
aliases_es = { "paridad de exactitud global", "igualdad de precisión", "exactitud igual entre grupos" },
aliases_zh = { "整体准确率平等", "准确率平等", "整体准确率公平" },
}
data["overdamped langevin"] = {
short = "The high-friction limit of Langevin dynamics in which inertial terms are negligible and the state evolves as gradient descent on the negative log-density plus Gaussian noise; underlies many MCMC samplers.",
article = nil,
aliases = { "overdamped Langevin dynamics", "overdamped Langevin diffusion", "Brownian dynamics" },
es = "Límite de alta fricción de la dinámica de Langevin en el que los términos inerciales son despreciables y el estado evoluciona como descenso de gradiente sobre la densidad log-negativa más ruido gaussiano; subyace a muchos muestreadores MCMC.",
zh = "Langevin动力学的高摩擦极限,其中惯性项可以忽略,状态按对负对数密度的梯度下降加高斯噪声演化;许多MCMC采样器的基础。",
term_es = "Langevin sobreamortiguado",
term_zh = "过阻尼Langevin",
aliases_es = { "dinámica de Langevin sobreamortiguada", "difusión de Langevin sobreamortiguada", "dinámica browniana" },
aliases_zh = { "过阻尼Langevin动力学", "过阻尼朗之万", "布朗动力学" },
}
data["overfitting"] = {
short = "A failure mode in which a model fits the training data—including its noise and idiosyncrasies—so closely that it performs poorly on new data, indicated by a low training error but a substantially higher validation error.",
article = "Overfitting and Regularization",
aliases = { "over-fitting", "overfit", "over fitting" },
es = "Modo de fallo en el que un modelo se ajusta tan estrechamente a los datos de entrenamiento —incluido su ruido y sus particularidades— que rinde mal sobre datos nuevos, lo cual se manifiesta en un error de entrenamiento bajo pero un error de validación sustancialmente mayor.",
zh = "一种失效模式,模型过度拟合训练数据(包括其噪声和特异性),导致在新数据上表现不佳,表现为训练误差低但验证误差显著更高。",
term_es = "sobreajuste",
term_zh = "过拟合",
aliases_es = { "sobre-ajuste", "overfitting" },
aliases_zh = { "过度拟合", "overfitting", "过适应" },
}
data["overidentification test"] = {
short = "A statistical test, such as the Sargan or Hansen J test, that checks whether the moment restrictions implied by more instruments than parameters are jointly compatible with the data. Failure suggests instrument invalidity.",
article = nil,
aliases = { "over-identification test", "Sargan test", "Hansen J test", "overidentifying restrictions test" },
es = "Prueba estadística, como la de Sargan o la J de Hansen, que verifica si las restricciones de momentos implicadas por más instrumentos que parámetros son conjuntamente compatibles con los datos. Su rechazo sugiere invalidez de los instrumentos.",
zh = "如 Sargan 检验或 Hansen J 检验等统计检验,用于评估当工具数多于参数时所隐含的矩约束是否与数据共同相容。检验失败意味着工具变量可能无效。",
term_es = "prueba de sobreidentificación",
term_zh = "过度识别检验",
aliases_es = { "test de sobreidentificación", "prueba de Sargan", "prueba J de Hansen", "test de restricciones sobreidentificadoras" },
aliases_zh = { "过识别检验", "Sargan 检验", "Hansen J 检验", "过度识别约束检验" },
}
data["overlap assumption"] = {
short = "The requirement that the propensity score be strictly between zero and one for all covariate values, ensuring that every unit has positive probability of receiving each treatment. Also called positivity.",
article = nil,
aliases = { "positivity assumption", "common support assumption", "support overlap", "common-support condition" },
es = "Requisito de que el puntaje de propensión esté estrictamente entre cero y uno para todos los valores de las covariables, garantizando que cada unidad tenga probabilidad positiva de recibir cada tratamiento. También se conoce como positividad.",
zh = "要求倾向得分对所有协变量取值都严格介于零和一之间,从而保证每个单元都有正概率接受每种处理。亦称为正性条件。",
term_es = "supuesto de solapamiento",
term_zh = "重叠假设",
aliases_es = { "supuesto de positividad", "supuesto de soporte común", "condición de soporte común", "solapamiento de soporte" },
aliases_zh = { "正性假设", "共同支撑假设", "共同支持条件", "支持重叠" },
}
data["overlap communication and computation"] = {
short = "A systems optimization in distributed and federated training that schedules gradient communication concurrently with backward-pass computation, hiding communication latency behind useful work.",
article = nil,
aliases = { "communication-computation overlap", "overlap of comm and compute", "compute-communication overlap", "overlapped allreduce" },
es = "Optimización de sistemas en entrenamiento distribuido y federado que planifica la comunicación de gradientes en paralelo con el cómputo del paso hacia atrás, ocultando la latencia de comunicación detrás de cómputo útil.",
zh = "分布式与联邦训练中的一种系统优化:将梯度通信与反向传播计算并行调度,从而把通信延迟隐藏在有效计算之中。",
term_es = "solapamiento de comunicación y cómputo",
term_zh = "通信与计算重叠",
aliases_es = { "solape comunicación-cómputo", "superposición de comunicación y cómputo", "solapamiento comm-compute", "allreduce solapado" },
aliases_zh = { "通信计算重叠", "计算与通信重叠", "通信-计算并行", "overlapped allreduce" },
}
data["overlap weighting"] = {
short = "A propensity-score weighting scheme that weights each unit by the propensity of receiving the opposite treatment, emphasizing units with the most equipoise. Yields the average treatment effect on the overlap population.",
article = nil,
aliases = { "overlap weights", "ATO weighting", "overlap-weight estimator", "propensity overlap weighting" },
es = "Esquema de ponderación basado en el puntaje de propensión que asigna a cada unidad un peso proporcional a la probabilidad de recibir el tratamiento contrario, enfatizando las unidades con mayor equilibrio. Produce el efecto promedio del tratamiento en la población de solapamiento.",
zh = "一种基于倾向得分的加权方法,将每个单元的权重设为其接受相反处理的倾向,从而强调最具均衡性的样本,所得到的是重叠人群上的平均处理效应。",
term_es = "ponderación por solapamiento",
term_zh = "重叠加权",
aliases_es = { "pesos de solapamiento", "ponderación ATO", "estimador con pesos de solapamiento", "ponderación de propensión por solapamiento" },
aliases_zh = { "重叠权重", "ATO 加权", "重叠权重估计", "倾向重叠加权" },
}
data["overlap-aware diarization"] = {
short = "Speaker diarization systems that explicitly detect and assign multiple speakers to overlapping speech regions rather than collapsing them into a single label, often via overlap detection plus second-speaker assignment.",
article = nil,
aliases = { "overlap aware diarization", "overlap-aware speaker diarization", "overlapping-speech diarization" },
es = "Sistemas de diarización de hablantes que detectan y asignan explícitamente varios hablantes a regiones de habla solapada en lugar de colapsarlas en una sola etiqueta, normalmente mediante detección de solapamiento más asignación de un segundo hablante.",
zh = "显式检测语音重叠区域并将其分配给多个说话人的说话人分离系统,而非将其归为单一标签,通常包含重叠检测加第二说话人分配步骤。",
term_es = "diarización con conciencia de solapamiento",
term_zh = "重叠感知说话人分离",
aliases_es = { "diarización overlap-aware", "diarización consciente del solapamiento", "diarización de habla solapada" },
aliases_zh = { "overlap-aware 说话人分离", "重叠感知 diarization", "重叠语音说话人分离" },
}
data["oversampling"] = {
short = "A technique for handling class imbalance that increases the number of minority-class examples in the training set by duplicating them or generating synthetic instances.",
article = nil,
aliases = { "over-sampling", "over sampling", "minority oversampling" },
es = "Técnica para tratar el desbalance de clases que aumenta el número de ejemplos de la clase minoritaria en el conjunto de entrenamiento, ya sea duplicándolos o generando instancias sintéticas.",
zh = "一种处理类别不平衡的技术,通过复制少数类样本或生成合成实例来增加其在训练集中的数量。",
term_es = "sobremuestreo",
term_zh = "过采样",
aliases_es = { "sobre-muestreo", "oversampling", "sobremuestreo de la clase minoritaria" },
aliases_zh = { "上采样", "少数类过采样", "oversampling" },
}
data["overtraining"] = {
short = "Continuing training past the point of optimal generalization, causing validation loss to rise even as training loss falls; in LLM scaling, also used to mean training a small model on far more tokens than Chinchilla-optimal for inference efficiency.",
article = nil,
aliases = { "over-training", "over training" },
es = "Continuar el entrenamiento más allá del punto de generalización óptima, lo que provoca que la pérdida de validación aumente aunque la de entrenamiento siga bajando; en escalado de LLM, también se refiere a entrenar un modelo pequeño con muchos más tokens de los óptimos según Chinchilla para favorecer la eficiencia en inferencia.",
zh = "训练时间超过最佳泛化点,导致验证损失上升而训练损失继续下降;在大语言模型扩展中也指为提高推理效率,在远超 Chinchilla 最优 token 数的数据上训练较小模型。",
term_es = "sobreentrenamiento",
term_zh = "过度训练",
aliases_es = { "over-training", "entrenamiento excesivo" },
aliases_zh = { "overtraining", "过训练" },
}
data["owl ontology"] = {
short = "An ontology written in the Web Ontology Language (OWL), a W3C standard based on description logic for representing classes, properties, individuals, and axioms in a machine-interpretable form.",
article = nil,
aliases = { "OWL ontology", "OWL", "Web Ontology Language", "OWL ontologies" },
es = "Una ontología escrita en el lenguaje OWL (Web Ontology Language), un estándar del W3C basado en lógica de descripción para representar clases, propiedades, individuos y axiomas de forma interpretable por máquinas.",
zh = "用 Web 本体语言(OWL)编写的本体,OWL 是基于描述逻辑的 W3C 标准,用于以机器可解释的形式表示类、属性、个体和公理。",
term_es = "ontología OWL",
term_zh = "OWL 本体",
aliases_es = { "OWL", "Web Ontology Language", "lenguaje de ontologías web" },
aliases_zh = { "OWL", "网络本体语言", "OWL 本体论" },
}
data["p-darts"] = {
short = "Progressive DARTS, an extension of differentiable architecture search that gradually increases the searched network depth during the search while pruning the operation set, narrowing the depth gap between search and evaluation phases.",
article = nil,
aliases = { "P-DARTS", "Progressive DARTS", "PDARTS" },
es = "Progressive DARTS, extensión de la búsqueda de arquitecturas diferenciable que aumenta gradualmente la profundidad de la red durante la búsqueda mientras poda el conjunto de operaciones, reduciendo la brecha de profundidad entre las fases de búsqueda y evaluación.",
zh = "Progressive DARTS,可微架构搜索的扩展,在搜索过程中逐步增加网络深度并同时修剪操作集,缩小搜索阶段与评估阶段之间的深度差距。",
term_es = "P-DARTS",
term_zh = "P-DARTS",
aliases_es = { "DARTS progresivo" },
aliases_zh = { "渐进 DARTS", "Progressive DARTS" },
}
data["p-glycoprotein"] = {
short = "An ATP-binding cassette efflux transporter (ABCB1) that pumps a broad range of hydrophobic substrates out of cells, strongly influencing oral absorption, blood-brain barrier penetration, and multidrug resistance in tumors.",
article = nil,
aliases = { "P-gp", "P-glycoprotein", "Pgp", "ABCB1", "MDR1" },
es = "Transportador de eflujo de la familia ABC (ABCB1) que bombea una amplia gama de sustratos hidrofóbicos fuera de las células, influyendo de forma decisiva en la absorción oral, el paso de la barrera hematoencefálica y la resistencia a múltiples fármacos en tumores.",
zh = "属于 ATP 结合盒(ABC)家族的外排转运蛋白(ABCB1),可将多种疏水性底物泵出细胞,显著影响药物的口服吸收、血脑屏障通透性以及肿瘤的多药耐药性。",
term_es = "glicoproteína P",
term_zh = "P-糖蛋白",
aliases_es = { "P-gp", "Pgp", "ABCB1", "MDR1", "P-glicoproteína" },
aliases_zh = { "P-gp", "P糖蛋白", "ABCB1", "MDR1" },
}
data["p-hacking"] = {
short = "The practice of running, selecting, or tweaking statistical tests until a p-value crosses a significance threshold, inflating false-positive rates and producing unreliable findings.",
article = nil,
aliases = { "p hacking", "data dredging", "significance chasing", "selective inference" },
es = "Práctica consistente en ejecutar, seleccionar o ajustar pruebas estadísticas hasta que un valor p cruza un umbral de significancia, lo que infla las tasas de falsos positivos y produce hallazgos poco fiables.",
zh = "通过反复运行、选择或调整统计检验,直到 p 值跨越显著性阈值的做法,会抬高假阳性率并产生不可靠的结论。",
term_es = "p-hacking",
term_zh = "p 值操纵",
aliases_es = { "manipulación del valor p", "minería de datos estadística", "búsqueda de significancia" },
aliases_zh = { "p-hacking", "p 值黑客", "显著性追逐", "数据浚挖" },
}
data["p-tuning"] = {
short = "A parameter-efficient fine-tuning method that learns continuous prompt embeddings, typically encoded by a small auxiliary network (e.g. an LSTM or MLP), and inserts them into the input of a frozen pretrained language model.",
article = nil,
aliases = { "P-Tuning", "P-tuning", "ptuning", "P-Tuning v2" },
es = "Método de ajuste fino eficiente en parámetros que aprende embeddings de prompt continuos, normalmente codificados por una pequeña red auxiliar (por ejemplo, una LSTM o un MLP), y los inserta en la entrada de un modelo de lenguaje preentrenado congelado.",
zh = "一种参数高效的微调方法,学习连续的提示嵌入(通常由一个小型辅助网络如 LSTM 或 MLP 编码),并将其插入到冻结的预训练语言模型输入中。",
term_es = "P-tuning",
term_zh = "P-tuning",
aliases_es = { "P-Tuning", "P-Tuning v2" },
aliases_zh = { "P-Tuning", "P-Tuning v2" },
}
data["p-value"] = {
short = "Under a specified null hypothesis, the probability of observing a test statistic at least as extreme as the one obtained from the data; small values are taken as evidence against the null at a chosen significance level.",
article = nil,
aliases = { "p value", "P-value", "probability value", "significance probability" },
es = "Bajo una hipótesis nula específica, la probabilidad de observar un estadístico de prueba tan extremo o más que el obtenido de los datos; valores pequeños se interpretan como evidencia en contra de la nula a un nivel de significancia elegido.",
zh = "在给定的原假设下,观察到检验统计量至少与样本中得到的同等极端的概率;其取值越小,在选定显著性水平下越被视为反对原假设的证据。",
term_es = "valor p",
term_zh = "p 值",
aliases_es = { "valor-p", "p-valor", "probabilidad de significancia" },
aliases_zh = { "P 值", "显著性概率", "p-value" },
}
data["p.808"] = {
short = "An ITU-T recommendation defining a crowdsourced subjective speech quality assessment methodology in which remote listeners rate degraded speech samples on a five-point absolute category rating scale.",
article = nil,
aliases = { "P.808", "ITU-T P.808", "ITU P.808", "Recommendation P.808" },
es = "Recomendación de la ITU-T que define una metodología de evaluación subjetiva de la calidad del habla mediante crowdsourcing, en la que oyentes remotos califican muestras de habla degradadas en una escala de cinco puntos de calificación absoluta de categoría.",
zh = "ITU-T 标准,规定了一种众包式语音主观质量评估方法,由远程听众在五级绝对类别评分量表上为劣化语音样本打分。",
term_es = "P.808",
term_zh = "P.808",
aliases_es = { "P.808", "ITU-T P.808", "Recomendación P.808" },
aliases_zh = { "P.808", "ITU-T P.808", "ITU P.808 建议" },
}
data["p2rank"] = {
short = "A machine-learning tool that predicts ligand-binding pockets on protein surfaces from 3D structure by classifying surface points using random forests over geometric and physicochemical descriptors.",
article = nil,
aliases = { "P2Rank", "p2rank" },
es = "Herramienta de aprendizaje automático que predice cavidades de unión de ligandos en superficies de proteínas a partir de la estructura 3D, clasificando puntos de superficie con bosques aleatorios sobre descriptores geométricos y fisicoquímicos.",
zh = "一种基于机器学习的工具,从蛋白质三维结构出发预测配体结合口袋,通过随机森林对几何与理化描述符所表征的表面点进行分类。",
term_es = "P2Rank",
term_zh = "P2Rank",
aliases_es = { "P2Rank" },
aliases_zh = { "P2Rank" },
}
data["pac-bayes bound"] = {
short = "A class of generalization bounds that hold with high probability over data and posterior, bounding the expected risk of a randomized predictor by its empirical risk plus a KL divergence between the posterior and prior.",
article = nil,
aliases = { "PAC-Bayes bound", "PAC-Bayesian bound", "PAC Bayes bound", "PAC-Bayes inequality" },
es = "Clase de cotas de generalización que se cumplen con alta probabilidad sobre los datos y el posterior, acotando el riesgo esperado de un predictor aleatorizado por su riesgo empírico más una divergencia KL entre el posterior y el prior.",
zh = "一类泛化界,以高概率同时对数据和后验成立,将随机预测器的期望风险界定为其经验风险加上后验与先验之间的KL散度。",
term_es = "cota PAC-Bayes",
term_zh = "PAC-Bayes界",
aliases_es = { "cota PAC-bayesiana", "desigualdad PAC-Bayes" },
aliases_zh = { "PAC贝叶斯界", "PAC-Bayes不等式", "PAC贝叶斯泛化界" },
}
data["pacbio sequencing"] = {
short = "A long-read sequencing platform from Pacific Biosciences based on single-molecule real-time (SMRT) chemistry that observes DNA polymerase incorporating fluorescently labeled nucleotides in zero-mode waveguides.",
article = nil,
aliases = { "PacBio sequencing", "PacBio", "Pacific Biosciences sequencing", "SMRT sequencing", "single-molecule real-time sequencing", "PacBio SMRT" },
es = "Plataforma de secuenciación de lecturas largas de Pacific Biosciences basada en la química de tiempo real de molécula única (SMRT), que observa a la ADN polimerasa incorporando nucleótidos marcados con fluorescencia en guías de onda de modo cero.",
zh = "Pacific Biosciences 公司开发的长读长测序平台,基于单分子实时(SMRT)测序技术,在零模波导中实时观察 DNA 聚合酶掺入荧光标记核苷酸的过程。",
term_es = "secuenciación PacBio",
term_zh = "PacBio 测序",
aliases_es = { "PacBio", "secuenciación de Pacific Biosciences", "secuenciación SMRT", "secuenciación de molécula única en tiempo real", "PacBio SMRT" },
aliases_zh = { "PacBio 测序", "PacBio", "Pacific Biosciences 测序", "SMRT 测序", "单分子实时测序", "PacBio SMRT" },
}
data["packet loss concealment"] = {
short = "Algorithms that fill in missing audio frames caused by lost or late packets in real-time voice streaming, ranging from simple waveform repetition to neural generative models that synthesize plausible replacement audio.",
article = nil,
aliases = { "PLC", "packet-loss concealment", "audio packet loss concealment", "neural packet loss concealment" },
es = "Algoritmos que rellenan los marcos de audio faltantes causados por paquetes perdidos o llegados tarde en la transmisión de voz en tiempo real, desde la simple repetición de formas de onda hasta modelos generativos neuronales que sintetizan audio de reemplazo plausible.",
zh = "在实时语音传输中填补因丢包或迟到包而缺失的音频帧的算法,从简单的波形重复到合成合理替代音频的神经生成模型不等。",
term_es = "ocultamiento de pérdida de paquetes",
term_zh = "丢包隐藏",
aliases_es = { "PLC", "concealment de pérdida de paquetes", "compensación de pérdida de paquetes" },
aliases_zh = { "PLC", "丢包补偿", "丢包恢复", "数据包丢失隐藏" },
}
data["padding"] = {
short = "The technique of adding extra values (commonly zeros) around the borders of an input feature map before convolution, used to control the spatial dimensions of the output and preserve edge information.",
article = nil,
aliases = { "zero padding", "zero-padding", "same padding", "valid padding", "reflection padding", "replication padding" },
es = "Técnica de añadir valores adicionales (habitualmente ceros) alrededor de los bordes de un mapa de características de entrada antes de la convolución, usada para controlar las dimensiones espaciales de la salida y preservar la información de los bordes.",
zh = "在卷积前在输入特征图边缘添加额外值(通常为零)的技术,用于控制输出的空间维度并保留边缘信息。",
term_es = "padding",
term_zh = "填充",
aliases_es = { "relleno", "relleno con ceros" },
aliases_zh = { "padding", "零填充" },
}
data["pae"] = {
short = "Predicted Aligned Error — a per-residue-pair confidence metric output by AlphaFold and related models, estimating the expected position error in residue i if the structure is aligned on residue j, used to assess inter-domain and inter-chain reliability.",
article = nil,
aliases = { "PAE", "Predicted Aligned Error" },
es = "Predicted Aligned Error — métrica de confianza por par de residuos producida por AlphaFold y modelos relacionados, que estima el error esperado en la posición del residuo i cuando la estructura se alinea sobre el residuo j, y se usa para evaluar la fiabilidad entre dominios y entre cadenas.",
zh = "Predicted Aligned Error(预测对齐误差),AlphaFold 等模型输出的逐残基对置信度指标,表示在以残基 j 对齐结构时残基 i 位置的预期误差,用于评估域间与链间预测的可靠性。",
term_es = "PAE",
term_zh = "PAE",
aliases_es = { "Predicted Aligned Error", "error alineado predicho" },
aliases_zh = { "Predicted Aligned Error", "预测对齐误差" },
}
data["pag"] = {
short = "A graphical object representing a Markov-equivalence class of maximal ancestral graphs in the presence of latent confounding, with edge marks encoding ancestral relations consistent with the observed conditional independencies.",
article = nil,
aliases = { "PAG", "partial ancestral graph", "partial-ancestral graph", "FCI output graph" },
es = "Objeto gráfico que representa una clase de equivalencia de Markov de grafos ancestrales máximos en presencia de confusión latente, cuyas marcas de arista codifican las relaciones ancestrales compatibles con las independencias condicionales observadas.",
zh = "在存在潜在混杂时,用于表示最大祖先图的马尔可夫等价类的图结构,其边端标记编码与观测条件独立性相容的祖先关系。",
term_es = "grafo ancestral parcial",
term_zh = "部分祖先图",
aliases_es = { "PAG", "grafo parcialmente ancestral", "grafo de salida de FCI" },
aliases_zh = { "PAG", "部分祖先图(PAG)", "FCI 输出图" },
}
data["paga trajectory"] = {
short = "A graph-abstraction trajectory inference method (Partition-based Graph Abstraction) for single-cell data that summarizes a kNN cell graph as a coarse-grained graph of cell groups, modeling both discrete clusters and continuous transitions.",
article = nil,
aliases = { "PAGA", "PAGA trajectory", "Partition-based Graph Abstraction", "PAGA graph", "PAGA trajectory inference" },
es = "Método de inferencia de trayectorias por abstracción de grafos (Partition-based Graph Abstraction) para datos unicelulares, que resume un grafo kNN de células en un grafo de grano grueso entre grupos celulares, modelando tanto clústeres discretos como transiciones continuas.",
zh = "一种用于单细胞数据的基于图抽象的发育轨迹推断方法(Partition-based Graph Abstraction,PAGA),将细胞 kNN 图概括为细胞群之间的粗粒度图,能够同时刻画离散聚类与连续转变。",
term_es = "trayectoria PAGA",
term_zh = "PAGA 轨迹",
aliases_es = { "PAGA", "abstracción de grafos por particiones", "grafo PAGA", "inferencia de trayectorias PAGA" },
aliases_zh = { "PAGA", "PAGA 轨迹", "基于划分的图抽象", "PAGA 图", "PAGA 轨迹推断" },
}
data["paged attention"] = {
short = "A KV-cache memory management scheme, introduced by vLLM, that stores attention keys and values in fixed-size blocks indexed by a page table, eliminating the contiguous-allocation fragmentation that limits batch sizes during LLM serving.",
article = nil,
aliases = { "PagedAttention", "paged KV cache" },
es = "Esquema de gestión de memoria del caché de claves y valores, introducido por vLLM, que almacena las claves y los valores de atención en bloques de tamaño fijo indexados mediante una tabla de páginas, eliminando la fragmentación por asignación contigua que limita el tamaño de lote en la inferencia de LLM.",
zh = "vLLM 提出的一种 KV 缓存内存管理方案:将注意力的键和值存储在按页表索引的定长块中,消除了 LLM 服务中由连续内存分配带来的碎片,从而支持更大的批量。",
term_es = "PagedAttention",
term_zh = "分页注意力",
aliases_es = { "atención paginada", "caché KV paginado" },
aliases_zh = { "PagedAttention", "分页 KV 缓存" },
}
data["paillier cryptosystem"] = {
short = "A public-key cryptosystem that supports additive homomorphic operations on ciphertexts, enabling sums of encrypted values to be computed without decryption; widely used for secure aggregation in federated learning.",
article = nil,
aliases = { "Paillier", "Paillier encryption", "Paillier scheme", "additively homomorphic Paillier" },
es = "Criptosistema de clave pública que soporta operaciones homomórficas aditivas sobre los textos cifrados, permitiendo calcular sumas de valores cifrados sin descifrarlos; ampliamente utilizado para la agregación segura en aprendizaje federado.",
zh = "一种支持密文加法同态运算的公钥密码体制,可在不解密的情况下对密文求和;广泛用于联邦学习中的安全聚合。",
term_es = "criptosistema de Paillier",
term_zh = "Paillier 密码体制",
aliases_es = { "Paillier", "cifrado de Paillier", "esquema de Paillier", "Paillier homomórfico aditivo" },
aliases_zh = { "Paillier", "Paillier 加密", "Paillier 方案", "加法同态 Paillier" },
}
data["painn"] = {
short = "A polarizable atom interaction neural network — an equivariant message-passing architecture for molecules that maintains rotationally equivariant vector features alongside scalar features, enabling accurate prediction of energies, forces, and tensorial properties.",
article = nil,
aliases = { "PaiNN", "Polarizable Atom Interaction Neural Network" },
es = "Red neuronal de interacción atómica polarizable —arquitectura equivariante de paso de mensajes para moléculas que mantiene características vectoriales equivariantes a la rotación junto con características escalares, lo que permite predecir con precisión energías, fuerzas y propiedades tensoriales.",
zh = "一种可极化原子相互作用神经网络,采用等变消息传递架构,在标量特征之外维护对旋转等变的向量特征,可精确预测能量、力以及张量性质。",
term_es = "PaiNN",
term_zh = "PaiNN",
aliases_es = { "PaiNN" },
aliases_zh = { "PaiNN" },
}
data["pains filter"] = {
short = "A set of substructure-based filters identifying Pan-Assay Interference Compounds — molecules likely to give false positives across multiple bioassays due to reactivity, aggregation, or assay interference rather than specific target binding.",
article = nil,
aliases = { "PAINS", "PAINS filter", "Pan-Assay Interference Compounds", "PAINS filters" },
es = "Conjunto de filtros basados en subestructuras que identifican Pan-Assay Interference Compounds —moléculas que tienden a dar falsos positivos en múltiples bioensayos por reactividad, agregación o interferencia con el ensayo, más que por unión específica a la diana.",
zh = "基于子结构的过滤规则集,用于识别 Pan-Assay Interference Compounds(泛筛选干扰化合物),即因反应性、聚集或干扰检测而非特异性结合靶点而在多种生物测定中产生假阳性的分子。",
term_es = "filtro PAINS",
term_zh = "PAINS 过滤器",
aliases_es = { "PAINS", "filtros PAINS", "compuestos de interferencia pan-ensayo" },
aliases_zh = { "PAINS", "PAINS 过滤", "泛筛选干扰化合物过滤器" },
}
data["paired-end sequencing"] = {
short = "A short-read sequencing strategy in which both ends of each DNA fragment are sequenced, yielding two reads of known relative orientation and approximate insert size that improve mapping accuracy and structural variant detection.",
article = nil,
aliases = { "paired end sequencing", "paired-end reads", "PE sequencing", "PE reads", "paired-end" },
es = "Estrategia de secuenciación de lecturas cortas en la que se secuencian ambos extremos de cada fragmento de ADN, generando dos lecturas con orientación relativa conocida y tamaño de inserto aproximado, lo que mejora la precisión del mapeo y la detección de variantes estructurales.",
zh = "一种短读长测序策略,对每个 DNA 片段的两端分别进行测序,得到两条相对方向已知、插入片段长度大致已知的读段,可显著提高比对准确性和结构变异检测能力。",
term_es = "secuenciación de extremos pareados",
term_zh = "双端测序",
aliases_es = { "secuenciación paired-end", "lecturas paired-end", "lecturas de extremos pareados", "secuenciación PE", "lecturas PE" },
aliases_zh = { "双端测序", "配对末端测序", "paired-end 测序", "双端读段", "PE 测序", "PE 读段" },
}
data["pairformer"] = {
short = "The transformer-style trunk introduced in AlphaFold 3 that operates on pairwise residue and token representations without an explicit MSA stack, replacing the Evoformer used in AlphaFold 2.",
article = nil,
aliases = { "Pairformer" },
es = "Tronco de tipo transformer introducido en AlphaFold 3 que opera sobre representaciones por pares de residuos y tokens sin una pila explícita de MSA, sustituyendo al Evoformer empleado en AlphaFold 2.",
zh = "AlphaFold 3 引入的 Transformer 主干结构,直接在残基/令牌的成对表示上运算,不再使用显式的多序列比对栈,从而替代了 AlphaFold 2 中的 Evoformer。",
term_es = "Pairformer",
term_zh = "Pairformer",
aliases_es = { "Pairformer" },
aliases_zh = { "Pairformer" },
}
data["pairwise judge"] = {
short = "An LLM-as-a-judge setup that compares two candidate responses to the same prompt and outputs which one is better, used for evaluation and for collecting preference data at scale.",
article = nil,
aliases = { "pairwise LLM judge", "pairwise comparison judge", "LLM pairwise judge" },
es = "Configuración de LLM como juez en la que se comparan dos respuestas candidatas al mismo prompt y se decide cuál es mejor; se utiliza para evaluación automatizada y para recopilar datos de preferencia a gran escala.",
zh = "一种以大语言模型作为评判者的设置,对同一提示的两个候选回答进行成对比较并选出更优者,常用于自动化评测和大规模偏好数据收集。",
term_es = "juez por pares",
term_zh = "成对评判器",
aliases_es = { "juez pairwise", "juez LLM por pares" },
aliases_zh = { "成对评判模型", "成对裁判", "pairwise judge" },
}
data["pairwise preference"] = {
short = "A preference-data format consisting of pairs (chosen, rejected) over the same prompt, supplied to algorithms such as RLHF reward modeling, DPO, or IPO to align language models with human preferences.",
article = nil,
aliases = { "pairwise preferences", "pairwise preference data", "preference pair", "pairwise comparison" },
es = "Formato de datos de preferencia compuesto por pares (preferido, rechazado) sobre un mismo prompt, utilizado por algoritmos como el modelado de recompensa en RLHF, DPO o IPO para alinear modelos de lenguaje con las preferencias humanas.",
zh = "由对同一提示的(优选, 劣选)对组成的偏好数据格式,常用于 RLHF 奖励建模、DPO、IPO 等算法,以将语言模型与人类偏好对齐。",
term_es = "preferencias por pares",
term_zh = "成对偏好",
aliases_es = { "preferencia por pares", "datos de preferencia por pares", "par de preferencia" },
aliases_zh = { "成对偏好数据", "偏好对", "pairwise preference" },
}
data["pal"] = {
short = "Program-Aided Language model: a prompting approach where a large language model generates Python code as intermediate reasoning steps, which are executed by an interpreter to produce the final answer.",
article = nil,
aliases = { "PAL", "Program-Aided Language model", "Program Aided Language Models", "program-aided language models" },
es = "Program-Aided Language model: un enfoque de prompting en el que un modelo de lenguaje grande genera código Python como pasos intermedios de razonamiento, que son ejecutados por un intérprete para producir la respuesta final.",
zh = "程序辅助语言模型(PAL):一种提示方法,让大语言模型生成 Python 代码作为中间推理步骤,再由解释器执行以产生最终答案。",
term_es = "PAL",
term_zh = "PAL",
aliases_es = { "PAL", "modelo de lenguaje asistido por programas" },
aliases_zh = { "PAL", "程序辅助语言模型" },
}
data["palantir trajectory"] = {
short = "An algorithm for inferring single-cell differentiation trajectories from scRNA-seq data that models cell fate decisions as a Markov chain over a diffusion-map embedding, yielding pseudotime, terminal-state probabilities, and gene expression dynamics.",
article = nil,
aliases = { "Palantir", "Palantir algorithm", "palantir pseudotime" },
es = "Algoritmo para inferir trayectorias de diferenciación celular a partir de scRNA-seq que modela las decisiones de destino celular como una cadena de Markov sobre un embedding de mapa de difusión, produciendo pseudotiempo y probabilidades de estados terminales.",
zh = "一种从单细胞 RNA 测序数据推断分化轨迹的算法,将细胞命运决策建模为扩散映射嵌入上的马尔可夫链,输出伪时间、末端状态概率和基因表达动态。",
term_es = "Palantir",
term_zh = "Palantir",
aliases_es = { "Palantir", "algoritmo Palantir" },
aliases_zh = { "Palantir 算法" },
}
data["paligemma"] = {
short = "A family of small open vision-language models from Google DeepMind that combines a SigLIP image encoder with a Gemma decoder, designed to be fine-tuned on downstream multimodal tasks.",
article = nil,
aliases = { "PaliGemma", "PaliGemma 2" },
es = "Familia de modelos abiertos pequeños de visión y lenguaje de Google DeepMind que combina un codificador de imagen SigLIP con un decodificador Gemma, diseñada para ajuste fino en tareas multimodales.",
zh = "Google DeepMind 推出的小型开源视觉-语言模型系列,结合 SigLIP 图像编码器与 Gemma 解码器,旨在针对下游多模态任务进行微调。",
term_es = "PaliGemma",
term_zh = "PaliGemma",
aliases_es = { "PaliGemma 2" },
aliases_zh = { "PaliGemma 2" },
}
data["palm 2"] = {
short = "Google's second-generation Pathways Language Model (announced 2023), a multilingual, reasoning- and coding-capable LLM that powered Bard and several Google products before being succeeded by Gemini.",
article = nil,
aliases = { "PaLM 2", "PaLM2", "Pathways Language Model 2" },
es = "Segunda generación del modelo de lenguaje Pathways de Google (anunciado en 2023), un LLM multilingüe con capacidades de razonamiento y programación que impulsó Bard y otros productos de Google antes de ser sustituido por Gemini.",
zh = "Google 于 2023 年发布的第二代 Pathways 语言模型,是一款支持多语言、推理与代码能力的大语言模型,曾驱动 Bard 等多款 Google 产品,后被 Gemini 系列取代。",
term_es = "PaLM 2",
term_zh = "PaLM 2",
aliases_es = { "PaLM2", "Pathways Language Model 2" },
aliases_zh = { "PaLM2", "Pathways 语言模型 2" },
}
data["pam matrix"] = {
short = "Point Accepted Mutation matrix; a family of amino-acid substitution scoring matrices derived by Margaret Dayhoff from observed substitutions in closely related proteins, used in sequence alignment.",
article = nil,
aliases = { "PAM matrix", "PAM", "Dayhoff matrix", "point accepted mutation matrix", "PAM250", "PAM120" },
es = "Matriz de mutación puntual aceptada; familia de matrices de puntuación de sustitución de aminoácidos derivada por Margaret Dayhoff a partir de sustituciones observadas en proteínas estrechamente relacionadas.",
zh = "点接受突变矩阵;由 Margaret Dayhoff 从近缘蛋白质中观察到的替换推导出的氨基酸替换打分矩阵系列,用于序列比对。",
term_es = "matriz PAM",
term_zh = "PAM 矩阵",
aliases_es = { "PAM", "matriz de Dayhoff", "matriz de mutación puntual aceptada" },
aliases_zh = { "PAM", "Dayhoff 矩阵", "点接受突变矩阵" },
}
data["paml"] = {
short = "Phylogenetic Analysis by Maximum Likelihood; a software package by Ziheng Yang for fitting codon, amino-acid, and nucleotide substitution models to sequence alignments and detecting positive selection (e.g. dN/dS via codeml).",
article = nil,
aliases = { "PAML", "Phylogenetic Analysis by Maximum Likelihood", "codeml" },
es = "Análisis Filogenético por Máxima Verosimilitud; paquete de software de Ziheng Yang para ajustar modelos de sustitución de codones, aminoácidos y nucleótidos a alineamientos de secuencias y detectar selección positiva.",
zh = "最大似然系统发育分析(PAML);由杨子恒开发的软件包,用于将密码子、氨基酸和核苷酸替换模型拟合到序列比对,并检测正向选择(如通过 codeml 计算 dN/dS)。",
term_es = "PAML",
term_zh = "PAML",
aliases_es = { "PAML", "codeml" },
aliases_zh = { "PAML", "codeml" },
}
data["pampa assay"] = {
short = "A Parallel Artificial Membrane Permeability Assay — an in vitro test that measures passive transcellular permeability of compounds across an artificial lipid membrane, used as an early ADME filter for oral absorption potential.",
article = nil,
aliases = { "PAMPA", "PAMPA assay", "Parallel Artificial Membrane Permeability Assay" },
es = "Parallel Artificial Membrane Permeability Assay — ensayo in vitro que mide la permeabilidad transcelular pasiva de compuestos a través de una membrana lipídica artificial, utilizado como filtro temprano de ADME para evaluar el potencial de absorción oral.",
zh = "Parallel Artificial Membrane Permeability Assay,一种体外实验,通过人工脂质膜测量化合物的被动跨细胞渗透性,在 ADME 评估早期用于筛选口服吸收潜力。",
term_es = "ensayo PAMPA",
term_zh = "PAMPA 实验",
aliases_es = { "PAMPA", "ensayo de permeabilidad PAMPA" },
aliases_zh = { "PAMPA", "平行人工膜渗透性实验", "PAMPA 测定" },
}
data["pan-privacy"] = {
short = "A privacy notion in which an algorithm's internal state, as well as its outputs, must satisfy differential privacy, so that an adversary who observes the state at any point cannot infer individual contributions.",
article = nil,
aliases = { "pan-private", "pan-private algorithm", "pan-privacy under continual observation" },
es = "Noción de privacidad en la que tanto el estado interno de un algoritmo como sus salidas deben satisfacer privacidad diferencial, de forma que un adversario que observe el estado en cualquier momento no pueda inferir aportaciones individuales.",
zh = "一种隐私概念:要求算法的内部状态以及输出都满足差分隐私,使得在任意时刻观测到状态的敌手都无法推断出个体的贡献。",
term_es = "pan-privacidad",
term_zh = "全程隐私",
aliases_es = { "pan-privacy", "pan-privado", "algoritmo pan-privado", "pan-privacidad bajo observación continua" },
aliases_zh = { "pan-privacy", "泛隐私", "全程差分隐私", "持续观测下的全程隐私" },
}
data["panda-70m"] = {
short = "A large-scale video-text dataset of about 70 million high-quality video clips paired with captions, generated by automatically segmenting and recaptioning HD-VILA-100M for video-language pretraining.",
article = nil,
aliases = { "Panda-70M", "Panda 70M" },
es = "Conjunto de datos de video y texto a gran escala con unos 70 millones de clips de alta calidad emparejados con subtítulos, generado segmentando y reescribiendo automáticamente HD-VILA-100M para preentrenamiento video-lenguaje.",
zh = "包含约 7000 万对高质量视频片段与字幕的大规模视频-文本数据集,通过对 HD-VILA-100M 自动切分并重新生成字幕得到,用于视频-语言预训练。",
term_es = "Panda-70M",
term_zh = "Panda-70M",
aliases_es = { "Panda 70M" },
aliases_zh = { "Panda 70M" },
}
data["pandagpt"] = {
short = "A multimodal large language model that connects the ImageBind joint embedding space to a Vicuna language model, enabling instruction following over six modalities including image, audio, video, depth, thermal, and IMU data.",
article = nil,
aliases = { "PandaGPT", "Panda-GPT", "Panda GPT" },
es = "Modelo multimodal de lenguaje de gran escala que conecta el espacio de embeddings conjunto de ImageBind con un modelo Vicuna, permitiendo seguir instrucciones sobre seis modalidades: imagen, audio, vídeo, profundidad, infrarrojo e IMU.",
zh = "将 ImageBind 的联合嵌入空间与 Vicuna 语言模型相连的多模态大语言模型,可在图像、音频、视频、深度、热成像和 IMU 等六种模态上跟随指令。",
term_es = "PandaGPT",
term_zh = "PandaGPT",
aliases_es = { "Panda-GPT" },
aliases_zh = { "Panda-GPT" },
}
data["pangenome"] = {
short = "The full set of genes and genomic sequences present across all individuals or strains of a species, comprising the core genome (shared by all) and the accessory genome (present in subsets).",
article = nil,
aliases = { "pan-genome", "pan genome", "pangenomics" },
es = "Conjunto completo de genes y secuencias genómicas presentes en todos los individuos o cepas de una especie, que comprende el genoma central (compartido por todos) y el genoma accesorio (presente en subconjuntos).",
zh = "一个物种所有个体或菌株中存在的全部基因和基因组序列的集合,包括核心基因组(所有个体共有)和辅助基因组(仅存在于部分个体)。",
term_es = "pangenoma",
term_zh = "泛基因组",
aliases_es = { "pan-genoma", "pangenómica" },
aliases_zh = { "泛基因组学", "pan-genome" },
}
data["panns"] = {
short = "Pretrained Audio Neural Networks: a family of large CNN models trained on AudioSet for general-purpose audio tagging, providing strong feature extractors and baselines for downstream sound recognition tasks.",
article = nil,
aliases = { "PANNs", "Pretrained Audio Neural Networks", "PANN", "PANNs CNN14" },
es = "Pretrained Audio Neural Networks: familia de modelos CNN grandes entrenados en AudioSet para etiquetado de audio de propósito general, que proporcionan extractores de características y referencias sólidas para tareas posteriores de reconocimiento de sonido.",
zh = "Pretrained Audio Neural Networks,一组在 AudioSet 上训练的大型 CNN 模型,用于通用音频标注,可作为下游声音识别任务的强特征提取器与基线。",
term_es = "PANNs",
term_zh = "PANNs",
aliases_es = { "PANNs", "redes neuronales de audio preentrenadas" },
aliases_zh = { "PANNs", "预训练音频神经网络", "PANNs CNN14" },
}
data["panoptic segmentation"] = {
short = "A computer vision task that unifies semantic and instance segmentation by assigning every pixel both a class label and, for countable object classes, an instance identifier.",
article = nil,
aliases = { "panoptic" },
es = "Tarea de visión por computadora que unifica la segmentación semántica y la de instancias asignando a cada píxel tanto una etiqueta de clase como, para clases de objetos contables, un identificador de instancia.",
zh = "一项计算机视觉任务,将语义分割与实例分割统一,为每个像素分配一个类别标签,并对可数物体类别额外分配一个实例标识符。",
term_es = "segmentación panóptica",
term_zh = "全景分割",
aliases_es = { "panóptica" },
aliases_zh = { "panoptic segmentation" },
}
data["paragraph captioning"] = {
short = "An image captioning task in which the model generates a multi-sentence paragraph describing an image in detail, capturing objects, attributes, and their interactions instead of a single short caption.",
article = nil,
aliases = { "paragraph captioning", "image paragraph captioning", "dense paragraph captioning", "long-form image captioning" },
es = "Tarea de descripción de imágenes en la que el modelo genera un párrafo de varias oraciones que describe la imagen con detalle, recogiendo objetos, atributos e interacciones en lugar de una sola frase breve.",
zh = "一种图像字幕生成任务:模型为一张图像生成由多句组成的段落,对其中的物体、属性及相互关系进行细致描述,而不是仅给出一句简短字幕。",
term_es = "descripción en párrafo de imágenes",
term_zh = "图像段落描述",
aliases_es = { "image paragraph captioning", "subtitulado en párrafo" },
aliases_zh = { "段落式图像描述", "image paragraph captioning" },
}
data["paragraph vectors"] = {
short = "An unsupervised method (also known as doc2vec) that learns fixed-length distributed representations for variable-length texts by training a model to predict words from a paragraph identifier and surrounding context.",
article = nil,
aliases = { "paragraph vector", "Paragraph Vector", "doc2vec", "Doc2Vec", "PV-DM", "PV-DBOW" },
es = "Método no supervisado (también conocido como doc2vec) que aprende representaciones distribuidas de longitud fija para textos de longitud variable, entrenando un modelo para predecir palabras a partir de un identificador de párrafo y su contexto.",
zh = "一种无监督方法(也称 doc2vec),通过训练模型基于段落标识符和上下文预测词,从而为变长文本学习固定长度的分布式表示。",
term_es = "paragraph vectors",
term_zh = "段落向量",
aliases_es = { "vectores de párrafo", "doc2vec", "Paragraph Vector" },
aliases_zh = { "doc2vec", "Paragraph Vector", "paragraph vectors" },
}
data["parakeet asr"] = {
short = "A family of NVIDIA NeMo speech recognition models combining FastConformer encoders with CTC, RNN-T or transducer decoders, designed for high-accuracy, GPU-efficient transcription.",
article = nil,
aliases = { "Parakeet", "Parakeet ASR", "NVIDIA Parakeet", "Parakeet RNN-T", "Parakeet CTC" },
es = "Familia de modelos de reconocimiento de voz de NVIDIA NeMo que combina codificadores FastConformer con decodificadores CTC, RNN-T o transductor, diseñada para transcripción de alta precisión y eficiente en GPU.",
zh = "NVIDIA NeMo 推出的一系列语音识别模型,将 FastConformer 编码器与 CTC、RNN-T 或转换器解码器结合,专为高精度且 GPU 高效的转录而设计。",
term_es = "Parakeet ASR",
term_zh = "Parakeet ASR",
aliases_es = { "Parakeet", "NVIDIA Parakeet", "modelos Parakeet" },
aliases_zh = { "Parakeet", "NVIDIA Parakeet", "Parakeet 语音识别" },
}
data["parallel bayesian optimization"] = {
short = "Bayesian optimization variants that propose batches of points to evaluate in parallel each iteration, using strategies such as Kriging Believer, q-EI, Thompson sampling, or constant-liar to balance exploration across the batch.",
article = nil,
aliases = { "batch Bayesian optimization", "parallel BO", "batch BO", "asynchronous Bayesian optimization" },
es = "Variantes de optimización bayesiana que proponen lotes de puntos a evaluar en paralelo en cada iteración, usando estrategias como Kriging Believer, q-EI, muestreo de Thompson o constant-liar para equilibrar la exploración dentro del lote.",
zh = "贝叶斯优化的并行变体,在每次迭代中提议一批待评估点,采用 Kriging Believer、q-EI、Thompson 采样或 constant-liar 等策略以在批内平衡探索。",
term_es = "optimización bayesiana paralela",
term_zh = "并行贝叶斯优化",
aliases_es = { "BO paralela", "BO por lotes", "optimización bayesiana por lotes" },
aliases_zh = { "批量贝叶斯优化", "异步贝叶斯优化", "并行 BO" },
}
data["parallel tacotron"] = {
short = "A non-autoregressive text-to-speech model from Google that uses a duration predictor and an iterative refinement decoder with self-attention to generate mel-spectrograms in parallel, removing Tacotron's recurrent decoder.",
article = nil,
aliases = { "Parallel Tacotron", "Parallel Tacotron 2", "parallel-tacotron" },
es = "Modelo de síntesis de voz no autorregresivo de Google que utiliza un predictor de duración y un decodificador de refinamiento iterativo con autoatención para generar mel-espectrogramas en paralelo, eliminando el decodificador recurrente de Tacotron.",
zh = "Google 提出的非自回归文本转语音模型,使用时长预测器和带自注意力的迭代细化解码器并行生成梅尔频谱,去除了 Tacotron 的循环解码器。",
term_es = "Parallel Tacotron",
term_zh = "Parallel Tacotron",
aliases_es = { "Parallel Tacotron", "Parallel Tacotron 2", "Tacotron paralelo" },
aliases_zh = { "Parallel Tacotron", "Parallel Tacotron 2", "并行 Tacotron" },
}
data["parallel tempering"] = {
short = "An MCMC algorithm that runs several chains at different temperatures in parallel and proposes swaps between adjacent chains, improving mixing on multimodal posterior distributions.",
article = nil,
aliases = { "replica exchange", "replica exchange MCMC", "PT", "tempered transitions" },
es = "Algoritmo MCMC que ejecuta varias cadenas a distintas temperaturas en paralelo y propone intercambios entre cadenas adyacentes, mejorando el mezclado en distribuciones posteriores multimodales.",
zh = "一种MCMC算法,并行运行若干不同温度的链并在相邻链之间提议交换,从而改善多模后验分布上的混合性。",
term_es = "templado paralelo",
term_zh = "并行回火",
aliases_es = { "intercambio de réplicas", "MCMC de intercambio de réplicas", "PT" },
aliases_zh = { "副本交换", "副本交换MCMC", "并行调温", "PT" },
}
data["parallel trends assumption"] = {
short = "The identifying assumption of difference-in-differences that, absent treatment, the average outcomes of the treated and control groups would have evolved along parallel trajectories over time.",
article = nil,
aliases = { "parallel-trends assumption", "common trends assumption", "DiD parallel trends", "no differential trends assumption" },
es = "Supuesto de identificación en diferencias-en-diferencias según el cual, en ausencia de tratamiento, los resultados medios de los grupos tratado y de control habrían evolucionado siguiendo trayectorias paralelas a lo largo del tiempo.",
zh = "差分差分(DiD)方法的识别假设:若无处理,处理组和对照组的平均结果会随时间沿着平行轨迹演变。",
term_es = "supuesto de tendencias paralelas",
term_zh = "平行趋势假设",
aliases_es = { "supuesto de tendencias comunes", "tendencias paralelas en DiD", "supuesto de ausencia de tendencias diferenciales" },
aliases_zh = { "共同趋势假设", "DiD 平行趋势", "无差异趋势假设" },
}
data["parallel wavegan"] = {
short = "A non-autoregressive GAN-based neural vocoder that generates waveforms in parallel using a WaveNet-style generator without dilated stacks plus a multi-resolution STFT loss combined with adversarial training.",
article = nil,
aliases = { "Parallel WaveGAN", "PWG", "parallel-wavegan", "parallel wave gan" },
es = "Vocoder neuronal basado en GAN no autorregresivo que genera formas de onda en paralelo usando un generador estilo WaveNet sin pilas dilatadas junto con una pérdida STFT multirresolución combinada con entrenamiento adversarial.",
zh = "一种基于 GAN 的非自回归神经声码器,使用无扩张堆叠的 WaveNet 风格生成器并行生成波形,并将多分辨率 STFT 损失与对抗训练相结合。",
term_es = "Parallel WaveGAN",
term_zh = "Parallel WaveGAN",
aliases_es = { "Parallel WaveGAN", "PWG", "WaveGAN paralelo" },
aliases_zh = { "Parallel WaveGAN", "PWG", "并行 WaveGAN" },
}
data["parameter server"] = {
short = "A distributed training architecture in which one or more server nodes store and update the global model parameters, while worker nodes pull parameters, compute gradients on local data, and push updates back to the servers.",
article = nil,
aliases = { "PS", "parameter-server architecture", "PS architecture", "PS framework" },
es = "Arquitectura de entrenamiento distribuido en la que uno o varios nodos servidor almacenan y actualizan los parámetros del modelo global, mientras los nodos trabajadores los obtienen, calculan gradientes con sus datos locales y envían las actualizaciones de vuelta a los servidores.",
zh = "一种分布式训练架构:由一个或多个服务器节点存储并更新全局模型参数,工作节点从中拉取参数、在本地数据上计算梯度,并将更新回推给服务器。",
term_es = "servidor de parámetros",
term_zh = "参数服务器",
aliases_es = { "PS", "arquitectura de servidor de parámetros", "arquitectura PS", "framework de servidor de parámetros" },
aliases_zh = { "PS", "参数服务器架构", "PS 架构", "参数服务器框架" },
}
data["parameter-efficient fine-tuning"] = {
short = "A family of fine-tuning techniques (e.g., LoRA, adapters, prefix tuning, BitFit, IA3) that update only a small fraction of a pretrained model's parameters while keeping the rest frozen, drastically reducing memory and storage costs.",
article = nil,
aliases = { "PEFT", "parameter efficient fine-tuning", "parameter-efficient finetuning", "PEFT methods" },
es = "Familia de técnicas de ajuste fino (por ejemplo, LoRA, adaptadores, prefix tuning, BitFit, IA3) que actualizan solo una pequeña fracción de los parámetros de un modelo preentrenado manteniendo el resto congelado, reduciendo drásticamente los costes de memoria y almacenamiento.",
zh = "一类微调技术(如 LoRA、适配器、prefix tuning、BitFit、IA3 等),仅更新预训练模型的一小部分参数,其余保持冻结,从而大幅降低显存和存储成本。",
term_es = "ajuste fino eficiente en parámetros",
term_zh = "参数高效微调",
aliases_es = { "PEFT", "fine-tuning eficiente en parámetros", "métodos PEFT" },
aliases_zh = { "PEFT", "高效参数微调", "参数高效调优" },
}
data["parametric g-formula"] = {
short = "A parametric implementation of Robins's g-computation for estimating the effects of time-varying treatments by fitting parametric models for the joint distribution of time-varying covariates and outcomes and then simulating outcomes under hypothetical treatment regimes.",
article = nil,
aliases = { "parametric g-computation", "g-formula", "Robins g-formula", "parametric g formula" },
es = "Implementación paramétrica de la fórmula g de Robins para estimar el efecto de tratamientos variables en el tiempo, ajustando modelos paramétricos para covariables y resultados a lo largo del tiempo y simulando los resultados bajo regímenes hipotéticos.",
zh = "Robins 的 g 公式的参数化实现:对随时间变化的协变量与结局拟合参数模型,然后在假设的处理方案下进行模拟,以估计时变处理的因果效应。",
term_es = "fórmula g paramétrica",
term_zh = "参数化 g 公式",
aliases_es = { "g-fórmula paramétrica", "g-computación paramétrica" },
aliases_zh = { "参数 g 公式", "参数化 g 计算" },
}
data["parametric relu"] = {
short = "A Leaky ReLU in which the negative-side slope α is a learnable parameter (often shared per channel) trained jointly with the network weights. Introduced by He et al. for ImageNet classification.",
article = nil,
aliases = { "PReLU", "parametric ReLU", "parametric rectified linear unit" },
es = "Una Leaky ReLU en la que la pendiente del lado negativo α es un parámetro aprendible (a menudo compartido por canal) entrenado conjuntamente con los pesos de la red. Introducida por He et al. para clasificación en ImageNet.",
zh = "Leaky ReLU 的扩展,其负侧斜率 α 是与网络权重联合训练的可学习参数(通常按通道共享)。由何恺明等人针对 ImageNet 分类提出。",
term_es = "PReLU",
term_zh = "PReLU",
aliases_es = { "ReLU paramétrica", "unidad lineal rectificada paramétrica" },
aliases_zh = { "参数化 ReLU", "可学习 ReLU", "参数线性整流单元" },
}
data["paratope prediction"] = {
short = "The computational task of predicting which antibody residues — typically in the complementarity-determining regions — directly contact the antigen, used to guide antibody engineering and to complement epitope prediction.",
article = nil,
aliases = { "paratope prediction" },
es = "Tarea computacional consistente en predecir qué residuos del anticuerpo —habitualmente en las regiones determinantes de complementariedad— contactan directamente con el antígeno, utilizada para guiar la ingeniería de anticuerpos y complementar la predicción de epítopos.",
zh = "一项计算任务,预测抗体中(通常位于互补决定区)直接与抗原接触的残基,用于指导抗体工程并与表位预测互补。",
term_es = "predicción de paratopo",
term_zh = "互补位预测",
aliases_es = { "predicción de paratope", "predicción del paratopo" },
aliases_zh = { "抗体结合位点预测", "paratope 预测" },
}
data["parego"] = {
short = "Multi-objective Bayesian optimization algorithm that scalarizes objectives at each iteration with a randomly drawn augmented Tchebycheff weight vector and runs single-objective EGO on the resulting scalar problem to approximate the Pareto front.",
article = nil,
aliases = { "ParEGO", "Pareto EGO", "Pareto Efficient Global Optimization" },
es = "Algoritmo de optimización bayesiana multiobjetivo que escalariza los objetivos en cada iteración con un vector de pesos de Tchebycheff aumentado tomado al azar y ejecuta EGO mono-objetivo sobre el problema escalar resultante para aproximar el frente de Pareto.",
zh = "多目标贝叶斯优化算法,每次迭代用随机抽取的增广 Tchebycheff 权向量将目标标量化,然后对得到的单目标问题运行 EGO,从而逼近 Pareto 前沿。",
term_es = "ParEGO",
term_zh = "ParEGO",
aliases_es = { "EGO de Pareto" },
aliases_zh = { "ParEGO 算法", "Pareto EGO" },
}
data["pareto front"] = {
short = "The set of non-dominated solutions in a multi-objective optimization problem, where no solution can improve on one objective without degrading another. Used in NAS to balance accuracy versus latency, size, or energy.",
article = nil,
aliases = { "Pareto front", "Pareto frontier", "Pareto-optimal front", "pareto frontier" },
es = "Conjunto de soluciones no dominadas en un problema de optimización multiobjetivo, donde ninguna solución puede mejorar en un objetivo sin empeorar otro. En NAS equilibra precisión frente a latencia, tamaño o energía.",
zh = "多目标优化问题中所有非支配解构成的集合,无法在不损害其他目标的情况下改进任何一个目标。神经架构搜索中用于权衡精度与延迟、规模或能耗。",
term_es = "frente de Pareto",
term_zh = "帕累托前沿",
aliases_es = { "frontera de Pareto", "frente de Pareto" },
aliases_zh = { "帕累托前沿", "帕累托前沿面", "Pareto 前沿" },
}
data["pareto-optimal nas"] = {
short = "A neural architecture search formulation that seeks architectures lying on the Pareto front of multiple competing objectives, such as accuracy, latency, memory, and energy, instead of optimizing a single scalar metric.",
article = nil,
aliases = { "Pareto-optimal NAS", "Pareto NAS", "multi-objective NAS", "Pareto-optimal neural architecture search" },
es = "Formulación de búsqueda de arquitecturas neuronales que busca arquitecturas situadas en el frente de Pareto de múltiples objetivos en conflicto, como precisión, latencia, memoria y energía, en lugar de optimizar una sola métrica escalar.",
zh = "一种神经架构搜索形式,针对精度、延迟、内存和能耗等多个相互冲突的目标,搜索位于帕累托前沿上的架构,而不是优化单一标量指标。",
term_es = "NAS Pareto-óptimo",
term_zh = "帕累托最优 NAS",
aliases_es = { "NAS multiobjetivo", "búsqueda multiobjetivo de arquitecturas" },
aliases_zh = { "帕累托最优神经架构搜索", "多目标 NAS" },
}
data["parler-tts"] = {
short = "An open-source text-to-speech model from Hugging Face that generates speech in a target voice, emotion, and style described by a free-text natural-language description, trained on annotated speech corpora.",
article = nil,
aliases = { "Parler-TTS", "Parler TTS" },
es = "Modelo de texto a voz de código abierto de Hugging Face que genera habla con la voz, emoción y estilo descritos mediante una descripción en lenguaje natural, entrenado sobre corpus de habla anotados.",
zh = "Hugging Face 推出的开源文本转语音模型,可根据自由文本的自然语言描述生成具有指定音色、情绪与风格的语音,训练数据为带标注的语音语料。",
term_es = "Parler-TTS",
term_zh = "Parler-TTS",
aliases_es = { "Parler TTS" },
aliases_zh = { "Parler TTS" },
}
data["part-of-speech tagging"] = {
short = "An NLP task that assigns to each token in a sentence its grammatical category (noun, verb, adjective, etc.), typically modeled as sequence labeling over a tag set such as the Penn Treebank or Universal POS tags.",
article = nil,
aliases = { "POS tagging", "POS-tagging", "part of speech tagging", "Part-of-Speech Tagging", "POS", "grammatical tagging" },
es = "Tarea de PLN que asigna a cada token de una oración su categoría gramatical (sustantivo, verbo, adjetivo, etc.), modelada típicamente como etiquetado de secuencias sobre un conjunto de etiquetas como Penn Treebank o las Universal POS.",
zh = "一项自然语言处理任务,为句子中的每个 token 分配其语法类别(名词、动词、形容词等),通常以序列标注的方式建模,使用 Penn Treebank 或 Universal POS 等标签集。",
term_es = "etiquetado morfosintáctico",
term_zh = "词性标注",
aliases_es = { "POS tagging", "etiquetado POS", "etiquetado gramatical", "etiquetado de partes del discurso" },
aliases_zh = { "POS tagging", "POS", "词类标注", "语法标注" },
}
data["parti"] = {
short = "Pathways Autoregressive Text-to-Image, a 2022 Google text-to-image model that treats image generation as a sequence-to-sequence problem, autoregressively predicting discrete image tokens (from a ViT-VQGAN tokenizer) conditioned on text.",
article = nil,
aliases = { "Parti", "Pathways Autoregressive Text-to-Image", "Google Parti" },
es = "Pathways Autoregressive Text-to-Image, modelo texto-a-imagen de Google de 2022 que trata la generación de imágenes como un problema secuencia-a-secuencia, prediciendo de forma autorregresiva tokens de imagen discretos (de un tokenizador ViT-VQGAN) condicionados al texto.",
zh = "Pathways Autoregressive Text-to-Image,Google 于 2022 年提出的文本到图像模型,将图像生成视为序列到序列问题,以文本为条件自回归地预测离散图像标记(来自 ViT-VQGAN 分词器)。",
term_es = "Parti",
term_zh = "Parti",
aliases_es = { "Pathways Autoregressive Text-to-Image", "Parti de Google" },
aliases_zh = { "Parti 模型", "谷歌 Parti", "Pathways 自回归文本到图像" },
}
data["partial channel connection"] = {
short = "A technique used in differentiable architecture search (notably PC-DARTS) that samples only a fraction of channels to feed through candidate operations during the search, reducing memory and compute while regularizing the supernet.",
article = nil,
aliases = { "partial channel connections", "partial channel sampling", "PC connection" },
es = "Técnica empleada en la búsqueda diferenciable de arquitecturas (en particular PC-DARTS) que muestrea solo una fracción de canales para pasarlos por las operaciones candidatas durante la búsqueda, reduciendo memoria y cómputo y regularizando la supernet.",
zh = "可微架构搜索(尤其是 PC-DARTS)中使用的技术,在搜索过程中仅采样一部分通道送入候选操作,从而降低显存和计算量并对超网络起到正则化作用。",
term_es = "conexión parcial de canales",
term_zh = "部分通道连接",
aliases_es = { "muestreo parcial de canales" },
aliases_zh = { "部分通道采样", "通道部分连接" },
}
data["partial client participation"] = {
short = "In federated learning, the standard setting in which only a subset of available clients participates in each communication round, typically due to availability, energy, or scalability constraints.",
article = nil,
aliases = { "client subsampling", "partial participation", "client sampling", "subsampled clients" },
es = "En aprendizaje federado, el escenario estándar en el que solo un subconjunto de los clientes disponibles participa en cada ronda de comunicación, normalmente por restricciones de disponibilidad, energía o escalabilidad.",
zh = "在联邦学习中常见的设置:每一轮通信只有可用客户端的一个子集参与,通常受限于可用性、能耗或可扩展性。",
term_es = "participación parcial de clientes",
term_zh = "部分客户端参与",
aliases_es = { "submuestreo de clientes", "participación parcial", "muestreo de clientes", "clientes submuestreados" },
aliases_zh = { "客户端子采样", "部分参与", "客户端采样", "子采样客户端" },
}
data["partial dependence plot"] = {
short = "A model-agnostic interpretability tool that shows the marginal effect of one or two input features on a model's predicted outcome by averaging predictions over the empirical distribution of the remaining features.",
article = nil,
aliases = { "PDP", "partial dependence plots", "partial-dependence plot", "PD plot" },
es = "Herramienta de interpretabilidad agnóstica al modelo que muestra el efecto marginal de una o dos características de entrada sobre la predicción del modelo, promediando las predicciones sobre la distribución empírica de las características restantes.",
zh = "一种与模型无关的可解释性工具,通过在其余特征的经验分布上对预测取平均,展示一个或两个输入特征对模型预测结果的边际效应。",
term_es = "gráfico de dependencia parcial",
term_zh = "部分依赖图",
aliases_es = { "PDP", "gráficos de dependencia parcial", "diagrama de dependencia parcial" },
aliases_zh = { "PDP", "偏依赖图", "部分依赖性图" },
}
data["partial identification"] = {
short = "A causal inference setting in which the available assumptions and data restrict the target estimand to a set or interval rather than a single point, yielding bounds (e.g., Manski bounds) instead of a unique value.",
article = nil,
aliases = { "set identification", "bounds analysis", "identification bounds" },
es = "Marco de inferencia causal en el que los supuestos y los datos solo restringen el estimando a un conjunto o intervalo en lugar de a un único valor, produciendo cotas (p. ej., cotas de Manski) en vez de una identificación puntual.",
zh = "因果推断中的一种情形:可用假设与数据只能将目标估计量限制在一个集合或区间内,而不能唯一确定其值,从而给出上下界(如 Manski 界)而非点识别。",
term_es = "identificación parcial",
term_zh = "部分识别",
aliases_es = { "identificación por conjuntos", "análisis de cotas" },
aliases_zh = { "集合识别", "界识别" },
}
data["partial interference"] = {
short = "An assumption that relaxes SUTVA by allowing interference between units within the same cluster or group while ruling it out across clusters, commonly used in cluster-randomized and network experiments.",
article = nil,
aliases = { "partial interference assumption", "within-cluster interference" },
es = "Supuesto que relaja SUTVA permitiendo interferencia entre unidades dentro del mismo grupo o conglomerado, pero no entre grupos; se utiliza con frecuencia en experimentos aleatorizados por conglomerados y en redes.",
zh = "对 SUTVA 的一种放宽:允许同一簇或组内的单位之间存在干扰,但禁止跨组之间的干扰,常用于簇随机化和网络实验中。",
term_es = "interferencia parcial",
term_zh = "部分干扰",
aliases_es = { "interferencia dentro del grupo", "interferencia intra-cluster" },
aliases_zh = { "组内干扰", "簇内干扰" },
}
data["partial participation analysis"] = {
short = "Theoretical analysis of federated learning algorithms under partial client participation, characterizing how subsampling clients each round affects convergence rates, variance, and bias of the global update.",
article = nil,
aliases = { "analysis under partial participation", "partial participation convergence analysis", "subsampled-client analysis" },
es = "Análisis teórico de los algoritmos de aprendizaje federado bajo participación parcial de clientes, caracterizando cómo el submuestreo de clientes en cada ronda afecta a las tasas de convergencia, la varianza y el sesgo de la actualización global.",
zh = "对部分客户端参与下联邦学习算法的理论分析,刻画每轮对客户端子采样如何影响全局更新的收敛速率、方差与偏差。",
term_es = "análisis con participación parcial",
term_zh = "部分参与分析",
aliases_es = { "análisis bajo participación parcial", "análisis de convergencia con participación parcial", "análisis con clientes submuestreados" },
aliases_zh = { "部分参与下的分析", "部分参与收敛分析", "子采样客户端分析" },
}
data["partialling out"] = {
short = "A regression technique, formalized by the Frisch–Waugh–Lovell theorem, in which treatment and outcome are first residualized on covariates and the causal coefficient is then estimated from the residuals; underlies double/debiased machine learning.",
article = nil,
aliases = { "partialling-out", "partialing out", "Frisch-Waugh-Lovell", "FWL", "residualization" },
es = "Técnica de regresión, formalizada por el teorema de Frisch–Waugh–Lovell, en la que el tratamiento y el resultado se residualizan primero respecto a las covariables y el coeficiente causal se estima a partir de los residuos; es la base del aprendizaje automático doble o desviado.",
zh = "一种回归技巧,由 Frisch–Waugh–Lovell 定理形式化:先将处理变量与结局对协变量回归取残差,再用残差估计因果系数;它是双重/去偏机器学习的基础。",
term_es = "residualización",
term_zh = "偏出处理",
aliases_es = { "extracción parcial", "Frisch-Waugh-Lovell" },
aliases_zh = { "残差化", "FWL 定理" },
}
data["partially homomorphic encryption"] = {
short = "A class of homomorphic encryption schemes that support unbounded operations of a single algebraic type (e.g. addition or multiplication) on ciphertexts, but not arbitrary computations.",
article = nil,
aliases = { "PHE", "partially-homomorphic encryption", "single-operation homomorphic encryption" },
es = "Clase de esquemas de cifrado homomórfico que soportan operaciones ilimitadas de un único tipo algebraico (por ejemplo, suma o multiplicación) sobre los textos cifrados, pero no cómputos arbitrarios.",
zh = "一类同态加密方案:在密文上支持某一种代数运算(例如加法或乘法)的无限次操作,但不支持任意计算。",
term_es = "cifrado parcialmente homomórfico",
term_zh = "部分同态加密",
aliases_es = { "PHE", "encriptación parcialmente homomórfica", "cifrado homomórfico de operación única" },
aliases_zh = { "PHE", "部分同态加密方案", "单运算同态加密" },
}
data["participatory design"] = {
short = "A design approach that actively involves the people affected by a system—users, workers, and impacted communities—as co-creators throughout the design process. Used in responsible AI to surface contextual values and harms.",
article = nil,
aliases = { "co-design", "cooperative design", "participatory ML design", "stakeholder co-design" },
es = "Enfoque de diseño que involucra activamente a las personas afectadas por un sistema —usuarios, trabajadores y comunidades impactadas— como cocreadoras a lo largo del proceso de diseño. Se emplea en IA responsable para visibilizar valores y daños contextuales.",
zh = "一种设计方法,在整个设计过程中将受系统影响的群体——用户、工作者和受影响的社区——作为共同创造者主动纳入。在负责任 AI 中用于揭示具体语境下的价值观与潜在伤害。",
term_es = "diseño participativo",
term_zh = "参与式设计",
aliases_es = { "co-diseño", "diseño cooperativo", "diseño participativo de ML" },
aliases_zh = { "共同设计", "合作式设计", "利益相关者共创设计" },
}
data["particle filter"] = {
short = "A sequential Monte Carlo method that approximates the posterior distribution of a state-space model with a weighted set of particles propagated through time via importance sampling and resampling.",
article = nil,
aliases = { "sequential Monte Carlo", "SMC", "bootstrap filter", "particle filtering" },
es = "Método secuencial de Monte Carlo que aproxima la distribución posterior de un modelo de espacio de estados mediante un conjunto ponderado de partículas, propagadas en el tiempo con muestreo por importancia y remuestreo.",
zh = "一种序贯蒙特卡洛方法,通过加权粒子集合近似状态空间模型的后验分布,并利用重要性采样和重采样在时间上传播。",
term_es = "filtro de partículas",
term_zh = "粒子滤波",
aliases_es = { "Monte Carlo secuencial", "SMC", "filtrado de partículas" },
aliases_zh = { "序贯蒙特卡洛", "SMC", "粒子滤波器" },
}
data["particle picking"] = {
short = "The cryo-EM image-processing step that identifies and extracts individual macromolecular projection images (particles) from raw micrographs prior to 2D classification and 3D reconstruction.",
article = nil,
aliases = { "cryo-EM particle picking", "automated particle picking" },
es = "Paso del procesamiento de imágenes de crio-EM que identifica y extrae proyecciones individuales de macromoléculas (partículas) a partir de micrografías brutas antes de la clasificación 2D y la reconstrucción 3D.",
zh = "冷冻电镜图像处理步骤,从原始显微图像中识别并提取单个大分子投影图像(颗粒),用于后续的二维分类和三维重构。",
term_es = "selección de partículas",
term_zh = "颗粒挑选",
aliases_es = { "picking de partículas", "selección automática de partículas" },
aliases_zh = { "粒子挑选", "自动颗粒挑选" },
}
data["particle swarm optimization"] = {
short = "A population-based metaheuristic that optimizes a function by moving candidate solutions (particles) through the search space according to their own best-known position and the swarm's global best. Used as a black-box hyperparameter and architecture optimizer.",
article = nil,
aliases = { "PSO", "particle-swarm optimization", "particle swarm optimisation" },
es = "Metaheurística basada en poblaciones que optimiza una función desplazando soluciones candidatas (partículas) por el espacio de búsqueda según su mejor posición conocida y el mejor global del enjambre. Se usa como optimizador de caja negra para hiperparámetros y arquitecturas.",
zh = "一种基于群体的元启发式优化方法,依据每个候选解(粒子)自身的历史最优位置和群体全局最优位置,在搜索空间中移动粒子以优化目标函数。常用作超参数和架构的黑箱优化器。",
term_es = "optimización por enjambre de partículas",
term_zh = "粒子群优化",
aliases_es = { "PSO", "optimización con enjambre de partículas" },
aliases_zh = { "PSO", "粒子群算法", "粒子群优化算法" },
}
data["particle-based variational inference"] = {
short = "A family of variational inference methods that represents the approximate posterior as a finite set of particles updated by deterministic dynamics, such as Stein variational gradient descent, rather than by a parametric family.",
article = nil,
aliases = { "particle VI", "ParVI", "particle variational inference" },
es = "Familia de métodos de inferencia variacional que representan la posterior aproximada como un conjunto finito de partículas actualizadas mediante dinámicas deterministas, como Stein variational gradient descent, en lugar de mediante una familia paramétrica.",
zh = "一类变分推断方法,通过有限粒子集合表示近似后验,并以确定性动力学(如 Stein 变分梯度下降)更新粒子,而非使用参数化分布族。",
term_es = "inferencia variacional basada en partículas",
term_zh = "基于粒子的变分推断",
aliases_es = { "ParVI", "VI por partículas" },
aliases_zh = { "粒子变分推断", "ParVI" },
}
data["partition shap"] = {
short = "A SHAP variant that, instead of treating features independently, recursively partitions input features into a hierarchy and computes Shapley values over groups, enabling tractable attribution for high-dimensional or correlated inputs such as images and text.",
article = nil,
aliases = { "PartitionSHAP", "Partition SHAP", "partition explainer", "hierarchical SHAP" },
es = "Variante de SHAP que, en lugar de tratar las características de forma independiente, las particiona recursivamente en una jerarquía y calcula valores de Shapley sobre grupos, lo que permite una atribución tratable para entradas de alta dimensión o correlacionadas como imágenes y texto.",
zh = "SHAP 的一种变体,不再独立处理各特征,而是将输入特征递归划分为层次结构并在分组上计算 Shapley 值,从而对图像、文本等高维或相关输入实现可计算的归因。",
term_es = "Partition SHAP",
term_zh = "Partition SHAP",
aliases_es = { "SHAP por particiones", "explicador por particiones", "SHAP jerárquico" },
aliases_zh = { "分区 SHAP", "分区解释器", "层次化 SHAP" },
}
data["pase"] = {
short = "Problem-Agnostic Speech Encoder, a self-supervised speech representation learning model that trains a single encoder by jointly solving multiple low-level workers (waveform reconstruction, MFCCs, prosody, etc.).",
article = nil,
aliases = { "PASE", "Problem-Agnostic Speech Encoder", "Problem Agnostic Speech Encoder" },
es = "Problem-Agnostic Speech Encoder, modelo autosupervisado de aprendizaje de representaciones del habla que entrena un único codificador resolviendo conjuntamente varias tareas de bajo nivel (reconstrucción de la forma de onda, MFCCs, prosodia, etc.).",
zh = "Problem-Agnostic Speech Encoder,一种自监督语音表示学习模型,通过同时求解多个低层任务(波形重建、MFCC、韵律等)训练单一编码器。",
term_es = "PASE",
term_zh = "PASE",
aliases_es = { "PASE", "codificador de voz independiente del problema" },
aliases_zh = { "PASE", "问题无关语音编码器" },
}
data["pase plus"] = {
short = "An extension of PASE that adds online speech distortions, more workers and quasi-recurrent layers to the encoder, yielding more robust self-supervised speech representations under noisy and reverberant conditions.",
article = nil,
aliases = { "PASE+", "PASE plus", "PASE-plus", "Problem-Agnostic Speech Encoder Plus" },
es = "Extensión de PASE que añade distorsiones de habla en línea, más tareas auxiliares y capas cuasi recurrentes al codificador, produciendo representaciones autosupervisadas del habla más robustas en condiciones ruidosas y reverberantes.",
zh = "PASE 的扩展版本,在编码器中加入在线语音失真、更多任务和准循环层,在噪声和混响条件下产生更鲁棒的自监督语音表示。",
term_es = "PASE+",
term_zh = "PASE+",
aliases_es = { "PASE+", "PASE plus", "PASE mejorado" },
aliases_zh = { "PASE+", "PASE plus", "改进版 PASE" },
}
data["pass at k"] = {
short = "A metric for code generation that estimates the probability that at least one of k sampled completions passes all unit tests for a problem; used to report HumanEval, MBPP, and similar benchmarks.",
article = nil,
aliases = { "pass@k", "pass at k", "pass-at-k", "pass@1", "pass@10", "pass@100" },
es = "Métrica para generación de código que estima la probabilidad de que al menos una de k muestras generadas pase todas las pruebas unitarias de un problema; se reporta en HumanEval, MBPP y benchmarks similares.",
zh = "一种用于代码生成的指标,估计在 k 个采样答案中至少有一个能通过该问题全部单元测试的概率;常用于 HumanEval、MBPP 等基准的报告。",
term_es = "pass@k",
term_zh = "pass@k",
aliases_es = { "pass@k", "pass@1", "pass@10" },
aliases_zh = { "pass@k", "pass@1", "pass@10" },
}
data["passenger mutation"] = {
short = "A somatic mutation that arises in a tumor but does not contribute to oncogenic transformation or clonal fitness, in contrast to driver mutations that confer a selective advantage.",
article = nil,
aliases = { "passenger mutations", "passenger variant" },
es = "Mutación somática que surge en un tumor pero no contribuye a la transformación oncogénica ni a la aptitud clonal, en contraste con las mutaciones conductoras que confieren ventaja selectiva.",
zh = "肿瘤中出现但不促进致癌转化或克隆适应度的体细胞突变,与赋予选择优势的驱动突变相对。",
term_es = "mutación pasajera",
term_zh = "乘客突变",
aliases_es = { "mutaciones pasajeras", "variante pasajera" },
aliases_zh = { "passenger 突变", "随从突变" },
}
data["patch attribution"] = {
short = "An attribution scheme for vision transformers and CNNs that assigns importance scores to image patches rather than individual pixels, aligning explanations with the model's tokenization or receptive-field structure.",
article = nil,
aliases = { "patch-level attribution", "patch importance", "patch saliency", "token attribution for vision" },
es = "Esquema de atribución para transformadores de visión y CNN que asigna puntuaciones de importancia a parches de la imagen en lugar de a píxeles individuales, alineando las explicaciones con la tokenización o la estructura de campos receptivos del modelo.",
zh = "面向视觉 Transformer 和 CNN 的归因方案,将重要性分数分配给图像 patch 而非单个像素,使解释与模型的分词或感受野结构相匹配。",
term_es = "atribución por parches",
term_zh = "图像块归因",
aliases_es = { "atribución a nivel de parche", "importancia de parches", "saliencia por parches" },
aliases_zh = { "patch 归因", "图像块重要性", "图像块显著性", "块级归因" },
}
data["patch-level alignment"] = {
short = "A vision-language training objective that aligns individual image patches or local regions with text tokens or phrases, providing finer-grained correspondence than global image-caption alignment.",
article = nil,
aliases = { "patch-level alignment", "patch level alignment", "patch-token alignment", "fine-grained patch alignment" },
es = "Objetivo de entrenamiento visión-lenguaje que alinea parches o regiones locales de la imagen con tokens o frases del texto, proporcionando una correspondencia más fina que la alineación global imagen-descripción.",
zh = "一种视觉-语言训练目标:将图像中的单个 patch 或局部区域与文本中的 token 或短语对齐,相比全局的图文对齐能提供更细粒度的对应关系。",
term_es = "alineación a nivel de parche",
term_zh = "patch 级对齐",
aliases_es = { "alineación parche-token", "patch-level alignment" },
aliases_zh = { "图像块级对齐", "patch-level alignment" },
}
data["path patching"] = {
short = "A mechanistic interpretability technique that intervenes on specific computational paths in a transformer — such as a residual-stream contribution from one attention head to another — by replacing them with activations from a counterfactual run, isolating which paths cause a behavior.",
article = nil,
aliases = { "path-patching", "causal path patching", "activation path patching" },
es = "Técnica de interpretabilidad mecanicista que interviene caminos computacionales específicos de un transformador — por ejemplo, la contribución del residual stream de una cabeza de atención a otra — reemplazándolos por activaciones de una ejecución contrafactual, lo que permite aislar qué caminos causan un comportamiento.",
zh = "一种机理可解释性技术,通过用反事实运行中的激活替换 Transformer 中特定计算路径(例如某个注意力头通过残差流对另一个头的贡献),从而分离出导致某行为的路径。",
term_es = "path patching",
term_zh = "路径补丁",
aliases_es = { "parcheo de caminos", "intervención por caminos", "path-patching causal" },
aliases_zh = { "路径修补", "路径替换", "因果路径补丁" },
}
data["path-specific effect"] = {
short = "In causal inference and counterfactual fairness, the effect of a sensitive attribute on an outcome that is transmitted through a specific subset of causal pathways, allowing some pathways to be deemed permissible and others discriminatory.",
article = nil,
aliases = { "path-specific causal effect", "PSE", "path-specific counterfactual effect" },
es = "En inferencia causal y equidad contrafactual, el efecto de un atributo sensible sobre un resultado que se transmite a través de un subconjunto específico de caminos causales, lo que permite considerar algunos caminos admisibles y otros discriminatorios.",
zh = "在因果推断与反事实公平中,敏感属性对结果的影响沿着某一特定因果路径子集传递的部分;据此可将某些路径视为可接受的,而将其他路径视为歧视性的。",
term_es = "efecto específico de la vía",
term_zh = "路径特定效应",
aliases_es = { "efecto causal específico de la vía", "efecto contrafactual específico de la vía", "PSE" },
aliases_zh = { "路径特定因果效应", "特定路径效应", "PSE" },
}
data["pathwise derivative"] = {
short = "A gradient estimator obtained by reparameterizing a stochastic variable as a deterministic transformation of a fixed-distribution noise source, allowing gradients to flow through the sampling operation.",
article = nil,
aliases = { "reparameterization gradient", "pathwise gradient estimator", "reparameterisation gradient" },
es = "Estimador de gradiente obtenido al reparametrizar una variable estocástica como una transformación determinista de un ruido con distribución fija, permitiendo que los gradientes atraviesen la operación de muestreo.",
zh = "一种梯度估计器,通过将随机变量重参数化为固定分布噪声的确定性变换,使梯度能够穿过采样操作传播。",
term_es = "derivada pathwise",
term_zh = "路径导数",
aliases_es = { "gradiente de reparametrización", "estimador pathwise" },
aliases_zh = { "重参数化梯度", "pathwise 梯度" },
}
data["pathwise gradient"] = {
short = "Synonym for the pathwise derivative estimator: a low-variance Monte Carlo gradient computed by differentiating through a reparameterized sample of a stochastic variable.",
article = nil,
aliases = { "pathwise gradient estimator", "reparameterization gradient", "reparam gradient" },
es = "Sinónimo del estimador de derivada pathwise: un gradiente de Monte Carlo de baja varianza calculado derivando a través de una muestra reparametrizada de una variable estocástica.",
zh = "路径导数估计器的同义词:通过对随机变量的重参数化样本求导得到的低方差蒙特卡洛梯度。",
term_es = "gradiente pathwise",
term_zh = "路径梯度",
aliases_es = { "estimador de gradiente pathwise", "gradiente de reparametrización" },
aliases_zh = { "pathwise 梯度", "重参数化梯度" },
}
data["pba"] = {
short = "Population Based Augmentation, an algorithm that learns a non-stationary schedule of data augmentation policies by training a population of child models with evolutionary hyperparameter search, much faster than AutoAugment.",
article = nil,
aliases = { "PBA", "Population Based Augmentation", "population-based augmentation" },
es = "Population Based Augmentation, algoritmo que aprende un calendario no estacionario de políticas de aumento de datos entrenando una población de modelos hijos con búsqueda evolutiva de hiperparámetros, mucho más rápido que AutoAugment.",
zh = "Population Based Augmentation,一种通过对子模型种群进行进化式超参数搜索来学习非平稳数据增强策略时间表的算法,速度远快于 AutoAugment。",
term_es = "PBA",
term_zh = "PBA",
aliases_es = { "Population Based Augmentation", "aumento basado en población" },
aliases_zh = { "Population Based Augmentation", "基于种群的数据增强" },
}
data["pc algorithm"] = {
short = "A constraint-based structure learning algorithm that recovers a causal DAG (up to its Markov equivalence class) from data by performing a sequence of conditional independence tests and orienting edges using collider rules.",
article = nil,
aliases = { "PC algorithm", "Peter-Clark algorithm", "Spirtes-Glymour algorithm" },
es = "Algoritmo de aprendizaje de estructura basado en restricciones que recupera un DAG causal (hasta su clase de equivalencia de Markov) a partir de datos, realizando una secuencia de pruebas de independencia condicional y orientando aristas mediante reglas de colisionadores.",
zh = "一种基于约束的因果结构学习算法:通过一系列条件独立性检验,并依据碰撞节点规则定向边,从数据中还原因果有向无环图(到其 Markov 等价类)。",
term_es = "algoritmo PC",
term_zh = "PC 算法",
aliases_es = { "algoritmo de Peter-Clark", "algoritmo PC de Spirtes-Glymour" },
aliases_zh = { "Peter-Clark 算法", "PC 结构学习算法" },
}
data["pc-darts"] = {
short = "Partially-Connected DARTS, a memory-efficient variant of differentiable architecture search that samples a subset of channels at each search step and adds edge normalization to stabilize the search.",
article = nil,
aliases = { "PC-DARTS", "Partially-Connected DARTS", "PC DARTS" },
es = "Partially-Connected DARTS, variante eficiente en memoria de la búsqueda diferenciable de arquitecturas que muestrea un subconjunto de canales en cada paso de búsqueda y añade normalización de aristas para estabilizar el proceso.",
zh = "Partially-Connected DARTS,可微架构搜索的显存高效变体,每个搜索步仅采样部分通道,并加入边归一化以稳定搜索过程。",
term_es = "PC-DARTS",
term_zh = "PC-DARTS",
aliases_es = { "DARTS parcialmente conectado" },
aliases_zh = { "部分连接 DARTS", "Partially-Connected DARTS" },
}
data["pcba"] = {
short = "PubChem BioAssay, a dataset of bioactivity measurements from over 400 high-throughput biological assays curated by the NIH, widely used as a multi-task benchmark for molecular property prediction.",
article = nil,
aliases = { "PCBA", "PubChem BioAssay", "PubChem BioAssay benchmark" },
es = "PubChem BioAssay: conjunto de datos con mediciones de actividad biológica de más de 400 ensayos de alto rendimiento curados por los NIH, ampliamente usado como referencia multitarea en la predicción de propiedades moleculares.",
zh = "PubChem BioAssay,包含 NIH 整理的 400 多个高通量生物测定的活性数据集,广泛用作分子性质预测中的多任务基准。",
term_es = "PCBA",
term_zh = "PCBA",
aliases_es = { "PubChem BioAssay" },
aliases_zh = { "PubChem BioAssay", "PubChem 生物活性数据集" },
}
data["pdb"] = {
short = "Protein Data Bank — both the worldwide repository of experimentally determined three-dimensional structures of biological macromolecules and the standard text-based file format used to distribute those structures.",
article = nil,
aliases = { "PDB", "Protein Data Bank", "PDB format", ".pdb format", "PDB file" },
es = "Protein Data Bank: tanto el repositorio mundial de estructuras tridimensionales de macromoléculas biológicas determinadas experimentalmente como el formato de archivo de texto estándar utilizado para distribuir dichas estructuras.",
zh = "蛋白质数据库(Protein Data Bank),既是全球收录实验测定的生物大分子三维结构的资源库,也是分发这些结构所用的标准文本文件格式。",
term_es = "PDB",
term_zh = "PDB",
aliases_es = { "Banco de Datos de Proteínas", "formato PDB" },
aliases_zh = { "蛋白质数据库", "PDB 格式" },
}
data["pdbbind"] = {
short = "A curated subset of the Protein Data Bank that pairs protein–ligand complexes with measured binding affinities, used as the standard benchmark for training and evaluating structure-based binding affinity prediction models.",
article = nil,
aliases = { "PDBbind", "PDBBind", "PDBbind database", "PDBbind benchmark" },
es = "Subconjunto curado del Protein Data Bank que asocia complejos proteína–ligando con afinidades de unión medidas; es el referente estándar para entrenar y evaluar modelos de predicción de afinidad basados en estructura.",
zh = "蛋白质数据库的精选子集,将蛋白–配体复合物与实验测定的结合亲和力配对,是基于结构的结合亲和力预测模型的标准基准。",
term_es = "PDBbind",
term_zh = "PDBbind",
aliases_es = { "base de datos PDBbind" },
aliases_zh = { "PDBbind 数据集" },
}
data["pdp ice combined"] = {
short = "A visualization that overlays a partial dependence plot (the average effect of a feature) on top of individual conditional expectation curves (the per-instance effects), letting analysts spot when the average masks heterogeneous behavior.",
article = nil,
aliases = { "PDP+ICE plot", "combined PDP and ICE plot", "ICE with PDP overlay", "PDP/ICE plot" },
es = "Visualización que superpone un gráfico de dependencia parcial (el efecto medio de una característica) sobre las curvas de expectativa condicional individual (los efectos por instancia), permitiendo detectar cuándo la media oculta comportamientos heterogéneos.",
zh = "一种可视化方式,将部分依赖图(特征的平均效应)叠加在个体条件期望曲线(逐样本效应)之上,便于发现平均效应掩盖了异质行为的情况。",
term_es = "PDP + ICE combinado",
term_zh = "PDP 与 ICE 合并图",
aliases_es = { "gráfico combinado PDP e ICE", "PDP/ICE", "ICE con superposición de PDP" },
aliases_zh = { "PDP+ICE 图", "ICE 叠加 PDP", "部分依赖与个体条件期望合并图" },
}
data["peak calling"] = {
short = "The computational identification of genomic regions enriched for sequencing reads in ChIP-seq, ATAC-seq, or similar assays, marking putative protein binding sites or regions of open chromatin.",
article = nil,
aliases = { "peak caller", "peak detection", "ChIP-seq peak calling", "ATAC-seq peak calling" },
es = "Identificación computacional de regiones genómicas enriquecidas en lecturas de secuenciación en ensayos como ChIP-seq o ATAC-seq, que marcan sitios putativos de unión de proteínas o regiones de cromatina abierta.",
zh = "通过计算识别 ChIP-seq、ATAC-seq 等实验中测序读段富集的基因组区域,标记蛋白质结合位点或开放染色质区域。",
term_es = "peak calling",
term_zh = "峰检测",
aliases_es = { "detección de picos", "llamado de picos" },
aliases_zh = { "peak calling", "峰识别", "峰调用" },
}
data["peakvi"] = {
short = "A deep generative model in the scvi-tools framework for analyzing single-cell ATAC-seq data, learning a latent representation that accounts for technical noise and enabling differential accessibility analysis.",
article = nil,
aliases = { "PeakVI" },
es = "Modelo generativo profundo del marco scvi-tools para analizar datos de ATAC-seq de célula única, que aprende una representación latente teniendo en cuenta el ruido técnico y permite análisis de accesibilidad diferencial.",
zh = "scvi-tools 框架中用于分析单细胞 ATAC-seq 数据的深度生成模型,学习考虑技术噪声的潜在表征,并支持差异可及性分析。",
term_es = "PeakVI",
term_zh = "PeakVI",
aliases_es = { "PeakVI" },
aliases_zh = { "PeakVI" },
}
data["pearl causal hierarchy"] = {
short = "Judea Pearl's three-level taxonomy of causal queries: association (seeing, P(Y|X)), intervention (doing, P(Y|do(X))), and counterfactuals (imagining), where each higher level cannot in general be answered from data at lower levels.",
article = nil,
aliases = { "PCH", "ladder of causation", "causal hierarchy", "three-layer hierarchy" },
es = "Taxonomía de tres niveles de Judea Pearl para las preguntas causales: asociación (ver, P(Y|X)), intervención (hacer, P(Y|do(X))) y contrafactuales (imaginar); en general, un nivel superior no puede responderse a partir de datos del nivel inferior.",
zh = "Judea Pearl 提出的因果查询三层级:关联(看,P(Y|X))、干预(做,P(Y|do(X)))与反事实(想象);通常情况下,高层级问题无法仅由低层级数据回答。",
term_es = "jerarquía causal de Pearl",
term_zh = "Pearl 因果层级",
aliases_es = { "escalera de la causalidad", "jerarquía de tres niveles de Pearl" },
aliases_zh = { "因果之梯", "三层因果层级" },
}
data["peer effect"] = {
short = "A causal effect in which one unit's outcome depends on the treatments or outcomes of other units in its social or network neighborhood; a violation of SUTVA addressed via interference and spillover models.",
article = nil,
aliases = { "peer effects", "social spillover", "social interaction effect" },
es = "Efecto causal en el que el resultado de una unidad depende de los tratamientos o resultados de otras unidades de su entorno social o de red; constituye una violación de SUTVA que se aborda con modelos de interferencia y de difusión.",
zh = "一种因果效应:某单位的结局取决于其社会或网络邻居的处理或结局;违反了 SUTVA,需通过干扰与外溢模型加以处理。",
term_es = "efecto de pares",
term_zh = "同伴效应",
aliases_es = { "efectos de pares", "efecto de iguales", "efecto entre pares" },
aliases_zh = { "对等效应", "同辈效应", "社会外溢效应" },
}
data["peer-to-peer federated learning"] = {
short = "A decentralized variant of federated learning in which clients exchange model updates directly with neighboring peers over a communication graph, without relying on a central aggregation server.",
article = nil,
aliases = { "P2P federated learning", "decentralized federated learning", "P2P FL", "serverless federated learning" },
es = "Variante descentralizada del aprendizaje federado en la que los clientes intercambian actualizaciones del modelo directamente con sus vecinos en un grafo de comunicación, sin depender de un servidor central de agregación.",
zh = "联邦学习的一种去中心化变体:客户端在通信图上直接与邻居对等节点交换模型更新,不依赖中心聚合服务器。",
term_es = "aprendizaje federado peer-to-peer",
term_zh = "对等联邦学习",
aliases_es = { "aprendizaje federado P2P", "aprendizaje federado descentralizado", "P2P FL", "FL sin servidor" },
aliases_zh = { "P2P 联邦学习", "去中心化联邦学习", "P2P FL", "无服务器联邦学习" },
}
data["peft library"] = {
short = "Hugging Face's open-source Python library that implements parameter-efficient fine-tuning methods (LoRA, QLoRA, prefix tuning, prompt tuning, IA3, AdaLoRA) with a unified API on top of Transformers.",
article = nil,
aliases = { "peft", "PEFT", "huggingface peft", "hf peft", "transformers peft" },
es = "Biblioteca de Python de código abierto de Hugging Face que implementa métodos de ajuste fino eficientes en parámetros (LoRA, QLoRA, prefix tuning, prompt tuning, IA3, AdaLoRA) con una API unificada sobre Transformers.",
zh = "Hugging Face 的开源 Python 库,在 Transformers 之上以统一 API 实现了参数高效微调方法(LoRA、QLoRA、prefix tuning、prompt tuning、IA3、AdaLoRA)。",
term_es = "biblioteca PEFT",
term_zh = "PEFT 库",
aliases_es = { "PEFT", "biblioteca peft de Hugging Face" },
aliases_zh = { "PEFT", "Hugging Face PEFT", "PEFT库" },
}
data["peoples speech"] = {
short = "A large open-source English speech recognition dataset of roughly 30,000 hours assembled from permissively licensed audio sources, intended to enable training of competitive ASR models without proprietary data.",
article = nil,
aliases = { "People's Speech", "Peoples Speech", "Peoples-Speech", "MLCommons Peoples Speech" },
es = "Gran conjunto de datos de reconocimiento de voz en inglés de código abierto, de aproximadamente 30,000 horas, recopilado a partir de fuentes de audio con licencias permisivas, destinado a permitir el entrenamiento de modelos ASR competitivos sin datos propietarios.",
zh = "一个大规模开源英语语音识别数据集,约 3 万小时,由许可宽松的音频源汇编而成,旨在无需专有数据即可训练具有竞争力的 ASR 模型。",
term_es = "People's Speech",
term_zh = "People's Speech",
aliases_es = { "People's Speech", "conjunto People's Speech", "Peoples Speech" },
aliases_zh = { "People's Speech", "Peoples Speech", "People's Speech 数据集" },
}
data["peptide binder design"] = {
short = "The computational task of designing short peptides that bind a specified protein target with desired affinity and specificity, often via deep generative models, structure-based methods, or directed-evolution-style filtering.",
article = nil,
aliases = { "peptide binder generation", "de novo peptide binder design", "peptide binder discovery" },
es = "Tarea computacional de diseñar péptidos cortos que se unan a un blanco proteico específico con la afinidad y especificidad deseadas, a menudo mediante modelos generativos profundos, métodos basados en estructura o filtrado tipo evolución dirigida.",
zh = "设计能以期望亲和力和特异性结合指定蛋白靶点的短肽的计算任务,常借助深度生成模型、基于结构的方法或类定向进化的筛选实现。",
term_es = "diseño de péptidos de unión",
term_zh = "多肽结合剂设计",
aliases_es = { "diseño de aglutinantes peptídicos", "diseño de novo de péptidos de unión" },
aliases_zh = { "肽结合剂设计", "多肽 binder 设计", "从头肽结合剂设计" },
}
data["peptide drug design"] = {
short = "The design of peptide-based therapeutics, balancing potency, selectivity, stability, and oral or systemic delivery; modern workflows combine structure-based modeling, machine-learned property predictors, and chemical modifications such as cyclization or unnatural amino acids.",
article = nil,
aliases = { "peptide therapeutic design", "therapeutic peptide design", "peptide drug discovery" },
es = "Diseño de fármacos basados en péptidos, equilibrando potencia, selectividad, estabilidad y administración oral o sistémica; los flujos modernos combinan modelado basado en estructura, predictores de propiedades aprendidos y modificaciones químicas como ciclación o aminoácidos no naturales.",
zh = "设计以肽为基础的治疗药物,需要在效力、选择性、稳定性以及口服或系统给药之间取得平衡;现代流程结合基于结构的建模、机器学习属性预测以及环化或非天然氨基酸等化学修饰。",
term_es = "diseño de fármacos peptídicos",
term_zh = "多肽药物设计",
aliases_es = { "diseño de péptidos terapéuticos", "descubrimiento de fármacos peptídicos" },
aliases_zh = { "肽类药物设计", "治疗性多肽设计", "多肽药物发现" },
}
data["peptide identification"] = {
short = "The assignment of peptide sequences to tandem mass spectra in shotgun proteomics, typically by database search (e.g. SEQUEST, Mascot) or de novo sequencing, with FDR control via target-decoy strategies.",
article = nil,
aliases = { "peptide-spectrum matching", "PSM", "MS/MS identification", "peptide ID" },
es = "Asignación de secuencias peptídicas a espectros de masas en tándem en proteómica shotgun, típicamente mediante búsqueda en bases de datos (SEQUEST, Mascot) o secuenciación de novo, con control de FDR vía estrategias target-decoy.",
zh = "鸟枪法蛋白质组学中将肽段序列分配给串联质谱的过程,通常通过数据库搜索(如 SEQUEST、Mascot)或从头测序完成,并使用靶-诱饵策略控制 FDR。",
term_es = "identificación de péptidos",
term_zh = "肽段鉴定",
aliases_es = { "identificación peptídica", "emparejamiento péptido-espectro", "PSM" },
aliases_zh = { "肽鉴定", "肽谱匹配", "PSM" },
}
data["per-fedavg"] = {
short = "A personalized federated learning algorithm that applies a Model-Agnostic Meta-Learning style update on top of FedAvg, so that the trained global model is a good initialization for one or a few local fine-tuning steps on each client.",
article = nil,
aliases = { "Per-FedAvg", "Personalized FedAvg", "MAML-FedAvg", "Per-FedAvg algorithm" },
es = "Algoritmo de aprendizaje federado personalizado que aplica una actualización al estilo de Model-Agnostic Meta-Learning sobre FedAvg, de modo que el modelo global entrenado constituya una buena inicialización para uno o pocos pasos de ajuste fino local en cada cliente.",
zh = "一种个性化联邦学习算法:在 FedAvg 之上引入与 Model-Agnostic Meta-Learning 类似的更新,使得训练得到的全局模型能作为各客户端本地少量微调步骤的良好初始化。",
term_es = "Per-FedAvg",
term_zh = "Per-FedAvg",
aliases_es = { "Per-FedAvg", "FedAvg personalizado", "MAML-FedAvg", "algoritmo Per-FedAvg" },
aliases_zh = { "Per-FedAvg", "个性化 FedAvg", "MAML-FedAvg", "Per-FedAvg 算法" },
}
data["per-group calibration"] = {
short = "A fairness criterion requiring that a model's predicted probabilities be calibrated separately within each demographic group, so that predicted scores match observed outcome frequencies for every group.",
article = nil,
aliases = { "group-wise calibration", "calibration within groups", "subgroup calibration", "calibration by group" },
es = "Criterio de equidad que exige que las probabilidades predichas por un modelo estén calibradas por separado dentro de cada grupo demográfico, de modo que las puntuaciones predichas coincidan con las frecuencias observadas de resultados en cada grupo.",
zh = "一种公平性准则,要求模型预测的概率在每个人口学群体内分别得到校准,使各群体的预测得分与实际观测到的事件频率一致。",
term_es = "calibración por grupo",
term_zh = "分组校准",
aliases_es = { "calibración por grupos", "calibración dentro de grupos", "calibración por subgrupos" },
aliases_zh = { "分组校准", "组内校准", "按组校准", "亚组校准" },
}
data["per-instance algorithm selection"] = {
short = "An automated machine learning setting in which a separate algorithm or hyperparameter configuration is chosen for each individual problem instance, typically using meta-features and a learned selection model.",
article = nil,
aliases = { "per-instance algorithm selection", "instance-specific algorithm selection", "algorithm selection per instance" },
es = "Variante de aprendizaje automático automatizado en la que se elige un algoritmo o configuración de hiperparámetros distinto para cada instancia de problema, normalmente mediante metacaracterísticas y un modelo de selección aprendido.",
zh = "一种自动机器学习设置,针对每个具体问题实例分别选择算法或超参数配置,通常借助元特征和一个学习得到的选择模型。",
term_es = "selección de algoritmo por instancia",
term_zh = "按实例算法选择",
aliases_es = { "selección de algoritmos por instancia", "selección específica por instancia" },
aliases_zh = { "逐实例算法选择", "实例级算法选择" },
}
data["per-protocol analysis"] = {
short = "An analysis of a randomized trial restricted to (or weighted toward) participants who actually adhered to their assigned treatment regimen, in contrast to intention-to-treat; it targets the effect of treatment if everyone complied.",
article = nil,
aliases = { "per protocol", "per-protocol", "PP analysis", "as-treated analysis" },
es = "Análisis de un ensayo aleatorizado restringido (o ponderado) hacia los participantes que efectivamente se adhirieron al régimen de tratamiento asignado; a diferencia de la intención de tratar, busca el efecto del tratamiento bajo cumplimiento perfecto.",
zh = "随机试验的一种分析方法:只纳入(或按依从性加权)实际遵循分配方案的受试者,与意向性治疗分析相对;其目标是若所有人都依从时的处理效应。",
term_es = "análisis por protocolo",
term_zh = "符合方案分析",
aliases_es = { "análisis per-protocol", "análisis according-to-protocol" },
aliases_zh = { "按方案分析", "依从分析", "PP 分析" },
}
data["perceiver resampler"] = {
short = "A cross-attention module introduced in Flamingo that maps a variable-length sequence of vision features to a small fixed number of latent tokens, allowing a frozen language model to consume visual inputs efficiently.",
article = nil,
aliases = { "Perceiver Resampler", "perceiver-resampler", "Flamingo Perceiver Resampler" },
es = "Módulo de atención cruzada introducido en Flamingo que mapea una secuencia de características visuales de longitud variable a un número fijo y reducido de tokens latentes, permitiendo que un modelo de lenguaje congelado consuma entradas visuales de forma eficiente.",
zh = "Flamingo 中引入的交叉注意力模块,将长度可变的视觉特征序列映射为固定数量的少量潜在 token,使冻结的语言模型能够高效地处理视觉输入。",
term_es = "Perceiver Resampler",
term_zh = "Perceiver Resampler",
aliases_es = { "perceiver-resampler" },
aliases_zh = { "感知重采样器", "perceiver-resampler" },
}
data["perception-test"] = {
short = "A DeepMind benchmark of real-world videos and multiple-choice questions designed to evaluate the perceptual reasoning of multimodal models across memory, abstraction, physics, and semantics.",
article = nil,
aliases = { "Perception Test", "Perception-Test", "PerceptionTest", "DeepMind Perception Test" },
es = "Benchmark de DeepMind compuesto por vídeos del mundo real y preguntas de opción múltiple, diseñado para evaluar el razonamiento perceptivo de modelos multimodales en memoria, abstracción, física y semántica.",
zh = "DeepMind 提出的评测基准,由真实世界视频和多项选择题组成,用于评估多模态模型在记忆、抽象、物理与语义维度上的感知推理能力。",
term_es = "Perception Test",
term_zh = "Perception Test",
aliases_es = { "Perception-Test" },
aliases_zh = { "感知测试基准", "Perception-Test" },
}
data["perceptual linear prediction"] = {
short = "A speech feature extraction method that warps the spectrum to the bark scale, applies an equal-loudness curve and intensity-loudness power law, and then performs all-pole linear-predictive modeling of the resulting auditory spectrum.",
article = nil,
aliases = { "PLP", "perceptual linear predictive", "PLP features", "PLP coefficients" },
es = "Método de extracción de características del habla que deforma el espectro a la escala de barks, aplica una curva de igual sonoridad y la ley potencial de intensidad-sonoridad, y luego realiza un modelado lineal predictivo todo-polos del espectro auditivo resultante.",
zh = "一种语音特征提取方法,将频谱弯曲到 Bark 尺度,应用等响度曲线和强度-响度幂律,然后对得到的听觉谱进行全极点线性预测建模。",
term_es = "predicción lineal perceptual",
term_zh = "感知线性预测",
aliases_es = { "PLP", "predicción lineal perceptiva", "coeficientes PLP", "características PLP" },
aliases_zh = { "PLP", "感知线性预测特征", "PLP 系数", "PLP 特征" },
}
data["perceptual loss"] = {
short = "A loss computed as the distance between deep features extracted from a pretrained network (commonly VGG) for the target and generated outputs, capturing perceptual rather than pixel-wise similarity.",
article = nil,
aliases = { "VGG loss", "feature loss", "deep feature loss", "feature reconstruction loss" },
es = "Pérdida calculada como la distancia entre características profundas extraídas por una red preentrenada (habitualmente VGG) para la salida objetivo y la generada, capturando similitud perceptual en lugar de píxel a píxel.",
zh = "通过预训练网络(通常为 VGG)提取的深度特征上计算目标与生成结果之间距离的损失,捕捉感知相似性而非逐像素差异。",
term_es = "pérdida perceptual",
term_zh = "感知损失",
aliases_es = { "pérdida VGG", "pérdida de características profundas" },
aliases_zh = { "VGG 损失", "特征损失", "深度特征损失" },
}
data["perceptual saliency"] = {
short = "An attribution or evaluation criterion that judges saliency maps by how well they align with human perceptual notions of importance — such as where people look or what they describe — rather than purely by model-internal sensitivity.",
article = nil,
aliases = { "perceptual saliency map", "human-aligned saliency", "perceptually-aligned saliency" },
es = "Criterio de atribución o evaluación que juzga los mapas de saliencia según su grado de coincidencia con nociones perceptivas humanas de importancia — como hacia dónde miran las personas o qué describen — en lugar de únicamente por la sensibilidad interna del modelo.",
zh = "一种归因或评估准则,依据显著图与人类感知中重要性概念(例如人们注视的位置或所描述的内容)的契合程度来评判,而非仅依赖模型内部的敏感性。",
term_es = "saliencia perceptiva",
term_zh = "感知显著性",
aliases_es = { "mapa de saliencia perceptiva", "saliencia alineada con la percepción humana" },
aliases_zh = { "感知显著图", "与人类感知对齐的显著性", "感知对齐显著性" },
}
data["performance estimation strategy"] = {
short = "In a NAS pipeline, the component that estimates how well a candidate architecture will perform without fully training it, e.g. via weight sharing, low-fidelity training, learning curves, or predictor models.",
article = nil,
aliases = { "performance estimation", "performance estimation strategy", "performance estimator" },
es = "Componente de un sistema NAS que estima el rendimiento de una arquitectura candidata sin entrenarla por completo, por ejemplo mediante compartición de pesos, entrenamiento de baja fidelidad, curvas de aprendizaje o modelos predictores.",
zh = "神经架构搜索流程中的一个组件,在不完整训练候选架构的前提下估计其性能,例如通过权重共享、低保真训练、学习曲线或预测模型。",
term_es = "estrategia de estimación de rendimiento",
term_zh = "性能估计策略",
aliases_es = { "estimación de rendimiento", "estrategia de estimación del desempeño" },
aliases_zh = { "性能估计", "性能预测策略" },
}
data["performance gap"] = {
short = "The difference in a chosen performance metric (accuracy, error rate, recall, etc.) between demographic groups, used as a basic measure of disparate model behavior across populations.",
article = nil,
aliases = { "accuracy gap", "performance disparity", "metric gap", "subgroup performance gap" },
es = "Diferencia en una métrica de desempeño elegida (precisión, tasa de error, exhaustividad, etc.) entre grupos demográficos, utilizada como medida básica del comportamiento dispar de un modelo entre poblaciones.",
zh = "在所选性能指标(准确率、错误率、召回率等)上不同人口群体之间的差异,常作为衡量模型在不同人群上表现是否参差不齐的基本指标。",
term_es = "brecha de desempeño",
term_zh = "性能差距",
aliases_es = { "brecha de precisión", "disparidad de desempeño", "diferencia de rendimiento", "brecha de rendimiento" },
aliases_zh = { "性能差异", "准确率差距", "子群体性能差距", "表现差距" },
}
data["performer attention"] = {
short = "A linear attention variant that approximates the softmax kernel with random Fourier features (FAVOR+), achieving unbiased estimates of full attention with linear complexity.",
article = nil,
aliases = { "Performer", "Performer Attention", "FAVOR+", "FAVOR plus" },
es = "Variante de atención lineal que aproxima el núcleo softmax con características aleatorias de Fourier (FAVOR+), logrando estimaciones no sesgadas de la atención completa con complejidad lineal.",
zh = "一种线性注意力变体,使用随机傅里叶特征(FAVOR+)逼近 softmax 核,以线性复杂度获得对完整注意力的无偏估计。",
term_es = "Performer",
term_zh = "Performer",
aliases_es = { "Performer", "FAVOR+", "atención Performer" },
aliases_zh = { "Performer", "FAVOR+", "Performer 注意力" },
}
data["periodic kernel"] = {
short = "A Gaussian process covariance function that produces sample paths repeating at a fixed period, typically defined as exp(-2 sin^2(pi |x-x'|/p)/l^2), used to model cyclic phenomena.",
article = nil,
aliases = { "periodic covariance function", "exp-sine-squared kernel", "ExpSineSquared kernel" },
es = "Función de covarianza para procesos gaussianos que produce trayectorias periódicas con un periodo fijo, definida típicamente como exp(-2 sin^2(pi |x-x'|/p)/l^2), usada para modelar fenómenos cíclicos.",
zh = "高斯过程的一种协方差函数,生成具有固定周期的样本路径,通常定义为 exp(-2 sin^2(pi |x-x'|/p)/l^2),用于建模循环现象。",
term_es = "núcleo periódico",
term_zh = "周期核",
aliases_es = { "kernel periódico", "covarianza periódica" },
aliases_zh = { "周期性核", "ExpSineSquared 核" },
}
data["permutation feature importance"] = {
short = "A model-agnostic importance score that measures how much a model's performance degrades when the values of a single feature are randomly shuffled across instances, breaking its association with the target.",
article = nil,
aliases = { "PFI", "permutation importance", "permutation-based feature importance", "feature permutation importance" },
es = "Puntuación de importancia agnóstica al modelo que mide cuánto se degrada el rendimiento del modelo cuando los valores de una sola característica se permutan aleatoriamente entre las instancias, rompiendo su asociación con la variable objetivo.",
zh = "一种与模型无关的重要性评分,通过在样本之间随机置换某一特征的取值以打破其与目标的关联,并衡量模型性能下降的程度。",
term_es = "importancia por permutación",
term_zh = "置换特征重要性",
aliases_es = { "PFI", "importancia de características por permutación", "importancia por permutación de variables" },
aliases_zh = { "PFI", "排列特征重要性", "基于置换的特征重要性" },
}
data["permutation invariant training"] = {
short = "A training criterion for multi-talker speech separation in which, for each example, the loss is computed against the speaker-output assignment that minimizes the error among all permutations, removing the label-permutation ambiguity.",
article = nil,
aliases = { "PIT", "permutation-invariant training", "permutation invariant loss", "PIT training" },
es = "Criterio de entrenamiento para separación de voz multilocutor en el que, para cada ejemplo, la pérdida se calcula con la asignación hablante–salida que minimiza el error entre todas las permutaciones, eliminando la ambigüedad de permutación de etiquetas.",
zh = "一种用于多说话人语音分离的训练准则:对每个样本,在所有排列中选择使误差最小的说话人到输出的分配来计算损失,从而消除标签排列模糊性。",
term_es = "entrenamiento invariante a permutaciones",
term_zh = "排列不变训练",
aliases_es = { "PIT", "entrenamiento invariante por permutación", "PIT", "pérdida invariante a permutaciones" },
aliases_zh = { "PIT", "排列不变性训练", "排列无关训练" },
}
data["perplexity"] = {
short = "An evaluation metric for probabilistic language models defined as the exponentiated average negative log-likelihood per token: PPL = exp(−(1/N) Σ log p(x_i | context)). Lower is better; equals the effective branching factor.",
article = nil,
aliases = { "PPL", "language model perplexity", "test perplexity" },
es = "Métrica de evaluación para modelos de lenguaje probabilísticos definida como la exponencial del log-verosimilitud negativo promedio por token: PPL = exp(−(1/N) Σ log p(x_i | contexto)). Menor es mejor; equivale al factor de ramificación efectivo.",
zh = "概率语言模型的评估指标,定义为每个 token 的平均负对数似然取指数:PPL = exp(−(1/N) Σ log p(x_i | 上下文))。值越小越好,等价于有效分支因子。",
term_es = "perplejidad",
term_zh = "困惑度",
aliases_es = { "PPL", "perplejidad de prueba" },
aliases_zh = { "PPL", "迷惑度", "复杂度(语言模型)" },
}
data["perplexity benchmark"] = {
short = "Use of perplexity, the exponential of the average per-token negative log-likelihood, as an intrinsic benchmark for language models — lower perplexity on a held-out corpus indicates a better fit to that distribution.",
article = nil,
aliases = { "perplexity evaluation", "PPL benchmark", "language model perplexity", "held-out perplexity" },
es = "Uso de la perplejidad, exponencial de la log-verosimilitud negativa promedio por token, como benchmark intrínseco de modelos de lenguaje: menor perplejidad sobre un corpus de validación indica mejor ajuste a esa distribución.",
zh = "将困惑度(每词元平均负对数似然的指数)用作语言模型的内在基准;在留出语料上困惑度越低,表示对该分布的拟合越好。",
term_es = "evaluación de perplejidad",
term_zh = "困惑度基准",
aliases_es = { "benchmark de perplejidad", "perplejidad de validación", "PPL" },
aliases_zh = { "困惑度评估", "PPL 基准", "保留集困惑度" },
}
data["perplexity filtering"] = {
short = "A data-curation technique that scores each document with a small reference language model and discards documents whose perplexity is unusually high or low, used to filter web-scale pretraining corpora.",
article = nil,
aliases = { "perplexity-based filtering", "perplexity filter", "PPL filtering" },
es = "Técnica de curación de datos que puntúa cada documento con un modelo de lenguaje pequeño de referencia y descarta los que tienen perplejidad anómalamente alta o baja, usada para filtrar corpus de preentrenamiento a escala web.",
zh = "一种数据筛选技术,使用一个小型参考语言模型对每篇文档计算困惑度,并剔除困惑度过高或过低的文档,常用于网络规模预训练语料的清洗。",
term_es = "filtrado por perplejidad",
term_zh = "困惑度过滤",
aliases_es = { "filtrado basado en perplejidad", "filtro de perplejidad" },
aliases_zh = { "基于困惑度的过滤", "perplexity filtering", "PPL 过滤" },
}
data["persona prompting"] = {
short = "A prompting technique that conditions a language model to adopt a defined role, identity, or expertise (e.g., \"You are a senior cardiologist\") to influence the style and content of its responses.",
article = nil,
aliases = { "persona prompt", "role prompting", "role-play prompting", "persona-based prompting" },
es = "Técnica de prompting que condiciona al modelo de lenguaje a adoptar un rol, identidad o área de experiencia definidos (por ejemplo, «eres un cardiólogo senior») para influir en el estilo y contenido de sus respuestas.",
zh = "一种提示技术,让语言模型扮演特定角色、身份或专业(例如「你是一名资深心脏科医生」),以影响其回答的风格与内容。",
term_es = "prompting con persona",
term_zh = "角色提示",
aliases_es = { "prompt de persona", "prompting basado en persona", "rol prompting" },
aliases_zh = { "人物角色提示", "角色扮演提示", "persona prompting" },
}
data["personalization head"] = {
short = "A small client-specific subnetwork, typically the final layers of a model, that is trained locally on each client's data while the lower-layer representation is shared across clients in personalized federated learning.",
article = nil,
aliases = { "personal head", "client-specific head", "local head", "FedRep head" },
es = "Subred pequeña específica de cada cliente, típicamente las últimas capas de un modelo, que se entrena localmente con los datos del cliente mientras la representación de las capas inferiores se comparte entre clientes en el aprendizaje federado personalizado.",
zh = "每个客户端专属的小型子网络,通常是模型的最后若干层,在个性化联邦学习中由本地数据训练,而底层表示则在所有客户端之间共享。",
term_es = "cabezal de personalización",
term_zh = "个性化头部",
aliases_es = { "cabeza personal", "cabezal específico del cliente", "cabezal local", "cabezal FedRep" },
aliases_zh = { "personalization head", "个性化头", "客户端专属头", "本地头" },
}
data["personalized federated learning"] = {
short = "A family of federated learning methods that produce a tailored model for each client rather than a single shared global model, balancing collaborative training with adaptation to local data distributions.",
article = nil,
aliases = { "PFL", "pFL", "personalized FL", "client-personalized federated learning" },
es = "Familia de métodos de aprendizaje federado que produce un modelo adaptado a cada cliente en lugar de un único modelo global compartido, equilibrando el entrenamiento colaborativo con la adaptación a las distribuciones de datos locales.",
zh = "一类联邦学习方法:为每个客户端生成定制化模型,而非单一共享的全局模型,在协同训练与对本地数据分布的适配之间取得平衡。",
term_es = "aprendizaje federado personalizado",
term_zh = "个性化联邦学习",
aliases_es = { "PFL", "pFL", "FL personalizado", "aprendizaje federado personalizado por cliente" },
aliases_zh = { "PFL", "pFL", "个性化 FL", "personalized federated learning" },
}
data["pertinent negative"] = {
short = "In contrastive explanation methods, the smallest set of features that, if added to or activated in an input, would change the model's prediction — capturing what is missing yet decisive.",
article = nil,
aliases = { "PN", "pertinent negatives", "contrastive pertinent negative" },
es = "En los métodos de explicación contrastiva, el conjunto mínimo de características que, si se añadieran o activaran en una entrada, cambiarían la predicción del modelo, capturando aquello que está ausente pero resulta decisivo.",
zh = "在对比性解释方法中,指若在输入中添加或激活就会改变模型预测的最小特征集合,用以刻画虽缺失却起决定作用的因素。",
term_es = "negativo pertinente",
term_zh = "相关负例",
aliases_es = { "PN", "negativos pertinentes", "característica negativa pertinente" },
aliases_zh = { "PN", "对比相关负例", "相关缺失特征" },
}
data["pertinent positive"] = {
short = "In contrastive explanation methods, the minimal set of features whose presence is sufficient — by itself — to obtain the model's current prediction, capturing what is necessary and present in the input.",
article = nil,
aliases = { "PP", "pertinent positives", "contrastive pertinent positive" },
es = "En los métodos de explicación contrastiva, el conjunto mínimo de características cuya presencia basta por sí sola para obtener la predicción actual del modelo, recogiendo aquello que es necesario y está presente en la entrada.",
zh = "在对比性解释方法中,指其存在本身就足以得到模型当前预测的最小特征集合,刻画输入中既必要又确实存在的因素。",
term_es = "positivo pertinente",
term_zh = "相关正例",
aliases_es = { "PP", "positivos pertinentes", "característica positiva pertinente" },
aliases_zh = { "PP", "对比相关正例", "相关存在特征" },
}
data["perturb-and-map"] = {
short = "A technique that converts MAP inference into approximate sampling or marginal computation by adding random perturbations (typically Gumbel noise) to the model's potentials and solving the resulting MAP problem.",
article = nil,
aliases = { "Perturb-and-MAP", "perturb and map", "perturb-and-MAP", "PandM" },
es = "Una técnica que convierte la inferencia MAP en muestreo aproximado o cálculo marginal añadiendo perturbaciones aleatorias (típicamente ruido Gumbel) a los potenciales del modelo y resolviendo el problema MAP resultante.",
zh = "一种将 MAP 推断转化为近似采样或边缘概率计算的技术,通过向模型的势函数添加随机扰动(通常是 Gumbel 噪声)并求解所得的 MAP 问题来实现。",
term_es = "perturb-and-MAP",
term_zh = "扰动与 MAP",
aliases_es = { "perturb-and-MAP", "perturbar y MAP" },
aliases_zh = { "Perturb-and-MAP", "扰动并求MAP" },
}
data["perturb-seq"] = {
short = "A pooled single-cell genomics method that combines CRISPR perturbations with scRNA-seq, recovering perturbation identity from sgRNA barcodes and measuring transcriptomic responses across thousands of genetic interventions.",
article = nil,
aliases = { "Perturb-seq", "Perturb-Seq", "CRISPR-seq", "CROP-seq" },
es = "Método de genómica unicelular agrupada que combina perturbaciones CRISPR con scRNA-seq, recuperando la identidad de la perturbación a partir de códigos de barras de sgRNA y midiendo respuestas transcriptómicas a miles de intervenciones genéticas.",
zh = "一种汇集型单细胞基因组学方法,将 CRISPR 扰动与 scRNA-seq 结合,通过 sgRNA 条形码恢复扰动身份,测量数千种遗传干预下的转录组响应。",
term_es = "Perturb-seq",
term_zh = "Perturb-seq",
aliases_es = { "Perturb-seq", "CROP-seq" },
aliases_zh = { "Perturb-seq", "CROP-seq" },
}
data["perturbation curve"] = {
short = "A faithfulness-evaluation diagnostic that progressively masks or replaces input features in order of attributed importance and plots how the model's output changes as a function of the fraction perturbed.",
article = nil,
aliases = { "perturbation curves", "deletion curve", "insertion curve", "deletion/insertion curve", "perturbation analysis curve" },
es = "Herramienta de evaluación de fidelidad que enmascara o reemplaza progresivamente las características de la entrada según el orden de importancia atribuida y representa cómo cambia la salida del modelo en función de la fracción perturbada.",
zh = "一种忠实性评估诊断方法,按归因重要性顺序逐步遮挡或替换输入特征,并绘制模型输出随被扰动比例变化的曲线。",
term_es = "curva de perturbación",
term_zh = "扰动曲线",
aliases_es = { "curva de eliminación", "curva de inserción", "curva de borrado/inserción", "curvas de perturbación" },
aliases_zh = { "删除曲线", "插入曲线", "删除/插入曲线", "扰动分析曲线" },
}
data["perturbation prediction"] = {
short = "Computationally predicting the cellular response (e.g. transcriptomic shift) to a genetic or chemical perturbation that has not been measured experimentally, often using deep learning models trained on Perturb-seq or LINCS data.",
article = nil,
aliases = { "perturbation response prediction", "in silico perturbation" },
es = "Predicción computacional de la respuesta celular (por ejemplo, el cambio transcriptómico) a una perturbación genética o química no medida experimentalmente, a menudo mediante modelos de aprendizaje profundo entrenados con datos de Perturb-seq o LINCS.",
zh = "通过计算预测细胞对未经实验测量的遗传或化学扰动的响应(例如转录组变化),通常使用基于 Perturb-seq 或 LINCS 数据训练的深度学习模型。",
term_es = "predicción de perturbaciones",
term_zh = "扰动预测",
aliases_es = { "predicción de respuesta a perturbaciones", "perturbación in silico" },
aliases_zh = { "扰动响应预测", "in silico 扰动" },
}
data["perturbation-based attribution"] = {
short = "A family of explanation methods that estimate feature importance by measuring how a model's output changes in response to controlled perturbations of the input, including occlusion, masking, LIME, and Shapley-value sampling.",
article = nil,
aliases = { "perturbation attribution", "perturbation-based explanation", "perturbation-based saliency", "perturbation methods" },
es = "Familia de métodos de explicación que estiman la importancia de las características midiendo cómo cambia la salida del modelo en respuesta a perturbaciones controladas de la entrada, incluyendo oclusión, enmascaramiento, LIME y muestreo de valores de Shapley.",
zh = "一类解释方法,通过测量模型输出对输入受控扰动的响应来估计特征重要性,涵盖遮挡、掩蔽、LIME 以及 Shapley 值采样等方法。",
term_es = "atribución basada en perturbaciones",
term_zh = "基于扰动的归因",
aliases_es = { "explicación basada en perturbaciones", "saliencia basada en perturbaciones", "métodos de perturbación" },
aliases_zh = { "扰动归因", "扰动式解释", "扰动显著性", "扰动方法" },
}
data["perturbed optimizer"] = {
short = "A differentiable surrogate for non-smooth argmax or argmin operations obtained by averaging the optimizer's output over random input perturbations, enabling gradient-based learning through combinatorial layers.",
article = nil,
aliases = { "perturbed optimizers", "perturbed optimization", "perturbed argmax", "stochastic perturbed optimizer" },
es = "Un sustituto diferenciable para operaciones no suaves de argmax o argmin obtenido al promediar la salida del optimizador sobre perturbaciones aleatorias de la entrada, lo que permite el aprendizaje basado en gradientes a través de capas combinatorias.",
zh = "针对不可微的 argmax 或 argmin 操作的可微替代方案,通过对随机输入扰动下优化器输出取平均得到,使基于梯度的学习能够通过组合层进行。",
term_es = "optimizador perturbado",
term_zh = "扰动优化器",
aliases_es = { "optimizadores perturbados", "argmax perturbado" },
aliases_zh = { "扰动优化器", "随机扰动优化器", "perturbed optimizer" },
}
data["pesq"] = {
short = "Perceptual Evaluation of Speech Quality, an ITU-T P.862 objective full-reference algorithm that compares a degraded speech signal to a clean reference and predicts a mean opinion score correlated with human listening tests.",
article = nil,
aliases = { "PESQ", "Perceptual Evaluation of Speech Quality", "ITU-T P.862", "P.862" },
es = "Perceptual Evaluation of Speech Quality, algoritmo objetivo de referencia completa de la ITU-T P.862 que compara una señal de habla degradada con una referencia limpia y predice una puntuación media de opinión correlacionada con pruebas de escucha humana.",
zh = "Perceptual Evaluation of Speech Quality,ITU-T P.862 提出的全参考客观算法,将劣化语音信号与干净参考进行比较,预测与人类听音测试相关的平均意见分。",
term_es = "PESQ",
term_zh = "PESQ",
aliases_es = { "PESQ", "evaluación perceptual de la calidad del habla", "ITU-T P.862" },
aliases_zh = { "PESQ", "语音质量感知评估", "ITU-T P.862" },
}
data["pez attack"] = {
short = "A discrete prompt-optimization adversarial attack from the \"Hard Prompts Made Easy\" paper that uses projected gradient descent in the embedding space to find hard tokens which jailbreak or steer language and image models.",
article = nil,
aliases = { "PEZ", "PEZ attack", "Hard Prompts Made Easy", "PEZ algorithm" },
es = "Ataque adversario de optimización de prompts discretos del artículo «Hard Prompts Made Easy» que usa descenso por gradiente proyectado en el espacio de embeddings para encontrar tokens duros capaces de hacer jailbreak o dirigir modelos de lenguaje e imagen.",
zh = "出自《Hard Prompts Made Easy》论文的离散提示优化对抗攻击方法,通过在嵌入空间中执行投影梯度下降以寻找可越狱或操控语言与图像模型的硬 token 序列。",
term_es = "ataque PEZ",
term_zh = "PEZ 攻击",
aliases_es = { "PEZ", "Hard Prompts Made Easy", "algoritmo PEZ" },
aliases_zh = { "PEZ", "PEZ 算法", "Hard Prompts Made Easy" },
}
data["pfam"] = {
short = "A widely used database of protein families represented as multiple sequence alignments and hidden Markov models, used to annotate domains and classify newly sequenced proteins.",
article = nil,
aliases = { "Pfam", "Pfam database", "Pfam-A" },
es = "Base de datos ampliamente utilizada de familias de proteínas representadas mediante alineamientos múltiples de secuencias y modelos ocultos de Markov, empleada para anotar dominios y clasificar proteínas recién secuenciadas.",
zh = "广泛使用的蛋白质家族数据库,以多序列比对和隐马尔可夫模型表示,用于注释蛋白质结构域并对新测序蛋白质进行分类。",
term_es = "Pfam",
term_zh = "Pfam",
aliases_es = { "base de datos Pfam" },
aliases_zh = { "Pfam 数据库" },
}
data["pfam database"] = {
short = "A curated database of protein families represented as multiple sequence alignments and profile hidden Markov models, used to annotate domain architectures across proteomes.",
article = nil,
aliases = { "Pfam", "Pfam database", "Pfam-A" },
es = "Base de datos curada de familias de proteínas representadas como alineamientos múltiples y modelos ocultos de Markov de perfil, utilizada para anotar arquitecturas de dominios en proteomas.",
zh = "蛋白质家族的精选数据库,以多序列比对和谱隐马尔可夫模型表示,用于注释蛋白质组中的结构域组织。",
term_es = "base de datos Pfam",
term_zh = "Pfam 数据库",
aliases_es = { "Pfam", "base Pfam" },
aliases_zh = { "Pfam", "Pfam-A" },
}
data["pfedme"] = {
short = "pFedMe, a personalized federated learning algorithm that introduces a Moreau-envelope-based regularizer so each client optimizes a personalized model close to the global model, decoupling local adaptation from global aggregation.",
article = nil,
aliases = { "pFedMe", "personalized FedMe", "Moreau envelope FL", "pFedMe algorithm" },
es = "pFedMe, un algoritmo de aprendizaje federado personalizado que introduce un regularizador basado en la envoltura de Moreau para que cada cliente optimice un modelo personalizado cercano al modelo global, desacoplando la adaptación local de la agregación global.",
zh = "pFedMe,一种个性化联邦学习算法:引入基于 Moreau 包络的正则项,使每个客户端优化一个与全局模型接近的个性化模型,从而将本地适配与全局聚合解耦。",
term_es = "pFedMe",
term_zh = "pFedMe",
aliases_es = { "pFedMe", "FedMe personalizado", "FL con envoltura de Moreau", "algoritmo pFedMe" },
aliases_zh = { "pFedMe", "个性化 FedMe", "Moreau 包络联邦学习", "pFedMe 算法" },
}
data["pgexplainer"] = {
short = "A parametric, model-agnostic explainer for graph neural networks that learns a separate neural network to predict, for each instance, a probabilistic edge mask identifying the subgraph most responsible for the GNN's prediction.",
article = nil,
aliases = { "PGExplainer", "PGExplainer for GNNs", "parametric graph explainer", "PG-Explainer" },
es = "Explicador paramétrico y agnóstico al modelo para redes neuronales sobre grafos que entrena una red neuronal independiente para predecir, en cada instancia, una máscara probabilística de aristas que identifica el subgrafo más responsable de la predicción de la GNN.",
zh = "一种用于图神经网络的参数化、模型无关解释器,通过训练独立的神经网络为每个实例预测概率化边掩码,从而识别对 GNN 预测最关键的子图。",
term_es = "PGExplainer",
term_zh = "PGExplainer",
aliases_es = { "pgexplainer", "explicador paramétrico para GNN", "PG-Explainer" },
aliases_zh = { "pgexplainer", "参数化图解释器", "PG-Explainer", "GNN 参数化解释器" },
}
data["pharmacophore"] = {
short = "An abstract description of the steric and electronic features a molecule must present in order to bind a biological target and trigger a response — such as hydrogen-bond donors, acceptors, hydrophobic centers, and aromatic rings arranged in a specific 3D configuration.",
article = nil,
aliases = { "pharmacophore model", "pharmacophoric features" },
es = "Descripción abstracta de las características estéricas y electrónicas que una molécula debe presentar para unirse a un blanco biológico y desencadenar una respuesta, como donadores y aceptores de enlaces de hidrógeno, centros hidrofóbicos y anillos aromáticos dispuestos en una configuración 3D específica.",
zh = "对分子结合生物靶点并引发生物学响应所需立体和电子特征的抽象描述,包括以特定三维构型排列的氢键供体、受体、疏水中心和芳香环等。",
term_es = "farmacóforo",
term_zh = "药效团",
aliases_es = { "modelo farmacofórico", "rasgos farmacofóricos" },
aliases_zh = { "药效基团", "药效团模型" },
}
data["pharmacophore alignment"] = {
short = "The superposition of two or more molecules so that corresponding pharmacophoric features — such as hydrogen-bond donors and hydrophobic centers — overlap, used in scaffold hopping and 3D similarity searching.",
article = nil,
aliases = { "pharmacophore-based alignment", "pharmacophoric alignment" },
es = "Superposición de dos o más moléculas de forma que las características farmacofóricas correspondientes —donadores de hidrógeno, centros hidrofóbicos, etc.— coincidan; se usa en el salto de andamios y en la búsqueda de similitud 3D.",
zh = "将两个或多个分子叠合,使对应的药效团特征(如氢键供体、疏水中心)相互重合,用于骨架跃迁和三维相似性搜索。",
term_es = "alineamiento farmacofórico",
term_zh = "药效团对齐",
aliases_es = { "alineación farmacofórica", "alineamiento de farmacóforos" },
aliases_zh = { "药效团叠合", "基于药效团的对齐" },
}
data["pharmacophore fingerprint"] = {
short = "A molecular fingerprint that encodes the presence or geometric arrangement of pharmacophoric features rather than raw substructures, enabling similarity comparisons that capture binding-relevant chemistry across diverse scaffolds.",
article = nil,
aliases = { "pharmacophore-based fingerprint", "pharmacophoric fingerprint", "3D pharmacophore fingerprint" },
es = "Huella molecular que codifica la presencia o disposición geométrica de características farmacofóricas en lugar de subestructuras crudas, permitiendo comparaciones de similitud que capturan la química relevante para la unión a través de distintos andamiajes.",
zh = "编码药效团特征的存在或几何排布、而非原始子结构的分子指纹,使相似性比较能够跨不同骨架捕捉与结合相关的化学信息。",
term_es = "huella farmacofórica",
term_zh = "药效团指纹",
aliases_es = { "fingerprint farmacofórico", "huella digital farmacofórica" },
aliases_zh = { "药效基团指纹", "三维药效团指纹" },
}
data["pharmacophore modeling"] = {
short = "The construction of a pharmacophore — typically from a set of known active ligands or a target binding site — for use in virtual screening, lead optimization, and scaffold hopping.",
article = nil,
aliases = { "pharmacophore modelling", "pharmacophore generation", "pharmacophore building" },
es = "Construcción de un farmacóforo —generalmente a partir de un conjunto de ligandos activos conocidos o de un sitio de unión del blanco— para su uso en cribado virtual, optimización de líderes y salto de andamios.",
zh = "通常基于一组已知活性配体或靶点结合位点构建药效团,用于虚拟筛选、先导化合物优化和骨架跃迁。",
term_es = "modelado farmacofórico",
term_zh = "药效团建模",
aliases_es = { "construcción de farmacóforos", "modelización farmacofórica" },
aliases_zh = { "药效团构建", "药效基团建模" },
}
data["phase reconstruction"] = {
short = "The problem of recovering the short-time Fourier transform phase from magnitude-only information so that the inverse STFT yields a coherent time-domain waveform, often solved by Griffin–Lim or neural methods.",
article = nil,
aliases = { "phase recovery", "spectrogram phase reconstruction", "STFT phase reconstruction" },
es = "Problema de recuperar la fase de la transformada de Fourier de tiempo corto a partir únicamente de la información de magnitud, de modo que la STFT inversa produzca una forma de onda coherente en el dominio del tiempo, resuelto a menudo con Griffin–Lim o métodos neuronales.",
zh = "仅根据幅度信息恢复短时傅里叶变换相位的问题,使逆 STFT 能够生成时域上连贯的波形,常通过 Griffin–Lim 算法或神经方法求解。",
term_es = "reconstrucción de fase",
term_zh = "相位重建",
aliases_es = { "recuperación de fase", "reconstrucción de la fase STFT", "reconstrucción de fase del espectrograma" },
aliases_zh = { "相位恢复", "频谱相位重建", "STFT 相位重建" },
}
data["phenoage"] = {
short = "A biological-age estimator developed by Levine et al. that combines chronological age with nine clinical biomarkers to predict mortality and morbidity risk, often used as an aging clock.",
article = nil,
aliases = { "PhenoAge", "Phenotypic Age", "Levine PhenoAge" },
es = "Estimador de edad biológica desarrollado por Levine et al. que combina la edad cronológica con nueve biomarcadores clínicos para predecir el riesgo de mortalidad y morbilidad, usado como reloj de envejecimiento.",
zh = "由 Levine 等人开发的生物学年龄估计器,结合实际年龄与九个临床生物标志物,用于预测死亡率和发病风险,常作为衰老时钟使用。",
term_es = "PhenoAge",
term_zh = "PhenoAge",
aliases_es = { "PhenoAge", "edad fenotípica" },
aliases_zh = { "PhenoAge", "表型年龄" },
}
data["phenotypic screening"] = {
short = "A drug discovery strategy in which compounds are tested for their effect on a measurable cellular or organismal phenotype without prior knowledge of the molecular target, contrasted with target-based screening.",
article = nil,
aliases = { "phenotypic drug screening", "phenotype-based screening", "phenotypic drug discovery", "PDD" },
es = "Estrategia de descubrimiento de fármacos en la que se evalúa el efecto de los compuestos sobre un fenotipo celular u organismal medible, sin conocimiento previo del blanco molecular, en contraste con el cribado basado en blanco.",
zh = "一种药物发现策略,在不预先了解分子靶点的情况下,测试化合物对可测量的细胞或机体表型的影响,与基于靶点的筛选形成对比。",
term_es = "cribado fenotípico",
term_zh = "表型筛选",
aliases_es = { "screening fenotípico", "descubrimiento fenotípico de fármacos" },
aliases_zh = { "表型药物筛选", "基于表型的筛选", "表型药物发现" },
}
data["phi"] = {
short = "Microsoft's family of small open-weight transformer language models, beginning with Phi-1 in 2023, trained on heavily curated and synthetic textbook-quality data to achieve strong reasoning at modest scale.",
article = nil,
aliases = { "Phi", "Phi-1", "Phi-1.5", "Phi-2", "Phi-3", "Microsoft Phi" },
es = "Familia de modelos de lenguaje transformer pequeños y de pesos abiertos de Microsoft, iniciada con Phi-1 en 2023, entrenada con datos sintéticos y altamente curados de calidad de libro de texto para lograr un razonamiento sólido a una escala modesta.",
zh = "微软推出的小型开放权重 Transformer 语言模型家族,自 2023 年的 Phi-1 起,使用经过精心筛选和合成的教科书级别数据进行训练,在较小规模下实现了强大的推理能力。",
term_es = "Phi",
term_zh = "Phi",
aliases_es = { "Phi", "Phi-1", "Phi-1.5", "Phi-2", "Phi-3", "Phi de Microsoft" },
aliases_zh = { "Phi", "Phi-1", "Phi-1.5", "Phi-2", "Phi-3", "微软 Phi" },
}
data["phi-3"] = {
short = "A family of small open language models released by Microsoft in 2024 (Phi-3-mini/small/medium and vision variants), trained on heavily curated and synthetic textbook-style data to reach quality competitive with much larger models.",
article = nil,
aliases = { "Phi-3", "Phi 3", "Phi-3-mini", "Phi-3-small", "Phi-3-medium", "Phi-3-vision" },
es = "Familia de modelos de lenguaje pequeños y abiertos publicada por Microsoft en 2024 (Phi-3-mini/small/medium y variantes de visión), entrenados con datos cuidadosamente seleccionados y sintéticos al estilo de libro de texto para alcanzar calidad comparable a modelos mucho mayores.",
zh = "Microsoft 于 2024 年发布的小型开源语言模型系列(Phi-3-mini/small/medium 及视觉版本),在精心筛选与合成的教科书式数据上训练,质量可与更大模型相媲美。",
term_es = "Phi-3",
term_zh = "Phi-3",
aliases_es = { "Phi 3", "Phi-3-mini", "Phi-3-medium" },
aliases_zh = { "Phi 3", "Phi-3-mini", "Phi-3-medium", "Phi-3-vision" },
}
data["phi-3.5"] = {
short = "A 2024 update to Microsoft's Phi-3 family that includes Phi-3.5-mini, Phi-3.5-MoE (a sparse mixture-of-experts variant), and Phi-3.5-vision, with improved multilingual coverage and longer context.",
article = nil,
aliases = { "Phi-3.5", "Phi 3.5", "Phi-3.5-mini", "Phi-3.5-MoE", "Phi-3.5-vision" },
es = "Actualización de 2024 de la familia Phi-3 de Microsoft que incluye Phi-3.5-mini, Phi-3.5-MoE (variante con mezcla dispersa de expertos) y Phi-3.5-vision, con mejor cobertura multilingüe y mayor longitud de contexto.",
zh = "Microsoft 于 2024 年对 Phi-3 系列的升级,包含 Phi-3.5-mini、Phi-3.5-MoE(稀疏混合专家版本)与 Phi-3.5-vision,提升了多语言覆盖与上下文长度。",
term_es = "Phi-3.5",
term_zh = "Phi-3.5",
aliases_es = { "Phi 3.5", "Phi-3.5-mini", "Phi-3.5-MoE" },
aliases_zh = { "Phi 3.5", "Phi-3.5-mini", "Phi-3.5-MoE", "Phi-3.5-vision" },
}
data["phi-4"] = {
short = "Microsoft's late-2024 14-billion-parameter small language model that emphasizes synthetic-data-heavy training and post-training to achieve strong reasoning performance, especially on math and coding benchmarks.",
article = nil,
aliases = { "Phi-4", "Phi 4" },
es = "Modelo de lenguaje pequeño de 14 mil millones de parámetros publicado por Microsoft a finales de 2024, que enfatiza un fuerte uso de datos sintéticos en preentrenamiento y posentrenamiento para lograr un rendimiento de razonamiento competitivo, especialmente en matemáticas y programación.",
zh = "Microsoft 于 2024 年末发布的 140 亿参数小型语言模型,在预训练和后训练阶段大量使用合成数据,在数学与代码等推理基准上表现优异。",
term_es = "Phi-4",
term_zh = "Phi-4",
aliases_es = { "Phi 4" },
aliases_zh = { "Phi 4" },
}
data["phoneme recognition"] = {
short = "A speech recognition task that maps an acoustic signal to a sequence of phonemes — the language's basic phonetic units — used both as a stand-alone benchmark and as an intermediate target in classical ASR pipelines.",
article = nil,
aliases = { "phone recognition", "phonetic recognition", "phoneme classification", "phone classification" },
es = "Tarea de reconocimiento de voz que mapea una señal acústica a una secuencia de fonemas —las unidades fonéticas básicas del idioma—, utilizada tanto como referencia independiente como objetivo intermedio en sistemas clásicos de ASR.",
zh = "将声学信号映射为音素序列(语言的基本语音单位)的语音识别任务,既用作独立基准,也作为传统 ASR 流水线中的中间目标。",
term_es = "reconocimiento de fonemas",
term_zh = "音素识别",
aliases_es = { "reconocimiento fonético", "reconocimiento de fonos", "clasificación de fonemas" },
aliases_zh = { "音素分类", "语音音素识别", "phone 识别" },
}
data["photomaker"] = {
short = "A diffusion-based personalized image generation method that creates images of a specific subject from a few reference photos by stacking their embeddings into a unified ID embedding consumed by the text-to-image model.",
article = nil,
aliases = { "PhotoMaker", "PhotoMaker V2", "Photo Maker" },
es = "Método de generación de imágenes personalizada basado en difusión que crea imágenes de un sujeto específico a partir de unas pocas fotos de referencia, apilando sus embeddings en un único embedding de identidad consumido por el modelo de texto a imagen.",
zh = "一种基于扩散模型的个性化图像生成方法,通过将少量参考照片的嵌入堆叠为统一的身份嵌入,供文本到图像模型使用,从而生成特定人物的图像。",
term_es = "PhotoMaker",
term_zh = "PhotoMaker",
aliases_es = { "PhotoMaker V2" },
aliases_zh = { "PhotoMaker V2" },
}
data["phrase grounding"] = {
short = "The task of localizing the image region — typically a bounding box — that corresponds to each noun phrase in an associated caption or query, evaluating fine-grained alignment between language and vision.",
article = nil,
aliases = { "phrase grounding", "phrase localization", "noun phrase grounding", "visual phrase grounding" },
es = "Tarea consistente en localizar la región de la imagen — habitualmente mediante una caja delimitadora — que corresponde a cada sintagma nominal de una descripción o consulta asociada, evaluando la alineación fina entre lenguaje y visión.",
zh = "短语定位任务:为相关字幕或查询中的每个名词短语在图像中找出对应的区域(通常以边界框给出),用于评估语言与视觉之间的细粒度对齐。",
term_es = "anclaje de sintagmas",
term_zh = "短语定位",
aliases_es = { "localización de sintagmas", "phrase grounding" },
aliases_zh = { "短语接地", "phrase grounding" },
}
data["phylogenetic tree"] = {
short = "A branching diagram representing the inferred evolutionary relationships among biological entities (species, genes, populations), with branch lengths typically reflecting evolutionary distance or time.",
article = nil,
aliases = { "phylogeny", "evolutionary tree", "tree of life", "phylogenetic trees" },
es = "Diagrama ramificado que representa las relaciones evolutivas inferidas entre entidades biológicas (especies, genes, poblaciones), con longitudes de rama que típicamente reflejan distancia o tiempo evolutivo.",
zh = "表示生物实体(物种、基因、种群)间推断进化关系的分枝图,分枝长度通常反映进化距离或时间。",
term_es = "árbol filogenético",
term_zh = "系统发育树",
aliases_es = { "filogenia", "árbol evolutivo" },
aliases_zh = { "系统发生树", "进化树", "演化树" },
}
data["physnet"] = {
short = "A message-passing neural network for predicting molecular properties — including energies, forces, and dipole moments — from atomic coordinates and nuclear charges, with explicit electrostatic and dispersion corrections.",
article = nil,
aliases = { "PhysNet" },
es = "Red neuronal de paso de mensajes para predecir propiedades moleculares —incluyendo energías, fuerzas y momentos dipolares— a partir de coordenadas atómicas y cargas nucleares, con correcciones electrostáticas y de dispersión explícitas.",
zh = "一种消息传递神经网络,从原子坐标和核电荷预测分子能量、力和偶极矩等性质,并显式纳入静电和色散修正。",
term_es = "PhysNet",
term_zh = "PhysNet",
aliases_es = {},
aliases_zh = {},
}
data["piano genie"] = {
short = "A Google Magenta interactive system in which an autoencoder learns to map MIDI piano performances to a low-dimensional discrete code, letting users improvise on an 8-button controller that the decoder maps back to full piano keys.",
article = nil,
aliases = { "Piano Genie", "PianoGenie", "piano-genie" },
es = "Sistema interactivo de Google Magenta en el que un autoencoder aprende a asignar interpretaciones MIDI de piano a un código discreto de baja dimensión, permitiendo que los usuarios improvisen con un controlador de 8 botones que el decodificador vuelve a mapear a las teclas completas del piano.",
zh = "Google Magenta 提出的交互系统,自动编码器学习将 MIDI 钢琴演奏映射到低维离散编码,用户使用 8 键控制器即兴演奏,由解码器将其映射回完整钢琴键。",
term_es = "Piano Genie",
term_zh = "Piano Genie",
aliases_es = { "Piano Genie", "PianoGenie" },
aliases_zh = { "Piano Genie", "PianoGenie" },
}
data["piano roll"] = {
short = "A symbolic representation of music as a binary or velocity-valued matrix indexed by pitch and time step, indicating which notes are active in each frame; widely used as input/output for music generation models.",
article = nil,
aliases = { "pianoroll", "piano-roll", "piano roll representation" },
es = "Representación simbólica de la música como una matriz binaria o con valores de velocidad indexada por altura y paso temporal, que indica qué notas están activas en cada marco; ampliamente usada como entrada/salida en modelos de generación musical.",
zh = "一种符号化音乐表示,将音乐表示为按音高和时间步索引的二值或带力度值矩阵,标示每帧哪些音符处于激活状态;广泛用作音乐生成模型的输入输出。",
term_es = "piano roll",
term_zh = "钢琴卷帘",
aliases_es = { "piano-roll", "representación piano roll", "rollo de piano" },
aliases_zh = { "piano roll", "钢琴卷", "钢琴卷帘表示" },
}
data["piano transformer"] = {
short = "A transformer-based autoregressive model trained on tokenized MIDI piano performances (e.g., MAESTRO) to generate expressive long-range piano music, exemplified by Magenta's Music Transformer.",
article = nil,
aliases = { "Piano Transformer", "Music Transformer (piano)", "piano music transformer" },
es = "Modelo autorregresivo basado en transformer entrenado con interpretaciones MIDI de piano tokenizadas (por ejemplo, MAESTRO) para generar música de piano expresiva con dependencias a largo plazo, ejemplificado por el Music Transformer de Magenta.",
zh = "基于 Transformer 的自回归模型,在分词后的 MIDI 钢琴演奏(如 MAESTRO)上训练,用于生成富有表现力的长程钢琴音乐,典型代表是 Magenta 的 Music Transformer。",
term_es = "Piano Transformer",
term_zh = "Piano Transformer",
aliases_es = { "Piano Transformer", "Music Transformer para piano", "transformer de piano" },
aliases_zh = { "Piano Transformer", "钢琴 Transformer", "钢琴 Music Transformer" },
}
data["pickscore"] = {
short = "A CLIP-based scoring function for text-to-image generation, trained on the Pick-a-Pic human preference dataset to predict which of two images a user is more likely to prefer for a given prompt.",
article = nil,
aliases = { "PickScore", "Pick-Score", "PickScore reward model" },
es = "Función de puntuación basada en CLIP para generación texto-imagen, entrenada con el conjunto de preferencias humanas Pick-a-Pic para predecir cuál de dos imágenes es más probable que prefiera un usuario para un prompt dado.",
zh = "面向文本到图像生成的基于 CLIP 的打分函数,使用 Pick-a-Pic 人类偏好数据集训练,用于预测对于给定提示,用户更可能偏好两张图像中的哪一张。",
term_es = "PickScore",
term_zh = "PickScore",
aliases_es = { "Pick-Score" },
aliases_zh = { "Pick-Score" },
}
data["pii detection"] = {
short = "The task of automatically identifying personally identifiable information such as names, phone numbers, addresses, or government IDs in text, used to redact pretraining data, prompts, or model outputs.",
article = nil,
aliases = { "PII detection", "PII redaction", "personally identifiable information detection", "personal data detection" },
es = "Tarea de identificar automáticamente información de identificación personal como nombres, números de teléfono, direcciones o identificadores oficiales en texto, usada para censurar datos de preentrenamiento, prompts o salidas del modelo.",
zh = "自动识别文本中的个人可识别信息(如姓名、电话、地址、证件号等)的任务,常用于对预训练数据、提示词或模型输出进行脱敏。",
term_es = "detección de PII",
term_zh = "个人可识别信息检测",
aliases_es = { "detección de información personal", "redacción de PII", "detección de datos personales" },
aliases_zh = { "PII 检测", "个人信息识别", "敏感个人信息检测" },
}
data["pika"] = {
short = "A commercial text-to-video and image-to-video generative model developed by Pika Labs (Pika 1.0, 1.5, 2.0), known for short cinematic clips controlled through prompts and motion-control affordances.",
article = nil,
aliases = { "Pika", "Pika Labs", "Pika 1.0", "Pika 1.5", "Pika 2.0" },
es = "Modelo generativo comercial de texto a video e imagen a video desarrollado por Pika Labs (versiones 1.0, 1.5, 2.0), conocido por clips cinematográficos cortos controlados mediante prompts y controles de movimiento.",
zh = "由 Pika Labs 开发的商用文本到视频和图像到视频生成模型(Pika 1.0、1.5、2.0),以可通过提示和运动控制生成的短电影级片段而著称。",
term_es = "Pika",
term_zh = "Pika",
aliases_es = { "Pika Labs", "Pika 1.5", "Pika 2.0" },
aliases_zh = { "Pika Labs", "Pika 1.5", "Pika 2.0" },
}
data["pinball loss"] = {
short = "An asymmetric loss function for quantile regression defined as max(tau (y-q), (tau-1)(y-q)) for quantile level tau, whose minimizer recovers the conditional tau-quantile.",
article = nil,
aliases = { "quantile loss", "check loss", "tilted absolute loss" },
es = "Función de pérdida asimétrica para regresión cuantílica, definida como max(tau (y-q), (tau-1)(y-q)) para el nivel tau, cuyo minimizador es el cuantil tau condicional.",
zh = "一种用于分位数回归的非对称损失函数,定义为 max(tau (y-q), (tau-1)(y-q)),其最小化解为条件 tau 分位数。",
term_es = "pérdida pinball",
term_zh = "pinball 损失",
aliases_es = { "pérdida cuantílica", "pérdida de cuantil", "check loss" },
aliases_zh = { "分位数损失", "弹球损失", "check 损失" },
}
data["pipeline parallelism"] = {
short = "An inter-layer model parallelism strategy that places different layers (or stages) of a network on different devices and processes micro-batches in a pipeline so that all stages compute in parallel, mitigating the bubble overhead of naive layer splitting.",
article = nil,
aliases = { "PP", "pipeline parallel", "GPipe", "1F1B pipeline", "interleaved pipeline" },
es = "Estrategia de paralelismo de modelo entre capas que coloca distintas capas (o etapas) de la red en distintos dispositivos y procesa microlotes en pipeline para que todas las etapas calculen en paralelo, mitigando la sobrecarga por burbujas del particionado ingenuo por capas.",
zh = "层间模型并行策略:将网络的不同层(或阶段)放在不同设备上,按微批次进行流水线处理,使各阶段并行计算,从而缓解简单按层切分带来的“流水线气泡”开销。",
term_es = "paralelismo de tubería",
term_zh = "流水线并行",
aliases_es = { "PP", "paralelismo en pipeline", "GPipe" },
aliases_zh = { "PP", "管道并行", "GPipe", "1F1B 流水线" },
}
data["pipeline search"] = {
short = "An AutoML problem of jointly selecting and configuring a sequence of preprocessing, feature engineering, and model components that together form a machine learning pipeline.",
article = nil,
aliases = { "ML pipeline search", "AutoML pipeline search", "machine learning pipeline search" },
es = "Problema de AutoML consistente en seleccionar y configurar conjuntamente una secuencia de componentes de preprocesado, ingeniería de variables y modelado que conforman una tubería de aprendizaje automático.",
zh = "一类自动机器学习问题,目标是联合选择和配置一系列预处理、特征工程和模型组件,从而构成完整的机器学习流水线。",
term_es = "búsqueda de pipelines",
term_zh = "流水线搜索",
aliases_es = { "búsqueda de tuberías", "búsqueda de pipelines de ML" },
aliases_zh = { "管道搜索", "ML 流水线搜索" },
}
data["pipelined gradient communication"] = {
short = "A systems technique for distributed and federated training that pipelines gradient transfers with backward computation across layers, transmitting earlier-computed gradients while later layers are still being computed.",
article = nil,
aliases = { "gradient communication pipelining", "pipelined allreduce", "layer-wise gradient pipelining", "pipelined gradient transfer" },
es = "Técnica de sistemas para entrenamiento distribuido y federado que canaliza la transferencia de gradientes con el cómputo hacia atrás a lo largo de las capas, transmitiendo los gradientes calculados antes mientras se siguen computando capas posteriores.",
zh = "分布式与联邦训练中的一种系统技术:将梯度传输与各层的反向计算流水线化,在后续层还在计算时就先行传输已得到的梯度。",
term_es = "comunicación de gradientes en pipeline",
term_zh = "流水线梯度通信",
aliases_es = { "pipelining de comunicación de gradientes", "allreduce en pipeline", "pipelining de gradientes por capas", "transferencia de gradientes en pipeline" },
aliases_zh = { "梯度通信流水线", "流水线 allreduce", "逐层梯度流水线", "流水线梯度传输" },
}
data["pistachio dataset"] = {
short = "A large commercial reaction dataset compiled by NextMove Software from chemistry patents, used to train retrosynthesis and reaction-prediction models on millions of curated reactions.",
article = nil,
aliases = { "Pistachio", "Pistachio reactions", "NextMove Pistachio", "Pistachio reaction dataset" },
es = "Gran conjunto de datos comerciales de reacciones, compilado por NextMove Software a partir de patentes químicas y empleado para entrenar modelos de retrosíntesis y predicción de reacciones sobre millones de reacciones curadas.",
zh = "由 NextMove Software 从化学专利中编纂的大型商业反应数据集,用于在数百万条精选反应上训练逆合成与反应预测模型。",
term_es = "conjunto de datos Pistachio",
term_zh = "Pistachio 数据集",
aliases_es = { "Pistachio", "dataset Pistachio" },
aliases_zh = { "Pistachio", "Pistachio 反应数据集" },
}
data["pit loss"] = {
short = "The permutation-invariant training loss used in multi-talker source separation: for each training example, the loss is the minimum over all output-to-target permutations of a per-pair reconstruction error.",
article = nil,
aliases = { "PIT loss", "permutation-invariant training loss", "permutation invariant loss", "uPIT loss" },
es = "Pérdida de entrenamiento invariante a permutaciones usada en separación de fuentes multilocutor: para cada ejemplo de entrenamiento, la pérdida es el mínimo, sobre todas las permutaciones de salidas a objetivos, de un error de reconstrucción por pareja.",
zh = "多说话人源分离中使用的排列不变训练损失:对每个训练样本,损失为在所有输出到目标的排列中按对计算的重建误差的最小值。",
term_es = "pérdida PIT",
term_zh = "PIT 损失",
aliases_es = { "pérdida PIT", "pérdida invariante a permutaciones", "pérdida uPIT" },
aliases_zh = { "PIT loss", "排列不变损失", "uPIT 损失" },
}
data["pitch contour"] = {
short = "The trajectory of fundamental frequency over time in a speech or music signal, used as a prosodic feature for tasks such as expressive TTS, intonation analysis, melody extraction and singing synthesis.",
article = nil,
aliases = { "pitch contours", "F0 contour", "fundamental frequency contour", "pitch trajectory" },
es = "Trayectoria de la frecuencia fundamental a lo largo del tiempo en una señal de voz o música, utilizada como característica prosódica para tareas como TTS expresivo, análisis de entonación, extracción de melodía y síntesis de canto.",
zh = "语音或音乐信号中基频随时间变化的轨迹,作为韵律特征用于表达性 TTS、语调分析、旋律提取和歌唱合成等任务。",
term_es = "contorno de tono",
term_zh = "音高轮廓",
aliases_es = { "contorno de F0", "contorno de pitch", "trayectoria de tono", "contorno de frecuencia fundamental" },
aliases_zh = { "F0 轮廓", "基频轮廓", "音高曲线", "pitch contour" },
}
data["pitch detection"] = {
short = "The task of estimating the fundamental frequency (F0) of a (typically monophonic) audio signal over time, used in speech analysis, singing transcription, and music information retrieval.",
article = nil,
aliases = { "pitch tracking", "F0 estimation", "fundamental frequency estimation", "pitch estimation" },
es = "Tarea de estimar la frecuencia fundamental (F0) de una señal de audio (normalmente monofónica) a lo largo del tiempo, utilizada en análisis del habla, transcripción de canto y recuperación de información musical.",
zh = "估计音频信号(通常为单音)随时间变化的基频(F0)的任务,广泛用于语音分析、歌声转录和音乐信息检索。",
term_es = "detección de pitch",
term_zh = "音高检测",
aliases_es = { "estimación de pitch", "estimación de F0", "seguimiento de pitch", "estimación de la frecuencia fundamental" },
aliases_zh = { "音高估计", "基频估计", "F0估计", "音高跟踪" },
}
data["pitch predictor"] = {
short = "A neural network module in TTS or voice conversion systems that predicts a pitch (F0) contour from linguistic or content features, enabling explicit control of intonation in the generated speech.",
article = nil,
aliases = { "F0 predictor", "pitch prediction module", "F0 prediction network" },
es = "Módulo de red neuronal en sistemas de TTS o conversión de voz que predice un contorno de pitch (F0) a partir de características lingüísticas o de contenido, permitiendo el control explícito de la entonación en el habla generada.",
zh = "TTS 或语音转换系统中的神经网络模块,根据语言或内容特征预测音高(F0)轮廓,从而对生成语音的语调进行显式控制。",
term_es = "predictor de pitch",
term_zh = "音高预测器",
aliases_es = { "predictor de F0", "módulo de predicción de pitch" },
aliases_zh = { "F0预测器", "基频预测器", "音高预测模块" },
}
data["pitch shifting augmentation"] = {
short = "A data augmentation technique that shifts the fundamental frequency of audio up or down by a specified number of semitones while preserving duration, used to increase robustness in speech and audio models.",
article = nil,
aliases = { "pitch shift augmentation", "pitch shifting", "pitch perturbation" },
es = "Técnica de aumentación de datos que desplaza la frecuencia fundamental del audio en un número determinado de semitonos manteniendo la duración, utilizada para aumentar la robustez de los modelos de habla y audio.",
zh = "一种数据增强技术,在保持时长不变的前提下将音频的基频上下移动若干半音,用于提升语音和音频模型的鲁棒性。",
term_es = "aumentación por desplazamiento de pitch",
term_zh = "音高偏移增强",
aliases_es = { "pitch shifting", "perturbación de pitch", "aumentación con cambio de tono" },
aliases_zh = { "音高变换增强", "音高扰动", "pitch shift增强" },
}
data["piwae"] = {
short = "Partially-importance-weighted autoencoder: a variational autoencoder variant that trains the encoder with a tighter importance-weighted bound and the decoder with a looser one to balance gradient signal-to-noise across components.",
article = nil,
aliases = { "PIWAE", "partially importance-weighted autoencoder" },
es = "Autoencoder parcialmente ponderado por importancia: una variante del VAE que entrena el codificador con una cota ponderada por importancia más ajustada y el decodificador con una más laxa para equilibrar la señal-ruido del gradiente entre componentes.",
zh = "部分重要性加权自编码器:VAE 的一种变体,使用较紧的重要性加权下界训练编码器、较松的下界训练解码器,以平衡两个组件的梯度信噪比。",
term_es = "PIWAE",
term_zh = "PIWAE",
aliases_es = { "autoencoder parcialmente ponderado por importancia" },
aliases_zh = { "部分重要性加权自编码器" },
}
data["pix2struct"] = {
short = "A Google pretrained image-to-text model that turns screenshots of webpages, documents, and UI components into rendered HTML, enabling fine-tuning on visual-language understanding tasks like chart and diagram QA.",
article = nil,
aliases = { "Pix2Struct", "pix2struct" },
es = "Modelo preentrenado de imagen a texto de Google que convierte capturas de páginas web, documentos y componentes de UI en HTML renderizado, lo que permite ajuste fino en tareas de comprensión visual y de lenguaje, como QA sobre gráficos y diagramas.",
zh = "Google 提出的图像到文本预训练模型,可将网页、文档和 UI 组件的截图转换为渲染后的 HTML,便于在图表与示意图问答等视觉-语言理解任务上微调。",
term_es = "Pix2Struct",
term_zh = "Pix2Struct",
aliases_es = { "pix2struct" },
aliases_zh = { "pix2struct" },
}
data["pixart"] = {
short = "A family of efficient text-to-image diffusion transformers developed by Huawei Noah's Ark Lab, designed to deliver high-quality generation with substantially lower training cost than competing diffusion models.",
article = nil,
aliases = { "PixArt", "Pix-Art", "PixArt family" },
es = "Familia de transformadores de difusión texto-imagen eficientes desarrollada por Huawei Noah's Ark Lab, diseñada para ofrecer generación de alta calidad con un coste de entrenamiento muy inferior al de otros modelos de difusión.",
zh = "华为诺亚方舟实验室提出的一系列高效文本到图像扩散 Transformer 模型,旨在以远低于同类扩散模型的训练成本实现高质量的图像生成。",
term_es = "PixArt",
term_zh = "PixArt",
aliases_es = { "familia PixArt" },
aliases_zh = { "PixArt 系列" },
}
data["pixart-alpha"] = {
short = "The first PixArt diffusion transformer (PixArt-α), which introduces a transformer-based text-to-image architecture with cross-attention to T5 text embeddings and a curriculum that lowers training cost by an order of magnitude relative to comparable models.",
article = nil,
aliases = { "PixArt-alpha", "PixArt-α", "PixArt Alpha", "PixArt α" },
es = "Primer modelo PixArt-α: un transformador de difusión texto-imagen con atención cruzada sobre embeddings de texto T5 y un esquema de entrenamiento curricular que reduce el coste de entrenamiento en un orden de magnitud frente a modelos comparables.",
zh = "PixArt 系列的首个模型 PixArt-α:一种基于 Transformer 的文本到图像扩散模型,使用对 T5 文本嵌入的交叉注意力,并通过分阶段训练课程将训练成本相比同类模型降低约一个数量级。",
term_es = "PixArt-α",
term_zh = "PixArt-α",
aliases_es = { "PixArt-alpha", "PixArt Alpha" },
aliases_zh = { "PixArt-alpha", "PixArt Alpha" },
}
data["pixart-delta"] = {
short = "An accelerated successor to PixArt-α (PixArt-δ) that integrates Latent Consistency Model distillation and a ControlNet-style conditioning module, enabling high-resolution text-to-image generation in only a few sampling steps.",
article = nil,
aliases = { "PixArt-delta", "PixArt-δ", "PixArt Delta", "PixArt δ" },
es = "Sucesor acelerado de PixArt-α, denominado PixArt-δ, que integra la destilación tipo Latent Consistency Model y un módulo de condicionamiento estilo ControlNet, permitiendo la generación texto-imagen de alta resolución en solo unos pocos pasos de muestreo.",
zh = "PixArt-α 的加速版本 PixArt-δ:结合了 Latent Consistency Model 风格的蒸馏和类似 ControlNet 的条件控制模块,能够在很少的采样步内完成高分辨率的文本到图像生成。",
term_es = "PixArt-δ",
term_zh = "PixArt-δ",
aliases_es = { "PixArt-delta", "PixArt Delta" },
aliases_zh = { "PixArt-delta", "PixArt Delta" },
}
data["pixart-sigma"] = {
short = "A diffusion transformer text-to-image model from Huawei (PixArt-Σ) that scales PixArt-α to 4K-resolution generation by progressively training with weak-to-strong learning and high-quality re-captioned data.",
article = nil,
aliases = { "PixArt-Sigma", "PixArt-Σ", "PixArt Sigma", "PixArt-sigma" },
es = "Modelo de texto a imagen basado en transformadores de difusión de Huawei (PixArt-Σ) que escala PixArt-α a generación en resolución 4K mediante un entrenamiento progresivo de tipo «de débil a fuerte» y datos re-etiquetados de alta calidad.",
zh = "华为提出的扩散 Transformer 文本到图像模型 PixArt-Σ,通过弱到强渐进式训练和高质量重写字幕数据,将 PixArt-α 扩展至 4K 分辨率生成。",
term_es = "PixArt-Σ",
term_zh = "PixArt-Σ",
aliases_es = { "PixArt-Sigma", "PixArt Sigma" },
aliases_zh = { "PixArt-Sigma", "PixArt Sigma" },
}
data["pixel flipping"] = {
short = "A faithfulness evaluation in which pixels (or input features) are flipped or replaced with a baseline value in order of attributed importance, and the area under the resulting drop-in-prediction curve is reported.",
article = nil,
aliases = { "pixel-flipping", "pixel flipping evaluation", "pixel flipping curve", "MoRF/LeRF evaluation" },
es = "Evaluación de fidelidad en la que los píxeles (o características de entrada) se invierten o se sustituyen por un valor de referencia en orden de importancia atribuida, y se informa el área bajo la curva de caída de la predicción resultante.",
zh = "一种忠实性评估方法,按归因重要性顺序翻转像素(或输入特征)或将其替换为基线值,并报告由此得到的预测下降曲线下的面积。",
term_es = "pixel flipping",
term_zh = "像素翻转",
aliases_es = { "inversión de píxeles", "evaluación por inversión de píxeles", "curva de pixel flipping" },
aliases_zh = { "像素翻转评估", "像素翻转曲线", "MoRF/LeRF 评估" },
}
data["pixel-level grounding"] = {
short = "Localizing the precise pixels — typically as a segmentation mask — that correspond to a textual reference, providing finer spatial alignment than bounding-box phrase grounding.",
article = nil,
aliases = { "pixel-level grounding", "pixel level grounding", "mask-level grounding", "pixel-wise grounding" },
es = "Localización a nivel de píxel — habitualmente mediante una máscara de segmentación — de la región que corresponde a una referencia textual, ofreciendo una alineación espacial más fina que el anclaje basado en cajas delimitadoras.",
zh = "像素级定位:以分割掩码形式精确标出与文本指代相对应的像素区域,比基于边界框的短语定位提供更细致的空间对齐。",
term_es = "anclaje a nivel de píxel",
term_zh = "像素级定位",
aliases_es = { "anclaje por máscara", "pixel-level grounding" },
aliases_zh = { "掩码级定位", "pixel-level grounding" },
}
data["pixel-pattern backdoor"] = {
short = "A data-poisoning backdoor attack on machine learning models in which a small fixed pixel pattern is embedded into training images and bound to a target label, so that the trained model misclassifies any test image carrying the same pattern.",
article = nil,
aliases = { "pixel-pattern trigger", "BadNets pixel trigger", "pixel backdoor", "pixel-pattern trojan" },
es = "Ataque de puerta trasera por envenenamiento de datos sobre modelos de aprendizaje automático en el que se incrusta un pequeño patrón fijo de píxeles en las imágenes de entrenamiento ligado a una etiqueta objetivo, de modo que el modelo entrenado clasifique erróneamente cualquier imagen de prueba que lleve el mismo patrón.",
zh = "针对机器学习模型的一种数据投毒后门攻击:在训练图像中嵌入一个固定的小像素图案并将其与目标标签绑定,使训练得到的模型对任何带有相同图案的测试图像产生错误分类。",
term_es = "puerta trasera por patrón de píxeles",
term_zh = "像素图案后门",
aliases_es = { "disparador por patrón de píxeles", "trigger de píxeles BadNets", "puerta trasera de píxeles", "troyano por patrón de píxeles" },
aliases_zh = { "像素图案触发器", "BadNets 像素触发器", "像素后门", "像素图案木马" },
}
data["pixelcnn"] = {
short = "An autoregressive image model (van den Oord et al., 2016) that models p(x) over pixels using stacks of masked convolutions, ensuring each pixel depends only on previously generated ones; faster to train than PixelRNN at comparable likelihoods.",
article = nil,
aliases = { "PixelCNN", "Pixel CNN", "Gated PixelCNN", "PixelCNN++" },
es = "Modelo autorregresivo de imagen (van den Oord et al., 2016) que modela p(x) sobre píxeles mediante pilas de convoluciones enmascaradas, garantizando que cada píxel dependa solo de los previamente generados; se entrena más rápido que PixelRNN con verosimilitudes comparables.",
zh = "van den Oord 等人于 2016 年提出的自回归图像模型:用堆叠的掩码卷积建模像素上的 p(x),保证每个像素只依赖此前已生成的像素;在可比的似然下比 PixelRNN 更易训练。",
term_es = "PixelCNN",
term_zh = "PixelCNN",
aliases_es = { "PixelCNN++", "PixelCNN compuerta" },
aliases_zh = { "PixelCNN++", "门控 PixelCNN" },
}
data["pixelrnn"] = {
short = "An autoregressive image model (van den Oord et al., 2016) that generates pixels in raster order using two-dimensional LSTM variants (Row LSTM, Diagonal BiLSTM) to capture long-range dependencies; achieves strong likelihoods at the cost of slow sequential sampling.",
article = nil,
aliases = { "PixelRNN", "Pixel RNN" },
es = "Modelo autorregresivo de imagen (van den Oord et al., 2016) que genera píxeles en orden de exploración mediante variantes bidimensionales de LSTM (Row LSTM, Diagonal BiLSTM) para capturar dependencias de largo alcance; alcanza verosimilitudes fuertes a costa de un muestreo secuencial lento.",
zh = "van den Oord 等人于 2016 年提出的自回归图像模型:按光栅顺序生成像素,使用 Row LSTM、Diagonal BiLSTM 等二维 LSTM 变体捕获长距离依赖;可获得很强的似然,但采样速度慢。",
term_es = "PixelRNN",
term_zh = "PixelRNN",
aliases_es = {},
aliases_zh = {},
}
data["pixtral"] = {
short = "Mistral AI's open multimodal vision-language model family (Pixtral 12B and Pixtral Large) that pairs a vision encoder with a Mistral or Mistral Large language decoder for image-and-text understanding.",
article = nil,
aliases = { "Pixtral", "Pixtral 12B", "Pixtral Large" },
es = "Familia de modelos multimodales abiertos de visión y lenguaje de Mistral AI (Pixtral 12B y Pixtral Large) que combina un codificador de visión con un decodificador de lenguaje Mistral o Mistral Large para comprensión conjunta de imagen y texto.",
zh = "Mistral AI 推出的开源多模态视觉-语言模型系列(Pixtral 12B 与 Pixtral Large),将视觉编码器与 Mistral 或 Mistral Large 语言解码器结合,用于图文联合理解。",
term_es = "Pixtral",
term_zh = "Pixtral",
aliases_es = { "Pixtral 12B", "Pixtral Large" },
aliases_zh = { "Pixtral 12B", "Pixtral Large" },
}
data["pka prediction"] = {
short = "The computational prediction of the acid-dissociation constant (pKa) of ionizable groups in small molecules, an important property for solubility, permeability, and activity that is now routinely tackled with machine-learning regressors.",
article = nil,
aliases = { "pKa prediction", "predicting pKa", "acid dissociation constant prediction" },
es = "Predicción computacional de la constante de disociación ácida (pKa) de los grupos ionizables en moléculas pequeñas, propiedad importante para la solubilidad, la permeabilidad y la actividad, hoy abordada de forma rutinaria con regresores de aprendizaje automático.",
zh = "对小分子中可电离基团酸解离常数(pKa)的计算预测,这是影响溶解度、渗透性和活性的关键性质,目前常以机器学习回归模型处理。",
term_es = "predicción de pKa",
term_zh = "pKa 预测",
aliases_es = { "predicción del pKa", "predicción de la constante de disociación ácida" },
aliases_zh = { "酸解离常数预测", "预测 pKa" },
}
data["placebo test"] = {
short = "A falsification check that applies the same estimator to an outcome, treatment, or period where, under the identifying assumptions, no causal effect should appear; a non-zero estimate signals model misspecification.",
article = nil,
aliases = { "falsification test", "placebo check", "negative control test" },
es = "Prueba de falsación que aplica el mismo estimador a un resultado, tratamiento o periodo en el que, bajo los supuestos de identificación, no debería detectarse efecto causal; una estimación distinta de cero indica mala especificación del modelo.",
zh = "一种证伪检验:在识别假设下本不应存在因果效应的结局、处理或时间段上运行同一估计量;若得到非零估计,则提示模型设定有误。",
term_es = "prueba placebo",
term_zh = "安慰剂检验",
aliases_es = { "test placebo", "prueba de falsación" },
aliases_zh = { "证伪检验", "假处理检验", "安慰剂测试" },
}
data["planar flow posterior"] = {
short = "A normalizing-flow approximate posterior built from planar transformations of the form f(z) = z + u h(w^T z + b), used in amortized variational inference to express richer posteriors than mean-field Gaussians.",
article = nil,
aliases = { "planar normalizing flow", "planar flow", "planar VI posterior" },
es = "Posterior aproximada construida con flujos normalizadores planares de la forma f(z) = z + u h(w^T z + b), usada en inferencia variacional amortizada para expresar posteriors más ricas que las gaussianas de campo medio.",
zh = "采用形如 f(z) = z + u h(w^T z + b) 的平面变换构建的归一化流近似后验,用于摊销变分推断以表达比均场高斯更丰富的后验。",
term_es = "posterior con flujo planar",
term_zh = "平面流后验",
aliases_es = { "flujo planar", "posterior de flujo planar" },
aliases_zh = { "平面归一化流", "planar flow 后验" },
}
data["plasma protein binding"] = {
short = "The reversible binding of a drug to proteins in blood plasma — most notably albumin and α₁-acid glycoprotein — which controls the free, pharmacologically active fraction and influences distribution, clearance, and dosing.",
article = nil,
aliases = { "PPB", "plasma protein-binding", "fraction unbound", "fu", "drug-plasma protein binding" },
es = "Unión reversible de un fármaco a las proteínas del plasma sanguíneo —principalmente albúmina y glicoproteína ácida α₁— que regula la fracción libre farmacológicamente activa e influye en la distribución, el aclaramiento y la dosificación.",
zh = "药物与血浆蛋白(主要是白蛋白和 α₁-酸性糖蛋白)的可逆结合,决定具有药理活性的游离部分,并影响分布、清除和给药剂量。",
term_es = "unión a proteínas plasmáticas",
term_zh = "血浆蛋白结合",
aliases_es = { "PPB", "fijación a proteínas plasmáticas", "fracción libre", "fracción no unida" },
aliases_zh = { "血浆蛋白结合率", "PPB", "游离分数" },
}
data["platform-aware nas"] = {
short = "A neural architecture search method that incorporates target-hardware metrics such as on-device latency, memory, or energy directly into the search objective so that the resulting architectures are tuned for a specific deployment platform.",
article = nil,
aliases = { "platform-aware NAS", "hardware-aware NAS", "device-aware NAS" },
es = "Método de búsqueda de arquitecturas neuronales que incorpora métricas del hardware objetivo, como latencia en dispositivo, memoria o energía, directamente en la función objetivo, de modo que las arquitecturas resultantes están adaptadas a una plataforma de despliegue concreta.",
zh = "一类神经架构搜索方法,将目标硬件指标(如设备端延迟、内存或能耗)直接纳入搜索目标,使搜索得到的架构针对特定部署平台进行了优化。",
term_es = "NAS consciente de la plataforma",
term_zh = "面向平台的 NAS",
aliases_es = { "NAS consciente del hardware", "NAS dependiente del dispositivo" },
aliases_zh = { "硬件感知 NAS", "平台感知神经架构搜索", "设备感知 NAS" },
}
data["platipus"] = {
short = "Probabilistic LATent model for Incorporating Priors and Uncertainty in few-Shot learning, a Bayesian extension of MAML that places a distribution over task-specific parameters to capture uncertainty in few-shot learning.",
article = nil,
aliases = { "PLATIPUS", "Platipus" },
es = "PLATIPUS, extensión bayesiana de MAML que coloca una distribución sobre los parámetros específicos de cada tarea para capturar la incertidumbre en aprendizaje con pocas muestras.",
zh = "PLATIPUS,MAML 的贝叶斯扩展,对任务特定参数施加分布以在少样本学习中刻画不确定性。",
term_es = "PLATIPUS",
term_zh = "PLATIPUS",
aliases_es = { "Platipus" },
aliases_zh = { "Platipus" },
}
data["platt scaling"] = {
short = "A post-hoc calibration method that fits a one-parameter logistic regression mapping classifier scores to probabilities, p̂ = σ(a·s + b). Originally introduced for SVMs and now used as a baseline calibrator for many models.",
article = nil,
aliases = { "Platt scaling", "Platt calibration", "sigmoid calibration" },
es = "Método de calibración a posteriori que ajusta una regresión logística de un parámetro que mapea las puntuaciones del clasificador a probabilidades, p̂ = σ(a·s + b). Originalmente propuesto para SVMs, hoy se usa como calibrador básico en muchos modelos.",
zh = "一种后处理校准方法:用单参数 logistic 回归将分类器得分映射为概率,p̂ = σ(a·s + b)。最初为 SVM 提出,如今作为多种模型的基线校准方法。",
term_es = "escalado de Platt",
term_zh = "Platt 缩放",
aliases_es = { "calibración de Platt", "calibración sigmoide" },
aliases_zh = { "Platt 校准", "Platt scaling", "sigmoid 校准" },
}
data["plausibility metric"] = {
short = "An evaluation criterion for explanations that measures how convincing or sensible they are to humans — for example, agreement with human-annotated rationales — independently of whether they faithfully reflect the model's reasoning.",
article = nil,
aliases = { "plausibility", "plausibility score", "explanation plausibility", "human plausibility metric" },
es = "Criterio de evaluación para explicaciones que mide cuán convincentes o razonables resultan para las personas — por ejemplo, su coincidencia con racionales anotados por humanos — con independencia de que reflejen fielmente el razonamiento del modelo.",
zh = "一种解释评估准则,衡量解释对人类而言是否令人信服或合理(例如与人工标注的理由的一致程度),与解释是否真实反映模型的推理过程无关。",
term_es = "métrica de plausibilidad",
term_zh = "合理性指标",
aliases_es = { "plausibilidad", "puntuación de plausibilidad", "plausibilidad de la explicación" },
aliases_zh = { "合理性", "合理性评分", "解释合理性指标", "可信度指标" },
}
data["playground v3"] = {
short = "A 2024 commercial text-to-image diffusion model from Playground AI built on a deep-fused multimodal architecture that consumes large language model features directly, with reported strong performance on graphic-design-style images.",
article = nil,
aliases = { "Playground v3", "Playground V3", "PG v3", "Playground AI v3" },
es = "Modelo comercial de difusión texto-a-imagen de 2024 de Playground AI, basado en una arquitectura multimodal profundamente fusionada que consume directamente representaciones de un modelo de lenguaje grande, con un rendimiento destacado en imágenes de tipo diseño gráfico.",
zh = "Playground AI 于 2024 年发布的商用文本到图像扩散模型,采用深度融合的多模态架构,直接利用大语言模型的特征,在平面设计风格图像上表现突出。",
term_es = "Playground v3",
term_zh = "Playground v3",
aliases_es = { "Playground V3", "Playground AI v3" },
aliases_zh = { "Playground V3", "Playground AI v3" },
}
data["plda"] = {
short = "Probabilistic Linear Discriminant Analysis, a generative model that decomposes feature vectors into speaker and channel/noise subspaces, widely used as the back-end scoring model in i-vector and x-vector speaker verification systems.",
article = nil,
aliases = { "PLDA", "probabilistic linear discriminant analysis", "probabilistic LDA" },
es = "Análisis Discriminante Lineal Probabilístico, modelo generativo que descompone los vectores de características en subespacios de locutor y de canal/ruido, ampliamente utilizado como modelo de puntuación final en sistemas de verificación de locutor basados en i-vectors y x-vectors.",
zh = "概率线性判别分析,一种将特征向量分解为说话人子空间与信道/噪声子空间的生成模型,广泛用作 i-vector 和 x-vector 说话人验证系统的后端打分模型。",
term_es = "PLDA",
term_zh = "PLDA",
aliases_es = { "análisis discriminante lineal probabilístico", "LDA probabilístico" },
aliases_zh = { "概率线性判别分析", "概率LDA" },
}
data["plddt"] = {
short = "Predicted Local Distance Difference Test, the per-residue confidence score output by AlphaFold and related structure predictors; values range 0–100, with values above ~70 typically indicating reliable backbone placement.",
article = nil,
aliases = { "pLDDT", "predicted LDDT", "predicted local distance difference test", "AlphaFold confidence" },
es = "Predicted Local Distance Difference Test: puntuación de confianza por residuo emitida por AlphaFold y predictores de estructura relacionados; sus valores van de 0 a 100, y los superiores a ~70 suelen indicar una colocación fiable del esqueleto.",
zh = "预测局部距离差异检验(pLDDT),AlphaFold 等结构预测模型输出的每残基置信度评分,取值 0–100,约高于 70 通常表示主链位置可靠。",
term_es = "pLDDT",
term_zh = "pLDDT",
aliases_es = { "puntuación pLDDT", "LDDT predicho" },
aliases_zh = { "预测局部距离差异检验", "AlphaFold 置信度" },
}
data["pleiotropy"] = {
short = "In Mendelian randomization, the phenomenon where a genetic variant influences the outcome through pathways other than the exposure of interest, violating the exclusion-restriction assumption of the instrument.",
article = nil,
aliases = { "horizontal pleiotropy", "pleiotropic effect" },
es = "En la aleatorización mendeliana, fenómeno por el cual una variante genética influye en el resultado a través de vías distintas de la exposición de interés, lo que viola el supuesto de restricción de exclusión del instrumento.",
zh = "在孟德尔随机化中,某一遗传变异通过暴露之外的其他途径影响结局的现象,违反了工具变量的排他性约束假设。",
term_es = "pleiotropía",
term_zh = "多效性",
aliases_es = { "pleiotropía horizontal", "efecto pleiotrópico" },
aliases_zh = { "水平多效性", "基因多效性" },
}
data["plink"] = {
short = "A widely used open-source toolset for whole-genome association analysis and population-based linkage analysis on SNP genotype data, supporting QC, GWAS, LD pruning, and PCA.",
article = nil,
aliases = { "PLINK", "PLINK2", "plink2" },
es = "Conjunto de herramientas de código abierto ampliamente utilizado para análisis de asociación de genoma completo y análisis de ligamiento poblacional sobre datos de genotipos SNP, con soporte para QC, GWAS, podado por LD y PCA.",
zh = "广泛使用的开源工具集,用于全基因组关联分析和基于种群的连锁分析,支持 SNP 基因型数据的质量控制、GWAS、LD 修剪和 PCA。",
term_es = "PLINK",
term_zh = "PLINK",
aliases_es = { "PLINK", "PLINK2" },
aliases_zh = { "PLINK", "PLINK2" },
}
data["ploidy estimation"] = {
short = "Computational inference of the number of chromosome copies (ploidy) in a sample from sequencing data, important for cancer genomics, polyploid organisms, and copy-number analysis.",
article = nil,
aliases = { "ploidy inference", "ploidy detection", "tumor ploidy estimation" },
es = "Inferencia computacional del número de copias cromosómicas (ploidía) en una muestra a partir de datos de secuenciación, relevante en genómica del cáncer, organismos poliploides y análisis de número de copias.",
zh = "从测序数据中通过计算推断样本染色体拷贝数(倍性),在肿瘤基因组学、多倍体生物和拷贝数分析中至关重要。",
term_es = "estimación de ploidía",
term_zh = "倍性估计",
aliases_es = { "inferencia de ploidía", "detección de ploidía" },
aliases_zh = { "倍性推断", "倍性检测" },
}
data["plp features"] = {
short = "Perceptual Linear Prediction features, an acoustic feature extraction method that applies psychoacoustic transformations (Bark-scale critical-band integration, equal-loudness preemphasis, intensity-loudness compression) before linear prediction, historically used in ASR.",
article = nil,
aliases = { "PLP features", "perceptual linear prediction", "PLP coefficients", "PLP" },
es = "Características de Predicción Lineal Perceptual, método de extracción de características acústicas que aplica transformaciones psicoacústicas (integración por bandas críticas en escala Bark, preénfasis de equal-loudness, compresión intensidad-sonoridad) antes de la predicción lineal, utilizado históricamente en ASR.",
zh = "感知线性预测特征,一种声学特征提取方法,在线性预测之前先应用心理声学变换(Bark 临界带积分、等响度预加重、强度-响度压缩),曾广泛用于自动语音识别。",
term_es = "características PLP",
term_zh = "PLP特征",
aliases_es = { "PLP", "predicción lineal perceptual", "coeficientes PLP" },
aliases_zh = { "感知线性预测", "PLP系数", "感知线性预测特征" },
}
data["plug-in estimator"] = {
short = "An estimator obtained by substituting estimates of the nuisance components (e.g., outcome regression or propensity score) directly into the identification formula for a causal estimand, without an additional bias-correction step.",
article = nil,
aliases = { "plug in estimator", "plugin estimator", "substitution estimator" },
es = "Estimador obtenido al sustituir estimaciones de las componentes molestas (por ejemplo, la regresión del resultado o el puntaje de propensión) directamente en la fórmula de identificación del estimando causal, sin un paso adicional de corrección del sesgo.",
zh = "一种估计量:将干扰组件(如结局回归或倾向得分)的估计直接代入因果估计量的识别公式,而不进行额外的偏差校正。",
term_es = "estimador plug-in",
term_zh = "插入式估计量",
aliases_es = { "estimador por sustitución", "estimador de inserción" },
aliases_zh = { "代入估计量", "替代估计量", "plug-in 估计量" },
}
data["pmcclip"] = {
short = "A CLIP variant pretrained on biomedical figure-caption pairs scraped from PubMed Central articles, designed to provide image-text representations specialised for medical and scientific imagery.",
article = nil,
aliases = { "PMC-CLIP", "PMCCLIP", "PMC CLIP", "PubMed Central CLIP" },
es = "Variante de CLIP preentrenada con pares figura-descripción biomédicos extraídos de artículos de PubMed Central, diseñada para proporcionar representaciones imagen-texto especializadas en imágenes médicas y científicas.",
zh = "CLIP 的一个变体,使用从 PubMed Central 文章中抓取的生物医学图-文配对进行预训练,旨在为医学与科学图像提供专门的图文表示。",
term_es = "PMC-CLIP",
term_zh = "PMC-CLIP",
aliases_es = { "PMCCLIP" },
aliases_zh = { "PMCCLIP" },
}
data["pnas"] = {
short = "Progressive Neural Architecture Search, a NAS method that grows cell structures progressively from simple to complex while training a surrogate predictor to rank promising candidates, reducing the cost relative to RL-based NAS.",
article = nil,
aliases = { "PNAS", "Progressive Neural Architecture Search", "progressive NAS" },
es = "Progressive Neural Architecture Search, método de NAS que hace crecer estructuras de células de forma progresiva, de simples a complejas, mientras entrena un predictor sustituto que ordena las candidatas prometedoras, reduciendo el coste frente al NAS basado en RL.",
zh = "Progressive Neural Architecture Search,一种神经架构搜索方法,逐步将单元结构从简单扩展到复杂,并训练代理预测模型对候选架构排序,相比基于强化学习的 NAS 显著降低开销。",
term_es = "PNAS",
term_zh = "PNAS",
aliases_es = { "búsqueda progresiva de arquitecturas neuronales" },
aliases_zh = { "渐进式神经架构搜索", "Progressive NAS" },
}
data["pnasnet-5"] = {
short = "The image-classification architecture discovered by Progressive Neural Architecture Search, built from five stacked progressively-discovered cells. It achieved state-of-the-art ImageNet accuracy among NAS-found models at the time of publication.",
article = nil,
aliases = { "PNASNet-5", "PNASNet5", "PNASNet" },
es = "Arquitectura de clasificación de imágenes descubierta por Progressive Neural Architecture Search, formada por cinco celdas apiladas descubiertas progresivamente. Alcanzó el estado del arte en ImageNet entre los modelos hallados por NAS en el momento de su publicación.",
zh = "由 Progressive Neural Architecture Search 搜索得到的图像分类架构,由五个逐步发现的单元堆叠而成。在发布时在 NAS 搜索得到的模型中达到 ImageNet 当时的最优精度。",
term_es = "PNASNet-5",
term_zh = "PNASNet-5",
aliases_es = { "PNASNet" },
aliases_zh = { "PNASNet", "PNASNet5" },
}
data["pocket prediction"] = {
short = "The computational identification of regions on a protein surface — typically concave cavities — that are likely to bind small-molecule ligands, used as a preprocessing step for docking and structure-based design.",
article = nil,
aliases = { "binding pocket prediction", "binding site prediction", "ligand pocket prediction", "cavity detection" },
es = "Identificación computacional de regiones en la superficie de una proteína —generalmente cavidades cóncavas— con probabilidad de unir ligandos de molécula pequeña, usada como paso previo al acoplamiento y al diseño basado en estructura.",
zh = "在蛋白质表面识别可能与小分子配体结合的区域(通常是凹陷腔体)的计算任务,常作为对接和基于结构的设计的预处理步骤。",
term_es = "predicción de bolsillos",
term_zh = "口袋预测",
aliases_es = { "predicción de bolsillos de unión", "predicción del sitio de unión", "detección de cavidades" },
aliases_zh = { "结合口袋预测", "结合位点预测", "空腔检测" },
}
data["pocket2mol"] = {
short = "An autoregressive equivariant generative model that builds 3D ligands atom by atom inside a given protein binding pocket, conditioning each step on both the pocket geometry and the partial molecule.",
article = nil,
aliases = { "Pocket2Mol", "Pocket-2-Mol" },
es = "Modelo generativo equivariante autorregresivo que construye ligandos 3D átomo a átomo dentro de un bolsillo de unión proteico dado, condicionando cada paso a la geometría del bolsillo y a la molécula parcial.",
zh = "一种自回归等变生成模型,在给定蛋白质结合口袋内逐原子构建三维配体,每一步都同时以口袋几何和已生成的部分分子为条件。",
term_es = "Pocket2Mol",
term_zh = "Pocket2Mol",
aliases_es = {},
aliases_zh = {},
}
data["point cloud"] = {
short = "A 3D data representation consisting of an unordered set of points in space, each typically described by 3D coordinates and optional attributes such as color or surface normals. Common output of LiDAR sensors and depth cameras.",
article = nil,
aliases = { "point clouds", "3D point cloud" },
es = "Representación de datos 3D que consiste en un conjunto desordenado de puntos en el espacio, cada uno descrito típicamente por coordenadas 3D y atributos opcionales como color o normales de superficie. Salida habitual de sensores LiDAR y cámaras de profundidad.",
zh = "一种三维数据表示,由空间中无序的点集合构成,每个点通常由三维坐标和可选属性(如颜色或表面法线)描述。常见于激光雷达传感器和深度相机的输出。",
term_es = "nube de puntos",
term_zh = "点云",
aliases_es = { "nube de puntos 3D" },
aliases_zh = { "三维点云", "point cloud" },
}
data["point identification"] = {
short = "A causal estimand is point-identified when the assumptions and the observed data distribution determine its value uniquely, in contrast to partial (set) identification, which yields only bounds.",
article = nil,
aliases = { "point identifiability", "exact identification" },
es = "Un estimando causal está identificado puntualmente cuando los supuestos y la distribución de los datos observados determinan su valor de forma única; se contrapone a la identificación parcial (por conjuntos), que solo arroja cotas.",
zh = "当假设和可观测数据分布唯一确定一个因果估计量的值时,该估计量被称为点识别的;与之相对的是部分识别(集合识别),后者只能给出界限。",
term_es = "identificación puntual",
term_zh = "点识别",
aliases_es = { "identificabilidad puntual", "identificación exacta" },
aliases_zh = { "精确识别", "点可识别性" },
}
data["point-e"] = {
short = "An OpenAI text-to-3D system that first generates a synthetic image from a prompt with a diffusion model and then converts it into a coloured 3D point cloud via a second point-cloud diffusion model.",
article = nil,
aliases = { "Point-E", "PointE", "Point E", "OpenAI Point-E" },
es = "Sistema texto-a-3D de OpenAI que primero genera una imagen sintética a partir del prompt con un modelo de difusión y a continuación la convierte en una nube de puntos 3D coloreada mediante un segundo modelo de difusión sobre nubes de puntos.",
zh = "OpenAI 提出的文本到 3D 系统:首先用一个扩散模型根据提示生成合成图像,再用第二个针对点云的扩散模型将该图像转换为带颜色的三维点云。",
term_es = "Point-E",
term_zh = "Point-E",
aliases_es = { "PointE" },
aliases_zh = { "PointE" },
}
data["point-to-point communication"] = {
short = "A communication pattern in distributed systems where one process sends a message directly to one specific receiving process, in contrast to collective operations that involve all participants. Forms the building block for higher-level primitives such as all-reduce.",
article = nil,
aliases = { "P2P communication", "p2p send/recv", "pairwise communication", "send-receive" },
es = "Patrón de comunicación en sistemas distribuidos en el que un proceso envía un mensaje directamente a un único proceso receptor, a diferencia de las operaciones colectivas que involucran a todos los participantes. Es el bloque básico de primitivas de mayor nivel como all-reduce.",
zh = "分布式系统中的一种通信模式,由一个进程将消息直接发送至另一个特定的接收进程,区别于涉及所有参与者的集体操作。它是 all-reduce 等高级通信原语的基本构件。",
term_es = "comunicación punto a punto",
term_zh = "点对点通信",
aliases_es = { "comunicación P2P", "envío-recepción", "comunicación por pares" },
aliases_zh = { "P2P 通信", "点到点通信", "send/recv 通信" },
}
data["pointer graph network"] = {
short = "A graph neural network architecture that learns to dynamically construct edges by pointing from each node to other nodes, enabling the model to infer latent graph structure for algorithmic reasoning tasks.",
article = nil,
aliases = { "PGN", "pointer graph networks", "Pointer Graph Networks" },
es = "Una arquitectura de red neuronal de grafos que aprende a construir aristas dinámicamente apuntando desde cada nodo hacia otros nodos, lo que permite al modelo inferir estructura latente del grafo para tareas de razonamiento algorítmico.",
zh = "一种图神经网络架构,通过让每个节点指向其他节点来动态学习构造边,使模型能够推断潜在的图结构,用于算法推理任务。",
term_es = "red de grafos con punteros",
term_zh = "指针图网络",
aliases_es = { "PGN", "redes de grafos con punteros" },
aliases_zh = { "PGN", "指针图网络", "Pointer Graph Network" },
}
data["pointer network"] = {
short = "A sequence-to-sequence architecture that uses attention to produce an output by pointing to elements of the input sequence, useful for variable-output-vocabulary tasks like sorting or convex hull.",
article = nil,
aliases = { "Pointer Network", "Ptr-Net", "PtrNet", "pointer networks" },
es = "Arquitectura secuencia a secuencia que usa atención para producir su salida apuntando a elementos de la secuencia de entrada, útil para tareas con vocabulario de salida variable como ordenamiento o envoltura convexa.",
zh = "一种序列到序列架构,利用注意力机制通过指向输入序列中的元素来生成输出,适用于排序或凸包等输出词汇可变的任务。",
term_es = "red apuntadora",
term_zh = "指针网络",
aliases_es = { "Pointer Network", "Ptr-Net", "red puntero", "redes apuntadoras" },
aliases_zh = { "Pointer Network", "Ptr-Net" },
}
data["pointing game"] = {
short = "A localization-based evaluation of saliency methods in which the highest-scoring point on the attribution map is checked against ground-truth object bounding boxes or masks, with accuracy defined as the fraction of hits.",
article = nil,
aliases = { "pointing game evaluation", "pointing-game accuracy", "pointing game metric" },
es = "Evaluación de los métodos de saliencia basada en localización en la que el punto con mayor puntuación del mapa de atribución se compara con cajas o máscaras de objeto de referencia, definiendo la exactitud como la fracción de aciertos.",
zh = "一种基于定位的显著性方法评估方式,将归因图上得分最高的点与真实物体的边界框或掩码进行比对,并以命中比例作为准确率。",
term_es = "pointing game",
term_zh = "Pointing Game",
aliases_es = { "evaluación pointing game", "métrica pointing game", "exactitud de pointing game" },
aliases_zh = { "pointing game", "指点游戏", "Pointing Game 评估", "Pointing Game 准确率" },
}
data["pointwise convolution"] = {
short = "A 1×1 convolution that linearly combines input channels at each spatial location, mixing channel information without considering spatial neighborhoods. Forms the channel-mixing step of depthwise separable convolutions.",
article = nil,
aliases = { "1x1 convolution", "1×1 convolution", "Pointwise Convolution", "pointwise conv", "point-wise convolution" },
es = "Convolución 1×1 que combina linealmente los canales de entrada en cada posición espacial, mezclando información entre canales sin considerar vecindarios espaciales. Constituye el paso de mezcla de canales en las convoluciones separables en profundidad.",
zh = "1×1 卷积,在每个空间位置对输入通道做线性组合,仅在通道之间混合信息而不考虑空间邻域,是深度可分离卷积的通道混合步骤。",
term_es = "convolución puntual",
term_zh = "逐点卷积",
aliases_es = { "convolución 1×1", "convolución pointwise", "pointwise convolution" },
aliases_zh = { "1×1 卷积", "pointwise 卷积", "pointwise convolution" },
}
data["pointwise mutual information"] = {
short = "A pointwise measure of association between specific outcomes: PMI(x,y) = log(p(x,y) / (p(x)p(y))). Mutual information is its expectation under p(x,y); widely used in lexical statistics and word-association mining.",
article = nil,
aliases = { "PMI", "pointwise MI", "specific mutual information" },
es = "Medida puntual de asociación entre resultados específicos: PMI(x,y) = log(p(x,y) / (p(x)p(y))). La información mutua es su esperanza bajo p(x,y); muy utilizada en estadística léxica y minería de asociaciones de palabras.",
zh = "针对具体结果的关联度量:PMI(x,y) = log(p(x,y) / (p(x)p(y)))。互信息是其在 p(x,y) 下的期望;广泛用于词汇统计和词关联挖掘。",
term_es = "información mutua puntual",
term_zh = "点互信息",
aliases_es = { "PMI", "información mutua puntual (PMI)" },
aliases_zh = { "点互信息 PMI", "PMI" },
}
data["poisson distribution"] = {
short = "The discrete distribution P(k|λ) = λᵏ e^(−λ) / k! over non-negative integers, modeling the number of independent events in a fixed interval at constant rate λ. Its mean and variance both equal λ.",
article = nil,
aliases = { "Poisson", "Pois(λ)", "Poisson(λ)" },
es = "Distribución discreta P(k|λ) = λᵏ e^(−λ) / k! sobre los enteros no negativos, que modela el número de eventos independientes en un intervalo fijo con tasa constante λ. Su media y su varianza son ambas iguales a λ.",
zh = "定义在非负整数上的离散分布 P(k|λ) = λᵏ e^(−λ) / k!,用于刻画在固定区间内以恒定速率 λ 发生的独立事件数。其均值和方差都等于 λ。",
term_es = "distribución de Poisson",
term_zh = "Poisson 分布",
aliases_es = { "Poisson", "Pois(λ)", "Poisson(λ)" },
aliases_zh = { "泊松分布", "Poisson", "Pois(λ)" },
}
data["polar surface area"] = {
short = "The portion of a molecule's surface area belonging to polar atoms — typically nitrogen, oxygen, and attached hydrogens — used as a descriptor that correlates with passive membrane permeability and oral bioavailability.",
article = nil,
aliases = { "PSA", "TPSA", "topological polar surface area" },
es = "Porción del área superficial de una molécula correspondiente a átomos polares —típicamente nitrógeno, oxígeno y los hidrógenos a ellos unidos—; se usa como descriptor correlacionado con la permeabilidad pasiva de membrana y la biodisponibilidad oral.",
zh = "分子表面积中归属于极性原子(通常是氮、氧及其相连氢)的部分,作为描述符与被动膜渗透性和口服生物利用度相关。",
term_es = "área de superficie polar",
term_zh = "极性表面积",
aliases_es = { "PSA", "TPSA", "área superficial polar topológica" },
aliases_zh = { "PSA", "TPSA", "拓扑极性表面积" },
}
data["policy"] = {
short = "In reinforcement learning, a mapping π from states (or observations) to actions, either deterministic (π(s) = a) or stochastic (π(a|s) defines a distribution over actions). The object that an RL algorithm learns or improves.",
article = nil,
aliases = { "policy π", "control policy" },
es = "En aprendizaje por refuerzo, una aplicación π de estados (u observaciones) a acciones, ya sea determinista (π(s) = a) o estocástica (π(a|s) define una distribución sobre acciones). Es el objeto que un algoritmo de RL aprende o mejora.",
zh = "在强化学习中,从状态(或观测)到动作的映射 π,可以是确定性的(π(s) = a)或随机的(π(a|s) 定义动作上的分布)。强化学习算法所学习或改进的对象。",
term_es = "política",
term_zh = "策略",
aliases_es = { "política π", "política de control" },
aliases_zh = { "policy", "策略 π" },
}
data["policy evaluation"] = {
short = "The problem of estimating the expected outcome (value) of a target treatment-assignment policy from observational or logged data, typically using importance weighting, doubly robust, or model-based estimators.",
article = nil,
aliases = { "off-policy evaluation", "OPE", "counterfactual policy evaluation" },
es = "Problema de estimar el resultado esperado (valor) de una política objetivo de asignación de tratamiento a partir de datos observacionales o registrados, habitualmente mediante ponderación por importancia, estimadores doblemente robustos o métodos basados en modelo.",
zh = "在观测数据或日志数据上估计目标处理分配策略的期望结局(价值)的问题,通常使用重要性加权、双稳健或基于模型的估计量。",
term_es = "evaluación de políticas",
term_zh = "策略评估",
aliases_es = { "evaluación off-policy", "evaluación contrafactual de políticas" },
aliases_zh = { "离策略评估", "反事实策略评估", "OPE" },
}
data["policy gradient theorem"] = {
short = "A foundational result in reinforcement learning that expresses the gradient of the expected return with respect to policy parameters as an expectation over states and actions, enabling tractable stochastic gradient updates of parameterized policies.",
article = nil,
aliases = { "policy-gradient theorem", "PG theorem" },
es = "Resultado fundamental en aprendizaje por refuerzo que expresa el gradiente del retorno esperado respecto a los parámetros de la política como una esperanza sobre estados y acciones, permitiendo actualizaciones tratables del gradiente estocástico de políticas parametrizadas.",
zh = "强化学习中的基础性结果,将期望回报关于策略参数的梯度表达为对状态和动作的期望,从而使参数化策略的随机梯度更新可计算。",
term_es = "teorema del gradiente de política",
term_zh = "策略梯度定理",
aliases_es = { "teorema del gradiente de la política" },
aliases_zh = { "策略梯度法定理", "policy gradient theorem" },
}
data["policy iteration"] = {
short = "A dynamic programming algorithm that alternates between policy evaluation, which computes the value function for the current policy, and policy improvement, which updates the policy greedily with respect to that value function, until convergence.",
article = nil,
aliases = { "policy-iteration" },
es = "Algoritmo de programación dinámica que alterna entre la evaluación de la política, que calcula la función de valor de la política actual, y la mejora de la política, que la actualiza de forma voraz respecto a esa función de valor, hasta la convergencia.",
zh = "一种动态规划算法,交替执行策略评估(计算当前策略的值函数)和策略改进(针对该值函数贪心地更新策略),直至收敛。",
term_es = "iteración de política",
term_zh = "策略迭代",
aliases_es = { "iteración de políticas" },
aliases_zh = { "policy iteration" },
}
data["policy learning"] = {
short = "The task of learning a treatment-assignment rule that maps individual covariates to treatments so as to maximize expected outcome, typically from observational or experimental data with confounding adjustment.",
article = nil,
aliases = { "policy optimization", "treatment policy learning", "off-policy learning" },
es = "Tarea de aprender una regla de asignación de tratamiento que mapea las covariables individuales a tratamientos para maximizar el resultado esperado, normalmente a partir de datos observacionales o experimentales con ajuste por confusión.",
zh = "学习一种处理分配规则的任务:该规则将个体协变量映射到处理动作,以最大化期望结局,通常基于观测或实验数据并校正混杂。",
term_es = "aprendizaje de políticas",
term_zh = "策略学习",
aliases_es = { "optimización de políticas", "aprendizaje off-policy" },
aliases_zh = { "策略优化", "处理策略学习", "离策略学习" },
}
data["policy network nas"] = {
short = "A class of NAS methods in which a controller policy network, typically an RNN trained with policy-gradient reinforcement learning, samples architecture descriptions and is updated using validation accuracy as the reward.",
article = nil,
aliases = { "policy-network NAS", "controller-based NAS", "RL-based NAS with policy network" },
es = "Clase de métodos NAS en los que una red de políticas controladora, típicamente una RNN entrenada con gradiente de políticas, muestrea descripciones de arquitecturas y se actualiza usando la precisión de validación como recompensa.",
zh = "一类神经架构搜索方法:使用一个控制器策略网络(通常是用策略梯度训练的 RNN)采样架构描述,并以验证精度作为奖励对其进行更新。",
term_es = "NAS con red de políticas",
term_zh = "策略网络 NAS",
aliases_es = { "NAS basado en controlador", "NAS con controlador RNN" },
aliases_zh = { "基于控制器的 NAS", "策略网络架构搜索" },
}
data["policy regret"] = {
short = "The expected loss in outcome value of a learned or deployed policy relative to the optimal in-class policy; minimizing policy regret is the central objective of policy-learning algorithms.",
article = nil,
aliases = { "regret of policy", "policy excess risk" },
es = "Pérdida esperada en el valor del resultado de una política aprendida o desplegada respecto a la política óptima de la clase considerada; su minimización es el objetivo central de los algoritmos de aprendizaje de políticas.",
zh = "学习或部署得到的策略相对于该类中最优策略在期望结局价值上的损失;最小化策略遗憾是策略学习算法的核心目标。",
term_es = "arrepentimiento de política",
term_zh = "策略遗憾",
aliases_es = { "regret de política", "exceso de riesgo de política" },
aliases_zh = { "策略后悔", "策略超额风险" },
}
data["policy tree"] = {
short = "An interpretable treatment-assignment policy represented as a shallow decision tree whose leaves prescribe treatments based on covariates; estimated by greedy or exact splits that maximize estimated policy value.",
article = nil,
aliases = { "policy decision tree", "tree-based policy" },
es = "Política de asignación de tratamiento interpretable, representada como un árbol de decisión poco profundo cuyas hojas prescriben tratamientos en función de las covariables; se estima mediante divisiones voraces o exactas que maximizan el valor estimado de la política.",
zh = "一种可解释的处理分配策略,表示为浅层决策树,叶节点根据协变量给出处理建议;通过贪心或精确分裂以最大化估计的策略价值进行训练。",
term_es = "árbol de políticas",
term_zh = "策略树",
aliases_es = { "árbol de decisión de política", "política basada en árbol" },
aliases_zh = { "策略决策树", "基于树的策略" },
}
data["policy value"] = {
short = "The expected outcome attained when a treatment-assignment policy is followed in the target population, equal to the expectation under the policy-induced potential-outcome distribution.",
article = nil,
aliases = { "value of a policy", "expected policy value" },
es = "Resultado esperado que se obtiene cuando se sigue una política de asignación de tratamiento en la población objetivo; equivale a la esperanza bajo la distribución de resultados potenciales inducida por la política.",
zh = "在目标人群中遵循某一处理分配策略时所获得的期望结局,等于策略所诱导的潜在结局分布下的期望。",
term_es = "valor de la política",
term_zh = "策略价值",
aliases_es = { "valor de política", "valor esperado de la política" },
aliases_zh = { "策略值", "策略期望价值" },
}
data["polya selection"] = {
short = "A library-preparation step in RNA-seq that enriches for polyadenylated mRNAs by hybridizing total RNA to oligo-dT, depleting rRNA and most non-coding RNAs.",
article = nil,
aliases = { "poly(A) selection", "poly-A selection", "polyA selection", "oligo-dT selection", "mRNA selection" },
es = "Paso de preparación de librerías en RNA-seq que enriquece ARN mensajeros poliadenilados mediante hibridación de ARN total con oligo-dT, eliminando ARN ribosómicos y la mayoría de ARN no codificantes.",
zh = "RNA 测序文库制备步骤,通过将总 RNA 与寡聚 dT 杂交富集多聚腺苷酸化的 mRNA,去除 rRNA 和大多数非编码 RNA。",
term_es = "selección poli-A",
term_zh = "polyA 富集",
aliases_es = { "selección polyA", "selección de poli(A)", "selección de mRNA por oligo-dT" },
aliases_zh = { "polyA 选择", "多聚 A 富集", "oligo-dT 富集" },
}
data["polyak averaging"] = {
short = "An optimization technique that returns a running average of the iterates of stochastic gradient descent rather than the final iterate, yielding asymptotically optimal convergence rates under suitable conditions.",
article = nil,
aliases = { "Polyak-Ruppert averaging", "iterate averaging", "Polyak averaging", "tail averaging" },
es = "Técnica de optimización que devuelve un promedio acumulado de los iterados del descenso por gradiente estocástico en lugar del iterado final, alcanzando tasas de convergencia asintóticamente óptimas bajo condiciones adecuadas.",
zh = "一种优化技术,返回随机梯度下降迭代值的滑动平均而非最终迭代,在适当条件下达到渐近最优的收敛速率。",
term_es = "promediado de Polyak",
term_zh = "Polyak 平均",
aliases_es = { "promediado de Polyak-Ruppert", "promediado de iterados" },
aliases_zh = { "Polyak-Ruppert 平均", "迭代平均" },
}
data["polygenic risk score"] = {
short = "A weighted sum of an individual's risk-allele dosages across many SNPs, weighted by GWAS-derived effect sizes, used to estimate genetic predisposition to a complex trait or disease.",
article = nil,
aliases = { "PRS", "polygenic score", "PGS", "genetic risk score", "GRS" },
es = "Suma ponderada de las dosis de alelos de riesgo de un individuo a lo largo de muchos SNPs, ponderadas por tamaños de efecto derivados de GWAS, usada para estimar la predisposición genética a un rasgo o enfermedad compleja.",
zh = "基于全基因组关联研究得出的效应大小,对个体多个 SNP 的风险等位基因剂量进行加权求和,用于估计对复杂性状或疾病的遗传易感性。",
term_es = "puntuación de riesgo poligénico",
term_zh = "多基因风险评分",
aliases_es = { "PRS", "puntaje de riesgo poligénico", "puntuación poligénica", "PGS" },
aliases_zh = { "PRS", "多基因评分", "PGS", "遗传风险评分" },
}
data["polyjuice"] = {
short = "A controllable counterfactual generator for NLP that fine-tunes a generative language model to produce diverse perturbations of a sentence along specified control codes (negation, lexical change, syntactic restructuring, etc.) for explanation, robustness testing, and data augmentation.",
article = nil,
aliases = { "Polyjuice", "Polyjuice generator", "polyjuice counterfactual generator" },
es = "Generador controlable de contrafactuales para PLN que ajusta un modelo de lenguaje generativo para producir perturbaciones diversas de una oración según códigos de control especificados (negación, cambio léxico, reestructuración sintáctica, etc.), con fines de explicación, evaluación de robustez y aumento de datos.",
zh = "面向 NLP 的可控反事实生成器,通过微调生成式语言模型,按指定控制代码(否定、词汇替换、句法重组等)生成多样化的句子扰动,用于解释、鲁棒性测试和数据增强。",
term_es = "Polyjuice",
term_zh = "Polyjuice",
aliases_es = { "polyjuice", "generador Polyjuice", "generador de contrafactuales Polyjuice" },
aliases_zh = { "polyjuice", "Polyjuice 生成器", "Polyjuice 反事实生成器" },
}
data["polynomial decay"] = {
short = "A learning rate schedule in which the rate decreases as a polynomial function of the step, typically from an initial value to a final value over a fixed horizon.",
article = nil,
aliases = { "polynomial learning rate decay", "polynomial decay schedule", "poly decay" },
es = "Programación de tasa de aprendizaje en la que la tasa decrece como una función polinómica del paso, típicamente desde un valor inicial hasta un valor final en un horizonte fijo.",
zh = "一种学习率调度策略,学习率随步数按多项式函数下降,通常在固定时长内从初始值降至终值。",
term_es = "decaimiento polinómico",
term_zh = "多项式衰减",
aliases_es = { "decaimiento polinomial" },
aliases_zh = { "多项式学习率衰减" },
}
data["polypharmacology"] = {
short = "The deliberate or observed action of a single drug on multiple molecular targets, often invoked to explain efficacy in complex diseases and to guide the design of multi-target ligands.",
article = nil,
aliases = { "multi-target drug design", "multitarget pharmacology", "promiscuous binding", "polypharmacology design" },
es = "Acción deliberada u observada de un único fármaco sobre múltiples blancos moleculares, frecuentemente invocada para explicar la eficacia en enfermedades complejas y para guiar el diseño de ligandos multiblanco.",
zh = "单一药物对多个分子靶点的有意或既有作用,常用于解释复杂疾病的疗效并指导多靶点配体的设计。",
term_es = "polifarmacología",
term_zh = "多药理学",
aliases_es = { "diseño de fármacos multidiana", "farmacología multidiana" },
aliases_zh = { "多靶点药理学", "多靶点药物设计", "多靶点药物作用" },
}
data["polysemantic neuron"] = {
short = "A neuron in a neural network that responds to multiple, semantically unrelated input features or concepts, as opposed to a monosemantic neuron that encodes a single concept; typically attributed to superposition.",
article = nil,
aliases = { "polysemantic neurons", "polysemantic unit", "polysemantic feature" },
es = "Neurona de una red neuronal que responde a múltiples características o conceptos de entrada semánticamente no relacionados, en contraposición a una neurona monosemántica que codifica un único concepto; suele atribuirse al fenómeno de superposición.",
zh = "神经网络中对多种语义上无关的输入特征或概念都产生响应的神经元,与编码单一概念的单义神经元相对,通常被归因于叠加(superposition)现象。",
term_es = "neurona polisemántica",
term_zh = "多义神经元",
aliases_es = { "neuronas polisemánticas", "unidad polisemántica", "característica polisemántica" },
aliases_zh = { "多义性神经元", "多义单元", "多义特征" },
}
data["polysemanticity"] = {
short = "The phenomenon in which individual neurons or directions in a neural network represent multiple unrelated features simultaneously, often arising from superposition of more features than the model has dimensions to represent.",
article = nil,
aliases = { "polysemanticity in neural networks", "neuron polysemanticity", "feature polysemanticity" },
es = "Fenómeno por el cual neuronas o direcciones individuales de una red neuronal representan simultáneamente múltiples características no relacionadas, a menudo como consecuencia de la superposición de más características de las que el modelo tiene dimensiones para representar.",
zh = "神经网络中单个神经元或方向同时表示多种无关特征的现象,通常源于模型以叠加方式编码了超过其表示维度的更多特征。",
term_es = "polisemanticidad",
term_zh = "多义性",
aliases_es = { "polisemia neuronal", "polisemanticidad neuronal", "polisemanticidad de características" },
aliases_zh = { "神经元多义性", "特征多义性", "多语义性" },
}
data["pool-based active learning"] = {
short = "An active learning setting in which the learner selects which examples to label from a fixed unlabeled pool, typically by maximizing an acquisition function such as expected information gain or predictive uncertainty.",
article = nil,
aliases = { "pool-based AL", "pool-based sampling", "pool-based query strategy" },
es = "Modalidad de aprendizaje activo en la que el modelo selecciona qué ejemplos etiquetar a partir de un conjunto fijo de datos no etiquetados, normalmente maximizando una función de adquisición como la ganancia de información esperada o la incertidumbre predictiva.",
zh = "主动学习的一种设定,学习器从固定的未标注池中选择待标注样本,通常通过最大化获取函数(如期望信息增益或预测不确定性)实现。",
term_es = "aprendizaje activo basado en pool",
term_zh = "基于池的主动学习",
aliases_es = { "muestreo basado en pool", "active learning basado en pool" },
aliases_zh = { "池式主动学习", "pool-based 主动学习" },
}
data["pooling"] = {
short = "A downsampling operation in convolutional networks that aggregates values within local spatial windows (e.g., by taking the maximum or average) to reduce spatial resolution and provide translational invariance.",
article = nil,
aliases = { "pooling layer", "spatial pooling", "subsampling" },
es = "Operación de submuestreo en redes convolucionales que agrega valores dentro de ventanas espaciales locales (por ejemplo, tomando el máximo o el promedio) para reducir la resolución espacial y proporcionar invariancia traslacional.",
zh = "卷积神经网络中的一种下采样操作,通过在局部空间窗口内聚合数值(如取最大值或平均值)来降低空间分辨率并提供平移不变性。",
term_es = "pooling",
term_zh = "池化",
aliases_es = { "agrupación", "submuestreo", "capa de pooling" },
aliases_zh = { "pooling", "池化层", "下采样" },
}
data["pop music transformer"] = {
short = "A Transformer-based model proposed by Huang and Yang (2020) for generating expressive pop piano music, using a beat-based REMI token representation to encode metrical structure and chord progressions.",
article = nil,
aliases = { "Pop Music Transformer", "PopMT" },
es = "Modelo basado en Transformer propuesto por Huang y Yang (2020) para generar música de piano pop expresiva, que utiliza una representación de tokens REMI basada en compases para codificar la estructura métrica y las progresiones de acordes.",
zh = "Huang 和 Yang(2020)提出的基于 Transformer 的模型,用于生成富有表现力的流行钢琴音乐,采用基于节拍的 REMI 词元表示来编码节拍结构和和弦进行。",
term_es = "Pop Music Transformer",
term_zh = "Pop Music Transformer",
aliases_es = { "transformer para música pop" },
aliases_zh = { "流行音乐Transformer" },
}
data["pope benchmark"] = {
short = "Polling-based Object Probing Evaluation: a benchmark that measures object hallucination in vision-language models by asking yes/no questions about the presence of randomly sampled objects in an image.",
article = nil,
aliases = { "POPE", "POPE benchmark", "Polling-based Object Probing Evaluation", "POPE evaluation" },
es = "Polling-based Object Probing Evaluation (POPE): benchmark que mide la alucinación de objetos en modelos de visión-lenguaje formulando preguntas binarias sobre la presencia de objetos muestreados aleatoriamente en una imagen.",
zh = "POPE(Polling-based Object Probing Evaluation)基准:通过对图像中随机采样的物体提出是非问题,衡量视觉-语言模型的物体幻觉程度。",
term_es = "benchmark POPE",
term_zh = "POPE 基准",
aliases_es = { "POPE", "Polling-based Object Probing Evaluation" },
aliases_zh = { "POPE", "Polling-based Object Probing Evaluation" },
}
data["popularity bias"] = {
short = "A bias in recommender and ranking systems that over-recommends already popular items at the expense of long-tail content, reinforcing existing exposure imbalances.",
article = nil,
aliases = { "popularity-based bias", "long-tail underexposure", "head-item bias" },
es = "Sesgo en sistemas de recomendación y de ranking que recomienda en exceso elementos ya populares a costa del contenido de cola larga, reforzando los desequilibrios de exposición existentes.",
zh = "推荐与排序系统中的一种偏差:过度推荐已经流行的项目,而牺牲长尾内容,从而强化现有的曝光不均衡。",
term_es = "sesgo de popularidad",
term_zh = "流行度偏差",
aliases_es = { "sesgo por popularidad", "subexposición de cola larga", "sesgo hacia ítems populares" },
aliases_zh = { "热门偏差", "长尾欠曝光", "头部项目偏差" },
}
data["population attributable fraction"] = {
short = "The proportion of disease or outcome cases in a population that would be eliminated if a given exposure were removed, computed as (P(Y=1) − P(Y=1|do(X=0))) / P(Y=1) under the corresponding causal model.",
article = nil,
aliases = { "PAF", "attributable fraction", "population attributable risk", "PAR" },
es = "Proporción de casos de enfermedad o resultado en una población que se eliminarían si se suprimiera una exposición dada, calculada como (P(Y=1) − P(Y=1|do(X=0))) / P(Y=1) bajo el modelo causal correspondiente.",
zh = "在某人群中,若消除给定暴露后将被避免的疾病或结局病例所占的比例;在相应因果模型下计算为 (P(Y=1) − P(Y=1|do(X=0))) / P(Y=1)。",
term_es = "fracción atribuible poblacional",
term_zh = "人群归因分数",
aliases_es = { "FAP", "riesgo atribuible poblacional" },
aliases_zh = { "人群归因比例", "PAF", "人群归因危险度" },
}
data["population based augmentation"] = {
short = "An algorithm that learns a schedule of data augmentation policies by training a population of student models in parallel with population-based hyperparameter search, finding policies competitive with AutoAugment in a fraction of the compute.",
article = nil,
aliases = { "PBA", "Population Based Augmentation", "population-based augmentation" },
es = "Algoritmo que aprende un calendario de políticas de aumento de datos entrenando en paralelo una población de modelos estudiante con búsqueda de hiperparámetros basada en poblaciones, obteniendo políticas competitivas con AutoAugment en una fracción del cómputo.",
zh = "一种通过并行训练学生模型种群并使用基于种群的超参数搜索来学习数据增强策略时间表的算法,能以远低于 AutoAugment 的算力获得相当的效果。",
term_es = "Population Based Augmentation",
term_zh = "基于种群的数据增强",
aliases_es = { "PBA", "aumento basado en poblaciones" },
aliases_zh = { "PBA", "Population Based Augmentation" },
}
data["population based training"] = {
short = "A hyperparameter optimization method that jointly trains a population of models and periodically replaces poor performers with mutated copies of better ones, allowing hyperparameter schedules to evolve during training.",
article = nil,
aliases = { "PBT", "population-based training" },
es = "Método de optimización de hiperparámetros que entrena conjuntamente una población de modelos y reemplaza periódicamente a los de peor desempeño por copias mutadas de los mejores, lo que permite que los horarios de hiperparámetros evolucionen durante el entrenamiento.",
zh = "一种超参数优化方法:并行训练一组模型,并周期性地用表现较优模型的变异副本替换表现较差的模型,从而让超参数调度在训练过程中动态演化。",
term_es = "entrenamiento basado en poblaciones",
term_zh = "基于种群的训练",
aliases_es = { "PBT", "population based training", "entrenamiento por poblaciones" },
aliases_zh = { "PBT", "population based training", "种群训练" },
}
data["population stratification"] = {
short = "Systematic differences in allele frequencies between subpopulations within a study sample, which can confound genome-wide association studies if not corrected (e.g. via principal components or mixed models).",
article = nil,
aliases = { "population structure", "population substructure", "ancestry stratification" },
es = "Diferencias sistemáticas en frecuencias alélicas entre subpoblaciones dentro de una muestra de estudio, que pueden confundir los GWAS si no se corrigen (por ejemplo, mediante componentes principales o modelos mixtos).",
zh = "研究样本中亚群之间等位基因频率的系统性差异,若不通过主成分或混合模型等方法校正,会混淆全基因组关联研究的结果。",
term_es = "estratificación poblacional",
term_zh = "群体分层",
aliases_es = { "estructura poblacional", "subestructura poblacional" },
aliases_zh = { "群体结构", "种群分层", "祖源分层" },
}
data["portfolio of configurations"] = {
short = "In algorithm configuration and AutoML, a small set of complementary algorithm configurations chosen so that for any new instance at least one configuration in the set performs well, often selected to maximize coverage of a meta-learning benchmark.",
article = nil,
aliases = { "configuration portfolio", "algorithm portfolio", "portfolio of configurations" },
es = "En configuración de algoritmos y AutoML, un conjunto pequeño de configuraciones complementarias seleccionadas de modo que, para cualquier nueva instancia, al menos una funcione bien; suele elegirse maximizando la cobertura sobre un benchmark de meta-aprendizaje.",
zh = "在算法配置与自动机器学习中,一组互补的少量算法配置组合,目的是使对任意新实例至少有一种配置表现良好,通常通过在元学习基准上最大化覆盖率来选取。",
term_es = "cartera de configuraciones",
term_zh = "配置组合",
aliases_es = { "portafolio de configuraciones", "cartera de algoritmos" },
aliases_zh = { "算法组合", "配置投资组合" },
}
data["pose estimation"] = {
short = "The computer vision task of inferring the configuration of an object's parts, most commonly by predicting the 2D or 3D positions of a skeleton's joints for humans or animals.",
article = nil,
aliases = { "human pose estimation", "2D pose estimation", "3D pose estimation", "HPE" },
es = "Tarea de visión por computadora que consiste en inferir la configuración de las partes de un objeto, generalmente prediciendo las posiciones 2D o 3D de las articulaciones de un esqueleto humano o animal.",
zh = "计算机视觉任务,推断物体各部位的姿态构型,最常见的是预测人体或动物骨架关节的二维或三维位置。",
term_es = "estimación de pose",
term_zh = "姿态估计",
aliases_es = { "estimación de postura", "estimación de pose humana" },
aliases_zh = { "pose estimation", "人体姿态估计" },
}
data["position bias"] = {
short = "A bias in user behavior and ranking systems whereby items shown in higher positions receive more attention and clicks regardless of relevance, distorting feedback signals used for training.",
article = nil,
aliases = { "positional bias", "rank bias", "ranking position bias", "presentation bias" },
es = "Sesgo en el comportamiento de los usuarios y en los sistemas de ranking por el cual los elementos mostrados en posiciones superiores reciben más atención y clics independientemente de su relevancia, distorsionando las señales de retroalimentación usadas para el entrenamiento.",
zh = "用户行为与排序系统中的一种偏差:排在较高位置的项目无论是否相关都会获得更多关注与点击,从而扭曲用于训练的反馈信号。",
term_es = "sesgo de posición",
term_zh = "位置偏差",
aliases_es = { "sesgo posicional", "sesgo por posición", "sesgo de ranking", "sesgo de presentación" },
aliases_zh = { "位置偏置", "排序位置偏差", "展示位置偏差", "排名位置偏差" },
}
data["position interpolation"] = {
short = "A context-extension technique for transformers with rotary or learned position embeddings that linearly downscales position indices so a pretrained model can handle longer sequences with minimal fine-tuning.",
article = nil,
aliases = { "PI", "RoPE position interpolation", "linear position interpolation", "positional interpolation" },
es = "Técnica de extensión de contexto para transformadores con embeddings posicionales rotativos o aprendidos que reduce linealmente los índices de posición para que un modelo preentrenado pueda manejar secuencias más largas con un ajuste fino mínimo.",
zh = "一种用于具有旋转位置编码或可学习位置编码的 Transformer 的上下文扩展技术,通过线性缩小位置索引,使预训练模型只需少量微调即可处理更长的序列。",
term_es = "interpolación de posición",
term_zh = "位置插值",
aliases_es = { "PI", "interpolación posicional", "interpolación de posiciones RoPE" },
aliases_zh = { "PI", "线性位置插值", "RoPE 位置插值", "位置编码插值" },
}
data["positional encoding"] = {
short = "A representation added to or combined with token embeddings to inject information about token order or position into permutation-invariant architectures such as Transformers.",
article = nil,
aliases = { "Positional Encoding", "positional encodings", "PE", "position encoding" },
es = "Representación añadida o combinada con los embeddings de tokens para inyectar información sobre el orden o posición de los tokens en arquitecturas invariantes a permutaciones como los Transformers.",
zh = "一种与 token 嵌入相加或结合的表示,用于向 Transformer 等置换不变架构注入关于 token 顺序或位置的信息。",
term_es = "codificación posicional",
term_zh = "位置编码",
aliases_es = { "positional encoding", "codificaciones posicionales", "PE", "codificación de posición" },
aliases_zh = { "positional encoding", "位置编码方法", "PE" },
}
data["positional weight matrix"] = {
short = "A matrix representing a sequence motif as position-specific log-likelihood scores for each nucleotide or amino acid, used to scan sequences for transcription-factor binding sites and other motifs.",
article = nil,
aliases = { "PWM", "position weight matrix", "position-specific scoring matrix", "PSSM" },
es = "Matriz que representa un motivo de secuencia mediante puntuaciones log-verosimilitud específicas de posición para cada nucleótido o aminoácido, usada para escanear sitios de unión de factores de transcripción y otros motivos.",
zh = "用每个碱基或氨基酸在每个位置的对数似然分数表示序列模体的矩阵,用于扫描转录因子结合位点等模体。",
term_es = "matriz de pesos posicionales",
term_zh = "位置权重矩阵",
aliases_es = { "PWM", "matriz de puntuación específica de posición", "PSSM" },
aliases_zh = { "PWM", "位置特异性打分矩阵", "PSSM" },
}
data["positive attribution"] = {
short = "A signed attribution score (or the positive part of one) indicating that a feature contributes in favor of the model's predicted class, as opposed to a negative attribution that pushes the prediction away from it.",
article = nil,
aliases = { "positive attributions", "positive saliency", "positive contribution", "supporting attribution" },
es = "Puntuación de atribución con signo (o su parte positiva) que indica que una característica contribuye a favor de la clase predicha por el modelo, en contraste con una atribución negativa que aleja la predicción de dicha clase.",
zh = "带符号的归因分数(或其正向部分),表明某特征对模型预测类别起到正向支持作用,与将预测推离该类别的负向归因相对。",
term_es = "atribución positiva",
term_zh = "正向归因",
aliases_es = { "atribuciones positivas", "saliencia positiva", "contribución positiva" },
aliases_zh = { "正向归因分数", "正向显著性", "正向贡献", "支持性归因" },
}
data["positive selection detection"] = {
short = "Statistical methods for identifying genes or sites under positive Darwinian selection, typically by testing for an excess of nonsynonymous over synonymous substitutions (dN/dS > 1) or unusual allele-frequency patterns.",
article = nil,
aliases = { "detection of positive selection", "positive selection test", "dN/dS analysis", "selection scan" },
es = "Métodos estadísticos para identificar genes o sitios bajo selección positiva darwiniana, típicamente probando un exceso de sustituciones no sinónimas sobre sinónimas (dN/dS > 1) o patrones inusuales de frecuencia alélica.",
zh = "用于识别处于达尔文正向选择下的基因或位点的统计方法,通常通过检验非同义替换相对同义替换是否过剩(dN/dS > 1)或异常的等位基因频率模式。",
term_es = "detección de selección positiva",
term_zh = "正选择检测",
aliases_es = { "test de selección positiva", "análisis dN/dS", "barrido de selección" },
aliases_zh = { "正向选择检测", "dN/dS 分析", "选择扫描" },
}
data["positive semidefinite"] = {
short = "A symmetric (or Hermitian) matrix A such that xᵀAx ≥ 0 for all vectors x. Equivalently, all eigenvalues are nonnegative; covariance matrices and Gram matrices are canonical examples.",
article = nil,
aliases = { "PSD", "positive semi-definite", "positive semidefinite matrix", "nonnegative definite" },
es = "Matriz simétrica (o hermitiana) A tal que xᵀAx ≥ 0 para todo vector x. Equivalentemente, todos sus valores propios son no negativos; las matrices de covarianza y las matrices de Gram son ejemplos canónicos.",
zh = "满足对所有向量 x 都有 xᵀAx ≥ 0 的对称(或厄米)矩阵 A。等价地,其所有特征值非负;协方差矩阵和 Gram 矩阵是典型例子。",
term_es = "semidefinida positiva",
term_zh = "半正定",
aliases_es = { "PSD", "matriz semidefinida positiva", "no negativa definida" },
aliases_zh = { "半正定矩阵", "PSD", "非负定" },
}
data["positivity assumption"] = {
short = "The requirement that every covariate stratum has a strictly positive probability of receiving each treatment value; without it, conditional treatment effects are not identified by adjustment on those covariates.",
article = nil,
aliases = { "positivity", "overlap assumption", "common support", "positivity condition" },
es = "Requisito de que cada estrato de covariables tenga una probabilidad estrictamente positiva de recibir cada valor del tratamiento; sin él, los efectos condicionales no quedan identificados por ajuste sobre dichas covariables.",
zh = "要求每个协变量取值层都对每种处理具有严格为正的概率;若不成立,则无法通过对这些协变量的调整来识别条件处理效应。",
term_es = "supuesto de positividad",
term_zh = "正概率假设",
aliases_es = { "positividad", "supuesto de superposición", "soporte común" },
aliases_zh = { "重叠假设", "正性假设", "共同支撑" },
}
data["post-deployment monitoring"] = {
short = "Ongoing measurement of a deployed model's behavior, performance, and fairness in production, intended to detect drift, regressions, and emergent harms after release.",
article = nil,
aliases = { "production monitoring", "model monitoring", "in-production monitoring", "deployment monitoring", "post deployment monitoring" },
es = "Medición continua del comportamiento, el desempeño y la equidad de un modelo desplegado en producción, con el fin de detectar deriva, regresiones y daños emergentes tras su lanzamiento.",
zh = "对已部署模型在生产环境中的行为、性能与公平性进行持续测量,用于在上线后发现漂移、性能回退及新出现的伤害。",
term_es = "monitoreo posterior al despliegue",
term_zh = "部署后监控",
aliases_es = { "monitoreo en producción", "monitorización posterior al despliegue", "monitoreo de modelos en producción", "monitoreo de despliegue" },
aliases_zh = { "上线后监控", "生产环境监控", "模型监控", "线上监控" },
}
data["post-hoc calibration"] = {
short = "Methods that adjust the probabilistic predictions of a trained model to better match empirical frequencies, applied after training without modifying the model parameters; examples include temperature scaling, isotonic regression, and Platt scaling.",
article = nil,
aliases = { "post hoc calibration", "posthoc calibration", "post-training calibration" },
es = "Métodos que ajustan las predicciones probabilísticas de un modelo ya entrenado para que se aproximen mejor a las frecuencias empíricas, aplicados sin modificar los parámetros del modelo; incluyen temperature scaling, regresión isotónica y Platt scaling.",
zh = "在不修改模型参数的前提下,对训练好的模型的概率预测进行调整以更好匹配经验频率的方法,如温度缩放、等渗回归和 Platt 缩放。",
term_es = "calibración post hoc",
term_zh = "事后校准",
aliases_es = { "calibración a posteriori", "calibración posterior al entrenamiento" },
aliases_zh = { "post-hoc 校准", "训练后校准" },
}
data["post-hoc concept bottleneck"] = {
short = "A method that grafts a concept-bottleneck layer onto an already-trained black-box model — typically by training a linear projection from its representations to human-interpretable concepts — to obtain concept-level explanations without retraining the backbone.",
article = nil,
aliases = { "post hoc concept bottleneck", "post-hoc CBM", "PCBM", "post-hoc concept bottleneck model", "post-hoc concept bottlenecks" },
es = "Método que añade una capa de cuello de botella de conceptos sobre un modelo de caja negra ya entrenado — normalmente entrenando una proyección lineal desde sus representaciones hacia conceptos interpretables por humanos — para obtener explicaciones a nivel de concepto sin reentrenar la red base.",
zh = "一种方法,将概念瓶颈层附加到已训练好的黑盒模型上——通常通过从其表示训练一个线性投影到人类可解释概念——从而在不重训主干网络的前提下获得概念级解释。",
term_es = "concept bottleneck post-hoc",
term_zh = "事后概念瓶颈",
aliases_es = { "PCBM", "modelo de cuello de botella de conceptos post-hoc", "concept bottleneck a posteriori" },
aliases_zh = { "PCBM", "事后概念瓶颈模型", "post-hoc 概念瓶颈" },
}
data["post-hoc explanation"] = {
short = "An explanation produced after a model has been trained, by applying an external interpretation method to a fixed black-box model, in contrast to inherently interpretable models whose structure is itself the explanation.",
article = nil,
aliases = { "post hoc explanation", "posthoc explanation", "post-hoc explanations", "post-hoc interpretation", "post hoc interpretability" },
es = "Explicación generada después de entrenar el modelo, aplicando un método de interpretación externo sobre un modelo de caja negra fijo, en contraste con los modelos intrínsecamente interpretables cuya propia estructura constituye la explicación.",
zh = "在模型训练完成后,通过对固定的黑盒模型应用外部解释方法所产生的解释,与本身结构即作为解释的内在可解释模型相对。",
term_es = "explicación post-hoc",
term_zh = "事后解释",
aliases_es = { "explicaciones post-hoc", "interpretación post-hoc", "interpretabilidad post-hoc" },
aliases_zh = { "事后可解释性", "post-hoc 解释", "事后解释方法" },
}
data["post-hoc rationalization"] = {
short = "A failure mode of explanation methods in which an explanation is generated after the prediction in a way that sounds plausible but does not faithfully reflect the model's actual decision process; sometimes used as a critique of post-hoc explainers.",
article = nil,
aliases = { "post hoc rationalization", "posthoc rationalization", "post-hoc rationalisation", "post-hoc rationalizations" },
es = "Modo de fallo de los métodos de explicación en el que la explicación se genera después de la predicción de forma que resulta plausible pero no refleja fielmente el proceso de decisión real del modelo; se utiliza a veces como crítica a los explicadores post-hoc.",
zh = "解释方法的一种失效模式:在预测之后生成听起来合理却并未忠实反映模型实际决策过程的解释,常被用作对事后解释器的批评。",
term_es = "racionalización post-hoc",
term_zh = "事后合理化",
aliases_es = { "racionalización a posteriori", "racionalizaciones post-hoc", "racionalización post hoc" },
aliases_zh = { "事后合理化解释", "post-hoc 合理化", "事后理由化" },
}
data["post-nonlinear model"] = {
short = "A structural causal model in which each variable is generated as Y = f₂(f₁(X) + N), where f₁ is a nonlinear function of the parents, N is independent noise, and f₂ is an invertible post-nonlinearity; widely used in causal discovery.",
article = nil,
aliases = { "PNL model", "post nonlinear model", "post-nonlinear causal model" },
es = "Modelo causal estructural en el que cada variable se genera como Y = f₂(f₁(X) + N), donde f₁ es una función no lineal de los padres, N es ruido independiente y f₂ es una post-no-linealidad invertible; muy utilizado en descubrimiento causal.",
zh = "一类结构因果模型,其中每个变量按 Y = f₂(f₁(X) + N) 生成:f₁ 是父变量的非线性函数,N 为独立噪声,f₂ 为可逆的后非线性变换;广泛用于因果发现。",
term_es = "modelo post no lineal",
term_zh = "后非线性模型",
aliases_es = { "modelo PNL", "modelo causal post no lineal" },
aliases_zh = { "PNL 模型", "后非线性因果模型" },
}
data["post-processing debiasing"] = {
short = "A bias-mitigation strategy that adjusts a trained model's outputs (e.g., by group-specific thresholds or score recalibration) to satisfy a fairness criterion, without modifying training data or the model itself.",
article = nil,
aliases = { "post-processing fairness", "post-processing bias mitigation", "post-hoc debiasing", "output post-processing for fairness" },
es = "Estrategia de mitigación de sesgos que ajusta las salidas de un modelo entrenado (por ejemplo, mediante umbrales específicos por grupo o recalibración de puntajes) para satisfacer un criterio de equidad, sin modificar los datos de entrenamiento ni el modelo en sí.",
zh = "一种偏见缓解策略:在不修改训练数据和模型本身的前提下,调整已训练模型的输出(例如使用各群体不同的阈值或对分数进行再校准),以满足某种公平性准则。",
term_es = "mitigación de sesgo en posprocesamiento",
term_zh = "后处理去偏",
aliases_es = { "desbiasing en posprocesamiento", "mitigación post-hoc de sesgo", "equidad por posprocesamiento", "post-procesamiento para equidad" },
aliases_zh = { "后处理偏见缓解", "事后去偏", "输出后处理公平化", "后处理公平性方法" },
}
data["post-training"] = {
short = "The stage of LLM development after pretraining that adapts the base model into an aligned assistant via supervised fine-tuning, preference optimization (RLHF, DPO), tool-use training, and safety tuning.",
article = nil,
aliases = { "post training", "posttraining", "post-training stage", "alignment stage" },
es = "Etapa del desarrollo de un LLM posterior al preentrenamiento, en la que el modelo base se transforma en un asistente alineado mediante ajuste fino supervisado, optimización por preferencias (RLHF, DPO), entrenamiento para uso de herramientas y ajuste de seguridad.",
zh = "大语言模型开发中预训练之后的阶段,通过监督微调、偏好优化(RLHF、DPO)、工具使用训练和安全调优,将基础模型转变为对齐的助手模型。",
term_es = "posentrenamiento",
term_zh = "后训练",
aliases_es = { "post-entrenamiento", "etapa de posentrenamiento", "etapa de alineación" },
aliases_zh = { "post-training", "后期训练", "对齐阶段" },
}
data["post-translational modification prediction"] = {
short = "Computational prediction of sites on a protein where covalent modifications (phosphorylation, acetylation, ubiquitination, glycosylation, etc.) are likely to occur, often using sequence- and structure-based machine learning.",
article = nil,
aliases = { "PTM prediction", "post translational modification prediction", "phosphosite prediction" },
es = "Predicción computacional de sitios en una proteína donde es probable que ocurran modificaciones covalentes (fosforilación, acetilación, ubiquitinación, glicosilación, etc.), a menudo mediante aprendizaje automático basado en secuencia y estructura.",
zh = "通过计算预测蛋白质上发生共价修饰(磷酸化、乙酰化、泛素化、糖基化等)的位点,通常使用基于序列和结构的机器学习方法。",
term_es = "predicción de modificaciones postraduccionales",
term_zh = "翻译后修饰预测",
aliases_es = { "predicción de PTM", "predicción de fosforilación" },
aliases_zh = { "PTM 预测", "磷酸化位点预测" },
}
data["posterior"] = {
short = "In Bayesian inference, the probability distribution P(θ|D) over parameters or hypotheses after observing data D, obtained by combining the prior with the likelihood via Bayes' theorem.",
article = nil,
aliases = { "posterior distribution", "posterior probability", "P(θ|D)", "Bayesian posterior" },
es = "En inferencia bayesiana, la distribución de probabilidad P(θ|D) sobre parámetros o hipótesis tras observar los datos D, obtenida combinando la prior con la verosimilitud mediante el teorema de Bayes.",
zh = "在贝叶斯推断中,观测到数据 D 之后参数或假设的概率分布 P(θ|D),通过贝叶斯定理将先验与似然相结合得到。",
term_es = "posterior",
term_zh = "后验",
aliases_es = { "distribución a posteriori", "probabilidad a posteriori", "P(θ|D)" },
aliases_zh = { "后验分布", "后验概率", "P(θ|D)" },
}
data["posterior bootstrap"] = {
short = "A nonparametric Bayesian inference scheme that constructs posterior samples by repeatedly fitting a model to weighted bootstrap resamples of the data, often with a Dirichlet prior on the data distribution.",
article = nil,
aliases = { "Bayesian bootstrap", "weighted likelihood bootstrap", "WLB" },
es = "Esquema de inferencia bayesiana no paramétrica que construye muestras de la posterior ajustando repetidamente un modelo a remuestras bootstrap ponderadas de los datos, frecuentemente con una previa de Dirichlet sobre la distribución de los datos.",
zh = "一种非参数贝叶斯推断方案,通过对数据的加权自助重采样反复拟合模型获得后验样本,常对数据分布使用 Dirichlet 先验。",
term_es = "bootstrap posterior",
term_zh = "后验自助法",
aliases_es = { "bootstrap bayesiano", "bootstrap de verosimilitud ponderada" },
aliases_zh = { "贝叶斯自助法", "加权似然自助法" },
}
data["posterior covariance"] = {
short = "The covariance matrix of the posterior distribution over parameters or function values, capturing parameter uncertainty and correlations after conditioning on observed data.",
article = nil,
aliases = { "posterior covariance matrix", "posterior Sigma" },
es = "Matriz de covarianza de la distribución posterior sobre los parámetros o los valores de la función, que captura la incertidumbre y las correlaciones tras condicionar sobre los datos observados.",
zh = "参数或函数值后验分布的协方差矩阵,在对观测数据条件化后刻画参数的不确定性与相关性。",
term_es = "covarianza posterior",
term_zh = "后验协方差",
aliases_es = { "matriz de covarianza posterior" },
aliases_zh = { "后验协方差矩阵" },
}
data["posterior network"] = {
short = "A class of neural networks for evidential uncertainty estimation that outputs the parameters of a Dirichlet posterior over class probabilities, often using normalizing flows to ground predictions in density estimation.",
article = nil,
aliases = { "PostNet", "posterior networks", "natural posterior network", "NatPN" },
es = "Clase de redes neuronales para estimación evidencial de incertidumbre que produce los parámetros de una posterior de Dirichlet sobre las probabilidades de clase, típicamente apoyándose en flujos normalizadores para anclar las predicciones a una estimación de densidad.",
zh = "一类用于证据式不确定性估计的神经网络,输出关于类概率的 Dirichlet 后验参数,通常借助归一化流将预测锚定到密度估计上。",
term_es = "red posterior",
term_zh = "后验网络",
aliases_es = { "PostNet", "red posterior natural" },
aliases_zh = { "PostNet", "自然后验网络", "NatPN" },
}
data["posterior over functions"] = {
short = "A probability distribution defined directly over the space of functions induced by conditioning a stochastic process, such as a Gaussian process, on observed inputs and outputs.",
article = nil,
aliases = { "function-space posterior", "functional posterior", "posterior on functions" },
es = "Distribución de probabilidad definida directamente sobre el espacio de funciones, inducida al condicionar un proceso estocástico, como un proceso gaussiano, sobre entradas y salidas observadas.",
zh = "通过对随机过程(如高斯过程)在观测输入与输出上条件化所得的、直接定义在函数空间上的概率分布。",
term_es = "posterior sobre funciones",
term_zh = "函数空间后验",
aliases_es = { "posterior funcional", "posterior en el espacio de funciones" },
aliases_zh = { "函数后验", "函数上的后验" },
}
data["posterior predictive check"] = {
short = "A model criticism technique that compares observed data to data simulated from the posterior predictive distribution, using discrepancy statistics to detect systematic deviations.",
article = nil,
aliases = { "PPC", "posterior predictive checks", "predictive check" },
es = "Técnica de crítica de modelos que compara los datos observados con datos simulados desde la distribución predictiva posterior, usando estadísticos de discrepancia para detectar desviaciones sistemáticas.",
zh = "一种模型批判性检验,通过比较观测数据与从后验预测分布模拟得到的数据,利用差异统计量检测系统性偏差。",
term_es = "verificación predictiva posterior",
term_zh = "后验预测检验",
aliases_es = { "PPC", "comprobación predictiva posterior" },
aliases_zh = { "PPC", "后验预测检查" },
}
data["posterior predictive distribution"] = {
short = "The distribution of new observations obtained by integrating the likelihood against the parameter posterior: p(y* | D) = integral p(y* | theta) p(theta | D) d theta.",
article = nil,
aliases = { "PPD", "predictive posterior", "posterior predictive" },
es = "Distribución de nuevas observaciones obtenida integrando la verosimilitud frente a la posterior de los parámetros: p(y* | D) = integral p(y* | theta) p(theta | D) d theta.",
zh = "通过对参数后验进行积分得到的新观测分布:p(y* | D) = ∫ p(y* | theta) p(theta | D) d theta。",
term_es = "distribución predictiva posterior",
term_zh = "后验预测分布",
aliases_es = { "predictiva posterior", "PPD" },
aliases_zh = { "PPD", "后验预测" },
}
data["posterior sampling"] = {
short = "Drawing samples from the posterior distribution over parameters or functions, used both as a Bayesian inference primitive and as an exploration mechanism in Thompson sampling for sequential decision making.",
article = nil,
aliases = { "Thompson sampling", "PSRL", "posterior sample", "Bayesian posterior sampling" },
es = "Acción de obtener muestras de la distribución posterior sobre parámetros o funciones, utilizada tanto como primitiva de inferencia bayesiana como mecanismo de exploración en el muestreo de Thompson para la toma de decisiones secuencial.",
zh = "从参数或函数的后验分布中抽取样本,既作为贝叶斯推断的基础操作,也作为序贯决策中 Thompson 采样的探索机制。",
term_es = "muestreo posterior",
term_zh = "后验采样",
aliases_es = { "muestreo de Thompson", "muestreo de la posterior" },
aliases_zh = { "Thompson 采样", "后验抽样" },
}
data["potential of mean force"] = {
short = "The free-energy profile of a system as a function of one or more reaction coordinates, obtained by integrating out all other degrees of freedom; widely used in molecular simulation to study binding, conformational change, and transport.",
article = nil,
aliases = { "PMF", "free-energy profile", "mean-force potential" },
es = "Perfil de energía libre de un sistema en función de una o más coordenadas de reacción, obtenido integrando los demás grados de libertad; se usa ampliamente en simulación molecular para estudiar la unión, los cambios conformacionales y el transporte.",
zh = "系统沿一个或多个反应坐标的自由能曲线,由对其余自由度积分得到;广泛用于分子模拟中研究结合、构象变化和输运过程。",
term_es = "potencial de fuerza media",
term_zh = "平均力势",
aliases_es = { "PMF", "perfil de energía libre" },
aliases_zh = { "PMF", "自由能曲线", "平均力势能" },
}
data["potential outcome"] = {
short = "The hypothetical value an outcome would take for a unit under a specified treatment value, denoted Y(t); the building block of the Neyman–Rubin causal model.",
article = nil,
aliases = { "potential outcomes", "counterfactual outcome", "Y(0)", "Y(1)", "Rubin potential outcome" },
es = "Valor hipotético que tomaría el resultado de una unidad bajo un valor específico del tratamiento, denotado Y(t); es el bloque básico del modelo causal de Neyman–Rubin.",
zh = "在指定处理取值下,某单位结局所应取的假设值,记为 Y(t);它是 Neyman–Rubin 因果模型的基本构件。",
term_es = "resultado potencial",
term_zh = "潜在结局",
aliases_es = { "resultado contrafactual", "resultados potenciales" },
aliases_zh = { "潜在结果", "反事实结局", "Y(0)", "Y(1)" },
}
data["potential outcomes framework"] = {
short = "The Neyman–Rubin causal model, in which causal effects are defined as contrasts of potential outcomes Y(t) for the same unit under different treatment values, with identification requiring assumptions such as ignorability, SUTVA, and positivity.",
article = nil,
aliases = { "Neyman-Rubin model", "Rubin causal model", "Rubin potential outcomes", "potential outcomes model", "Neyman-Rubin causal model" },
es = "Modelo causal de Neyman–Rubin, en el que los efectos causales se definen como contrastes de resultados potenciales Y(t) para la misma unidad bajo distintos tratamientos; su identificación requiere supuestos como ignorabilidad, SUTVA y positividad.",
zh = "Neyman–Rubin 因果模型:将因果效应定义为同一单位在不同处理下潜在结局 Y(t) 的对比;识别通常要求可忽略性、SUTVA 与正概率等假设。",
term_es = "marco de resultados potenciales",
term_zh = "潜在结局框架",
aliases_es = { "modelo de Neyman-Rubin", "modelo causal de Rubin", "marco de Rubin" },
aliases_zh = { "Neyman-Rubin 模型", "Rubin 因果模型", "潜在结果框架" },
}
data["power posterior"] = {
short = "A tempered posterior of the form p_beta(theta | D) proportional to p(D | theta)^beta p(theta), used in path-sampling marginal-likelihood estimation and to mitigate model misspecification.",
article = nil,
aliases = { "tempered posterior", "fractional posterior", "Gibbs posterior with temperature" },
es = "Posterior temperada de la forma p_beta(theta | D) proporcional a p(D | theta)^beta p(theta), empleada en estimación de la verosimilitud marginal por path sampling y para mitigar la mala especificación de modelos.",
zh = "形如 p_beta(theta | D) ∝ p(D | theta)^beta p(theta) 的退火后验,用于路径采样的边际似然估计以及缓解模型设定偏差。",
term_es = "posterior potencia",
term_zh = "幂后验",
aliases_es = { "posterior temperada", "posterior fraccional" },
aliases_zh = { "退火后验", "分数后验" },
}
data["power spectrogram"] = {
short = "A time-frequency representation of an audio signal computed as the squared magnitude of its short-time Fourier transform (STFT), expressing energy distribution across frequencies over time.",
article = nil,
aliases = { "power spectrum spectrogram", "magnitude-squared spectrogram" },
es = "Representación tiempo-frecuencia de una señal de audio calculada como el cuadrado de la magnitud de su transformada de Fourier de corto tiempo (STFT), que expresa la distribución de energía en frecuencia a lo largo del tiempo.",
zh = "通过对音频信号的短时傅里叶变换(STFT)取幅度平方得到的时频表示,刻画能量在频率上随时间的分布。",
term_es = "espectrograma de potencia",
term_zh = "功率谱图",
aliases_es = { "espectrograma de magnitud al cuadrado" },
aliases_zh = { "功率频谱图", "幅度平方谱图" },
}
data["power-of-choice client selection"] = {
short = "A federated learning client sampling strategy that randomly selects a small candidate pool of clients each round and then picks the subset with the highest local loss to participate, biasing training toward clients that benefit most from updates.",
article = nil,
aliases = { "power-of-choice sampling", "Power-of-Choice", "POC client selection", "loss-based client selection" },
es = "Estrategia de muestreo de clientes en aprendizaje federado que selecciona aleatoriamente un pequeño grupo de candidatos en cada ronda y elige el subconjunto con mayor pérdida local para participar, sesgando el entrenamiento hacia los clientes que más se benefician de las actualizaciones.",
zh = "联邦学习中的一种客户端采样策略,每轮随机抽取一个小的候选池,并从中选出本地损失最大的子集参与训练,使训练偏向那些最能从更新中受益的客户端。",
term_es = "selección de clientes power-of-choice",
term_zh = "power-of-choice 客户端选择",
aliases_es = { "muestreo power-of-choice", "selección de clientes basada en pérdida" },
aliases_zh = { "POC 客户端选择", "基于损失的客户端选择" },
}
data["powersgd"] = {
short = "A gradient compression method for distributed training that approximates each gradient matrix by a low-rank factorization computed via power iteration, with error feedback across steps to preserve convergence. Reduces communication cost by an order of magnitude versus full-precision all-reduce.",
article = nil,
aliases = { "PowerSGD", "power SGD", "low-rank gradient compression" },
es = "Método de compresión de gradientes para entrenamiento distribuido que aproxima cada matriz de gradiente mediante una factorización de bajo rango calculada por iteración de potencias, con realimentación de errores entre pasos para preservar la convergencia. Reduce el coste de comunicación en un orden de magnitud frente a all-reduce de precisión completa.",
zh = "一种用于分布式训练的梯度压缩方法,通过幂迭代计算低秩分解来近似每个梯度矩阵,并在步骤之间使用误差反馈以保持收敛性。相较于全精度 all-reduce,可将通信开销降低约一个数量级。",
term_es = "PowerSGD",
term_zh = "PowerSGD",
aliases_es = { "PowerSGD", "compresión de gradientes de bajo rango" },
aliases_zh = { "幂迭代 SGD", "低秩梯度压缩" },
}
data["ppi prediction"] = {
short = "Computational prediction of protein-protein interactions from sequence, structure, co-expression, or co-evolution signals, complementing experimental methods like Y2H or AP-MS.",
article = nil,
aliases = { "PPI prediction", "protein-protein interaction prediction", "protein interaction prediction" },
es = "Predicción computacional de interacciones proteína-proteína a partir de secuencia, estructura, coexpresión o coevolución, complementando métodos experimentales como Y2H o AP-MS.",
zh = "从序列、结构、共表达或共进化信号通过计算预测蛋白质-蛋白质相互作用,作为 Y2H、AP-MS 等实验方法的补充。",
term_es = "predicción de PPI",
term_zh = "PPI 预测",
aliases_es = { "predicción de interacciones proteína-proteína", "predicción de interacciones proteicas" },
aliases_zh = { "蛋白质相互作用预测", "蛋白-蛋白相互作用预测" },
}
data["ppo"] = {
short = "An on-policy policy-gradient algorithm that constrains each update by clipping the probability ratio between the new and old policies, achieving the stability of trust-region methods with simple first-order optimization.",
article = nil,
aliases = { "PPO", "Proximal Policy Optimization", "PPO-Clip", "Clipped PPO" },
es = "Algoritmo de gradiente de política on-policy que restringe cada actualización recortando el cociente de probabilidades entre la nueva política y la anterior, logrando la estabilidad de los métodos de región de confianza con una optimización simple de primer orden.",
zh = "一种同策略策略梯度算法,通过对新旧策略的概率比率进行裁剪来约束每次更新,以一阶优化的简单实现获得了信任域方法的稳定性。",
term_es = "PPO",
term_zh = "PPO",
aliases_es = { "Proximal Policy Optimization", "optimización de política proximal" },
aliases_zh = { "近端策略优化", "Proximal Policy Optimization" },
}
data["pr curve"] = {
short = "A plot of precision against recall as the decision threshold of a binary classifier varies. More informative than the ROC curve under heavy class imbalance, where the abundance of true negatives makes ROC look optimistic.",
article = nil,
aliases = { "PR curve", "precision-recall curve", "precision–recall curve", "P-R curve" },
es = "Gráfica de la precisión frente a la exhaustividad al variar el umbral de decisión de un clasificador binario. Resulta más informativa que la curva ROC bajo fuerte desbalance de clases, donde la abundancia de verdaderos negativos hace que la ROC parezca demasiado optimista.",
zh = "随着二分类器决策阈值变化,将精确率对召回率作图所得的曲线。在类别严重不均衡时,由于真阴性数量巨大会使 ROC 显得过于乐观,PR 曲线更具信息量。",
term_es = "curva PR",
term_zh = "PR 曲线",
aliases_es = { "curva precisión–exhaustividad", "curva precisión-recall" },
aliases_zh = { "精确率-召回率曲线", "查准-查全曲线", "P-R 曲线" },
}
data["pre-emphasis filter"] = {
short = "A simple high-pass FIR filter (typically y[n] = x[n] − αx[n−1] with α≈0.97) applied to speech signals before feature extraction to amplify high-frequency components and balance the spectral tilt.",
article = nil,
aliases = { "preemphasis filter", "pre-emphasis", "preemphasis", "pre-emphasis filtering" },
es = "Filtro FIR paso alto simple (típicamente y[n] = x[n] − αx[n−1] con α≈0,97) aplicado a las señales de habla antes de la extracción de características para amplificar las componentes de alta frecuencia y compensar la inclinación espectral.",
zh = "在特征提取前应用于语音信号的简单高通 FIR 滤波器(典型形式为 y[n] = x[n] − αx[n−1],α≈0.97),用于增强高频成分并补偿频谱倾斜。",
term_es = "filtro de preénfasis",
term_zh = "预加重滤波器",
aliases_es = { "preénfasis", "filtrado de preénfasis" },
aliases_zh = { "预加重", "预增强滤波器" },
}
data["pre-processing debiasing"] = {
short = "A bias-mitigation strategy that modifies the training data—through reweighting, resampling, relabeling, or representation changes—before model fitting, so that the resulting model is fairer with respect to a chosen criterion.",
article = nil,
aliases = { "pre-processing fairness", "pre-processing bias mitigation", "data debiasing", "training-data debiasing" },
es = "Estrategia de mitigación de sesgos que modifica los datos de entrenamiento —mediante reponderación, remuestreo, reetiquetado o cambios de representación— antes del ajuste del modelo, para que el modelo resultante sea más equitativo respecto a un criterio elegido.",
zh = "一种偏见缓解策略:在模型训练前对训练数据进行修改(如重新加权、重采样、重新标注或改变表示),从而使得所得到的模型在选定准则下更为公平。",
term_es = "mitigación de sesgo en preprocesamiento",
term_zh = "预处理去偏",
aliases_es = { "desbiasing en preprocesamiento", "mitigación de sesgo en datos", "equidad por preprocesamiento", "preprocesamiento para equidad" },
aliases_zh = { "预处理偏见缓解", "数据去偏", "训练数据去偏", "预处理公平性方法" },
}
data["pre-training"] = {
short = "An initial training phase in which a model is trained on a large, often self-supervised or weakly labeled dataset to learn general-purpose representations, after which it can be fine-tuned on downstream tasks.",
article = nil,
aliases = { "pretraining", "pre training", "pretrain", "pre-train", "pretrain phase" },
es = "Fase inicial de entrenamiento en la que un modelo se entrena con un conjunto de datos grande, frecuentemente autosupervisado o débilmente etiquetado, para aprender representaciones de propósito general que luego pueden ajustarse en tareas posteriores.",
zh = "一个初始训练阶段,在大规模、通常是自监督或弱标注的数据集上训练模型,以学习通用表征,之后可在下游任务上进行微调。",
term_es = "preentrenamiento",
term_zh = "预训练",
aliases_es = { "pre-entrenamiento", "pretraining", "fase de preentrenamiento" },
aliases_zh = { "预训练阶段", "pretraining", "预训" },
}
data["pre-trend test"] = {
short = "In difference-in-differences and event-study designs, an empirical check that treatment and control groups have parallel outcome trends in periods before treatment; failure casts doubt on the parallel-trends identification assumption.",
article = nil,
aliases = { "pretrend test", "pre trend test", "parallel pre-trend test", "pre-trends check", "pretrends test" },
es = "En diseños de diferencias en diferencias y estudios de eventos, comprobación empírica de que los grupos de tratamiento y control presentan tendencias paralelas en el resultado antes del tratamiento; su rechazo cuestiona el supuesto de tendencias paralelas.",
zh = "在双重差分与事件研究设计中,检验处理组与对照组在干预前结局是否具有平行趋势的经验检验;若不成立,则平行趋势识别假设受到质疑。",
term_es = "prueba de tendencias previas",
term_zh = "事前趋势检验",
aliases_es = { "test de pre-tendencias", "prueba de tendencias paralelas previas" },
aliases_zh = { "前趋势检验", "平行趋势预检验", "pre-trend 检验" },
}
data["precision"] = {
short = "In classification, the fraction of predicted positives that are actually positive, TP/(TP+FP). Measures how much to trust a positive prediction; pairs with recall in the precision–recall trade-off.",
article = nil,
aliases = { "positive predictive value", "PPV" },
es = "En clasificación, fracción de predicciones positivas que son realmente positivas, TP/(TP+FP). Mide cuánto se puede confiar en una predicción positiva y se complementa con la exhaustividad (recall) en el compromiso precisión–recall.",
zh = "在分类中,预测为正的样本中真正为正的比例,TP/(TP+FP)。它衡量正预测的可信度,并与召回率在精确率—召回率权衡中相辅相成。",
term_es = "precisión",
term_zh = "精确率",
aliases_es = { "valor predictivo positivo", "VPP", "precision" },
aliases_zh = { "查准率", "precision", "精度" },
}
data["preconditioned sgld"] = {
short = "A variant of stochastic gradient Langevin dynamics that scales the gradient and noise injection by a position-dependent preconditioner, such as the diagonal of the Fisher information, to better navigate ill-conditioned posteriors.",
article = nil,
aliases = { "pSGLD", "preconditioned stochastic gradient Langevin dynamics", "Preconditioned SGLD" },
es = "Variante de la dinámica de Langevin con gradiente estocástico que escala el gradiente y el ruido inyectado mediante un precondicionador dependiente de la posición, como la diagonal de la información de Fisher, para recorrer mejor posteriors mal condicionadas.",
zh = "随机梯度 Langevin 动力学的一种变体,使用与位置相关的预条件器(如 Fisher 信息的对角)对梯度和注入噪声进行缩放,以更好地遍历病态后验。",
term_es = "SGLD precondicionado",
term_zh = "预条件 SGLD",
aliases_es = { "pSGLD", "Langevin estocástico precondicionado" },
aliases_zh = { "pSGLD", "预条件随机梯度 Langevin 动力学" },
}
data["predicate logic"] = {
short = "A formal logical system that extends propositional logic with quantifiers, variables, predicates, and functions, enabling statements about properties of objects and relations among them. First-order logic is its most common form.",
article = nil,
aliases = { "first-order logic", "first order logic", "FOL", "quantificational logic", "predicate calculus", "first-order predicate logic" },
es = "Un sistema lógico formal que extiende la lógica proposicional con cuantificadores, variables, predicados y funciones, lo que permite enunciar propiedades de objetos y relaciones entre ellos. La lógica de primer orden es su forma más común.",
zh = "一种形式逻辑系统,在命题逻辑的基础上引入量词、变量、谓词和函数,能够表达对象的属性以及对象之间的关系。一阶逻辑是其最常见的形式。",
term_es = "lógica de predicados",
term_zh = "谓词逻辑",
aliases_es = { "lógica de primer orden", "cálculo de predicados", "FOL" },
aliases_zh = { "一阶逻辑", "谓词演算", "FOL" },
}
data["predict-then-rationalize"] = {
short = "An explanation pipeline that first produces a prediction with a black-box model and then trains or runs a separate model to generate a justification for that prediction, in contrast to rationalize-then-predict architectures where the rationale gates the prediction.",
article = nil,
aliases = { "predict then rationalize", "predict-then-explain", "prediction-then-rationalization", "predict-and-rationalize" },
es = "Pipeline de explicación que primero produce una predicción con un modelo de caja negra y después entrena o ejecuta un modelo independiente para generar una justificación de dicha predicción, en contraste con las arquitecturas rationalize-then-predict, en las que el racional condiciona la predicción.",
zh = "一种解释流水线,先用黑盒模型给出预测,再训练或运行独立模型为该预测生成理由,与由理由约束预测的「先理由化后预测」结构相对。",
term_es = "predict-then-rationalize",
term_zh = "先预测后理由化",
aliases_es = { "predecir y luego racionalizar", "predicción seguida de racionalización", "predict-then-explain" },
aliases_zh = { "predict-then-rationalize", "先预测再生成理由", "预测后解释", "预测-然后-合理化" },
}
data["predicted aligned error"] = {
short = "An AlphaFold output that estimates, for every pair of residues, the expected positional error after aligning the predicted structure to the true structure on one residue; used to assess inter-domain and inter-chain confidence.",
article = nil,
aliases = { "PAE", "AlphaFold PAE", "AlphaFold predicted aligned error" },
es = "Salida de AlphaFold que estima, para cada par de residuos, el error posicional esperado tras alinear la estructura predicha con la verdadera sobre uno de los residuos; se usa para evaluar la confianza entre dominios y entre cadenas.",
zh = "AlphaFold 的一种输出,针对每对残基估计在以其中一个残基对齐预测结构与真实结构后的期望位置误差,用于评估结构域间和链间的置信度。",
term_es = "error alineado predicho",
term_zh = "预测对齐误差",
aliases_es = { "PAE", "PAE de AlphaFold" },
aliases_zh = { "PAE", "AlphaFold 预测对齐误差" },
}
data["prediction difference analysis"] = {
short = "An attribution method that estimates a feature's importance by marginalizing it out — sampling plausible replacement values and measuring the change in the model's predicted class probability.",
article = nil,
aliases = { "PDA", "prediction difference", "marginalization-based attribution" },
es = "Método de atribución que estima la importancia de una característica marginalizándola — muestreando valores de reemplazo plausibles y midiendo el cambio en la probabilidad predicha por el modelo para la clase de interés.",
zh = "一种归因方法,通过将特征边缘化(采样可信的替换值)并观察模型预测类别概率的变化,来估计该特征的重要性。",
term_es = "análisis de diferencia de predicción",
term_zh = "预测差异分析",
aliases_es = { "PDA", "atribución por marginalización" },
aliases_zh = { "PDA", "预测差分分析", "基于边缘化的归因" },
}
data["prediction interval"] = {
short = "An interval that, with a specified probability, contains a future observation drawn from the same data-generating process, accounting for both parameter uncertainty and observation noise.",
article = nil,
aliases = { "predictive interval", "PI", "prediction intervals" },
es = "Intervalo que, con una probabilidad especificada, contiene una observación futura del mismo proceso generador de datos, teniendo en cuenta tanto la incertidumbre de los parámetros como el ruido de observación.",
zh = "在指定概率下包含来自同一数据生成过程的未来观测的区间,同时考虑参数不确定性和观测噪声。",
term_es = "intervalo de predicción",
term_zh = "预测区间",
aliases_es = { "intervalo predictivo", "IP" },
aliases_zh = { "预测区间", "predictive 区间" },
}
data["prediction set"] = {
short = "A set-valued predictor that outputs a subset of the label space guaranteed to contain the true label with a target probability, central to conformal prediction and selective classification.",
article = nil,
aliases = { "predictive set", "conformal prediction set", "set predictor" },
es = "Predictor de valor conjunto que devuelve un subconjunto del espacio de etiquetas con la garantía de contener la etiqueta verdadera con una probabilidad objetivo; es central en la predicción conformal y la clasificación selectiva.",
zh = "一种集合值预测器,输出标签空间的子集并保证以目标概率包含真实标签,是 conformal 预测和选择性分类的核心。",
term_es = "conjunto de predicción",
term_zh = "预测集",
aliases_es = { "conjunto predictivo", "predictor de conjuntos" },
aliases_zh = { "预测集合", "保形预测集" },
}
data["prediction-rejection curve"] = {
short = "A plot of predictive performance against the fraction of inputs rejected as too uncertain, used to evaluate selective classifiers and uncertainty estimates.",
article = nil,
aliases = { "PR curve (selective)", "rejection curve", "accuracy-rejection curve", "risk-coverage curve" },
es = "Gráfica del rendimiento predictivo frente a la fracción de entradas rechazadas por considerarse demasiado inciertas; se utiliza para evaluar clasificadores selectivos y estimaciones de incertidumbre.",
zh = "预测性能与因不确定性过高而被拒绝输入比例的曲线,用于评估选择性分类器和不确定性估计。",
term_es = "curva de predicción-rechazo",
term_zh = "预测-拒绝曲线",
aliases_es = { "curva de rechazo", "curva precisión-rechazo", "curva riesgo-cobertura" },
aliases_zh = { "拒绝曲线", "准确率-拒绝曲线", "风险-覆盖曲线" },
}
data["predictive bias"] = {
short = "A condition in which a model's predictions systematically over- or under-predict the true outcome for a particular group, often measured as differences in residuals or calibration across groups.",
article = nil,
aliases = { "prediction bias", "systematic prediction bias", "differential prediction" },
es = "Condición en la que las predicciones de un modelo sobreestiman o subestiman sistemáticamente el resultado real para un grupo determinado, medida a menudo como diferencias en los residuales o en la calibración entre grupos.",
zh = "模型对某一特定群体系统性地高估或低估真实结果的状态,通常通过群体间残差或校准的差异来衡量。",
term_es = "sesgo predictivo",
term_zh = "预测偏差",
aliases_es = { "sesgo de predicción", "predicción diferencial", "sesgo sistemático en predicciones" },
aliases_zh = { "预测偏倚", "差异性预测", "系统性预测偏差" },
}
data["predictive coverage"] = {
short = "The empirical probability that a prediction interval or prediction set contains the true outcome on held-out data; a calibrated predictor's coverage matches its nominal level.",
article = nil,
aliases = { "empirical coverage", "coverage probability", "predictive coverage rate" },
es = "Probabilidad empírica de que un intervalo o conjunto de predicción contenga el resultado real sobre datos de prueba; en un predictor calibrado, la cobertura coincide con el nivel nominal.",
zh = "在留出数据上,预测区间或预测集合包含真实结果的经验概率;校准良好的预测器其覆盖率与名义水平相符。",
term_es = "cobertura predictiva",
term_zh = "预测覆盖率",
aliases_es = { "cobertura empírica", "tasa de cobertura predictiva" },
aliases_zh = { "经验覆盖率", "覆盖概率" },
}
data["predictive distribution"] = {
short = "The distribution over outputs at a new input under the model and the parameter posterior, p(y | x, D), summarizing both aleatoric and epistemic uncertainty.",
article = nil,
aliases = { "predictive distributions", "model predictive distribution" },
es = "Distribución sobre las salidas para una nueva entrada bajo el modelo y la posterior de los parámetros, p(y | x, D), que resume tanto la incertidumbre aleatoria como la epistémica.",
zh = "在模型与参数后验下,对新输入输出的分布 p(y | x, D),涵盖偶然不确定性与认知不确定性。",
term_es = "distribución predictiva",
term_zh = "预测分布",
aliases_es = { "distribución predictiva del modelo" },
aliases_zh = { "预测性分布", "模型预测分布" },
}
data["predictive entropy"] = {
short = "The entropy of the predictive distribution H(p(y | x, D)), often used as a total uncertainty score combining aleatoric and epistemic contributions.",
article = nil,
aliases = { "entropy of predictive distribution", "predictive entropy score" },
es = "Entropía de la distribución predictiva H(p(y | x, D)), utilizada con frecuencia como medida de incertidumbre total que combina contribuciones aleatoria y epistémica.",
zh = "预测分布 p(y | x, D) 的熵 H(p(y | x, D)),常作为合并偶然性与认知性贡献的总不确定性评分。",
term_es = "entropía predictiva",
term_zh = "预测熵",
aliases_es = { "entropía de la distribución predictiva" },
aliases_zh = { "预测分布熵", "预测性熵" },
}
data["predictive entropy search"] = {
short = "A Bayesian optimization acquisition function that selects the next query point to maximally reduce the entropy of the posterior distribution over the location of the global optimum.",
article = nil,
aliases = { "PES", "Predictive Entropy Search", "predictive-entropy search" },
es = "Función de adquisición de optimización bayesiana que elige el siguiente punto a evaluar de modo que se reduzca al máximo la entropía de la distribución a posteriori sobre la ubicación del óptimo global.",
zh = "一种贝叶斯优化采集函数,选择下一个评估点以最大程度地降低关于全局最优位置后验分布的熵。",
term_es = "búsqueda por entropía predictiva",
term_zh = "预测熵搜索",
aliases_es = { "PES", "búsqueda de entropía predictiva" },
aliases_zh = { "PES", "Predictive Entropy Search" },
}
data["predictive equality"] = {
short = "A group fairness criterion requiring that the false-positive rate be equal across protected groups; equivalent to equal-opportunity-like parity on the negative class.",
article = nil,
aliases = { "FPR parity", "false positive rate parity", "false-positive-rate equality", "equal false positive rates" },
es = "Criterio de equidad grupal que exige que la tasa de falsos positivos sea igual entre grupos protegidos; equivale a una paridad tipo igualdad de oportunidades sobre la clase negativa.",
zh = "一种群体公平准则,要求各受保护群体的假阳性率相等;相当于在负类样本上达到类似机会均等的平价。",
term_es = "igualdad predictiva",
term_zh = "预测平等",
aliases_es = { "paridad de tasa de falsos positivos", "paridad FPR", "igualdad de tasa de falsos positivos" },
aliases_zh = { "假阳性率平等", "FPR 平等", "假阳性率平价" },
}
data["predictive multiplicity"] = {
short = "The phenomenon in which several models attaining nearly identical performance on a task produce conflicting predictions on individual inputs, raising fairness and accountability concerns when one model is deployed.",
article = nil,
aliases = { "model multiplicity", "Rashomon effect (predictive)", "predictive disagreement" },
es = "Fenómeno por el cual varios modelos con un desempeño prácticamente idéntico en una tarea producen predicciones distintas para entradas individuales, lo que plantea problemas de equidad y rendición de cuentas al desplegar uno de ellos.",
zh = "指多个在某任务上性能几乎相同的模型,在单个输入上却给出相互冲突的预测的现象,这在部署其中一个模型时会带来公平性与问责方面的担忧。",
term_es = "multiplicidad predictiva",
term_zh = "预测多重性",
aliases_es = { "multiplicidad de modelos", "efecto Rashomon predictivo" },
aliases_zh = { "模型多重性", "预测分歧", "罗生门效应(预测)" },
}
data["predictive parity"] = {
short = "A group fairness criterion requiring that the positive predictive value (precision) be equal across protected groups, i.e., that among individuals predicted positive the actual positive rate is the same in each group.",
article = nil,
aliases = { "PPV parity", "positive predictive value parity", "precision parity", "outcome test parity" },
es = "Criterio de equidad grupal que exige que el valor predictivo positivo (precisión) sea igual entre grupos protegidos; es decir, que entre los individuos predichos como positivos la tasa real de positivos sea la misma en cada grupo.",
zh = "一种群体公平准则,要求各受保护群体的阳性预测值(精确率)相等,即在被预测为阳性的个体中,各群体的真实阳性率应当相同。",
term_es = "paridad predictiva",
term_zh = "预测平价",
aliases_es = { "paridad de valor predictivo positivo", "paridad de precisión", "paridad de PPV" },
aliases_zh = { "阳性预测值平等", "精确率平价", "PPV 平价" },
}
data["predictive policing bias"] = {
short = "Bias in algorithmic policing systems that allocate patrols, surveillance, or risk scores in ways that disproportionately target historically over-policed communities, partly because training data reflects past policing patterns rather than crime rates.",
article = nil,
aliases = { "bias in predictive policing", "algorithmic policing bias", "predictive policing fairness" },
es = "Sesgo en los sistemas algorítmicos de vigilancia policial que asignan patrullajes, supervisión o puntuaciones de riesgo de manera desproporcionada hacia comunidades históricamente sobrevigiladas, en parte porque los datos de entrenamiento reflejan patrones policiales pasados más que tasas de delito.",
zh = "预测性警务算法系统中的偏差:在分配巡逻、监控或风险评分时,会不成比例地针对历史上长期被过度执法的社区,部分原因是训练数据反映的是过往执法模式而非真实犯罪率。",
term_es = "sesgo en la vigilancia policial predictiva",
term_zh = "预测性警务偏见",
aliases_es = { "sesgo en policía predictiva", "sesgo de policía algorítmica", "equidad en vigilancia policial predictiva" },
aliases_zh = { "预测性警务中的偏见", "算法警务偏差", "预测性警务公平性" },
}
data["predictive sampling"] = {
short = "Generating samples from the posterior predictive distribution by drawing parameters from the posterior and then drawing outputs from the likelihood given those parameters.",
article = nil,
aliases = { "posterior predictive sampling", "draw from predictive", "sample from predictive" },
es = "Generación de muestras de la distribución predictiva posterior obteniendo parámetros de la posterior y, a continuación, salidas de la verosimilitud condicionada a dichos parámetros.",
zh = "从后验预测分布生成样本的方法:先从后验抽取参数,再在给定这些参数下从似然抽取输出。",
term_es = "muestreo predictivo",
term_zh = "预测采样",
aliases_es = { "muestreo predictivo posterior", "muestreo de la predictiva" },
aliases_zh = { "后验预测采样", "预测分布采样" },
}
data["predictive uncertainty"] = {
short = "The total uncertainty associated with a model's prediction at a given input, typically decomposed into aleatoric uncertainty from data noise and epistemic uncertainty from limited knowledge of model parameters.",
article = nil,
aliases = { "total predictive uncertainty", "model predictive uncertainty" },
es = "Incertidumbre total asociada a la predicción de un modelo en una entrada dada, descompuesta habitualmente en incertidumbre aleatoria del ruido en los datos e incertidumbre epistémica del conocimiento limitado de los parámetros.",
zh = "模型在给定输入处预测所伴随的总不确定性,通常分解为来自数据噪声的偶然不确定性与来自参数知识不足的认知不确定性。",
term_es = "incertidumbre predictiva",
term_zh = "预测不确定性",
aliases_es = { "incertidumbre predictiva total" },
aliases_zh = { "预测性不确定性", "模型预测不确定性" },
}
data["predictive variance"] = {
short = "The variance of the predictive distribution at a given input, frequently decomposed into aleatoric and epistemic components and used as a scalar uncertainty score for regression.",
article = nil,
aliases = { "variance of predictive distribution", "predictive sigma squared" },
es = "Varianza de la distribución predictiva en una entrada dada, a menudo descompuesta en componentes aleatoria y epistémica, utilizada como puntaje escalar de incertidumbre en regresión.",
zh = "给定输入处预测分布的方差,常被分解为偶然性和认知性两部分,作为回归任务的标量不确定性评分。",
term_es = "varianza predictiva",
term_zh = "预测方差",
aliases_es = { "varianza de la distribución predictiva" },
aliases_zh = { "预测分布方差", "预测性方差" },
}
data["predictor accuracy"] = {
short = "In predictor-based NAS, the agreement between the surrogate predictor's estimated performance and the true validation performance of architectures, often measured by ranking correlation rather than absolute error.",
article = nil,
aliases = { "predictor accuracy", "surrogate accuracy", "performance predictor accuracy" },
es = "En NAS basado en predictores, la concordancia entre el rendimiento estimado por el modelo sustituto y el rendimiento real de validación de las arquitecturas, medida normalmente por correlación de rangos en lugar de error absoluto.",
zh = "在基于预测器的神经架构搜索中,代理预测模型对架构性能的估计与真实验证性能之间的吻合度,常用排序相关性而非绝对误差来衡量。",
term_es = "precisión del predictor",
term_zh = "预测器精度",
aliases_es = { "exactitud del predictor", "precisión del modelo sustituto" },
aliases_zh = { "预测器准确度", "代理模型精度" },
}
data["predictor-based nas"] = {
short = "Neural architecture search methods that train a surrogate model (e.g. neural network, Gaussian process, graph neural network) to predict architecture performance from its description, using the predictor to rank candidates without full training.",
article = nil,
aliases = { "predictor-based NAS", "surrogate-based NAS", "performance predictor NAS" },
es = "Métodos de búsqueda de arquitecturas neuronales que entrenan un modelo sustituto (red neuronal, proceso gaussiano, GNN, etc.) para predecir el rendimiento de cada arquitectura a partir de su descripción, usándolo para ordenar candidatas sin entrenarlas por completo.",
zh = "一类神经架构搜索方法,训练一个代理模型(如神经网络、高斯过程或图神经网络),根据架构描述预测其性能,并用预测器对候选架构进行排序,避免完整训练。",
term_es = "NAS basado en predictores",
term_zh = "基于预测器的 NAS",
aliases_es = { "NAS con predictor", "NAS con modelo sustituto" },
aliases_zh = { "基于代理模型的 NAS", "性能预测 NAS" },
}
data["preference data"] = {
short = "Human or model annotations indicating which of several candidate responses to a prompt is preferred, used to train reward models or directly optimize policies via methods such as RLHF, DPO, or KTO.",
article = nil,
aliases = { "preference dataset", "human preference data", "preference annotations", "preference labels" },
es = "Anotaciones humanas o de modelo que indican cuál de varias respuestas candidatas a un prompt es preferida, usadas para entrenar modelos de recompensa o para optimizar políticas directamente mediante métodos como RLHF, DPO o KTO.",
zh = "由人类或模型给出的标注,指示对同一提示的多个候选回答中更受偏好的那一个,用于训练奖励模型或通过 RLHF、DPO、KTO 等方法直接优化策略。",
term_es = "datos de preferencia",
term_zh = "偏好数据",
aliases_es = { "datos de preferencias", "conjunto de datos de preferencia", "anotaciones de preferencia" },
aliases_zh = { "偏好数据集", "人类偏好数据", "偏好标注" },
}
data["prefill phase"] = {
short = "The first stage of LLM inference where the entire input prompt is processed in parallel to populate the key-value cache, in contrast to the autoregressive decode phase that generates one token at a time.",
article = nil,
aliases = { "prefill", "prefill stage", "prompt processing phase", "context phase" },
es = "Primera etapa de la inferencia de un LLM en la que todo el prompt de entrada se procesa en paralelo para poblar la caché clave-valor, a diferencia de la fase autoregresiva de decodificación que genera un token a la vez.",
zh = "大语言模型推理的第一阶段,将整个输入提示并行处理以填充键-值缓存,与逐个生成标记的自回归解码阶段相对。",
term_es = "fase de prefill",
term_zh = "预填充阶段",
aliases_es = { "prefill", "etapa de prefill", "fase de procesamiento del prompt" },
aliases_zh = { "prefill", "prefill 阶段", "提示处理阶段" },
}
data["prefix caching"] = {
short = "An LLM serving optimization that reuses the precomputed key-value cache of a shared prompt prefix across requests, eliminating redundant prefill computation for system prompts and few-shot examples.",
article = nil,
aliases = { "prefix cache", "KV prefix caching", "shared prefix caching", "prompt caching" },
es = "Optimización del servicio de LLM que reutiliza la caché clave-valor precomputada de un prefijo común a varias solicitudes, eliminando el prefill redundante de prompts de sistema y ejemplos few-shot.",
zh = "一种大语言模型推理优化,跨请求复用共享提示前缀的预计算键-值缓存,避免对系统提示和少样本示例进行重复的预填充计算。",
term_es = "prefix caching",
term_zh = "前缀缓存",
aliases_es = { "almacenamiento en caché de prefijos", "caché de prefijo KV" },
aliases_zh = { "prefix caching", "KV 前缀缓存", "共享前缀缓存" },
}
data["prefix injection"] = {
short = "A prompt injection technique that forces a model to begin its response with an attacker-supplied prefix (e.g., 'Sure, here is') in order to bypass safety refusals and elicit disallowed content.",
article = nil,
aliases = { "prefix injection attack", "response prefix injection" },
es = "Técnica de inyección de prompts que obliga al modelo a comenzar su respuesta con un prefijo proporcionado por el atacante (por ejemplo, «Sure, here is») para eludir los rechazos de seguridad y obtener contenido prohibido.",
zh = "一种提示注入技术,强迫模型以攻击者提供的前缀(如 'Sure, here is')开始回复,以绕过安全拒绝并引出违禁内容。",
term_es = "inyección de prefijo",
term_zh = "前缀注入",
aliases_es = { "ataque de inyección de prefijo", "prefix injection" },
aliases_zh = { "prefix injection", "前缀注入攻击", "响应前缀注入" },
}
data["prefix language modeling multimodal"] = {
short = "A multimodal training objective in which visual tokens form a fixed prefix that is fully attended bidirectionally, while the textual continuation is generated autoregressively under a causal mask.",
article = nil,
aliases = { "prefix language modeling multimodal", "multimodal prefix LM", "PrefixLM multimodal", "prefix-LM multimodal", "multimodal prefix language modeling" },
es = "Objetivo de entrenamiento multimodal en el que los tokens visuales forman un prefijo fijo al que se atiende de forma bidireccional, mientras que la continuación textual se genera de manera autoregresiva bajo una máscara causal.",
zh = "一种多模态训练目标:视觉 token 构成固定前缀并使用双向注意力,文本部分则在因果掩码下以自回归方式生成。",
term_es = "modelado de lenguaje con prefijo multimodal",
term_zh = "多模态前缀语言建模",
aliases_es = { "prefix-LM multimodal", "PrefixLM multimodal" },
aliases_zh = { "多模态 PrefixLM", "prefix-LM multimodal" },
}
data["prefix tuning"] = {
short = "A parameter-efficient fine-tuning method that prepends a sequence of trainable continuous vectors (a prefix) to the keys and values of every transformer layer, leaving the base model frozen.",
article = nil,
aliases = { "prefix-tuning", "Prefix Tuning", "prefix tuning method" },
es = "Método de ajuste fino eficiente en parámetros que antepone una secuencia de vectores continuos entrenables (un prefijo) a las claves y valores de cada capa del transformer, manteniendo congelado el modelo base.",
zh = "一种参数高效的微调方法,在 transformer 每一层的键和值前添加一段可训练的连续向量(前缀),同时保持基础模型冻结。",
term_es = "prefix tuning",
term_zh = "前缀微调",
aliases_es = { "ajuste por prefijo", "ajuste de prefijo" },
aliases_zh = { "prefix tuning", "Prefix Tuning" },
}
data["prejudice remover regularizer"] = {
short = "An in-processing fairness method (Kamishima et al., 2012) that adds a regularization term to the loss function penalizing the mutual information between predictions and a sensitive attribute, reducing dependence of the model on that attribute.",
article = nil,
aliases = { "prejudice remover", "Kamishima prejudice remover", "PR regularizer", "prejudice-remover regularizer" },
es = "Método de equidad en procesamiento (Kamishima et al., 2012) que añade a la función de pérdida un término de regularización que penaliza la información mutua entre las predicciones y un atributo sensible, reduciendo la dependencia del modelo respecto a dicho atributo.",
zh = "一种处理中(in-processing)公平性方法(Kamishima 等,2012),在损失函数中加入一项正则化项,惩罚预测与敏感属性之间的互信息,从而降低模型对该属性的依赖。",
term_es = "regularizador eliminador de prejuicios",
term_zh = "偏见消除正则化器",
aliases_es = { "regularizador prejudice remover", "PR regularizer", "regularizador de Kamishima" },
aliases_zh = { "Prejudice Remover 正则化器", "PR 正则化器", "Kamishima 偏见消除器" },
}
data["premise selection"] = {
short = "The task of choosing, from a large library of lemmas and theorems, the small subset most likely to be useful for proving a given conjecture, often used as a preprocessing step in automated theorem proving.",
article = nil,
aliases = { "premise selection task", "lemma selection", "axiom selection" },
es = "La tarea de elegir, a partir de una biblioteca extensa de lemas y teoremas, el subconjunto reducido que tiene mayor probabilidad de ser útil para demostrar una conjetura dada, a menudo utilizada como paso previo en demostración automática de teoremas.",
zh = "从大型引理和定理库中选出最有可能用于证明给定猜想的少量子集的任务,常作为自动定理证明的预处理步骤。",
term_es = "selección de premisas",
term_zh = "前提选择",
aliases_es = { "selección de lemas", "selección de axiomas" },
aliases_zh = { "前提选择", "引理选择", "公理选择" },
}
data["presence penalty"] = {
short = "A decoding-time logit adjustment that subtracts a fixed penalty from any token that has already appeared in the context at least once, encouraging the model to introduce new tokens regardless of frequency.",
article = nil,
aliases = { "Presence Penalty", "presence-penalty", "presence_penalty" },
es = "Ajuste de logits en tiempo de decodificación que resta una penalización fija a cualquier token que haya aparecido al menos una vez en el contexto, animando al modelo a introducir tokens nuevos con independencia de su frecuencia.",
zh = "一种解码阶段的 logit 调整,对任何在上下文中至少出现过一次的 token 减去固定的惩罚值,从而鼓励模型引入新 token,与出现次数无关。",
term_es = "penalización por presencia",
term_zh = "存在惩罚",
aliases_es = { "presence penalty", "penalización de presencia", "presence_penalty" },
aliases_zh = { "presence penalty", "presence_penalty", "出现惩罚", "存在性惩罚" },
}
data["pretraining"] = {
short = "The initial training phase of a foundation model on a large unlabeled corpus using self-supervised objectives such as next-token prediction or masked language modeling, producing general representations that downstream tasks fine-tune.",
article = nil,
aliases = { "pre-training", "pre training", "self-supervised pretraining", "foundation model pretraining" },
es = "Fase inicial de entrenamiento de un modelo fundacional sobre un gran corpus sin etiquetar mediante objetivos auto-supervisados como la predicción del siguiente token o el modelado de lenguaje enmascarado, produciendo representaciones generales que las tareas posteriores ajustan.",
zh = "基础模型的初始训练阶段,在大规模无标注语料上使用自监督目标(如下一标记预测或掩码语言建模)训练,产生通用表征供下游任务微调。",
term_es = "preentrenamiento",
term_zh = "预训练",
aliases_es = { "pre-entrenamiento", "preentrenamiento auto-supervisado" },
aliases_zh = { "pretraining", "预训练阶段", "自监督预训练" },
}
data["previous-token head"] = {
short = "An attention head in a transformer language model whose attention pattern predominantly points each position to the immediately preceding token, often serving as a building block for induction heads.",
article = nil,
aliases = { "prev-token head", "previous token head", "shift-by-one attention head" },
es = "Cabeza de atención en un transformer cuya distribución de atención apunta principalmente desde cada posición al token inmediatamente anterior; suele actuar como bloque de construcción para las cabezas de inducción.",
zh = "Transformer 中的一种注意力头,其注意力模式主要将每个位置指向其前一个 token,通常作为归纳头(induction head)的基础组件。",
term_es = "cabeza de token anterior",
term_zh = "前一token注意力头",
aliases_es = { "previous-token head", "cabeza prev-token" },
aliases_zh = { "前一词元头", "前驱token头", "previous-token head" },
}
data["primateai"] = {
short = "A deep learning method by Illumina that scores the pathogenicity of human missense variants by training on common variants observed in non-human primates as proxies for benign variation.",
article = nil,
aliases = { "PrimateAI", "Primate AI", "PrimateAI-3D" },
es = "Método de aprendizaje profundo de Illumina que puntúa la patogenicidad de variantes missense humanas entrenándose con variantes comunes en primates no humanos como sustitutos de variación benigna.",
zh = "Illumina 开发的深度学习方法,通过将非人灵长类动物中常见的变异作为良性变异的代理进行训练,对人类错义变异的致病性进行评分。",
term_es = "PrimateAI",
term_zh = "PrimateAI",
aliases_es = { "PrimateAI", "PrimateAI-3D" },
aliases_zh = { "PrimateAI", "PrimateAI-3D" },
}
data["principal causal effect"] = {
short = "The average causal effect of treatment on the outcome within a principal stratum defined by joint values of post-treatment intermediates (e.g., compliance type), used to address truncation by death and noncompliance.",
article = nil,
aliases = { "PCE", "principal effect", "principal stratum effect" },
es = "Efecto causal promedio del tratamiento sobre el resultado dentro de un estrato principal definido por valores conjuntos de variables intermedias posteriores al tratamiento (p. ej., tipo de cumplimiento); se usa para abordar truncamiento por muerte e incumplimiento.",
zh = "在由处理后中介变量(如依从类型)的联合取值所定义的主分层内,处理对结局的平均因果效应;常用于处理因死亡截断与不依从问题。",
term_es = "efecto causal principal",
term_zh = "主因果效应",
aliases_es = { "efecto principal", "efecto en estrato principal" },
aliases_zh = { "主层因果效应", "主分层效应" },
}
data["principal neighborhood aggregation"] = {
short = "A graph neural network architecture that combines several aggregation functions — mean, max, min, standard deviation — with degree-based scalers in order to overcome the expressive limits of any single neighborhood aggregator.",
article = nil,
aliases = { "PNA", "PNA layer", "PNA GNN" },
es = "Arquitectura de red neuronal en grafos que combina varias funciones de agregación —media, máximo, mínimo y desviación estándar— con escaladores basados en el grado, para superar los límites expresivos de cualquier agregador de vecindario individual.",
zh = "一种图神经网络架构,将均值、最大值、最小值和标准差等多种聚合函数与基于度的缩放器结合,以突破任何单一邻域聚合器的表达能力上限。",
term_es = "agregación principal de vecindarios",
term_zh = "主邻域聚合",
aliases_es = { "PNA", "agregación de vecindario PNA" },
aliases_zh = { "PNA", "主成分邻域聚合" },
}
data["principal score"] = {
short = "The conditional probability that a unit belongs to a given principal stratum, as a function of pretreatment covariates; used to weight or stratify analyses targeting principal causal effects.",
article = nil,
aliases = { "principal score weighting", "principal stratum score" },
es = "Probabilidad condicional de que una unidad pertenezca a un estrato principal dado, en función de las covariables pretratamiento; se utiliza para ponderar o estratificar análisis dirigidos a efectos causales principales.",
zh = "在给定处理前协变量的条件下,某单位属于特定主分层的条件概率;用于在估计主因果效应时对样本进行加权或分层。",
term_es = "puntaje principal",
term_zh = "主分数",
aliases_es = { "puntuación principal", "score de estrato principal" },
aliases_zh = { "主分层得分", "主层得分" },
}
data["principal stratification"] = {
short = "A causal-inference framework that stratifies units by the joint values of a post-treatment variable under all treatment levels, defining latent strata (e.g., compliers, always-takers) within which causal effects are well-defined.",
article = nil,
aliases = { "principal strata", "Frangakis-Rubin principal stratification" },
es = "Marco de inferencia causal que estratifica las unidades según los valores conjuntos de una variable posterior al tratamiento bajo todos los niveles de este, definiendo estratos latentes (p. ej., cumplidores, siempre-tomadores) en los que los efectos causales están bien definidos.",
zh = "一种因果推断框架:按某处理后变量在所有处理取值下的联合值对单位分层,得到隐含的主层(如依从者、始终接受者),在每一层内因果效应有良好定义。",
term_es = "estratificación principal",
term_zh = "主分层",
aliases_es = { "estratos principales", "estratificación de Frangakis-Rubin" },
aliases_zh = { "主分层框架", "Frangakis-Rubin 主分层" },
}
data["prior"] = {
short = "In Bayesian inference, the probability distribution P(θ) over parameters or hypotheses that encodes beliefs before observing data. The prior is updated to a posterior via Bayes' theorem.",
article = nil,
aliases = { "prior distribution", "prior probability", "P(θ)", "Bayesian prior" },
es = "En inferencia bayesiana, la distribución de probabilidad P(θ) sobre parámetros o hipótesis que codifica creencias previas a la observación de datos. La prior se actualiza a una posterior mediante el teorema de Bayes.",
zh = "在贝叶斯推断中,参数或假设上的概率分布 P(θ),编码了观测数据之前的信念。先验通过贝叶斯定理更新为后验。",
term_es = "prior",
term_zh = "先验",
aliases_es = { "distribución a priori", "probabilidad a priori", "previa", "P(θ)" },
aliases_zh = { "先验分布", "先验概率", "P(θ)" },
}
data["prior predictive"] = {
short = "The marginal distribution over data implied by the prior, p(y) = integral p(y | theta) p(theta) d theta, used in prior predictive checks to assess whether the prior produces plausible synthetic data.",
article = nil,
aliases = { "prior predictive distribution", "prior marginal", "marginal likelihood (prior predictive)" },
es = "Distribución marginal sobre los datos implicada por la previa, p(y) = integral p(y | theta) p(theta) d theta, empleada en verificaciones predictivas previas para evaluar si la previa produce datos sintéticos plausibles.",
zh = "由先验诱导的数据边际分布 p(y) = ∫ p(y | theta) p(theta) d theta,用于先验预测检验,评估先验是否能产生合理的合成数据。",
term_es = "predictiva previa",
term_zh = "先验预测",
aliases_es = { "distribución predictiva previa", "marginal previa" },
aliases_zh = { "先验预测分布", "先验边际" },
}
data["prior predictive check"] = {
short = "A diagnostic that samples from the prior predictive distribution of a Bayesian model to verify that the chosen prior produces plausible data before any observations are conditioned on.",
article = nil,
aliases = { "prior predictive checking", "prior predictive analysis" },
es = "Un diagnóstico que muestrea de la distribución predictiva a priori de un modelo bayesiano para verificar que la prior elegida produce datos plausibles antes de condicionar sobre observaciones.",
zh = "一种贝叶斯模型诊断方法,通过从先验预测分布中采样来验证所选先验在条件化任何观测之前能产生合理数据。",
term_es = "verificación predictiva a priori",
term_zh = "先验预测检验",
aliases_es = { "chequeo predictivo a priori", "análisis predictivo a priori" },
aliases_zh = { "先验预测检查", "先验预测分析" },
}
data["prior predictive matching"] = {
short = "A method for choosing or constructing priors so that the implied prior predictive distribution matches stated domain knowledge or summary statistics about the data-generating process.",
article = nil,
aliases = { "prior predictive elicitation", "PPM" },
es = "Un método para elegir o construir priors de modo que la distribución predictiva a priori implícita coincida con conocimiento del dominio o estadísticas resumen del proceso generador de datos.",
zh = "一种选择或构造先验的方法,使得隐含的先验预测分布与领域知识或数据生成过程的汇总统计量相匹配。",
term_es = "ajuste predictivo a priori",
term_zh = "先验预测匹配",
aliases_es = { "elicitación predictiva a priori" },
aliases_zh = { "先验预测拟合" },
}
data["priorgrad"] = {
short = "A diffusion-based neural vocoder (Lee et al., 2022) that uses a data-dependent Gaussian prior derived from the mel-spectrogram instead of a standard normal prior, accelerating sampling and improving audio quality over WaveGrad/DiffWave.",
article = nil,
aliases = { "PriorGrad", "PriorGrad vocoder" },
es = "Vocoder neuronal basado en difusión (Lee et al., 2022) que utiliza una distribución gaussiana previa dependiente de los datos derivada del mel-espectrograma en lugar de una previa normal estándar, acelerando el muestreo y mejorando la calidad respecto a WaveGrad/DiffWave.",
zh = "Lee 等(2022)提出的基于扩散的神经声码器,使用从梅尔频谱推导出的数据相关高斯先验取代标准正态先验,相比 WaveGrad/DiffWave 加速采样并提升音质。",
term_es = "PriorGrad",
term_zh = "PriorGrad",
aliases_es = { "vocoder PriorGrad" },
aliases_zh = { "PriorGrad声码器" },
}
data["prioritized experience replay"] = {
short = "A modification of experience replay in deep reinforcement learning that samples transitions with probability proportional to their temporal-difference error, focusing learning on more informative experiences with importance-sampling corrections.",
article = nil,
aliases = { "PER", "Prioritized Experience Replay", "prioritised experience replay" },
es = "Modificación de la repetición de experiencias en aprendizaje por refuerzo profundo que muestrea las transiciones con probabilidad proporcional a su error de diferencias temporales, concentrando el aprendizaje en las experiencias más informativas con correcciones de muestreo por importancia.",
zh = "深度强化学习中对经验回放的一种改进,按与时序差分误差成正比的概率采样转移样本,使学习集中于更具信息量的经验,并配合重要性采样修正。",
term_es = "repetición de experiencias priorizada",
term_zh = "优先经验回放",
aliases_es = { "PER", "replay priorizado", "experiencia priorizada" },
aliases_zh = { "PER", "优先级经验回放", "prioritized experience replay" },
}
data["prismer"] = {
short = "A vision-language model that integrates several frozen pretrained experts — providing depth, segmentation, edges, and other modalities — through small learned adapters into a shared multimodal encoder-decoder.",
article = nil,
aliases = { "Prismer", "PRISMER" },
es = "Modelo de visión-lenguaje que integra varios expertos preentrenados y congelados — que aportan profundidad, segmentación, bordes y otras modalidades — mediante pequeños adaptadores aprendidos, dentro de un codificador-decodificador multimodal compartido.",
zh = "一种视觉-语言模型,通过小型可学习适配器,将多个冻结的预训练专家(提供深度、分割、边缘等模态)整合进共享的多模态编码器-解码器中。",
term_es = "Prismer",
term_zh = "Prismer",
aliases_es = { "PRISMER" },
aliases_zh = { "PRISMER" },
}
return data