Module:Glossary/data 6
Documentation for this module may be created at Module:Glossary/data 6/doc
local data = {}
data["simultaneous speech translation"] = {
short = "The task of translating spoken input into another language incrementally and with low latency before the speaker has finished, requiring decision policies that trade off latency against translation quality.",
es = "Tarea de traducir la voz de entrada a otro idioma de forma incremental y con baja latencia, antes de que el hablante haya terminado, lo que requiere políticas de decisión que equilibren latencia y calidad de traducción.",
zh = "将语音输入逐步且低延迟地翻译为另一种语言,在说话人完成之前生成译文的任务,需要权衡延迟与翻译质量的决策策略。",
article = nil,
}
data["simvlm"] = {
short = "A simple visual language model pretrained end-to-end with a single prefix language modeling objective on weakly aligned image-text pairs, removing the need for object detectors or auxiliary losses while matching task-specific architectures.",
es = "Modelo simple de lenguaje visual preentrenado de extremo a extremo con un único objetivo de modelado de lenguaje con prefijo sobre pares imagen-texto débilmente alineados, eliminando la necesidad de detectores de objetos o pérdidas auxiliares y alcanzando el rendimiento de arquitecturas específicas.",
zh = "一种简单的视觉语言模型,在弱对齐的图文对上以单一的前缀语言建模目标进行端到端预训练,无需目标检测器或辅助损失,性能可与特定任务的专用架构相当。",
article = nil,
}
data["singing transcription"] = {
short = "The task of converting singing voice audio into a symbolic representation, typically a sequence of pitched notes and timings (and optionally lyrics) corresponding to the sung melody.",
es = "Tarea de convertir audio de voz cantada en una representación simbólica, normalmente una secuencia de notas con altura y tiempos (y opcionalmente letras) que corresponde a la melodía cantada.",
zh = "将演唱人声音频转换为符号表示的任务,通常输出与所唱旋律对应的带音高的音符及其时间序列(可选地包括歌词)。",
article = nil,
}
data["singing voice cloning"] = {
short = "The task of synthesizing singing in the voice of a target singer using only a small amount of reference audio, typically by conditioning a singing voice synthesis or conversion model on a speaker embedding.",
es = "Tarea de sintetizar canto con la voz de un cantante objetivo a partir únicamente de una pequeña cantidad de audio de referencia, normalmente condicionando un modelo de síntesis o conversión de voz cantada con un embedding de hablante.",
zh = "仅使用少量参考音频,合成出目标歌手嗓音的歌唱内容,通常通过将说话人嵌入作为歌声合成或转换模型的条件来实现。",
article = nil,
}
data["singing voice conversion"] = {
short = "The task of transforming a singing audio signal so that it appears to be sung by a different target singer while preserving the original melody, lyrics, and expressive performance.",
es = "Tarea de transformar una señal de canto para que parezca interpretada por un cantante objetivo distinto, conservando la melodía, la letra y la expresividad del original.",
zh = "歌声转换任务:在保留原有旋律、歌词和演唱表现力的前提下,将一段演唱信号转换为听起来像另一位目标歌手所演唱。",
article = nil,
}
data["singing voice synthesis"] = {
short = "The task of generating singing voice audio from a symbolic input such as a musical score with lyrics, producing pitch, timing, and timbre that follow the prescribed notes and words.",
es = "Tarea de generar audio de voz cantada a partir de una entrada simbólica como una partitura con letra, produciendo altura, ritmo y timbre que siguen las notas y palabras especificadas.",
zh = "歌声合成任务:根据带歌词的乐谱等符号输入生成演唱音频,使其音高、时值和音色遵循指定的音符与歌词。",
article = nil,
}
data["single path one-shot"] = {
short = "A weight-sharing NAS method by Guo et al. (2020) in which a supernet is trained by uniformly sampling a single path (one operation per choice block) at each step, decoupling supernet training from architecture search via evolutionary post-search.",
es = "Método de NAS con pesos compartidos de Guo et al. (2020) en el que se entrena una super-red muestreando uniformemente una única ruta (una operación por bloque de elección) en cada paso, desacoplando el entrenamiento de la super-red de la búsqueda arquitectónica mediante una búsqueda evolutiva posterior.",
zh = "Guo 等(2020)提出的权重共享 NAS 方法,通过在每步均匀采样单一路径(每个选择块一种操作)来训练超网,并通过随后的进化搜索将超网训练与架构搜索解耦。",
article = nil,
}
data["single world intervention graph"] = {
short = "A graphical object, due to Richardson and Robins, that unifies structural causal models with potential outcomes by node-splitting intervened variables, used to read off conditional independencies among counterfactuals.",
es = "Objeto gráfico, propuesto por Richardson y Robins, que unifica los modelos causales estructurales con los resultados potenciales mediante la división de nodos intervenidos, y permite leer independencias condicionales entre contrafactuales.",
zh = "由 Richardson 和 Robins 提出的图形工具,通过对受干预变量进行节点分裂,将结构因果模型与潜在结果框架统一起来,用于读取反事实之间的条件独立性。",
article = nil,
}
data["single-cell atac-seq"] = {
short = "An assay that profiles chromatin accessibility at single-cell resolution by applying the Tn5 transposase to individual nuclei and sequencing the resulting open-chromatin fragments, revealing cell-type-specific regulatory landscapes.",
es = "Ensayo que perfila la accesibilidad de la cromatina con resolución de célula única aplicando la transposasa Tn5 a núcleos individuales y secuenciando los fragmentos de cromatina abierta resultantes, revelando paisajes regulatorios específicos de cada tipo celular.",
zh = "在单细胞分辨率下分析染色质可及性的实验方法,将 Tn5 转座酶作用于单个细胞核并对开放染色质片段进行测序,揭示细胞类型特异的调控景观。",
article = nil,
}
data["single-cell multiome"] = {
short = "Joint profiling of multiple molecular modalities (typically RNA expression and chromatin accessibility, e.g. 10x Multiome) from the same individual cell, enabling integrated analysis of transcription and gene regulation.",
es = "Perfilado conjunto de múltiples modalidades moleculares (típicamente expresión de ARN y accesibilidad de la cromatina, p. ej. 10x Multiome) en la misma célula individual, permitiendo el análisis integrado de la transcripción y la regulación génica.",
zh = "在同一个单细胞中联合检测多种分子模态(通常为 RNA 表达和染色质可及性,例如 10x Multiome),从而对转录与基因调控进行整合分析。",
article = nil,
}
data["single-nucleus atac-seq"] = {
short = "A variant of scATAC-seq performed on isolated nuclei rather than whole cells, suitable for frozen tissues, archived samples, and cell types difficult to dissociate intact, while preserving chromatin-accessibility readouts.",
es = "Variante de scATAC-seq realizada sobre núcleos aislados en lugar de células enteras, adecuada para tejidos congelados, muestras archivadas y tipos celulares difíciles de disociar intactos, conservando la lectura de accesibilidad de la cromatina.",
zh = "scATAC-seq 的一种变体,针对分离的细胞核而非完整细胞进行实验,适用于冻存组织、存档样本以及难以完整解离的细胞类型,同时保留染色质可及性信号。",
article = nil,
}
data["single-stream transformer"] = {
short = "A vision-language transformer architecture that concatenates visual and textual tokens into one sequence and processes them jointly with shared self-attention layers, in contrast to two-stream models that encode each modality separately before fusion.",
es = "Arquitectura de transformador visión-lenguaje que concatena tokens visuales y textuales en una sola secuencia y los procesa conjuntamente con capas de autoatención compartidas, en contraste con los modelos de dos flujos que codifican cada modalidad por separado antes de fusionarlas.",
zh = "一种视觉-语言 Transformer 架构,将视觉与文本 token 拼接为单一序列,使用共享的自注意力层联合处理;与先分别编码再融合的双流模型不同。",
article = nil,
}
data["singular spectrum analysis"] = {
short = "A nonparametric time series technique that embeds a series into a trajectory matrix, performs singular value decomposition, and reconstructs interpretable components such as trend, oscillations, and noise.",
es = "Técnica no paramétrica para series temporales que incrusta una serie en una matriz de trayectoria, aplica descomposición en valores singulares y reconstruye componentes interpretables como tendencia, oscilaciones y ruido.",
zh = "一种非参数时间序列方法:将序列嵌入轨迹矩阵后进行奇异值分解,再重构出趋势、振荡和噪声等可解释的成分。",
article = nil,
}
data["singular value decomposition"] = {
short = "The factorization of any m×n matrix A as A = UΣVᵀ, where U and V are orthogonal (or unitary) and Σ is a diagonal matrix of nonnegative singular values. Generalizes eigendecomposition to non-square matrices and underlies PCA, low-rank approximation, and the pseudoinverse.",
es = "Factorización de cualquier matriz A de tamaño m×n como A = UΣVᵀ, donde U y V son ortogonales (o unitarias) y Σ es una matriz diagonal de valores singulares no negativos. Generaliza la descomposición espectral a matrices no cuadradas y subyace al PCA, las aproximaciones de bajo rango y la pseudoinversa.",
zh = "任意 m×n 矩阵 A 的分解 A = UΣVᵀ,其中 U 与 V 为正交(或酉)矩阵,Σ 是由非负奇异值组成的对角矩阵。将特征分解推广到非方阵,是 PCA、低秩近似和伪逆的基础。",
article = nil,
}
data["sinkhorn imitation"] = {
short = "An imitation learning approach that minimizes the entropic-regularized optimal transport (Sinkhorn) distance between the state-action occupancy distributions of the learner and the expert, enabling stable distribution matching without adversarial training.",
es = "Enfoque de aprendizaje por imitación que minimiza la distancia de transporte óptimo regularizado por entropía (Sinkhorn) entre las distribuciones de ocupación estado-acción del aprendiz y del experto, permitiendo una alineación estable de distribuciones sin entrenamiento adversarial.",
zh = "一种模仿学习方法,最小化学习者与专家状态-动作占据分布之间的熵正则化最优传输(Sinkhorn)距离,从而在无需对抗训练的情况下实现稳定的分布匹配。",
article = nil,
}
data["sinusoidal activation"] = {
short = "Activation function f(x) = sin(ωx) used in implicit neural representations such as SIREN. Captures high-frequency signals that standard activations smooth out.",
es = "Función de activación f(x) = sin(ωx) utilizada en representaciones neuronales implícitas como SIREN. Captura señales de alta frecuencia que las activaciones estándar suavizan.",
zh = "形如 f(x) = sin(ωx) 的激活函数,用于 SIREN 等隐式神经表示。能够捕捉标准激活会平滑掉的高频信号。",
article = nil,
}
data["sinusoidal positional encoding"] = {
short = "The fixed positional encoding from the original Transformer that uses sine and cosine functions of varying frequencies to represent each position as a deterministic vector.",
es = "Codificación posicional fija introducida en el Transformer original que utiliza funciones seno y coseno de frecuencias variables para representar cada posición como un vector determinístico.",
zh = "原始 Transformer 中使用的固定位置编码,使用不同频率的正弦和余弦函数将每个位置表示为一个确定性向量。",
article = nil,
}
data["sinusoidal time embedding"] = {
short = "A representation of timestamps or positions using fixed-frequency sine and cosine functions of multiple wavelengths, providing a smooth, periodic encoding consumable by neural networks.",
es = "Representación de marcas temporales o posiciones mediante funciones seno y coseno de frecuencias fijas y múltiples longitudes de onda, ofreciendo una codificación suave y periódica utilizable por redes neuronales.",
zh = "一种用多种波长的固定频率正弦和余弦函数表示时间戳或位置的方法,为神经网络提供平滑且周期性的编码。",
article = nil,
}
data["skeleton of thought"] = {
short = "A prompting strategy in which the model first produces a brief outline (skeleton) of an answer and then expands each bullet in parallel, reducing latency and structuring long-form generation.",
es = "Estrategia de prompting en la que el modelo primero produce un breve esquema (esqueleto) de la respuesta y luego expande cada punto en paralelo, reduciendo la latencia y estructurando la generación de respuestas largas.",
zh = "一种提示策略,模型首先生成答案的简要大纲(骨架),然后并行扩展每个要点,从而降低延迟并为长篇生成提供结构。",
article = nil,
}
data["skewness"] = {
short = "A scalar measure of the asymmetry of a probability distribution about its mean; positive skewness indicates a longer right tail and negative skewness a longer left tail.",
es = "Medida escalar de la asimetría de una distribución de probabilidad respecto a su media; la asimetría positiva indica una cola derecha más larga y la negativa una cola izquierda más larga.",
zh = "概率分布关于其均值的不对称程度的标量度量;正偏度表示右尾较长,负偏度表示左尾较长。",
article = nil,
}
data["skill chaining"] = {
short = "A learning-from-demonstrations or RL technique that composes previously acquired skills into long-horizon behaviors by training each skill to terminate in the initiation set of the next, ensuring smooth handoff.",
es = "Técnica de aprendizaje por demostración o por refuerzo que compone habilidades previamente adquiridas en comportamientos de horizonte largo, entrenando a cada habilidad para terminar en el conjunto de iniciación de la siguiente y asegurar un traspaso suave.",
zh = "一种基于示教或强化学习的技术,通过训练每个已习得技能在下一个技能的可启动集合内终止来将多个技能串联成长时序行为,以保证平滑衔接。",
article = nil,
}
data["skill discovery"] = {
short = "Unsupervised learning of a set of reusable behavioral primitives—often by maximizing diversity, mutual information between skill latents and trajectories, or empowerment—without external task rewards.",
es = "Aprendizaje no supervisado de un conjunto de primitivas conductuales reutilizables, a menudo maximizando la diversidad, la información mutua entre variables latentes de habilidad y trayectorias, o el empowerment, sin recompensas externas de tarea.",
zh = "在无外部任务奖励的情况下,通过最大化多样性、技能潜变量与轨迹之间的互信息或empowerment等目标,无监督地学习一组可复用行为基元。",
article = nil,
}
data["skill prior"] = {
short = "A learned prior distribution over a latent skill space, typically extracted from offline data, that biases exploration or hierarchical planning toward semantically meaningful, task-relevant behaviors.",
es = "Distribución a priori aprendida sobre un espacio latente de habilidades, normalmente extraída de datos offline, que sesga la exploración o la planificación jerárquica hacia comportamientos semánticamente significativos y relevantes para la tarea.",
zh = "在潜在技能空间上学习得到的先验分布,通常从离线数据中提取,用于将探索或分层规划偏向于语义有意义且与任务相关的行为。",
article = nil,
}
data["skin tone bias"] = {
short = "Performance disparity of computer vision systems across skin tones, particularly higher error rates for darker-skinned subjects in face detection, recognition, and analysis. Documented prominently in audits like Gender Shades.",
es = "Disparidad en el rendimiento de sistemas de visión por computador entre tonos de piel, en particular tasas de error más altas para personas de piel más oscura en detección, reconocimiento y análisis facial. Documentada de forma prominente en auditorías como Gender Shades.",
zh = "计算机视觉系统在不同肤色之间的性能差异,尤其是在人脸检测、识别和分析中,深肤色对象的错误率显著更高。Gender Shades 等审计研究对此有重要记录。",
article = nil,
}
data["skip connect operation"] = {
short = "A candidate operation in cell-based NAS search spaces (NASNet, DARTS) that passes the input forward unchanged, equivalent to an identity mapping; over-selection of skip-connects is a known DARTS failure mode.",
es = "Operación candidata en espacios de búsqueda de NAS basados en celdas (NASNet, DARTS) que propaga la entrada sin cambios, equivalente a un mapeo identidad; su sobre-selección es un modo de fallo conocido de DARTS.",
zh = "基于单元的 NAS 搜索空间(NASNet、DARTS)中的候选操作,将输入原样传递,等价于恒等映射;其过度选择是 DARTS 已知的失败模式之一。",
article = nil,
}
data["skip connection"] = {
short = "A connection that bypasses one or more layers, feeding earlier activations directly into a later layer; used in residual, U-Net, and densely connected architectures.",
es = "Conexión que omite una o más capas y alimenta activaciones anteriores directamente a una capa posterior; se usa en arquitecturas residuales, U-Net y densamente conectadas.",
zh = "一种跨越一层或多层的连接,将较早的激活直接送入较晚的层;常见于残差、U-Net 与稠密连接架构。",
article = nil,
}
data["skip-chain crf"] = {
short = "A conditional random field whose graph adds long-range edges between non-adjacent positions that share features (e.g., identical tokens), allowing label consistency across distant occurrences in sequence labelling tasks.",
es = "Campo aleatorio condicional cuyo grafo añade aristas de largo alcance entre posiciones no adyacentes que comparten características (por ejemplo, tokens idénticos), permitiendo coherencia de etiquetas entre apariciones distantes en tareas de etiquetado de secuencias.",
zh = "一种条件随机场,其图结构在共享特征的非相邻位置(如相同词元)之间添加长程边,使序列标注任务中远距离出现的位置能保持标签一致性。",
article = nil,
}
data["skip-gram"] = {
short = "A word2vec architecture that predicts the surrounding context words given the current word. Slower to train than CBOW but produces better representations for rare words.",
es = "Arquitectura de word2vec que predice las palabras de contexto circundantes a partir de la palabra actual. Entrena más lento que CBOW pero produce mejores representaciones para palabras raras.",
zh = "word2vec 的一种架构,根据当前词预测其周围的上下文词。训练比 CBOW 慢,但能为罕见词产生更好的表示。",
article = nil,
}
data["skip-thought vectors"] = {
short = "Sentence embeddings learned by training an encoder-decoder model to predict the previous and next sentences from a given sentence, generalizing the skip-gram objective from words to sentences.",
es = "Embeddings de oraciones aprendidos al entrenar un modelo codificador-decodificador para predecir la oración anterior y la siguiente a partir de una oración dada, generalizando el objetivo skip-gram de palabras a oraciones.",
zh = "通过训练编码器-解码器模型,从给定句子预测前一句和后一句而学习得到的句子嵌入,将词级 skip-gram 目标推广到句子级。",
article = nil,
}
data["skolemization"] = {
short = "A logical transformation that eliminates existential quantifiers by replacing each existentially quantified variable with a Skolem function over the surrounding universally quantified variables.",
es = "Transformación lógica que elimina los cuantificadores existenciales reemplazando cada variable cuantificada existencialmente por una función de Skolem sobre las variables universales circundantes.",
zh = "一种通过用关于周围全称变量的 Skolem 函数替换每个存在量化变量来消除存在量词的逻辑变换。",
article = nil,
}
data["skope-rules"] = {
short = "A Python library that learns interpretable rule lists from tree ensembles by extracting, deduplicating, and scoring decision paths, producing concise IF-THEN rules suitable for model explanation.",
es = "Biblioteca de Python que aprende listas de reglas interpretables a partir de ensambles de árboles extrayendo, deduplicando y puntuando las rutas de decisión, produciendo reglas concisas de tipo SI-ENTONCES adecuadas para la explicación de modelos.",
zh = "一个 Python 库,通过提取、去重并评分决策路径,从树集成模型中学习可解释的规则列表,生成简洁的 IF-THEN 规则用于模型解释。",
article = nil,
}
data["slakh dataset"] = {
short = "Synthesized Lakh: a large dataset of multi-track audio rendered from MIDI files in the Lakh MIDI Dataset using professional sample-based virtual instruments, widely used for music source separation research.",
es = "Synthesized Lakh: gran conjunto de datos de audio multipista renderizado a partir de archivos MIDI del Lakh MIDI Dataset con instrumentos virtuales profesionales basados en samples, ampliamente utilizado para investigación en separación de fuentes musicales.",
zh = "Synthesized Lakh:基于 Lakh MIDI 数据集,使用专业采样虚拟乐器渲染得到的大规模多轨音频数据集,广泛用于音乐源分离研究。",
article = nil,
}
data["slam-aware policy"] = {
short = "A robot policy that explicitly consumes or cooperates with the state estimated by a simultaneous-localization-and-mapping module, conditioning actions on the current map and pose estimate.",
es = "Política robótica que consume explícitamente el estado estimado por un módulo de SLAM (localización y mapeo simultáneos) o coopera con él, condicionando sus acciones al mapa y a la pose actuales.",
zh = "一种机器人策略,显式利用或与同时定位与建图(SLAM)模块所估计的状态协作,以当前地图与位姿为条件生成动作。",
article = nil,
}
data["slate q-learning"] = {
short = "A Q-learning variant for slate recommendation problems where the action is a list (slate) of items; it factorizes the slate Q-value via per-item scoring and a user choice model to make learning tractable over combinatorial action spaces.",
es = "Variante de Q-learning para problemas de recomendación de slates en los que la acción es una lista de elementos; factoriza el valor Q del slate mediante puntuación por elemento y un modelo de elección del usuario para hacer tratable el aprendizaje sobre espacios de acciones combinatorios.",
zh = "面向 slate 推荐问题的 Q-learning 变体,其中动作是一组项目(slate);它通过单项评分与用户选择模型对 slate Q 值进行分解,使在组合动作空间上的学习变得可解。",
article = nil,
}
data["slate recommendation"] = {
short = "The task of recommending an ordered set (slate) of K items to be shown together on a single page or response, where item utilities depend on the composition of the whole slate rather than each item independently.",
es = "Tarea de recomendar un conjunto ordenado (slate) de K ítems para ser mostrados juntos en una misma página o respuesta, donde la utilidad de cada ítem depende de la composición global del slate y no de cada ítem por separado.",
zh = "推荐一组(slate)K 个物品,一次性在同一页面或响应中展示,且每个物品的效用取决于整体 slate 的组合而非单个物品独立的得分。",
article = nil,
}
data["slate rl"] = {
short = "Reinforcement learning for slate recommendation, where the agent chooses a ranked list of items at each step and learns long-term user value subject to the combinatorial structure of the action space.",
es = "Aprendizaje por refuerzo para recomendación por slates, donde el agente elige una lista ordenada de elementos en cada paso y aprende valor de usuario a largo plazo sujeto a la estructura combinatoria del espacio de acciones.",
zh = "面向 slate 推荐的强化学习,智能体在每一步选择一个有序的项目列表,并在动作空间的组合结构约束下学习长期用户价值。",
article = nil,
}
data["slatenet"] = {
short = "Slate-Net: a slate-aware neural recommender that scores each candidate item conditioned on the rest of the proposed slate, capturing intra-slate diversity and complementarity rather than scoring items independently.",
es = "Slate-Net: recomendador neuronal consciente del slate que puntúa cada ítem candidato condicionado al resto del slate propuesto, capturando la diversidad y complementariedad dentro del slate en lugar de puntuar los ítems de manera independiente.",
zh = "Slate-Net:一种 slate 感知的神经推荐模型,将每个候选物品的得分条件化于整个候选 slate 的其余部分,从而捕获 slate 内部的多样性与互补性,而不是孤立地对物品评分。",
article = nil,
}
data["slater condition"] = {
short = "A constraint qualification for convex optimization requiring the existence of a strictly feasible point, sufficient to guarantee strong duality.",
es = "Cualificación de restricciones para optimización convexa que exige la existencia de un punto estrictamente factible, suficiente para garantizar la dualidad fuerte.",
zh = "凸优化中的一种约束条件,要求存在严格可行点,足以保证强对偶性成立。",
article = nil,
}
data["slbo"] = {
short = "Stochastic Lower Bound Optimization, a model-based reinforcement learning algorithm that alternates fitting a learned dynamics model and optimizing a policy against a monotonically improving lower bound on the true return.",
es = "Stochastic Lower Bound Optimization, un algoritmo de aprendizaje por refuerzo basado en modelo que alterna el ajuste de un modelo de dinámica aprendido con la optimización de una política frente a una cota inferior monótonamente creciente del retorno real.",
zh = "Stochastic Lower Bound Optimization(随机下界优化),一种基于模型的强化学习算法,交替地拟合已学习的动力学模型,并相对于真实回报的单调改进下界来优化策略。",
article = nil,
}
data["sleeper agent"] = {
short = "A language model deliberately backdoored during training so that it behaves normally in most contexts but exhibits unsafe behavior when a specific trigger appears, used in alignment research to study persistent deceptive behavior.",
es = "Modelo de lenguaje al que durante el entrenamiento se le introduce deliberadamente una puerta trasera, de modo que se comporta normalmente en la mayoría de contextos pero presenta conductas inseguras cuando aparece un disparador específico; se utiliza en investigación de alineación para estudiar comportamientos engañosos persistentes.",
zh = "在训练阶段被有意植入后门的语言模型,在大多数情境下表现正常,但出现特定触发条件时会表现出不安全行为,用于对齐研究中分析持久的欺骗性行为。",
article = nil,
}
data["slice sampling"] = {
short = "An auxiliary-variable MCMC algorithm that samples from a target density by alternately drawing a uniform height under the density and a horizontal slice at that height, avoiding tunable proposal distributions.",
es = "Algoritmo MCMC con variables auxiliares que muestrea de una densidad objetivo alternando una altura uniforme bajo la densidad y una rebanada horizontal a esa altura, evitando distribuciones de propuesta ajustables.",
zh = "一种辅助变量 MCMC 算法,通过交替在密度下方均匀采样高度并在该高度抽取水平切片,从目标密度中采样,无需可调的建议分布。",
article = nil,
}
data["slide-seq"] = {
short = "A spatial transcriptomics technology that uses arrays of DNA-barcoded beads (~10 µm) deposited on a rubber-coated puck to capture mRNA from tissue sections, enabling near-cellular-resolution spatial gene-expression mapping.",
es = "Tecnología de transcriptómica espacial que utiliza matrices de microesferas con códigos de barras de ADN (~10 µm) depositadas sobre un disco recubierto de caucho para capturar ARNm de secciones de tejido, permitiendo mapas de expresión génica espacial con resolución casi celular.",
zh = "一种空间转录组学技术,将带有 DNA 条形码的微珠(约 10 µm)排列在橡胶涂层的载片上以捕获组织切片中的 mRNA,可生成近单细胞分辨率的空间基因表达图谱。",
article = nil,
}
data["sliding window attention"] = {
short = "A local attention scheme in which each token attends to a fixed-size window of preceding (and optionally following) tokens, enabling efficient processing of long sequences.",
es = "Esquema de atención local en el que cada token atiende a una ventana de tamaño fijo de tokens anteriores (y opcionalmente posteriores), permitiendo procesar secuencias largas de manera eficiente.",
zh = "一种局部注意力方案,每个 token 关注固定大小的前序(以及可选的后续)token 窗口,从而高效处理长序列。",
article = nil,
}
data["slim"] = {
short = "SLIM (Sparse LInear Methods, Ning & Karypis, ICDM 2011): a top-N collaborative filtering method that learns a sparse non-negative item-item coefficient matrix W by minimizing reconstruction loss with L1+L2 regularization, then ranks items by R·W.",
es = "SLIM (Sparse LInear Methods, Ning & Karypis, ICDM 2011): método de filtrado colaborativo top-N que aprende una matriz dispersa y no negativa de coeficientes ítem–ítem W minimizando la pérdida de reconstrucción con regularización L1+L2 y luego ranquea los ítems mediante R·W.",
zh = "SLIM(Sparse LInear Methods,Ning 与 Karypis,ICDM 2011):一种 top-N 协同过滤方法,通过在 L1+L2 正则下最小化重构损失,学习一个稀疏非负的物品–物品系数矩阵 W,然后用 R·W 对物品排序。",
article = nil,
}
data["slimpajama"] = {
short = "A 627B-token open dataset for language model pretraining released by Cerebras, produced by aggressively cleaning and globally deduplicating the RedPajama corpus.",
es = "Conjunto de datos abierto de 627 mil millones de tokens para el preentrenamiento de modelos de lenguaje publicado por Cerebras, obtenido al limpiar y deduplicar globalmente de forma agresiva el corpus RedPajama.",
zh = "Cerebras发布的6270亿token开源语言模型预训练数据集,通过对RedPajama语料库进行积极清洗和全局去重而构建。",
article = nil,
}
data["slingshot"] = {
short = "An R/Bioconductor method for inferring cell lineages and pseudotime trajectories in single-cell RNA-seq data by fitting smooth principal curves through clusters in a reduced-dimensional space.",
es = "Método de R/Bioconductor para inferir linajes celulares y trayectorias de pseudotiempo en datos de RNA-seq de célula única ajustando curvas principales suaves a través de agrupamientos en un espacio de dimensionalidad reducida.",
zh = "R/Bioconductor 方法,通过在降维空间中对聚类拟合平滑主曲线,从单细胞 RNA-seq 数据中推断细胞谱系和拟时序轨迹。",
article = nil,
}
data["slope one"] = {
short = "Slope One (Lemire & Maclachlan, SDM 2005): a simple item-based collaborative filtering predictor that estimates the rating for an item by adding the average rating difference between that item and items the user has already rated; popular for its speed and minimal tuning.",
es = "Slope One (Lemire y Maclachlan, SDM 2005): predictor de filtrado colaborativo basado en ítems que estima la calificación de un ítem sumando la diferencia media de calificaciones entre ese ítem y los ya valorados por el usuario; es popular por su rapidez y mínima parametrización.",
zh = "Slope One(Lemire 与 Maclachlan,SDM 2005):一种简单的基于物品的协同过滤预测算法,将某物品的预测评分等于用户已评分物品与该物品的平均评分差之和,因其速度快、几乎无需调参而广泛使用。",
article = nil,
}
data["slot attention rl"] = {
short = "Reinforcement learning that uses slot-attention object-centric representations, where a fixed set of latent slots competitively bind to scene entities, supporting compositional generalization in visual control tasks.",
es = "Aprendizaje por refuerzo que utiliza representaciones centradas en objetos basadas en slot attention, donde un conjunto fijo de slots latentes se vincula competitivamente a entidades de la escena, favoreciendo la generalización composicional en tareas de control visual.",
zh = "采用 slot attention 物体中心表示的强化学习,固定数量的潜在 slot 通过竞争方式绑定场景中的实体,从而在视觉控制任务中支持组合式泛化。",
article = nil,
}
data["smac"] = {
short = "The StarCraft Multi-Agent Challenge, a benchmark suite of cooperative micromanagement scenarios in StarCraft II in which decentralized agents control individual units, widely used for evaluating multi-agent reinforcement learning algorithms.",
es = "El StarCraft Multi-Agent Challenge, un conjunto de pruebas de microgestión cooperativa en StarCraft II en el que agentes descentralizados controlan unidades individuales; se utiliza ampliamente para evaluar algoritmos de aprendizaje por refuerzo multiagente.",
zh = "StarCraft Multi-Agent Challenge(星际争霸多智能体挑战)的简称,是基于《星际争霸 II》的合作式微操基准套件,由分散的智能体分别控制各单位,被广泛用于评估多智能体强化学习算法。",
article = nil,
}
data["small molecule binder"] = {
short = "A low-molecular-weight organic compound (typically below 900 Da) that binds non-covalently to a biological target such as a protein with sufficient affinity to modulate its function, forming the basis of most marketed drugs.",
es = "Compuesto orgánico de bajo peso molecular (normalmente por debajo de 900 Da) que se une de forma no covalente a un objetivo biológico, como una proteína, con suficiente afinidad para modular su función; constituye la base de la mayoría de los fármacos comercializados.",
zh = "一种低分子量(通常小于 900 Da)的有机化合物,能够以非共价方式与蛋白质等生物靶点结合并具有足够亲和力以调节其功能,是大多数上市药物的基础。",
article = nil,
}
data["small-world network"] = {
short = "A network in which most pairs of nodes are connected by a short path through a few intermediaries while local clustering remains high, exhibiting both short average path lengths and dense local structure.",
es = "Red en la que la mayoría de los pares de nodos están conectados por un camino corto a través de unos pocos intermediarios mientras se mantiene un alto agrupamiento local, exhibiendo tanto longitudes de camino medias cortas como estructura local densa.",
zh = "大多数节点对之间通过少量中间节点以短路径相连,同时局部聚集度较高的网络,兼具较短的平均路径长度和稠密的局部结构。",
article = nil,
}
data["smape"] = {
short = "Symmetric Mean Absolute Percentage Error: a forecast accuracy metric defined as the mean of 2|y - ŷ| / (|y| + |ŷ|), bounded between 0% and 200% and intended to be symmetric in over- and under-prediction.",
es = "Error porcentual absoluto medio simétrico: métrica de exactitud de pronósticos definida como la media de 2|y - ŷ| / (|y| + |ŷ|), acotada entre 0 % y 200 % y diseñada para ser simétrica frente a sobrepredicciones y subpredicciones.",
zh = "对称平均绝对百分比误差:定义为 2|y - ŷ| / (|y| + |ŷ|) 的平均值的预测精度指标,取值在 0% 到 200% 之间,旨在对高估和低估保持对称。",
article = nil,
}
data["smart-seq2"] = {
short = "A full-length single-cell RNA-seq protocol that uses template-switching reverse transcription and PCR amplification of polyadenylated mRNA, providing high gene-detection sensitivity and even coverage across transcripts.",
es = "Protocolo de RNA-seq de célula única de longitud completa que utiliza retrotranscripción con cambio de plantilla y amplificación por PCR de ARNm poliadenilado, ofreciendo alta sensibilidad de detección de genes y cobertura uniforme a lo largo de los transcritos.",
zh = "一种全长单细胞 RNA-seq 方案,利用模板转换逆转录和 PCR 扩增多聚腺苷酸化 mRNA,具有较高的基因检测灵敏度并在转录本上提供均匀覆盖。",
article = nil,
}
data["smbo"] = {
short = "Acronym for Sequential Model-Based Optimization: the iterative loop of fitting a probabilistic surrogate to past evaluations and selecting the next point by maximizing an acquisition function; underlies SMAC, TPE, and Gaussian-process Bayesian optimization.",
es = "Acrónimo de Sequential Model-Based Optimization: bucle iterativo en el que se ajusta un sustituto probabilístico a evaluaciones pasadas y se elige el siguiente punto maximizando una función de adquisición; subyace a SMAC, TPE y la optimización bayesiana con procesos gaussianos.",
zh = "Sequential Model-Based Optimization 的缩写:对历史评估拟合概率代理模型并通过最大化采集函数选择下一个点的迭代过程;构成 SMAC、TPE 和基于高斯过程的贝叶斯优化的基础。",
article = nil,
}
data["smile imitation"] = {
short = "SMILe (Stochastic Mixing Iterative Learning), an early imitation-learning algorithm by Ross and Bagnell that iteratively trains a policy on a mixture of expert and learner state distributions, reducing compounding error compared to pure behavior cloning.",
es = "SMILe (Stochastic Mixing Iterative Learning), un algoritmo temprano de aprendizaje por imitación de Ross y Bagnell que entrena iterativamente una política sobre una mezcla de distribuciones de estado del experto y del aprendiz, reduciendo el error acumulativo respecto a la simple clonación de comportamiento.",
zh = "SMILe(Stochastic Mixing Iterative Learning),由 Ross 与 Bagnell 提出的早期模仿学习算法,在专家与学习者状态分布的混合上迭代训练策略,相比纯行为克隆能减少误差累积。",
article = nil,
}
data["smiles"] = {
short = "Simplified Molecular-Input Line-Entry System: a linear ASCII string notation for describing the structure of chemical molecules, where atoms and bonds are encoded as a sequence of characters derived from a graph traversal.",
es = "Simplified Molecular-Input Line-Entry System: notación lineal de cadena ASCII para describir la estructura de moléculas químicas, en la que átomos y enlaces se codifican como una secuencia de caracteres derivada de un recorrido del grafo molecular.",
zh = "简化分子线性输入规范(SMILES):一种用 ASCII 字符串线性描述化学分子结构的表示法,原子和键通过对分子图的遍历被编码为字符序列。",
article = nil,
}
data["smiles enumeration"] = {
short = "A data-augmentation technique in molecular machine learning that generates multiple non-canonical SMILES strings for the same molecule by varying the atom-traversal order, exposing models to many string forms of identical structures.",
es = "Técnica de aumento de datos en aprendizaje automático molecular que genera múltiples cadenas SMILES no canónicas para la misma molécula variando el orden de recorrido de los átomos, exponiendo al modelo a muchas formas textuales de estructuras idénticas.",
zh = "分子机器学习中的一种数据增强技术,通过改变原子遍历顺序为同一分子生成多个非规范 SMILES 字符串,使模型接触同一结构的多种字符串形式。",
article = nil,
}
data["smiles transformer"] = {
short = "A transformer neural network trained on SMILES strings to learn distributed molecular representations, used for downstream tasks such as property prediction, virtual screening, and de novo molecular generation.",
es = "Red neuronal transformer entrenada con cadenas SMILES para aprender representaciones moleculares distribuidas, utilizada para tareas posteriores como predicción de propiedades, cribado virtual y generación molecular de novo.",
zh = "在 SMILES 字符串上训练的 Transformer 神经网络,用于学习分子的分布式表示,并支持下游任务如性质预测、虚拟筛选和从头分子生成。",
article = nil,
}
data["smiles vae"] = {
short = "A variational autoencoder that encodes SMILES strings into a continuous latent space and decodes back to SMILES, enabling gradient-based optimization of molecular properties; introduced by Gómez-Bombarelli et al. (2018).",
es = "Autocodificador variacional que codifica cadenas SMILES en un espacio latente continuo y las decodifica de vuelta a SMILES, permitiendo la optimización de propiedades moleculares basada en gradientes; introducido por Gómez-Bombarelli et al. (2018).",
zh = "一种将 SMILES 字符串编码到连续潜空间并解码回 SMILES 的变分自编码器,可用于基于梯度优化分子性质;由 Gómez-Bombarelli 等人于 2018 年提出。",
article = nil,
}
data["smith-waterman"] = {
short = "A dynamic programming algorithm for optimal local alignment of two biological sequences, computed by filling a scoring matrix with match/mismatch and gap penalties and tracing back from the highest-scoring cell.",
es = "Algoritmo de programación dinámica para el alineamiento local óptimo de dos secuencias biológicas, calculado llenando una matriz de puntuación con penalizaciones de coincidencia/desajuste y huecos, y trazando hacia atrás desde la celda de mayor puntaje.",
zh = "用于两条生物序列最优局部比对的动态规划算法,通过填充包含匹配/错配和空位罚分的评分矩阵,并从最高得分单元格回溯获得比对结果。",
article = nil,
}
data["smooth darts"] = {
short = "A regularization for differentiable architecture search by Chen and Hsieh (2020) that perturbs the architecture parameters during supernet training (random or adversarial smoothing) to flatten the validation loss landscape and prevent skip-connect collapse.",
es = "Regularización para búsqueda de arquitectura diferenciable de Chen y Hsieh (2020) que perturba los parámetros de arquitectura durante el entrenamiento de la super-red (suavizado aleatorio o adversario) para aplanar el paisaje de pérdida de validación y evitar el colapso por skip-connect.",
zh = "Chen 和 Hsieh(2020)提出的可微分架构搜索正则化方法,在超网训练中对架构参数进行扰动(随机或对抗性平滑),以平滑验证损失景观并防止 skip-connect 坍缩。",
article = nil,
}
data["smooth l1 loss"] = {
short = "Variant of L1 loss that is quadratic near zero and linear elsewhere, providing smooth gradients at the origin. Equivalent to Huber loss with delta = 1.",
es = "Variante de la pérdida L1 que es cuadrática cerca de cero y lineal en el resto, lo que proporciona gradientes suaves en el origen. Equivale a la pérdida de Huber con delta = 1.",
zh = "L1 损失的变体,在零附近为二次、其他区域为线性,可在原点提供平滑梯度。等价于 delta = 1 的 Huber 损失。",
article = nil,
}
data["smooth manifold"] = {
short = "A topological manifold equipped with a maximal atlas of charts whose transition maps are infinitely differentiable, providing a setting for differential calculus on curved spaces.",
es = "Variedad topológica dotada de un atlas maximal de cartas cuyas funciones de transición son infinitamente diferenciables, proporcionando un marco para el cálculo diferencial en espacios curvos.",
zh = "配有由过渡映射均为无穷可微的图册所构成的极大图册的拓扑流形,为弯曲空间上的微分学提供了环境。",
article = nil,
}
data["smoothgrad"] = {
short = "A gradient-based saliency method that reduces visual noise in attribution maps by averaging the gradient of the model output with respect to the input over many copies of the input perturbed with Gaussian noise.",
es = "Método de saliencia basado en gradientes que reduce el ruido visual en los mapas de atribución promediando el gradiente de la salida del modelo respecto a la entrada sobre muchas copias de la entrada perturbadas con ruido gaussiano.",
zh = "一种基于梯度的显著性方法,通过对加入高斯噪声的多份输入副本,对模型输出关于输入的梯度取平均,从而降低归因图中的视觉噪声。",
article = nil,
}
data["smoothgrad-squared"] = {
short = "A variant of SmoothGrad that averages the squared gradient over noisy input samples instead of the raw gradient, emphasizing magnitude of sensitivity and often producing sharper saliency maps.",
es = "Variante de SmoothGrad que promedia el gradiente al cuadrado sobre muestras de entrada con ruido en lugar del gradiente puro, enfatizando la magnitud de la sensibilidad y produciendo a menudo mapas de saliencia más nítidos.",
zh = "SmoothGrad 的一种变体,对带噪输入样本的梯度平方(而非原始梯度)取平均,强调敏感性的幅度,通常生成更清晰的显著性图。",
article = nil,
}
data["smoothness constant"] = {
short = "An upper bound on the Lipschitz constant of the gradient of a differentiable function; in optimization, an L-smooth function admits gradient steps of size 1/L with monotone descent.",
es = "Cota superior de la constante de Lipschitz del gradiente de una función diferenciable; en optimización, una función L-suave admite pasos de gradiente de tamaño 1/L con descenso monótono.",
zh = "可微函数梯度的Lipschitz常数的上界;在优化中,L-光滑函数允许步长为1/L的梯度步骤并保证单调下降。",
article = nil,
}
data["smoothquant"] = {
short = "A post-training quantization method for large language models that migrates the quantization difficulty from activations to weights via a per-channel smoothing transformation, enabling accurate W8A8 inference.",
es = "Método de cuantización post-entrenamiento para modelos de lenguaje grandes que traslada la dificultad de la cuantización de las activaciones a los pesos mediante una transformación de suavizado por canal, permitiendo inferencia precisa con W8A8.",
zh = "面向大型语言模型的训练后量化方法,通过逐通道的平滑变换将量化难度从激活迁移到权重,从而实现精确的W8A8推理。",
article = nil,
}
data["smote"] = {
short = "Synthetic Minority Over-sampling Technique: an oversampling method that generates new minority-class examples by interpolating between an example and one of its k-nearest minority-class neighbors in feature space.",
es = "Synthetic Minority Over-sampling Technique: método de sobremuestreo que genera nuevos ejemplos de la clase minoritaria interpolando entre un ejemplo y uno de sus k vecinos más cercanos de la misma clase en el espacio de características.",
zh = "Synthetic Minority Over-sampling Technique(合成少数类过采样技术):一种过采样方法,通过在特征空间中某个少数类样本与其 k 近邻的少数类样本之间插值,生成新的少数类样本。",
article = nil,
}
data["smt solver"] = {
short = "A satisfiability-modulo-theories solver that decides the satisfiability of first-order formulas with respect to combinations of background theories such as arithmetic, arrays, or bit-vectors.",
es = "Resolutor de satisfacibilidad módulo teorías que decide la satisfacibilidad de fórmulas de primer orden respecto a combinaciones de teorías de fondo como aritmética, arreglos o vectores de bits.",
zh = "可满足性模理论求解器,用于判定一阶公式相对于算术、数组或位向量等背景理论组合的可满足性。",
article = nil,
}
data["snail"] = {
short = "Simple Neural Attentive Meta-Learner. A meta-learning architecture that interleaves temporal convolutions with causal soft attention to aggregate experience across episodes for few-shot learning and reinforcement learning.",
es = "Simple Neural Attentive Meta-Learner. Arquitectura de metaaprendizaje que intercala convoluciones temporales con atención causal suave para agregar experiencia entre episodios en aprendizaje con pocos ejemplos y aprendizaje por refuerzo.",
zh = "SNAIL(Simple Neural Attentive Meta-Learner),一种将时间卷积与因果软注意力交替组合的元学习架构,可在小样本学习和强化学习中跨回合聚合经验。",
article = nil,
}
data["snakemake"] = {
short = "A Python-based workflow management system for reproducible bioinformatics pipelines, defining rules with input/output files and shell or script commands; resolves the dependency DAG and runs jobs locally, on clusters, or in the cloud.",
es = "Sistema de gestión de flujos de trabajo basado en Python para pipelines bioinformáticos reproducibles, que define reglas con archivos de entrada/salida y comandos de shell o scripts; resuelve el DAG de dependencias y ejecuta trabajos localmente, en clústeres o en la nube.",
zh = "基于 Python 的工作流管理系统,用于构建可复现的生物信息学流程,通过定义输入/输出文件和 shell 或脚本命令的规则,自动解析依赖 DAG 并在本地、集群或云端执行任务。",
article = nil,
}
data["snapshot ensemble"] = {
short = "An ensembling technique (Huang et al., 2017) that trains a single network with a cyclical learning-rate schedule and saves the weights at the end of each cycle, producing a diverse ensemble of models at the cost of one training run.",
es = "Técnica de ensamblado (Huang et al., 2017) que entrena una única red con un planificador de tasa de aprendizaje cíclico y guarda los pesos al final de cada ciclo, produciendo un ensamble diverso de modelos al coste de un solo entrenamiento.",
zh = "一种集成方法(Huang 等,2017),用循环学习率调度训练单个网络并在每个周期结束时保存权重,从而以一次训练的代价获得多样化的模型集成。",
article = nil,
}
data["snas"] = {
short = "Stochastic Neural Architecture Search. A differentiable NAS method that relaxes the discrete architecture distribution with a concrete (Gumbel-Softmax) distribution and optimizes architecture and weight parameters jointly.",
es = "Stochastic Neural Architecture Search. Método diferenciable de NAS que relaja la distribución discreta sobre arquitecturas mediante la distribución concreta (Gumbel-Softmax) y optimiza conjuntamente los parámetros de la arquitectura y de los pesos.",
zh = "SNAS(随机神经架构搜索),一种可微分 NAS 方法,使用 concrete(Gumbel-Softmax)分布对离散架构分布做松弛,并联合优化架构参数与权重。",
article = nil,
}
data["snip"] = {
short = "Single-shot Network Pruning based on connection sensitivity. A method that prunes weights at initialization by ranking each connection's sensitivity, measured as the loss change when the connection is removed, in a single forward-backward pass.",
es = "Single-shot Network Pruning basado en sensibilidad de conexiones. Método que poda pesos en la inicialización clasificando la sensibilidad de cada conexión, medida como el cambio en la pérdida al eliminarla, mediante un único pase de adelante y atrás.",
zh = "SNIP(基于连接敏感度的单次网络剪枝),通过一次前向-反向传播计算每个连接对损失的敏感度,并在初始化阶段按敏感度对权重进行剪枝。",
article = nil,
}
data["sniper defense"] = {
short = "A Byzantine-robust federated learning defense that detects and excludes malicious clients by clustering client updates and removing the cluster (or individual updates) whose statistics—such as direction or magnitude—deviate most from the honest majority.",
es = "Defensa robusta frente a fallos bizantinos en aprendizaje federado que detecta y excluye clientes maliciosos agrupando las actualizaciones de los clientes y eliminando el clúster (o las actualizaciones individuales) cuyas estadísticas —como dirección o magnitud— más se desvían de la mayoría honesta.",
zh = "一种联邦学习的拜占庭鲁棒防御方法,通过对客户端更新进行聚类并剔除统计量(如方向或幅度)最偏离诚实多数的簇或个别更新,识别并排除恶意客户端。",
article = nil,
}
data["snli-ve"] = {
short = "A visual entailment benchmark derived from SNLI and Flickr30k in which a model decides whether a natural-language hypothesis is entailed, contradicted, or neutral with respect to a given image. Used to evaluate fine-grained visual reasoning.",
es = "Punto de referencia de implicación visual derivado de SNLI y Flickr30k en el que un modelo decide si una hipótesis en lenguaje natural está implicada, contradicha o es neutral respecto a una imagen dada. Se utiliza para evaluar el razonamiento visual fino.",
zh = "一种由 SNLI 与 Flickr30k 派生而来的视觉蕴含基准,模型需判断自然语言假设相对于给定图像是蕴含、矛盾还是中性,用于评估细粒度视觉推理能力。",
article = nil,
}
data["snowflake arctic"] = {
short = "An open-weights mixture-of-experts large language model (480B total parameters, 17B active) released by Snowflake in 2024, designed for enterprise tasks such as SQL generation, coding, and instruction following.",
es = "Modelo de lenguaje grande de mezcla de expertos con pesos abiertos (480 mil millones de parámetros totales, 17 mil millones activos) publicado por Snowflake en 2024, orientado a tareas empresariales como generación de SQL, programación y seguimiento de instrucciones.",
zh = "Snowflake于2024年发布的开放权重专家混合大型语言模型(共4800亿参数,激活170亿),面向SQL生成、编程和指令跟随等企业任务。",
article = nil,
}
data["snpeff"] = {
short = "A genetic variant annotation and effect prediction tool that classifies variants by their predicted impact on genes (e.g., missense, nonsense, splice-site) using gene models from organisms such as human, mouse, and Drosophila.",
es = "Herramienta de anotación de variantes genéticas y predicción de efectos que clasifica variantes según su impacto previsto sobre los genes (p. ej., missense, sin sentido, sitio de empalme) usando modelos génicos de organismos como humano, ratón y Drosophila.",
zh = "用于遗传变异注释和效应预测的工具,基于人、鼠、果蝇等生物的基因模型,按照变异对基因的预测影响(如错义、无义、剪接位点突变)进行分类。",
article = nil,
}
data["snr"] = {
short = "Signal-to-noise ratio: the ratio between the power of a desired signal and the power of background noise, typically expressed in decibels and used as a basic quality measure for audio and communication systems.",
es = "Relación señal-ruido: cociente entre la potencia de una señal deseada y la potencia del ruido de fondo, expresado habitualmente en decibelios y empleado como medida básica de calidad en sistemas de audio y comunicaciones.",
zh = "信噪比:所需信号功率与背景噪声功率之比,通常以分贝表示,是音频和通信系统中常用的基本质量度量。",
article = nil,
}
data["snrna-seq"] = {
short = "Single-nucleus RNA sequencing, which profiles polyadenylated transcripts from isolated nuclei rather than whole cells. Compatible with frozen and difficult-to-dissociate tissues, capturing predominantly nuclear and nascent transcripts.",
es = "Secuenciación de ARN de núcleo único, que perfila transcritos poliadenilados de núcleos aislados en lugar de células enteras. Compatible con tejidos congelados y de difícil disociación, capturando principalmente transcritos nucleares y nacientes.",
zh = "单核 RNA 测序,对分离的细胞核而非完整细胞中的多聚腺苷酸化转录本进行测序。适用于冻存和难以解离的组织,主要捕获核内和新生转录本。",
article = nil,
}
data["snv calling"] = {
short = "The bioinformatics process of identifying single-nucleotide variants — positions where an individual's genome differs from a reference by one base — from aligned sequencing reads, typically using callers such as GATK HaplotypeCaller, DeepVariant, or bcftools.",
es = "Proceso bioinformático de identificación de variantes de un solo nucleótido — posiciones en las que el genoma de un individuo difiere de la referencia en una base — a partir de lecturas de secuenciación alineadas, usando llamadores como GATK HaplotypeCaller, DeepVariant o bcftools.",
zh = "从比对后的测序读段中识别单核苷酸变异(个体基因组与参考序列在单个碱基处的差异)的生物信息学过程,常用工具包括 GATK HaplotypeCaller、DeepVariant 和 bcftools。",
article = nil,
}
data["so-vits-svc"] = {
short = "An open-source singing voice conversion framework that combines a SoftVC content encoder with a VITS-based acoustic model and decoder to convert a source singer's voice to a target singer while preserving melody and expression.",
es = "Marco de conversión de voz cantada de código abierto que combina un codificador de contenido SoftVC con un modelo acústico y un decodificador basados en VITS para convertir la voz de un cantante origen a un cantante objetivo, preservando melodía y expresividad.",
zh = "一种开源的歌声转换框架,将 SoftVC 内容编码器与基于 VITS 的声学模型和解码器相结合,在保留旋律与表现力的前提下,将源歌手嗓音转换为目标歌手。",
article = nil,
}
data["sobel test"] = {
short = "A first-order normal-approximation test for the indirect effect in a linear mediation model, dividing the product of the two path coefficients by an estimate of its standard error.",
es = "Prueba basada en la aproximación normal de primer orden para el efecto indirecto en un modelo de mediación lineal, que divide el producto de los dos coeficientes de trayectoria por una estimación de su error estándar.",
zh = "在线性中介模型中对间接效应进行的一阶正态近似检验,通过将两条路径系数的乘积除以其标准误估计量得到统计量。",
article = nil,
}
data["sobolev space"] = {
short = "A Banach space of functions whose weak derivatives up to a given order belong to an Lp space; central in the analysis of partial differential equations and variational problems.",
es = "Espacio de Banach de funciones cuyas derivadas débiles hasta un orden dado pertenecen a un espacio Lp; fundamental en el análisis de ecuaciones en derivadas parciales y problemas variacionales.",
zh = "由其弱导数直到给定阶都属于某Lp空间的函数构成的巴拿赫空间;在偏微分方程和变分问题分析中具有核心地位。",
article = nil,
}
data["social desirability bias"] = {
short = "A response bias in which subjects answer surveys, prompts, or evaluations in ways they perceive as socially acceptable rather than truthfully. Distorts training labels collected from human raters and self-reported features.",
es = "Sesgo de respuesta en el que los sujetos contestan encuestas, indicaciones o evaluaciones de la manera que perciben como socialmente aceptable en lugar de hacerlo con sinceridad. Distorsiona las etiquetas de entrenamiento recolectadas de evaluadores humanos y los rasgos autoinformados.",
zh = "一种应答偏差,被试在问卷、提示或评估中以其认为社会可接受的方式作答,而非如实作答。会扭曲来自人工标注者的训练标签和自报特征。",
article = nil,
}
data["social influence rl"] = {
short = "A multi-agent reinforcement learning framework that augments individual rewards with an intrinsic term measuring an agent's causal influence on the actions of other agents, encouraging coordination and the emergence of communication.",
es = "Marco de aprendizaje por refuerzo multiagente que aumenta las recompensas individuales con un término intrínseco que mide la influencia causal de un agente sobre las acciones de los demás, fomentando la coordinación y la emergencia de comunicación.",
zh = "一种多智能体强化学习框架,在个体奖励之上加入度量某智能体对其他智能体动作因果影响的内在奖励项,从而促进协作并涌现出通信行为。",
article = nil,
}
data["social navigation"] = {
short = "The problem of navigating mobile robots through environments shared with humans while satisfying both safety constraints and social conventions such as personal space, predictability, and right-of-way.",
es = "Problema de hacer que robots móviles naveguen por entornos compartidos con personas satisfaciendo tanto restricciones de seguridad como convenciones sociales —espacio personal, previsibilidad y derecho de paso, entre otras.",
zh = "移动机器人在与人共享的环境中进行导航的问题,需同时满足安全约束与社会规范,例如个人空间、可预测性以及通行优先权等。",
article = nil,
}
data["socially-aware navigation"] = {
short = "A near-synonym of social navigation: mobile-robot navigation that explicitly accounts for human comfort, intent, and social norms when planning trajectories in shared spaces.",
es = "Casi sinónimo de navegación social: navegación de robots móviles que tiene en cuenta de manera explícita la comodidad, la intención y las normas sociales humanas al planificar trayectorias en espacios compartidos.",
zh = "与社交导航近义:在规划共享空间中的轨迹时显式考虑人的舒适度、意图与社会规范的移动机器人导航方法。",
article = nil,
}
data["socioeconomic bias"] = {
short = "Bias in which model predictions, allocations, or representations differ systematically across socioeconomic strata such as income, education, or neighborhood. Often correlates with other protected attributes and complicates causal fairness analysis.",
es = "Sesgo en el que las predicciones, asignaciones o representaciones del modelo difieren sistemáticamente entre estratos socioeconómicos como ingresos, educación o vecindario. Suele correlacionarse con otros atributos protegidos y complica el análisis causal de equidad.",
zh = "模型的预测、分配或表征在收入、教育、社区等社会经济层级间存在系统性差异。通常与其他受保护属性相关联,使因果公平性分析更加复杂。",
article = nil,
}
data["soft actor-critic"] = {
short = "An off-policy actor-critic algorithm in the maximum-entropy reinforcement learning framework that simultaneously maximizes expected return and policy entropy, yielding stable, sample-efficient learning on continuous-control tasks.",
es = "Algoritmo actor-crítico fuera de política dentro del marco de aprendizaje por refuerzo de máxima entropía que maximiza simultáneamente el retorno esperado y la entropía de la política, ofreciendo un aprendizaje estable y eficiente en muestras para tareas de control continuo.",
zh = "最大熵强化学习框架下的离策略 actor-critic 算法,同时最大化期望回报和策略熵,在连续控制任务上具有稳定且样本高效的表现。",
article = nil,
}
data["soft body simulation"] = {
short = "Physical simulation of deformable objects—such as cloth, rope, gels, and elastic solids—using methods like finite-element, mass-spring systems, position-based dynamics, or the material point method, often used to train manipulation policies.",
es = "Simulación física de objetos deformables —telas, cuerdas, geles y sólidos elásticos— mediante métodos como elementos finitos, sistemas masa-resorte, dinámica basada en posiciones o el método del punto material, a menudo empleada para entrenar políticas de manipulación.",
zh = "对可变形物体(如布料、绳索、凝胶与弹性体)的物理仿真,常用方法包括有限元、质点-弹簧系统、基于位置的动力学以及物质点法等,常用于训练操作策略。",
article = nil,
}
data["soft debias"] = {
short = "A debiasing approach that minimizes association between representations and a protected attribute via a soft penalty rather than full projection, balancing bias reduction against information preservation. Contrasted with hard debiasing methods like Bolukbasi's hard-debias.",
es = "Enfoque de desesgo que minimiza la asociación entre las representaciones y un atributo protegido mediante una penalización suave en lugar de una proyección completa, equilibrando reducción del sesgo y conservación de la información. Se contrapone a métodos de desesgo duro como hard-debias de Bolukbasi.",
zh = "一种去偏方法,通过软惩罚而非完全投影来最小化表征与受保护属性之间的关联,在降低偏差与保留信息之间取得平衡。与 Bolukbasi 的 hard-debias 等硬去偏方法相对。",
article = nil,
}
data["soft decision tree"] = {
short = "A decision-tree variant in which each internal split is a smooth, probabilistic gating function rather than a hard branch, enabling end-to-end gradient-based training.",
es = "Variante de árbol de decisión en la que cada división interna es una función de compuerta suave y probabilística en lugar de una rama dura, lo que permite el entrenamiento de extremo a extremo basado en gradientes.",
zh = "一种决策树变体,其内部分裂为平滑的概率门控函数而非硬分支,从而支持端到端的基于梯度的训练。",
article = nil,
}
data["soft em"] = {
short = "A variant of Expectation-Maximization in which the E-step computes a full posterior distribution over latent variables (soft assignments) rather than a single most-likely value, equivalent to standard EM.",
es = "Variante de Expectation-Maximization en la que el paso E calcula una distribución posterior completa sobre las variables latentes (asignaciones blandas) en lugar de un único valor más probable, equivalente al EM estándar.",
zh = "期望最大化(EM)的一种变体,其 E 步对潜变量计算完整的后验分布(软分配),而不是单一的最可能取值;等价于标准 EM。",
article = nil,
}
data["soft evidence"] = {
short = "Evidence in a probabilistic graphical model that specifies a likelihood ratio or distribution over a variable rather than fixing it to a single value, used to incorporate uncertain or noisy observations.",
es = "Evidencia en un modelo gráfico probabilístico que especifica una razón de verosimilitud o una distribución sobre una variable en lugar de fijarla a un único valor, utilizada para incorporar observaciones inciertas o ruidosas.",
zh = "概率图模型中的一种证据形式,它对变量给出似然比或分布,而非将其固定为单一取值,用于纳入不确定或带噪的观测。",
article = nil,
}
data["soft prompt"] = {
short = "A sequence of continuous, learnable embedding vectors prepended to the input of a frozen language model and optimized by gradient descent on a downstream task, in contrast to discrete textual prompts.",
es = "Secuencia de vectores de embedding continuos y aprendibles que se anteponen a la entrada de un modelo de lenguaje congelado y se optimizan por descenso de gradiente sobre una tarea, en contraste con los prompts textuales discretos.",
zh = "由可学习的连续嵌入向量组成的序列,附加在冻结语言模型的输入前,通过梯度下降在下游任务上进行优化,与离散的文本提示形成对比。",
article = nil,
}
data["soft q imitation learning"] = {
short = "Soft Q Imitation Learning (SQIL) is an imitation-learning algorithm that fills the replay buffer with expert transitions assigned reward 1 and agent transitions assigned reward 0, then runs soft Q-learning to recover an expert-like policy.",
es = "Soft Q Imitation Learning (SQIL) es un algoritmo de aprendizaje por imitación que llena el buffer de repetición con transiciones del experto a las que asigna recompensa 1 y con transiciones del agente a las que asigna recompensa 0, y luego ejecuta soft Q-learning para recuperar una política similar a la del experto.",
zh = "Soft Q Imitation Learning(SQIL)是一种模仿学习算法,将专家转移以奖励1、智能体自身转移以奖励0填入回放缓冲区,再运行soft Q-learning来恢复出与专家相近的策略。",
article = nil,
}
data["soft q-learning"] = {
short = "A Q-learning variant in the maximum-entropy reinforcement learning framework where the optimal value function is the log-sum-exp of Q-values and the optimal policy is a Boltzmann distribution over actions, encouraging stochastic, multimodal behavior.",
es = "Variante de Q-learning en el marco de aprendizaje por refuerzo de máxima entropía en la que la función de valor óptima es el log-sum-exp de los valores Q y la política óptima es una distribución de Boltzmann sobre las acciones, lo que favorece comportamientos estocásticos y multimodales.",
zh = "最大熵强化学习框架下的 Q-learning 变体,最优价值函数为 Q 值的 log-sum-exp,最优策略为动作上的玻尔兹曼分布,从而鼓励随机的、多模态的行为。",
article = nil,
}
data["soft robot control"] = {
short = "The problem of controlling robots with continuously deformable bodies, where high or infinite degrees of freedom and nonlinear material dynamics make classical rigid-body methods inapplicable and motivate model-based, learned, or reduced-order controllers.",
es = "Problema del control de robots con cuerpos continuamente deformables, donde los grados de libertad altos o infinitos y la dinámica no lineal del material hacen inviables los métodos clásicos de cuerpo rígido y motivan el uso de controladores basados en modelos, aprendidos o de orden reducido.",
zh = "针对具有可连续形变本体的机器人进行控制的问题。其高自由度乃至无穷自由度和非线性材料动力学使经典刚体方法难以适用,因而催生了基于模型、基于学习或降阶的控制器。",
article = nil,
}
data["soft target update"] = {
short = "A target-network update rule used in off-policy deep reinforcement learning that slowly tracks the online network via Polyak averaging, θ' ← τ θ + (1 − τ) θ' with small τ, instead of periodic hard copies.",
es = "Regla de actualización de la red objetivo usada en aprendizaje por refuerzo profundo fuera de política que sigue lentamente a la red en línea mediante promediado de Polyak, θ' ← τ θ + (1 − τ) θ' con τ pequeño, en lugar de copias periódicas duras.",
zh = "一种用于离策略深度强化学习的目标网络更新方式,通过 Polyak 平均(θ' ← τ θ + (1 − τ) θ',τ 取小值)让目标网络缓慢跟踪在线网络,替代周期性的硬复制更新。",
article = nil,
}
data["soft unification"] = {
short = "A relaxation of logical unification that compares terms by similarity scores—often via learned embeddings—rather than requiring exact syntactic equality, enabling differentiable rule-based reasoning.",
es = "Relajación de la unificación lógica que compara términos mediante puntuaciones de similitud, a menudo a través de incrustaciones aprendidas, en lugar de requerir igualdad sintáctica exacta, permitiendo el razonamiento basado en reglas diferenciable.",
zh = "对逻辑合一的松弛,通过相似度分数(通常基于学习到的嵌入)来比较项,而不要求精确的句法相等,从而支持可微的基于规则的推理。",
article = nil,
}
data["soft-dtw"] = {
short = "A differentiable relaxation of dynamic time warping that replaces the min over alignments with a soft-minimum (log-sum-exp) operator, enabling DTW-based losses to be used for gradient-based training of neural networks.",
es = "Relajación diferenciable del Dynamic Time Warping que sustituye el mínimo sobre alineaciones por un operador de mínimo suave (log-sum-exp), permitiendo usar pérdidas basadas en DTW para entrenar redes neuronales por gradiente.",
zh = "动态时间规整的可微松弛形式,用软最小(log-sum-exp)算子替代对齐路径上的最小值,使基于 DTW 的损失可用于神经网络的梯度训练。",
article = nil,
}
data["softmax"] = {
short = "Function mapping a vector of real scores to a probability distribution: σ(z)_i = exp(z_i) / Σ_j exp(z_j). Standard output layer for multi-class classification.",
es = "Función que transforma un vector de puntajes reales en una distribución de probabilidad: σ(z)_i = exp(z_i) / Σ_j exp(z_j). Capa de salida estándar para clasificación multiclase.",
zh = "将实数得分向量映射为概率分布的函数:σ(z)_i = exp(z_i) / Σ_j exp(z_j)。是多分类问题的标准输出层。",
article = "Softmax Function",
}
data["softmax conditional"] = {
short = "A conditional probability distribution parameterized by a softmax over linear (or learned) scores of the conditioning variables, used to model categorical outcomes such as in multinomial logistic regression.",
es = "Distribución condicional de probabilidad parametrizada por un softmax sobre puntuaciones lineales (o aprendidas) de las variables condicionantes, utilizada para modelar resultados categóricos, como en la regresión logística multinomial.",
zh = "一种条件概率分布,通过对条件变量的线性(或学习得到的)分数应用 softmax 进行参数化,用于建模分类结果,如多项逻辑回归。",
article = nil,
}
data["softmax exploration"] = {
short = "An action-selection strategy that samples actions from a Boltzmann (softmax) distribution over estimated values, so that better-valued actions are more likely but all actions retain non-zero probability; a temperature parameter controls greediness.",
es = "Estrategia de selección de acciones que las muestrea a partir de una distribución de Boltzmann (softmax) sobre los valores estimados, de modo que las acciones con mayor valor son más probables pero todas conservan probabilidad no nula; un parámetro de temperatura controla el grado de voracidad.",
zh = "一种动作选择策略,从基于估计值的玻尔兹曼(softmax)分布中采样动作,使估计值更高的动作概率更大,但所有动作都保持非零概率;通过温度参数控制贪心程度。",
article = nil,
}
data["softmax rbm"] = {
short = "A restricted Boltzmann machine whose visible units use a softmax activation, so each visible group represents a categorical (one-of-K) variable; commonly used in replicated softmax topic models.",
es = "Máquina de Boltzmann restringida cuyas unidades visibles utilizan una activación softmax, de modo que cada grupo visible representa una variable categórica (uno de K); empleada habitualmente en modelos de tópicos de softmax replicado.",
zh = "一种受限玻尔兹曼机,其可见单元使用 softmax 激活,使每个可见组表示一个类别(K 选一)变量;常用于复制 softmax 主题模型中。",
article = nil,
}
data["softplus"] = {
short = "Smooth approximation to ReLU defined as ln(1 + e^x). Always positive, differentiable everywhere, and approaches the identity for large x and zero for very negative x.",
es = "Aproximación suave de ReLU definida como ln(1 + e^x). Siempre positiva, diferenciable en todo punto y se aproxima a la identidad para x grande y a cero para x muy negativo.",
zh = "ReLU 的平滑近似,定义为 ln(1 + e^x)。处处可导且恒为正,对大正数趋近于恒等映射,对很负的输入趋近于零。",
article = nil,
}
data["soluble mpnn"] = {
short = "SolubleMPNN is a variant of ProteinMPNN whose amino-acid distribution is biased to avoid hydrophobic surface residues, producing protein sequences with improved solubility while preserving the target backbone structure.",
es = "SolubleMPNN es una variante de ProteinMPNN cuya distribución de aminoácidos está sesgada para evitar residuos hidrofóbicos en la superficie, produciendo secuencias proteicas con solubilidad mejorada mientras se preserva la estructura de la cadena principal objetivo.",
zh = "SolubleMPNN 是 ProteinMPNN 的一个变体,其氨基酸分布被偏置以避免表面疏水残基,从而在保留目标主链结构的同时生成具有更高溶解度的蛋白质序列。",
article = nil,
}
data["somatic hypermutation"] = {
short = "A B-cell process in which activation-induced cytidine deaminase (AID) introduces point mutations into the variable regions of immunoglobulin genes, generating antibody diversity and enabling affinity maturation during the immune response.",
es = "Proceso de células B en el que la citidina desaminasa inducida por activación (AID) introduce mutaciones puntuales en las regiones variables de los genes de inmunoglobulina, generando diversidad de anticuerpos y permitiendo la maduración por afinidad durante la respuesta inmune.",
zh = "B 细胞中由活化诱导的胞苷脱氨酶(AID)在免疫球蛋白基因可变区引入点突变的过程,从而产生抗体多样性,并在免疫应答中实现亲和力成熟。",
article = nil,
}
data["somatic variant"] = {
short = "A genetic variant arising in non-germline cells after fertilization, present in only a subset of cells in an individual. Common in cancer, where somatic mutations drive tumor evolution; absent from gametes and not heritable.",
es = "Variante genética que surge en células no germinales después de la fecundación, presente solo en un subconjunto de células de un individuo. Común en cáncer, donde las mutaciones somáticas impulsan la evolución tumoral; ausente en gametos y no heredable.",
zh = "受精后在非生殖细胞中产生的遗传变异,仅存在于个体的一部分细胞中。常见于癌症,体细胞突变驱动肿瘤演化;不存在于配子,不可遗传。",
article = nil,
}
data["somewhat homomorphic encryption"] = {
short = "An encryption scheme that supports a bounded number of homomorphic additions and multiplications on ciphertexts before noise growth makes decryption fail, sitting between partially homomorphic encryption and fully homomorphic encryption (which removes the depth bound via bootstrapping).",
es = "Esquema de cifrado que admite un número acotado de sumas y multiplicaciones homomórficas sobre textos cifrados antes de que el crecimiento de ruido haga fallar el descifrado, situándose entre el cifrado parcialmente homomórfico y el cifrado totalmente homomórfico (que elimina el límite de profundidad mediante bootstrapping).",
zh = "支持密文上有限次同态加法与乘法运算的加密方案,超过该次数后噪声增长会导致解密失败;其能力介于部分同态加密与完全同态加密(后者通过bootstrapping消除深度限制)之间。",
article = nil,
}
data["song generation"] = {
short = "The task of generating a complete song, typically including both vocal performance and instrumental accompaniment, from inputs such as lyrics, a style description, or a short audio prompt.",
es = "Tarea de generar una canción completa, que normalmente incluye tanto la interpretación vocal como el acompañamiento instrumental, a partir de entradas como letras, una descripción de estilo o un breve audio de referencia.",
zh = "完整歌曲生成任务:根据歌词、风格描述或简短音频提示等输入,生成包含人声演唱与器乐伴奏的完整歌曲。",
article = nil,
}
data["sora"] = {
short = "A text-to-video diffusion transformer model from OpenAI that generates minute-long, high-resolution video clips from natural language prompts by operating on spacetime patches of latent video.",
es = "Modelo de difusión basado en transformador para generación de video a partir de texto, desarrollado por OpenAI, que produce clips de alta resolución y hasta un minuto de duración a partir de instrucciones en lenguaje natural, operando sobre parches espaciotemporales de video latente.",
zh = "OpenAI 提出的文本到视频扩散 Transformer 模型,通过对潜空间视频的时空 patch 进行建模,根据自然语言提示生成最长可达一分钟的高分辨率视频片段。",
article = nil,
}
data["sound event detection"] = {
short = "The task of identifying which sound events occur in an audio recording and locating their onset and offset times, typically framed as multi-label temporal classification.",
es = "Tarea de identificar qué eventos sonoros aparecen en una grabación de audio y localizar sus tiempos de inicio y fin, planteada habitualmente como una clasificación temporal multietiqueta.",
zh = "声音事件检测任务:识别音频录音中出现了哪些声音事件,并定位其起止时间,通常以多标签时序分类的形式建模。",
article = nil,
}
data["soundness of d-separation"] = {
short = "The property that whenever d-separation holds between two sets of nodes given a third in a Bayesian network, the corresponding conditional independence holds in every distribution that factorizes over the graph.",
es = "Propiedad que establece que, siempre que la d-separación se cumpla entre dos conjuntos de nodos dado un tercero en una red bayesiana, la independencia condicional correspondiente se cumple en toda distribución que factorice sobre el grafo.",
zh = "在贝叶斯网络中,只要给定第三组节点时两组节点之间满足 d-分离,则该图所因子分解的每个分布中都成立相应的条件独立性,这一性质称为 d-分离的可靠性。",
article = nil,
}
data["soundstream"] = {
short = "A neural audio codec from Google that uses a fully convolutional encoder–decoder with a residual vector quantizer to compress general audio (speech, music, ambient sound) at very low bitrates with high perceptual quality.",
es = "Códec de audio neuronal de Google que utiliza un codificador-decodificador completamente convolucional con cuantización vectorial residual para comprimir audio general (voz, música, sonido ambiente) a tasas de bits muy bajas con alta calidad perceptual.",
zh = "Google 提出的神经音频编解码器,采用全卷积编码器–解码器结构和残差向量量化,能够以极低比特率压缩通用音频(语音、音乐、环境声)并保持较高的感知质量。",
article = nil,
}
data["sox effects"] = {
short = "Audio transformations provided by the SoX (Sound eXchange) command-line tool and library, such as resampling, gain adjustment, filtering, reverb, pitch shifting, and tempo change, commonly used as building blocks for audio data augmentation.",
es = "Transformaciones de audio proporcionadas por la herramienta y biblioteca de línea de comandos SoX (Sound eXchange), como remuestreo, ajuste de ganancia, filtrado, reverberación, desplazamiento de tono y cambio de tempo, utilizadas habitualmente como bloques básicos para aumento de datos de audio.",
zh = "由 SoX(Sound eXchange)命令行工具及库提供的音频变换,例如重采样、增益调整、滤波、混响、音高变换和速度变化,常用作音频数据增强的基本构件。",
article = nil,
}
data["spacemouse teleoperation"] = {
short = "A teleoperation interface that uses a 3Dconnexion SpaceMouse six-axis input device to command end-effector pose, widely used to collect human demonstrations for imitation learning in tabletop manipulation.",
es = "Interfaz de teleoperación que usa el dispositivo SpaceMouse de seis ejes de 3Dconnexion para comandar la pose del efector final, ampliamente utilizada para recolectar demostraciones humanas en aprendizaje por imitación en manipulación sobre mesa.",
zh = "一种使用 3Dconnexion SpaceMouse 六轴输入设备来指令末端执行器位姿的遥操作接口,被广泛用于在桌面操作任务中采集人类演示数据以进行模仿学习。",
article = nil,
}
data["spacetimeformer"] = {
short = "A Transformer-based architecture for multivariate spatiotemporal forecasting that flattens space, time, and variable axes into a single sequence so attention can model dependencies across all three dimensions jointly.",
es = "Arquitectura basada en Transformer para pronóstico espaciotemporal multivariado que aplana los ejes de espacio, tiempo y variables en una única secuencia, de modo que la atención modela conjuntamente dependencias en las tres dimensiones.",
zh = "一种用于多变量时空预测的 Transformer 架构,将空间、时间和变量轴展平为单一序列,使注意力机制可以在三个维度上联合建模依赖关系。",
article = nil,
}
data["span masking"] = {
short = "A masked language modeling objective that masks contiguous spans of tokens rather than independent tokens, encouraging models to learn longer-range dependencies. Used by SpanBERT and T5.",
es = "Objetivo de modelado de lenguaje enmascarado que enmascara segmentos contiguos de tokens en lugar de tokens independientes, fomentando que el modelo aprenda dependencias de mayor alcance. Utilizado por SpanBERT y T5.",
zh = "一种掩码语言建模目标,对连续的 token 跨段进行掩码而非独立 token,从而促使模型学习更长范围的依赖。SpanBERT 和 T5 采用了该方法。",
article = nil,
}
data["spanning tree"] = {
short = "A subgraph of a connected graph that is a tree and contains every vertex; equivalently, a minimal connected subgraph spanning all vertices.",
es = "Subgrafo de un grafo conexo que es un árbol y contiene todos los vértices; equivalentemente, un subgrafo conexo mínimo que abarca todos los vértices.",
zh = "连通图的一个子图,本身是一棵树并包含所有顶点;等价地,覆盖所有顶点的极小连通子图。",
article = nil,
}
data["spanning tree approximation"] = {
short = "An approximation that replaces a dense graphical model with a spanning tree (often the maximum-weight one in mutual information) so that exact inference becomes tractable; used by the Chow-Liu algorithm.",
es = "Aproximación que sustituye un modelo gráfico denso por un árbol de expansión (a menudo el de máximo peso en información mutua) de modo que la inferencia exacta sea tratable; utilizada en el algoritmo de Chow-Liu.",
zh = "一种近似方法,将稠密图模型替换为生成树(通常是互信息上权重最大的生成树),使精确推断变得可行;Chow-Liu 算法即采用此方法。",
article = nil,
}
data["sparql"] = {
short = "A standardized query and update language for RDF graph data, enabling pattern matching, filtering, and federated querying across linked-data endpoints.",
es = "Lenguaje estandarizado de consulta y actualización para datos en grafos RDF, que permite emparejamiento de patrones, filtrado y consultas federadas entre puntos de acceso de datos enlazados.",
zh = "一种针对 RDF 图数据的标准化查询与更新语言,支持模式匹配、过滤以及跨链接数据端点的联合查询。",
article = nil,
}
data["sparse activation"] = {
short = "A pattern of neural network computation in which only a small fraction of units, experts, or weights are active for any given input, reducing FLOPs and enabling conditional or mixture-of-experts architectures.",
es = "Patrón de computación en redes neuronales en el que solo una pequeña fracción de unidades, expertos o pesos está activa para cada entrada, reduciendo los FLOPs y permitiendo arquitecturas condicionales o de mezcla de expertos.",
zh = "神经网络的一种计算模式,对于任一输入只有少部分神经元、专家或权重被激活,从而降低浮点运算量,并支持条件计算或专家混合架构。",
article = nil,
}
data["sparse attention"] = {
short = "An attention pattern that restricts each query to attend to a subset of keys rather than the full sequence, reducing the quadratic cost of standard attention.",
es = "Patrón de atención que restringe cada consulta a un subconjunto de claves en lugar de la secuencia completa, reduciendo el costo cuadrático de la atención estándar.",
zh = "一种注意力模式,将每个查询限制为只关注键的一个子集而非整个序列,从而降低标准注意力的二次复杂度。",
article = nil,
}
data["sparse autoencoder"] = {
short = "An autoencoder trained with a sparsity penalty on its hidden activations, encouraging each input to be encoded by a small number of active units; widely used for unsupervised feature learning and mechanistic interpretability of large models.",
es = "Autoencoder entrenado con una penalización de esparsidad sobre sus activaciones ocultas, que fomenta que cada entrada se codifique mediante un número reducido de unidades activas; muy utilizado en aprendizaje no supervisado de características y en la interpretabilidad mecanicista de modelos grandes.",
zh = "一种在隐藏激活上施加稀疏性惩罚的自编码器,鼓励每个输入由少量活跃单元编码;广泛用于无监督特征学习以及大型模型的机制可解释性研究。",
article = nil,
}
data["sparse categorical cross-entropy"] = {
short = "A formulation of categorical cross-entropy that takes integer class indices as targets instead of one-hot vectors, avoiding materialization of the full label matrix.",
es = "Variante de la entropía cruzada categórica que toma índices enteros de clase como objetivos en lugar de vectores one-hot, evitando materializar la matriz completa de etiquetas.",
zh = "分类交叉熵的一种实现,使用整数类别索引而非 one-hot 向量作为标签,从而避免显式构造完整的标签矩阵。",
article = nil,
}
data["sparse explanation"] = {
short = "A model explanation that uses few input features or concepts to explain a prediction, valued for human interpretability; typically obtained via L1-regularized surrogates, sparse attribution methods, or rule-based extractors.",
es = "Explicación de modelo que utiliza pocas características o conceptos de entrada para explicar una predicción, valorada por su interpretabilidad humana; suele obtenerse mediante sustitutos regularizados con L1, métodos de atribución esparsos o extractores basados en reglas.",
zh = "使用少量输入特征或概念来解释预测的模型解释,因易于人类理解而受到重视;通常通过 L1 正则化的代理模型、稀疏归因方法或基于规则的提取器获得。",
article = nil,
}
data["sparse gp"] = {
short = "A class of approximations to a Gaussian process that summarize the training data with a small set of M ≪ N inducing points, reducing the cubic O(N³) cost of exact GP inference to O(NM²) and enabling scalable training.",
es = "Clase de aproximaciones a un proceso gaussiano que resume los datos de entrenamiento con un conjunto pequeño de M ≪ N puntos inductores, reduciendo el coste cúbico O(N³) de la inferencia exacta a O(NM²) y permitiendo entrenamiento escalable.",
zh = "高斯过程的一类近似方法,用 M ≪ N 个诱导点(inducing points)总结训练数据,将精确推断的 O(N³) 立方复杂度降到 O(NM²),从而支持可扩展训练。",
article = nil,
}
data["sparse linear explanation"] = {
short = "A local or global explanation that approximates a model with a sparse linear function — typically a LASSO or L1-regularized regression on input features — to expose a small set of features that drive predictions.",
es = "Explicación local o global que aproxima un modelo mediante una función lineal esparsa —normalmente una regresión LASSO o regularizada con L1 sobre las características de entrada— para revelar un pequeño conjunto de características que impulsan las predicciones.",
zh = "一种局部或全局解释方法,用稀疏线性函数(通常是对输入特征的 LASSO 或 L1 正则化回归)来近似模型,从而揭示驱动预测的少量特征。",
article = nil,
}
data["sparse linear method"] = {
short = "Sparse Linear Method (SLIM, Ning & Karypis, ICDM 2011): a top-N collaborative filtering technique that learns a sparse non-negative item-item coefficient matrix via L1+L2-regularized least squares to reconstruct the user-item matrix, then scores items as R·W.",
es = "Sparse Linear Method (SLIM, Ning y Karypis, ICDM 2011): técnica de filtrado colaborativo top-N que aprende una matriz dispersa y no negativa de coeficientes ítem–ítem mediante mínimos cuadrados con regularización L1+L2 para reconstruir la matriz usuario–ítem, y luego puntúa los ítems con R·W.",
zh = "Sparse Linear Method(SLIM,Ning 与 Karypis,ICDM 2011):一种 top-N 协同过滤方法,通过 L1+L2 正则的最小二乘学习稀疏非负的物品–物品系数矩阵以重构用户–物品矩阵,再用 R·W 计算物品得分。",
article = nil,
}
data["sparse matrix"] = {
short = "A matrix in which most entries are zero, allowing compact storage formats (CSR, CSC, COO) and specialized algorithms whose cost scales with the number of nonzeros rather than the full dimension.",
es = "Matriz en la que la mayoría de las entradas son cero, lo que permite formatos de almacenamiento compactos (CSR, CSC, COO) y algoritmos especializados cuyo coste escala con el número de elementos no nulos en lugar de con la dimensión total.",
zh = "大多数元素为零的矩阵,可使用紧凑存储格式(CSR、CSC、COO)以及专用算法,其计算成本与非零元素数量成正比,而非与矩阵维度成正比。",
article = nil,
}
data["sparse retrieval"] = {
short = "An information retrieval approach that represents queries and documents in a high-dimensional, mostly-zero space of term weights, ranking documents with lexical scoring functions such as BM25 or TF-IDF.",
es = "Enfoque de recuperación de información que representa consultas y documentos en un espacio de pesos de términos de alta dimensión y mayoritariamente nulo, ordenando los documentos con funciones de puntuación léxica como BM25 o TF-IDF.",
zh = "一种信息检索方法,将查询和文档表示在高维且大多为零的词权重空间中,使用 BM25 或 TF-IDF 等词面打分函数对文档排序。",
article = nil,
}
data["sparse reward"] = {
short = "A reinforcement-learning setting in which the reward signal is zero almost everywhere and only rarely becomes nonzero, typically at task completion, making credit assignment and exploration considerably harder than in dense-reward settings.",
es = "Configuración de aprendizaje por refuerzo en la que la señal de recompensa es nula casi siempre y solo es distinta de cero en casos puntuales, típicamente al completar la tarea, lo que dificulta enormemente la asignación de crédito y la exploración respecto a entornos con recompensas densas.",
zh = "强化学习中奖励信号几乎处处为零、仅在罕见情形下(通常是任务完成时)非零的设定,使得信用分配和探索比稠密奖励情形困难得多。",
article = nil,
}
data["sparse reward manipulation"] = {
short = "Robot manipulation problems in which the reward is non-zero only upon task success, providing little gradient signal for reinforcement learning and motivating exploration bonuses, demonstrations, hindsight relabeling, or curriculum learning.",
es = "Problemas de manipulación robótica en los que la recompensa es distinta de cero solo al completar la tarea, lo que ofrece poca señal de gradiente para aprendizaje por refuerzo y motiva el uso de bonificaciones de exploración, demostraciones, reetiquetado en retrospectiva o aprendizaje curricular.",
zh = "机器人操作问题中奖励仅在任务成功时非零的设定,由于强化学习可获得的梯度信号极少,常需借助探索奖励、人类演示、事后经验回放或课程学习来辅助训练。",
article = nil,
}
data["sparse spectrum gaussian process"] = {
short = "A Gaussian-process approximation (Lázaro-Gredilla et al., 2010) that exploits Bochner's theorem to express a stationary kernel as an expectation over its spectral density and approximates it with a finite, sparse set of trigonometric basis functions sampled from that density.",
es = "Aproximación de procesos gaussianos (Lázaro-Gredilla et al., 2010) que explota el teorema de Bochner para expresar un núcleo estacionario como una esperanza sobre su densidad espectral y la aproxima con un conjunto finito y disperso de funciones trigonométricas muestreadas de esa densidad.",
zh = "一种高斯过程近似方法(Lázaro-Gredilla 等,2010),利用 Bochner 定理将平稳核表示为其谱密度上的期望,并用从该密度抽取的有限、稀疏的三角基函数集来近似该核。",
article = nil,
}
data["sparse variational gp"] = {
short = "A scalable Gaussian-process model (Hensman et al., 2013) that combines inducing points with stochastic variational inference, enabling mini-batch training of GP regression and classification on large datasets via a tractable evidence lower bound.",
es = "Modelo de proceso gaussiano escalable (Hensman et al., 2013) que combina puntos inductores con inferencia variacional estocástica, permitiendo entrenar regresión y clasificación GP en grandes conjuntos de datos mediante mini-lotes y una cota inferior tratable de la evidencia.",
zh = "一种可扩展的高斯过程模型(Hensman 等,2013),将诱导点与随机变分推断结合,通过可解的证据下界实现大规模数据集上 GP 回归和分类的小批量训练。",
article = nil,
}
data["sparsely-gated mixture of experts"] = {
short = "A mixture-of-experts variant in which the gating network activates only a small fixed number of experts per token, enabling models with very large parameter counts to remain computationally tractable.",
es = "Variante de mezcla de expertos en la que la red de compuerta activa solo un pequeño número fijo de expertos por token, permitiendo modelos con muchísimos parámetros que siguen siendo computacionalmente tratables.",
zh = "一种混合专家变体,门控网络对每个 token 仅激活少量固定数目的专家,使得参数量极大的模型仍然在计算上可行。",
article = nil,
}
data["sparsest permutation algorithm"] = {
short = "A causal structure learning algorithm that searches over variable orderings and returns the DAG consistent with the ordering that has the fewest edges, recovering the true sparsest permutation under faithfulness.",
es = "Algoritmo de aprendizaje de estructura causal que busca sobre ordenaciones de variables y devuelve el DAG consistente con la ordenación que tiene menos aristas, recuperando la permutación más dispersa real bajo fidelidad.",
zh = "一种因果结构学习算法,对变量排序进行搜索,并返回与边数最少的排序相容的有向无环图;在忠实性假设下可恢复真实的最稀疏排列。",
article = nil,
}
data["sparsification error"] = {
short = "The approximation error introduced by replacing the full set of training points in a Gaussian process or kernel machine with a smaller set of inducing or pseudo-inputs, typically measured as the gap in marginal likelihood or predictive distribution.",
es = "Error de aproximación introducido al sustituir el conjunto completo de puntos de entrenamiento de un proceso gaussiano o máquina de núcleo por un conjunto más pequeño de puntos inductores o pseudo-entradas, normalmente medido como la diferencia en la verosimilitud marginal o en la distribución predictiva.",
zh = "在高斯过程或核方法中,用规模更小的诱导点或伪输入替代全部训练点所引入的近似误差,通常以边际似然或预测分布的差距来衡量。",
article = nil,
}
data["spatial action map"] = {
short = "An action representation in which a policy outputs a dense per-pixel score over a top-down or image map indicating where in the scene to act, used for mobile manipulation and pick-and-place to align spatial perception with spatial action selection.",
es = "Representación de acciones en la que la política produce una puntuación densa por píxel sobre un mapa cenital o de imagen que indica dónde actuar en la escena; se utiliza en manipulación móvil y en pick-and-place para alinear la percepción espacial con la selección espacial de acciones.",
zh = "一种动作表示方法,策略在俯视图或图像地图上输出每像素的密集得分,指示在场景中何处执行动作,常用于移动操作和拾取放置任务,使空间感知与空间动作选择保持一致。",
article = nil,
}
data["spatial affordance"] = {
short = "The set of locations in 3D space or on an object surface where a given action — grasp, push, pour, place — can succeed, often predicted as a heatmap from RGB-D input to guide manipulation policies.",
es = "Conjunto de ubicaciones en el espacio 3D o sobre la superficie de un objeto donde una acción dada (agarrar, empujar, verter, colocar) puede tener éxito; suele predecirse como un mapa de calor a partir de entradas RGB-D para guiar políticas de manipulación.",
zh = "在三维空间或物体表面上某一给定动作(抓取、推动、倾倒、放置)能够成功执行的位置集合,通常以热力图形式从 RGB-D 输入中预测,用于引导操作策略。",
article = nil,
}
data["spatial attribution"] = {
short = "Feature-attribution methods specialized to image, volumetric, or other spatially structured inputs that produce attribution maps over pixels, voxels, or regions, typically visualized as heatmaps overlaid on the input.",
es = "Métodos de atribución de características especializados en entradas con estructura espacial (imágenes, volúmenes u otras) que producen mapas de atribución sobre píxeles, vóxeles o regiones, visualizados habitualmente como mapas de calor superpuestos a la entrada.",
zh = "针对图像、体数据或其他具有空间结构输入的特征归因方法,生成关于像素、体素或区域的归因图,通常以热力图形式叠加在输入之上。",
article = nil,
}
data["spatial deconvolution"] = {
short = "Computational inference of cell-type composition within each spot or region of a spatial transcriptomics dataset, typically by leveraging a single-cell RNA-seq reference. Methods include cell2location, RCTD, and SpatialDWLS.",
es = "Inferencia computacional de la composición de tipos celulares dentro de cada punto o región de un conjunto de datos de transcriptómica espacial, normalmente apoyándose en una referencia de RNA-seq de célula única. Los métodos incluyen cell2location, RCTD y SpatialDWLS.",
zh = "在空间转录组学数据中对每个点或区域的细胞类型组成进行计算推断,通常借助单细胞 RNA-seq 参考。常用方法包括 cell2location、RCTD 和 SpatialDWLS。",
article = nil,
}
data["spatial dropout"] = {
short = "A variant of dropout for convolutional networks that drops entire feature-map channels rather than independent activations, which better matches the spatial correlation between adjacent pixels.",
es = "Variante del dropout para redes convolucionales que descarta canales completos de mapas de características en lugar de activaciones independientes, lo que se ajusta mejor a la correlación espacial entre píxeles vecinos.",
zh = "Dropout 在卷积网络中的一种变体,丢弃整个特征图通道而非独立激活,更适合相邻像素之间的空间相关性。",
article = nil,
}
data["spatial mc dropout"] = {
short = "A variant of Monte Carlo dropout for convolutional networks in which entire feature-map channels are dropped at test time (instead of independent activations), preserving spatial coherence while sampling from an approximate posterior over weights.",
es = "Variante del Monte Carlo dropout para redes convolucionales en la que se descartan canales completos de los mapas de características en tiempo de inferencia (en lugar de activaciones independientes), preservando la coherencia espacial al muestrear de una posterior aproximada sobre los pesos.",
zh = "面向卷积网络的蒙特卡洛 Dropout 变体:推断时按整个特征图通道丢弃(而非独立激活),在从近似权重后验中采样时保持空间一致性。",
article = nil,
}
data["spatial reasoning vqa"] = {
short = "A class of visual question answering tasks that probe a model's understanding of spatial relations between objects, such as left/right, above/below, distance, containment, and orientation in an image or scene.",
es = "Conjunto de tareas de respuesta a preguntas visuales que evalúan la comprensión de relaciones espaciales entre objetos, como izquierda/derecha, encima/debajo, distancia, contención u orientación en una imagen o escena.",
zh = "一类视觉问答任务,用于检验模型对图像或场景中物体之间空间关系(如左右、上下、距离、包含、朝向等)的理解能力。",
article = nil,
}
data["spatial transcriptomics"] = {
short = "A class of technologies (e.g., Visium, Slide-seq, MERFISH, Stereo-seq) that measure gene expression while preserving the two-dimensional position of each readout within a tissue section, enabling tissue-architecture-aware analyses.",
es = "Conjunto de tecnologías (p. ej., Visium, Slide-seq, MERFISH, Stereo-seq) que miden la expresión génica preservando la posición bidimensional de cada lectura dentro de una sección de tejido, permitiendo análisis que tienen en cuenta la arquitectura del tejido.",
zh = "一类在保持组织切片中每个测量点二维空间位置的同时测定基因表达的技术(例如 Visium、Slide-seq、MERFISH、Stereo-seq),可在保留组织结构信息的前提下进行分析。",
article = nil,
}
data["spatial-temporal attention"] = {
short = "An attention mechanism that computes weights jointly or sequentially across spatial locations and time steps, used in models that ingest multivariate or geographically distributed time series.",
es = "Mecanismo de atención que calcula pesos de forma conjunta o secuencial sobre ubicaciones espaciales y pasos temporales, utilizado en modelos que procesan series temporales multivariadas o distribuidas geográficamente.",
zh = "一种在空间位置和时间步上联合或顺序计算权重的注意力机制,用于处理多变量或地理分布时间序列的模型。",
article = nil,
}
data["spatio-temporal graph neural network"] = {
short = "A graph neural network designed to forecast or classify time series defined on graph nodes, alternating spatial graph convolutions with temporal operators such as recurrence, dilated convolutions, or attention.",
es = "Red neuronal de grafos diseñada para pronosticar o clasificar series temporales definidas en nodos de un grafo, alternando convoluciones espaciales en el grafo con operadores temporales como recurrencia, convoluciones dilatadas o atención.",
zh = "一种用于在图节点上预测或分类时间序列的图神经网络,将图上的空间卷积与循环、膨胀卷积或注意力等时间算子交替使用。",
article = nil,
}
data["spatiotemporal forecasting"] = {
short = "Predicting future values of variables that are jointly indexed by space and time, such as traffic speeds across a road network or weather fields across a geographic grid.",
es = "Predicción de valores futuros de variables indexadas conjuntamente por espacio y tiempo, como las velocidades de tráfico en una red vial o los campos meteorológicos en una rejilla geográfica.",
zh = "对同时按空间和时间索引的变量未来值进行预测,例如路网上的交通速度或地理网格上的气象场。",
article = nil,
}
data["spc water"] = {
short = "Simple Point Charge water: a rigid three-site classical water model placing partial charges on the oxygen and two hydrogens with fixed bond geometry, widely used in biomolecular molecular dynamics simulations.",
es = "Agua de Cargas Puntuales Simples (SPC): modelo clásico rígido de agua de tres sitios que coloca cargas parciales en el oxígeno y los dos hidrógenos con geometría de enlace fija, ampliamente utilizado en simulaciones de dinámica molecular biomolecular.",
zh = "SPC(简单点电荷)水模型:一种刚性三位点经典水模型,在氧原子和两个氢原子上放置部分电荷并采用固定键合几何,广泛用于生物分子动力学模拟。",
article = nil,
}
data["speaker adaptation"] = {
short = "Techniques that specialize a generic speech model (typically ASR or TTS) to a particular speaker using a limited amount of that speaker's data, via methods such as fine-tuning, speaker embeddings, or adapter modules.",
es = "Técnicas que especializan un modelo genérico de voz (normalmente ASR o TTS) a un hablante concreto utilizando una cantidad limitada de datos de ese hablante, mediante métodos como el ajuste fino, los embeddings de hablante o módulos adaptadores.",
zh = "用少量目标说话人的数据,将通用语音模型(通常是 ASR 或 TTS)专门化到该说话人的技术,常用方法包括微调、说话人嵌入或适配器模块。",
article = nil,
}
data["speaker diarization"] = {
short = "The task of partitioning an audio recording into homogeneous segments labelled by speaker identity, answering the question \"who spoke when\" without prior knowledge of the participants.",
es = "Tarea de segmentar una grabación de audio en tramos homogéneos etiquetados por la identidad del hablante, respondiendo a la pregunta de quién habló y cuándo sin conocer previamente a los participantes.",
zh = "将音频录音分割成按说话人身份标注的同质片段,在没有参与者先验信息的情况下回答“谁在何时说话”的任务。",
article = nil,
}
data["speaker embedding"] = {
short = "A fixed-dimensional vector that summarizes the voice characteristics of a speaker, learned so that utterances from the same person map to nearby points and from different people to distant points.",
es = "Vector de dimensión fija que resume las características vocales de un hablante, aprendido de modo que los enunciados de la misma persona se mapean a puntos cercanos y los de personas distintas a puntos lejanos.",
zh = "总结说话人嗓音特征的固定维度向量,其学习目标是让同一人的语音映射到相近点、不同人的语音映射到相距较远的点。",
article = nil,
}
data["speaker identification"] = {
short = "The task of determining which speaker, from a known closed set of enrolled identities, produced a given utterance, typically by comparing speaker embeddings or scoring against per-speaker models.",
es = "Tarea de determinar qué hablante, de un conjunto cerrado de identidades registradas, produjo un enunciado dado, normalmente comparando embeddings de hablante o puntuando contra modelos por hablante.",
zh = "在已知封闭集合的注册说话人中,判断给定语音由哪一位说话人产生的任务,通常通过比较说话人嵌入或对每位说话人模型打分实现。",
article = nil,
}
data["speaker recognition"] = {
short = "An umbrella term covering both speaker identification (1:N) and speaker verification (1:1) tasks, in which a system characterizes voices in order to associate utterances with speaker identities.",
es = "Término general que abarca tanto la identificación de hablantes (1:N) como la verificación de hablantes (1:1), en el que un sistema caracteriza voces para asociar enunciados con identidades de hablantes.",
zh = "涵盖说话人辨认(1:N)和说话人验证(1:1)两类任务的总称,系统通过刻画嗓音特征将语音与说话人身份关联。",
article = nil,
}
data["speaker similarity score"] = {
short = "A scalar measure of how similar two voices are, typically computed as the cosine similarity or PLDA score between two speaker embeddings and used as the decision statistic in verification.",
es = "Medida escalar de cuán similares son dos voces, típicamente calculada como similitud del coseno o puntuación PLDA entre dos embeddings de hablante, y usada como estadístico de decisión en verificación.",
zh = "衡量两段嗓音相似程度的标量,通常通过两个说话人嵌入之间的余弦相似度或 PLDA 分数计算,并作为验证任务的判决统计量。",
article = nil,
}
data["speaker verification"] = {
short = "A binary 1:1 decision task that determines whether a test utterance was produced by a claimed speaker, typically by thresholding a similarity score between the test embedding and an enrolment embedding.",
es = "Tarea binaria de decisión 1:1 que determina si un enunciado de prueba fue producido por el hablante que se reclama, normalmente comparando con un umbral una puntuación de similitud entre el embedding de prueba y el de registro.",
zh = "二元 1:1 判决任务,判断测试语音是否由所声称的说话人产生,通常通过对测试嵌入与注册嵌入之间的相似度分数设阈值来决定。",
article = nil,
}
data["speakerbeam"] = {
short = "A target-speaker extraction neural network from NTT that conditions a speech-separation backbone on a short reference utterance of the desired speaker, isolating that speaker from a mixture.",
es = "Red neuronal de extracción de hablante objetivo desarrollada por NTT que condiciona una arquitectura de separación de voz con un breve enunciado de referencia del hablante deseado, aislándolo de una mezcla.",
zh = "由 NTT 提出的目标说话人提取神经网络,使用目标说话人的一段简短参考语音对语音分离主干进行条件控制,从混合音频中分离出该说话人。",
article = nil,
}
data["spear-tts"] = {
short = "A multi-stage text-to-speech system from Google that maps text to semantic tokens and then to acoustic tokens via discrete-token language models, requiring only a small amount of paired text-speech data.",
es = "Sistema de síntesis de voz multietapa de Google que primero mapea texto a tokens semánticos y luego a tokens acústicos mediante modelos de lenguaje sobre tokens discretos, requiriendo muy pocos datos pareados de texto y voz.",
zh = "Google 提出的多阶段文本转语音系统,先将文本映射到语义 token,再通过基于离散 token 的语言模型映射到声学 token,只需要少量文本-语音配对数据。",
article = nil,
}
data["spearman correlation"] = {
short = "A nonparametric rank-based statistic that measures the strength of a monotonic relationship between two variables. In NAS and AutoML it is widely used to score how well a cheap predictor's ranking matches ground-truth performance.",
es = "Estadístico no paramétrico basado en rangos que mide la fuerza de la relación monótona entre dos variables. En NAS y AutoML se utiliza ampliamente para evaluar qué tan bien el ordenamiento de un predictor barato coincide con el rendimiento real.",
zh = "一种基于秩的非参数相关性统计量,用于度量两个变量之间单调关系的强度。在 NAS 和 AutoML 中常用于衡量廉价预测器给出的排序与真实性能排序的吻合程度。",
article = nil,
}
data["spearmint"] = {
short = "An open-source Bayesian optimization package for hyperparameter tuning that uses Gaussian process surrogates and acquisition functions such as expected improvement. Notable as one of the early reference implementations in the BO literature.",
es = "Paquete de código abierto para optimización bayesiana orientado al ajuste de hiperparámetros, que utiliza procesos gaussianos como modelo sustituto y funciones de adquisición como la mejora esperada. Es una de las primeras implementaciones de referencia en la literatura de BO.",
zh = "用于超参数调优的开源贝叶斯优化软件包,采用高斯过程作为代理模型,并使用诸如期望改进等采集函数,是贝叶斯优化文献中的早期参考实现之一。",
article = nil,
}
data["specaugment"] = {
short = "A simple, on-the-fly data augmentation method for speech recognition that masks contiguous blocks of time steps and frequency channels in the log-mel spectrogram, plus optional time warping.",
es = "Método sencillo de aumento de datos en línea para el reconocimiento de voz que enmascara bloques contiguos de pasos de tiempo y canales de frecuencia en el espectrograma log-mel, con un alabeo temporal opcional.",
zh = "一种简单的语音识别在线数据增强方法,通过对 log-mel 频谱图遮蔽连续的时间步和频率通道块,并可选地进行时间扭曲。",
article = nil,
}
data["special orthogonal group"] = {
short = "The Lie group SO(n) of n×n orthogonal matrices with determinant one, representing orientation-preserving rotations of n-dimensional Euclidean space.",
es = "Grupo de Lie SO(n) de las matrices ortogonales n×n con determinante uno, que representa las rotaciones del espacio euclidiano n-dimensional que preservan la orientación.",
zh = "李群SO(n),由行列式为1的n×n正交矩阵构成,表示保持定向的n维欧几里得空间旋转变换。",
article = nil,
}
data["special unitary group"] = {
short = "The Lie group SU(n) of n×n complex unitary matrices with determinant one; central in quantum mechanics and gauge theory, with SU(2) and SU(3) describing weak and strong interactions.",
es = "Grupo de Lie SU(n) de las matrices unitarias complejas n×n con determinante uno; fundamental en mecánica cuántica y teoría de gauge, donde SU(2) y SU(3) describen las interacciones débil y fuerte.",
zh = "李群SU(n),由行列式为1的n×n复酉矩阵构成;在量子力学和规范理论中至关重要,其中SU(2)和SU(3)分别描述弱相互作用与强相互作用。",
article = nil,
}
data["specific evidence"] = {
short = "Evidence in a probabilistic graphical model that fixes a variable to a particular observed value, contrasted with soft or virtual evidence that gives only a likelihood ratio.",
es = "Evidencia en un modelo gráfico probabilístico que fija una variable a un valor observado concreto, en contraste con la evidencia blanda o virtual, que solo proporciona una razón de verosimilitud.",
zh = "概率图模型中将变量固定为某一具体观测值的证据,与仅给出似然比的软证据或虚拟证据相对。",
article = nil,
}
data["specification gaming"] = {
short = "An AI safety failure mode in which an agent achieves the literal objective specified by its reward or evaluation while violating the designer's intent, also known as reward hacking or Goodharting.",
es = "Modo de fallo en seguridad de IA en el que un agente logra cumplir literalmente el objetivo especificado por su recompensa o evaluación mientras infringe la intención de los diseñadores; también conocido como reward hacking o efecto Goodhart.",
zh = "一种AI安全失效模式,指智能体在字面上达成了奖励或评估所指定的目标,却违背了设计者的真实意图,也称为奖励黑客或Goodhart现象。",
article = nil,
}
data["specificity"] = {
short = "Fraction of actual negatives correctly classified as negative, TN/(TN+FP). Also called the true negative rate; complements the false positive rate (FPR = 1 − specificity).",
es = "Fracción de negativos reales clasificados correctamente como negativos, TN/(TN+FP). También se denomina tasa de verdaderos negativos y complementa la tasa de falsos positivos (FPR = 1 − especificidad).",
zh = "真实负样本中被正确判为负的比例,TN/(TN+FP)。又称真阴性率,与假阳性率互补(FPR = 1 − 特异度)。",
article = nil,
}
data["spectral anomaly defense"] = {
short = "A defense against poisoning and backdoor attacks in (federated) learning that uses spectral analysis—typically the singular value decomposition of the matrix of client updates or hidden representations—to flag and remove updates with anomalously large projections onto the top singular directions.",
es = "Defensa contra ataques de envenenamiento y de puerta trasera en aprendizaje (federado) que utiliza análisis espectral —típicamente la descomposición en valores singulares de la matriz de actualizaciones de clientes o de representaciones ocultas— para señalar y eliminar actualizaciones con proyecciones anómalamente grandes sobre las direcciones singulares principales.",
zh = "一种针对(联邦)学习中投毒和后门攻击的防御方法,利用谱分析——通常是对客户端更新矩阵或隐藏表示矩阵进行奇异值分解——标记并移除在前几个奇异方向上投影异常大的更新。",
article = nil,
}
data["spectral centroid"] = {
short = "The amplitude-weighted mean frequency of a short-term spectrum, often used as a perceptual proxy for the brightness or sharpness of a sound.",
es = "Frecuencia media de un espectro a corto plazo ponderada por la amplitud, usada a menudo como aproximación perceptual del brillo o agudeza de un sonido.",
zh = "短时频谱按幅值加权的平均频率,常作为声音明亮度或锐度的感知近似指标。",
article = nil,
}
data["spectral coherence"] = {
short = "A frequency-domain measure of the linear relationship between two time series, defined as the squared magnitude of their cross-spectrum normalized by the product of their power spectral densities; it ranges from 0 to 1.",
es = "Medida en el dominio de la frecuencia de la relación lineal entre dos series temporales, definida como el módulo al cuadrado del espectro cruzado normalizado por el producto de sus densidades espectrales de potencia; varía entre 0 y 1.",
zh = "在频域中度量两条时间序列线性相关程度的指标,定义为互谱幅值平方除以各自功率谱密度的乘积,取值范围为 0 到 1。",
article = nil,
}
data["spectral contrast"] = {
short = "An audio feature that measures, for each subband, the level difference between spectral peaks and spectral valleys, capturing the harmonic-versus-noise structure of a signal.",
es = "Característica de audio que mide, para cada subbanda, la diferencia de nivel entre los picos y los valles espectrales, capturando la estructura armónica frente al ruido de una señal.",
zh = "一种音频特征,针对每个子带衡量频谱峰值与谷值之间的电平差,刻画信号的谐波与噪声结构。",
article = nil,
}
data["spectral density"] = {
short = "The function that describes how the variance of a stationary stochastic process is distributed across frequencies; equivalently, the Fourier transform of its autocovariance function.",
es = "Función que describe cómo se distribuye la varianza de un proceso estocástico estacionario entre las frecuencias; equivale a la transformada de Fourier de su función de autocovarianza.",
zh = "描述平稳随机过程方差在各频率上分布的函数,等价于其自协方差函数的傅里叶变换。",
article = nil,
}
data["spectral flatness"] = {
short = "The ratio of the geometric to the arithmetic mean of a power spectrum, ranging between 0 and 1 and indicating how noise-like (close to 1) or tone-like (close to 0) a signal is.",
es = "Cociente entre la media geométrica y la media aritmética de un espectro de potencia; varía entre 0 y 1 e indica cuán similar al ruido (cercano a 1) o a un tono (cercano a 0) es una señal.",
zh = "功率谱几何均值与算术均值之比,取值在 0 到 1 之间,表示信号更像噪声(接近 1)还是更像纯音(接近 0)。",
article = nil,
}
data["spectral flux"] = {
short = "A frame-level audio feature that quantifies how rapidly the magnitude spectrum changes between consecutive short-time frames, widely used for onset and beat detection.",
es = "Característica de audio a nivel de marco que cuantifica con qué rapidez cambia el espectro de magnitud entre marcos consecutivos a corto plazo, muy usada para la detección de ataques y pulsos.",
zh = "逐帧的音频特征,衡量相邻短时帧间幅度谱的变化速度,被广泛用于音符起始点和节拍检测。",
article = nil,
}
data["spectral gap"] = {
short = "The difference between the two largest eigenvalues (in modulus) of a linear operator or matrix, controlling mixing rates of Markov chains, expansion of graphs, and convergence of iterative methods.",
es = "Diferencia entre los dos mayores valores propios (en módulo) de un operador lineal o matriz, que controla la velocidad de mezcla de cadenas de Markov, la expansión de grafos y la convergencia de métodos iterativos.",
zh = "线性算子或矩阵的最大与第二大(按模)特征值之间的差,控制马尔可夫链的混合速度、图的扩张性以及迭代方法的收敛速率。",
article = nil,
}
data["spectral graph theory"] = {
short = "The study of properties of graphs through the eigenvalues and eigenvectors of associated matrices such as the adjacency matrix and the graph Laplacian.",
es = "Estudio de las propiedades de los grafos mediante los valores y vectores propios de matrices asociadas, como la matriz de adyacencia y el laplaciano del grafo.",
zh = "通过研究图的相关矩阵(如邻接矩阵和图拉普拉斯矩阵)的特征值与特征向量来分析图性质的理论。",
article = nil,
}
data["spectral library"] = {
short = "A curated collection of reference mass spectra — typically peptide MS/MS spectra annotated with sequence, charge, and retention time — used for identification in DIA proteomics and metabolomics by matching observed spectra to library entries.",
es = "Colección curada de espectros de masas de referencia — normalmente espectros MS/MS de péptidos anotados con secuencia, carga y tiempo de retención — utilizada para la identificación en proteómica DIA y metabolómica al comparar los espectros observados con las entradas de la biblioteca.",
zh = "经过精挑细选的参考质谱集合——通常为带有序列、电荷和保留时间注释的肽段 MS/MS 谱图——通过将实测谱图与库条目匹配,用于 DIA 蛋白质组学和代谢组学中的鉴定。",
article = nil,
}
data["spectral method"] = {
short = "A class of numerical techniques that approximates solutions of differential equations or eigenvalue problems by expanding them in a basis of globally smooth functions, typically Fourier modes or orthogonal polynomials.",
es = "Clase de técnicas numéricas que aproximan soluciones de ecuaciones diferenciales o problemas de valores propios desarrollándolas en una base de funciones globalmente suaves, típicamente modos de Fourier o polinomios ortogonales.",
zh = "一类数值方法,将微分方程或特征值问题的解展开为全局光滑函数(通常是傅里叶模式或正交多项式)的级数来求近似。",
article = nil,
}
data["spectral mixture kernel"] = {
short = "A flexible stationary Gaussian-process kernel (Wilson & Adams, 2013) constructed as a mixture of Gaussians in the frequency domain, capable of expressing quasi-periodic and long-range correlations not captured by standard RBF or Matérn kernels.",
es = "Núcleo gaussiano estacionario flexible (Wilson y Adams, 2013) construido como una mezcla de gaussianas en el dominio de la frecuencia, capaz de expresar correlaciones cuasi-periódicas y de largo alcance no capturadas por núcleos RBF o Matérn estándar.",
zh = "一种灵活的平稳高斯过程核(Wilson 和 Adams,2013),在频域上构造为高斯混合,可表达 RBF 或 Matérn 核难以捕捉的准周期和长程相关性。",
article = nil,
}
data["spectral norm"] = {
short = "The matrix norm equal to the largest singular value of a matrix, ||A||_2 = σ_max(A). Equivalently the operator norm induced by the Euclidean vector norm; bounds how much A can stretch any unit vector.",
es = "Norma matricial igual al mayor valor singular de una matriz, ||A||_2 = σ_max(A). Equivalentemente, la norma de operador inducida por la norma vectorial euclidiana; acota cuánto puede A estirar un vector unitario.",
zh = "矩阵范数,等于矩阵的最大奇异值,||A||_2 = σ_max(A)。等价于由欧几里得向量范数诱导的算子范数;用于刻画 A 可将单位向量拉伸的最大幅度。",
article = nil,
}
data["spectral normalization"] = {
short = "Constrains a layer's largest singular value (spectral norm) to a fixed value, typically 1, by dividing weights by an estimate of it. Used to stabilize GAN training.",
es = "Restringe el valor singular máximo (norma espectral) de una capa a un valor fijo, normalmente 1, dividiendo los pesos por su estimación. Se usa para estabilizar el entrenamiento de GAN.",
zh = "将层的最大奇异值(谱范数)约束为固定值(通常为 1),方法是把权重除以其估计值。常用于稳定 GAN 训练。",
article = nil,
}
data["spectral normalization gan"] = {
short = "A GAN regularization (Miyato et al., 2018) that constrains the discriminator to be 1-Lipschitz by dividing each weight matrix by its largest singular value, estimated cheaply via power iteration; it stabilizes training without tuning hyperparameters per dataset.",
es = "Regularización para GAN (Miyato et al., 2018) que restringe al discriminador a ser 1-Lipschitz dividiendo cada matriz de pesos por su mayor valor singular, estimado de forma económica mediante iteración de potencia; estabiliza el entrenamiento sin necesidad de ajustar hiperparámetros por conjunto de datos.",
zh = "Miyato 等人于 2018 年提出的 GAN 正则化方法:通过将每个权重矩阵除以其最大奇异值(用幂迭代廉价估计)来约束判别器满足 1-Lipschitz 条件,从而稳定训练且无需为不同数据集调参。",
article = nil,
}
data["spectral normalized neural gp"] = {
short = "A deterministic uncertainty method (Liu et al., 2020) that combines spectral normalization on hidden layers with a Gaussian-process output layer, yielding a single network whose uncertainty estimates approximate those of a deep kernel GP.",
es = "Método de cuantificación de incertidumbre determinista (Liu et al., 2020) que combina normalización espectral en las capas ocultas con una capa de salida de proceso gaussiano, produciendo una única red cuyas estimaciones de incertidumbre aproximan las de un GP de núcleo profundo.",
zh = "一种确定性不确定性方法(Liu 等,2020),在隐藏层使用谱归一化并配以高斯过程输出层,得到单一网络,其不确定性估计接近深度核高斯过程。",
article = nil,
}
data["spectral residual anomaly detection"] = {
short = "An anomaly detection method that converts a time series to its log-amplitude Fourier spectrum, subtracts a smoothed version of that spectrum to obtain the spectral residual, and inverts back to flag points with unusually high saliency.",
es = "Método de detección de anomalías que convierte una serie temporal a su espectro de Fourier en log-amplitud, le resta una versión suavizada para obtener el residuo espectral y lo invierte de vuelta para señalar puntos con saliencia inusualmente alta.",
zh = "一种异常检测方法:先将时间序列转换为对数幅值的傅里叶谱,再减去其平滑版本得到谱残差,最后反变换回时域以标记显著性异常高的点。",
article = nil,
}
data["spectral rolloff"] = {
short = "The frequency below which a specified fraction (commonly 85% or 95%) of the total spectral energy of a frame is contained, used as a proxy for the upper edge of the signal's frequency content.",
es = "Frecuencia por debajo de la cual se concentra una fracción específica (habitualmente el 85% o el 95%) de la energía espectral total de un marco; usada como aproximación al borde superior del contenido frecuencial.",
zh = "一帧总频谱能量中特定比例(常用 85% 或 95%)所对应的截止频率,用作信号频率成分上界的近似指标。",
article = nil,
}
data["spectral subtraction"] = {
short = "A classical single-channel speech enhancement technique that estimates the noise magnitude spectrum during non-speech intervals and subtracts it from the noisy signal's magnitude spectrum to recover clean speech.",
es = "Técnica clásica de mejora de voz monocanal que estima el espectro de magnitud del ruido durante los intervalos sin voz y lo resta del espectro de magnitud de la señal ruidosa para recuperar la voz limpia.",
zh = "一种经典的单通道语音增强技术,在非语音段估计噪声幅度谱,再从含噪信号的幅度谱中减去该估计以恢复干净语音。",
article = nil,
}
data["spectral theorem"] = {
short = "A fundamental result stating that every self-adjoint (or normal) operator on a Hilbert space admits an orthonormal basis of eigenvectors, equivalently a diagonalization in terms of its spectrum.",
es = "Resultado fundamental que afirma que todo operador autoadjunto (o normal) en un espacio de Hilbert admite una base ortonormal de vectores propios, equivalentemente una diagonalización en términos de su espectro.",
zh = "基础定理,指出希尔伯特空间上的每个自伴(或正规)算子都存在一组特征向量构成的标准正交基,等价于按其谱进行对角化。",
article = nil,
}
data["spectrogram"] = {
short = "A two-dimensional representation showing how the spectral content of a signal evolves over time, typically computed as the squared magnitude of the short-time Fourier transform.",
es = "Representación bidimensional que muestra cómo evoluciona el contenido espectral de una señal a lo largo del tiempo, normalmente calculada como el módulo al cuadrado de la transformada de Fourier de tiempo corto.",
zh = "一种二维表示,展示信号的频谱内容随时间的变化,通常由短时傅里叶变换的幅值平方计算得到。",
article = nil,
}
data["spectrum of operator"] = {
short = "The set of complex numbers λ for which the operator T − λI fails to have a bounded inverse; generalizes the notion of eigenvalues to infinite-dimensional linear operators.",
es = "Conjunto de números complejos λ para los que el operador T − λI no admite inverso acotado; generaliza la noción de valores propios a operadores lineales en dimensión infinita.",
zh = "使算子T − λI不存在有界逆的复数λ的集合;将特征值的概念推广到无穷维线性算子。",
article = nil,
}
data["speculative decoding"] = {
short = "An inference acceleration technique in which a small, fast draft model proposes several future tokens that a larger target model verifies in parallel, accepting the longest correct prefix. It reduces wall-clock latency without changing the target model's output distribution.",
es = "Técnica de aceleración de inferencia en la que un modelo borrador pequeño y rápido propone varios tokens futuros que un modelo objetivo de mayor tamaño verifica en paralelo, aceptando el prefijo correcto más largo. Reduce la latencia sin alterar la distribución de salida del modelo objetivo.",
zh = "一种推理加速技术:由小而快的草稿模型预测若干个后续 token,再由大模型并行校验,接受最长的正确前缀。可在不改变目标模型输出分布的前提下降低生成延迟。",
article = nil,
}
data["speech bandwidth extension"] = {
short = "The task of reconstructing high-frequency content of speech that has been low-pass filtered or downsampled, typically extending narrowband (8 kHz) audio to wideband (16 kHz) or beyond using neural or signal-processing models.",
es = "Tarea de reconstruir el contenido de alta frecuencia de la voz que ha sido filtrada paso-bajo o submuestreada, extendiendo típicamente audio de banda estrecha (8 kHz) a banda ancha (16 kHz) o más mediante modelos neuronales o de procesamiento de señal.",
zh = "重建被低通滤波或降采样后语音中高频内容的任务,通常使用神经网络或信号处理模型将窄带(8 kHz)音频扩展到宽带(16 kHz)或更高带宽。",
article = nil,
}
data["speech contrastive learning"] = {
short = "A family of self-supervised learning methods for speech that pull representations of related audio segments (e.g., neighbouring or augmented views) together while pushing apart representations of unrelated segments.",
es = "Familia de métodos de aprendizaje autosupervisado para voz que acercan las representaciones de segmentos de audio relacionados (por ejemplo, vecinos o vistas aumentadas) y alejan las de segmentos no relacionados.",
zh = "面向语音的一类自监督学习方法,将相关音频片段(如相邻片段或同一片段的不同增强视图)的表征拉近,同时将无关片段的表征推开。",
article = nil,
}
data["speech editing"] = {
short = "The task of modifying the linguistic content of a recorded utterance — for example inserting, deleting, or replacing words — while preserving the original speaker's voice, prosody, and acoustic conditions.",
es = "Tarea de modificar el contenido lingüístico de un enunciado grabado —por ejemplo insertando, eliminando o sustituyendo palabras— preservando la voz, la prosodia y las condiciones acústicas del hablante original.",
zh = "修改已录制语音的语言内容(如插入、删除或替换词语)的任务,同时保持原始说话人的嗓音、韵律和声学环境不变。",
article = nil,
}
data["speech enhancement"] = {
short = "The task of improving the perceptual quality and intelligibility of a noisy or degraded speech signal by suppressing background noise, reverberation, and distortions while preserving the clean speech component.",
es = "Tarea de mejorar la calidad perceptual y la inteligibilidad de una señal de voz ruidosa o degradada suprimiendo ruido de fondo, reverberación y distorsiones mientras se preserva la componente de voz limpia.",
zh = "通过抑制背景噪声、混响和失真同时保留干净语音成分,提升噪声或受损语音信号的感知质量和可懂度的任务。",
article = nil,
}
data["speech foundation model"] = {
short = "A large self-supervised or weakly supervised model pretrained on broad speech corpora that produces general-purpose representations or capabilities transferable to many downstream speech tasks such as ASR, TTS, and speaker tasks.",
es = "Modelo de gran escala, autosupervisado o débilmente supervisado, preentrenado sobre corpus amplios de voz que produce representaciones o capacidades de propósito general transferibles a numerosas tareas posteriores como ASR, TTS y tareas de hablante.",
zh = "在大规模语音语料上以自监督或弱监督方式预训练的大型模型,可生成通用表征或能力,并可迁移到 ASR、TTS、说话人相关等众多下游语音任务。",
article = nil,
}
data["speech inpainting"] = {
short = "The task of reconstructing missing or corrupted segments of a speech signal — typically gaps of tens to hundreds of milliseconds — using surrounding acoustic context, often with neural generative models.",
es = "Tarea de reconstruir segmentos perdidos o corruptos de una señal de voz —típicamente huecos de decenas a cientos de milisegundos— a partir del contexto acústico circundante, a menudo con modelos generativos neuronales.",
zh = "利用周围声学上下文重建语音信号中缺失或受损片段(通常为数十至数百毫秒间隔)的任务,常借助神经生成模型完成。",
article = nil,
}
data["speech moco"] = {
short = "An adaptation of the Momentum Contrast (MoCo) self-supervised learning framework to speech, in which a momentum-updated encoder and a queue of negatives are used to learn frame- or utterance-level representations.",
es = "Adaptación del marco de aprendizaje autosupervisado Momentum Contrast (MoCo) a la voz, en la que se utilizan un codificador actualizado por momento y una cola de negativos para aprender representaciones a nivel de marco o de enunciado.",
zh = "将自监督学习框架 Momentum Contrast(MoCo)适配到语音的版本,使用动量更新的编码器和负样本队列来学习帧级或语句级语音表征。",
article = nil,
}
data["speech recognition bias"] = {
short = "Disparity in automatic speech recognition accuracy across speakers, where word error rates are higher for speakers with non-mainstream accents, dialects, or demographic characteristics. Documented across commercial and open-source ASR systems.",
es = "Disparidad en la precisión del reconocimiento automático del habla entre hablantes: las tasas de error de palabra son mayores para hablantes con acentos, dialectos o características demográficas no dominantes. Documentada tanto en sistemas comerciales como de código abierto.",
zh = "自动语音识别在不同说话人之间的准确度差异:对非主流口音、方言或某些人口学特征的说话人,词错误率显著更高。商业与开源 ASR 系统均有记录。",
article = nil,
}
data["speech separation"] = {
short = "The task of recovering individual speakers' clean signals from a mixture in which they overlap, often referred to as the cocktail-party problem and addressed today with masking-based or end-to-end neural networks.",
es = "Tarea de recuperar las señales limpias de cada hablante a partir de una mezcla en la que se solapan, conocida como el problema del cóctel y abordada hoy mediante redes neuronales basadas en máscaras o de extremo a extremo.",
zh = "从多位说话人重叠的混合语音中分别恢复出每个说话人干净信号的任务,常被称为鸡尾酒会问题,目前主要采用基于掩码或端到端神经网络方法解决。",
article = nil,
}
data["speech simclr"] = {
short = "An adaptation of the SimCLR contrastive self-supervised framework to speech, in which two augmented views of the same audio segment are pulled together in embedding space while views from other segments are pushed apart.",
es = "Adaptación del marco contrastivo autosupervisado SimCLR a la voz, en la que dos vistas aumentadas del mismo segmento de audio se acercan en el espacio de embedding mientras que las vistas de otros segmentos se alejan.",
zh = "将对比自监督框架 SimCLR 适配到语音,使同一段音频的两个增强视图在嵌入空间中靠近、而来自其他片段的视图被推远。",
article = nil,
}
data["speech synthesis"] = {
short = "The artificial generation of human-sounding speech from an input such as text, phonemes, or another speech signal, traditionally rule- and concatenation-based and now dominated by neural text-to-speech systems.",
es = "Generación artificial de voz que suena humana a partir de una entrada como texto, fonemas u otra señal de voz; tradicionalmente basada en reglas y concatenación, hoy dominada por sistemas neuronales de síntesis a partir de texto.",
zh = "从文本、音素或其他语音信号等输入人工生成类人语音的过程,传统上基于规则和拼接,如今由神经文本转语音系统主导。",
article = nil,
}
data["speech synthesis markup language"] = {
short = "An XML-based standard, SSML, that lets text-to-speech engines be controlled at fine granularity through tags for pronunciation, prosody, breaks, voice selection, and audio embedding.",
es = "Estándar basado en XML, SSML, que permite controlar de forma detallada los motores de síntesis de voz mediante etiquetas para pronunciación, prosodia, pausas, selección de voz e incrustación de audio.",
zh = "基于 XML 的标准 SSML,通过用于发音、韵律、停顿、嗓音选择和音频嵌入的标签精细控制文本转语音引擎。",
article = nil,
}
data["speech tokenizer"] = {
short = "A model that maps a continuous speech waveform or its features into a sequence of discrete tokens, enabling speech to be modelled with language-model architectures; examples include HuBERT, EnCodec, and SoundStream codecs.",
es = "Modelo que mapea una forma de onda continua de voz o sus características a una secuencia de tokens discretos, permitiendo modelar la voz con arquitecturas de modelos de lenguaje; ejemplos incluyen HuBERT, EnCodec y SoundStream.",
zh = "将连续语音波形或其特征映射为离散 token 序列的模型,使语音可以用语言模型架构建模;典型例子包括 HuBERT、EnCodec 和 SoundStream。",
article = nil,
}
data["speech translation"] = {
short = "The task of converting spoken input in one language into text or speech in another language, traditionally implemented as an ASR-plus-MT cascade and increasingly addressed with end-to-end neural models.",
es = "Tarea de convertir una entrada hablada en un idioma en texto o voz en otro idioma, tradicionalmente implementada como una cascada ASR + traducción automática y cada vez más abordada con modelos neuronales de extremo a extremo.",
zh = "将一种语言的口语输入转换为另一种语言的文本或语音的任务,传统上由 ASR 加机器翻译级联实现,如今越来越多地使用端到端神经模型。",
article = nil,
}
data["speech-to-speech translation"] = {
short = "The task of translating speech in a source language directly into speech in a target language, either via a cascade of ASR, MT, and TTS or with end-to-end models that bypass intermediate text.",
es = "Tarea de traducir voz en un idioma de origen directamente a voz en un idioma destino, ya sea mediante una cascada de ASR, traducción automática y TTS o con modelos de extremo a extremo que prescinden del texto intermedio.",
zh = "将源语言的语音直接翻译成目标语言语音的任务,可通过 ASR、机器翻译与 TTS 级联实现,也可使用绕过中间文本的端到端模型。",
article = nil,
}
data["speech-to-text translation"] = {
short = "A task that takes speech in a source language as input and produces text in a target language, combining automatic speech recognition and machine translation either in cascade or end-to-end.",
es = "Tarea que toma habla en un idioma fuente y produce texto en un idioma objetivo, combinando reconocimiento automático del habla y traducción automática, ya sea en cascada o de extremo a extremo.",
zh = "一种以源语言语音为输入、以目标语言文本为输出的任务,通过级联或端到端方式结合自动语音识别和机器翻译。",
article = nil,
}
data["speechbrain"] = {
short = "An open-source PyTorch-based toolkit for speech processing that provides recipes for ASR, speaker recognition, speech enhancement, separation, and self-supervised learning.",
es = "Conjunto de herramientas de código abierto basado en PyTorch para procesamiento del habla que ofrece recetas para reconocimiento automático del habla, reconocimiento de locutor, mejora, separación y aprendizaje auto-supervisado.",
zh = "基于 PyTorch 的开源语音处理工具包,为语音识别、说话人识别、语音增强、分离及自监督学习提供完整方案。",
article = nil,
}
data["speechmatrix"] = {
short = "A large-scale multilingual speech-to-speech translation corpus released by Meta, mined from European Parliament recordings across multiple language pairs using LASER-based alignment.",
es = "Corpus multilingüe a gran escala de traducción de voz a voz publicado por Meta, extraído de grabaciones del Parlamento Europeo en múltiples pares de idiomas mediante alineación basada en LASER.",
zh = "Meta 发布的大规模多语言语音到语音翻译语料库,通过基于 LASER 的对齐方法从欧洲议会录音中跨多个语言对挖掘得到。",
article = nil,
}
data["speechstew"] = {
short = "A multi-domain automatic speech recognition model trained jointly on a combined mixture of public English ASR datasets, demonstrating that simple data pooling improves robustness across domains.",
es = "Modelo de reconocimiento automático del habla multi-dominio entrenado conjuntamente sobre una mezcla combinada de conjuntos de datos públicos de ASR en inglés, demostrando que la simple unión de datos mejora la robustez entre dominios.",
zh = "在多个公开英文 ASR 数据集混合上联合训练的多领域语音识别模型,表明简单的数据合并即可提升跨领域的鲁棒性。",
article = nil,
}
data["speechtokenizer"] = {
short = "A unified speech tokenizer designed for speech language models that disentangles content, paralinguistic, and acoustic information across hierarchical residual vector quantization codebooks.",
es = "Tokenizador unificado de voz diseñado para modelos de lenguaje de habla que separa información de contenido, paralingüística y acústica en libros de códigos jerárquicos de cuantización vectorial residual.",
zh = "为语音语言模型设计的统一语音分词器,通过分层残差向量量化码本解耦内容、副语言和声学信息。",
article = nil,
}
data["spgispeech"] = {
short = "A 5,000-hour transcribed English speech corpus released by Kensho derived from company earnings calls, featuring orthographic transcripts with full punctuation and capitalization.",
es = "Corpus de habla en inglés transcrito de 5.000 horas publicado por Kensho, derivado de llamadas de resultados corporativos, con transcripciones ortográficas con puntuación y mayúsculas completas.",
zh = "由 Kensho 发布的 5000 小时英语语音转录语料库,源自公司财报电话会议,提供带完整标点和大小写的正字法转写。",
article = nil,
}
data["sphereface loss"] = {
short = "Face-recognition loss that introduces a multiplicative angular margin within the softmax classifier, encouraging features to lie on a hypersphere with enhanced angular discriminability.",
es = "Pérdida para reconocimiento facial que introduce un margen angular multiplicativo dentro del clasificador softmax, fomentando que las características se distribuyan sobre una hiperesfera con mayor discriminabilidad angular.",
zh = "一种人脸识别损失,在 softmax 分类器中引入乘性角度间隔,使特征分布在超球面上并增强角度判别能力。",
article = nil,
}
data["spherical harmonics features"] = {
short = "Geometric features built from spherical harmonics Y_l^m of relative position vectors, providing rotation-equivariant angular descriptors used in equivariant neural networks such as Tensor Field Networks and e3nn.",
es = "Características geométricas construidas a partir de armónicos esféricos Y_l^m de vectores de posición relativa, que proporcionan descriptores angulares equivariantes a la rotación utilizados en redes neuronales equivariantes como Tensor Field Networks y e3nn.",
zh = "基于相对位置向量的球谐函数 Y_l^m 构建的几何特征,提供旋转等变的角度描述子,用于 Tensor Field Networks、e3nn 等等变神经网络。",
article = nil,
}
data["spice dataset"] = {
short = "SPICE (Small-molecule/Protein Interaction Chemical Energies) is a large quantum-chemistry dataset of drug-like molecules, peptides, and ions with DFT-level energies and forces used to train machine-learned interatomic potentials.",
es = "SPICE (Small-molecule/Protein Interaction Chemical Energies) es un gran conjunto de datos de química cuántica de moléculas farmacológicas, péptidos e iones con energías y fuerzas a nivel DFT, utilizado para entrenar potenciales interatómicos aprendidos por máquina.",
zh = "SPICE(小分子/蛋白质相互作用化学能数据集)是一个大型量子化学数据集,包含药物分子、多肽和离子的 DFT 级别能量与受力,用于训练机器学习原子间势。",
article = nil,
}
data["spice metric"] = {
short = "An image captioning evaluation metric that compares scene graphs derived from candidate and reference captions, measuring F-score over semantic propositions about objects, attributes, and relations rather than n-gram overlap.",
es = "Métrica de evaluación para subtitulado de imágenes que compara grafos de escena derivados de los subtítulos candidato y de referencia, midiendo la F-score sobre proposiciones semánticas acerca de objetos, atributos y relaciones, en lugar de la coincidencia de n-gramas.",
zh = "一种图像字幕评估指标,通过比较候选字幕与参考字幕导出的场景图,基于关于物体、属性与关系的语义命题计算 F 值,而非 n-gram 重合度。",
article = nil,
}
data["spider benchmark"] = {
short = "A large-scale, cross-domain text-to-SQL benchmark of natural-language questions paired with complex SQL queries spanning hundreds of databases, used to evaluate semantic parsing systems.",
es = "Benchmark de texto a SQL a gran escala y multidominio que empareja preguntas en lenguaje natural con consultas SQL complejas sobre cientos de bases de datos, usado para evaluar sistemas de análisis semántico.",
zh = "大规模跨领域的文本到 SQL 基准,将自然语言问题与跨数百个数据库的复杂 SQL 查询配对,用于评估语义解析系统。",
article = nil,
}
data["spike-and-slab prior"] = {
short = "A two-component sparsity-inducing prior consisting of a point mass (the spike) at zero and a continuous distribution (the slab) elsewhere, used in Bayesian variable selection and sparse Bayesian neural networks to set most weights exactly to zero.",
es = "Prior inductor de dispersión con dos componentes: una masa puntual (la espiga) en cero y una distribución continua (la losa) en el resto, usado en selección bayesiana de variables y redes neuronales bayesianas dispersas para fijar exactamente a cero la mayoría de pesos.",
zh = "一种两成分稀疏先验:在零处放置点质量(spike)、其余区域放置连续分布(slab),用于贝叶斯变量选择和稀疏贝叶斯神经网络,使大多数权重精确为零。",
article = nil,
}
data["spike-and-slab rbm"] = {
short = "A restricted Boltzmann machine variant in which each hidden unit is paired with a real-valued slab variable gated by a binary spike, allowing the model to capture both sparse activations and continuous magnitudes.",
es = "Variante de máquina de Boltzmann restringida en la que cada unidad oculta se acopla con una variable slab de valor real controlada por un spike binario, lo que permite al modelo capturar tanto activaciones dispersas como magnitudes continuas.",
zh = "一种受限玻尔兹曼机变体,每个隐藏单元都配有一个由二值 spike 控制门的实值 slab 变量,使模型能同时刻画稀疏激活和连续幅度。",
article = nil,
}
data["spillover effect"] = {
short = "A causal effect in which one unit's treatment influences the outcomes of other units, violating the no-interference part of SUTVA; central to studies of peer effects, networks, and policy evaluation.",
es = "Efecto causal en el que el tratamiento de una unidad influye en los resultados de otras unidades, violando la parte de no interferencia de SUTVA; central en estudios de efectos de pares, redes y evaluación de políticas.",
zh = "一种因果效应,其中某单元的处理影响其他单元的结果,违反了 SUTVA 的无干扰假设;在同伴效应、网络和政策评估研究中处于核心地位。",
article = nil,
}
data["spin glass"] = {
short = "A disordered statistical-physics model with random pairwise interactions between binary spins, exhibiting many metastable states; serves as the physics origin of Boltzmann machines and Hopfield networks.",
es = "Modelo de física estadística desordenado con interacciones aleatorias por pares entre espines binarios, que exhibe múltiples estados metaestables; constituye el origen físico de las máquinas de Boltzmann y las redes de Hopfield.",
zh = "一种无序统计物理模型,二值自旋之间存在随机的两两相互作用,呈现大量亚稳态;是玻尔兹曼机和 Hopfield 网络的物理学渊源。",
article = nil,
}
data["spin self-play"] = {
short = "Self-Play Fine-Tuning, an iterative alignment method in which a language model generates its own responses and is trained to distinguish them from human-written responses, progressively improving without additional preference labels.",
es = "Self-Play Fine-Tuning, método iterativo de alineación en el que un modelo de lenguaje genera sus propias respuestas y se entrena para distinguirlas de respuestas escritas por humanos, mejorando progresivamente sin etiquetas adicionales de preferencia.",
zh = "自博弈微调,一种迭代式对齐方法,语言模型生成自己的响应,并被训练以将其与人类撰写的响应区分开来,无需额外偏好标签即可逐步提升。",
article = nil,
}
data["spinenet"] = {
short = "A scale-permuted convolutional backbone for object detection and recognition discovered by neural architecture search. It learns the order of resolution scales rather than following the standard increasing-then-decreasing scale pattern of CNN backbones.",
es = "Red dorsal convolucional con permutación de escalas para detección y reconocimiento de objetos, descubierta mediante búsqueda de arquitecturas neuronales. Aprende el orden de las escalas de resolución en lugar de seguir el patrón estándar creciente-decreciente de las redes dorsales convolucionales.",
zh = "SpineNet,一种通过神经架构搜索得到的尺度置换卷积主干网络,用于目标检测与识别,它学习分辨率尺度的排列顺序,而非沿用 CNN 主干常见的先升后降模式。",
article = nil,
}
data["spinenet-49"] = {
short = "A specific configuration of SpineNet with 49 scale-permuted blocks, used as a reference backbone in object detection benchmarks. Variants with more blocks (e.g., SpineNet-96, SpineNet-143) trade compute for accuracy.",
es = "Configuración concreta de SpineNet con 49 bloques con permutación de escalas, utilizada como red dorsal de referencia en pruebas de detección de objetos. Las variantes con más bloques (por ejemplo, SpineNet-96 o SpineNet-143) intercambian cómputo por precisión.",
zh = "SpineNet 的一种具体配置,包含 49 个尺度置换模块,常作为目标检测基准中的参考主干网络;更大的变体(如 SpineNet-96、SpineNet-143)以更多算力换取更高精度。",
article = nil,
}
data["spinningup"] = {
short = "An OpenAI educational resource and reference implementation library for deep reinforcement learning that provides clean PyTorch and TensorFlow implementations of core algorithms such as VPG, TRPO, PPO, DDPG, TD3 and SAC, accompanied by tutorial documentation.",
es = "Recurso educativo y biblioteca de implementaciones de referencia de OpenAI para aprendizaje por refuerzo profundo, que ofrece implementaciones limpias en PyTorch y TensorFlow de algoritmos centrales como VPG, TRPO, PPO, DDPG, TD3 y SAC, acompañadas de documentación tipo tutorial.",
zh = "OpenAI 推出的深度强化学习教学资源与参考实现库,提供 VPG、TRPO、PPO、DDPG、TD3、SAC 等核心算法的简洁 PyTorch 和 TensorFlow 实现,并配有教学文档。",
article = nil,
}
data["spirl"] = {
short = "Skill-Prior Reinforcement Learning, a hierarchical RL method that pretrains a latent skill space and a skill prior from offline demonstrations, then learns a high-level policy over skills regularized toward the prior to accelerate downstream learning.",
es = "Skill-Prior Reinforcement Learning, método jerárquico de aprendizaje por refuerzo que preentrena un espacio latente de habilidades y un prior de habilidades a partir de demostraciones fuera de línea, y después aprende una política de alto nivel sobre habilidades regularizada hacia el prior para acelerar el aprendizaje posterior.",
zh = "Skill-Prior 强化学习,一种分层强化学习方法:先用离线示范预训练潜在技能空间和技能先验,再在该先验约束下学习选择技能的高层策略,以加速下游任务的学习。",
article = nil,
}
data["splade"] = {
short = "Sparse Lexical and Expansion model, a learned sparse retrieval method that uses a masked language model head to produce sparse, vocabulary-sized term weights, combining the efficiency of inverted indexes with neural relevance.",
es = "Sparse Lexical and Expansion model, método de recuperación dispersa aprendida que utiliza la cabeza de un modelo de lenguaje enmascarado para producir pesos dispersos del tamaño del vocabulario, combinando la eficiencia de los índices invertidos con la relevancia neuronal.",
zh = "Sparse Lexical and Expansion模型,一种学习式稀疏检索方法,利用掩码语言模型头生成与词表同维的稀疏词项权重,将倒排索引的高效性与神经网络的相关性建模相结合。",
article = nil,
}
data["spleeter"] = {
short = "An open-source music source separation library released by Deezer that uses U-Net convolutional networks to split a mixture into stems such as vocals, drums, bass, and other instruments.",
es = "Biblioteca de código abierto de separación de fuentes musicales publicada por Deezer que usa redes convolucionales U-Net para dividir una mezcla en pistas como voces, batería, bajo y otros instrumentos.",
zh = "Deezer 发布的开源音乐源分离库,使用 U-Net 卷积网络将混合音轨分离为人声、鼓、贝斯和其他乐器等音轨。",
article = nil,
}
data["splice graph"] = {
short = "A graph representation of a gene's transcript structures in which nodes are exons (or splice sites) and edges are introns or splice junctions, encoding all observed isoforms compactly and supporting alternative-splicing analysis.",
es = "Representación en grafo de las estructuras de transcritos de un gen en la que los nodos son exones (o sitios de empalme) y las aristas son intrones o uniones de empalme, codificando todas las isoformas observadas de forma compacta y permitiendo el análisis de empalme alternativo.",
zh = "用于表示基因转录本结构的图,其中节点为外显子(或剪接位点),边为内含子或剪接连接,从而紧凑地编码所有观察到的异构体并支持可变剪接分析。",
article = nil,
}
data["spliceai"] = {
short = "A deep neural network developed by Illumina that predicts splice-altering effects of genetic variants from primary DNA sequence, scoring the probability that each position acts as an acceptor or donor splice site.",
es = "Red neuronal profunda desarrollada por Illumina que predice los efectos sobre el empalme de variantes genéticas a partir de la secuencia de ADN primaria, asignando la probabilidad de que cada posición actúe como sitio aceptor o donador de empalme.",
zh = "由 Illumina 开发的深度神经网络,从原始 DNA 序列预测遗传变异对剪接的影响,给出每个位点作为剪接受体或供体位点的概率。",
article = nil,
}
data["splicing analysis"] = {
short = "Computational analysis of pre-mRNA splicing patterns from RNA-seq data, including detection of differential splicing events (cassette exons, retained introns, alternative 5'/3' sites) and isoform quantification using tools such as rMATS, MAJIQ, and LeafCutter.",
es = "Análisis computacional de los patrones de empalme del pre-ARNm a partir de datos de RNA-seq, que incluye la detección de eventos de empalme diferencial (exones tipo casete, intrones retenidos, sitios 5'/3' alternativos) y la cuantificación de isoformas con herramientas como rMATS, MAJIQ y LeafCutter.",
zh = "基于 RNA-seq 数据对前体 mRNA 剪接模式进行的计算分析,包括差异剪接事件(盒式外显子、保留内含子、替代 5'/3' 位点)的检测以及使用 rMATS、MAJIQ、LeafCutter 等工具的异构体定量。",
article = nil,
}
data["spline interpolation for time series"] = {
short = "Filling missing or irregularly spaced observations in a time series by fitting a piecewise polynomial (typically cubic) that is continuous and smooth across breakpoints.",
es = "Imputación de observaciones faltantes o de espaciamiento irregular en una serie temporal ajustando un polinomio por partes (normalmente cúbico) que es continuo y suave en los puntos de unión.",
zh = "通过拟合分段多项式(通常为三次样条)来填补时间序列中的缺失或不规则间隔观测值,使其在分段连接处保持连续且光滑。",
article = nil,
}
data["split conformal"] = {
short = "A computationally cheap variant of conformal prediction that splits the data into a training and a calibration set; the model is fit on the former, then nonconformity scores on the calibration set yield finite-sample marginal coverage guarantees for new test points.",
es = "Variante computacionalmente barata de la predicción conformal que divide los datos en un conjunto de entrenamiento y otro de calibración; el modelo se ajusta al primero y las puntuaciones de no conformidad sobre el conjunto de calibración proporcionan garantías de cobertura marginal en muestras finitas para nuevos puntos de prueba.",
zh = "保形预测的一种计算高效变体,将数据切分为训练集和校准集:在训练集上拟合模型,再用校准集上的不一致性得分为新测试点提供有限样本的边际覆盖保证。",
article = nil,
}
data["split learning"] = {
short = "A collaborative learning paradigm in which a neural network is partitioned at a cut layer between client and server: clients run the lower layers on raw data and send only intermediate activations forward, while gradients flow back across the cut, keeping raw data and (some of the) parameters local.",
es = "Paradigma de aprendizaje colaborativo en el que una red neuronal se particiona en una capa de corte entre cliente y servidor: los clientes ejecutan las capas inferiores sobre los datos en bruto y solo envían activaciones intermedias hacia adelante, mientras que los gradientes vuelven a través del corte, manteniendo los datos en bruto y (parte de) los parámetros locales.",
zh = "一种协作学习范式:神经网络在某一切分层处被划分为客户端与服务器两部分,客户端对原始数据运行较低层并只前向发送中间激活,梯度则反向穿过切分层回传,从而将原始数据和(部分)参数保留在本地。",
article = nil,
}
data["split learning recommender"] = {
short = "A privacy-preserving recommender training scheme based on split learning, in which the user-side embedding network runs on the client and only intermediate activations (not raw interactions) are exchanged with the server's tower for joint training.",
es = "Esquema de entrenamiento de recomendadores que preserva la privacidad mediante split learning: la red de embeddings del lado del usuario se ejecuta en el cliente y con el servidor sólo se intercambian las activaciones intermedias (no las interacciones en bruto) para entrenar conjuntamente con la torre del servidor.",
zh = "一种基于 split learning 的隐私保护推荐训练方案:用户侧嵌入网络在客户端运行,与服务器仅交换中间激活(而非原始交互数据),从而与服务器侧塔模型联合训练。",
article = nil,
}
data["splitnn"] = {
short = "A specific framework for split learning in which a deep neural network is partitioned across one or more clients holding lower layers and a server holding the remaining layers; clients exchange only intermediate activations and gradients with the server, never raw data.",
es = "Marco específico de aprendizaje dividido en el que una red neuronal profunda se particiona entre uno o más clientes que mantienen las capas inferiores y un servidor que mantiene las capas restantes; los clientes intercambian con el servidor solo activaciones intermedias y gradientes, nunca datos en bruto.",
zh = "拆分学习的一种具体框架:将深度神经网络在一个或多个持有底层的客户端与持有其余层的服务器之间进行划分;客户端与服务器之间仅交换中间激活和梯度,绝不交换原始数据。",
article = nil,
}
data["spookynet"] = {
short = "A neural-network potential for molecular energies and forces that explicitly incorporates non-local effects, electronic spin and charge, and physically-motivated long-range electrostatics and dispersion corrections.",
es = "Potencial de red neuronal para energías y fuerzas moleculares que incorpora explícitamente efectos no locales, espín y carga electrónica y correcciones físicas de electrostática de largo alcance y dispersión.",
zh = "一种用于分子能量和受力的神经网络势,显式纳入非局域效应、电子自旋与电荷以及具有物理依据的长程静电和色散修正。",
article = nil,
}
data["spos"] = {
short = "Single Path One-Shot neural architecture search. A weight-sharing NAS method that trains a supernet by sampling a single random path per step and then performs evolutionary search over architectures using the trained supernet's inherited weights.",
es = "Single Path One-Shot, método de búsqueda de arquitecturas con compartición de pesos que entrena una supernet muestreando un único camino aleatorio por paso y después realiza búsqueda evolutiva sobre arquitecturas usando los pesos heredados de la supernet entrenada.",
zh = "SPOS(Single Path One-Shot)单路径一次性神经架构搜索,一种权重共享的 NAS 方法:每步从超网中均匀采样一条单一路径进行训练,再基于训练好的超网继承权重,通过进化搜索在架构空间中寻优。",
article = nil,
}
data["spot robot control"] = {
short = "Control of Boston Dynamics' Spot quadruped, typically combining a built-in low-level locomotion controller with high-level commands sent over the Spot SDK, and increasingly with learned policies for navigation, whole-body manipulation with the Spot arm, and rough-terrain locomotion.",
es = "Control del cuadrúpedo Spot de Boston Dynamics, que normalmente combina el controlador de locomoción de bajo nivel integrado con comandos de alto nivel enviados a través del SDK de Spot, y cada vez más con políticas aprendidas para navegación, manipulación de cuerpo completo con el brazo de Spot y locomoción en terreno irregular.",
zh = "对 Boston Dynamics 四足机器人 Spot 的控制,通常将其内置的低层运动控制器与通过 Spot SDK 下发的高层指令相结合,并越来越多地采用学习得到的策略来实现导航、配合 Spot 机械臂的整身操作以及复杂地形的运动。",
article = nil,
}
data["spr"] = {
short = "Self-Predictive Representations, an auxiliary self-supervised objective for sample-efficient reinforcement learning that trains the encoder to predict its own future latent representations multiple steps ahead under the agent's actions.",
es = "Self-Predictive Representations, objetivo auxiliar autosupervisado para aprendizaje por refuerzo eficiente en muestras que entrena al codificador para predecir sus propias representaciones latentes futuras varios pasos por delante bajo las acciones del agente.",
zh = "Self-Predictive Representations,一种用于样本高效强化学习的自监督辅助目标,训练编码器在智能体动作条件下预测自身未来若干步的潜在表征。",
article = nil,
}
data["spurious correlation detection"] = {
short = "Methods that identify input features statistically correlated with the target during training but not causally relevant, often using counterfactual interventions, group-wise performance gaps, or distribution-shift evaluations.",
es = "Métodos que identifican características de entrada correlacionadas estadísticamente con el objetivo durante el entrenamiento pero no causalmente relevantes, utilizando con frecuencia intervenciones contrafactuales, brechas de rendimiento por grupos o evaluaciones bajo cambios de distribución.",
zh = "用于识别在训练中与目标存在统计相关但并非因果相关的输入特征的方法,通常借助反事实干预、按组性能差距或分布漂移评估实现。",
article = nil,
}
data["sqil"] = {
short = "Soft Q Imitation Learning, an imitation-learning algorithm that recovers expert behavior by running soft Q-learning with a constant reward of one on demonstration transitions and zero on agent transitions.",
es = "Soft Q Imitation Learning, algoritmo de aprendizaje por imitación que recupera el comportamiento experto ejecutando soft Q-learning con recompensa constante uno en las transiciones de demostración y cero en las transiciones del agente.",
zh = "Soft Q Imitation Learning,一种模仿学习算法,将示范转移的奖励设为常数 1、智能体自身转移的奖励设为 0,再运行软 Q 学习以复现专家行为。",
article = nil,
}
data["squared hinge loss"] = {
short = "Variant of hinge loss that squares the margin violation. Penalizes large margin violations more strongly and yields smoother gradients than standard hinge.",
es = "Variante de la pérdida de bisagra que eleva al cuadrado la violación del margen. Penaliza con más fuerza las violaciones grandes y produce gradientes más suaves que la versión estándar.",
zh = "合页损失的变体,对间隔违规取平方。对较大违规的惩罚更重,并产生比标准合页损失更平滑的梯度。",
article = nil,
}
data["squashed gaussian policy"] = {
short = "A continuous-control stochastic policy that samples actions from a Gaussian and then passes them through a tanh nonlinearity to bound them within a finite action range, with a corrected log-probability accounting for the change of variables; standard in Soft Actor-Critic.",
es = "Política estocástica para control continuo que muestrea acciones de una gaussiana y las pasa por una no linealidad tanh para acotarlas en un rango finito, con una corrección del log-probabilidad por cambio de variables; estándar en Soft Actor-Critic.",
zh = "一种连续控制随机策略:先从高斯分布采样动作,再经 tanh 非线性压缩到有界动作范围,并对换元引起的对数概率做相应修正;广泛用于 Soft Actor-Critic。",
article = nil,
}
data["squeezeformer"] = {
short = "An efficient ASR encoder architecture that redesigns the Conformer macro-structure with temporal U-Net downsampling and a simplified block layout, yielding better accuracy-latency trade-offs.",
es = "Arquitectura eficiente de codificador para reconocimiento automático del habla que rediseña la macroestructura de Conformer con submuestreo temporal tipo U-Net y un bloque simplificado, mejorando el equilibrio entre precisión y latencia.",
zh = "高效的 ASR 编码器架构,通过引入时间维度的 U-Net 下采样并简化模块布局,重新设计 Conformer 的宏观结构,在精度与延迟之间取得更好的权衡。",
article = nil,
}
data["squeezenet"] = {
short = "A compact convolutional network introduced by Iandola et al. in 2016 that achieves AlexNet-level ImageNet accuracy with roughly 50× fewer parameters by using Fire modules built from 1×1 squeeze and 1×1/3×3 expand convolutions.",
es = "Red convolucional compacta presentada por Iandola et al. en 2016 que alcanza una precisión en ImageNet comparable a la de AlexNet con aproximadamente 50× menos parámetros, utilizando módulos Fire compuestos por convoluciones de compresión 1×1 y de expansión 1×1/3×3.",
zh = "由 Iandola 等人于 2016 年提出的紧凑卷积网络,使用由 1×1 压缩和 1×1/3×3 扩展卷积构成的 Fire 模块,以约 50 倍更少的参数达到与 AlexNet 相当的 ImageNet 精度。",
article = nil,
}
data["sr-gnn"] = {
short = "SR-GNN (Wu et al., AAAI 2019): a session-based recommender that converts each session into a directed graph of consecutively clicked items, applies a gated graph neural network to learn item embeddings, and combines them with attention to predict the next item.",
es = "SR-GNN (Wu et al., AAAI 2019): recomendador basado en sesiones que convierte cada sesión en un grafo dirigido de ítems clicados consecutivamente, aplica una red neuronal de grafos con compuertas para aprender embeddings de ítems y los combina mediante atención para predecir el siguiente ítem.",
zh = "SR-GNN(Wu 等,AAAI 2019):一种基于会话的推荐方法,将每个会话转换为连续点击物品组成的有向图,使用门控图神经网络学习物品嵌入,并通过注意力机制将其组合以预测下一个物品。",
article = nil,
}
data["ss-cam"] = {
short = "Smoothed Score-CAM, a class activation mapping variant that averages Score-CAM saliency maps computed on multiple noise-perturbed copies of the input to reduce visual artifacts.",
es = "Variante suavizada de Score-CAM que promedia los mapas de saliencia obtenidos sobre múltiples copias del input perturbadas con ruido para reducir artefactos.",
zh = "Score-CAM 的平滑变体,对输入加噪声扰动后多次计算 Score-CAM 显著图并取平均,以降低视觉伪影。",
article = nil,
}
data["ssast"] = {
short = "Self-Supervised Audio Spectrogram Transformer, a Vision Transformer applied to log-mel spectrograms and pretrained with masked spectrogram patch modeling for general-purpose audio representation learning.",
es = "Self-Supervised Audio Spectrogram Transformer, un Vision Transformer aplicado a espectrogramas log-mel y preentrenado con modelado de parches de espectrograma enmascarados para aprendizaje de representaciones de audio de propósito general.",
zh = "自监督音频频谱图 Transformer,将 Vision Transformer 应用于对数梅尔频谱图,通过掩码频谱图块建模进行预训练,用于通用音频表示学习。",
article = nil,
}
data["ssd"] = {
short = "Single Shot MultiBox Detector — a single-stage object detector introduced by Liu et al. in 2016 that predicts class scores and box offsets at multiple feature map scales using a fixed set of default anchor boxes per location.",
es = "Single Shot MultiBox Detector — detector de objetos de una sola etapa presentado por Liu et al. en 2016 que predice puntuaciones de clase y desplazamientos de caja a múltiples escalas de mapas de características utilizando un conjunto fijo de anchor boxes por defecto en cada ubicación.",
zh = "Single Shot MultiBox Detector——由 Liu 等人于 2016 年提出的单阶段目标检测器,在多个特征图尺度上预测类别得分和框偏移,每个位置使用一组固定的默认锚框。",
article = nil,
}
data["sse-pt"] = {
short = "SSE-PT (Wu et al., RecSys 2020): a personalized Transformer-based sequential recommender that incorporates a learned user embedding into self-attention and trains with Stochastic Shared Embeddings regularization to mitigate overfitting on per-user representations.",
es = "SSE-PT (Wu et al., RecSys 2020): recomendador secuencial personalizado basado en Transformer que incorpora un embedding de usuario aprendido a la autoatención y se entrena con regularización mediante Stochastic Shared Embeddings para mitigar el sobreajuste de las representaciones por usuario.",
zh = "SSE-PT(Wu 等,RecSys 2020):一种基于 Transformer 的个性化序列推荐器,将可学习的用户嵌入引入自注意力机制,并采用随机共享嵌入(Stochastic Shared Embeddings)正则化来缓解用户级表示的过拟合。",
article = nil,
}
data["ssml"] = {
short = "Speech Synthesis Markup Language, a W3C-standard XML-based markup that controls aspects of synthesized speech such as pronunciation, prosody, pauses, emphasis, and voice selection.",
es = "Speech Synthesis Markup Language, un lenguaje de marcado XML estándar del W3C que controla aspectos del habla sintetizada como pronunciación, prosodia, pausas, énfasis y selección de voz.",
zh = "语音合成标记语言,W3C 标准的基于 XML 的标记语言,用于控制合成语音的发音、韵律、停顿、重音和声音选择等方面。",
article = nil,
}
data["ssp model"] = {
short = "Stale Synchronous Parallel: a distributed training consistency model in which workers are allowed to read parameter values that lag behind the most recent updates by at most a fixed staleness bound, blending the throughput of asynchronous SGD with the convergence guarantees of synchronous training.",
es = "Stale Synchronous Parallel: modelo de consistencia para entrenamiento distribuido en el que los trabajadores pueden leer valores de parámetros con un retraso máximo acotado respecto a las actualizaciones más recientes, combinando el rendimiento del SGD asíncrono con las garantías de convergencia del entrenamiento síncrono.",
zh = "陈旧同步并行(Stale Synchronous Parallel):一种分布式训练一致性模型,允许工作节点读取相对最新更新最多滞后某个固定陈旧度上限的参数值,兼具异步SGD的吞吐量和同步训练的收敛保证。",
article = nil,
}
data["stability of explanations"] = {
short = "A robustness property requiring that an explanation method produce similar attributions when the input or model parameters undergo small perturbations.",
es = "Propiedad de robustez según la cual un método de explicación produce atribuciones similares ante perturbaciones pequeñas del input o de los parámetros del modelo.",
zh = "解释方法的鲁棒性属性:当输入或模型参数发生微小扰动时,所给出的归因应保持相似。",
article = nil,
}
data["stabilized weights"] = {
short = "Inverse-probability weights in which the numerator is the marginal (or baseline-conditional) treatment probability rather than one, reducing variance while preserving consistency in marginal structural model estimation.",
es = "Pesos de probabilidad inversa en los que el numerador es la probabilidad marginal (o condicional al basal) del tratamiento en lugar de uno, lo que reduce la varianza preservando la consistencia en la estimación de modelos estructurales marginales.",
zh = "逆概率加权中将分子设为处理的边际(或以基线为条件的)概率而非 1 的权重,在保持边际结构模型估计一致性的同时降低方差。",
article = nil,
}
data["stable audio"] = {
short = "A latent diffusion text-to-audio model from Stability AI that generates variable-length stereo music and sound effects conditioned on text prompts and timing information.",
es = "Modelo de difusión latente de texto a audio de Stability AI que genera música estéreo y efectos de sonido de duración variable condicionados por indicaciones de texto e información temporal.",
zh = "Stability AI 推出的潜在扩散文本到音频模型,根据文本提示和时长信息生成可变长度的立体声音乐与音效。",
article = nil,
}
data["stable diffusion"] = {
short = "An open-source latent diffusion model for text-to-image generation that performs the diffusion process in the compressed latent space of a pretrained variational autoencoder, conditioned on text embeddings via cross-attention.",
es = "Modelo de difusión latente de código abierto para generación de imágenes a partir de texto que realiza el proceso de difusión en el espacio latente comprimido de un autoencoder variacional preentrenado, condicionado a embeddings de texto mediante atención cruzada.",
zh = "一种开源的潜在扩散文本生成图像模型,在预训练变分自编码器的压缩潜在空间中执行扩散过程,并通过交叉注意力以文本嵌入作为条件。",
article = nil,
}
data["stable diffusion 3"] = {
short = "A 2024 text-to-image diffusion model from Stability AI based on the Multimodal Diffusion Transformer (MMDiT) architecture and rectified flow training, with significantly improved typography and prompt adherence over prior versions.",
es = "Modelo de difusión texto-a-imagen de Stability AI publicado en 2024, basado en la arquitectura Multimodal Diffusion Transformer (MMDiT) y entrenamiento por flujo rectificado, con una notable mejora en tipografía y fidelidad al prompt frente a versiones anteriores.",
zh = "Stability AI于2024年发布的文本到图像扩散模型,采用多模态扩散Transformer(MMDiT)架构和修正流训练,相比早前版本在文字呈现和提示遵循度上有显著提升。",
article = nil,
}
data["stable diffusion 3.5"] = {
short = "An updated 2024 release of Stable Diffusion 3 from Stability AI, available in Large, Large Turbo, and Medium variants, with improved aesthetic quality, prompt adherence, and broader licensing terms.",
es = "Actualización de 2024 de Stable Diffusion 3 de Stability AI, disponible en variantes Large, Large Turbo y Medium, con mejor calidad estética, mayor fidelidad al prompt y términos de licencia más amplios.",
zh = "Stability AI于2024年发布的Stable Diffusion 3更新版本,提供Large、Large Turbo和Medium三种规格,在美学质量、提示遵循度和授权条款上均有改进。",
article = nil,
}
data["stable diffusion xl"] = {
short = "A 2023 latent diffusion text-to-image model from Stability AI with a 3.5B-parameter UNet, dual text encoders, and an optional refiner stage, producing high-resolution 1024x1024 images.",
es = "Modelo de difusión latente texto-a-imagen de Stability AI publicado en 2023, con una UNet de 3.500 millones de parámetros, dos codificadores de texto y una etapa opcional de refinado, capaz de generar imágenes de alta resolución 1024x1024.",
zh = "Stability AI于2023年发布的潜空间扩散文本到图像模型,UNet参数量为35亿,使用双文本编码器并提供可选的精修阶段,可生成1024x1024的高分辨率图像。",
article = nil,
}
data["stable explanation"] = {
short = "An attribution or explanation that changes only marginally under small perturbations of the input, the model, or the explainer's randomness.",
es = "Atribución o explicación que cambia solo marginalmente ante pequeñas perturbaciones del input, del modelo o de la aleatoriedad del explicador.",
zh = "在输入、模型或解释器随机性发生轻微扰动时仅有微小变化的归因或解释。",
article = nil,
}
data["stable unit treatment value assumption"] = {
short = "A foundational identification assumption combining no interference between units and a single, well-defined version of each treatment, so that each unit's potential outcomes depend only on its own treatment.",
es = "Supuesto fundamental de identificación que combina la ausencia de interferencia entre unidades y una única versión bien definida de cada tratamiento, de modo que los resultados potenciales de cada unidad dependen solo de su propio tratamiento.",
zh = "一项基础识别假设,要求单元间不存在干扰且每种处理具有唯一且良好定义的形式,从而使每个单元的潜在结果仅取决于其自身的处理。",
article = nil,
}
data["stable video diffusion"] = {
short = "An image-to-video latent diffusion model from Stability AI that extends the Stable Diffusion image generator with temporal layers and is fine-tuned on curated video data to produce short clips conditioned on an initial frame.",
es = "Modelo de difusión latente de imagen a video de Stability AI que extiende el generador de imágenes Stable Diffusion con capas temporales y se ajusta sobre datos de video curados para producir clips cortos condicionados por un fotograma inicial.",
zh = "Stability AI 推出的图像到视频潜空间扩散模型,在 Stable Diffusion 图像生成器中加入时间维度的层,并在精选视频数据上微调,可基于初始帧生成短视频片段。",
article = nil,
}
data["stable-baselines3"] = {
short = "An open-source PyTorch library providing reliable, well-tested implementations of standard deep reinforcement-learning algorithms such as PPO, A2C, DQN, SAC and TD3, designed as a successor to Stable Baselines and OpenAI Baselines.",
es = "Biblioteca de código abierto en PyTorch que ofrece implementaciones fiables y bien probadas de algoritmos estándar de aprendizaje por refuerzo profundo como PPO, A2C, DQN, SAC y TD3, concebida como sucesora de Stable Baselines y OpenAI Baselines.",
zh = "一个开源 PyTorch 库,提供 PPO、A2C、DQN、SAC、TD3 等标准深度强化学习算法的可靠且经过良好测试的实现,是 Stable Baselines 和 OpenAI Baselines 的后续版本。",
article = nil,
}
data["stacked rnn"] = {
short = "A recurrent neural network composed of multiple RNN layers, where the hidden states of one layer serve as inputs to the next, forming a deeper sequence model.",
es = "Red neuronal recurrente compuesta por varias capas RNN, donde los estados ocultos de una capa actúan como entradas de la siguiente, formando un modelo secuencial más profundo.",
zh = "一种由多层 RNN 堆叠组成的循环神经网络,前一层的隐藏状态作为下一层的输入,形成更深的序列模型。",
article = nil,
}
data["staggered adoption"] = {
short = "A research design in which units adopt a treatment at different points in time and remain treated thereafter, common in difference-in-differences and event-study estimators of policy effects.",
es = "Diseño de investigación en el que las unidades adoptan un tratamiento en distintos momentos y permanecen tratadas a partir de ese punto, frecuente en estimadores de diferencias en diferencias y de estudios de eventos de efectos de políticas.",
zh = "一种研究设计,其中各单元在不同时点开始接受处理并持续保持处理状态,常见于政策效应的双重差分与事件研究估计中。",
article = nil,
}
data["stale gradient"] = {
short = "A gradient that was computed with respect to a stale (older) version of the model parameters and is then applied to the now-updated parameters, common in asynchronous and bounded-staleness distributed training; large staleness slows or destabilizes convergence.",
es = "Gradiente calculado respecto a una versión antigua (rezagada) de los parámetros del modelo que luego se aplica a los parámetros ya actualizados, habitual en entrenamiento distribuido asíncrono o con caducidad acotada; un retraso grande ralentiza o desestabiliza la convergencia.",
zh = "基于参数较旧(陈旧)版本计算的梯度,随后被应用到已更新的参数上;常见于异步和有界陈旧度的分布式训练,过大的陈旧度会减慢或破坏收敛。",
article = nil,
}
data["stale synchronous parallel"] = {
short = "A distributed training consistency model in which workers may proceed with parameters up to a bounded number of iterations behind the global view, balancing the strict barriers of BSP with the laxity of fully asynchronous execution.",
es = "Modelo de consistencia para entrenamiento distribuido en el que los trabajadores pueden avanzar con parámetros hasta una cantidad acotada de iteraciones por detrás de la vista global, equilibrando las barreras estrictas de BSP con la laxitud de la ejecución totalmente asíncrona.",
zh = "一种分布式训练一致性模型,工作节点可以使用滞后于全局视图但不超过有限迭代次数的参数继续训练,在BSP的严格屏障与完全异步执行的宽松性之间取得平衡。",
article = nil,
}
data["staleness-aware sgd"] = {
short = "An asynchronous SGD variant that explicitly compensates for delayed gradients by scaling step sizes or adjusting updates according to the staleness of each worker's parameters relative to the current global model.",
es = "Variante asíncrona de SGD que compensa explícitamente los gradientes retrasados escalando los tamaños de paso o ajustando las actualizaciones en función del desfase de los parámetros de cada trabajador respecto al modelo global actual.",
zh = "一种异步SGD变体,通过根据每个工作节点参数相对于当前全局模型的陈旧程度来缩放步长或调整更新,显式补偿延迟梯度。",
article = nil,
}
data["stan language"] = {
short = "A probabilistic programming language for specifying Bayesian statistical models, compiled to C++ and paired with samplers such as the No-U-Turn Sampler and variational inference engines.",
es = "Lenguaje de programación probabilística para especificar modelos estadísticos bayesianos, que se compila a C++ y se acompaña de muestreadores como el No-U-Turn Sampler y motores de inferencia variacional.",
zh = "一种概率编程语言,用于描述贝叶斯统计模型,编译为 C++,并配套提供 No-U-Turn 采样器和变分推断引擎等采样工具。",
article = nil,
}
data["star aligner"] = {
short = "Spliced Transcripts Alignment to a Reference (STAR), a fast splice-aware short-read aligner widely used in RNA-seq pipelines that uses uncompressed suffix arrays and seed-and-extend with maximal mappable prefixes.",
es = "Spliced Transcripts Alignment to a Reference (STAR), alineador de lecturas cortas rápido y consciente del empalme, ampliamente utilizado en flujos de RNA-seq, que usa arreglos de sufijos sin comprimir y semilla-y-extensión con prefijos mapeables máximos.",
zh = "Spliced Transcripts Alignment to a Reference(STAR),一种快速且支持剪接的短读长比对器,广泛用于 RNA-seq 流程,采用未压缩后缀数组以及基于最大可比对前缀的 seed-and-extend 算法。",
article = nil,
}
data["star self-taught reasoner"] = {
short = "Self-Taught Reasoner, a method that bootstraps a model's chain-of-thought ability by sampling rationales, keeping those that lead to correct answers, and fine-tuning on this filtered set, with rationalization on incorrect examples.",
es = "Self-Taught Reasoner, método que potencia la capacidad de razonamiento en cadena de un modelo muestreando justificaciones, conservando aquellas que conducen a respuestas correctas y haciendo fine-tuning sobre ese conjunto filtrado, con racionalización sobre los ejemplos incorrectos.",
zh = "自学推理器,一种方法,通过采样推理过程并保留导向正确答案的推理来提升模型的思维链能力,再对该筛选集合进行微调,并对错误样例进行理由化。",
article = nil,
}
data["starcoder"] = {
short = "A 15.5B-parameter open-weight code language model released in 2023 by the BigCode project, trained on permissively licensed source code from The Stack with 8K context and fill-in-the-middle support.",
es = "Modelo de lenguaje de código de pesos abiertos con 15.500 millones de parámetros publicado en 2023 por el proyecto BigCode, entrenado con código fuente con licencias permisivas de The Stack, con contexto de 8K y soporte para fill-in-the-middle.",
zh = "BigCode项目于2023年发布的155亿参数开放权重代码语言模型,基于The Stack中宽松许可的源代码训练,支持8K上下文和中间填充(FIM)。",
article = nil,
}
data["starcoder data"] = {
short = "The training corpus used for StarCoder, derived from The Stack with additional filtering, near-deduplication, and PII redaction; spans 86 programming languages and code-related sources such as GitHub issues and Jupyter notebooks.",
es = "Corpus de entrenamiento utilizado para StarCoder, derivado de The Stack con filtrado adicional, deduplicación aproximada y redacción de información personal; abarca 86 lenguajes de programación y fuentes relacionadas con código como issues de GitHub y notebooks de Jupyter.",
zh = "用于训练StarCoder的语料,源自The Stack并进行了进一步过滤、近似去重和个人信息脱敏,涵盖86种编程语言以及GitHub issue、Jupyter notebook等代码相关数据。",
article = nil,
}
data["starcoder2"] = {
short = "The 2024 successor to StarCoder, released in 3B, 7B, and 15B sizes by the BigCode project, trained on The Stack v2 with 16K context and improved performance across code completion, repair, and reasoning benchmarks.",
es = "Sucesor de StarCoder publicado en 2024 por el proyecto BigCode en tamaños de 3.000, 7.000 y 15.000 millones de parámetros, entrenado con The Stack v2, con contexto de 16K y rendimiento mejorado en benchmarks de completado, reparación y razonamiento de código.",
zh = "BigCode项目于2024年发布的StarCoder后继模型,提供3B、7B和15B三种规格,基于The Stack v2训练,支持16K上下文,在代码补全、修复和推理基准上均有提升。",
article = nil,
}
data["stardist"] = {
short = "A deep-learning method for nucleus and cell instance segmentation in microscopy images that predicts star-convex polygons centered on each object, robust to crowded scenes and adopted in tools like QuPath and ImageJ/Fiji.",
es = "Método de aprendizaje profundo para la segmentación de instancias de núcleos y células en imágenes de microscopía que predice polígonos estrella-convexos centrados en cada objeto, robusto en escenas densas y adoptado en herramientas como QuPath e ImageJ/Fiji.",
zh = "用于显微图像中细胞核和细胞实例分割的深度学习方法,对每个目标预测以其为中心的星凸多边形,对密集场景具有鲁棒性,被 QuPath 和 ImageJ/Fiji 等工具采用。",
article = nil,
}
data["starmap"] = {
short = "A spatially resolved single-cell transcriptomics method that uses in situ sequencing of barcoded amplicons in hydrogel-embedded tissue to detect hundreds to thousands of RNA species at subcellular resolution.",
es = "Método de transcriptómica unicelular con resolución espacial que utiliza secuenciación in situ de amplicones con códigos de barras en tejido embebido en hidrogel para detectar cientos a miles de ARN con resolución subcelular.",
zh = "一种具有空间分辨率的单细胞转录组学方法,通过在水凝胶包埋组织中对带条形码的扩增子进行原位测序,以亚细胞分辨率检测数百至数千种 RNA。",
article = nil,
}
data["start-of-image token"] = {
short = "A special token that marks the beginning of an image segment in a multimodal sequence, signaling to an autoregressive or diffusion transformer that the following positions encode visual content rather than text.",
es = "Token especial que marca el inicio de un segmento de imagen dentro de una secuencia multimodal, indicando a un transformador autorregresivo o de difusión que las posiciones siguientes codifican contenido visual en lugar de texto.",
zh = "一种特殊 token,用于在多模态序列中标记图像片段的起始位置,告知自回归或扩散 Transformer 之后的位置编码的是视觉内容而非文本。",
article = nil,
}
data["state aggregation"] = {
short = "A function-approximation technique in reinforcement learning that partitions the state space into disjoint groups and assigns a single value or feature vector to all states within each group, yielding a piecewise-constant approximation of value functions.",
es = "Técnica de aproximación de funciones en aprendizaje por refuerzo que divide el espacio de estados en grupos disjuntos y asigna un único valor o vector de características a todos los estados de cada grupo, dando lugar a una aproximación constante por tramos de las funciones de valor.",
zh = "强化学习中的一种函数逼近技术,将状态空间划分为不相交的若干组,并为每组中的所有状态赋予同一个值或特征向量,从而得到值函数的分段常数逼近。",
article = nil,
}
data["state entropy maximization"] = {
short = "An unsupervised exploration objective in reinforcement learning that drives the agent to visit a state distribution with maximum entropy, typically estimated nonparametrically via k-nearest-neighbor distances in a learned embedding space.",
es = "Objetivo de exploración no supervisado en aprendizaje por refuerzo que empuja al agente a visitar una distribución de estados con entropía máxima, estimada típicamente de forma no paramétrica mediante distancias a los k vecinos más cercanos en un espacio de representación aprendido.",
zh = "一种无监督的强化学习探索目标,鼓励智能体访问的状态分布熵最大,通常通过在学习到的嵌入空间中用 k 近邻距离进行非参数估计。",
article = nil,
}
data["state estimation network"] = {
short = "A neural network that infers latent robot or environment state — such as base velocity, contact forces, or object pose — from proprioceptive and exteroceptive history, often trained in simulation as a teacher signal for student policies that lack access to privileged state.",
es = "Red neuronal que infiere el estado latente del robot o del entorno (como la velocidad de la base, las fuerzas de contacto o la pose de los objetos) a partir del historial propioceptivo y exteroceptivo, a menudo entrenada en simulación como señal docente para políticas estudiantes que no tienen acceso al estado privilegiado.",
zh = "一种神经网络,根据本体感知与外部感知的历史信息推断机器人或环境的潜在状态(如机体速度、接触力或物体位姿),常在仿真中训练,为无法访问特权状态的学生策略提供监督信号。",
article = nil,
}
data["state space"] = {
short = "The set of all possible configurations or states of a system; in dynamical systems, control theory, and reinforcement learning it serves as the domain over which dynamics or policies are defined.",
es = "Conjunto de todas las posibles configuraciones o estados de un sistema; en sistemas dinámicos, teoría de control y aprendizaje por refuerzo, constituye el dominio sobre el que se definen la dinámica o las políticas.",
zh = "系统所有可能配置或状态的集合;在动力系统、控制理论和强化学习中,它是定义动态过程或策略的论域。",
article = nil,
}
data["state space model"] = {
short = "A class of sequence models that describe a system through a continuous or discrete latent state evolving via a linear recurrence, enabling efficient long-context modeling with sub-quadratic complexity.",
es = "Clase de modelos de secuencia que describen un sistema mediante un estado latente continuo o discreto que evoluciona según una recurrencia lineal, permitiendo modelar contextos largos con complejidad sub-cuadrática.",
zh = "一类序列模型,通过沿线性递推演化的连续或离散潜在状态描述系统,能够以亚二次复杂度高效建模长上下文。",
article = nil,
}
data["state value"] = {
short = "The expected return obtainable from a given state when following a specified policy, denoted V^π(s) = E[G_t | s_t = s, π]. The fundamental quantity estimated by state-value functions and used as a baseline in many policy-gradient algorithms.",
es = "Retorno esperado obtenible desde un estado dado siguiendo una política especificada, denotado V^π(s) = E[G_t | s_t = s, π]. Es la cantidad fundamental estimada por las funciones de valor de estado y se utiliza como referencia (baseline) en muchos algoritmos de gradiente de política.",
zh = "在遵循指定策略时从给定状态出发可获得的期望回报,记作 V^π(s) = E[G_t | s_t = s, π]。它是状态价值函数估计的基本量,并在许多策略梯度算法中用作基线。",
article = nil,
}
data["state-adversarial rl"] = {
short = "A robust reinforcement-learning framework in which an adversary perturbs the agent's state observations within a bounded set at each step, and the agent learns a policy that maximizes return under worst-case perturbations.",
es = "Marco de aprendizaje por refuerzo robusto en el que un adversario perturba las observaciones de estado del agente dentro de un conjunto acotado en cada paso, y el agente aprende una política que maximiza el retorno frente a las peores perturbaciones.",
zh = "一种鲁棒强化学习框架:在每一步,对手在有界集合内扰动智能体的状态观测,智能体学习在最坏扰动下最大化回报的策略。",
article = nil,
}
data["static calibration error"] = {
short = "A multi-class generalization of expected calibration error (Nixon et al., 2019) that bins predictions per class and averages absolute confidence-accuracy gaps across all classes, reducing the bias of binning to the top-1 prediction only.",
es = "Generalización multiclase del error de calibración esperado (Nixon et al., 2019) que agrupa las predicciones por clase y promedia las brechas absolutas entre confianza y precisión sobre todas las clases, reduciendo el sesgo de agrupar solo por la predicción top-1.",
zh = "期望校准误差的多类推广(Nixon 等,2019),按每个类别分桶并对所有类别上的置信度与准确率绝对差求平均,减少了仅对 top-1 预测分桶的偏差。",
article = nil,
}
data["static covariate"] = {
short = "In time series forecasting, a feature that does not vary over time for a given series (e.g., product category, store location), used as a side input to condition predictions.",
es = "En pronóstico de series temporales, una variable que no cambia con el tiempo para una serie dada (por ejemplo, categoría de producto o ubicación de tienda), utilizada como entrada auxiliar para condicionar las predicciones.",
zh = "在时间序列预测中,对于给定序列不随时间变化的特征(如产品类别、门店位置),作为辅助输入用于约束预测。",
article = nil,
}
data["stationarity"] = {
short = "The property of a time series whose statistical characteristics, such as mean, variance, and autocovariance, do not depend on the time at which they are observed.",
es = "Propiedad de una serie temporal cuyas características estadísticas, como la media, la varianza y la autocovarianza, no dependen del momento en que se observan.",
zh = "时间序列的一种性质,其统计特征(如均值、方差和自协方差)不随观测时间而变化。",
article = nil,
}
data["stationary distribution"] = {
short = "For a Markov chain, a probability distribution over states that is invariant under the transition kernel: if the current state is drawn from it, the next state is drawn from the same distribution.",
es = "Para una cadena de Markov, una distribución de probabilidad sobre los estados que es invariante bajo el núcleo de transición: si el estado actual se extrae de ella, el siguiente estado también se extrae de la misma distribución.",
zh = "对于马尔可夫链,状态上的一个概率分布,在转移核作用下保持不变:若当前状态取自该分布,则下一状态也服从同一分布。",
article = nil,
}
data["stationary policy"] = {
short = "A policy whose action distribution depends only on the current state and not on the time step, so the same mapping from states to actions is applied at every decision epoch; optimal in infinite-horizon discounted MDPs.",
es = "Política cuya distribución sobre acciones depende solo del estado actual y no del paso de tiempo, de modo que se aplica la misma asignación de estados a acciones en cada época de decisión; es óptima en MDP de horizonte infinito con descuento.",
zh = "其动作分布只依赖当前状态、与时间步无关的策略,即在每个决策时刻都应用相同的状态到动作映射;在带折扣的无限期 MDP 中是最优的。",
article = nil,
}
data["stationary process"] = {
short = "A stochastic process whose joint probability distribution is invariant under shifts in time, so that all moments and dependence structures remain the same when the index is translated.",
es = "Proceso estocástico cuya distribución de probabilidad conjunta es invariante bajo desplazamientos en el tiempo, de modo que todos los momentos y estructuras de dependencia permanecen iguales al trasladar el índice.",
zh = "一种随机过程,其联合概率分布在时间平移下保持不变,因此所有矩和依赖结构都不随索引平移而改变。",
article = nil,
}
data["statistical discrimination"] = {
short = "An economics concept in which decision makers use group-level statistics as proxies for unobserved individual traits, producing different treatment of equally qualified individuals from different groups. Distinct from taste-based discrimination but a common rationalization of unfair algorithms.",
es = "Concepto económico en el que quienes toman decisiones usan estadísticas grupales como sustituto de rasgos individuales no observados, produciendo trato diferente a personas igualmente cualificadas de distintos grupos. Se distingue de la discriminación por gusto, pero racionaliza con frecuencia algoritmos injustos.",
zh = "经济学概念,决策者将群体层面的统计数据作为未观测到的个体特征的替代,从而对来自不同群体但同等条件的个体作出不同处置。它与基于偏好的歧视不同,却常被用来为不公平算法辩护。",
article = nil,
}
data["statistical heterogeneity"] = {
short = "In federated learning, the property that local data distributions across clients are non-identically distributed (non-IID), causing local objectives to disagree and complicating convergence of methods designed for IID data.",
es = "En aprendizaje federado, la propiedad de que las distribuciones locales de datos entre clientes no son idénticamente distribuidas (no IID), lo que hace que los objetivos locales discrepen y dificulta la convergencia de métodos diseñados para datos IID.",
zh = "在联邦学习中,各客户端的本地数据分布并非同分布(非独立同分布)这一特性,会导致本地目标不一致,并使为独立同分布数据设计的方法收敛性变差。",
article = nil,
}
data["statistical learning theory"] = {
short = "A theoretical framework that studies generalization, sample complexity, and risk bounds for learning algorithms, drawing on probability theory, empirical processes, and concepts such as VC dimension and Rademacher complexity.",
es = "Marco teórico que estudia la generalización, la complejidad muestral y las cotas de riesgo de los algoritmos de aprendizaje, basándose en teoría de probabilidad, procesos empíricos y conceptos como la dimensión VC y la complejidad de Rademacher.",
zh = "研究学习算法的泛化能力、样本复杂度与风险界的理论框架,借助概率论、经验过程理论以及VC维和Rademacher复杂度等概念。",
article = nil,
}
data["statistical manifold"] = {
short = "A manifold whose points are probability distributions, equipped with a Riemannian metric (typically the Fisher information metric); the basic object of information geometry.",
es = "Variedad cuyos puntos son distribuciones de probabilidad, dotada de una métrica riemanniana (típicamente la métrica de información de Fisher); es el objeto básico de la geometría de la información.",
zh = "以概率分布为点、并配备黎曼度量(通常为Fisher信息度量)的流形;是信息几何的基本研究对象。",
article = nil,
}
data["statistical parametric tts"] = {
short = "A family of text-to-speech systems that synthesize waveforms from acoustic parameters predicted by a statistical model such as an HMM or neural network, in contrast to concatenative synthesis.",
es = "Familia de sistemas de texto a voz que sintetizan formas de onda a partir de parámetros acústicos predichos por un modelo estadístico como un HMM o red neuronal, en contraste con la síntesis concatenativa.",
zh = "一类文本转语音系统,通过统计模型(如 HMM 或神经网络)预测声学参数后再合成波形,与拼接合成形成对照。",
article = nil,
}
data["statistical parity"] = {
short = "A group fairness criterion requiring that the rate of positive predictions be equal across protected groups, i.e., P(Ŷ=1 | A=a) is identical for every value of the sensitive attribute A. Also known as demographic parity or independence.",
es = "Criterio de equidad grupal que exige que la tasa de predicciones positivas sea igual entre grupos protegidos, es decir, P(Ŷ=1 | A=a) es idéntica para cada valor del atributo sensible A. También se conoce como paridad demográfica o independencia.",
zh = "群体公平性准则,要求受保护群体之间的正预测率相等,即对敏感属性 A 的每个取值,P(Ŷ=1 | A=a) 都相同。也称人口学均等或独立性准则。",
article = nil,
}
data["statistical parity difference"] = {
short = "A scalar fairness metric defined as the difference between positive prediction rates of two groups, P(Ŷ=1 | A=a) − P(Ŷ=1 | A=b). Zero indicates statistical parity; nonzero values quantify the disparate-impact gap.",
es = "Métrica escalar de equidad definida como la diferencia entre las tasas de predicción positiva de dos grupos: P(Ŷ=1 | A=a) − P(Ŷ=1 | A=b). El valor cero indica paridad estadística; los valores distintos de cero cuantifican la brecha de impacto dispar.",
zh = "标量公平性度量,定义为两个群体正预测率之差:P(Ŷ=1 | A=a) − P(Ŷ=1 | A=b)。值为零表示统计均等,非零值量化了差异性影响的差距。",
article = nil,
}
data["statistical relational ai"] = {
short = "A field that unifies probability theory, first-order logic, and machine learning to model and reason about uncertainty in relational, structured domains.",
es = "Campo que unifica la teoría de la probabilidad, la lógica de primer orden y el aprendizaje automático para modelar y razonar bajo incertidumbre en dominios relacionales y estructurados.",
zh = "结合概率论、一阶逻辑与机器学习的领域,用于在关系型、结构化领域中对不确定性进行建模与推理。",
article = nil,
}
data["statistical relational learning"] = {
short = "A subfield of machine learning concerned with models—such as Markov logic networks and probabilistic relational models—that learn from data with both relational structure and uncertainty.",
es = "Subcampo del aprendizaje automático centrado en modelos —como las redes lógicas de Markov y los modelos relacionales probabilísticos— que aprenden de datos con estructura relacional e incertidumbre.",
zh = "机器学习的一个子领域,关注从兼具关系结构和不确定性的数据中学习的模型,如马尔可夫逻辑网络和概率关系模型。",
article = nil,
}
data["steered molecular dynamics"] = {
short = "A molecular dynamics technique in which an external time-dependent force is applied along a chosen reaction coordinate to drive a system through rare events, used to study unbinding pathways and to estimate free-energy profiles via Jarzynski's equality.",
es = "Técnica de dinámica molecular en la que se aplica una fuerza externa dependiente del tiempo a lo largo de una coordenada de reacción elegida para conducir el sistema a través de eventos raros, utilizada para estudiar trayectorias de desunión y estimar perfiles de energía libre mediante la igualdad de Jarzynski.",
zh = "一种分子动力学技术,沿选定反应坐标施加随时间变化的外部力以驱动体系穿越稀有事件,常用于研究解结合路径,并通过 Jarzynski 等式估计自由能曲线。",
article = nil,
}
data["steering vector"] = {
short = "A direction in a model's activation space which, when added to hidden states at inference, biases generation toward a target behavior, style, or concept.",
es = "Dirección en el espacio de activaciones de un modelo que, al sumarse a los estados ocultos en inferencia, sesga la generación hacia un comportamiento, estilo o concepto objetivo.",
zh = "模型激活空间中的一个方向向量,在推理时加到隐藏状态上可将生成结果导向目标行为、风格或概念。",
article = nil,
}
data["stein variational gradient descent"] = {
short = "A particle-based variational inference algorithm (Liu & Wang, 2016) that iteratively transports a set of particles to approximate a target posterior by following a kernelized gradient that minimizes the KL divergence in reproducing-kernel Hilbert space.",
es = "Algoritmo de inferencia variacional basado en partículas (Liu y Wang, 2016) que transporta iterativamente un conjunto de partículas para aproximar una posterior objetivo siguiendo un gradiente con núcleo que minimiza la divergencia KL en un espacio de Hilbert con núcleo reproductor.",
zh = "一种基于粒子的变分推断算法(Liu 和 Wang,2016),通过沿再生核希尔伯特空间中最小化 KL 散度的核化梯度,迭代地输运一组粒子以逼近目标后验。",
article = nil,
}
data["stemming"] = {
short = "A text normalization procedure that strips morphological affixes from words to produce a common base form (the stem), typically using rule-based heuristics like the Porter or Snowball algorithms. Faster but less linguistically accurate than lemmatization.",
es = "Procedimiento de normalización de texto que elimina los afijos morfológicos de las palabras para producir una forma base común (la raíz o stem), generalmente mediante heurísticas basadas en reglas como los algoritmos de Porter o Snowball. Más rápido pero menos preciso lingüísticamente que la lematización.",
zh = "一种文本规范化方法,通过去除单词的形态学词缀来得到共同的基本形式(词干),通常依赖 Porter 或 Snowball 等基于规则的启发式算法。比词形还原更快,但语言学上不够精确。",
article = nil,
}
data["step decay"] = {
short = "A learning rate schedule that multiplies the rate by a constant factor (e.g., 0.1) at predetermined epochs or steps, producing a piecewise-constant decay.",
es = "Programación de tasa de aprendizaje que multiplica la tasa por un factor constante (por ejemplo, 0.1) en épocas o pasos predeterminados, produciendo un decaimiento constante por tramos.",
zh = "一种学习率调度策略,在预定的轮次或步数处将学习率乘以一个常数因子(如 0.1),形成分段常数衰减。",
article = nil,
}
data["step-back prompting"] = {
short = "A prompting technique introduced by Google DeepMind in which the model is first asked to derive a higher-level abstraction or principle from the question before answering, improving reasoning and factual accuracy.",
es = "Técnica de prompting introducida por Google DeepMind en la que primero se pide al modelo que derive una abstracción o principio de mayor nivel a partir de la pregunta antes de responder, mejorando el razonamiento y la precisión factual.",
zh = "Google DeepMind提出的一种提示策略,先让模型从问题中推导出更高层次的抽象或原理,再给出回答,从而提升推理能力和事实准确性。",
article = nil,
}
data["step-level reward"] = {
short = "A reward signal assigned to individual reasoning steps rather than to the final answer, used in process supervision for chain-of-thought training; the basis of process reward models (PRMs).",
es = "Señal de recompensa asignada a pasos individuales de razonamiento en lugar de a la respuesta final, utilizada en la supervisión de procesos para el entrenamiento de cadenas de pensamiento; base de los modelos de recompensa por proceso (PRM).",
zh = "对单个推理步骤而非最终答案分配的奖励信号,用于思维链训练中的过程监督,是过程奖励模型(PRM)的基础。",
article = nil,
}
data["stereo-seq"] = {
short = "A spatial transcriptomics technology that uses DNA nanoball arrays patterned with positional barcodes at submicron resolution to capture mRNA from large tissue sections.",
es = "Tecnología de transcriptómica espacial que utiliza matrices de nanobolas de ADN con códigos de barras posicionales a resolución submicrométrica para capturar ARNm de grandes secciones de tejido.",
zh = "一种空间转录组技术,利用具有亚微米分辨率位置条形码的 DNA 纳米球阵列从大组织切片中捕获 mRNA。",
article = nil,
}
data["stereoisomer"] = {
short = "Molecules with the same molecular formula and atomic connectivity but a different three-dimensional arrangement of atoms; the class includes enantiomers (non-superimposable mirror images) and diastereomers.",
es = "Moléculas con la misma fórmula molecular y conectividad atómica pero distinta disposición tridimensional de los átomos; la clase incluye enantiómeros (imágenes especulares no superponibles) y diastereoisómeros.",
zh = "具有相同分子式与原子连接关系,但原子三维空间排列不同的分子;包括对映异构体(不可重合的镜像)和非对映异构体。",
article = nil,
}
data["stereoset"] = {
short = "A benchmark dataset for measuring stereotypical bias in language models across gender, race, profession, and religion using context association tests. Pairs stereotypical and anti-stereotypical continuations against an unrelated control.",
es = "Conjunto de datos de referencia para medir el sesgo estereotípico en modelos de lenguaje en las dimensiones de género, raza, profesión y religión, mediante pruebas de asociación contextual. Empareja continuaciones estereotípicas y antiestereotípicas frente a un control no relacionado.",
zh = "用于衡量语言模型在性别、种族、职业和宗教等维度上刻板偏差的基准数据集,采用上下文关联测试,将刻板与反刻板的续写与无关对照进行配对。",
article = nil,
}
data["stereotype bias"] = {
short = "Bias in which a model's outputs reproduce widely held social stereotypes about a group, such as occupation-by-gender associations or culturally loaded adjectives. Measured by benchmarks like StereoSet, CrowS-Pairs, and WEAT.",
es = "Sesgo en el que las salidas de un modelo reproducen estereotipos sociales ampliamente difundidos sobre un grupo, como asociaciones de ocupación por género o adjetivos cargados culturalmente. Se mide con referencias como StereoSet, CrowS-Pairs y WEAT.",
zh = "模型输出再现社会上广泛存在的群体刻板印象的偏差,例如职业与性别的关联或带有文化偏向的形容词。常用 StereoSet、CrowS-Pairs、WEAT 等基准进行衡量。",
article = nil,
}
data["stereotyping harm"] = {
short = "A representational harm in which a system's outputs reinforce reductive or essentialist depictions of a social group. One of the canonical categories of allocation- versus representation-related harms in fair-ML taxonomies.",
es = "Daño representacional en el que las salidas de un sistema refuerzan retratos reductivos o esencialistas de un grupo social. Una de las categorías canónicas de daños representacionales (frente a los de asignación) en las taxonomías de fair-ML.",
zh = "一种表征性危害,系统输出强化了对某个社会群体的简化或本质化描绘。它是公平机器学习分类法中,与分配性危害相对的代表性危害的典型类别之一。",
article = nil,
}
data["stft"] = {
short = "Short-Time Fourier Transform, a time-frequency analysis technique that applies the Fourier transform to overlapping windowed segments of a signal to produce a spectrogram.",
es = "Short-Time Fourier Transform, técnica de análisis tiempo-frecuencia que aplica la transformada de Fourier a segmentos ventaneados solapados de una señal para producir un espectrograma.",
zh = "短时傅里叶变换,一种时频分析技术,通过对信号的重叠加窗片段进行傅里叶变换,生成频谱图。",
article = nil,
}
data["stick-breaking process"] = {
short = "A constructive representation of the Dirichlet process and related nonparametric priors in which random weights are obtained by recursively breaking off Beta-distributed fractions of a unit-length stick.",
es = "Representación constructiva del proceso de Dirichlet y de priores no paramétricos relacionados en la que los pesos aleatorios se obtienen rompiendo recursivamente fracciones distribuidas como Beta de un palo de longitud unidad.",
zh = "Dirichlet 过程及相关非参数先验的一种构造性表示,通过对长度为 1 的棒递归地折下服从 Beta 分布的片段来获得随机权重。",
article = nil,
}
data["sticking-the-landing estimator"] = {
short = "A low-variance reparameterization gradient estimator for the variational ELBO (Roeder et al., 2017) obtained by stopping gradients through the score-function term, so that the estimator's variance vanishes when the variational and true posterior coincide.",
es = "Estimador de gradiente por reparametrización de baja varianza para la ELBO variacional (Roeder et al., 2017), obtenido al detener los gradientes a través del término de la función de puntuación, de modo que la varianza del estimador desaparece cuando la variacional y la posterior verdadera coinciden.",
zh = "一种用于变分 ELBO 的低方差重参数化梯度估计器(Roeder 等,2017),通过在 score 函数项上停止梯度得到,当变分分布与真实后验重合时方差归零。",
article = nil,
}
data["sticky actions"] = {
short = "An evaluation protocol for the Arcade Learning Environment introduced by Machado et al. that, with fixed probability at each step, repeats the agent's previous action instead of executing the new one, injecting stochasticity into otherwise deterministic Atari games.",
es = "Protocolo de evaluación para el Arcade Learning Environment introducido por Machado et al. que, con probabilidad fija en cada paso, repite la acción anterior del agente en lugar de ejecutar la nueva, introduciendo estocasticidad en juegos de Atari por lo demás deterministas.",
zh = "Machado 等人为 Arcade Learning Environment 引入的评估协议:在每一步以固定概率重复智能体上一步的动作而非执行新动作,从而在原本确定性的 Atari 游戏中注入随机性。",
article = nil,
}
data["stiffness learning"] = {
short = "Learning the time-varying stiffness or impedance parameters of a robot's compliance controller, either from human demonstrations or by reinforcement learning, so that contact-rich tasks become safer and more robust to model error.",
es = "Aprendizaje de los parámetros de rigidez o impedancia variables en el tiempo del controlador de compliance del robot, ya sea a partir de demostraciones humanas o mediante aprendizaje por refuerzo, para que las tareas con contacto rico sean más seguras y robustas frente a errores de modelo.",
zh = "学习机器人柔顺控制器中随时间变化的刚度或阻抗参数,可基于人类演示或强化学习实现,使富接触任务在面对模型误差时更安全、更鲁棒。",
article = nil,
}
data["stirling approximation"] = {
short = "An asymptotic formula approximating the factorial, n! ≈ √(2πn) (n/e)^n; widely used in combinatorics, statistical mechanics, and probability for large-n estimates.",
es = "Fórmula asintótica que aproxima el factorial, n! ≈ √(2πn) (n/e)^n; se utiliza ampliamente en combinatoria, mecánica estadística y probabilidad para estimaciones cuando n es grande.",
zh = "阶乘的渐近公式 n! ≈ √(2πn) (n/e)^n;在组合学、统计力学和概率论中广泛用于大n情形下的估计。",
article = nil,
}
data["stl decomposition"] = {
short = "Seasonal-Trend decomposition using LOESS: a method that separates a time series into trend, seasonal, and remainder components by repeatedly applying locally weighted regression smoothing.",
es = "Descomposición estacional-tendencial mediante LOESS: método que separa una serie temporal en componentes de tendencia, estacionalidad y residuo aplicando repetidamente suavizado por regresión localmente ponderada.",
zh = "基于 LOESS 的季节-趋势分解方法:通过反复应用局部加权回归平滑,将时间序列分解为趋势、季节和残差三个分量。",
article = nil,
}
data["stochastic approximation"] = {
short = "A class of iterative methods for finding roots or extrema of functions that can only be observed through noisy samples, of which SGD is a canonical example.",
es = "Clase de métodos iterativos para encontrar raíces o extremos de funciones que solo pueden observarse a través de muestras ruidosas, de la cual el SGD es un ejemplo canónico.",
zh = "一类用于在只能通过含噪样本观测的函数中寻找根或极值的迭代方法,SGD 是其经典代表。",
article = nil,
}
data["stochastic depth"] = {
short = "A regularization technique for very deep residual networks that randomly drops entire residual blocks during training, replacing them with the identity, which shortens the effective depth and improves generalization.",
es = "Técnica de regularización para redes residuales muy profundas que descarta aleatoriamente bloques residuales completos durante el entrenamiento, reemplazándolos por la identidad, lo que reduce la profundidad efectiva y mejora la generalización.",
zh = "一种适用于极深残差网络的正则化技术,在训练期间随机丢弃整个残差块并以恒等映射替代,从而缩短有效深度并提升泛化能力。",
article = nil,
}
data["stochastic differential equation"] = {
short = "A differential equation in which one or more terms are stochastic processes, typically driven by Brownian motion; foundational in mathematical finance, physics, and diffusion-based generative models.",
es = "Ecuación diferencial en la que uno o más términos son procesos estocásticos, típicamente impulsada por un movimiento browniano; es fundamental en matemática financiera, física y modelos generativos basados en difusión.",
zh = "包含一个或多个随机过程项(通常由布朗运动驱动)的微分方程;在金融数学、物理学以及基于扩散的生成模型中具有基础性作用。",
article = nil,
}
data["stochastic em"] = {
short = "A variant of Expectation-Maximization that, in each E-step, draws latent variables from their current posterior rather than computing expected sufficient statistics, yielding a stochastic but easier-to-compute update.",
es = "Variante de Expectation-Maximization que, en cada paso E, muestrea las variables latentes a partir de su posterior actual en lugar de calcular estadísticos suficientes esperados, produciendo una actualización estocástica pero más fácil de calcular.",
zh = "期望最大化的一种变体,在每个 E 步从当前后验中抽取潜变量样本,而不是计算期望的充分统计量,从而得到随机但更易计算的更新。",
article = nil,
}
data["stochastic expectation propagation"] = {
short = "A scalable variant of Expectation Propagation that maintains a single global approximating factor shared by all data points and updates it stochastically using mini-batches.",
es = "Variante escalable de Expectation Propagation que mantiene un único factor aproximante global compartido por todos los puntos de datos y lo actualiza de forma estocástica utilizando mini-lotes.",
zh = "Expectation Propagation 的一种可扩展变体,所有数据点共享一个全局的近似因子,并通过小批量进行随机更新。",
article = nil,
}
data["stochastic game"] = {
short = "A multi-agent generalization of a Markov decision process in which two or more players simultaneously choose actions in each state, jointly determining stochastic state transitions and per-player rewards; also called a Markov game.",
es = "Generalización multiagente de un proceso de decisión de Markov en el que dos o más jugadores eligen simultáneamente acciones en cada estado, determinando conjuntamente las transiciones estocásticas de estado y las recompensas por jugador; también llamado juego de Markov.",
zh = "马尔可夫决策过程在多智能体情形下的推广:两个或多个参与者在每个状态同时选择动作,共同决定状态的随机转移和各自的奖励;又称马尔可夫博弈。",
article = nil,
}
data["stochastic gradient descent"] = {
short = "An iterative optimization algorithm that estimates gradients from random samples (typically a single example or mini-batch) rather than the full dataset, enabling efficient training on large datasets.",
es = "Algoritmo de optimización iterativa que estima gradientes a partir de muestras aleatorias (normalmente un solo ejemplo o un mini-lote) en lugar del conjunto de datos completo.",
zh = "一种通过随机样本(通常为单个样本或小批量)而非完整数据集来估计梯度的迭代优化算法,能够在大规模数据集上高效训练。",
article = "Stochastic Gradient Descent",
}
data["stochastic gradient hamiltonian monte carlo"] = {
short = "A scalable Hamiltonian Monte Carlo method that uses stochastic gradient estimates from mini-batches and adds a friction term to counteract the resulting noise, enabling Bayesian sampling on large datasets.",
es = "Método escalable de Monte Carlo Hamiltoniano que utiliza estimaciones estocásticas del gradiente a partir de mini-lotes y añade un término de fricción para contrarrestar el ruido resultante, permitiendo el muestreo bayesiano en grandes conjuntos de datos.",
zh = "一种可扩展的哈密顿蒙特卡洛方法,使用基于小批量的随机梯度估计,并加入摩擦项以抵消由此引入的噪声,从而在大数据集上进行贝叶斯采样。",
article = nil,
}
data["stochastic gradient langevin dynamics"] = {
short = "A Bayesian sampling algorithm that combines stochastic gradient updates with injected Gaussian noise of decreasing magnitude, transitioning from optimization to approximate posterior sampling on large datasets.",
es = "Algoritmo de muestreo bayesiano que combina actualizaciones de gradiente estocástico con ruido gaussiano inyectado de magnitud decreciente, pasando de la optimización al muestreo aproximado de la posterior en grandes conjuntos de datos.",
zh = "一种贝叶斯采样算法,将随机梯度更新与幅度递减的高斯噪声相结合,使大数据集上的过程由优化逐步过渡为近似后验采样。",
article = nil,
}
data["stochastic gradient mcmc"] = {
short = "A family of MCMC algorithms that replace exact gradients with mini-batch stochastic gradients, including SGLD, SGHMC, and SGNHT. They scale Bayesian sampling to large datasets at the cost of asymptotic bias from the gradient noise.",
es = "Familia de algoritmos MCMC que sustituyen los gradientes exactos por gradientes estocásticos sobre mini-lotes, incluyendo SGLD, SGHMC y SGNHT. Escalan el muestreo bayesiano a grandes conjuntos de datos al coste de un sesgo asintótico debido al ruido del gradiente.",
zh = "一类 MCMC 算法,用小批量随机梯度替代精确梯度,包括 SGLD、SGHMC 和 SGNHT;以梯度噪声引入的渐近偏差为代价,使贝叶斯采样能够扩展到大规模数据集。",
article = nil,
}
data["stochastic gradient nose-hoover thermostat"] = {
short = "An SG-MCMC method (Ding et al., 2014) that augments stochastic gradient Hamiltonian dynamics with an adaptive Nosé-Hoover thermostat variable, automatically absorbing unknown gradient-noise variance to keep the sampler invariant to the true posterior.",
es = "Método SG-MCMC (Ding et al., 2014) que aumenta las dinámicas hamiltonianas con gradiente estocástico con una variable termostato Nosé-Hoover adaptativa, absorbiendo automáticamente la varianza desconocida del ruido de gradiente para mantener al muestreador invariante respecto a la posterior verdadera.",
zh = "一种 SG-MCMC 方法(Ding 等,2014),在随机梯度哈密顿动力学中引入自适应 Nosé-Hoover 恒温器变量,自动吸收未知的梯度噪声方差,使采样器对真实后验保持不变。",
article = nil,
}
data["stochastic latent actor-critic"] = {
short = "A model-based reinforcement-learning algorithm for partially observed continuous control that learns a stochastic latent dynamics model from images and trains a SAC-style actor-critic on the inferred latent states.",
es = "Algoritmo de aprendizaje por refuerzo basado en modelo para control continuo parcialmente observable que aprende un modelo dinámico latente estocástico a partir de imágenes y entrena un actor-crítico estilo SAC sobre los estados latentes inferidos.",
zh = "一种用于部分可观测连续控制的基于模型强化学习算法:从图像中学习随机潜在动力学模型,并在推断出的潜在状态上训练 SAC 风格的 actor-critic。",
article = nil,
}
data["stochastic maximum likelihood"] = {
short = "A method for training undirected graphical models such as RBMs that approximates the model expectation in the gradient using persistent MCMC chains updated alongside the parameters; equivalent to persistent contrastive divergence.",
es = "Método para entrenar modelos gráficos no dirigidos como las RBM que aproxima la expectativa del modelo en el gradiente mediante cadenas MCMC persistentes actualizadas junto con los parámetros; equivalente a la divergencia contrastiva persistente.",
zh = "一种用于训练无向图模型(如 RBM)的方法,通过与参数同步更新的持续 MCMC 链来近似梯度中的模型期望,与持续对比散度等价。",
article = nil,
}
data["stochastic muzero"] = {
short = "An extension of MuZero to stochastic environments that augments the learned dynamics model with discrete chance nodes and an afterstate value, enabling planning via Monte Carlo tree search in domains with intrinsic randomness such as 2048 or backgammon.",
es = "Extensión de MuZero a entornos estocásticos que añade al modelo dinámico aprendido nodos de azar discretos y un valor de postestado, permitiendo la planificación mediante búsqueda en árbol Monte Carlo en dominios con aleatoriedad intrínseca como 2048 o el backgammon.",
zh = "MuZero 在随机环境中的扩展:在学习到的动力学模型中加入离散机会节点和 afterstate 值,从而能够在 2048、双陆棋等具有内在随机性的领域中通过蒙特卡洛树搜索进行规划。",
article = nil,
}
data["stochastic optimal control"] = {
short = "The branch of control theory concerned with finding control policies that optimize an expected cost or reward functional for dynamical systems driven by random noise, encompassing tools such as the Hamilton-Jacobi-Bellman equation and dynamic programming.",
es = "Rama de la teoría de control que se ocupa de encontrar políticas de control que optimicen una funcional esperada de coste o recompensa para sistemas dinámicos sometidos a ruido aleatorio, e incluye herramientas como la ecuación de Hamilton-Jacobi-Bellman y la programación dinámica.",
zh = "控制论的一个分支,研究为受随机噪声驱动的动力系统寻找最优控制策略以最小化或最大化期望成本或回报泛函,涉及 Hamilton-Jacobi-Bellman 方程和动态规划等工具。",
article = nil,
}
data["stochastic policy"] = {
short = "A policy that defines a probability distribution over actions given a state, π(a|s), so that actions are sampled rather than chosen deterministically. Standard in policy-gradient methods and useful for built-in exploration.",
es = "Política que define una distribución de probabilidad sobre las acciones dado un estado, π(a|s), de modo que las acciones se muestrean en lugar de elegirse de forma determinista. Estándar en los métodos de gradiente de política y útil para una exploración incorporada.",
zh = "在给定状态下对动作定义概率分布 π(a|s) 的策略,动作通过采样而非确定性选择产生。是策略梯度方法的标准形式,并自然地提供探索能力。",
article = nil,
}
data["stochastic policy gradient"] = {
short = "The policy-gradient theorem and family of algorithms for reinforcement learning with stochastic policies, expressing the gradient of expected return as the expectation of the score function ∇log π(a|s) weighted by the action value or advantage.",
es = "Teorema del gradiente de política y familia de algoritmos para aprendizaje por refuerzo con políticas estocásticas, que expresa el gradiente del retorno esperado como la esperanza de la función score ∇log π(a|s) ponderada por el valor de acción o la ventaja.",
zh = "针对随机策略的强化学习策略梯度定理及相关算法系列,将期望回报的梯度表示为打分函数 ∇log π(a|s) 加权于动作价值或优势的期望。",
article = nil,
}
data["stochastic shortest path"] = {
short = "A class of undiscounted Markov decision processes with positive transition costs and an absorbing goal state, where the objective is to minimize the expected total cost incurred until the goal is reached; generalizes deterministic shortest-path problems.",
es = "Clase de procesos de decisión de Markov sin descuento con costes de transición positivos y un estado meta absorbente, en la que el objetivo es minimizar el coste total esperado incurrido hasta alcanzar la meta; generaliza los problemas de camino más corto determinista.",
zh = "一类无折扣的马尔可夫决策过程,转移代价为正且存在吸收型目标状态,目标是最小化到达目标前所产生的期望总代价;它是确定性最短路径问题的推广。",
article = nil,
}
data["stochastic variational deep gp"] = {
short = "A doubly stochastic variational inference scheme (Salimbeni & Deisenroth, 2017) for deep Gaussian processes that uses inducing points at every layer and Monte Carlo samples through the layer composition, enabling end-to-end training on large datasets without mean-field assumptions between layers.",
es = "Esquema de inferencia variacional doblemente estocástica (Salimbeni y Deisenroth, 2017) para procesos gaussianos profundos, que usa puntos inductores en cada capa y muestras de Monte Carlo a través de la composición de capas, permitiendo entrenamiento extremo a extremo en grandes conjuntos de datos sin suposiciones de campo medio entre capas.",
zh = "用于深度高斯过程的双重随机变分推断方案(Salimbeni 和 Deisenroth,2017),在每一层使用诱导点,并通过层间组合进行蒙特卡洛采样,从而在不假设层间平均场的前提下,对大规模数据进行端到端训练。",
article = nil,
}
data["stochastic variational inference"] = {
short = "A scalable variational inference algorithm that optimizes the evidence lower bound using stochastic natural-gradient updates computed on mini-batches of data, enabling Bayesian inference on very large datasets.",
es = "Algoritmo escalable de inferencia variacional que optimiza la cota inferior de la evidencia mediante actualizaciones estocásticas de gradiente natural calculadas sobre mini-lotes de datos, permitiendo la inferencia bayesiana en conjuntos de datos muy grandes.",
zh = "一种可扩展的变分推断算法,使用基于小批量数据的随机自然梯度更新来优化证据下界,从而在超大规模数据集上进行贝叶斯推断。",
article = nil,
}
data["stochastic volatility model"] = {
short = "A class of time series models in which the variance of the innovations is itself a latent stochastic process, typically used in finance to capture clustered, time-varying volatility.",
es = "Clase de modelos de series temporales en los que la varianza de las innovaciones es a su vez un proceso estocástico latente, utilizada habitualmente en finanzas para capturar la volatilidad agrupada y variable en el tiempo.",
zh = "一类时间序列模型,其中创新项的方差本身是潜在的随机过程,通常用于金融中刻画聚集的、随时间变化的波动率。",
article = nil,
}
data["stochastic weight averaging"] = {
short = "A training procedure (Izmailov et al., 2018) that averages the weights of SGD iterates collected with a high constant or cyclic learning rate, finding flatter minima and improving generalization at almost zero additional cost.",
es = "Procedimiento de entrenamiento (Izmailov et al., 2018) que promedia los pesos de iteraciones de SGD recolectadas con una tasa de aprendizaje alta constante o cíclica, encontrando mínimos más planos y mejorando la generalización con casi ningún coste adicional.",
zh = "一种训练方法(Izmailov 等,2018),对采用高恒定或循环学习率的 SGD 迭代权重取平均,能找到更平坦的极小值并以几乎零额外成本提升泛化能力。",
article = nil,
}
data["stokes theorem"] = {
short = "A central theorem of vector calculus relating the integral of a differential form over the boundary of an oriented manifold to the integral of its exterior derivative over the manifold itself.",
es = "Teorema central del cálculo vectorial que relaciona la integral de una forma diferencial sobre el borde de una variedad orientada con la integral de su derivada exterior sobre la propia variedad.",
zh = "矢量微积分中的核心定理,将微分形式在定向流形边界上的积分与该形式的外导数在流形内部的积分联系起来。",
article = nil,
}
data["stomp"] = {
short = "Stochastic Trajectory Optimization for Motion Planning, a sampling-based optimizer that perturbs a candidate joint trajectory with smooth noise and uses noisy cost rollouts to descend a non-differentiable objective combining obstacle, smoothness, and constraint terms.",
es = "Optimización Estocástica de Trayectorias para Planificación de Movimiento (STOMP), un optimizador basado en muestreo que perturba una trayectoria articular candidata con ruido suave y utiliza despliegues de coste ruidosos para descender un objetivo no diferenciable que combina términos de obstáculos, suavidad y restricciones.",
zh = "运动规划的随机轨迹优化方法(STOMP)。该基于采样的优化器对候选关节轨迹添加平滑噪声,并利用带噪的代价采样下降一个由障碍、平滑性和约束项组合而成的不可微目标函数。",
article = nil,
}
data["stop words"] = {
short = "Common high-frequency words (e.g. \"the\", \"is\", \"of\") that are removed during text preprocessing because they carry little discriminative information for many information retrieval and bag-of-words tasks.",
es = "Palabras vacías o de alta frecuencia (por ejemplo «el», «de», «y») que se eliminan durante el preprocesamiento de texto porque aportan poca información discriminativa en muchas tareas de recuperación de información y bolsas de palabras.",
zh = "在文本预处理中被过滤掉的高频常用词(如 \"the\"、\"is\"、\"of\"),因为它们在信息检索和词袋等任务中携带的区分性信息很少。",
article = nil,
}
data["straggler problem"] = {
short = "In synchronous distributed training, the slowdown caused when the slowest worker (the straggler) delays the entire round, since fast workers must wait at the synchronization barrier before the next iteration can proceed.",
es = "En el entrenamiento distribuido síncrono, la ralentización provocada por el trabajador más lento (el rezagado), ya que los trabajadores rápidos deben esperar en la barrera de sincronización antes de poder iniciar la siguiente iteración.",
zh = "在同步分布式训练中,由最慢的工作节点(落后者)造成的整体减速,因为快速节点必须在同步屏障处等待,下一次迭代才能开始。",
article = nil,
}
data["straggler-aware scheduling"] = {
short = "A scheduling strategy in distributed or federated training that mitigates the straggler problem by selecting, weighting, or replicating tasks based on observed worker speeds, deadlines, or expected completion times.",
es = "Estrategia de planificación en entrenamiento distribuido o federado que mitiga el problema de los rezagados seleccionando, ponderando o replicando tareas según las velocidades observadas de los trabajadores, los plazos o los tiempos de finalización esperados.",
zh = "一种用于分布式或联邦训练的调度策略,通过依据观测到的工作节点速度、截止时间或预期完成时间来选择、加权或复制任务,以缓解掉队者问题。",
article = nil,
}
data["straight vocoder"] = {
short = "Speech Transformation and Representation using Adaptive Interpolation of weiGHTed spectrum, a high-quality analysis–synthesis vocoder that decomposes speech into smoothed spectrum, F0, and aperiodicity.",
es = "Speech Transformation and Representation using Adaptive Interpolation of weiGHTed spectrum, un vocoder de análisis y síntesis de alta calidad que descompone el habla en espectro suavizado, F0 y aperiodicidad.",
zh = "STRAIGHT,一种高质量的分析-合成声码器,将语音分解为平滑频谱、基频(F0)和非周期分量。",
article = nil,
}
data["straight-through estimator"] = {
short = "A biased gradient estimator that backpropagates through non-differentiable operations such as discrete sampling or quantization by treating them as the identity function during the backward pass.",
es = "Estimador de gradiente sesgado que retropropaga a través de operaciones no diferenciables como el muestreo discreto o la cuantización tratándolas como la función identidad durante el paso hacia atrás.",
zh = "一种有偏的梯度估计器,通过在反向传播时将离散采样、量化等不可微操作视为恒等函数来传递梯度。",
article = nil,
}
data["straight-through estimator rl"] = {
short = "Use of the straight-through estimator in reinforcement learning to backpropagate gradients through discrete action samples (e.g. argmax or hard one-hot draws) by treating them as identity in the backward pass while keeping discrete forward behavior.",
es = "Uso del estimador straight-through en aprendizaje por refuerzo para retropropagar gradientes a través de muestras de acciones discretas (por ejemplo argmax o one-hot duros) tratándolas como identidad en el paso hacia atrás, manteniendo el comportamiento discreto en el paso hacia adelante.",
zh = "在强化学习中使用直通估计器(straight-through estimator),通过在反向传播时将离散动作样本(如 argmax 或硬独热采样)视为恒等映射来传递梯度,同时保留前向的离散行为。",
article = nil,
}
data["strategyqa"] = {
short = "A question-answering benchmark of yes/no questions requiring implicit multi-step reasoning, where each question must be decomposed into a chain of intermediate facts before answering.",
es = "Benchmark de preguntas y respuestas con preguntas de sí/no que requieren razonamiento implícito de varios pasos, donde cada pregunta debe descomponerse en una cadena de hechos intermedios antes de responder.",
zh = "一种问答基准,包含需要隐式多步推理的是非题,每个问题必须先分解为一系列中间事实链才能作答。",
article = nil,
}
data["stratified interference"] = {
short = "A partial-interference assumption that units are partitioned into groups (strata) within which interference may occur arbitrarily, while no spillover acts across groups.",
es = "Supuesto de interferencia parcial según el cual las unidades se dividen en grupos (estratos) dentro de los cuales puede haber interferencia arbitraria, pero no hay efectos de derrame entre grupos.",
zh = "一种部分干扰假设,即将单元划分为若干组(层),组内可存在任意干扰,但组间不存在溢出。",
article = nil,
}
data["stratified sampling"] = {
short = "A sampling strategy that partitions the population into homogeneous strata (e.g., classes) and samples from each in proportion to its size, ensuring that the resulting sample preserves the original class or group distribution.",
es = "Estrategia de muestreo que divide la población en estratos homogéneos (por ejemplo, clases) y muestrea cada uno en proporción a su tamaño, garantizando que la muestra resultante preserve la distribución original de clases o grupos.",
zh = "一种抽样策略,将总体划分为同质的层(例如类别),并按各层的比例进行抽样,从而确保所得样本保留原始的类别或分组分布。",
article = nil,
}
data["stratonovich integral"] = {
short = "A type of stochastic integral that, unlike the Itô integral, satisfies the ordinary chain rule of calculus; commonly used in physics and on manifolds where coordinate-invariance matters.",
es = "Tipo de integral estocástica que, a diferencia de la integral de Itô, satisface la regla de la cadena ordinaria del cálculo; se emplea habitualmente en física y en variedades donde importa la invariancia por cambios de coordenadas.",
zh = "一种随机积分,与伊藤积分不同,它满足普通微积分的链式法则;在物理学以及需要坐标不变性的流形场景中常被使用。",
article = nil,
}
data["streaming anomaly detection"] = {
short = "Online detection of anomalous observations or patterns in a continuously arriving data stream, where decisions must be made with bounded memory and without revisiting past data.",
es = "Detección en línea de observaciones o patrones anómalos en un flujo de datos que llega de forma continua, en la que las decisiones deben tomarse con memoria acotada y sin revisar los datos pasados.",
zh = "在持续到达的数据流上在线检测异常观测或模式的方法,决策必须在有限内存下完成且无法回溯历史数据。",
article = nil,
}
data["streaming asr"] = {
short = "Automatic speech recognition that emits hypotheses with low latency as audio arrives, rather than waiting for the full utterance, typically using causal or chunked attention and transducer or CTC decoders.",
es = "Reconocimiento automático del habla que emite hipótesis con baja latencia a medida que llega el audio, en lugar de esperar la elocución completa, usando típicamente atención causal o por fragmentos y decodificadores de transductor o CTC.",
zh = "在音频到达时以低延迟输出假设的自动语音识别,而非等待整段语音结束,通常采用因果或分块注意力以及 transducer 或 CTC 解码器。",
article = nil,
}
data["streaming conformer"] = {
short = "A streaming variant of the Conformer ASR encoder that uses chunked or causal self-attention together with limited-context convolutions to enable low-latency, online speech recognition.",
es = "Variante de transmisión del codificador Conformer para reconocimiento automático del habla que usa atención propia por fragmentos o causal junto con convoluciones de contexto limitado para permitir reconocimiento del habla en línea de baja latencia.",
zh = "Conformer 语音识别编码器的流式变体,通过分块或因果自注意力结合有限上下文卷积,实现低延迟在线语音识别。",
article = nil,
}
data["streaming rnn-t"] = {
short = "A streaming RNN-Transducer model for automatic speech recognition that produces output tokens incrementally with low latency, jointly modeling acoustic and language information without explicit alignment.",
es = "Modelo RNN-Transducer en streaming para reconocimiento automático del habla que produce tokens de salida de forma incremental con baja latencia, modelando conjuntamente información acústica y lingüística sin alineación explícita.",
zh = "用于自动语音识别的流式 RNN-Transducer 模型,以低延迟逐步输出 token,联合建模声学与语言信息且无需显式对齐。",
article = nil,
}
data["streaming s2st"] = {
short = "A streaming speech-to-speech translation system that emits target-language speech incrementally as the source-language audio arrives, balancing translation quality against latency.",
es = "Sistema de traducción de voz a voz en streaming que emite habla en el idioma objetivo de forma incremental a medida que llega el audio del idioma fuente, equilibrando calidad de traducción y latencia.",
zh = "流式语音到语音翻译系统,在源语言音频到达时逐步输出目标语言语音,在翻译质量与延迟之间取得平衡。",
article = nil,
}
data["streaming t2v"] = {
short = "A long text-to-video generation framework that produces extended, temporally consistent videos by autoregressively chaining short clips while conditioning each new segment on previous frames using a short-term and long-term memory module.",
es = "Marco de generación de video a partir de texto a largo plazo que produce videos extensos y temporalmente consistentes encadenando autorregresivamente clips cortos y condicionando cada nuevo segmento en los fotogramas previos mediante módulos de memoria de corto y largo plazo.",
zh = "一种长文本到视频生成框架,通过自回归方式串联多个短片段,并使用短期与长期记忆模块以先前帧作为条件,从而生成时间上连贯的长视频。",
article = nil,
}
data["streaming time series"] = {
short = "A time series whose observations arrive sequentially and indefinitely, requiring algorithms that process each point on the fly with limited memory and without random access to history.",
es = "Serie temporal cuyas observaciones llegan de manera secuencial e indefinida, lo que requiere algoritmos que procesen cada punto al vuelo con memoria limitada y sin acceso aleatorio al historial.",
zh = "观测值按顺序持续不断到达的时间序列,需要算法在有限内存下逐点在线处理,且无法随机访问历史数据。",
article = nil,
}
data["streamingllm"] = {
short = "A method that enables a transformer LLM to handle effectively unbounded context by retaining a small number of initial 'attention sink' tokens together with a sliding window of recent tokens, preserving stability without retraining.",
es = "Método que permite a un LLM transformador manejar contextos prácticamente ilimitados conservando un pequeño número de tokens iniciales como ancla de atención junto con una ventana deslizante de tokens recientes, preservando la estabilidad sin necesidad de reentrenamiento.",
zh = "一种方法,通过保留少量起始的“注意力汇”token以及最近token的滑动窗口,使Transformer大型语言模型在无需重新训练的情况下处理近乎无限的上下文并保持稳定。",
article = nil,
}
data["strelka"] = {
short = "A variant caller for germline and somatic small-variant detection from short-read sequencing, using empirical scoring models tuned for tumor-normal paired analysis.",
es = "Detector de variantes para identificación de variantes pequeñas germinales y somáticas a partir de secuenciación de lecturas cortas, que utiliza modelos empíricos de puntuación ajustados para el análisis pareado tumor-normal.",
zh = "一种用于从短读长测序数据中检测胚系和体细胞小变异的变异检出工具,采用针对肿瘤-正常配对分析调优的经验评分模型。",
article = nil,
}
data["strict convexity"] = {
short = "A property of a function whereby the line segment between any two distinct points on its graph lies strictly above the graph; equivalently, f(λx+(1−λ)y) < λf(x)+(1−λ)f(y) for x ≠ y and λ∈(0,1).",
es = "Propiedad de una función según la cual el segmento entre dos puntos distintos cualesquiera de su gráfica se sitúa estrictamente por encima de la gráfica; equivalentemente, f(λx+(1−λ)y) < λf(x)+(1−λ)f(y) para x ≠ y y λ∈(0,1).",
zh = "函数的一种性质:其图像上任意两个不同点之间的连线段严格位于图像上方;等价地,对于x ≠ y和λ∈(0,1)有f(λx+(1−λ)y) < λf(x)+(1−λ)f(y)。",
article = nil,
}
data["strict stationarity"] = {
short = "A property of a stochastic process whereby the joint distribution of any finite collection of observations is invariant under time shifts; stronger than weak (covariance) stationarity.",
es = "Propiedad de un proceso estocástico según la cual la distribución conjunta de cualquier colección finita de observaciones es invariante bajo desplazamientos temporales; más fuerte que la estacionariedad débil o de covarianza.",
zh = "随机过程的一种性质:任意有限观测集合的联合分布在时间平移下保持不变;强于弱(协方差)平稳性。",
article = nil,
}
data["stride"] = {
short = "The step size with which a convolution or pooling kernel moves across the input. A stride greater than one downsamples the spatial dimensions of the output.",
es = "El tamaño del paso con el que un núcleo de convolución o de pooling se desplaza sobre la entrada. Un stride mayor que uno reduce las dimensiones espaciales de la salida.",
zh = "卷积或池化核在输入上移动的步长。步长大于一会对输出的空间维度进行下采样。",
article = nil,
}
data["string database"] = {
short = "A curated database of known and predicted protein-protein interactions, integrating evidence from genomic context, co-expression, text mining, and experimental data with confidence scores.",
es = "Base de datos curada de interacciones proteína-proteína conocidas y predichas, que integra evidencia de contexto genómico, coexpresión, minería de texto y datos experimentales con puntuaciones de confianza.",
zh = "一个整合已知和预测的蛋白质-蛋白质相互作用的精选数据库,结合基因组上下文、共表达、文本挖掘和实验数据等证据并提供置信度评分。",
article = nil,
}
data["stringtie"] = {
short = "A transcript assembler that reconstructs full-length isoforms and estimates expression levels from RNA-seq alignments using a network flow algorithm over splice graphs.",
es = "Ensamblador de transcritos que reconstruye isoformas completas y estima niveles de expresión a partir de alineamientos de RNA-seq mediante un algoritmo de flujo de red sobre grafos de empalme.",
zh = "一种转录本组装工具,使用基于剪接图的网络流算法从 RNA-seq 比对结果中重建全长同工型并估计表达水平。",
article = nil,
}
data["strong convexity"] = {
short = "A function f is μ-strongly convex if f(x) − (μ/2)‖x‖² is convex; equivalently, every quadratic lower bound of curvature μ holds globally, yielding linear convergence rates for many optimization algorithms.",
es = "Una función f es μ-fuertemente convexa si f(x) − (μ/2)‖x‖² es convexa; equivalentemente, satisface globalmente una cota cuadrática inferior de curvatura μ, lo que produce tasas de convergencia lineales en muchos algoritmos de optimización.",
zh = "若函数f满足f(x) − (μ/2)‖x‖²为凸,则称f为μ-强凸;等价地,曲率不低于μ的二次下界全局成立,从而使许多优化算法获得线性收敛速度。",
article = nil,
}
data["strong duality"] = {
short = "In optimization, the condition under which the optimal value of a primal problem equals that of its dual; for convex problems it typically follows from constraint qualifications such as Slater's condition.",
es = "En optimización, la condición bajo la cual el valor óptimo de un problema primal coincide con el de su dual; en problemas convexos suele deducirse de calificaciones de restricciones como la condición de Slater.",
zh = "优化中的一种性质:原问题的最优值与对偶问题的最优值相等;在凸优化中通常由Slater条件等约束规范条件保证。",
article = nil,
}
data["strong law of large numbers"] = {
short = "A theorem stating that the sample average of independent identically distributed integrable random variables converges almost surely to the expected value as the sample size tends to infinity.",
es = "Teorema que afirma que la media muestral de variables aleatorias independientes, idénticamente distribuidas e integrables converge casi seguramente al valor esperado cuando el tamaño de muestra tiende a infinito.",
zh = "一个定理,指出独立同分布且可积随机变量的样本均值在样本量趋于无穷时几乎必然收敛到其期望值。",
article = nil,
}
data["struc2vec"] = {
short = "A node-embedding method for graphs that captures structural role similarity between nodes—based on degree sequences and hierarchies of neighborhoods—rather than proximity in the graph.",
es = "Método de incrustación de nodos para grafos que captura la similitud de roles estructurales entre nodos —basada en secuencias de grados y jerarquías de vecindarios— en lugar de la proximidad en el grafo.",
zh = "一种图节点嵌入方法,基于度序列和邻域层次结构来捕捉节点之间的结构角色相似性,而非图中的邻近性。",
article = nil,
}
data["structural break detection"] = {
short = "The statistical task of identifying time points at which the underlying parameters of a time series model (such as mean, variance, or coefficients) undergo abrupt changes.",
es = "Tarea estadística de identificar los instantes de tiempo en los que los parámetros subyacentes de un modelo de serie temporal (como la media, la varianza o los coeficientes) sufren cambios abruptos.",
zh = "统计任务,用于识别时间序列模型的潜在参数(如均值、方差或回归系数)发生突变的时间点。",
article = nil,
}
data["structural causal model"] = {
short = "A formal framework that represents a system as a set of structural equations together with a directed acyclic graph over variables, supporting reasoning about interventions and counterfactuals.",
es = "Marco formal que representa un sistema como un conjunto de ecuaciones estructurales junto con un grafo acíclico dirigido sobre las variables, lo que permite razonar sobre intervenciones y contrafactuales.",
zh = "一种形式化框架,将系统表示为一组结构方程加上变量上的有向无环图,支持对干预和反事实进行推理。",
article = nil,
}
data["structural causal model for fairness"] = {
short = "Use of structural causal models (SCMs) — directed graphs with structural equations — to formalize fairness notions like counterfactual fairness, path-specific effects, and resolving variables. Provides a causal foundation absent in purely observational fairness criteria.",
es = "Uso de modelos causales estructurales (SCM), grafos dirigidos con ecuaciones estructurales, para formalizar nociones de equidad como equidad contrafactual, efectos específicos de trayectoria y variables resolutivas. Proporciona la base causal ausente en los criterios de equidad puramente observacionales.",
zh = "使用结构因果模型(SCM,即带有结构方程的有向图)来刻画反事实公平、特定路径效应、解析变量等公平性概念,为纯观测式公平准则提供缺失的因果基础。",
article = nil,
}
data["structural causal model interpretation"] = {
short = "An interpretability framework that represents a model as a structural causal model, allowing intervention-based reasoning about how inputs and internal variables causally produce outputs.",
es = "Marco de interpretabilidad que representa al modelo como un modelo causal estructural, permitiendo razonar mediante intervenciones sobre cómo entradas y variables internas producen las salidas.",
zh = "将模型表示为结构因果模型的可解释性框架,通过干预推断输入与内部变量如何因果地产生输出。",
article = nil,
}
data["structural credit assignment"] = {
short = "The problem of attributing reward or loss to the specific internal components, modules, or decisions within an agent's architecture that were responsible for the outcome, as opposed to temporal credit assignment across time steps.",
es = "Problema de atribuir la recompensa o la pérdida a los componentes internos, módulos o decisiones específicos dentro de la arquitectura de un agente que fueron responsables del resultado, frente a la asignación temporal de crédito entre pasos de tiempo.",
zh = "将奖励或损失归因于智能体架构内部具体组件、模块或决策的过程,与跨时间步的时序信用分配相对。",
article = nil,
}
data["structural em"] = {
short = "An algorithm that combines Expectation-Maximization with structure search to learn Bayesian network structure in the presence of missing data, alternating completion of the data and structural updates.",
es = "Algoritmo que combina Expectation-Maximization con búsqueda de estructura para aprender la estructura de una red bayesiana en presencia de datos faltantes, alternando la imputación de los datos y las actualizaciones estructurales.",
zh = "一种将期望最大化与结构搜索相结合的算法,用于在数据缺失的情况下学习贝叶斯网络结构,交替进行数据补全和结构更新。",
article = nil,
}
data["structural equation model"] = {
short = "A multivariate statistical model that specifies a system of equations linking observed and latent variables, used both for measurement (with latent factors) and for representing hypothesized causal structure.",
es = "Modelo estadístico multivariante que especifica un sistema de ecuaciones que vinculan variables observadas y latentes, empleado tanto para medición (con factores latentes) como para representar una estructura causal hipotética.",
zh = "一种多元统计模型,通过一组方程将可观测变量与潜变量联系起来,既用于(含潜在因子的)测量建模,也用于表示假设的因果结构。",
article = nil,
}
data["structural hamming distance"] = {
short = "A metric over directed acyclic graphs that counts the number of edge additions, deletions, or reversals needed to convert one graph into another; widely used to evaluate causal structure learning.",
es = "Métrica sobre grafos acíclicos dirigidos que cuenta el número de adiciones, eliminaciones o inversiones de aristas necesarias para convertir un grafo en otro; muy utilizada para evaluar el aprendizaje de estructuras causales.",
zh = "一种针对有向无环图的度量,用于计算将一个图转换为另一个图所需的边添加、删除或反向次数;广泛用于评估因果结构学习。",
article = nil,
}
data["structural nested failure time model"] = {
short = "A class of structural nested models for time-to-event outcomes that parameterize the multiplicative effect of a time-varying treatment on counterfactual survival times, fit by g-estimation.",
es = "Clase de modelos estructurales anidados para resultados de tiempo hasta el evento que parametrizan el efecto multiplicativo de un tratamiento variable en el tiempo sobre los tiempos de supervivencia contrafactuales y se ajustan mediante estimación g.",
zh = "一类用于时间至事件结局的结构嵌套模型,参数化时变处理对反事实生存时间的乘性效应,通过 g 估计进行拟合。",
article = nil,
}
data["structural nested mean model"] = {
short = "A structural nested model that parameterizes the conditional mean contrast between treatment regimes for a time-varying exposure, identified and estimated via g-estimation under sequential exchangeability.",
es = "Modelo estructural anidado que parametriza el contraste de medias condicionales entre regímenes de tratamiento para una exposición variable en el tiempo, identificado y estimado mediante estimación g bajo intercambiabilidad secuencial.",
zh = "一类结构嵌套模型,参数化时变暴露不同处理方案之间的条件均值差异,在序贯可交换性假设下通过 g 估计进行识别与估计。",
article = nil,
}
data["structural nested model"] = {
short = "A family of causal models, due to Robins, for time-varying treatments that parameterize the effect of a 'blip' of treatment at each time point conditional on the past, fit by g-estimation.",
es = "Familia de modelos causales, propuesta por Robins, para tratamientos variables en el tiempo que parametriza el efecto de una pequeña dosis ('blip') de tratamiento en cada momento condicional al pasado, ajustada por estimación g.",
zh = "由 Robins 提出的针对时变处理的因果模型家族,在每个时刻参数化以历史为条件的瞬时处理效应('blip'),通过 g 估计进行拟合。",
article = nil,
}
data["structural probe"] = {
short = "A probe that tests whether geometric structure in contextual representations encodes hierarchical syntactic information, e.g. by recovering parse-tree distances from a learned linear projection (Hewitt and Manning, 2019).",
es = "Sonda que evalúa si la estructura geométrica de las representaciones contextuales codifica información sintáctica jerárquica, por ejemplo recuperando distancias de árbol sintáctico mediante una proyección lineal aprendida.",
zh = "一种探针方法,通过学习线性投影从上下文表示中恢复句法树距离,检验表示的几何结构是否编码层次化句法信息(Hewitt 和 Manning, 2019)。",
article = nil,
}
data["structural time series model"] = {
short = "A state space model that decomposes a time series into interpretable latent components such as level, trend, seasonal, cyclical, and irregular terms, each evolving according to its own stochastic equation.",
es = "Modelo de espacio de estados que descompone una serie temporal en componentes latentes interpretables, como nivel, tendencia, estacionalidad, ciclo e irregularidad, cada uno con su propia ecuación estocástica.",
zh = "一种状态空间模型,将时间序列分解为可解释的潜在分量(如水平、趋势、季节、周期和不规则项),每个分量按自身的随机方程演化。",
article = nil,
}
data["structural var"] = {
short = "Structural Vector Autoregression: a multivariate time series model in which a reduced-form VAR is augmented with theoretical or identifying restrictions to recover economically meaningful structural shocks.",
es = "Vector autorregresivo estructural: modelo multivariado de series temporales en el que se añade a un VAR de forma reducida un conjunto de restricciones teóricas o de identificación para recuperar choques estructurales con interpretación económica.",
zh = "结构性向量自回归模型:在简化形式 VAR 的基础上加入理论或识别约束的多元时间序列模型,用以还原具有经济意义的结构性冲击。",
article = nil,
}
data["structural variant calling"] = {
short = "Computational identification of genomic rearrangements larger than a few dozen base pairs, including deletions, duplications, inversions, translocations, and insertions, from sequencing reads.",
es = "Identificación computacional de reordenamientos genómicos mayores que unas pocas docenas de pares de bases, incluyendo deleciones, duplicaciones, inversiones, translocaciones e inserciones, a partir de lecturas de secuenciación.",
zh = "从测序读段中以计算方法识别大于数十碱基对的基因组重排,包括缺失、重复、倒位、易位和插入。",
article = nil,
}
data["structure learning"] = {
short = "The task of inferring the graph structure of a probabilistic graphical model (e.g., Bayesian network, Markov random field) from data, often by searching over graphs to optimize a score or test conditional independencies.",
es = "Tarea de inferir la estructura del grafo de un modelo gráfico probabilístico (por ejemplo, red bayesiana o campo aleatorio de Markov) a partir de datos, a menudo mediante búsqueda sobre grafos para optimizar una puntuación o evaluar independencias condicionales.",
zh = "从数据中推断概率图模型(如贝叶斯网络、马尔可夫随机场)图结构的任务,通常通过在图空间中搜索以优化某种评分或检验条件独立性来实现。",
article = nil,
}
data["structure mapping"] = {
short = "A cognitive theory of analogy, due to Gentner, that posits analogical reasoning aligns the relational structure of two domains while ignoring surface attributes.",
es = "Teoría cognitiva de la analogía, propuesta por Gentner, según la cual el razonamiento analógico alinea la estructura relacional de dos dominios ignorando los atributos superficiales.",
zh = "由 Gentner 提出的关于类比的认知理论,认为类比推理在两个领域之间对齐关系结构而忽略表面属性。",
article = nil,
}
data["structure mcmc"] = {
short = "A Markov chain Monte Carlo method for Bayesian model averaging over graphical model structures, with the chain's states being graphs and proposals being local edge edits accepted via a Metropolis-Hastings rule.",
es = "Método de Monte Carlo por cadenas de Markov para realizar promediación bayesiana de modelos sobre estructuras de modelos gráficos; los estados de la cadena son grafos y las propuestas son ediciones locales de aristas aceptadas mediante una regla de Metropolis-Hastings.",
zh = "一种用于在图模型结构上进行贝叶斯模型平均的马尔可夫链蒙特卡洛方法,链的状态为图,提议为通过 Metropolis-Hastings 规则接受的局部边编辑。",
article = nil,
}
data["structure module"] = {
short = "The final architectural component of AlphaFold 2 that predicts 3D atomic coordinates from the pair and single representations using invariant point attention and equivariant frame updates over residue-level rigid bodies.",
es = "Componente arquitectónico final de AlphaFold 2 que predice coordenadas atómicas 3D a partir de las representaciones por pares y simple usando atención de puntos invariante y actualizaciones de marcos equivariantes sobre cuerpos rígidos a nivel de residuo.",
zh = "AlphaFold 2 的最后一个结构模块,使用不变点注意力(IPA)和对残基级刚体的等变坐标系更新,从配对表征和单残基表征预测 3D 原子坐标。",
article = nil,
}
data["structure-activity relationship"] = {
short = "The relationship between the chemical structure of a compound and its biological activity, used in medicinal chemistry to guide lead optimization by correlating substructural changes with potency, selectivity, and ADMET properties.",
es = "Relación entre la estructura química de un compuesto y su actividad biológica, utilizada en química medicinal para guiar la optimización de cabezas de serie correlacionando cambios subestructurales con potencia, selectividad y propiedades ADMET.",
zh = "化合物的化学结构与其生物活性之间的关系,在药物化学中用于指导先导化合物优化,通过将子结构变化与活性、选择性和 ADMET 性质相关联。",
article = nil,
}
data["structure-based virtual screening"] = {
short = "A computational drug-discovery technique that uses the three-dimensional structure of a target binding site to dock and rank candidate compounds by predicted binding affinity, prioritizing molecules for experimental testing.",
es = "Técnica computacional de descubrimiento de fármacos que utiliza la estructura tridimensional del sitio de unión de un objetivo para acoplar y clasificar compuestos candidatos según la afinidad de unión predicha, priorizando moléculas para ensayos experimentales.",
zh = "一种计算药物发现技术,利用靶点结合位点的三维结构对候选化合物进行对接并按预测结合亲和力排序,从中筛选用于实验验证的分子。",
article = nil,
}
data["structured domain randomization"] = {
short = "A variant of domain randomization that injects scene structure — physically plausible object placements, lighting, and contextual relationships — instead of fully random parameters, narrowing the sim-to-real gap while still inducing robust visual policies.",
es = "Variante de la aleatorización de dominio que introduce estructura de escena (colocaciones de objetos físicamente plausibles, iluminación y relaciones contextuales) en lugar de parámetros completamente aleatorios, reduciendo la brecha sim-to-real sin dejar de inducir políticas visuales robustas.",
zh = "域随机化的一种变体,向场景中注入物理上合理的物体布局、光照和上下文关系等结构信息,而不是完全随机的参数,从而在保持视觉策略鲁棒性的同时缩小仿真到现实的差距。",
article = nil,
}
data["structured generation"] = {
short = "Constrained decoding that forces a language model's output to conform to a specified schema such as a JSON schema, regular expression, or context-free grammar, typically by masking invalid tokens at each step.",
es = "Decodificación restringida que obliga a la salida de un modelo de lenguaje a ajustarse a un esquema especificado, como un esquema JSON, una expresión regular o una gramática libre de contexto, normalmente enmascarando los tokens inválidos en cada paso.",
zh = "一种受限解码方式,通过在每一步屏蔽不合法的token,迫使语言模型的输出符合指定的模式,例如JSON模式、正则表达式或上下文无关文法。",
article = nil,
}
data["structured hinge loss"] = {
short = "A generalization of the hinge loss to structured prediction that penalizes the margin by which the score of an incorrect output exceeds the score of the true output, scaled by a task-specific cost function.",
es = "Generalización de la pérdida hinge a la predicción estructurada, que penaliza el margen en el que la puntuación de una salida incorrecta excede a la de la salida verdadera, escalada por una función de coste específica de la tarea.",
zh = "合页损失(hinge loss)在结构化预测中的推广,根据错误输出得分超过真实输出得分的间隔进行惩罚,并由任务相关的代价函数加权。",
article = nil,
}
data["structured kernel interpolation"] = {
short = "A scalable Gaussian-process method (Wilson & Nickisch, 2015) that places inducing points on a grid and interpolates the kernel between them, exploiting Toeplitz/Kronecker structure to achieve near-linear inference cost. Also known as KISS-GP.",
es = "Método escalable de procesos gaussianos (Wilson y Nickisch, 2015) que coloca puntos inductores en una rejilla e interpola el núcleo entre ellos, explotando estructura Toeplitz/Kronecker para lograr coste de inferencia casi lineal. También conocido como KISS-GP.",
zh = "一种可扩展的高斯过程方法(Wilson 和 Nickisch,2015),将诱导点放置在网格上并在其间对核进行插值,利用 Toeplitz/Kronecker 结构实现近线性的推断代价;又称 KISS-GP。",
article = nil,
}
data["structured mean field"] = {
short = "A mean-field variational inference scheme that uses a structured approximating distribution which retains some dependencies among latent variables, providing tighter bounds than fully factorized mean field.",
es = "Esquema de inferencia variacional de campo medio que utiliza una distribución aproximante estructurada que conserva algunas dependencias entre las variables latentes, proporcionando cotas más ajustadas que el campo medio totalmente factorizado.",
zh = "一种平均场变分推断方法,使用保留潜变量之间部分依赖关系的结构化近似分布,比完全因子化的平均场提供更紧的界。",
article = nil,
}
data["structured mean-field"] = {
short = "A variational family that retains some statistical dependencies between groups of latent variables while factorizing across groups, generalizing fully factorized mean-field by trading some tractability for a tighter ELBO and richer posterior approximations.",
es = "Familia variacional que conserva algunas dependencias estadísticas entre grupos de variables latentes mientras factoriza entre grupos, generalizando el campo medio totalmente factorizado al ceder cierta tratabilidad a cambio de una ELBO más ajustada y aproximaciones posteriores más ricas.",
zh = "一种变分族,在不同组之间因子分解的同时保留组内潜变量的统计依赖,作为完全因子化平均场的推广,以一定的可处理性换取更紧的 ELBO 和更丰富的后验近似。",
article = nil,
}
data["structured output"] = {
short = "An inference mode in which an LLM's response is constrained to conform to a developer-specified schema (e.g. JSON Schema, Pydantic model, regular expression, or context-free grammar), guaranteeing parseable structure.",
es = "Modo de inferencia en el que la respuesta de un LLM se restringe a un esquema especificado por el desarrollador (por ejemplo JSON Schema, modelo Pydantic, expresión regular o gramática libre de contexto), garantizando una estructura parseable.",
zh = "一种推理模式,将 LLM 的输出约束为开发者指定的模式(如 JSON Schema、Pydantic 模型、正则表达式或上下文无关文法),从而保证结果可解析。",
article = nil,
}
data["structured passive-aggressive"] = {
short = "An online learning algorithm for structured prediction that updates parameters minimally to satisfy a margin constraint defined by a task-specific cost function on each example.",
es = "Algoritmo de aprendizaje en línea para predicción estructurada que actualiza los parámetros de forma mínima para satisfacer una restricción de margen definida por una función de coste específica de la tarea en cada ejemplo.",
zh = "一种用于结构化预测的在线学习算法,对每个样本进行最小幅度的参数更新,以满足由任务相关代价函数定义的间隔约束。",
article = nil,
}
data["structured perceptron"] = {
short = "An online discriminative learning algorithm that extends the perceptron to structured outputs by updating weights when the highest-scoring predicted structure differs from the gold structure.",
es = "Algoritmo de aprendizaje discriminativo en línea que extiende el perceptrón a salidas estructuradas, actualizando los pesos cuando la estructura predicha de mayor puntaje difiere de la estructura correcta.",
zh = "在线判别学习算法,将感知机扩展到结构化输出,当预测得分最高的结构与真实结构不同时更新权重。",
article = nil,
}
data["structured posterior"] = {
short = "A posterior distribution defined over structured objects such as sequences, trees, or graphs, in which dependencies among output components are explicitly retained.",
es = "Distribución posterior definida sobre objetos estructurados como secuencias, árboles o grafos, en la que se conservan explícitamente las dependencias entre componentes de la salida.",
zh = "定义在序列、树或图等结构化对象上的后验分布,显式保留输出各部分之间的依赖关系。",
article = nil,
}
data["structured prediction"] = {
short = "A supervised learning setting in which the output space consists of structured objects—sequences, trees, alignments, or graphs—so that predictions must respect interdependencies among output components.",
es = "Marco de aprendizaje supervisado en el que el espacio de salida consta de objetos estructurados —secuencias, árboles, alineamientos o grafos— de modo que las predicciones deben respetar las dependencias entre componentes de la salida.",
zh = "一种监督学习设定,其输出空间由序列、树、对齐或图等结构化对象组成,预测必须尊重输出各部分之间的相互依赖。",
article = nil,
}
data["structured prediction cascade"] = {
short = "A coarse-to-fine inference scheme for structured prediction that chains models of increasing complexity, with each stage pruning low-scoring hypotheses to reduce the search space for the next.",
es = "Esquema de inferencia de grueso a fino para predicción estructurada que encadena modelos de complejidad creciente, donde cada etapa poda las hipótesis de baja puntuación para reducir el espacio de búsqueda de la siguiente.",
zh = "用于结构化预测的由粗到细推理方案,通过级联复杂度递增的模型,每个阶段剪除得分较低的候选以缩小下一阶段的搜索空间。",
article = nil,
}
data["structured pruning"] = {
short = "Pruning that removes whole structural units of a network (e.g., channels, attention heads, neurons, or layers) rather than individual weights, yielding dense smaller models that map directly to hardware speedups.",
es = "Tipo de poda que elimina unidades estructurales completas de la red (por ejemplo, canales, cabezas de atención, neuronas o capas) en lugar de pesos individuales, produciendo modelos más pequeños y densos que se traducen directamente en aceleraciones de hardware.",
zh = "剪枝的一种类型,移除网络中完整的结构单元(如通道、注意力头、神经元或层),而非单个权重,从而得到更小的稠密模型,可直接转化为硬件加速。",
article = nil,
}
data["structured stochastic variational inference"] = {
short = "A scalable variational inference scheme (Hoffman & Blei, 2015) that combines stochastic optimization on data subsamples with structured variational families that preserve local dependency structure (e.g., between latent topics or sequence states) instead of full mean-field factorization.",
es = "Esquema escalable de inferencia variacional (Hoffman y Blei, 2015) que combina optimización estocástica sobre submuestras de datos con familias variacionales estructuradas que preservan la dependencia local (por ejemplo, entre tópicos latentes o estados de secuencia) en lugar de una factorización totalmente de campo medio.",
zh = "一种可扩展的变分推断方案(Hoffman 和 Blei,2015),将基于数据子样本的随机优化与保留局部依赖结构(例如潜在主题或序列状态之间)的结构化变分族结合,避免完全平均场因子化。",
article = nil,
}
data["structured svm"] = {
short = "A large-margin discriminative model that generalizes the support vector machine to structured outputs by enforcing that the score of the gold structure exceeds that of any alternative by a margin proportional to a structural loss.",
es = "Modelo discriminativo de margen amplio que generaliza la máquina de vectores de soporte a salidas estructuradas, exigiendo que la puntuación de la estructura correcta supere a cualquier alternativa por un margen proporcional a una pérdida estructural.",
zh = "大间隔判别模型,将支持向量机推广到结构化输出,要求真实结构的得分以与结构化损失成正比的间隔超过任意替代结构。",
article = nil,
}
data["structured updates"] = {
short = "A communication-efficient federated learning technique that constrains client model updates to a structured form, such as low-rank or random-mask matrices, so that only a small number of parameters need to be transmitted.",
es = "Técnica de aprendizaje federado eficiente en comunicación que restringe las actualizaciones del modelo del cliente a una forma estructurada, como matrices de bajo rango o con máscara aleatoria, de modo que solo deba transmitirse un número reducido de parámetros.",
zh = "一种通信高效的联邦学习技术,将客户端模型更新约束为结构化形式(如低秩或随机掩码矩阵),从而只需传输少量参数。",
article = nil,
}
data["structured variational approximation"] = {
short = "A variational inference scheme in which the approximating family preserves selected dependencies of the true posterior, trading some tractability for tighter bounds compared to fully factorized mean field.",
es = "Esquema de inferencia variacional en el que la familia aproximadora conserva ciertas dependencias del posterior verdadero, sacrificando algo de tratabilidad a cambio de cotas más ajustadas que el campo medio totalmente factorizado.",
zh = "一种变分推理方案,其近似分布族保留真实后验的部分依赖关系,以牺牲部分可解性换取比完全分解平均场更紧的界。",
article = nil,
}
data["structured variational inference"] = {
short = "Variational inference performed with a variational family that explicitly retains some dependencies among latent variables — such as Gauss-Markov chains, low-rank Gaussian, or normalizing flows — yielding tighter ELBOs than mean-field while remaining tractable.",
es = "Inferencia variacional realizada con una familia variacional que conserva explícitamente algunas dependencias entre variables latentes — como cadenas de Gauss-Markov, gaussianas de bajo rango o flujos normalizantes — obteniendo ELBOs más ajustadas que el campo medio sin perder tratabilidad.",
zh = "采用显式保留潜变量间部分依赖关系的变分族(例如高斯-马尔可夫链、低秩高斯或归一化流)所执行的变分推断,相比平均场可获得更紧的 ELBO,同时保持可处理性。",
article = nil,
}
data["structured world model"] = {
short = "A learned dynamics model whose latent state is decomposed into interpretable components — objects, slots, scene graph nodes, or factored physical attributes — improving generalization, compositional reasoning, and sample efficiency for model-based control.",
es = "Modelo de dinámica aprendido cuyo estado latente se descompone en componentes interpretables —objetos, slots, nodos de un grafo de escena o atributos físicos factorizados—, lo que mejora la generalización, el razonamiento composicional y la eficiencia muestral en el control basado en modelos.",
zh = "一种学习得到的动力学模型,其潜在状态被分解为可解释的组件(如物体、槽位、场景图节点或因子化的物理属性),从而提升模型泛化能力、组合推理能力和基于模型控制的样本效率。",
article = nil,
}
data["student policy"] = {
short = "In teacher-student robot learning, the policy that consumes only deployment-realistic observations (e.g., onboard cameras and proprioception) and is trained — typically by behavioral cloning or DAgger — to imitate a teacher with privileged access to simulator state.",
es = "En el aprendizaje robótico maestro-estudiante, la política que consume solo observaciones realistas en despliegue (por ejemplo, cámaras a bordo y propiocepción) y se entrena —normalmente mediante clonación de comportamiento o DAgger— para imitar a un maestro con acceso privilegiado al estado del simulador.",
zh = "在师生式机器人学习中,仅使用部署时可获得的真实观测(如机载相机与本体感知)的策略,通常通过行为克隆或 DAgger 训练,以模仿一个可访问仿真器特权状态的教师策略。",
article = nil,
}
data["style loss"] = {
short = "A loss for neural style transfer that matches the Gram matrices (feature correlations) of intermediate layers between a generated image and a style reference, capturing texture and color statistics.",
es = "Pérdida para transferencia neuronal de estilo que iguala las matrices de Gram (correlaciones de características) de capas intermedias entre la imagen generada y una referencia de estilo, capturando estadísticas de textura y color.",
zh = "用于神经风格迁移的损失,通过匹配生成图像与风格参考在中间层的 Gram 矩阵(特征相关性),捕捉纹理与颜色统计。",
article = nil,
}
data["style transfer tts"] = {
short = "A class of text-to-speech systems that transfer prosodic or speaker style from a reference audio onto synthesized speech, enabling expressive synthesis with controllable emotion, intonation, or voice identity.",
es = "Clase de sistemas de texto a voz que transfieren estilo prosódico o de locutor desde un audio de referencia al habla sintetizada, permitiendo síntesis expresiva con emoción, entonación o identidad de voz controlables.",
zh = "一类文本转语音系统,将参考音频中的韵律或说话人风格迁移到合成语音上,实现情感、语调或声音身份可控的富有表现力的合成。",
article = nil,
}
data["styleclip"] = {
short = "A method for text-driven manipulation of images generated by StyleGAN that uses CLIP to optimize latent codes or mapping networks so that edits in StyleGAN's latent space match a natural-language description.",
es = "Método para manipulación de imágenes generadas por StyleGAN guiada por texto, que usa CLIP para optimizar códigos latentes o redes de mapeo de modo que las ediciones en el espacio latente de StyleGAN coincidan con una descripción en lenguaje natural.",
zh = "一种基于文本驱动的 StyleGAN 图像编辑方法,利用 CLIP 优化潜码或映射网络,使在 StyleGAN 潜空间中的编辑结果与自然语言描述相匹配。",
article = nil,
}
data["stylegan"] = {
short = "A style-based generator architecture for GANs (Karras et al., 2019) that maps a latent code z through a mapping network into a style space W and modulates each layer of the synthesis network via adaptive instance normalization, enabling fine-grained style control.",
es = "Arquitectura generadora basada en estilos para GAN (Karras et al., 2019) que mapea un código latente z a través de una red de mapeo al espacio de estilos W y modula cada capa de la red de síntesis mediante normalización de instancia adaptativa, permitiendo un control fino del estilo.",
zh = "Karras 等人于 2019 年提出的基于风格的 GAN 生成器:通过映射网络将潜码 z 映射到风格空间 W,并用自适应实例归一化对合成网络的每一层进行调制,从而实现细粒度的风格控制。",
article = nil,
}
data["stylegan2"] = {
short = "An improved StyleGAN (Karras et al., 2020) that replaces adaptive instance normalization with weight demodulation, redesigns the generator's progressive structure, and adds path-length regularization, eliminating characteristic droplet artifacts and improving FID.",
es = "Versión mejorada de StyleGAN (Karras et al., 2020) que sustituye la normalización de instancia adaptativa por demodulación de pesos, rediseña la estructura progresiva del generador y añade regularización de longitud de camino, eliminando los artefactos en gotas característicos y mejorando el FID.",
zh = "Karras 等人于 2020 年提出的 StyleGAN 改进版:将自适应实例归一化替换为权重去调制,重新设计生成器的渐进结构,并加入路径长度正则化,消除了典型的水滴状伪影并提升了 FID。",
article = nil,
}
data["stylegan3"] = {
short = "An alias-free generator (Karras et al., 2021) that redesigns StyleGAN2's signal processing — replacing pointwise nonlinearities and learned upsamplers with continuous, equivariant operations — so that fine details adhere to underlying surfaces under translation and rotation rather than sticking to pixel coordinates.",
es = "Generador libre de alias (Karras et al., 2021) que rediseña el procesamiento de señales de StyleGAN2 —sustituyendo no linealidades puntuales y muestreadores aprendidos por operaciones continuas y equivariantes—, de modo que los detalles finos se adhieran a las superficies subyacentes bajo traslación y rotación, en lugar de quedar fijos a coordenadas de píxeles.",
zh = "Karras 等人于 2021 年提出的无混叠生成器:重新设计了 StyleGAN2 中的信号处理,用连续且等变的算子替代逐点非线性和可学习上采样,使精细细节在平移和旋转下随物体表面移动,而不是粘附在像素坐标上。",
article = nil,
}
data["styletts"] = {
short = "A non-autoregressive text-to-speech model that learns disentangled style representations from reference audio via style adaptive layer normalization, supporting expressive and zero-shot synthesis.",
es = "Modelo de texto a voz no autorregresivo que aprende representaciones de estilo desacopladas a partir de audio de referencia mediante normalización por capa adaptativa de estilo, permitiendo síntesis expresiva y de cero disparos.",
zh = "一种非自回归文本转语音模型,通过风格自适应层归一化从参考音频中学习解耦的风格表示,支持富表现力和零样本合成。",
article = nil,
}
data["styletts 2"] = {
short = "A text-to-speech model that combines style diffusion with adversarial training using large speech language models, achieving human-level naturalness and strong zero-shot voice cloning.",
es = "Modelo de texto a voz que combina difusión de estilo con entrenamiento adversarial usando grandes modelos de lenguaje del habla, alcanzando naturalidad a nivel humano y fuerte clonación de voz de cero disparos.",
zh = "一种文本转语音模型,将风格扩散与基于大型语音语言模型的对抗训练相结合,实现接近人类水平的自然度和强大的零样本声音克隆。",
article = nil,
}
data["styletts2"] = {
short = "A text-to-speech model that uses a style diffusion process and adversarial training with large speech language models to synthesize highly natural, expressive speech with diverse speaking styles from text.",
es = "Modelo de síntesis de voz a partir de texto que combina un proceso de difusión de estilo con entrenamiento adversarial usando grandes modelos de lenguaje del habla para sintetizar voz altamente natural y expresiva con estilos de locución diversos.",
zh = "一种文本到语音模型,将风格扩散过程与基于大型语音语言模型的对抗训练相结合,可从文本合成高度自然、富有表现力且具有多样讲话风格的语音。",
article = nil,
}
data["sub-gradient method"] = {
short = "A generalization of gradient descent for convex but non-differentiable objectives that replaces the gradient with any subgradient at the current point.",
es = "Generalización del descenso por gradiente para objetivos convexos no diferenciables que sustituye el gradiente por cualquier subgradiente en el punto actual.",
zh = "梯度下降的推广,用于凸但不可微的目标函数,将梯度替换为当前点处的任一次梯度。",
article = nil,
}
data["sub-symbolic reasoning"] = {
short = "Reasoning carried out implicitly by distributed, continuous representations—typically in neural networks—without manipulating discrete symbols or explicit logical rules.",
es = "Razonamiento llevado a cabo implícitamente mediante representaciones distribuidas y continuas —típicamente en redes neuronales— sin manipular símbolos discretos ni reglas lógicas explícitas.",
zh = "由分布式、连续表示(通常在神经网络中)隐式进行的推理,不操作离散符号或显式的逻辑规则。",
article = nil,
}
data["subcellular localization"] = {
short = "The specific compartment within a cell — such as nucleus, mitochondrion, cytoplasm, or membrane — where a protein, RNA, or other molecule resides and performs its function.",
es = "Compartimento específico dentro de una célula —como núcleo, mitocondria, citoplasma o membrana— donde reside una proteína, ARN u otra molécula y desempeña su función.",
zh = "蛋白质、RNA 或其他分子在细胞内驻留并发挥功能的特定区室,如细胞核、线粒体、细胞质或膜。",
article = nil,
}
data["subclonal reconstruction"] = {
short = "Inference of the clonal architecture of a tumor — the set of distinct cell populations and their evolutionary relationships — from bulk or single-cell sequencing data using variant allele frequencies.",
es = "Inferencia de la arquitectura clonal de un tumor —el conjunto de poblaciones celulares distintas y sus relaciones evolutivas— a partir de datos de secuenciación masiva o unicelular utilizando frecuencias alélicas de variantes.",
zh = "利用变异等位基因频率从批量或单细胞测序数据中推断肿瘤的克隆结构,即不同细胞群体的集合及其进化关系。",
article = nil,
}
data["subdifferential"] = {
short = "For a convex function f, the set ∂f(x) of all subgradients at point x; reduces to the singleton {∇f(x)} when f is differentiable and characterizes optimality of nonsmooth convex problems.",
es = "Para una función convexa f, el conjunto ∂f(x) de todos los subgradientes en el punto x; se reduce al singleton {∇f(x)} cuando f es diferenciable y caracteriza la optimalidad en problemas convexos no suaves.",
zh = "对于凸函数f,点x处所有次梯度组成的集合∂f(x);当f可微时退化为单点集{∇f(x)},并刻画非光滑凸优化问题的最优性条件。",
article = nil,
}
data["subgoal discovery"] = {
short = "The problem of automatically identifying useful intermediate goals or bottleneck states in an environment to support hierarchical reinforcement learning, options discovery, or curriculum design.",
es = "Problema de identificar automáticamente metas intermedias útiles o estados cuello de botella en un entorno para apoyar el aprendizaje por refuerzo jerárquico, el descubrimiento de opciones o el diseño de currículos.",
zh = "自动识别环境中有用的中间目标或瓶颈状态的问题,用于支持分层强化学习、选项发现或课程设计。",
article = nil,
}
data["subgradient"] = {
short = "A vector g such that f(y) ≥ f(x) + g·(y−x) for all y; generalizes the gradient to nondifferentiable convex functions and underlies subgradient methods in nonsmooth optimization.",
es = "Vector g tal que f(y) ≥ f(x) + g·(y−x) para todo y; generaliza el gradiente a funciones convexas no diferenciables y sustenta los métodos de subgradiente en optimización no suave.",
zh = "满足对所有y都有f(y) ≥ f(x) + g·(y−x)的向量g;将梯度的概念推广到不可微凸函数,是非光滑优化中次梯度方法的基础。",
article = nil,
}
data["subgraph explanation"] = {
short = "An explanation for a graph neural network's prediction expressed as a connected subgraph of the input whose nodes and edges are the most relevant for that prediction.",
es = "Explicación de la predicción de una red neuronal de grafos expresada como un subgrafo conexo del input cuyos nodos y aristas son los más relevantes para esa predicción.",
zh = "图神经网络预测的解释,表示为输入图的一个连通子图,其节点和边对该预测最为关键。",
article = nil,
}
data["subgraphx"] = {
short = "An explanation method for graph neural networks that uses Monte Carlo Tree Search guided by Shapley values to identify the most important connected subgraph for a prediction (Yuan et al., 2021).",
es = "Método de explicación para redes neuronales de grafos que usa búsqueda en árbol Monte Carlo guiada por valores de Shapley para identificar el subgrafo conexo más importante para una predicción.",
zh = "一种图神经网络解释方法,结合蒙特卡洛树搜索与 Shapley 值,识别对预测最重要的连通子图(Yuan 等,2021)。",
article = nil,
}
data["subgroup fairness"] = {
short = "A fairness notion that demands fairness constraints hold not only for marginal protected groups but also for a rich combinatorial family of overlapping subgroups, addressing fairness gerrymandering. Introduced by Kearns, Neel, Roth, and Wu (2018).",
es = "Noción de equidad que exige que las restricciones de equidad se cumplan no solo en los grupos protegidos marginales, sino también en una rica familia combinatoria de subgrupos solapados, evitando el gerrymandering de equidad. Introducida por Kearns, Neel, Roth y Wu (2018).",
zh = "一种公平性概念,要求公平约束不仅在边际受保护群体上成立,还要在大量相互重叠的子群体组合上成立,以解决公平性 \"划区操纵\" 问题。由 Kearns、Neel、Roth 和 Wu(2018)提出。",
article = nil,
}
data["subjective logic"] = {
short = "A formal calculus of uncertain beliefs (Jøsang, 2001) that represents an opinion as a tuple of belief, disbelief, uncertainty, and base-rate masses summing to one. It maps bijectively to a Dirichlet distribution and underpins evidential deep learning.",
es = "Cálculo formal de creencias inciertas (Jøsang, 2001) que representa una opinión como una tupla de masas de creencia, descreencia, incertidumbre y tasa base que suman uno. Se corresponde biyectivamente con una distribución de Dirichlet y fundamenta el aprendizaje profundo evidencial.",
zh = "一种处理不确定信念的形式化演算(Jøsang,2001),将一个意见表示为信念、不信、不确定性和基率质量之和为一的元组;它与 Dirichlet 分布存在双射,并构成证据深度学习的基础。",
article = nil,
}
data["sublinear convergence"] = {
short = "A convergence rate slower than linear, where the error decreases as O(1/k) or O(1/sqrt(k)) in the iteration count k. Typical of SGD on convex problems.",
es = "Tasa de convergencia más lenta que la lineal, donde el error decrece como O(1/k) o O(1/√k) en el número de iteraciones k. Típica del SGD en problemas convexos.",
zh = "比线性收敛更慢的收敛速率,误差随迭代次数 k 以 O(1/k) 或 O(1/√k) 的速度下降,常见于凸问题上的 SGD。",
article = nil,
}
data["submodular function"] = {
short = "A set function f:2^V→ℝ exhibiting diminishing returns, i.e. f(S∪{x})−f(S) ≥ f(T∪{x})−f(T) for all S⊆T and x∉T; central to combinatorial optimization, coverage, and information-theoretic problems.",
es = "Función de conjuntos f:2^V→ℝ con rendimientos decrecientes, es decir, f(S∪{x})−f(S) ≥ f(T∪{x})−f(T) para todo S⊆T y x∉T; central en optimización combinatoria, problemas de cobertura y de teoría de la información.",
zh = "集合函数f:2^V→ℝ,满足递减回报性质:对所有S⊆T和x∉T有f(S∪{x})−f(S) ≥ f(T∪{x})−f(T);在组合优化、覆盖问题和信息论问题中具有核心地位。",
article = nil,
}
data["submodular minimization"] = {
short = "The problem of finding a subset that minimizes a submodular set function; solvable in strongly polynomial time and the basis for exact MAP inference in graphical models with submodular pairwise potentials.",
es = "Problema de hallar un subconjunto que minimice una función de conjunto submodular; resoluble en tiempo fuertemente polinomial y base de la inferencia MAP exacta en modelos gráficos con potenciales por pares submodulares.",
zh = "寻找使次模集合函数取最小值的子集的问题;可在强多项式时间内求解,是具有次模成对势函数的图模型中精确 MAP 推理的基础。",
article = nil,
}
data["submodular potential"] = {
short = "A pairwise potential in a Markov random field whose energy function satisfies the submodularity inequality, enabling exact MAP inference via graph cuts.",
es = "Potencial por pares en un campo aleatorio de Markov cuya función de energía satisface la desigualdad de submodularidad, lo que permite la inferencia MAP exacta mediante cortes de grafo.",
zh = "马尔可夫随机场中能量函数满足次模性不等式的成对势函数,使得可以通过图割进行精确 MAP 推理。",
article = nil,
}
data["subnetwork inference"] = {
short = "A scalable Bayesian deep-learning method (Daxberger et al., 2021) that performs full Bayesian inference (typically Laplace approximation) only over a carefully selected small subset of the network's weights, while keeping the remaining weights at their MAP values.",
es = "Método escalable de aprendizaje profundo bayesiano (Daxberger et al., 2021) que realiza inferencia bayesiana completa (normalmente aproximación de Laplace) solo sobre un subconjunto pequeño y cuidadosamente seleccionado de los pesos de la red, manteniendo el resto en sus valores MAP.",
zh = "一种可扩展的贝叶斯深度学习方法(Daxberger 等,2021),仅对网络权重中精心选取的一个小子集执行完整贝叶斯推断(通常是 Laplace 近似),其余权重保持在 MAP 值。",
article = nil,
}
data["subnetwork laplace"] = {
short = "A Laplace approximation applied only to a selected subset of a neural network's parameters (e.g. the last layer or a small Hessian-informed subnetwork) while keeping the remaining weights at point estimates, dramatically reducing the cost of curvature computation.",
es = "Aproximación de Laplace aplicada únicamente a un subconjunto seleccionado de parámetros de una red neuronal (por ejemplo la última capa o una subred informada por la Hessiana) manteniendo el resto de los pesos como estimaciones puntuales, lo que reduce drásticamente el costo del cálculo de la curvatura.",
zh = "仅对神经网络中选定的参数子集(例如最后一层或基于 Hessian 信息选取的子网络)应用 Laplace 近似,其余权重保持点估计,从而大幅降低曲率计算的成本。",
article = nil,
}
data["subpopulation shift"] = {
short = "A distribution shift in which the relative proportions of subpopulations differ between training and deployment data, while conditional distributions remain stable. A common cause of fairness degradation under non-stationary inputs.",
es = "Cambio de distribución en el que las proporciones relativas de las subpoblaciones difieren entre los datos de entrenamiento y los de despliegue, mientras que las distribuciones condicionales permanecen estables. Es una causa común de deterioro de la equidad ante entradas no estacionarias.",
zh = "一种分布偏移,子群体在训练数据和部署数据中的相对比例不同,而条件分布保持稳定。在非平稳输入下,它是公平性退化的常见原因。",
article = nil,
}
data["subsampled updates"] = {
short = "A communication-efficient federated learning technique in which the client computes a full model update locally but transmits only a randomly sampled subset of its entries, often combined with quantization to further reduce uplink cost.",
es = "Técnica de aprendizaje federado eficiente en comunicación en la que el cliente calcula una actualización completa del modelo localmente pero transmite solo un subconjunto de entradas elegido al azar, frecuentemente combinado con cuantización para reducir aún más el coste del enlace ascendente.",
zh = "一种通信高效的联邦学习技术,客户端在本地计算完整的模型更新,但只传输随机采样的子集,通常与量化结合以进一步降低上行通信成本。",
article = nil,
}
data["subsequence anomaly"] = {
short = "An anomaly defined over a contiguous window of a time series, where the subsequence as a whole deviates from typical local patterns even if individual points appear unremarkable.",
es = "Anomalía definida sobre una ventana contigua de una serie temporal, donde la subsecuencia en su conjunto se desvía de los patrones locales típicos aunque los puntos individuales parezcan normales.",
zh = "在时间序列的连续窗口上定义的异常:整段子序列偏离典型局部模式,即使其中单个点看起来并不异常。",
article = nil,
}
data["subspace patching"] = {
short = "An activation patching variant that intervenes only along a learned low-dimensional subspace of model representations, isolating the causal effect of that subspace on the output.",
es = "Variante del activation patching que interviene únicamente a lo largo de un subespacio de baja dimensión aprendido de las representaciones del modelo, aislando el efecto causal de dicho subespacio sobre la salida.",
zh = "激活修补的一种变体,仅在模型表示中学到的低维子空间内进行干预,以隔离该子空间对输出的因果影响。",
article = nil,
}
data["substitution matrix"] = {
short = "A scoring matrix used in sequence alignment that assigns a similarity score to each pair of residues, derived from observed substitution frequencies in homologous sequences (e.g. PAM, BLOSUM).",
es = "Matriz de puntuación utilizada en alineamientos de secuencias que asigna una puntuación de similitud a cada par de residuos, derivada de las frecuencias de sustitución observadas en secuencias homólogas (p. ej. PAM, BLOSUM).",
zh = "用于序列比对的评分矩阵,根据同源序列中观察到的替换频率为每对残基分配相似性评分(如 PAM、BLOSUM)。",
article = nil,
}
data["substructure search"] = {
short = "A cheminformatics search that retrieves all molecules in a chemical database containing a specified atomic-bond pattern, typically expressed as a SMARTS query and resolved via subgraph isomorphism.",
es = "Búsqueda de quimioinformática que recupera todas las moléculas de una base de datos química que contienen un patrón de átomos y enlaces especificado, expresado típicamente como una consulta SMARTS y resuelto mediante isomorfismo de subgrafos.",
zh = "一种化学信息学检索,从化学数据库中返回所有包含指定原子-键模式(通常表示为 SMARTS 查询)的分子,通过子图同构求解。",
article = nil,
}
data["subword tokenization"] = {
short = "A family of tokenization methods (such as BPE, WordPiece, and unigram) that segment text into units smaller than words but larger than characters, balancing vocabulary size with the ability to represent rare and unseen words.",
es = "Familia de métodos de tokenización (como BPE, WordPiece y unigrama) que segmentan el texto en unidades más pequeñas que las palabras pero más grandes que los caracteres, equilibrando el tamaño del vocabulario con la capacidad de representar palabras raras o desconocidas.",
zh = "一类分词方法(如 BPE、WordPiece 和 unigram),将文本切分为比词更小但比字符更大的单元,在词表规模与表示罕见或未见词的能力之间取得平衡。",
article = nil,
}
data["success classifier"] = {
short = "A learned binary discriminator that predicts whether a robot trajectory or final state satisfies a task's success condition, used as a reward signal for reinforcement learning, a stopping criterion, or a filter for autonomous data collection.",
es = "Discriminador binario aprendido que predice si una trayectoria del robot o un estado final satisfacen la condición de éxito de la tarea; se usa como señal de recompensa para aprendizaje por refuerzo, criterio de parada o filtro para la recolección autónoma de datos.",
zh = "一种学习得到的二元判别器,用于预测机器人的轨迹或最终状态是否满足任务的成功条件;可作为强化学习的奖励信号、停止条件或自主数据采集的筛选器。",
article = nil,
}
data["success detector"] = {
short = "A perception module — typically a vision model or VLM-based critic — that decides at runtime whether a manipulation episode achieved the goal, enabling reset-free RL, self-supervised data collection, and automatic relabeling of demonstrations.",
es = "Módulo de percepción —normalmente un modelo de visión o un crítico basado en VLM— que decide en tiempo de ejecución si un episodio de manipulación alcanzó el objetivo, lo que permite RL sin reinicios, recolección autoetiquetada de datos y reetiquetado automático de demostraciones.",
zh = "一种感知模块(通常是视觉模型或基于视觉-语言模型的评判器),在运行时判断一次操作回合是否达成目标,从而支持无需复位的强化学习、自监督数据采集以及对演示数据的自动重标注。",
article = nil,
}
data["successive elimination"] = {
short = "A multi-armed bandit algorithm that maintains a set of candidate arms, plays each remaining arm in round-robin fashion, and at each round eliminates arms whose upper confidence bound falls below the lower confidence bound of the empirically best arm.",
es = "Algoritmo de bandido multi-brazo que mantiene un conjunto de brazos candidatos, juega cada brazo restante en rotación, y en cada ronda elimina los brazos cuyo límite superior de confianza queda por debajo del límite inferior de confianza del brazo empíricamente mejor.",
zh = "一种多臂赌博机算法:维护候选臂集合,对剩余臂轮流采样,每轮淘汰其置信区间上界低于当前经验最优臂置信下界的臂。",
article = nil,
}
data["successive halving"] = {
short = "A multi-fidelity hyperparameter optimization algorithm that allocates a small budget to many configurations, evaluates them, keeps the top fraction, and repeats with progressively larger budgets until a single best configuration remains.",
es = "Algoritmo de optimización de hiperparámetros con múltiples fidelidades que asigna un presupuesto pequeño a muchas configuraciones, las evalúa, conserva la fracción superior y repite con presupuestos cada vez mayores hasta que queda una única configuración ganadora.",
zh = "一种多保真超参数优化算法:先以小预算评估大量配置,保留性能排名靠前的一部分,然后以更大预算重复该过程,直至筛选出单一最优配置。",
article = nil,
}
data["successive halving bracket"] = {
short = "In Hyperband, one execution of successive halving with a specific initial number of configurations and minimum budget. Hyperband runs several brackets that trade off many short evaluations against fewer long ones to hedge across budget choices.",
es = "En Hyperband, una ejecución de halving sucesivo con un número inicial concreto de configuraciones y un presupuesto mínimo determinado. Hyperband ejecuta varios brackets que equilibran muchas evaluaciones cortas frente a pocas largas para cubrir distintas elecciones de presupuesto.",
zh = "在 Hyperband 中,一次具有特定初始配置数和最小预算的逐次减半执行;Hyperband 会运行多个 bracket,在“多次短评估”与“少量长评估”之间权衡,以兼顾不同预算选择。",
article = nil,
}
data["successor features"] = {
short = "A generalization of the successor representation to feature-based value functions that decomposes the action-value into the dot product of expected discounted future feature occupancies and a reward-vector parameter, enabling fast policy transfer across tasks with shared features but different reward weights.",
es = "Generalización de la representación sucesora a funciones de valor basadas en características que descompone el valor de acción como el producto escalar entre las ocupaciones futuras descontadas esperadas de las características y un vector de recompensa, permitiendo transferencia rápida de políticas entre tareas con las mismas características pero distintos pesos de recompensa.",
zh = "继承表示在基于特征的价值函数上的推广:将动作价值分解为期望的折扣未来特征占据与奖励向量参数的点积,从而在共享特征但奖励权重不同的任务之间实现快速策略迁移。",
article = nil,
}
data["successor measure"] = {
short = "A measure-theoretic generalization of the successor representation to continuous state spaces, defined as the discounted expected occupancy measure over future states under a fixed policy starting from a given state.",
es = "Generalización en teoría de la medida de la representación sucesora a espacios de estados continuos, definida como la medida de ocupación esperada y descontada sobre los estados futuros bajo una política fija a partir de un estado dado.",
zh = "继承表示在连续状态空间下的测度论推广,定义为在给定起始状态下、固定策略所诱导的未来状态的折扣期望占据测度。",
article = nil,
}
data["successor representation"] = {
short = "A predictive representation in reinforcement learning that, for a fixed policy, encodes each state by the discounted expected number of future visits to every other state, decoupling environment dynamics from reward and enabling rapid value recomputation when the reward function changes.",
es = "Representación predictiva en aprendizaje por refuerzo que, para una política fija, codifica cada estado mediante el número esperado y descontado de visitas futuras a cada uno de los demás estados, desacoplando la dinámica del entorno de la recompensa y permitiendo recalcular rápidamente los valores cuando cambia la función de recompensa.",
zh = "强化学习中的一种预测性表示:在固定策略下,将每个状态编码为对其他所有状态的折扣期望访问次数,从而把环境动态与奖励解耦,使奖励函数变化时能快速重新计算价值。",
article = nil,
}
data["suction grasp"] = {
short = "A pick strategy in which a vacuum-based end-effector adheres to a flat or smoothly curved object surface; analytical and learned models such as Dex-Net 3.0 score candidate suction points by seal quality and resistance to gravity and external wrenches.",
es = "Estrategia de agarre en la que un efector final basado en vacío se adhiere a una superficie de objeto plana o suavemente curva; modelos analíticos y aprendidos como Dex-Net 3.0 puntúan los puntos candidatos de succión según la calidad del sello y la resistencia a la gravedad y a esfuerzos externos.",
zh = "一种抓取策略,使用基于真空的末端执行器吸附在平整或微曲的物体表面上。Dex-Net 3.0 等解析或学习模型会根据密封质量及对抗重力和外部力旋量的能力为候选吸附点打分。",
article = nil,
}
data["sudo rm -rf separation"] = {
short = "SuDoRM-RF, a lightweight U-Net-style architecture for audio source separation that uses successive down- and up-sampling residual blocks to achieve high quality with very low parameter count.",
es = "SuDoRM-RF, arquitectura ligera tipo U-Net para separación de fuentes de audio que usa bloques residuales con submuestreo y supermuestreo sucesivos para lograr alta calidad con muy pocos parámetros.",
zh = "SuDoRM-RF,一种轻量级 U-Net 风格的音频源分离架构,通过逐级下采样与重采样的残差模块,以极少的参数实现高质量分离。",
article = nil,
}
data["sufficiency aopc"] = {
short = "An evaluation metric for feature attributions that measures the area over the perturbation curve obtained by keeping only the top-ranked features and removing the rest, quantifying how sufficient those features are for the prediction.",
es = "Métrica de evaluación de atribuciones que mide el área sobre la curva de perturbación obtenida al conservar solo las características mejor puntuadas y eliminar el resto, cuantificando cuán suficientes son esas características para la predicción.",
zh = "归因评估指标,通过仅保留排名最高的特征并移除其余特征所得到的扰动曲线之上方面积,衡量这些特征对预测的充分性。",
article = nil,
}
data["sufficiency-comprehensiveness tradeoff"] = {
short = "The tension in extractive rationale evaluation between selecting a small token subset that alone preserves the prediction (sufficiency) and selecting tokens whose removal causes the prediction to change (comprehensiveness).",
es = "Tensión en la evaluación de racionales extractivos entre seleccionar un subconjunto pequeño de tokens que por sí solo preserva la predicción (suficiencia) y seleccionar tokens cuya eliminación cambia la predicción (exhaustividad).",
zh = "抽取式理由评估中的权衡:所选少量标记本身足以维持预测(充分性),而移除所选标记会改变预测(全面性),二者难以兼顾。",
article = nil,
}
data["sufficient input subset"] = {
short = "A subset of input features that, when fed to the model with the remaining features masked, produces the same prediction as the full input, certifying that subset is sufficient for the decision.",
es = "Subconjunto de características del input que, cuando se entrega al modelo con las restantes enmascaradas, produce la misma predicción que el input completo, certificando que ese subconjunto es suficiente para la decisión.",
zh = "输入特征的一个子集,将其余特征屏蔽后,模型对该子集给出的预测与对完整输入的预测相同,从而证明该子集足以决定预测结果。",
article = nil,
}
data["sufficient statistic"] = {
short = "A function of the data whose value retains all information about a parameter contained in the sample, in the sense that the conditional distribution of the data given the statistic does not depend on the parameter.",
es = "Función de los datos cuyo valor conserva toda la información sobre un parámetro contenida en la muestra, en el sentido de que la distribución condicional de los datos dado el estadístico no depende del parámetro.",
zh = "数据的一个函数,其取值保留了样本中关于参数的全部信息,即在给定该统计量时数据的条件分布不依赖于该参数。",
article = nil,
}
data["sum-product algorithm"] = {
short = "A message-passing algorithm on factor graphs that computes marginal distributions of all variables in a tree-structured graphical model via products of incoming messages and summation over local factors.",
es = "Algoritmo de paso de mensajes sobre grafos de factores que calcula las distribuciones marginales de todas las variables en un modelo gráfico con estructura de árbol mediante productos de mensajes entrantes y sumas sobre factores locales.",
zh = "在因子图上传递消息的算法,通过对入消息求积并对局部因子求和,计算树结构图模型中所有变量的边缘分布。",
article = nil,
}
data["sum-product network"] = {
short = "A deep probabilistic model represented as a rooted directed acyclic graph of weighted sum and product nodes over univariate distributions; admits exact, linear-time marginal and MAP inference when valid.",
es = "Modelo probabilístico profundo representado como un grafo acíclico dirigido enraizado de nodos suma ponderada y producto sobre distribuciones univariadas; admite inferencia marginal y MAP exacta en tiempo lineal cuando es válido.",
zh = "一种深度概率模型,表示为以加权求和节点和乘积节点构成的有根有向无环图,叶节点为单变量分布;在结构有效时支持线性时间的精确边缘和 MAP 推理。",
article = nil,
}
data["summing matrix"] = {
short = "In hierarchical and grouped time series forecasting, a 0/1 matrix that maps bottom-level series to all aggregation levels by summing the corresponding rows.",
es = "En pronóstico jerárquico y agrupado de series temporales, matriz de 0 y 1 que asigna las series del nivel más bajo a todos los niveles de agregación sumando las filas correspondientes.",
zh = "在分层和分组时间序列预测中,将底层序列映射到所有聚合层级的 0/1 矩阵,通过对相应行求和实现聚合。",
article = nil,
}
data["sumo ontology"] = {
short = "The Suggested Upper Merged Ontology, a large free formal upper-level ontology of generic concepts written in SUO-KIF and aligned with WordNet.",
es = "Suggested Upper Merged Ontology (SUMO), una gran ontología formal de nivel superior y de uso libre, escrita en SUO-KIF y alineada con WordNet.",
zh = "建议上层合并本体(SUMO),一种大型免费的形式化上层本体,使用 SUO-KIF 编写并与 WordNet 对齐。",
article = nil,
}
data["sun and abraham estimator"] = {
short = "A heterogeneity-robust event-study estimator that recovers cohort-specific average treatment effects in staggered-adoption designs by interacting event-time dummies with cohort indicators, avoiding contamination from already-treated comparison units.",
es = "Estimador de estudios de eventos robusto a la heterogeneidad que recupera los efectos medios del tratamiento por cohorte en diseños de adopción escalonada interactuando indicadores de tiempo del evento con indicadores de cohorte, evitando la contaminación por unidades de comparación ya tratadas.",
zh = "一种对效应异质性稳健的事件研究估计量,通过将事件时间虚拟变量与队列指示变量进行交互,在错时实施设计中识别队列特定的平均处理效应,避免已处理对照单元造成的污染。",
article = nil,
}
data["sunrise"] = {
short = "An ensemble-based reinforcement-learning framework that trains multiple agents in parallel and uses bootstrapped target Q-values together with weighted Bellman backups based on ensemble uncertainty to improve sample efficiency and stability of off-policy methods such as SAC and Rainbow DQN.",
es = "Marco de aprendizaje por refuerzo basado en ensembles que entrena varios agentes en paralelo y usa valores Q objetivo bootstrapeados junto con backups de Bellman ponderados según la incertidumbre del ensemble para mejorar la eficiencia muestral y la estabilidad de métodos off-policy como SAC y Rainbow DQN.",
zh = "一种基于集成的强化学习框架:并行训练多个智能体,并利用自助采样的目标 Q 值以及基于集成不确定性的加权 Bellman 回溯,提升 SAC、Rainbow DQN 等离策略方法的样本效率与稳定性。",
article = nil,
}
data["super learner"] = {
short = "An ensemble algorithm that combines a library of candidate predictors via cross-validated convex weighting to minimize a chosen loss, providing oracle-optimal risk and serving as the nuisance-function learner in TMLE and double machine learning.",
es = "Algoritmo de ensamblado que combina una biblioteca de predictores candidatos mediante una ponderación convexa validada por validación cruzada para minimizar una pérdida elegida, proporcionando riesgo oráculo-óptimo y siendo el aprendiz de funciones de molestia en TMLE y double machine learning.",
zh = "一种集成算法,通过交叉验证下的凸加权将候选预测器库组合起来以最小化指定损失,具有oracle最优风险性质,常作为 TMLE 与双重机器学习中冗余函数的学习器。",
article = nil,
}
data["super-pixel attribution"] = {
short = "Image attribution computed at the granularity of super-pixels — contiguous regions produced by a segmentation algorithm — rather than individual pixels, yielding more interpretable saliency maps.",
es = "Atribución de imágenes calculada a nivel de superpíxeles —regiones contiguas producidas por un algoritmo de segmentación— en lugar de píxeles individuales, lo que produce mapas de saliencia más interpretables.",
zh = "在超像素(由分割算法生成的连通区域)粒度而非单个像素粒度上计算图像归因,得到更可解释的显著图。",
article = nil,
}
data["super-resolution microscopy"] = {
short = "Fluorescence imaging techniques that surpass the optical diffraction limit (~200 nm) to resolve subcellular structures at tens of nanometers, including STED, PALM, STORM, and SIM.",
es = "Técnicas de imagen por fluorescencia que superan el límite de difracción óptica (~200 nm) para resolver estructuras subcelulares a decenas de nanómetros, incluyendo STED, PALM, STORM y SIM.",
zh = "突破光学衍射极限(约 200 nm)的荧光成像技术,可在数十纳米尺度分辨亚细胞结构,包括 STED、PALM、STORM 和 SIM。",
article = nil,
}
data["superlinear convergence"] = {
short = "A convergence rate faster than linear, where the ratio of successive errors tends to zero. Newton's method achieves quadratic (a special case of superlinear) convergence near a solution.",
es = "Tasa de convergencia más rápida que la lineal, en la que el cociente de errores sucesivos tiende a cero. El método de Newton alcanza convergencia cuadrática (un caso particular) cerca de una solución.",
zh = "比线性收敛更快的收敛速率,相邻误差之比趋于零。牛顿法在解的附近可达到二次收敛(超线性的特例)。",
article = nil,
}
data["supermodular potential"] = {
short = "A pairwise potential whose energy function satisfies the supermodularity inequality—the reverse of submodularity—rendering MAP inference via graph cuts NP-hard in general.",
es = "Potencial por pares cuya función de energía satisface la desigualdad de supermodularidad —el inverso de la submodularidad— lo que en general hace que la inferencia MAP mediante cortes de grafo sea NP-difícil.",
zh = "成对势函数,其能量函数满足超模性不等式(与次模性相反),通常使得通过图割进行 MAP 推理成为 NP 难问题。",
article = nil,
}
data["supernet"] = {
short = "An over-parameterized network in weight-sharing neural architecture search that contains every candidate architecture in the search space as a sub-network. Training the supernet once allows cheap evaluation of many architectures via inherited weights.",
es = "Red sobreparametrizada utilizada en NAS con compartición de pesos que contiene como subred a cada arquitectura candidata del espacio de búsqueda. Entrenar la supernet una sola vez permite evaluar muchas arquitecturas de forma barata mediante pesos heredados.",
zh = "权重共享神经架构搜索中的过参数化网络,其搜索空间内的每个候选架构都是它的一个子网络;只需训练一次超网,即可借助继承权重廉价地评估大量架构。",
article = nil,
}
data["supernet accuracy"] = {
short = "The accuracy obtained by evaluating a sub-architecture using weights inherited from a trained supernet, without any further fine-tuning. Used as a cheap proxy for the architecture's standalone-trained accuracy in weight-sharing NAS.",
es = "Precisión obtenida al evaluar una subarquitectura utilizando los pesos heredados de una supernet entrenada, sin ningún ajuste posterior. Se emplea como sustituto barato de la precisión real de la arquitectura entrenada de forma independiente en NAS con compartición de pesos.",
zh = "在权重共享 NAS 中,使用训练好的超网继承权重直接评估子架构所得到的精度,不再做额外微调,常作为该架构独立训练精度的廉价代理。",
article = nil,
}
data["supernet generalization gap"] = {
short = "The systematic difference between accuracies obtained from supernet-inherited weights and those obtained by training the same architecture from scratch. A large gap undermines the supernet's reliability as a performance proxy in NAS.",
es = "Diferencia sistemática entre la precisión obtenida con pesos heredados de la supernet y la obtenida al entrenar desde cero la misma arquitectura. Una brecha amplia compromete la fiabilidad de la supernet como sustituto de rendimiento en NAS.",
zh = "通过超网继承权重得到的精度与同一架构从零开始训练得到的精度之间的系统性差距;该差距越大,超网作为 NAS 性能代理的可靠性越低。",
article = nil,
}
data["supernet performance estimator"] = {
short = "A method that uses a trained supernet to predict the standalone-trained performance of candidate architectures, typically by evaluating them with inherited weights. It is the cost-saving heart of weight-sharing NAS.",
es = "Método que utiliza una supernet entrenada para predecir el rendimiento que tendrían las arquitecturas candidatas si se entrenasen de forma independiente, típicamente evaluándolas con pesos heredados. Constituye el componente que ahorra cómputo en NAS con compartición de pesos.",
zh = "利用训练好的超网(通常通过继承权重对候选架构进行评估)来预测各候选架构独立训练后的性能,是权重共享 NAS 节省算力的核心组件。",
article = nil,
}
data["supernet rank disorder"] = {
short = "The phenomenon in weight-sharing NAS where the ordering of architectures by supernet-inherited accuracy disagrees with the ordering induced by independent training. It directly limits the usefulness of supernets as performance estimators.",
es = "Fenómeno en NAS con compartición de pesos en el que el orden de las arquitecturas según la precisión heredada de la supernet difiere del orden obtenido al entrenarlas de forma independiente, lo que limita directamente la utilidad de las supernets como estimadores de rendimiento.",
zh = "权重共享 NAS 中出现的现象:按超网继承精度对架构排序的结果与按独立训练精度排序的结果不一致,这直接限制了超网作为性能估计器的实用性。",
article = nil,
}
data["superposition"] = {
short = "In mechanistic interpretability, the phenomenon by which a neural network represents more features than it has dimensions by encoding them as overlapping, non-orthogonal directions in activation space (Elhage et al., 2022).",
es = "En interpretabilidad mecanicista, el fenómeno por el cual una red neuronal representa más características que dimensiones disponibles, codificándolas como direcciones superpuestas y no ortogonales en el espacio de activaciones.",
zh = "在机制可解释性中,神经网络通过在激活空间中以非正交、相互重叠的方向编码特征,从而表示出比维度数更多的特征的现象(Elhage 等,2022)。",
article = nil,
}
data["supervised contrastive loss"] = {
short = "Extension of contrastive losses that uses class labels to treat all same-class samples in a batch as positives, generalizing self-supervised contrastive objectives to supervised representation learning.",
es = "Extensión de las pérdidas contrastivas que utiliza las etiquetas de clase para tratar como positivos a todas las muestras de la misma clase en el lote, generalizando los objetivos contrastivos auto-supervisados al aprendizaje supervisado de representaciones.",
zh = "对比损失的扩展,利用类别标签将批次中同类的所有样本视为正样本,把自监督对比目标推广到有监督表示学习。",
article = nil,
}
data["supervised fine-tuning"] = {
short = "Adapting a pretrained language model by training it on labeled input-output pairs (typically instruction-response demonstrations) using standard cross-entropy loss; the first stage of most instruction-tuning and RLHF pipelines.",
es = "Adaptar un modelo de lenguaje preentrenado entrenándolo con pares etiquetados de entrada y salida (normalmente demostraciones de instrucción-respuesta) usando entropía cruzada estándar; primera etapa de la mayoría de los pipelines de ajuste por instrucciones y RLHF.",
zh = "通过在带标签的输入-输出对(通常是指令-响应示例)上使用标准交叉熵损失对预训练语言模型进行训练,是大多数指令微调和RLHF流水线的第一阶段。",
article = nil,
}
data["supervised learning"] = {
short = "A machine learning paradigm in which a model is trained on labeled input-output pairs to learn a mapping from inputs to targets, typically by minimizing a loss between predictions and the provided labels.",
es = "Paradigma de aprendizaje automático en el que un modelo se entrena con pares entrada-salida etiquetados para aprender una asignación de entradas a objetivos, típicamente minimizando una pérdida entre las predicciones y las etiquetas proporcionadas.",
zh = "一种机器学习范式,使用带标签的输入-输出对训练模型,以学习从输入到目标的映射,通常通过最小化预测与给定标签之间的损失来实现。",
article = nil,
}
data["suppa2"] = {
short = "A tool for fast and accurate quantification of alternative splicing events and differential splicing analysis from transcript-level expression estimates.",
es = "Herramienta para la cuantificación rápida y precisa de eventos de splicing alternativo y el análisis de splicing diferencial a partir de estimaciones de expresión a nivel de transcrito.",
zh = "一种基于转录本水平表达估计快速、准确地量化可变剪接事件并进行差异剪接分析的工具。",
article = nil,
}
data["support set"] = {
short = "In few-shot and meta-learning, the small set of labeled examples provided for each task that the model uses to adapt before being evaluated on the corresponding query set. Together they form an episode.",
es = "En aprendizaje con pocos ejemplos y metaaprendizaje, el pequeño conjunto de ejemplos etiquetados proporcionado para cada tarea que el modelo utiliza para adaptarse antes de evaluarse sobre el conjunto de consulta correspondiente. Juntos forman un episodio.",
zh = "在小样本学习和元学习中,每个任务给出的少量带标签样本集合,模型先在其上进行适应,再在相应的查询集上评估;二者共同构成一个 episode。",
article = nil,
}
data["supporting hyperplane"] = {
short = "For a convex set C and a boundary point x, a hyperplane passing through x such that C lies entirely in one of its closed halfspaces; existence is guaranteed by the supporting hyperplane theorem.",
es = "Para un conjunto convexo C y un punto x de su frontera, un hiperplano que pasa por x tal que C queda contenido íntegramente en uno de sus semiespacios cerrados; su existencia se asegura mediante el teorema del hiperplano soporte.",
zh = "对于凸集C和其边界上的一点x,过x的一个超平面,使得C完全位于该超平面的某个闭半空间内;其存在性由支撑超平面定理保证。",
article = nil,
}
data["supremum"] = {
short = "The least upper bound of a subset of an ordered set, denoted sup; if the supremum is itself contained in the set, it coincides with the maximum.",
es = "Cota superior mínima de un subconjunto de un conjunto ordenado, denotada sup; si el supremo pertenece al subconjunto, coincide con el máximo.",
zh = "有序集合子集的最小上界,记作sup;当上确界本身属于该集合时,它与最大值重合。",
article = nil,
}
data["surechembl"] = {
short = "SureChEMBL is an open database of chemical structures automatically extracted from the full text of patents, providing free public access to patent chemistry for drug discovery and cheminformatics research.",
es = "SureChEMBL es una base de datos abierta de estructuras químicas extraídas automáticamente del texto completo de patentes, que ofrece acceso público gratuito a la química de patentes para investigación en descubrimiento de fármacos y quimioinformática.",
zh = "SureChEMBL 是一个开放数据库,从专利全文中自动抽取化学结构,免费向公众开放,用于药物发现和化学信息学研究。",
article = nil,
}
data["surface integral"] = {
short = "An integral of a scalar or vector field over a parametrized surface in space, generalizing the line integral and central to vector calculus, electromagnetism, and Stokes' theorem.",
es = "Integral de un campo escalar o vectorial sobre una superficie parametrizada en el espacio, que generaliza la integral de línea y es fundamental en cálculo vectorial, electromagnetismo y el teorema de Stokes.",
zh = "在空间中参数化曲面上对标量场或向量场进行的积分,是线积分的推广,在矢量微积分、电磁学和Stokes定理中具有核心地位。",
article = nil,
}
data["surjection"] = {
short = "A function f:X→Y for which every element of Y is the image of some element of X; equivalently, the image of f equals its codomain.",
es = "Función f:X→Y para la que todo elemento de Y es imagen de algún elemento de X; equivalentemente, la imagen de f coincide con su codominio.",
zh = "函数f:X→Y,其中Y的每个元素都是X中某个元素的像;等价地,f的像等于其陪域。",
article = nil,
}
data["surprisal"] = {
short = "The information content of a single outcome: I(x) = −log p(x). Also called self-information; entropy is its expected value over the distribution.",
es = "Contenido de información de un único resultado: I(x) = −log p(x). También llamada autoinformación; la entropía es su valor esperado sobre la distribución.",
zh = "单个结果的信息内容:I(x) = −log p(x)。又称自信息;熵是其在分布下的期望值。",
article = nil,
}
data["surrogate boosting"] = {
short = "A surrogate-model explanation approach in which a gradient-boosted tree ensemble is trained to mimic a black-box model's predictions, providing tree-based importance and decision-path explanations.",
es = "Enfoque de explicación por modelo subrogado en el que se entrena un ensamble de árboles potenciado por gradiente para imitar las predicciones de un modelo caja negra, proporcionando explicaciones basadas en importancia y rutas de decisión.",
zh = "一种替代模型解释方法:训练梯度提升树集成模型以模拟黑盒模型的预测,从而提供基于树的重要性与决策路径解释。",
article = nil,
}
data["surrogate decision tree"] = {
short = "A decision tree trained to approximate a black-box model's input-output behavior, used as a globally interpretable surrogate that exposes the rules and feature splits implicit in the original model.",
es = "Árbol de decisión entrenado para aproximar el comportamiento entrada-salida de un modelo caja negra, utilizado como subrogado globalmente interpretable que expone las reglas y particiones implícitas en el modelo original.",
zh = "训练一棵决策树来近似黑盒模型的输入-输出行为,将其作为全局可解释的替代模型,揭示原模型中隐含的规则与特征划分。",
article = nil,
}
data["surrogate gam"] = {
short = "A generalized additive model fitted to mimic a black-box model's predictions, yielding a globally interpretable surrogate whose per-feature shape functions reveal each feature's contribution.",
es = "Modelo aditivo generalizado ajustado para imitar las predicciones de un modelo caja negra, produciendo un subrogado globalmente interpretable cuyas funciones por característica revelan la contribución de cada una.",
zh = "拟合一个广义加性模型以模拟黑盒模型的预测,得到全局可解释的替代模型,其每个特征的形状函数揭示该特征的贡献。",
article = nil,
}
data["surrogate model"] = {
short = "A cheap-to-evaluate predictive model that approximates an expensive black-box objective. In Bayesian optimization and AutoML, surrogates such as Gaussian processes, random forests, or neural networks guide search by providing predictive means and uncertainties.",
es = "Modelo predictivo barato de evaluar que aproxima un objetivo de caja negra costoso. En optimización bayesiana y AutoML, los modelos sustitutos —como procesos gaussianos, bosques aleatorios o redes neuronales— guían la búsqueda al proporcionar medias predictivas e incertidumbres.",
zh = "用于近似昂贵黑盒目标的廉价预测模型。在贝叶斯优化和 AutoML 中,常用的代理模型(如高斯过程、随机森林或神经网络)通过给出预测均值和不确定性来引导搜索。",
article = nil,
}
data["surrogate model explanation"] = {
short = "An explanation strategy that fits an interpretable model — for example, a linear model, decision tree, or GAM — to approximate a black-box model, then explains the surrogate as a proxy for the original.",
es = "Estrategia de explicación que ajusta un modelo interpretable —por ejemplo, un modelo lineal, un árbol de decisión o un GAM— para aproximar un modelo caja negra, y luego explica el subrogado como representante del original.",
zh = "一种解释策略:拟合一个可解释模型(如线性模型、决策树或 GAM)来近似黑盒模型,然后将该替代模型作为原模型的代理进行解释。",
article = nil,
}
data["surrogate variable analysis"] = {
short = "A statistical method that estimates hidden sources of unwanted variation (batch effects, technical noise) in high-dimensional data as surrogate variables, which are then included as covariates in downstream analyses.",
es = "Método estadístico que estima fuentes ocultas de variación no deseada (efectos de lote, ruido técnico) en datos de alta dimensión como variables sustitutas, que luego se incluyen como covariables en análisis posteriores.",
zh = "一种统计方法,将高维数据中未观测到的不想要的变异源(批次效应、技术噪声)估计为替代变量,并将其作为协变量纳入下游分析。",
article = nil,
}
data["survival causal inference"] = {
short = "Causal inference for time-to-event outcomes, addressing censoring, competing risks, and time-varying treatments via tools such as marginal structural Cox models, structural nested failure time models, and TMLE for survival.",
es = "Inferencia causal para resultados de tiempo hasta el evento, que aborda la censura, los riesgos competitivos y los tratamientos variables en el tiempo mediante herramientas como los modelos de Cox estructurales marginales, los modelos estructurales anidados de tiempo de fallo y el TMLE para supervivencia.",
zh = "针对时间至事件结局的因果推断,通过边际结构 Cox 模型、结构嵌套失效时间模型以及生存数据 TMLE 等工具处理删失、竞争风险与时变处理问题。",
article = nil,
}
data["survivorship bias"] = {
short = "A selection bias arising from analyzing only entities that passed a filtering process while ignoring those that did not, leading to overestimation of typical outcomes. Common in datasets of successful firms, models, or product cohorts.",
es = "Sesgo de selección que surge al analizar solo entidades que pasaron un proceso de filtrado, ignorando a las que no, lo que conduce a sobreestimar los resultados típicos. Es habitual en conjuntos de datos de empresas, modelos o cohortes de productos exitosos.",
zh = "一种选择偏差,只分析通过某筛选过程的实体,而忽略未通过的实体,导致对典型结果的高估。常见于成功企业、模型或产品队列的数据集。",
article = nil,
}
data["svd recommender"] = {
short = "A collaborative-filtering recommender that factorizes the user–item rating matrix via singular value decomposition (or its regularized matrix-factorization approximation) into low-rank user and item factor matrices used to predict missing ratings.",
es = "Recomendador de filtrado colaborativo que factoriza la matriz usuario–ítem mediante descomposición en valores singulares (o su aproximación regularizada de factorización matricial) en matrices de factores latentes usadas para predecir calificaciones faltantes.",
zh = "一种协同过滤推荐方法,通过奇异值分解(或其正则化矩阵分解近似)将用户–物品评分矩阵分解为低秩的用户和物品潜在因子矩阵,用于预测缺失评分。",
article = nil,
}
data["svd++"] = {
short = "An extension of SVD matrix factorization (Koren, 2008) that augments user latent factors with the set of items the user has interacted with, incorporating implicit feedback signals alongside explicit ratings.",
es = "Extensión de la factorización SVD (Koren, 2008) que enriquece los factores latentes del usuario con el conjunto de ítems con los que ha interactuado, incorporando señales de retroalimentación implícita junto con las calificaciones explícitas.",
zh = "SVD 矩阵分解的扩展(Koren, 2008),通过将用户已交互的物品集合融入用户潜在因子,在显式评分之外引入隐式反馈信号。",
article = nil,
}
data["svrg"] = {
short = "Stochastic Variance Reduced Gradient, a stochastic optimization method that periodically computes a full-batch anchor gradient and uses it to construct a low-variance estimator of the gradient at each minibatch step.",
es = "Gradiente con varianza reducida estocástica (SVRG), método de optimización que calcula periódicamente un gradiente completo de referencia y lo emplea para construir un estimador de baja varianza en cada minibatch.",
zh = "随机方差缩减梯度(SVRG),一种随机优化方法:周期性地计算完整批量的锚点梯度,并用其在每个小批量步上构造低方差的梯度估计。",
article = nil,
}
data["swarm learning"] = {
short = "A decentralized machine-learning paradigm that combines edge computing, blockchain-based coordination, and parameter-merging protocols so that participants jointly train a model without any central aggregator.",
es = "Paradigma de aprendizaje automático descentralizado que combina cómputo en el borde, coordinación basada en cadena de bloques y protocolos de fusión de parámetros para que los participantes entrenen conjuntamente un modelo sin ningún agregador central.",
zh = "一种去中心化的机器学习范式,将边缘计算、基于区块链的协调和参数合并协议结合起来,使参与者无需任何中心聚合器即可共同训练模型。",
article = nil,
}
data["swarm robot learning"] = {
short = "Multi-agent reinforcement or imitation learning for large groups of homogeneous robots, where decentralized policies must produce coordinated emergent behavior such as flocking, foraging, or area coverage from local observations.",
es = "Aprendizaje multiagente por refuerzo o por imitación para grupos grandes de robots homogéneos, donde las políticas descentralizadas deben producir comportamientos emergentes coordinados —como agrupamiento, búsqueda de recursos o cobertura de área— a partir de observaciones locales.",
zh = "针对大规模同构机器人群体的多智能体强化学习或模仿学习,其中去中心化策略需要从局部观测出发产生协调的涌现行为,如群集、觅食或区域覆盖。",
article = nil,
}
data["swav"] = {
short = "Swapping Assignments between Views: a self-supervised learning method that contrasts cluster assignments rather than features, by enforcing consistency between codes assigned to different augmented views of the same image using online clustering.",
es = "Swapping Assignments between Views: método de aprendizaje autosupervisado que contrasta asignaciones de clústeres en lugar de características, imponiendo consistencia entre los códigos asignados a distintas vistas aumentadas de la misma imagen mediante agrupamiento en línea.",
zh = "Swapping Assignments between Views:一种自监督学习方法,通过在线聚类对同一图像不同增强视图的聚类分配施加一致性约束,从而对比聚类分配而非特征本身。",
article = nil,
}
data["swe-agent"] = {
short = "An open-source autonomous coding agent from Princeton that pairs a language model with a custom Agent-Computer Interface to edit, run, and test code in a real repository, designed for the SWE-Bench benchmark.",
es = "Agente de programación autónomo de código abierto de la Universidad de Princeton que combina un modelo de lenguaje con una interfaz Agente-Computadora personalizada para editar, ejecutar y probar código en un repositorio real, diseñado para el benchmark SWE-Bench.",
zh = "普林斯顿大学发布的开源自主编程代理,将语言模型与定制的代理-计算机接口结合,可在真实代码仓库中编辑、运行和测试代码,专为SWE-Bench基准设计。",
article = nil,
}
data["swe-bench"] = {
short = "A benchmark of real-world GitHub issues paired with their fixing pull requests, used to evaluate language model agents on resolving software engineering tasks in actual Python repositories.",
es = "Benchmark compuesto por issues reales de GitHub emparejados con los pull requests que los resuelven, utilizado para evaluar agentes basados en modelos de lenguaje en la resolución de tareas de ingeniería de software en repositorios Python reales.",
zh = "由真实GitHub issue与其修复对应的pull request配对组成的基准,用于评估基于语言模型的代理在真实Python代码仓库中解决软件工程任务的能力。",
article = nil,
}
data["swe-bench verified"] = {
short = "A 500-task subset of SWE-Bench curated by OpenAI in collaboration with the original authors, in which every instance has been human-verified to be solvable and to have unambiguous unit tests.",
es = "Subconjunto de 500 tareas de SWE-Bench curado por OpenAI en colaboración con los autores originales, en el que cada instancia ha sido verificada por humanos para garantizar que es resoluble y que sus pruebas unitarias son inequívocas.",
zh = "OpenAI与SWE-Bench原作者合作整理的500个任务子集,每个样本都经过人工核验,确保可解且具有明确无歧义的单元测试。",
article = nil,
}
data["swendsen-wang algorithm"] = {
short = "A cluster Markov chain Monte Carlo algorithm for Ising and Potts models that updates entire clusters of spins simultaneously, dramatically reducing critical slowing down compared to single-site Gibbs sampling.",
es = "Algoritmo de Monte Carlo por cadenas de Markov basado en agrupaciones para modelos de Ising y Potts que actualiza simultáneamente conjuntos enteros de espines, reduciendo drásticamente la ralentización crítica frente al muestreo de Gibbs sitio por sitio.",
zh = "用于 Ising 和 Potts 模型的聚类马尔可夫链蒙特卡洛算法,同时更新整簇自旋,相比单点 Gibbs 采样显著减轻临界慢化现象。",
article = nil,
}
data["swin transformer"] = {
short = "A hierarchical vision transformer introduced by Liu et al. in 2021 that computes self-attention within local non-overlapping windows and shifts the windows between layers, enabling cross-window connections with linear complexity in image size.",
es = "Vision transformer jerárquico presentado por Liu et al. en 2021 que calcula la self-attention dentro de ventanas locales no superpuestas y desplaza las ventanas entre capas, permitiendo conexiones entre ventanas con complejidad lineal respecto al tamaño de la imagen.",
zh = "由 Liu 等人于 2021 年提出的层次化视觉 Transformer,在局部非重叠窗口内计算自注意力,并在层之间移动窗口,从而以图像尺寸的线性复杂度实现跨窗口连接。",
article = nil,
}
data["swipe pitch"] = {
short = "Sawtooth Waveform Inspired Pitch Estimator, a pitch detection algorithm that estimates fundamental frequency by matching a sawtooth-like spectral template against the signal spectrum.",
es = "Sawtooth Waveform Inspired Pitch Estimator, algoritmo de detección de tono que estima la frecuencia fundamental haciendo coincidir una plantilla espectral en forma de diente de sierra con el espectro de la señal.",
zh = "锯齿波启发式基频估计算法 (SWIPE),通过将类似锯齿波的频谱模板与信号频谱进行匹配来估计基频。",
article = nil,
}
data["swish"] = {
short = "Self-gated activation defined as x · σ(βx), where β is fixed or learnable. With β = 1 it coincides with SiLU; smooth, non-monotonic, and proposed by Ramachandran et al. (2017).",
es = "Activación auto-controlada definida como x · σ(βx), donde β es fijo o aprendible. Con β = 1 coincide con SiLU; suave, no monótona, propuesta por Ramachandran et al. (2017).",
zh = "自门控激活函数,定义为 x · σ(βx),其中 β 可固定或可学习。当 β = 1 时与 SiLU 相同,平滑且非单调,由 Ramachandran 等人于 2017 年提出。",
article = nil,
}
data["swish discovery"] = {
short = "The use of automated activation function search to find Swish, x·sigmoid(βx), as a high-performing replacement for ReLU. Reported by Ramachandran et al. (2017) and one of the early successes of NAS applied to non-architectural design choices.",
es = "Empleo de la búsqueda automática de funciones de activación para descubrir Swish, x·sigmoide(βx), como sustituto de ReLU con buen desempeño. Reportado por Ramachandran et al. (2017), es uno de los primeros éxitos de NAS aplicado a decisiones de diseño no arquitectónicas.",
zh = "通过自动化激活函数搜索发现 Swish(x·sigmoid(βx))作为 ReLU 的高性能替代,由 Ramachandran 等人于 2017 年提出,是 NAS 应用于非架构设计选择的早期成功案例之一。",
article = nil,
}
data["swiss-model"] = {
short = "An automated web-based homology-modeling server that builds three-dimensional protein structure models from a target sequence and experimentally determined templates.",
es = "Servidor web automatizado de modelado por homología que construye modelos tridimensionales de estructura proteica a partir de una secuencia objetivo y plantillas determinadas experimentalmente.",
zh = "一个基于网页的自动同源建模服务器,根据目标序列和已通过实验确定的模板构建三维蛋白质结构模型。",
article = nil,
}
data["swissadme"] = {
short = "SwissADME is a free web tool from the Swiss Institute of Bioinformatics that predicts physicochemical properties, ADME parameters, drug-likeness, and medicinal-chemistry friendliness of small molecules from their structure.",
es = "SwissADME es una herramienta web gratuita del Instituto Suizo de Bioinformática que predice propiedades fisicoquímicas, parámetros ADME, semejanza a fármacos y aptitud para química medicinal de moléculas pequeñas a partir de su estructura.",
zh = "SwissADME 是瑞士生物信息学研究所提供的免费网页工具,根据小分子结构预测其理化性质、ADME 参数、药物相似性以及药物化学友好度。",
article = nil,
}
data["swissprot"] = {
short = "Swiss-Prot is the manually annotated, expert-curated section of the UniProt Knowledgebase, providing high-quality, non-redundant protein sequences with literature-supported functional and structural annotations.",
es = "Swiss-Prot es la sección manualmente anotada y curada por expertos de la base de conocimiento UniProt, que proporciona secuencias proteicas de alta calidad y no redundantes con anotaciones funcionales y estructurales respaldadas por la literatura.",
zh = "Swiss-Prot 是 UniProt 知识库中由专家手工注释、人工整理的部分,提供高质量、无冗余的蛋白质序列以及有文献支持的功能与结构注释。",
article = nil,
}
data["switch routing"] = {
short = "The top-1 routing strategy introduced in the Switch Transformer, where each input token is sent to exactly one expert in a mixture-of-experts layer, with auxiliary load-balancing and capacity factor terms to maintain hardware efficiency.",
es = "Estrategia de enrutamiento top-1 introducida por Switch Transformer, en la que cada token de entrada se envía a exactamente un experto dentro de una capa de mezcla de expertos, con términos auxiliares de balanceo de carga y factor de capacidad para mantener la eficiencia en hardware.",
zh = "由Switch Transformer提出的top-1路由策略,在专家混合层中每个输入token仅被发送给一个专家,并通过辅助的负载均衡项和容量因子保持硬件效率。",
article = nil,
}
data["switch transformer"] = {
short = "A sparsely-gated mixture-of-experts transformer that routes each token to exactly one expert, simplifying routing and enabling efficient scaling to trillion-parameter models.",
es = "Transformer con mezcla de expertos de compuerta dispersa que enruta cada token a exactamente un experto, simplificando el enrutamiento y permitiendo un escalado eficiente a modelos de billones de parámetros.",
zh = "一种采用稀疏门控专家混合的 Transformer,将每个 token 路由到恰好一个专家,简化了路由机制并支持向万亿参数模型的高效扩展。",
article = nil,
}
data["switchable normalization"] = {
short = "Normalization layer that learns a weighted combination of batch, layer and instance normalization statistics per channel, letting the network choose the best mix during training.",
es = "Capa de normalización que aprende una combinación ponderada de estadísticas de normalización por lotes, por capa y por instancia para cada canal, permitiendo a la red elegir la mejor mezcla durante el entrenamiento.",
zh = "在每个通道上学习批、层与实例三种归一化统计量的加权组合,让网络在训练中自行选择最适合的混合方式。",
article = nil,
}
data["switchboard corpus"] = {
short = "A widely used corpus of about 2,400 conversational English telephone dialogues collected by Texas Instruments and distributed by the LDC, a long-standing benchmark for ASR and speaker recognition.",
es = "Corpus muy utilizado de aproximadamente 2.400 diálogos telefónicos conversacionales en inglés recopilado por Texas Instruments y distribuido por el LDC, referencia de larga data para reconocimiento del habla y de locutor.",
zh = "由德州仪器收集、LDC 发布的约 2400 段英语电话对话语料库,长期作为语音识别和说话人识别的基准数据集。",
article = nil,
}
data["switching linear dynamical system"] = {
short = "A latent-variable time-series model that combines a discrete switching state with multiple linear-Gaussian dynamical regimes, where the discrete state selects which linear dynamics govern the continuous state at each step.",
es = "Modelo de series temporales con variables latentes que combina un estado de conmutación discreto con múltiples regímenes dinámicos lineales-gaussianos, donde el estado discreto selecciona qué dinámica lineal rige el estado continuo en cada paso.",
zh = "结合离散切换状态与多个线性高斯动力学体制的潜变量时间序列模型,离散状态在每一步选择控制连续状态的线性动力学。",
article = nil,
}
data["switching state space model"] = {
short = "A state space model in which the system dynamics or observation equations switch among a finite set of regimes according to a latent discrete state, typically driven by a Markov chain.",
es = "Modelo de espacio de estados en el que las dinámicas del sistema o las ecuaciones de observación alternan entre un conjunto finito de regímenes según un estado discreto latente, normalmente gobernado por una cadena de Markov.",
zh = "一种状态空间模型,其系统动态或观测方程根据潜在的离散状态在有限个机制之间切换,通常由马尔可夫链驱动。",
article = nil,
}
data["sybil attack"] = {
short = "A security attack in distributed or federated systems in which a single adversary creates many fake identities to gain disproportionate influence over voting, aggregation, or reputation mechanisms.",
es = "Ataque de seguridad en sistemas distribuidos o federados en el que un único adversario crea muchas identidades falsas para obtener una influencia desproporcionada sobre los mecanismos de votación, agregación o reputación.",
zh = "一种针对分布式或联邦系统的安全攻击,单个攻击者创建大量伪造身份,以在投票、聚合或信誉机制中获得不成比例的影响力。",
article = nil,
}
data["sybil attack defense"] = {
short = "Mechanisms that limit the impact of Sybil attacks in federated learning, including identity verification, resource-bound proofs, contribution-based reputation, similarity filtering, and Byzantine-robust aggregation rules.",
es = "Mecanismos que limitan el impacto de los ataques Sybil en el aprendizaje federado, incluyendo verificación de identidad, pruebas con coste de recursos, reputación basada en contribuciones, filtrado por similitud y reglas de agregación robustas a comportamientos bizantinos.",
zh = "用于限制女巫攻击在联邦学习中影响的机制,包括身份验证、资源消耗证明、基于贡献的信誉、相似度过滤以及拜占庭鲁棒聚合规则。",
article = nil,
}
data["sycophancy"] = {
short = "The tendency of a language model to agree with or flatter the user's stated views even when those views are incorrect, often arising from preference-based training that rewards user-pleasing responses.",
es = "Tendencia de un modelo de lenguaje a estar de acuerdo o adular las opiniones del usuario incluso cuando son incorrectas, a menudo originada por el entrenamiento basado en preferencias que premia respuestas complacientes.",
zh = "语言模型对用户所述观点的迎合或奉承倾向,即使该观点错误也是如此,通常源于基于偏好的训练对取悦用户的回答给予奖励。",
article = nil,
}
data["sylvester flow"] = {
short = "A normalizing flow that generalizes planar flows by parameterizing the transformation through a Sylvester determinant identity, allowing higher-dimensional bottlenecks while keeping the Jacobian determinant tractable.",
es = "Flujo normalizante que generaliza los flujos planares parametrizando la transformación mediante la identidad del determinante de Sylvester, lo que permite cuellos de botella de mayor dimensión manteniendo el determinante del Jacobiano tratable.",
zh = "一种规范化流,通过 Sylvester 行列式恒等式参数化变换来推广平面流,允许更高维的瓶颈结构同时保持 Jacobian 行列式可计算。",
article = nil,
}
data["symbolic aggregate approximation"] = {
short = "SAX: a symbolic representation of time series that segments a normalized series into equal-length pieces, replaces each segment by its mean, and maps the means to discrete symbols via equiprobable Gaussian breakpoints.",
es = "SAX: representación simbólica de series temporales que segmenta una serie normalizada en trozos de igual longitud, sustituye cada segmento por su media y transforma las medias en símbolos discretos mediante puntos de corte gaussianos equiprobables.",
zh = "SAX:一种时间序列的符号化表示方法,将归一化后的序列划分为等长片段,用每段的均值代替原值,再通过等概率的高斯分位点将均值映射为离散符号。",
article = nil,
}
data["symbolic ai"] = {
short = "An approach to artificial intelligence based on the explicit manipulation of symbols according to formal rules, encompassing logic-based systems, knowledge bases, and search algorithms.",
es = "Enfoque de la inteligencia artificial basado en la manipulación explícita de símbolos según reglas formales, que abarca sistemas basados en lógica, bases de conocimiento y algoritmos de búsqueda.",
zh = "基于按形式规则显式操作符号的人工智能方法,涵盖基于逻辑的系统、知识库和搜索算法。",
article = nil,
}
data["symbolic fourier approximation"] = {
short = "SFA: a symbolic representation of time series that applies a discrete Fourier transform, retains the leading coefficients, and discretizes them with data-adaptive bins to obtain a sequence of symbols.",
es = "SFA: representación simbólica de series temporales que aplica una transformada discreta de Fourier, conserva los primeros coeficientes y los discretiza mediante intervalos adaptativos a los datos para obtener una secuencia de símbolos.",
zh = "SFA:一种时间序列的符号化表示方法,先应用离散傅里叶变换,保留前若干个系数,再使用数据自适应的分箱将其离散化为符号序列。",
article = nil,
}
data["symbolic music"] = {
short = "A representation of music as discrete symbols such as MIDI notes, piano-roll matrices, or score-level tokens, contrasting with raw audio waveforms or spectrograms.",
es = "Representación de música como símbolos discretos tales como notas MIDI, matrices de piano-roll o tokens a nivel de partitura, en contraste con formas de onda de audio crudo o espectrogramas.",
zh = "将音乐表示为离散符号(如 MIDI 音符、钢琴卷帘矩阵或乐谱级 token)的形式,与原始音频波形或频谱图相对。",
article = nil,
}
data["symbolic reasoning"] = {
short = "Inference performed by manipulating discrete symbols according to explicit logical or formal rules, in contrast to statistical or sub-symbolic methods.",
es = "Inferencia realizada mediante la manipulación de símbolos discretos según reglas lógicas o formales explícitas, en contraste con los métodos estadísticos o subsimbólicos.",
zh = "通过依据显式的逻辑或形式规则操作离散符号来进行推理,与统计或亚符号方法相对。",
article = nil,
}
data["symbolic regression"] = {
short = "A regression technique that searches the space of mathematical expressions—typically via genetic programming or neural search—to find a closed-form formula that fits observed data.",
es = "Técnica de regresión que busca en el espacio de expresiones matemáticas —normalmente mediante programación genética o búsqueda neuronal— para encontrar una fórmula en forma cerrada que se ajuste a los datos observados.",
zh = "一种回归技术,通过遗传编程或神经搜索在数学表达式空间中寻找能拟合观测数据的封闭形式公式。",
article = nil,
}
data["symmetric group"] = {
short = "The group S_n of all permutations of n elements under composition; has order n! and plays a foundational role in group theory, combinatorics, and representation theory.",
es = "Grupo S_n de todas las permutaciones de n elementos bajo la composición; tiene orden n! y desempeña un papel fundamental en teoría de grupos, combinatoria y teoría de representaciones.",
zh = "由n个元素的所有置换在复合运算下构成的群S_n,其阶为n!;在群论、组合学和表示论中具有基础性地位。",
article = nil,
}
data["symmetric matrix"] = {
short = "A square matrix A equal to its own transpose, A = Aᵀ. Has real eigenvalues and an orthonormal basis of eigenvectors (spectral theorem); central to optimization and covariance analysis.",
es = "Matriz cuadrada A igual a su propia transpuesta, A = Aᵀ. Tiene valores propios reales y una base ortonormal de vectores propios (teorema espectral); es central en optimización y análisis de covarianzas.",
zh = "等于自身转置的方阵 A,即 A = Aᵀ。其特征值为实数且具有由特征向量构成的正交归一基(谱定理);在优化和协方差分析中至关重要。",
article = nil,
}
data["sync parameter server"] = {
short = "A parameter-server architecture in which all workers compute gradients on a fixed global parameter version and the server applies their averaged update only after every worker has reported, providing BSP-style consistency.",
es = "Arquitectura de servidor de parámetros en la que todos los trabajadores calculan gradientes sobre una versión global fija de los parámetros y el servidor aplica su actualización promediada solo después de que cada trabajador haya respondido, ofreciendo una consistencia al estilo BSP.",
zh = "一种参数服务器架构,所有工作节点基于固定的全局参数版本计算梯度,服务器仅在每个工作节点都汇报之后才应用其平均更新,从而提供BSP风格的一致性。",
article = nil,
}
data["synchronous message passing"] = {
short = "A schedule for belief propagation in which all outgoing messages at every node are computed from the previous round's incoming messages and updated simultaneously, in contrast to asynchronous or sequential schedules.",
es = "Calendario para la propagación de creencias en el que todos los mensajes salientes de cada nodo se calculan a partir de los mensajes entrantes de la ronda anterior y se actualizan de manera simultánea, en contraste con los calendarios asíncronos o secuenciales.",
zh = "信念传播的一种调度方式,每个节点的所有出消息均基于上一轮的入消息计算并同时更新,与异步或顺序调度相对。",
article = nil,
}
data["syne tune"] = {
short = "An open-source Python library from AWS for distributed hyperparameter optimization and neural architecture search. It provides asynchronous schedulers (random search, BO, Hyperband, ASHA, BOHB, PBT) and a unified backend for local, SageMaker, and simulated execution.",
es = "Biblioteca de Python de código abierto desarrollada por AWS para optimización distribuida de hiperparámetros y búsqueda de arquitecturas neuronales. Proporciona planificadores asíncronos (búsqueda aleatoria, BO, Hyperband, ASHA, BOHB, PBT) y un backend unificado para ejecución local, en SageMaker o simulada.",
zh = "AWS 开源的 Python 库,用于分布式超参数优化与神经架构搜索;提供随机搜索、BO、Hyperband、ASHA、BOHB、PBT 等异步调度器,并支持本地、SageMaker 与模拟执行的统一后端。",
article = nil,
}
data["synflow"] = {
short = "Synaptic Flow. A data-free, gradient-based pruning score that measures each weight's contribution to the product of layer-wise positive norms, applied iteratively at initialization to prune dense networks while preserving signal flow.",
es = "Synaptic Flow. Puntuación de poda basada en gradientes y libre de datos que mide la contribución de cada peso al producto de las normas positivas por capa; se aplica iterativamente en la inicialización para podar redes densas preservando el flujo de señal.",
zh = "SynFlow(突触流),一种无需数据的基于梯度的剪枝评分,用于衡量每个权重对各层正范数乘积的贡献;在初始化阶段迭代应用以剪枝稠密网络,同时保持信号流。",
article = nil,
}
data["synonymous mutation"] = {
short = "A nucleotide substitution in a protein-coding region that does not change the encoded amino acid due to redundancy of the genetic code; often, but not always, phenotypically silent.",
es = "Sustitución nucleotídica en una región codificante que no cambia el aminoácido codificado debido a la redundancia del código genético; a menudo, aunque no siempre, fenotípicamente silenciosa.",
zh = "蛋白质编码区中由于遗传密码冗余而不改变所编码氨基酸的核苷酸替换;通常(但并非总是)在表型上是沉默的。",
article = nil,
}
data["syntactic probe"] = {
short = "A diagnostic classifier trained on top of frozen contextual representations to predict syntactic properties — such as part-of-speech tags or dependency labels — and so test what syntax the representations encode.",
es = "Clasificador diagnóstico entrenado sobre representaciones contextuales congeladas para predecir propiedades sintácticas —como etiquetas POS o relaciones de dependencia— y así verificar qué sintaxis codifican las representaciones.",
zh = "在冻结的上下文表示之上训练的诊断分类器,用于预测词性标注或依存关系等句法属性,以检验表示中编码了哪些句法信息。",
article = nil,
}
data["syntheseus"] = {
short = "Syntheseus is an open-source benchmarking framework from Microsoft Research that provides standardized interfaces and evaluation protocols for retrosynthesis algorithms and computer-aided synthesis planning.",
es = "Syntheseus es un marco de evaluación de código abierto de Microsoft Research que proporciona interfaces estandarizadas y protocolos de evaluación para algoritmos de retrosíntesis y planificación de síntesis asistida por computadora.",
zh = "Syntheseus 是 Microsoft Research 推出的开源基准测试框架,为逆合成算法和计算机辅助合成路线规划提供标准化接口和评估协议。",
article = nil,
}
data["synthetic accessibility score"] = {
short = "A heuristic score (typically on a 1-10 scale) that estimates how easy a molecule is to synthesize, computed from contributions of molecular fragments and complexity penalties; the standard formulation is Ertl & Schuffenhauer (2009).",
es = "Puntaje heurístico (típicamente en una escala de 1 a 10) que estima la facilidad de síntesis de una molécula, calculado a partir de contribuciones de fragmentos moleculares y penalizaciones por complejidad; la formulación estándar es la de Ertl y Schuffenhauer (2009).",
zh = "一种启发式评分(通常采用 1-10 量表),通过分子片段贡献与复杂度惩罚估计分子合成的难易程度;标准定义来自 Ertl 与 Schuffenhauer(2009)。",
article = nil,
}
data["synthetic control method"] = {
short = "A causal inference technique that estimates the effect of a treatment on a single aggregate unit by constructing a weighted combination of untreated units that best reproduces the treated unit's pre-treatment outcomes. Widely used in comparative case studies in economics and policy.",
es = "Técnica de inferencia causal que estima el efecto de un tratamiento sobre una unidad agregada construyendo una combinación ponderada de unidades no tratadas que reproduce los resultados pretratamiento de la unidad tratada. Se utiliza ampliamente en estudios comparativos de caso en economía y políticas públicas.",
zh = "一种因果推断方法,通过构造未处理单元的加权组合以再现处理单元在干预前的结果,从而估计单一聚合单元上的处理效应。广泛用于经济学和政策研究中的比较案例研究。",
article = nil,
}
data["synthetic difference-in-differences"] = {
short = "An estimator that combines synthetic control weighting with a difference-in-differences design, applying unit and time weights so that pre-treatment trends of the synthetic comparison match the treated unit. It relaxes the parallel-trends assumption of standard DiD.",
es = "Estimador que combina la ponderación del control sintético con un diseño de diferencias en diferencias, aplicando pesos de unidad y de tiempo para que las tendencias pretratamiento del comparador sintético igualen las de la unidad tratada. Relaja el supuesto de tendencias paralelas del DiD estándar.",
zh = "将合成控制加权与双重差分设计相结合的估计量,通过对单元和时间施加权重,使合成对照在干预前的趋势与处理单元一致。它放松了标准双重差分中的平行趋势假设。",
article = nil,
}
data["system cold start"] = {
short = "The launch-time problem in which a newly deployed recommender system has insufficient interaction data across all users and items, requiring content-based, popularity, or knowledge-transfer strategies before collaborative signals are reliable.",
es = "Problema en el despliegue inicial de un sistema de recomendación que carece de datos de interacción suficientes sobre usuarios e ítems, lo que obliga a usar estrategias basadas en contenido, popularidad o transferencia de conocimiento hasta que las señales colaborativas sean fiables.",
zh = "推荐系统在新部署阶段缺乏足够用户和物品交互数据的问题,需要先采用基于内容、热门度或知识迁移的策略,直到协同过滤信号变得可靠。",
article = nil,
}
data["system heterogeneity"] = {
short = "In federated learning, the variability in clients' compute, memory, energy, and network capabilities, which causes differences in training speed, achievable model size, and reliability across devices.",
es = "En aprendizaje federado, la variabilidad en las capacidades de cómputo, memoria, energía y red de los clientes, que ocasiona diferencias en la velocidad de entrenamiento, el tamaño máximo del modelo alcanzable y la fiabilidad entre dispositivos.",
zh = "在联邦学习中,各客户端在计算、内存、能耗和网络能力上的差异,会导致训练速度、可承受的模型规模以及可靠性在不同设备间存在差距。",
article = nil,
}
data["system prompt"] = {
short = "An initial instruction supplied to a chat-style language model that defines its role, persona, constraints, and high-level behavior. Distinct from user and assistant turns and typically not directly visible to end users.",
es = "Instrucción inicial que se proporciona a un modelo de lenguaje de tipo chat para definir su rol, personalidad, restricciones y comportamiento general. Se distingue de los turnos de usuario y asistente y normalmente no es visible para el usuario final.",
zh = "提供给对话式语言模型的初始指令,用于设定其角色、人格、约束和总体行为,与用户消息和助手消息不同,通常对最终用户不可见。",
article = nil,
}
data["systematic generalization"] = {
short = "The ability of a learning system to generalize compositionally to novel combinations of known primitives, such as words or operators, that were unseen during training.",
es = "Capacidad de un sistema de aprendizaje para generalizar de manera composicional a combinaciones nuevas de primitivas conocidas —como palabras u operadores— no vistas durante el entrenamiento.",
zh = "学习系统对训练中未见过的已知原语(如词或算子)的新组合进行组合式泛化的能力。",
article = nil,
}
data["t-cell epitope"] = {
short = "A short peptide derived from antigen processing that is presented on MHC molecules and recognized by the T-cell receptor, triggering an adaptive immune response.",
es = "Péptido corto derivado del procesamiento de antígenos que se presenta en moléculas de MHC y es reconocido por el receptor de células T, desencadenando una respuesta inmunitaria adaptativa.",
zh = "由抗原加工产生的短肽,呈递于 MHC 分子上并被 T 细胞受体识别,从而触发适应性免疫反应。",
article = nil,
}
data["t-conorm"] = {
short = "A binary operator on the unit interval that generalizes logical disjunction in fuzzy logic; it is commutative, associative, monotonic, and has 0 as identity, dual to a t-norm.",
es = "Operador binario sobre el intervalo unitario que generaliza la disyunción lógica en lógica difusa; es conmutativo, asociativo, monótono y tiene al 0 como identidad, dual de una t-norma.",
zh = "单位区间上的二元算子,在模糊逻辑中推广逻辑析取;它满足交换律、结合律、单调性,并以 0 为单位元,是 t-范数的对偶。",
article = nil,
}
data["t-garch"] = {
short = "A GARCH variant whose conditional volatility responds asymmetrically to positive and negative shocks via a threshold (e.g., the TGARCH or GJR-GARCH model), capturing leverage effects in financial returns.",
es = "Variante de GARCH cuya volatilidad condicional responde de forma asimétrica a choques positivos y negativos mediante un umbral (por ejemplo, los modelos TGARCH o GJR-GARCH), capturando el efecto apalancamiento en los rendimientos financieros.",
zh = "GARCH 的一种变体,其条件波动率通过阈值对正负冲击作出非对称反应(如 TGARCH 或 GJR-GARCH 模型),用于刻画金融收益中的杠杆效应。",
article = nil,
}
data["t-learner"] = {
short = "A meta-learner for heterogeneous treatment effect estimation that fits two separate outcome regressions, one on the treated and one on the control group, and takes their difference as the conditional average treatment effect. Simple but can suffer when groups differ in size or covariate support.",
es = "Metamodelo para la estimación de efectos de tratamiento heterogéneos que ajusta dos regresiones de resultado separadas, una en el grupo tratado y otra en el de control, y toma su diferencia como el efecto condicional promedio del tratamiento. Es sencillo pero puede fallar cuando los grupos difieren en tamaño o soporte de covariables.",
zh = "用于估计异质处理效应的元学习器,分别在处理组和对照组上拟合两个结果回归模型,并以二者之差作为条件平均处理效应。方法简单,但当两组样本量或协变量支撑差异较大时可能表现不佳。",
article = nil,
}
data["t-norm"] = {
short = "A binary operator on the unit interval that generalizes logical conjunction in fuzzy logic; it is commutative, associative, monotonic, and has 1 as identity.",
es = "Operador binario sobre el intervalo unitario que generaliza la conjunción lógica en lógica difusa; es conmutativo, asociativo, monótono y tiene al 1 como identidad.",
zh = "单位区间上的二元算子,在模糊逻辑中推广逻辑合取;它满足交换律、结合律、单调性,并以 1 为单位元。",
article = nil,
}
data["t-rex"] = {
short = "Trajectory-ranked Reward EXtrapolation, an inverse reinforcement-learning algorithm that infers a reward function from a set of demonstrations ranked by quality and is able to extrapolate to policies that outperform the best demonstrator.",
es = "Trajectory-ranked Reward EXtrapolation, algoritmo de aprendizaje por refuerzo inverso que infiere una función de recompensa a partir de un conjunto de demostraciones ordenadas por calidad y es capaz de extrapolar a políticas que superan al mejor demostrador.",
zh = "Trajectory-ranked Reward EXtrapolation,一种逆强化学习算法:从按质量排序的示范集合中推断奖励函数,并能外推到优于最佳示范者的策略。",
article = nil,
}
data["t2i alignment"] = {
short = "The degree to which a generated image faithfully reflects the content, attributes, counts, and relationships specified in its text prompt. Measured by automatic metrics like CLIPScore, ImageReward, or VQA-based evaluations, and by human preference studies.",
es = "Grado en que una imagen generada refleja fielmente el contenido, atributos, cantidades y relaciones especificados en el texto de entrada. Se mide con métricas automáticas como CLIPScore, ImageReward o evaluaciones basadas en VQA, así como mediante estudios de preferencia humana.",
zh = "生成图像在内容、属性、数量和关系上对文本提示的忠实程度。常通过 CLIPScore、ImageReward 或基于 VQA 的自动指标,以及人类偏好研究来衡量。",
article = nil,
}
data["t2i-adapter"] = {
short = "A lightweight conditioning module for text-to-image diffusion models that injects external control signals such as sketches, depth maps, or segmentation into a frozen base model with a small trainable adapter.",
es = "Módulo ligero de condicionamiento para modelos de difusión texto-a-imagen que introduce señales de control externas como bocetos, mapas de profundidad o segmentación en un modelo base congelado mediante un pequeño adaptador entrenable.",
zh = "面向文本到图像扩散模型的轻量级条件控制模块,通过一个小型可训练适配器,将草图、深度图或分割图等外部控制信号注入冻结的基础模型。",
article = nil,
}
data["t2i-compbench"] = {
short = "A benchmark for compositional text-to-image generation that evaluates how well models render attribute binding, object relationships, and complex compositions through specialized prompts and automatic VQA-based metrics.",
es = "Punto de referencia para generación composicional de imágenes a partir de texto que evalúa cómo los modelos representan la asociación de atributos, las relaciones entre objetos y composiciones complejas mediante instrucciones especializadas y métricas automáticas basadas en VQA.",
zh = "一种用于组合式文本到图像生成的基准,使用专门设计的提示和基于 VQA 的自动指标,评估模型在属性绑定、对象关系和复杂构图上的表现。",
article = nil,
}
data["t5"] = {
short = "An encoder-decoder transformer that frames every NLP task as text-to-text, pretrained with a span-corruption objective on the C4 corpus and fine-tuned uniformly across diverse benchmarks.",
es = "Transformer codificador-decodificador que plantea toda tarea de PLN como texto a texto, preentrenado con un objetivo de corrupción de tramos sobre el corpus C4 y ajustado uniformemente en diversos benchmarks.",
zh = "一种编码器-解码器 Transformer,将所有自然语言处理任务统一为文本到文本,在 C4 语料上以片段损坏目标预训练,并在多种基准上以一致方式微调。",
article = nil,
}
data["t5 relative position"] = {
short = "The relative position bias used in T5, which adds a learned scalar to each attention score keyed by a bucketed log-scaled distance between query and key, shared across layers within a head.",
es = "Sesgo de posición relativa empleado en T5, que añade a cada puntuación de atención un escalar aprendido indexado por una distancia entre consulta y clave en escala logarítmica con cubetas, compartido entre capas dentro de una misma cabeza.",
zh = "T5 中使用的相对位置偏置,将基于查询与键之间分桶对数距离索引的可学习标量加到每个注意力分数上,并在同一注意力头的各层间共享。",
article = nil,
}
data["table setting task"] = {
short = "A long-horizon manipulation benchmark in which a robot must place plates, cutlery, glasses, and napkins in canonical positions on a table, exercising sequential pick-and-place, semantic grouping, and spatial layout reasoning.",
es = "Benchmark de manipulación de horizonte largo en el que un robot debe colocar platos, cubiertos, vasos y servilletas en posiciones canónicas sobre una mesa, ejercitando pick-and-place secuencial, agrupación semántica y razonamiento sobre disposición espacial.",
zh = "一种长时序操作基准,机器人需要将盘子、餐具、玻璃杯和餐巾按规范位置摆放在桌上,需要顺序拾取放置、语义分组以及空间布局推理能力。",
article = nil,
}
data["tableau algorithm"] = {
short = "A decision procedure for description and modal logics that incrementally builds a tree of completion rules to test concept satisfiability or formula validity.",
es = "Procedimiento de decisión para lógicas descriptivas y modales que construye incrementalmente un árbol de reglas de completitud para comprobar la satisfacibilidad de un concepto o la validez de una fórmula.",
zh = "用于描述逻辑和模态逻辑的判定过程,通过逐步构建带完备规则的树来检验概念可满足性或公式有效性。",
article = nil,
}
data["tabletop manipulation"] = {
short = "The most common robot manipulation setting, in which a fixed-base arm interacts with rigid objects on a flat surface within reach; standard for benchmarks like RLBench, Meta-World, and CALVIN because perception and reset are tractable.",
es = "Entorno más común de manipulación robótica, en el que un brazo de base fija interactúa con objetos rígidos sobre una superficie plana al alcance; estándar en benchmarks como RLBench, Meta-World y CALVIN porque la percepción y el reinicio son manejables.",
zh = "最常见的机器人操作设定,固定底座的机械臂与桌面上可达范围内的刚性物体进行交互;由于感知与复位较为可控,被 RLBench、Meta-World 和 CALVIN 等基准广泛采用。",
article = nil,
}
data["tabu search structure"] = {
short = "A local-search procedure for graphical model structure learning that explores neighboring DAG or undirected structures while maintaining a tabu list of recent moves to escape local optima.",
es = "Procedimiento de búsqueda local para el aprendizaje de la estructura de modelos gráficos que explora estructuras DAG o no dirigidas vecinas, manteniendo una lista tabú de movimientos recientes para escapar de óptimos locales.",
zh = "用于图模型结构学习的局部搜索方法,在 DAG 或无向结构的邻域中搜索,并维护近期操作的禁忌表以跳出局部最优。",
article = nil,
}
data["tabular attribution"] = {
short = "Feature attribution applied to models trained on tabular data, where each feature is a column with explicit semantics and attributions are reported per column rather than per pixel or token.",
es = "Atribución de características aplicada a modelos entrenados con datos tabulares, donde cada característica es una columna con semántica explícita y las atribuciones se reportan por columna en lugar de por píxel o token.",
zh = "针对在表格数据上训练的模型进行的特征归因,其中每个特征对应一列具有明确语义的数据,归因结果按列报告,而非按像素或词元。",
article = nil,
}
data["tabular lime"] = {
short = "An application of LIME to tabular models in which features are perturbed by sampling around a discretized representation of the row and a sparse linear surrogate is fit to explain the prediction locally.",
es = "Aplicación de LIME a modelos tabulares en la que las características se perturban muestreando alrededor de una representación discretizada de la fila y se ajusta un subrogado lineal disperso para explicar la predicción localmente.",
zh = "将 LIME 应用于表格模型:在该行的离散化表示附近对特征进行扰动采样,并拟合稀疏线性替代模型以局部解释预测。",
article = nil,
}
data["tabular shap"] = {
short = "An application of SHAP to tabular models, typically using TreeSHAP for tree ensembles or KernelSHAP for arbitrary models, producing per-column Shapley-value attributions for each prediction.",
es = "Aplicación de SHAP a modelos tabulares, típicamente usando TreeSHAP para ensambles de árboles o KernelSHAP para modelos arbitrarios, produciendo atribuciones por columna basadas en valores de Shapley para cada predicción.",
zh = "将 SHAP 应用于表格模型:通常对树集成使用 TreeSHAP,对任意模型使用 KernelSHAP,为每个预测给出基于 Shapley 值的逐列归因。",
article = nil,
}
data["tacotron"] = {
short = "An end-to-end neural text-to-speech model from Google that maps character sequences to mel spectrograms via an encoder–attention–decoder architecture, paired with a Griffin-Lim or neural vocoder for waveform synthesis.",
es = "Modelo neuronal de texto a voz de extremo a extremo de Google que mapea secuencias de caracteres a espectrogramas mel mediante una arquitectura codificador-atención-decodificador, combinado con un vocoder Griffin-Lim o neuronal para sintetizar la forma de onda.",
zh = "Google 提出的端到端神经文本转语音模型,通过编码器-注意力-解码器结构将字符序列映射为梅尔频谱图,并配合 Griffin-Lim 或神经声码器合成波形。",
article = nil,
}
data["tacotron 2"] = {
short = "A successor to Tacotron that combines a recurrent sequence-to-sequence mel-spectrogram predictor with a WaveNet vocoder, producing near-human-quality speech from text.",
es = "Sucesor de Tacotron que combina un predictor de espectrogramas mel secuencia a secuencia recurrente con un vocoder WaveNet, produciendo habla de calidad cercana a la humana a partir de texto.",
zh = "Tacotron 的后继模型,将循环序列到序列的梅尔频谱预测器与 WaveNet 声码器相结合,从文本生成接近人类水平的语音。",
article = nil,
}
data["tactic prediction"] = {
short = "The task in machine-learning–assisted theorem proving of predicting the next proof tactic to apply given the current proof state in an interactive proof assistant.",
es = "Tarea en la demostración automática asistida por aprendizaje automático que consiste en predecir la siguiente táctica de demostración a aplicar dado el estado actual en un asistente de pruebas interactivo.",
zh = "机器学习辅助定理证明中的任务:在交互式证明助手中,根据当前证明状态预测下一步要应用的证明策略(tactic)。",
article = nil,
}
data["tactician proof"] = {
short = "A proof produced or guided by Tactician, a machine-learning–based tactic-prediction system for the Coq proof assistant that suggests the next tactic from a corpus of human proofs.",
es = "Demostración producida o guiada por Tactician, un sistema basado en aprendizaje automático para la predicción de tácticas en el asistente de pruebas Coq que sugiere la siguiente táctica a partir de un corpus de demostraciones humanas.",
zh = "由 Tactician 生成或辅助的证明;Tactician 是一种基于机器学习的 Coq 证明助手策略预测系统,能从人类证明语料中建议下一步策略。",
article = nil,
}
data["tactile diffusion policy"] = {
short = "A diffusion-based behavior cloning policy whose observation stack includes high-dimensional tactile signals (e.g., GelSight or DIGIT images) alongside RGB and proprioception, enabling contact-rich manipulation with multi-step action denoising.",
es = "Política de clonación de comportamiento basada en difusión cuya pila de observaciones incluye señales táctiles de alta dimensión (por ejemplo, imágenes de GelSight o DIGIT) junto con RGB y propiocepción, lo que permite manipulación con contacto rico mediante el denoising de acciones en varios pasos.",
zh = "一种基于扩散的行为克隆策略,其观测堆栈在 RGB 和本体感知之外还包含高维触觉信号(如 GelSight 或 DIGIT 图像),通过多步动作去噪实现富接触操作。",
article = nil,
}
data["tactile policy learning"] = {
short = "Learning closed-loop control policies that consume tactile sensor inputs — vision-based fingertip sensors, taxel arrays, or force/torque signals — to perform manipulation skills that depend critically on contact feedback.",
es = "Aprendizaje de políticas de control en lazo cerrado que consumen entradas de sensores táctiles —sensores de yema basados en visión, matrices de taxeles o señales de fuerza/par— para ejecutar habilidades de manipulación que dependen de la retroalimentación de contacto.",
zh = "学习闭环控制策略,使其利用触觉传感器输入(基于视觉的指尖传感器、触觉单元阵列或力/力矩信号)来完成强烈依赖接触反馈的操作技能。",
article = nil,
}
data["tactile representation learning"] = {
short = "Self-supervised or contrastive pretraining of encoders for tactile sensor signals such that downstream manipulation, slip detection, or material-classification tasks need only small labelled datasets to fine-tune.",
es = "Preentrenamiento autosupervisado o contrastivo de codificadores para señales de sensores táctiles, de modo que las tareas posteriores de manipulación, detección de deslizamiento o clasificación de materiales requieran solo conjuntos de datos etiquetados pequeños para el ajuste fino.",
zh = "对触觉传感器信号的编码器进行自监督或对比预训练,使下游的操作、滑动检测或材料分类任务仅需少量带标签数据即可微调。",
article = nil,
}
data["tactile sensing"] = {
short = "Robotic perception of contact, force, slip, and surface microgeometry through dedicated sensors at the fingertip or skin, including vision-based gels (GelSight, DIGIT), taxel arrays, capacitive skins, and force/torque sensors.",
es = "Percepción robótica del contacto, la fuerza, el deslizamiento y la microgeometría superficial mediante sensores dedicados en la yema o en la piel del robot, incluidos geles basados en visión (GelSight, DIGIT), matrices de taxeles, pieles capacitivas y sensores de fuerza/par.",
zh = "机器人通过指尖或皮肤上的专用传感器对接触、力、滑动和表面微几何进行感知的能力,常见传感器包括基于视觉的凝胶(GelSight、DIGIT)、触觉单元阵列、电容式电子皮肤以及力/力矩传感器。",
article = nil,
}
data["tactile slam"] = {
short = "Simultaneous localization and mapping in which contact measurements from tactile sensors, sometimes fused with vision or proprioception, are used to recover object shape and end-effector pose during in-hand exploration.",
es = "Localización y mapeo simultáneos en los que se utilizan mediciones de contacto procedentes de sensores táctiles, a veces fusionadas con visión o propiocepción, para recuperar la forma del objeto y la pose del efector final durante la exploración en mano.",
zh = "一种同步定位与建图方法,利用触觉传感器获得的接触测量(有时与视觉或本体感知融合)在手内探索过程中恢复物体形状和末端执行器位姿。",
article = nil,
}
data["tad calling"] = {
short = "Computational identification of topologically associating domains — contiguous chromosomal regions of preferential intra-domain contact — from Hi-C or similar 3D genome contact data.",
es = "Identificación computacional de dominios topológicamente asociados —regiones cromosómicas contiguas con contactos intradominio preferenciales— a partir de datos Hi-C o de contacto genómico 3D similares.",
zh = "从 Hi-C 或类似三维基因组接触数据中以计算方法识别拓扑关联结构域,即倾向于内部接触的连续染色体区域。",
article = nil,
}
data["tagme"] = {
short = "An entity-linking system that annotates short, fragmentary texts with relevant Wikipedia entities by jointly disambiguating mentions through collective coherence scoring.",
es = "Sistema de enlazado de entidades que anota textos cortos y fragmentarios con entidades relevantes de Wikipedia, desambiguando las menciones de forma conjunta mediante una puntuación de coherencia colectiva.",
zh = "一种实体链接系统,通过基于集体一致性评分联合消歧提及,将短小、零散的文本标注为相关的维基百科实体。",
article = nil,
}
data["takens' theorem"] = {
short = "An embedding theorem stating that, under generic conditions, the attractor of a deterministic dynamical system can be reconstructed from a single observed time series via delay-coordinate embeddings of sufficient dimension.",
es = "Teorema de embebido que afirma que, bajo condiciones genéricas, el atractor de un sistema dinámico determinista puede reconstruirse a partir de una única serie temporal observada mediante incrustaciones de coordenadas con retardo de dimensión suficiente.",
zh = "一种嵌入定理:在一般条件下,确定性动力系统的吸引子可通过对单一观测时间序列进行足够维数的延迟坐标嵌入加以重构。",
article = nil,
}
data["tallrec"] = {
short = "TALLRec (Bao et al., 2023) is a lightweight instruction-tuning framework that adapts large language models for recommendation by fine-tuning with LoRA on user history sequences and binary like/dislike prompts.",
es = "TALLRec (Bao et al., 2023) es un marco ligero de ajuste por instrucciones que adapta modelos de lenguaje grandes para recomendación, mediante fine-tuning con LoRA sobre secuencias de historial del usuario y prompts binarios de gusto/disgusto.",
zh = "TALLRec(Bao 等,2023)是一种轻量级指令微调框架,通过在用户历史序列与二元喜欢/不喜欢提示上使用 LoRA 微调,将大型语言模型适配为推荐系统。",
article = nil,
}
data["talos"] = {
short = "An open-source Python library for hyperparameter scanning, optimization, and model evaluation focused on Keras and TensorFlow. It supports grid, random, and probabilistic search over user-defined parameter dictionaries.",
es = "Biblioteca de Python de código abierto para barrido, optimización y evaluación de hiperparámetros centrada en Keras y TensorFlow. Admite búsqueda en cuadrícula, aleatoria y probabilística sobre diccionarios de parámetros definidos por el usuario.",
zh = "面向 Keras 与 TensorFlow 的开源 Python 库,用于超参数扫描、优化与模型评估,支持基于用户定义参数字典的网格搜索、随机搜索和概率搜索。",
article = nil,
}
data["tamp"] = {
short = "Task and Motion Planning, the joint discrete-continuous problem of selecting a sequence of symbolic actions and parameterizing each with feasible continuous motions, central to long-horizon manipulation and mobile manipulation.",
es = "Planificación de tareas y movimiento (TAMP), el problema conjunto discreto-continuo de seleccionar una secuencia de acciones simbólicas y parametrizar cada una con movimientos continuos factibles; central para la manipulación de horizonte largo y la manipulación móvil.",
zh = "任务与运动规划(TAMP),联合求解离散-连续两类规划问题:既要选择一序列符号动作,又要为每个动作给出可行的连续运动参数,是长时序操作和移动操作的核心问题。",
article = nil,
}
data["tandem ms"] = {
short = "Tandem mass spectrometry: a technique combining two or more stages of mass analysis with fragmentation between them, used in proteomics to identify and sequence peptides from their fragment ion spectra.",
es = "Espectrometría de masas en tándem: técnica que combina dos o más etapas de análisis de masa con fragmentación intermedia, utilizada en proteómica para identificar y secuenciar péptidos a partir de sus espectros de iones fragmento.",
zh = "串联质谱:在两次或多次质量分析之间引入碎裂步骤的技术,在蛋白质组学中用于通过碎片离子谱图鉴定和测序肽段。",
article = nil,
}
data["tangent bundle"] = {
short = "For a smooth manifold M, the disjoint union of all tangent spaces T_pM equipped with its natural smooth manifold structure of dimension 2 dim M; central object in differential geometry.",
es = "Para una variedad diferenciable M, la unión disjunta de todos los espacios tangentes T_pM dotada de su estructura natural de variedad diferenciable de dimensión 2 dim M; objeto central de la geometría diferencial.",
zh = "对光滑流形M,所有切空间T_pM的不相交并集,并赋予其自然的光滑流形结构(维数为2 dim M);是微分几何的核心对象之一。",
article = nil,
}
data["tangent space"] = {
short = "The vector space T_pM of all tangent vectors to a smooth manifold M at a point p; locally approximates M and serves as the domain of differentials of smooth maps.",
es = "Espacio vectorial T_pM de todos los vectores tangentes a una variedad diferenciable M en un punto p; aproxima M localmente y sirve como dominio de las diferenciales de las aplicaciones diferenciables.",
zh = "光滑流形M在点p处所有切向量构成的向量空间T_pM;它在局部上逼近M,并作为光滑映射微分的定义域。",
article = nil,
}
data["tangram"] = {
short = "A deep-learning method that maps single-cell RNA-seq data onto spatial transcriptomics measurements by learning a probabilistic alignment between cells and spatial locations.",
es = "Método de aprendizaje profundo que asigna datos de RNA-seq unicelular a mediciones de transcriptómica espacial aprendiendo un alineamiento probabilístico entre células y ubicaciones espaciales.",
zh = "一种深度学习方法,通过学习细胞与空间位置之间的概率对齐,将单细胞 RNA-seq 数据映射到空间转录组测量上。",
article = nil,
}
data["tanh"] = {
short = "Hyperbolic tangent activation tanh(x) = (e^x − e^(−x)) / (e^x + e^(−x)) mapping real values into (−1, 1). Zero-centered alternative to the sigmoid.",
es = "Activación tangente hiperbólica tanh(x) = (e^x − e^(−x)) / (e^x + e^(−x)) que mapea los reales al intervalo (−1, 1). Alternativa centrada en cero a la sigmoide.",
zh = "双曲正切激活函数 tanh(x) = (e^x − e^(−x)) / (e^x + e^(−x)),将实数映射到 (−1, 1)。是关于零对称的 Sigmoid 替代。",
article = nil,
}
data["tanh gaussian policy"] = {
short = "A continuous-control stochastic policy that draws actions from a diagonal Gaussian and applies an elementwise tanh to bound them within a finite range, with a Jacobian correction for the squashing in the log-probability; widely used in Soft Actor-Critic.",
es = "Política estocástica para control continuo que muestrea acciones de una gaussiana diagonal y les aplica una tanh elemento a elemento para acotarlas en un rango finito, con una corrección jacobiana del aplastamiento en la log-probabilidad; muy usada en Soft Actor-Critic.",
zh = "一种连续控制随机策略:从对角高斯分布采样动作,并按元素施加 tanh 以将其压缩到有界范围,对数概率中加入对应的雅可比修正;在 Soft Actor-Critic 中广泛使用。",
article = nil,
}
data["tanimoto similarity"] = {
short = "A similarity coefficient widely used in cheminformatics, equivalent to the Jaccard index for binary fingerprints, defined as the size of the intersection divided by the size of the union of two molecular fingerprint bit sets.",
es = "Coeficiente de similitud ampliamente utilizado en quimioinformática, equivalente al índice de Jaccard para huellas binarias, definido como el tamaño de la intersección dividido por el tamaño de la unión de dos conjuntos de bits de huella molecular.",
zh = "化学信息学中广泛使用的相似度系数,对二元指纹等价于 Jaccard 指数,定义为两组分子指纹位的交集大小除以并集大小。",
article = nil,
}
data["tankbind"] = {
short = "TankBind is a deep-learning model that jointly predicts protein-ligand binding poses and affinities by enumerating candidate binding pockets and learning trigonometry-aware distance maps between protein and ligand atoms.",
es = "TankBind es un modelo de aprendizaje profundo que predice conjuntamente poses y afinidades de unión proteína-ligando enumerando bolsillos de unión candidatos y aprendiendo mapas de distancia conscientes de la trigonometría entre átomos de la proteína y del ligando.",
zh = "TankBind 是一种深度学习模型,通过枚举候选结合口袋并学习蛋白质与配体原子间的三角约束距离图,联合预测蛋白质-配体的结合构象和结合亲和力。",
article = nil,
}
data["target identification"] = {
short = "The early-stage drug-discovery process of identifying a biological molecule, typically a protein, whose modulation is hypothesized to produce a therapeutic effect for a given disease.",
es = "Proceso de las primeras etapas del descubrimiento de fármacos consistente en identificar una molécula biológica, normalmente una proteína, cuya modulación se hipotetiza que producirá un efecto terapéutico para una enfermedad determinada.",
zh = "药物发现早期阶段的过程,旨在识别一种生物分子(通常是蛋白质),假设其调控将对特定疾病产生治疗效果。",
article = nil,
}
data["target network"] = {
short = "A periodically- or slowly-updated copy of a value or Q-network used in deep reinforcement learning (e.g. DQN, DDPG) to provide stable bootstrap targets and prevent divergence under function approximation.",
es = "Copia actualizada de forma periódica o lenta de una red de valores o de Q usada en aprendizaje por refuerzo profundo (DQN, DDPG, etc.) para proporcionar objetivos de bootstrap estables y evitar la divergencia con aproximación de funciones.",
zh = "深度强化学习(如 DQN、DDPG)中对价值网络或 Q 网络周期性或缓慢更新的副本,用于提供稳定的自举目标,防止在函数逼近下发散。",
article = nil,
}
data["target network update rate"] = {
short = "The hyperparameter that controls how quickly a target network tracks the online network, typically the Polyak coefficient τ in soft updates (θ' ← τ θ + (1 − τ) θ') or the period in steps between hard copies.",
es = "Hiperparámetro que controla la rapidez con la que la red objetivo sigue a la red en línea, típicamente el coeficiente de Polyak τ en actualizaciones suaves (θ' ← τ θ + (1 − τ) θ') o el periodo en pasos entre copias duras.",
zh = "控制目标网络跟踪在线网络速度的超参数,通常是软更新中的 Polyak 系数 τ(θ' ← τ θ + (1 − τ) θ'),或硬更新两次之间的步数间隔。",
article = nil,
}
data["target policy"] = {
short = "In off-policy reinforcement learning, the policy whose value function is being evaluated or improved, distinct from the behavior policy that actually generates the trajectories used for learning.",
es = "En aprendizaje por refuerzo fuera de política, la política cuya función de valor se está evaluando o mejorando, distinta de la política de comportamiento que genera realmente las trayectorias usadas para aprender.",
zh = "在离策略强化学习中正在被评估或改进的策略,与实际生成训练轨迹的行为策略相区别。",
article = nil,
}
data["target policy smoothing"] = {
short = "A regularization technique introduced in TD3 that adds clipped Gaussian noise to the next-state action chosen by the target policy when computing the TD target, smoothing the value estimate and mitigating critic overestimation along sharp peaks.",
es = "Técnica de regularización introducida en TD3 que añade ruido gaussiano recortado a la acción del estado siguiente elegida por la política objetivo al calcular el objetivo TD, suavizando la estimación de valor y mitigando la sobreestimación del crítico en picos agudos.",
zh = "TD3 中引入的一种正则化方法:在计算 TD 目标时,对目标策略选出的下一状态动作加入截断的高斯噪声,从而平滑价值估计、抑制critic 在尖锐极值处的过估计。",
article = nil,
}
data["target prediction mirna"] = {
short = "Computational prediction of messenger RNAs regulated by a microRNA, typically based on seed-region complementarity, evolutionary conservation, thermodynamic stability, and site accessibility.",
es = "Predicción computacional de los ARN mensajeros regulados por un microARN, generalmente basada en la complementariedad de la región semilla, la conservación evolutiva, la estabilidad termodinámica y la accesibilidad del sitio.",
zh = "对受某种 microRNA 调控的信使 RNA 进行计算预测,通常基于种子区互补性、进化保守性、热力学稳定性和位点可及性。",
article = nil,
}
data["target speaker extraction"] = {
short = "The task of isolating the speech of a specific enrolled speaker from a mixture containing other talkers and noise, typically conditioned on a reference utterance or speaker embedding.",
es = "Tarea de aislar el habla de un locutor específico previamente registrado dentro de una mezcla que contiene otros hablantes y ruido, típicamente condicionada a una elocución de referencia o un embedding de locutor.",
zh = "从包含其他说话人和噪声的混合音频中分离出特定已注册说话人语音的任务,通常以参考语音或说话人嵌入为条件。",
article = nil,
}
data["target speaker voice activity detection"] = {
short = "A variant of voice activity detection that determines, frame by frame, when a specific enrolled target speaker is speaking in a multi-talker recording, conditioned on a speaker embedding.",
es = "Variante de detección de actividad de voz que determina, fotograma a fotograma, cuándo habla un locutor objetivo específico previamente registrado en una grabación con múltiples interlocutores, condicionada a un embedding de locutor.",
zh = "语音活动检测的一种变体,基于说话人嵌入,在多说话人录音中逐帧判断特定已注册目标说话人何时在说话。",
article = nil,
}
data["target validation"] = {
short = "The drug-discovery step of demonstrating that pharmacological or genetic modulation of a putative target produces the desired therapeutic effect in disease-relevant systems, providing evidence to commit to a target.",
es = "Etapa del descubrimiento de fármacos en la que se demuestra que la modulación farmacológica o genética de una diana putativa produce el efecto terapéutico deseado en sistemas relevantes para la enfermedad, aportando evidencia para comprometerse con esa diana.",
zh = "药物发现中的一个步骤,用于在与疾病相关的体系中证明药物或基因水平调控某一候选靶点可产生预期的治疗效果,从而为投入该靶点提供证据。",
article = nil,
}
data["targetdiff"] = {
short = "TargetDiff is a target-aware diffusion generative model for 3D structure-based drug design that jointly generates ligand atom types and coordinates conditioned on a protein binding pocket.",
es = "TargetDiff es un modelo generativo de difusión consciente de la diana para diseño de fármacos basado en estructura 3D, que genera de forma conjunta los tipos atómicos y las coordenadas del ligando condicionados al bolsillo de unión de la proteína.",
zh = "TargetDiff 是一种面向靶点的扩散生成模型,用于基于三维结构的药物设计,在蛋白质结合口袋的条件下联合生成配体的原子类型和坐标。",
article = nil,
}
data["targeted backdoor attack"] = {
short = "A model-poisoning attack in which an adversary crafts updates so that the trained model behaves normally on clean inputs but produces an attacker-chosen output whenever a specific trigger pattern is present.",
es = "Ataque de envenenamiento del modelo en el que un adversario diseña actualizaciones para que el modelo entrenado se comporte normalmente con entradas limpias pero produzca una salida elegida por el atacante siempre que aparezca un patrón disparador específico.",
zh = "一种模型投毒攻击,攻击者精心构造更新,使训练后的模型对干净输入表现正常,但只要出现特定触发模式就输出攻击者指定的结果。",
article = nil,
}
data["targeted maximum likelihood estimation"] = {
short = "A doubly robust, semiparametric estimation framework that updates an initial outcome model with a fluctuation step driven by the propensity score, yielding asymptotically efficient estimators of causal parameters. Used for average treatment effects, mediation, and longitudinal targets.",
es = "Marco de estimación semiparamétrico y doblemente robusto que actualiza un modelo de resultado inicial mediante un paso de fluctuación impulsado por el score de propensión, produciendo estimadores asintóticamente eficientes de parámetros causales. Se usa para efectos promedio del tratamiento, mediación y objetivos longitudinales.",
zh = "一种双重稳健的半参数估计框架,通过由倾向得分驱动的扰动步骤对初始结果模型进行更新,得到因果参数的渐近有效估计量。适用于平均处理效应、中介效应和纵向目标。",
article = nil,
}
data["tarnet"] = {
short = "A neural network architecture for treatment effect estimation that uses a shared representation followed by two outcome-specific heads, one for the treated and one for the control potential outcome. Introduced by Shalit et al. as part of representation-learning approaches to counterfactual inference.",
es = "Arquitectura de red neuronal para la estimación de efectos de tratamiento que utiliza una representación compartida seguida de dos cabezas específicas por resultado, una para el resultado potencial tratado y otra para el de control. Fue introducida por Shalit et al. dentro de los enfoques de aprendizaje de representaciones para inferencia contrafáctica.",
zh = "用于处理效应估计的神经网络架构,先学习共享表示,再分别接两个针对处理结果和对照结果的输出头。由 Shalit 等人作为反事实推断中表示学习方法的一部分提出。",
article = nil,
}
data["task and motion planning"] = {
short = "A planning paradigm that integrates symbolic task planning over discrete actions with continuous motion planning over robot configurations, jointly solving for an action sequence and feasible motions that satisfy geometric and kinematic constraints.",
es = "Paradigma de planificación que integra la planificación simbólica de tareas sobre acciones discretas con la planificación de movimiento continua sobre las configuraciones del robot, resolviendo conjuntamente la secuencia de acciones y los movimientos factibles que satisfacen las restricciones geométricas y cinemáticas.",
zh = "一种规划范式,将基于离散动作的符号任务规划与基于连续机器人构型的运动规划整合在一起,联合求解动作序列以及满足几何与运动学约束的可行运动。",
article = nil,
}
data["task distribution"] = {
short = "In meta-learning, the probability distribution from which individual tasks are drawn during meta-training and meta-testing. The meta-learner aims to perform well on new tasks sampled from this distribution.",
es = "En metaaprendizaje, la distribución de probabilidad de la cual se extraen las tareas individuales durante el meta-entrenamiento y la meta-evaluación. El meta-aprendiz busca obtener buen desempeño en tareas nuevas muestreadas de esta distribución.",
zh = "元学习中用于在元训练和元测试阶段抽取单个任务的概率分布;元学习器的目标是在从该分布抽样的新任务上取得良好表现。",
article = nil,
}
data["task encoder"] = {
short = "A neural network in meta-RL or multi-task RL that maps task descriptions, demonstrations, or recent trajectories to a latent representation used to condition the policy or value function on the current task.",
es = "Red neuronal usada en meta-RL o aprendizaje por refuerzo multitarea que mapea descripciones de tareas, demostraciones o trayectorias recientes a una representación latente con la que se condiciona la política o la función de valor a la tarea actual.",
zh = "元强化学习或多任务强化学习中的神经网络,将任务描述、示范或近期轨迹映射为潜在表示,用以将策略或价值函数条件化到当前任务上。",
article = nil,
}
data["task gating"] = {
short = "A multi-task learning mechanism in which a learned gate network produces per-task soft weights over a set of shared expert subnetworks (as in MMoE or PLE), allowing each task to selectively combine shared and task-specific representations.",
es = "Mecanismo de aprendizaje multitarea en el que una red de compuertas aprendida genera pesos suaves por tarea sobre un conjunto de subredes expertas compartidas (como en MMoE o PLE), permitiendo que cada tarea combine selectivamente representaciones compartidas y específicas.",
zh = "一种多任务学习机制,通过学习得到的门控网络为每个任务在共享专家子网络集合(如 MMoE、PLE)上生成软权重,使每个任务有选择地组合共享表示与任务特定表示。",
article = nil,
}
data["task sampling"] = {
short = "The procedure of drawing tasks from a task distribution to construct meta-training or meta-evaluation episodes. Sampling strategies (uniform, curriculum, hard-task mining) influence which capabilities the meta-learner acquires.",
es = "Procedimiento de extracción de tareas desde una distribución de tareas para construir episodios de meta-entrenamiento o meta-evaluación. Las estrategias de muestreo (uniforme, por currículum, minería de tareas difíciles) influyen en las capacidades que adquiere el meta-aprendiz.",
zh = "从任务分布中抽取任务以构造元训练或元评估 episode 的过程;不同的采样策略(均匀采样、课程采样、难任务挖掘等)会影响元学习器最终获得的能力。",
article = nil,
}
data["task tower"] = {
short = "In multi-task recommender architectures, a small task-specific subnetwork (tower) stacked on top of a shared bottom representation that produces predictions for one objective such as click, conversion, or watch time.",
es = "En arquitecturas de recomendación multitarea, una pequeña subred específica por tarea (torre) colocada sobre una representación compartida inferior, que produce predicciones para un objetivo como clic, conversión o tiempo de visualización.",
zh = "在多任务推荐架构中,堆叠在共享底层表示之上的任务特定小型子网络(塔),用于为某一目标(如点击、转化或观看时长)生成预测。",
article = nil,
}
data["task vector"] = {
short = "A direction in parameter space defined as the difference between a model's fine-tuned and pretrained weights for a specific task, supporting compositional task arithmetic such as adding, negating, or analogizing tasks (Ilharco et al., 2023).",
es = "Dirección en el espacio de parámetros definida como la diferencia entre los pesos afinados y los pesos preentrenados de un modelo para una tarea específica, que permite aritmética composicional de tareas como suma, negación o analogía.",
zh = "参数空间中的一个方向,定义为模型在某特定任务上微调后权重与预训练权重之差;支持任务算术,包括任务加法、取反与类比(Ilharco 等,2023)。",
article = nil,
}
data["task-conditioned policy"] = {
short = "A neural policy whose action distribution is conditioned on a task descriptor — language instruction, goal image, one-hot index, or learned task embedding — enabling a single network to execute many skills.",
es = "Política neuronal cuya distribución de acciones está condicionada por un descriptor de tarea —instrucción en lenguaje, imagen objetivo, índice one-hot o embedding de tarea aprendido—, lo que permite que una sola red ejecute muchas habilidades.",
zh = "一种神经策略,其动作分布以任务描述(语言指令、目标图像、one-hot 索引或学习得到的任务嵌入)为条件,使得单一网络能够执行多种技能。",
article = nil,
}
data["task-oriented grasping"] = {
short = "Grasp synthesis in which the chosen grasp must be compatible with a downstream task — handing over a knife by its handle, holding a mug by its body for pouring — so the optimization combines stability with task-specific affordance constraints.",
es = "Síntesis de agarre en la que el agarre elegido debe ser compatible con una tarea posterior —entregar un cuchillo por el mango, sostener una taza por el cuerpo para verter—, de modo que la optimización combina la estabilidad con restricciones de affordance específicas de la tarea.",
zh = "一种抓取生成方法,要求所选抓取与下游任务兼容——例如递刀时握住刀柄、倒水时握住马克杯杯身——因此优化目标在抓取稳定性之外还需结合特定任务的可供性约束。",
article = nil,
}
data["tautomer"] = {
short = "Constitutional isomers of a molecule that interconvert by the migration of a hydrogen atom (typically as a proton) accompanied by a shift of bonds, the most common example being keto-enol tautomerism.",
es = "Isómeros constitucionales de una molécula que se interconvierten mediante la migración de un átomo de hidrógeno (generalmente como protón) acompañada de un desplazamiento de enlaces; el ejemplo más común es la tautomería ceto-enólica.",
zh = "通过氢原子(通常以质子形式)迁移并伴随键的重排而相互转化的构造异构体,最常见的例子是酮-烯醇互变异构。",
article = nil,
}
data["tautomer enumeration"] = {
short = "The process of generating all chemically reasonable tautomeric forms of a molecule, used to standardize representations and improve matching in cheminformatics workflows.",
es = "Proceso de generación de todas las formas tautoméricas químicamente razonables de una molécula, utilizado para estandarizar representaciones y mejorar el emparejamiento en flujos de trabajo de quimioinformática.",
zh = "枚举分子所有化学合理的互变异构体形式的过程,用于标准化表示并改进化学信息学工作流中的匹配。",
article = nil,
}
data["taylor expansion"] = {
short = "The expansion of a sufficiently smooth function around a point as a (possibly truncated) sum of derivatives times powers of the deviation; basis of local approximation in analysis and numerical methods.",
es = "Desarrollo de una función suficientemente suave en torno a un punto como suma (posiblemente truncada) de derivadas multiplicadas por potencias de la desviación; base de la aproximación local en análisis y en métodos numéricos.",
zh = "将充分光滑的函数在某一点附近展开为各阶导数与偏移量幂次乘积的(可能被截断的)求和;是分析和数值方法中局部逼近的基础。",
article = nil,
}
data["taylor series"] = {
short = "The infinite power series Σ f^{(n)}(a)/n! · (x−a)^n representing a smooth function f around a point a; converges to f within its radius of convergence for analytic functions.",
es = "Serie de potencias infinita Σ f^{(n)}(a)/n! · (x−a)^n que representa una función suave f en torno a un punto a; en funciones analíticas converge a f dentro de su radio de convergencia.",
zh = "形如Σ f^{(n)}(a)/n! · (x−a)^n的无穷幂级数,用以在点a附近表示光滑函数f;对于解析函数,该级数在其收敛半径内收敛到f。",
article = nil,
}
data["taylor theorem"] = {
short = "A theorem giving a polynomial approximation of a sufficiently differentiable function near a point, with an explicit remainder term that quantifies the approximation error.",
es = "Teorema que aproxima una función suficientemente diferenciable cerca de un punto mediante un polinomio, con un término de resto explícito que cuantifica el error de la aproximación.",
zh = "对在某点附近充分可微的函数,用多项式给出近似并给出余项以量化近似误差的定理。",
article = nil,
}
data["tbats"] = {
short = "A forecasting model that combines a Box-Cox transformation, ARMA errors, trend, and trigonometric seasonal terms, designed to handle multiple, non-integer, and high-frequency seasonal patterns.",
es = "Modelo de pronóstico que combina una transformación de Box-Cox, errores ARMA, tendencia y términos estacionales trigonométricos, diseñado para manejar patrones estacionales múltiples, no enteros y de alta frecuencia.",
zh = "一种预测模型,结合 Box-Cox 变换、ARMA 误差、趋势项以及三角函数形式的季节项,专门用于处理多重、非整数和高频的季节性模式。",
article = nil,
}
data["tcav"] = {
short = "Testing with Concept Activation Vectors, a method that scores the influence of a human-defined concept on a model's predictions by computing directional derivatives along the concept's activation vector (Kim et al., 2018).",
es = "Testing with Concept Activation Vectors, un método que cuantifica la influencia de un concepto definido por humanos sobre las predicciones de un modelo calculando derivadas direccionales a lo largo del vector de activación del concepto.",
zh = "概念激活向量测试(TCAV):通过沿概念激活向量计算方向导数,量化人工定义的概念对模型预测的影响(Kim 等,2018)。",
article = nil,
}
data["tcav fairness"] = {
short = "Application of Testing with Concept Activation Vectors (TCAV) to fairness, measuring how much human-interpretable concepts (e.g., gender, race) influence a model's predictions for a given class. Provides concept-level sensitivity diagnostics beyond feature attributions.",
es = "Aplicación de Testing with Concept Activation Vectors (TCAV) a la equidad, midiendo cuánto influyen conceptos interpretables por humanos (p. ej., género, raza) en las predicciones de un modelo para una clase dada. Aporta diagnósticos de sensibilidad a nivel de concepto, más allá de las atribuciones de características.",
zh = "将概念激活向量测试(TCAV)应用于公平性分析,衡量性别、种族等人类可解释概念对模型某一类预测的影响程度。提供超越特征归因的概念级敏感性诊断。",
article = nil,
}
data["tcc"] = {
short = "Temporal Cycle-Consistency, a self-supervised representation-learning objective that aligns frames across videos by requiring nearest-neighbor matches in embedding space to be cycle-consistent, useful for action understanding and imitation from video.",
es = "Consistencia de Ciclo Temporal (TCC), un objetivo de aprendizaje de representaciones autosupervisado que alinea fotogramas entre vídeos exigiendo que las coincidencias de vecino más cercano en el espacio de embedding sean cíclicamente consistentes; útil para la comprensión de acciones y la imitación a partir de vídeo.",
zh = "时间循环一致性(TCC),一种自监督表征学习目标,要求嵌入空间中跨视频的最近邻匹配满足循环一致性,从而对齐不同视频的帧;常用于动作理解和基于视频的模仿学习。",
article = nil,
}
data["tcga"] = {
short = "The Cancer Genome Atlas: a public consortium dataset providing multi-omic profiles (DNA, RNA, methylation, protein, clinical) for over 11,000 tumors across 33 cancer types, widely used for pan-cancer analyses.",
es = "The Cancer Genome Atlas: conjunto de datos de un consorcio público que proporciona perfiles multiómicos (ADN, ARN, metilación, proteína, clínicos) de más de 11 000 tumores en 33 tipos de cáncer, ampliamente utilizado en análisis pancáncer.",
zh = "癌症基因组图谱(The Cancer Genome Atlas):一个公共联盟数据集,提供超过 11,000 例肿瘤、33 种癌症类型的多组学谱(DNA、RNA、甲基化、蛋白质、临床),广泛用于泛癌分析。",
article = nil,
}
data["tcr repertoire"] = {
short = "The full collection of T-cell receptor sequences in an individual or sample, profiled by sequencing the rearranged TCR loci to characterize clonality and antigen specificity of the T-cell pool.",
es = "Colección completa de secuencias de receptores de células T en un individuo o muestra, perfilada secuenciando los loci TCR reorganizados para caracterizar la clonalidad y especificidad antigénica del conjunto de células T.",
zh = "个体或样本中所有 T 细胞受体序列的集合,通过对重排的 TCR 位点进行测序来表征 T 细胞库的克隆性和抗原特异性。",
article = nil,
}
data["td(0)"] = {
short = "The simplest temporal-difference learning algorithm, which updates the value of a state using the immediate reward plus the estimated value of the next state (a one-step bootstrap).",
es = "El algoritmo más simple de aprendizaje por diferencias temporales, que actualiza el valor de un estado usando la recompensa inmediata más el valor estimado del siguiente estado (bootstrap de un paso).",
zh = "最简单的时序差分学习算法,使用即时奖励加上下一状态的估计值(单步自举)来更新某一状态的值。",
article = nil,
}
data["td(lambda)"] = {
short = "A temporal-difference algorithm that uses eligibility traces to interpolate between one-step TD and Monte Carlo updates, weighting n-step returns by lambda^(n-1) for a trace decay parameter lambda in [0,1].",
es = "Algoritmo de diferencias temporales que utiliza trazas de elegibilidad para interpolar entre actualizaciones TD de un paso y de Monte Carlo, ponderando los retornos de n pasos por lambda^(n-1) con un parámetro de decaimiento lambda en [0,1].",
zh = "一种时序差分算法,使用资格迹在单步 TD 与蒙特卡洛更新之间进行插值,对 n 步回报按 lambda^(n-1) 加权,其中迹衰减参数 lambda 取值于 [0,1]。",
article = nil,
}
data["td-gammon"] = {
short = "Tesauro's 1992 backgammon-playing system that learned a near-expert evaluation function from self-play using TD(λ) with a multilayer perceptron, providing one of the first large-scale demonstrations of temporal-difference learning with neural networks.",
es = "Sistema de juego de backgammon de Tesauro (1992) que aprendió una función de evaluación de nivel casi experto a partir de auto-juego usando TD(λ) con un perceptrón multicapa, una de las primeras demostraciones a gran escala de aprendizaje por diferencia temporal con redes neuronales.",
zh = "Tesauro 于 1992 年提出的西洋双陆棋系统,使用 TD(λ) 与多层感知机通过自我对弈学习近乎专家级的评估函数,是首批大规模时间差分学习与神经网络相结合的成果之一。",
article = nil,
}
data["td-mpc"] = {
short = "Temporal Difference Model Predictive Control, a model-based reinforcement learning algorithm that learns a latent dynamics model and a TD-trained value function and plans short horizons with MPPI while bootstrapping from the learned value at the planning horizon.",
es = "Control Predictivo Basado en Modelo con Diferencia Temporal (TD-MPC), un algoritmo de aprendizaje por refuerzo basado en modelo que aprende un modelo de dinámica latente y una función de valor entrenada con diferencia temporal, y planifica horizontes cortos con MPPI utilizando el valor aprendido en el horizonte como bootstrap.",
zh = "时间差分模型预测控制(TD-MPC),一种基于模型的强化学习算法。它学习一个潜在动力学模型和一个由时间差分训练得到的价值函数,并使用 MPPI 在短规划时域内进行规划,规划终点处用学习得到的价值进行自举。",
article = nil,
}
data["td-mpc2"] = {
short = "A scaled-up successor to TD-MPC that introduces architectural and normalization improvements, enabling a single model-based agent to be trained across diverse continuous-control tasks and embodiments while preserving sample efficiency.",
es = "Sucesor a mayor escala de TD-MPC que introduce mejoras arquitectónicas y de normalización, permitiendo entrenar un único agente basado en modelo en diversas tareas y morfologías de control continuo conservando la eficiencia muestral.",
zh = "TD-MPC 的规模化继任者,引入了架构和归一化方面的改进,使单个基于模型的智能体能够在多种连续控制任务和不同形体上训练,同时保持样本效率。",
article = nil,
}
data["td3"] = {
short = "An off-policy actor-critic algorithm that improves DDPG by using two critics and taking the minimum to reduce overestimation, delaying policy updates, and adding clipped noise to target actions for smoothing.",
es = "Algoritmo actor-crítico off-policy que mejora DDPG usando dos críticos y tomando el mínimo para reducir la sobreestimación, retrasando las actualizaciones de la política y añadiendo ruido recortado a las acciones objetivo para suavizar.",
zh = "一种离策略 actor-critic 算法,通过使用两个评论家并取最小值以减少高估、延迟策略更新,并在目标动作上添加裁剪噪声进行平滑,从而改进 DDPG。",
article = nil,
}
data["td3+bc"] = {
short = "A minimalist offline-RL algorithm (Fujimoto and Gu, 2021) that augments TD3's deterministic-policy gradient update with a behavior-cloning term toward dataset actions, achieving competitive offline performance with a single hyperparameter.",
es = "Algoritmo minimalista de aprendizaje por refuerzo fuera de línea (Fujimoto y Gu, 2021) que añade un término de clonación de comportamiento hacia las acciones del conjunto de datos al gradiente de política determinista de TD3, alcanzando un rendimiento competitivo con un solo hiperparámetro.",
zh = "Fujimoto 与 Gu(2021)提出的极简离线强化学习算法,在 TD3 的确定性策略梯度更新上加入面向数据集动作的行为克隆项,仅用一个超参数即可取得有竞争力的离线表现。",
article = nil,
}
data["tdc benchmark"] = {
short = "A collection of curated machine learning tasks and datasets in Therapeutics Data Commons covering ADMET, drug-target interaction, molecular generation, and other drug-discovery problems.",
es = "Colección de tareas y conjuntos de datos curados de aprendizaje automático en Therapeutics Data Commons que abarcan ADMET, interacción fármaco-diana, generación molecular y otros problemas de descubrimiento de fármacos.",
zh = "Therapeutics Data Commons 中精心整理的机器学习任务和数据集集合,涵盖 ADMET、药物-靶点相互作用、分子生成等药物发现问题。",
article = nil,
}
data["tdnn"] = {
short = "Time-Delay Neural Network, a feed-forward architecture with weight-sharing over temporal context windows that captures long-range dependencies, widely used in acoustic modeling and speaker recognition.",
es = "Time-Delay Neural Network, arquitectura prealimentada con compartición de pesos sobre ventanas de contexto temporal que captura dependencias de largo alcance, ampliamente usada en modelado acústico y reconocimiento de locutor.",
zh = "时延神经网络,一种在时间上下文窗口上共享权重的前馈架构,能够捕获长程依赖,广泛用于声学建模和说话人识别。",
article = nil,
}
data["te-nas"] = {
short = "Training-free NAS. A method that ranks candidate architectures without training by combining two zero-cost proxies: the condition number of the neural tangent kernel and the number of linear regions of the represented function.",
es = "Training-free NAS. Método que clasifica arquitecturas candidatas sin entrenamiento combinando dos sustitutos de coste cero: el número de condición del neural tangent kernel y la cantidad de regiones lineales de la función representada.",
zh = "TE-NAS(免训练 NAS),无需训练即可对候选架构排序的方法,结合两种零成本代理:神经正切核(NTK)的条件数与所表示函数的线性区域数量。",
article = nil,
}
data["teacher-student distillation"] = {
short = "An imitation-learning paradigm in robotics where a privileged teacher policy with access to ground-truth state in simulation is used to supervise a student policy that observes only deployable sensors, enabling robust real-world control.",
es = "Paradigma de aprendizaje por imitación en robótica en el que una política maestra privilegiada, con acceso al estado verdadero en simulación, supervisa a una política estudiante que solo observa los sensores disponibles en el robot real, lo que permite un control robusto en el mundo real.",
zh = "机器人学中的一种模仿学习范式:教师策略在仿真中可访问真实状态等特权信息,用以监督只能感知部署阶段可用传感器的学生策略,从而获得在真实环境中稳健运行的控制器。",
article = nil,
}
data["teacher-student rl"] = {
short = "A reinforcement-learning paradigm in which a teacher policy or model guides a student agent's learning through demonstrations, advice, action suggestions, curriculum design, or policy distillation, accelerating training over learning from scratch.",
es = "Paradigma de aprendizaje por refuerzo en el que una política o modelo maestro guía el aprendizaje de un agente estudiante mediante demostraciones, consejos, sugerencias de acciones, diseño de currículo o destilación de políticas, acelerando el entrenamiento respecto a aprender desde cero.",
zh = "一类强化学习范式:教师策略或模型通过示范、建议、动作提示、课程设计或策略蒸馏来引导学生智能体学习,相比从零开始训练显著加速学习过程。",
article = nil,
}
data["teacher-student training"] = {
short = "A training paradigm in which a high-capacity teacher model supervises the training of a lower-capacity student model via its predictions or representations; the foundation of knowledge distillation.",
es = "Paradigma de entrenamiento en el que un modelo maestro de alta capacidad supervisa el entrenamiento de un modelo estudiante de menor capacidad mediante sus predicciones o representaciones; base de la destilación de conocimiento.",
zh = "一种训练范式,由高容量的教师模型通过其预测或表示来监督低容量的学生模型训练,是知识蒸馏的基础。",
article = nil,
}
data["team-draft interleaving"] = {
short = "An online ranking-evaluation method (Radlinski et al., 2008) that constructs a single result list by alternately drafting items from two competing rankers like sports-team captains, then attributes user clicks to whichever ranker contributed each clicked item.",
es = "Método de evaluación de rankings en línea (Radlinski et al., 2008) que construye una sola lista de resultados eligiendo alternadamente ítems de dos rankers competidores —como capitanes en un equipo deportivo— y atribuye los clics del usuario al ranker que aportó cada ítem clicado.",
zh = "一种在线排序评估方法(Radlinski 等,2008),通过让两个竞争的排序器像球队队长一样轮流挑选物品组成单一结果列表,再将用户点击归因于贡献被点击物品的排序器。",
article = nil,
}
data["ted-lium"] = {
short = "An English speech recognition corpus derived from TED talks, distributed in multiple releases (TED-LIUM 1/2/3) totaling hundreds of hours of transcribed speech.",
es = "Corpus de reconocimiento de voz en inglés derivado de charlas TED, distribuido en varias versiones (TED-LIUM 1/2/3) con cientos de horas de habla transcrita.",
zh = "基于 TED 演讲构建的英语语音识别语料库,以 TED-LIUM 1/2/3 多个版本发布,包含数百小时的转写语音。",
article = nil,
}
data["teleoperation"] = {
short = "The remote operation of a robot by a human, in which operator inputs (joystick, motion-capture, exoskeleton, VR controller, SpaceMouse) are mapped to robot motion in real time; widely used both for direct task execution and to collect demonstrations for imitation learning.",
es = "Operación remota de un robot por parte de un humano, en la que las entradas del operador (joystick, captura de movimiento, exoesqueleto, controlador de RV, SpaceMouse) se mapean al movimiento del robot en tiempo real; se utiliza tanto para la ejecución directa de tareas como para recolectar demostraciones para aprendizaje por imitación.",
zh = "由人类远程操控机器人的方式,操作者通过手柄、动作捕捉、外骨骼、VR 控制器或 SpaceMouse 等输入实时驱动机器人运动;既用于直接完成任务,也广泛用于采集供模仿学习使用的演示数据。",
article = nil,
}
data["temperature parameter"] = {
short = "A scalar coefficient that scales the entropy term in maximum-entropy reinforcement learning (e.g. α in Soft Actor-Critic) or the logits in a softmax policy, controlling the trade-off between exploitation and stochastic exploration.",
es = "Coeficiente escalar que escala el término de entropía en aprendizaje por refuerzo de máxima entropía (p. ej. α en Soft Actor-Critic) o los logits en una política softmax, controlando el compromiso entre explotación y exploración estocástica.",
zh = "在最大熵强化学习中(如 Soft Actor-Critic 中的 α)缩放熵项,或在 softmax 策略中缩放 logits 的标量系数,用于控制利用与随机探索之间的权衡。",
article = nil,
}
data["temperature posterior"] = {
short = "A modified Bayesian posterior in which the likelihood is raised to a power 1/T (the temperature), interpolating between the prior at high T and a sharply peaked posterior at low T. Used to control posterior concentration in cold-posterior and tempering studies.",
es = "Posterior bayesiano modificado en el que la verosimilitud se eleva a una potencia 1/T (la temperatura), interpolando entre la prior a alta T y un posterior fuertemente concentrado a baja T. Se utiliza para controlar la concentración del posterior en estudios de cold-posterior y atemperamiento.",
zh = "一种经过修改的贝叶斯后验,其似然被提升至幂次 1/T(温度),在高温下趋近先验,低温下收敛到尖锐的后验。常用于冷后验和退火研究中以控制后验集中度。",
article = nil,
}
data["temperature sampling"] = {
short = "A sampling technique that divides the model's logits by a temperature parameter T before softmax, controlling distribution sharpness: T<1 sharpens (more deterministic), T>1 flattens (more random), T=1 leaves it unchanged.",
es = "Técnica de muestreo que divide los logits del modelo por un parámetro de temperatura T antes del softmax, controlando la nitidez de la distribución: T<1 la concentra (más determinista), T>1 la aplana (más aleatoria) y T=1 la deja igual.",
zh = "一种采样技巧,在 softmax 之前将模型的 logits 除以温度参数 T,从而控制分布的尖锐程度:T<1 使分布更尖锐(更确定),T>1 使分布更平坦(更随机),T=1 保持不变。",
article = nil,
}
data["temperature scaling"] = {
short = "A simple post-hoc calibration that divides logits by a single learned scalar T before applying softmax, p̂ = softmax(z/T). Preserves argmax accuracy while sharpening (T<1) or softening (T>1) probabilities to fit a calibration set.",
es = "Calibración simple a posteriori que divide los logits por un único escalar aprendido T antes de aplicar softmax, p̂ = softmax(z/T). Preserva la exactitud argmax y agudiza (T<1) o suaviza (T>1) las probabilidades para ajustar un conjunto de calibración.",
zh = "一种简单的后处理校准方法:在 softmax 前将 logits 除以单一可学参数 T,p̂ = softmax(z/T)。它保持 argmax 不变,并通过 T<1 锐化或 T>1 平滑概率以拟合校准集。",
article = nil,
}
data["tempered posterior"] = {
short = "A Bayesian posterior whose log-likelihood is multiplied by a tempering factor (often 1/T or beta), used to soften or sharpen the posterior. Cold posteriors (T<1) are a notable special case in deep learning.",
es = "Posterior bayesiano cuya log-verosimilitud se multiplica por un factor de atemperamiento (a menudo 1/T o beta), utilizado para suavizar o concentrar el posterior. Las posteriores frías (T<1) son un caso especial relevante en aprendizaje profundo.",
zh = "一种通过将对数似然乘以退火因子(通常为 1/T 或 beta)而调整的贝叶斯后验,用于软化或锐化后验。深度学习中冷后验(T<1)是一个重要特例。",
article = nil,
}
data["template-based retrosynthesis"] = {
short = "A retrosynthesis approach that proposes disconnections by matching a target molecule against a library of reaction templates extracted from known transformations.",
es = "Enfoque de retrosíntesis que propone desconexiones emparejando una molécula objetivo con una biblioteca de plantillas de reacción extraídas de transformaciones conocidas.",
zh = "一种逆合成方法,通过将目标分子与从已知反应中提取的反应模板库进行匹配来提出断键方案。",
article = nil,
}
data["template-free retrosynthesis"] = {
short = "A retrosynthesis approach that predicts reactant SMILES directly from product SMILES using sequence-to-sequence or graph models, without relying on a fixed library of reaction templates.",
es = "Enfoque de retrosíntesis que predice los SMILES de los reactivos directamente a partir de los SMILES del producto mediante modelos secuencia a secuencia o de grafos, sin depender de una biblioteca fija de plantillas de reacción.",
zh = "一种逆合成方法,使用序列到序列或图模型直接从产物 SMILES 预测反应物 SMILES,不依赖固定的反应模板库。",
article = nil,
}
data["tempo estimation"] = {
short = "Music information retrieval task of estimating the perceived rate of beats in an audio signal, typically reported in beats per minute (BPM).",
es = "Tarea de recuperación de información musical que consiste en estimar la velocidad percibida de los pulsos en una señal de audio, expresada habitualmente en pulsaciones por minuto (BPM).",
zh = "音乐信息检索任务,用于估计音频信号中节拍的感知速率,通常以每分钟节拍数(BPM)表示。",
article = nil,
}
data["temporal abstraction"] = {
short = "The hierarchical-RL principle of reasoning and learning over extended sequences of primitive actions—such as options, macro-actions, or skills—rather than at every single time step, enabling structured exploration and long-horizon planning.",
es = "Principio del aprendizaje por refuerzo jerárquico de razonar y aprender sobre secuencias extendidas de acciones primitivas —como opciones, macroacciones o habilidades— en lugar de en cada paso temporal, permitiendo exploración estructurada y planificación a largo plazo.",
zh = "分层强化学习的核心思想:在原子动作序列(如选项、宏动作或技能)的层面进行推理与学习,而不是逐时间步进行,从而支持结构化探索与长时程规划。",
article = nil,
}
data["temporal attribution"] = {
short = "Feature attribution applied along the time dimension of sequence or time-series models, indicating how much each timestep contributes to a prediction.",
es = "Atribución de características aplicada a lo largo de la dimensión temporal en modelos de secuencias o series temporales, indicando cuánto contribuye cada paso de tiempo a una predicción.",
zh = "在序列或时间序列模型的时间维度上进行的特征归因,指示每个时间步对预测的贡献程度。",
article = nil,
}
data["temporal consistency"] = {
short = "A property of video or sequential generative models in which content remains coherent across frames, avoiding flicker, identity drift, or abrupt changes between adjacent timesteps.",
es = "Propiedad de los modelos generativos de vídeo o secuenciales por la cual el contenido permanece coherente entre fotogramas, evitando parpadeos, deriva de identidad o cambios abruptos entre pasos temporales adyacentes.",
zh = "视频或序列生成模型的一种特性,即内容在各帧之间保持连贯,避免闪烁、身份漂移或相邻时间步之间的突变。",
article = nil,
}
data["temporal convolutional network"] = {
short = "A neural architecture for sequence modeling that uses stacked one-dimensional causal and dilated convolutions to capture long-range temporal dependencies while preserving the order of inputs.",
es = "Arquitectura neuronal para modelado de secuencias que utiliza convoluciones unidimensionales causales y dilatadas apiladas para capturar dependencias temporales de largo alcance preservando el orden de las entradas.",
zh = "一种用于序列建模的神经网络架构,通过堆叠一维因果卷积和扩张卷积来捕捉长程时间依赖,同时保持输入的时间顺序。",
article = nil,
}
data["temporal credit assignment"] = {
short = "The problem in reinforcement learning of attributing observed rewards or outcomes back to the earlier actions and states that produced them, made difficult by long delays between cause and effect.",
es = "Problema en aprendizaje por refuerzo de atribuir las recompensas o resultados observados a las acciones y estados anteriores que los produjeron, complicado por los largos retrasos entre causa y efecto.",
zh = "强化学习中的核心难题:将观察到的奖励或结果归因到此前导致它们的动作和状态,由于因果之间的时延而尤为困难。",
article = nil,
}
data["temporal difference learning"] = {
short = "A class of model-free reinforcement learning methods that update value estimates using the difference between successive predictions, combining ideas from Monte Carlo sampling and dynamic programming bootstrapping.",
es = "Familia de métodos de aprendizaje por refuerzo sin modelo que actualizan las estimaciones de valor usando la diferencia entre predicciones sucesivas, combinando ideas del muestreo de Monte Carlo y del bootstrapping de la programación dinámica.",
zh = "一类无模型的强化学习方法,利用相邻预测之间的差异来更新价值估计,结合了蒙特卡洛采样和动态规划自举的思想。",
article = nil,
}
data["temporal embedding"] = {
short = "A learned vector representation of time-related information such as timestamps, calendar features, or position within a sequence, used to inject temporal context into a downstream model.",
es = "Representación vectorial aprendida de información temporal, como marcas de tiempo, características de calendario o posición dentro de una secuencia, utilizada para inyectar contexto temporal en un modelo subsiguiente.",
zh = "对与时间相关的信息(如时间戳、日历特征或在序列中的位置)所学习到的向量表示,用于向下游模型注入时间上下文。",
article = nil,
}
data["temporal fusion transformer"] = {
short = "An attention-based deep learning architecture for multi-horizon time series forecasting that combines variable selection, gating, recurrent encoders, and interpretable multi-head attention over past and future inputs.",
es = "Arquitectura de aprendizaje profundo basada en atención para pronóstico multihorizonte de series temporales que combina selección de variables, mecanismos de compuerta, codificadores recurrentes y atención multicabeza interpretable sobre entradas pasadas y futuras.",
zh = "一种基于注意力机制的深度学习架构,用于多时点时间序列预测,结合变量选择、门控机制、循环编码器以及对过去和未来输入的可解释多头注意力。",
article = nil,
}
data["temporal graph recommender"] = {
short = "A recommender that models user–item interactions as a time-stamped dynamic graph and uses temporal graph neural networks (e.g., TGN, TGAT) to update node embeddings as new edges arrive, capturing evolving preferences.",
es = "Recomendador que modela las interacciones usuario–ítem como un grafo dinámico con marcas temporales y emplea redes neuronales de grafos temporales (p. ej. TGN, TGAT) para actualizar las incrustaciones de nodos a medida que llegan nuevas aristas, capturando preferencias en evolución.",
zh = "将用户–物品交互建模为带时间戳的动态图,并使用时序图神经网络(如 TGN、TGAT)随新边到来更新节点嵌入,以捕捉偏好演化的推荐器。",
article = nil,
}
data["temporal grounding"] = {
short = "The task of localizing the start and end times of an event described by a natural-language query within an untrimmed video. Also called video moment retrieval or natural language video localization.",
es = "Tarea consistente en localizar los instantes de inicio y fin de un evento descrito por una consulta en lenguaje natural dentro de un video sin recortar. También llamada recuperación de momentos de video o localización lingüística temporal.",
zh = "在未剪辑视频中定位由自然语言查询所描述事件的起止时间。也称为视频时刻检索或自然语言视频定位。",
article = nil,
}
data["temporal heterogeneity federated"] = {
short = "In federated learning, non-stationarity arising because clients' local data distributions, availability, or labels drift over time, requiring algorithms that adapt to evolving statistics rather than assuming a fixed objective.",
es = "En aprendizaje federado, no estacionariedad que surge porque las distribuciones locales de datos, la disponibilidad o las etiquetas de los clientes cambian con el tiempo, lo que exige algoritmos que se adapten a estadísticas cambiantes en lugar de asumir un objetivo fijo.",
zh = "在联邦学习中,由于客户端本地数据分布、可用性或标签随时间漂移而产生的非平稳性,要求算法适应不断变化的统计特性,而非假设固定的目标。",
article = nil,
}
data["temporal knowledge graph embedding"] = {
short = "Embedding methods for knowledge graphs whose facts are time-stamped or valid over intervals, encoding entities, relations, and time so that link and time prediction become tractable.",
es = "Métodos de incrustación para grafos de conocimiento cuyos hechos están marcados temporalmente o son válidos en intervalos, que codifican entidades, relaciones y tiempo para hacer tratable la predicción de enlaces y de tiempos.",
zh = "针对带时间戳或时间区间事实的知识图谱的嵌入方法,将实体、关系与时间一起编码,从而支持链路预测和时间预测。",
article = nil,
}
data["temporal logic"] = {
short = "A family of formal logics for reasoning about propositions whose truth value depends on time, including linear temporal logic and computation tree logic, widely used in formal verification.",
es = "Familia de lógicas formales para razonar sobre proposiciones cuyo valor de verdad depende del tiempo, que incluye la lógica temporal lineal y la lógica de árboles de cómputo, ampliamente usadas en verificación formal.",
zh = "一类用于对其真值随时间变化的命题进行推理的形式逻辑,包括线性时序逻辑和计算树逻辑,广泛用于形式化验证。",
article = nil,
}
data["temporal neighborhood coding"] = {
short = "A self-supervised representation learning method for time series that pulls together encodings of windows from the same temporal neighborhood and pushes apart encodings of distant or unrelated windows.",
es = "Método de aprendizaje de representaciones autosupervisado para series temporales que aproxima las codificaciones de ventanas de la misma vecindad temporal y aleja las de ventanas distantes o no relacionadas.",
zh = "一种用于时间序列的自监督表示学习方法:将来自同一时间邻域窗口的编码拉近,将远距离或无关窗口的编码推远。",
article = nil,
}
data["temporal point process"] = {
short = "A stochastic process modeling the random occurrence times of discrete events on the real line, characterized by a conditional intensity function that depends on the history of past events.",
es = "Proceso estocástico que modela los instantes aleatorios de ocurrencia de eventos discretos en la recta real, caracterizado por una función de intensidad condicional que depende del historial de eventos pasados.",
zh = "一种随机过程,用于建模在实数轴上离散事件的随机发生时刻,由依赖于过去事件历史的条件强度函数刻画。",
article = nil,
}
data["temporal positional encoding video"] = {
short = "A positional encoding scheme used in video transformers that injects information about the temporal index (frame or clip position) of each token, enabling the model to distinguish across time in addition to spatial location.",
es = "Esquema de codificación posicional usado en transformadores de video que inyecta información sobre el índice temporal (posición del fotograma o clip) de cada token, permitiendo al modelo distinguir el tiempo además de la posición espacial.",
zh = "视频 Transformer 中使用的位置编码方案,为每个 token 注入其时间索引(帧或片段位置)信息,使模型在空间位置之外也能区分时间。",
article = nil,
}
data["temporal token video"] = {
short = "A token in a video transformer that summarizes information at a specific time step, typically obtained by pooling spatial tokens within a frame or by using dedicated learnable queries to capture per-timestep features.",
es = "Token en un transformador de video que resume la información de un paso temporal específico, normalmente obtenido agrupando tokens espaciales dentro de un fotograma o usando consultas aprendibles dedicadas para capturar características por paso temporal.",
zh = "视频 Transformer 中用于汇总特定时间步信息的 token,通常通过对帧内空间 token 进行池化,或使用专门的可学习查询来捕获每个时间步的特征。",
article = nil,
}
data["tendon-driven control"] = {
short = "Control of robots whose joints are actuated through cables or tendons rather than direct motor mounting, common in dexterous hands and continuum robots; the elasticity, friction and hysteresis of the transmission make precise control challenging and often motivate learning-based compensation.",
es = "Control de robots cuyas articulaciones se accionan mediante cables o tendones en lugar de un montaje directo de motor, común en manos diestras y robots continuos; la elasticidad, la fricción y la histéresis de la transmisión dificultan el control preciso y motivan compensaciones basadas en aprendizaje.",
zh = "对通过绳索或腱索而非电机直接驱动关节的机器人进行控制,常见于灵巧手与连续体机器人;由于传动系统存在弹性、摩擦和迟滞,精确控制十分困难,因此常借助学习方法进行补偿。",
article = nil,
}
data["tensor"] = {
short = "A multidimensional array generalizing scalars (rank 0), vectors (rank 1), and matrices (rank 2) to arbitrary numbers of indices. The fundamental data structure in modern deep learning frameworks.",
es = "Arreglo multidimensional que generaliza los escalares (rango 0), vectores (rango 1) y matrices (rango 2) a un número arbitrario de índices. Es la estructura de datos fundamental en los marcos modernos de aprendizaje profundo.",
zh = "多维数组,将标量(0 阶)、向量(1 阶)和矩阵(2 阶)推广到任意数量的索引。是现代深度学习框架中的基本数据结构。",
article = nil,
}
data["tensor contraction"] = {
short = "The generalization of matrix multiplication to higher-order tensors: a sum over one or more shared index pairs between two tensors, producing a tensor whose remaining indices are the union of the uncontracted ones.",
es = "Generalización de la multiplicación de matrices a tensores de orden superior: una suma sobre uno o más pares de índices compartidos entre dos tensores, produciendo un tensor cuyos índices restantes son la unión de los no contraídos.",
zh = "矩阵乘法在高阶张量上的推广:在两个张量的一个或多个共享下标对上求和,所得张量的下标为未被缩并的下标之并集。",
article = nil,
}
data["tensor contraction inference"] = {
short = "An inference paradigm that represents factors and messages of a graphical model as tensors and computes marginals or partition functions through a sequence of tensor contractions whose ordering controls cost.",
es = "Paradigma de inferencia que representa los factores y mensajes de un modelo gráfico como tensores y calcula marginales o funciones de partición mediante una secuencia de contracciones tensoriales cuyo orden determina el costo.",
zh = "一种推理范式,将图模型中的因子和消息表示为张量,通过一系列张量收缩计算边缘分布或配分函数,收缩顺序决定计算成本。",
article = nil,
}
data["tensor cores"] = {
short = "Specialized matrix-multiply-and-accumulate execution units in NVIDIA GPUs (since Volta) that perform mixed-precision dense matrix operations at much higher throughput than standard CUDA cores, central to modern deep-learning performance.",
es = "Unidades de ejecución especializadas de multiplicación-acumulación matricial presentes en las GPU NVIDIA (desde Volta) que realizan operaciones densas de matrices en precisión mixta con un rendimiento mucho mayor que los CUDA cores estándar, claves para el rendimiento del aprendizaje profundo moderno.",
zh = "NVIDIA GPU(自 Volta 起)中专门的矩阵乘加执行单元,以远高于标准 CUDA 核心的吞吐量执行混合精度稠密矩阵运算,是现代深度学习性能的关键。",
article = nil,
}
data["tensor factorization recommender"] = {
short = "A recommender that decomposes a multi-dimensional interaction tensor (e.g., user × item × context or × time) into low-rank factor matrices via models such as CP/PARAFAC or Tucker decomposition, generalizing two-dimensional matrix factorization.",
es = "Recomendador que descompone un tensor de interacciones multidimensional (p. ej. usuario × ítem × contexto o × tiempo) en matrices de factores de bajo rango mediante modelos como CP/PARAFAC o Tucker, generalizando la factorización matricial bidimensional.",
zh = "将多维交互张量(如用户×物品×上下文或×时间)通过 CP/PARAFAC 或 Tucker 分解等模型分解为低秩因子矩阵的推荐器,是二维矩阵分解的推广。",
article = nil,
}
data["tensor field network"] = {
short = "An equivariant neural network architecture for 3D point clouds that uses tensor products of spherical harmonics to build features that transform predictably under rotation and translation.",
es = "Arquitectura de red neuronal equivariante para nubes de puntos 3D que utiliza productos tensoriales de armónicos esféricos para construir características que se transforman de manera predecible bajo rotación y traslación.",
zh = "一种用于三维点云的等变神经网络架构,通过球谐函数的张量积构建在旋转和平移下可预测变换的特征。",
article = nil,
}
data["tensor network probabilistic model"] = {
short = "A probabilistic model whose joint distribution is parameterized by a tensor network—such as a matrix product state or PEPS—exploiting low-rank tensor decompositions to represent high-dimensional dependencies compactly.",
es = "Modelo probabilístico cuya distribución conjunta se parametriza mediante una red tensorial —como un estado de producto matricial o PEPS— aprovechando descomposiciones tensoriales de bajo rango para representar de forma compacta dependencias de alta dimensión.",
zh = "一类概率模型,其联合分布由张量网络(如矩阵乘积态或 PEPS)参数化,利用低秩张量分解紧凑表示高维依赖。",
article = nil,
}
data["tensor parallelism"] = {
short = "An intra-layer model parallelism strategy that splits the weight matrices of individual operators (e.g. attention projections, MLP linear layers) across devices, using collective communications (all-reduce or all-gather) within each forward and backward pass.",
es = "Estrategia de paralelismo de modelo intralayer que divide las matrices de peso de operadores individuales (por ejemplo, proyecciones de atención y capas lineales del MLP) entre dispositivos, utilizando comunicaciones colectivas (all-reduce o all-gather) dentro de cada paso hacia adelante y hacia atrás.",
zh = "层内模型并行策略:将单个算子的权重矩阵(如注意力投影、MLP 线性层)切分到多张设备,并在每次前向和反向传播中通过 all-reduce 或 all-gather 等集合通信完成结果合并。",
article = nil,
}
data["tensor product"] = {
short = "A bilinear operation that combines two vector spaces (or modules) into a new space whose elements represent all bilinear combinations of inputs, generalized to tensors of arbitrary rank.",
es = "Operación bilineal que combina dos espacios vectoriales (o módulos) en un nuevo espacio cuyos elementos representan todas las combinaciones bilineales de las entradas, generalizada a tensores de rango arbitrario.",
zh = "将两个向量空间(或模)组合为新空间的双线性运算,其元素表示输入的所有双线性组合,可推广到任意阶张量。",
article = nil,
}
data["tensorflow distributed"] = {
short = "TensorFlow's APIs for distributed training, including tf.distribute strategies (MirroredStrategy, MultiWorkerMirroredStrategy, ParameterServerStrategy, TPUStrategy) that scale model training across GPUs, hosts, and TPU pods.",
es = "APIs de TensorFlow para entrenamiento distribuido, incluidas las estrategias de tf.distribute (MirroredStrategy, MultiWorkerMirroredStrategy, ParameterServerStrategy, TPUStrategy) que escalan el entrenamiento de modelos a múltiples GPUs, hosts y pods de TPU.",
zh = "TensorFlow用于分布式训练的API,包括tf.distribute策略(MirroredStrategy、MultiWorkerMirroredStrategy、ParameterServerStrategy、TPUStrategy),可将模型训练扩展到多GPU、多主机和TPU pod。",
article = nil,
}
data["tensorflow federated"] = {
short = "TensorFlow Federated (TFF), an open-source framework for expressing federated computations and federated learning algorithms, providing primitives such as federated_avg and tools for simulating cross-device training.",
es = "TensorFlow Federated (TFF), un marco de código abierto para expresar cómputos federados y algoritmos de aprendizaje federado, que ofrece primitivas como federated_avg y herramientas para simular entrenamiento entre dispositivos.",
zh = "TensorFlow Federated(TFF),一个用于表达联邦计算和联邦学习算法的开源框架,提供federated_avg等原语以及用于模拟跨设备训练的工具。",
article = nil,
}
data["tensorflow probability"] = {
short = "An open-source Python library built on TensorFlow that provides probabilistic distributions, bijectors, MCMC and variational inference algorithms, and tools for building probabilistic models and Bayesian neural networks.",
es = "Biblioteca de código abierto en Python construida sobre TensorFlow que proporciona distribuciones probabilísticas, biyectores, algoritmos de MCMC e inferencia variacional, y herramientas para construir modelos probabilísticos y redes neuronales bayesianas.",
zh = "基于 TensorFlow 构建的开源 Python 库,提供概率分布、双射变换、MCMC 与变分推理算法,以及用于构建概率模型和贝叶斯神经网络的工具。",
article = nil,
}
data["tensorrt-llm"] = {
short = "An open-source NVIDIA library for compiling and serving large language models with optimized CUDA kernels, in-flight batching, and quantization, targeting high-throughput inference on NVIDIA GPUs.",
es = "Biblioteca de código abierto de NVIDIA para compilar y servir modelos de lenguaje grandes con kernels CUDA optimizados, batching en vuelo y cuantización, orientada a inferencia de alto rendimiento en GPUs NVIDIA.",
zh = "NVIDIA 推出的开源库,用于编译和部署大语言模型,提供优化的 CUDA 内核、在飞批处理和量化,面向 NVIDIA GPU 的高吞吐推理。",
article = nil,
}
data["tera"] = {
short = "Self-supervised speech representation model (Transformer Encoder Representations from Alteration) trained by reconstructing altered acoustic frames, predating wav2vec 2.0 in the masked-acoustic-modeling line.",
es = "Modelo de representación de habla autosupervisado (Transformer Encoder Representations from Alteration) entrenado reconstruyendo tramas acústicas alteradas, precursor de wav2vec 2.0 en la línea de modelado acústico enmascarado.",
zh = "一种自监督语音表示模型(Transformer Encoder Representations from Alteration),通过重建被扰动的声学帧进行训练,是 wav2vec 2.0 之前的掩码声学建模方法。",
article = nil,
}
data["terminal state"] = {
short = "An absorbing state in a Markov decision process at which the episode ends, with no further transitions or rewards; for episodic tasks the value of any terminal state is defined to be zero.",
es = "Estado absorbente en un proceso de decisión de Markov en el que termina el episodio, sin más transiciones ni recompensas; en tareas episódicas el valor de cualquier estado terminal se define como cero.",
zh = "马尔可夫决策过程中的吸收状态,到达后回合结束,不再有后续转移和奖励;在分回合任务中任何终止状态的价值定义为零。",
article = nil,
}
data["terngrad"] = {
short = "A gradient-quantization scheme for distributed SGD that compresses each gradient coordinate to one of three values {-1, 0, +1} scaled by a per-tensor magnitude, providing an unbiased estimate while reducing communication.",
es = "Esquema de cuantización de gradientes para SGD distribuido que comprime cada coordenada del gradiente a uno de tres valores {-1, 0, +1} escalados por una magnitud por tensor, proporcionando una estimación insesgada y reduciendo la comunicación.",
zh = "一种用于分布式SGD的梯度量化方案,将每个梯度分量压缩到{-1, 0, +1}三值之一,并按张量幅值缩放,在减少通信的同时给出无偏估计。",
article = nil,
}
data["terrain-aware locomotion"] = {
short = "Legged-robot locomotion in which the controller perceives terrain geometry — through proprioception, depth cameras or elevation maps — and conditions footstep selection and gait on it, enabling traversal of stairs, slopes and rough ground.",
es = "Locomoción de robots con patas en la que el controlador percibe la geometría del terreno mediante propiocepción, cámaras de profundidad o mapas de elevación y condiciona la selección de apoyos y la marcha a esa información, lo que permite atravesar escaleras, pendientes y terreno irregular.",
zh = "有腿机器人的运动控制方式,控制器借助本体感知、深度相机或高程地图来感知地形几何,并据此调整落脚点选择与步态,从而能够穿越楼梯、斜坡和崎岖地形。",
article = nil,
}
data["tertiary structure"] = {
short = "The three-dimensional folded conformation of a single protein chain, determined by interactions among its side chains and the backbone, including hydrophobic packing, hydrogen bonds, and disulfide bridges.",
es = "Conformación plegada tridimensional de una única cadena proteica, determinada por interacciones entre sus cadenas laterales y la cadena principal, incluyendo empaquetamiento hidrofóbico, puentes de hidrógeno y puentes disulfuro.",
zh = "单条蛋白质链的三维折叠构象,由侧链之间以及侧链与主链之间的相互作用决定,包括疏水堆积、氢键和二硫键。",
article = nil,
}
data["test fairness"] = {
short = "A fairness criterion, also called calibration within groups, requiring that the predicted probability of the positive outcome be a well-calibrated estimate of the true probability conditional on each protected group. Known to be incompatible with equalized odds when base rates differ.",
es = "Criterio de equidad, también llamado calibración dentro de los grupos, que exige que la probabilidad predicha del resultado positivo sea una estimación bien calibrada de la probabilidad real, condicionada a cada grupo protegido. Es incompatible con la igualdad de probabilidades cuando las tasas base difieren.",
zh = "一种公平性准则,也称组内校准,要求预测的正类概率在每个受保护群体内都是真实概率的良好校准估计。当各群体基率不同时,它与机会均等相互不兼容。",
article = nil,
}
data["test function"] = {
short = "A smooth, compactly supported function used in distribution theory and the calculus of variations as the dual object against which generalized functions are integrated.",
es = "Función suave de soporte compacto utilizada en la teoría de distribuciones y el cálculo de variaciones como el objeto dual contra el cual se integran funciones generalizadas.",
zh = "在分布理论和变分法中使用的光滑紧支撑函数,作为广义函数与之配对积分的对偶对象。",
article = nil,
}
data["test set"] = {
short = "A held-out subset of the data used only for final, unbiased evaluation of a trained model; it must not influence training or model-selection decisions.",
es = "Subconjunto de datos reservado que se utiliza únicamente para la evaluación final e imparcial de un modelo entrenado; no debe influir en el entrenamiento ni en la selección del modelo.",
zh = "预留的数据子集,仅用于对训练完成的模型进行最终、无偏的评估,不得参与训练或模型选择过程。",
article = nil,
}
data["test-time compute"] = {
short = "Computation expended during inference, typically by spending additional tokens or sampling more candidates to improve answer quality. Central to reasoning models that scale performance through longer deliberation.",
es = "Cómputo realizado durante la inferencia, normalmente generando tokens adicionales o muestreando más candidatos para mejorar la calidad de la respuesta. Es central en los modelos de razonamiento que escalan rendimiento mediante deliberación más larga.",
zh = "推理阶段消耗的计算量,通常通过生成额外 token 或采样更多候选答案来提升答案质量。是通过更长思考来扩展性能的推理模型的核心机制。",
article = nil,
}
data["test-time dropout"] = {
short = "Keeping dropout active at inference time and averaging multiple stochastic forward passes to obtain Monte Carlo estimates of predictive mean and uncertainty, as proposed by Gal and Ghahramani (2016).",
es = "Mantener el dropout activo en el momento de la inferencia y promediar múltiples pasadas estocásticas hacia adelante para obtener estimaciones Monte Carlo de la media predictiva y la incertidumbre, como propusieron Gal y Ghahramani (2016).",
zh = "在推理阶段保持 dropout 处于激活状态,并对多次随机前向传播取平均,以获得预测均值与不确定性的蒙特卡洛估计;由 Gal 与 Ghahramani(2016)提出。",
article = nil,
}
data["text counterfactual"] = {
short = "A minimally edited version of an input text that flips a model's prediction, used to explain text classifiers by exposing the smallest changes that alter the decision.",
es = "Versión mínimamente editada de un texto de entrada que invierte la predicción de un modelo, usada para explicar clasificadores de texto exponiendo los cambios más pequeños que alteran la decisión.",
zh = "对输入文本进行最小化编辑后能使模型预测发生反转的版本,用于通过揭示最小改动来解释文本分类器的决策。",
article = nil,
}
data["text generation inference"] = {
short = "An open-source toolkit by Hugging Face for serving large language models in production, with continuous batching, tensor parallelism, and a Rust-based HTTP/gRPC server.",
es = "Conjunto de herramientas de código abierto de Hugging Face para servir modelos de lenguaje grandes en producción, con batching continuo, paralelismo de tensores y un servidor HTTP/gRPC escrito en Rust.",
zh = "Hugging Face 推出的开源工具包,用于在生产环境中部署大语言模型,提供连续批处理、张量并行以及基于 Rust 的 HTTP/gRPC 服务器。",
article = nil,
}
data["text normalization for tts"] = {
short = "Front-end pipeline that converts written input (numbers, dates, abbreviations, symbols) into a fully spoken word sequence suitable for a text-to-speech acoustic model.",
es = "Etapa de preprocesamiento que transforma el texto escrito (números, fechas, abreviaturas, símbolos) en una secuencia de palabras pronunciables apta para el modelo acústico de un sistema de síntesis de voz.",
zh = "文本转语音前端流程,将书面输入(数字、日期、缩写、符号)转换为可被声学模型直接朗读的口语化词序列。",
article = nil,
}
data["text rationale"] = {
short = "A subset of input tokens — typically a contiguous span — selected to support and justify a model's prediction on a text classification task; rationales may be human-annotated or extracted by the model.",
es = "Subconjunto de tokens del input —generalmente un fragmento contiguo— seleccionado para respaldar y justificar la predicción de un modelo en una tarea de clasificación de texto; los racionales pueden ser anotados por humanos o extraídos por el modelo.",
zh = "为支持并解释文本分类预测而选出的输入标记子集(通常是一段连续片段),既可由人工标注,也可由模型自动抽取。",
article = nil,
}
data["text shap"] = {
short = "An application of SHAP to text classifiers in which tokens or token spans are treated as features and Shapley-value attributions are computed by masking or replacing them.",
es = "Aplicación de SHAP a clasificadores de texto en la que los tokens o fragmentos de tokens se tratan como características y las atribuciones basadas en valores de Shapley se calculan enmascarándolos o sustituyéndolos.",
zh = "将 SHAP 应用于文本分类器:将词元或词元片段视为特征,通过遮蔽或替换计算其 Shapley 值归因。",
article = nil,
}
data["text-conditioned image editing"] = {
short = "The task of modifying a given image according to a natural-language instruction or target description while preserving content not referenced by the text. Common methods use diffusion models with techniques such as cross-attention control or InstructPix2Pix-style training.",
es = "Tarea de modificar una imagen dada según una instrucción o descripción en lenguaje natural conservando el contenido no referido por el texto. Los métodos habituales usan modelos de difusión con técnicas como control de atención cruzada o entrenamiento al estilo InstructPix2Pix.",
zh = "一种图像编辑任务,根据自然语言指令或目标描述修改给定图像,同时保留文本未涉及的内容。常用方法基于扩散模型,并采用交叉注意力控制或 InstructPix2Pix 风格的训练。",
article = nil,
}
data["text-embedding-3-large"] = {
short = "OpenAI's larger third-generation text embedding model, producing up to 3072-dimensional vectors with support for Matryoshka-style dimension reduction. Released January 2024.",
es = "Modelo de embedding de texto de tercera generación más grande de OpenAI, que produce vectores de hasta 3072 dimensiones con soporte para reducción de dimensión estilo Matryoshka. Publicado en enero de 2024.",
zh = "OpenAI 第三代较大的文本嵌入模型,可生成至多 3072 维的向量,并支持 Matryoshka 风格的维度缩减。于 2024 年 1 月发布。",
article = nil,
}
data["text-embedding-3-small"] = {
short = "OpenAI's smaller third-generation text embedding model with 1536 default dimensions, designed for cost-efficient semantic search and retrieval. Released January 2024.",
es = "Modelo de embedding de texto de tercera generación más pequeño de OpenAI, con 1536 dimensiones por defecto, diseñado para búsqueda semántica y recuperación de bajo coste. Publicado en enero de 2024.",
zh = "OpenAI 第三代较小的文本嵌入模型,默认 1536 维,旨在以低成本提供语义检索能力。于 2024 年 1 月发布。",
article = nil,
}
data["text-embedding-ada-002"] = {
short = "OpenAI's second-generation text embedding model based on the Ada family, producing 1536-dimensional vectors. Widely used for retrieval-augmented generation before the v3 family superseded it.",
es = "Modelo de embedding de texto de segunda generación de OpenAI basado en la familia Ada, que produce vectores de 1536 dimensiones. Muy utilizado para generación aumentada por recuperación antes de que la familia v3 lo reemplazara.",
zh = "OpenAI 基于 Ada 系列的第二代文本嵌入模型,生成 1536 维向量。在 v3 系列发布之前,被广泛用于检索增强生成。",
article = nil,
}
data["text-to-3d"] = {
short = "The task of generating three-dimensional assets such as point clouds, meshes, or neural radiance fields from natural-language prompts. Common approaches include score distillation sampling on 2D diffusion priors and direct 3D generative models.",
es = "Tarea de generar activos tridimensionales como nubes de puntos, mallas o campos de radiancia neuronales a partir de instrucciones en lenguaje natural. Entre los enfoques habituales están el muestreo por destilación de puntuaciones sobre priors de difusión 2D y los modelos generativos 3D directos.",
zh = "根据自然语言提示生成点云、网格或神经辐射场等三维资产的任务。常见方法包括基于二维扩散先验的得分蒸馏采样以及直接的三维生成模型。",
article = nil,
}
data["text-to-audio"] = {
short = "The task of generating audio—including general sounds, speech, or music—from natural-language descriptions. Modern systems typically use diffusion or autoregressive models conditioned on text encoders.",
es = "Tarea de generar audio —sonidos generales, voz o música— a partir de descripciones en lenguaje natural. Los sistemas modernos suelen usar modelos de difusión o autorregresivos condicionados por codificadores de texto.",
zh = "根据自然语言描述生成音频(包括一般声音、语音或音乐)的任务。现代系统通常采用基于文本编码器条件的扩散模型或自回归模型。",
article = nil,
}
data["text-to-audio diffusion"] = {
short = "Family of diffusion-based generative models (e.g., AudioLDM, Tango, Make-An-Audio) that produce general audio from text prompts by denoising in a latent or spectrogram space conditioned on text embeddings.",
es = "Familia de modelos generativos basados en difusión (AudioLDM, Tango, Make-An-Audio, entre otros) que generan audio general a partir de texto mediante eliminación de ruido en un espacio latente o de espectrograma condicionado en embeddings textuales.",
zh = "基于扩散模型的文本到音频生成方法(如 AudioLDM、Tango、Make-An-Audio),通过在以文本嵌入为条件的潜空间或谱图空间中去噪,从文本提示生成通用音频。",
article = nil,
}
data["text-to-image generation"] = {
short = "The task of synthesizing an image that matches a natural-language description, typically performed by diffusion or autoregressive transformer models conditioned on a text encoder such as CLIP or T5.",
es = "Tarea de sintetizar una imagen que coincida con una descripción en lenguaje natural, realizada habitualmente por modelos de difusión o transformadores autorregresivos condicionados por un codificador de texto como CLIP o T5.",
zh = "根据自然语言描述合成相应图像的任务,通常由以 CLIP、T5 等文本编码器为条件的扩散模型或自回归 Transformer 完成。",
article = nil,
}
data["text-to-image r@1"] = {
short = "Recall at rank 1 for text-to-image retrieval: the fraction of textual queries for which the correct image is ranked first among all candidate images. A standard image-text retrieval evaluation metric reported alongside R@5 and R@10.",
es = "Recall en el rango 1 para la recuperación texto-a-imagen: fracción de consultas textuales para las que la imagen correcta queda en primer lugar entre todas las imágenes candidatas. Métrica estándar de recuperación imagen-texto reportada junto a R@5 y R@10.",
zh = "文本到图像检索的 Recall@1:在所有候选图像中,正确图像排在第一位的文本查询比例。是与 R@5、R@10 一同报告的标准图文检索评估指标。",
article = nil,
}
data["text-to-kg"] = {
short = "The task of automatically extracting a structured knowledge graph—entities, relations, and attributes—from unstructured natural-language text, typically via information-extraction pipelines.",
es = "Tarea de extraer automáticamente un grafo de conocimiento estructurado —entidades, relaciones y atributos— a partir de texto en lenguaje natural no estructurado, normalmente mediante canalizaciones de extracción de información.",
zh = "从非结构化自然语言文本中自动抽取结构化知识图谱(实体、关系和属性)的任务,通常通过信息抽取流水线完成。",
article = nil,
}
data["text-to-mesh"] = {
short = "The task of generating a 3D triangle mesh from a natural-language prompt, often by optimizing mesh geometry and textures so that rendered views match a text-conditioned image diffusion prior, or by directly predicting mesh outputs.",
es = "Tarea de generar una malla tridimensional de triángulos a partir de una instrucción en lenguaje natural, a menudo optimizando la geometría y las texturas de la malla para que las vistas renderizadas coincidan con un prior de difusión de imágenes condicionado por texto, o prediciendo directamente la malla.",
zh = "根据自然语言提示生成三维三角网格的任务,通常通过优化网格几何与纹理使其渲染视图匹配文本条件的图像扩散先验,或直接预测网格输出。",
article = nil,
}
data["text-to-music"] = {
short = "The task of generating musical audio—melody, harmony, rhythm, and instrumentation—from natural-language descriptions. Recent systems include MusicLM, MusicGen, and audio diffusion models conditioned on text encoders.",
es = "Tarea de generar audio musical —melodía, armonía, ritmo e instrumentación— a partir de descripciones en lenguaje natural. Sistemas recientes incluyen MusicLM, MusicGen y modelos de difusión de audio condicionados por codificadores de texto.",
zh = "根据自然语言描述生成音乐音频(包含旋律、和声、节奏与配器)的任务。近期系统包括 MusicLM、MusicGen 以及以文本编码器为条件的音频扩散模型。",
article = nil,
}
data["text-to-sparql"] = {
short = "A semantic parsing task that maps natural-language questions over knowledge graphs into executable SPARQL queries against RDF endpoints such as DBpedia or Wikidata.",
es = "Tarea de análisis semántico que convierte preguntas en lenguaje natural sobre grafos de conocimiento en consultas SPARQL ejecutables contra endpoints RDF como DBpedia o Wikidata.",
zh = "一种语义解析任务,将关于知识图谱的自然语言问题映射为可在 DBpedia、Wikidata 等 RDF 端点上执行的 SPARQL 查询。",
article = nil,
}
data["text-to-speech"] = {
short = "Task and family of systems that synthesize natural-sounding speech audio from input text, typically composed of a text front-end, an acoustic model, and a vocoder.",
es = "Tarea y conjunto de sistemas que sintetizan habla audible de sonido natural a partir de un texto de entrada, compuestos típicamente por un front-end lingüístico, un modelo acústico y un vocoder.",
zh = "从输入文本合成自然语音的任务及相关系统,通常由文本前端、声学模型和声码器组成。",
article = nil,
}
data["text-to-sql"] = {
short = "A semantic parsing task that translates natural-language questions over a relational schema into executable SQL queries; benchmarks include Spider, WikiSQL, and BIRD.",
es = "Tarea de análisis semántico que traduce preguntas en lenguaje natural sobre un esquema relacional en consultas SQL ejecutables; sus referencias incluyen Spider, WikiSQL y BIRD.",
zh = "一种语义解析任务,将关于关系数据库模式的自然语言问题翻译为可执行的 SQL 查询;典型基准包括 Spider、WikiSQL 和 BIRD。",
article = nil,
}
data["text-to-video"] = {
short = "A class of generative models that synthesize video clips from natural-language prompts, typically extending diffusion or transformer-based image generation with temporal modeling.",
es = "Clase de modelos generativos que sintetizan clips de vídeo a partir de indicaciones en lenguaje natural, normalmente ampliando la generación de imágenes basada en difusión o transformers con modelado temporal.",
zh = "一类从自然语言提示合成视频片段的生成模型,通常通过引入时间建模来扩展基于扩散或 Transformer 的图像生成。",
article = nil,
}
data["text-vqa"] = {
short = "A visual question answering benchmark requiring models to read text appearing within natural images (via OCR or end-to-end multimodal reading) in order to answer questions.",
es = "Un punto de referencia de respuesta visual a preguntas que exige al modelo leer el texto presente dentro de imágenes naturales (por OCR o lectura multimodal de extremo a extremo) para responder las preguntas.",
zh = "一个视觉问答基准,要求模型读取自然图像中出现的文字(通过 OCR 或端到端多模态阅读)以回答问题。",
article = nil,
}
data["text2video-zero"] = {
short = "A zero-shot text-to-video method that adapts a pretrained text-to-image diffusion model (e.g. Stable Diffusion) for video by injecting motion-encoded latents and cross-frame attention, without any video-specific training.",
es = "Un método de texto a video sin entrenamiento específico de video que adapta un modelo de difusión de texto a imagen preentrenado (p. ej. Stable Diffusion) inyectando latentes con codificación de movimiento y atención entre cuadros.",
zh = "一种零样本文生视频方法,通过向预训练的文生图扩散模型(如 Stable Diffusion)注入带运动编码的潜变量和跨帧注意力,在不进行视频专项训练的情况下生成视频。",
article = nil,
}
data["textual inversion"] = {
short = "A technique for personalizing text-to-image diffusion models by learning a new token embedding that represents a user-supplied concept (e.g., an object or style) from a small set of example images.",
es = "Técnica para personalizar modelos de difusión texto-a-imagen aprendiendo un nuevo embedding de token que representa un concepto suministrado por el usuario (por ejemplo, un objeto o estilo) a partir de un pequeño conjunto de imágenes de ejemplo.",
zh = "一种个性化文本到图像扩散模型的技术,通过从少量示例图像中学习一个表示用户给定概念(如物体或风格)的新 token 嵌入来实现定制。",
article = nil,
}
data["tf"] = {
short = "Term frequency: the count (raw or normalized) of how often a term appears in a document. Used as a basic feature in bag-of-words representations and as a component of TF-IDF weighting.",
es = "Frecuencia de término: el número (bruto o normalizado) de veces que un término aparece en un documento. Se utiliza como característica básica en representaciones de bolsa de palabras y como componente de la ponderación TF-IDF.",
zh = "词频:某个词在文档中出现的次数(原始计数或归一化值),常作为词袋表示的基本特征以及 TF-IDF 加权的组成部分。",
article = nil,
}
data["tf-agents"] = {
short = "A modular reinforcement-learning library built on TensorFlow and developed by Google, providing implementations of standard algorithms (DQN, DDPG, PPO, SAC) along with environments, replay buffers, and training drivers.",
es = "Biblioteca modular de aprendizaje por refuerzo construida sobre TensorFlow y desarrollada por Google, que ofrece implementaciones de algoritmos estándar (DQN, DDPG, PPO, SAC) junto con entornos, búferes de replay y drivers de entrenamiento.",
zh = "Google 基于 TensorFlow 构建的模块化强化学习库,提供 DQN、DDPG、PPO、SAC 等标准算法实现,以及环境、回放缓冲区和训练驱动器等组件。",
article = nil,
}
data["tf-idf"] = {
short = "A term weighting scheme that combines term frequency in a document with the inverse document frequency across the corpus, giving high weight to terms that are frequent in a document but rare overall.",
es = "Esquema de ponderación de términos que combina la frecuencia de un término en un documento con la frecuencia inversa de documentos en el corpus, otorgando un peso alto a los términos frecuentes en un documento pero raros en general.",
zh = "一种词项加权方案,将词在文档中的词频与在整个语料中的逆文档频率结合,对在某文档中频繁但在语料中罕见的词赋予较高权重。",
article = nil,
}
data["tfbs prediction"] = {
short = "Computational identification of DNA sites bound by transcription factors, typically by scanning sequences with position weight matrices, k-mer models, or deep neural networks trained on ChIP-seq data.",
es = "Identificación computacional de sitios de ADN unidos por factores de transcripción, normalmente escaneando secuencias con matrices de peso posicional, modelos de k-meros o redes neuronales profundas entrenadas con datos de ChIP-seq.",
zh = "通过位置权重矩阵、k-mer 模型或基于 ChIP-seq 数据训练的深度神经网络扫描序列,以计算方法识别转录因子结合的 DNA 位点。",
article = nil,
}
data["the pile"] = {
short = "An 825 GB English text corpus assembled by EleutherAI from 22 diverse high-quality sources (academic papers, code, books, web text), widely used for pretraining open language models.",
es = "Corpus de texto en inglés de 825 GB construido por EleutherAI a partir de 22 fuentes diversas de alta calidad (artículos académicos, código, libros, texto web), muy utilizado para preentrenar modelos de lenguaje abiertos.",
zh = "EleutherAI 从 22 个多样化高质量来源(学术论文、代码、书籍、网络文本)构建的 825 GB 英文文本语料库,广泛用于开源语言模型的预训练。",
article = nil,
}
data["the stack"] = {
short = "A 3 TB permissively-licensed source code dataset across 30+ programming languages released by the BigCode project, used to pretrain code language models such as StarCoder.",
es = "Conjunto de datos de código fuente con licencias permisivas de 3 TB en más de 30 lenguajes de programación, publicado por el proyecto BigCode y utilizado para preentrenar modelos de lenguaje de código como StarCoder.",
zh = "BigCode 项目发布的 3 TB 源代码数据集,涵盖 30 多种编程语言并仅包含宽松许可证代码,用于预训练 StarCoder 等代码语言模型。",
article = nil,
}
data["the stack v2"] = {
short = "The second-generation BigCode source code dataset (~900 B tokens after deduplication) covering 600+ programming languages, used to pretrain StarCoder2.",
es = "Segunda generación del conjunto de datos de código fuente de BigCode (~900 mil millones de tokens tras deduplicación) que abarca más de 600 lenguajes de programación, utilizado para preentrenar StarCoder2.",
zh = "BigCode 第二代源代码数据集(去重后约 9000 亿 token),涵盖 600 多种编程语言,用于预训练 StarCoder2。",
article = nil,
}
data["theil's u statistic"] = {
short = "A relative forecast accuracy measure that compares the root mean squared error of a model's predictions to that of a naive (no-change) benchmark; values below one indicate the model beats the naive baseline.",
es = "Medida relativa de precisión de pronóstico que compara la raíz del error cuadrático medio de las predicciones de un modelo con la de un punto de referencia ingenuo (sin cambio); valores inferiores a uno indican que el modelo supera a la referencia ingenua.",
zh = "一种相对预测精度指标,将模型预测的均方根误差与朴素(无变化)基准的均方根误差相比较;取值小于 1 表示模型优于朴素基线。",
article = nil,
}
data["theoremqa"] = {
short = "A question-answering benchmark of STEM problems requiring application of named theorems across mathematics, physics, EE/CS, and finance, used to evaluate reasoning in large language models.",
es = "Conjunto de evaluación de preguntas y respuestas con problemas de STEM que requieren aplicar teoremas concretos en matemáticas, física, EE/CC y finanzas, usado para medir el razonamiento de los grandes modelos de lenguaje.",
zh = "一个 STEM 问答基准,问题需要应用数学、物理、电子/计算机和金融领域的具名定理,用于评估大语言模型的推理能力。",
article = nil,
}
data["therapeutics data commons"] = {
short = "An open-source platform that aggregates curated datasets, tasks, and benchmarks for machine learning across the drug-discovery and therapeutics pipeline.",
es = "Plataforma de código abierto que agrega conjuntos de datos, tareas y puntos de referencia curados para aprendizaje automático a lo largo del proceso de descubrimiento de fármacos y terapéutica.",
zh = "一个开源平台,汇集了药物发现和治疗流程中用于机器学习的精选数据集、任务和基准。",
article = nil,
}
data["thermodynamic integration"] = {
short = "A free-energy calculation method that integrates the ensemble average of the derivative of the Hamiltonian with respect to a coupling parameter along a path between two thermodynamic states.",
es = "Método de cálculo de energía libre que integra el promedio del conjunto de la derivada del hamiltoniano respecto a un parámetro de acoplamiento a lo largo de un camino entre dos estados termodinámicos.",
zh = "一种自由能计算方法,沿连接两个热力学状态的路径,对哈密顿量关于耦合参数导数的系综平均进行积分。",
article = nil,
}
data["thermostat"] = {
short = "An auxiliary dynamical variable in stochastic-gradient MCMC samplers (such as SGNHT) that adaptively absorbs gradient-noise heat to keep the system at the target temperature, improving sampling robustness when the noise variance is unknown.",
es = "Variable dinámica auxiliar en muestreadores MCMC con gradiente estocástico (como SGNHT) que absorbe adaptativamente el calor del ruido del gradiente para mantener el sistema a la temperatura objetivo, mejorando la robustez del muestreo cuando la varianza del ruido es desconocida.",
zh = "随机梯度 MCMC 采样器(如 SGNHT)中的辅助动力学变量,能自适应吸收梯度噪声产生的热量,使系统保持在目标温度,从而在噪声方差未知时提高采样的稳健性。",
article = nil,
}
data["theta method"] = {
short = "A univariate forecasting technique that decomposes a series into so-called theta lines (modified second differences), forecasts each separately, and recombines them; competitive in the M3 competition.",
es = "Técnica univariada de pronóstico que descompone una serie en las llamadas líneas theta (segundas diferencias modificadas), las pronostica por separado y las recombina; obtuvo buen desempeño en la competencia M3.",
zh = "一种单变量预测方法,将序列分解为所谓的 theta 线(经修改的二阶差分),分别预测后再合成;在 M3 预测竞赛中表现优异。",
article = nil,
}
data["thinker"] = {
short = "A model-based reinforcement-learning architecture (Chung et al., 2023) that augments the environment with a learned world model the agent can interact with as a separate \"imagination\" MDP, letting it learn to plan implicitly via standard RL.",
es = "Arquitectura de aprendizaje por refuerzo basado en modelo (Chung et al., 2023) que aumenta el entorno con un modelo del mundo aprendido con el que el agente puede interactuar como si fuera un MDP de \"imaginación\" separado, permitiéndole aprender a planificar implícitamente mediante RL estándar.",
zh = "Chung 等人(2023)提出的基于模型的强化学习架构,将环境与一个学得的世界模型组合,使智能体可以与该世界模型作为独立的“想象”MDP 交互,从而通过标准 RL 隐式地学会规划。",
article = nil,
}
data["thinking tokens"] = {
short = "Tokens emitted by a reasoning model during an internal deliberation phase before producing the final answer; they extend test-time compute and are sometimes hidden from the user.",
es = "Tokens emitidos por un modelo de razonamiento durante una fase de deliberación interna antes de producir la respuesta final; aumentan el cómputo en tiempo de inferencia y a veces se ocultan al usuario.",
zh = "推理模型在生成最终答案之前的内部思考阶段所输出的 token,用于扩展推理时计算,有时对用户隐藏。",
article = nil,
}
data["third-party audit"] = {
short = "An evaluation of an AI system conducted by an independent external party, not the developer or deployer, to assess fairness, safety, accuracy, or compliance. Considered a key governance mechanism in emerging AI regulation and standards.",
es = "Evaluación de un sistema de IA realizada por una parte externa independiente, distinta del desarrollador o del implantador, para valorar equidad, seguridad, exactitud o cumplimiento normativo. Se considera un mecanismo clave de gobernanza en la regulación y los estándares emergentes de IA.",
zh = "由独立第三方(并非开发者或部署方)对 AI 系统进行的评估,以审查公平性、安全性、准确性或合规性。在新兴 AI 监管与标准中被视为关键的治理机制。",
article = nil,
}
data["third-person imitation learning"] = {
short = "Imitation learning in which the demonstrations are recorded from a viewpoint different from the learner's own — typically a human filmed from a third-person camera — requiring the agent to bridge the embodiment and viewpoint gap, often via domain-adversarial features.",
es = "Aprendizaje por imitación en el que las demostraciones se registran desde un punto de vista distinto al del propio agente —normalmente un humano filmado por una cámara externa—, lo que obliga al agente a salvar la brecha de encarnación y de perspectiva, frecuentemente mediante representaciones adversariales de dominio.",
zh = "一种模仿学习设定,演示数据从与学习者不同的视角(通常是第三人称拍摄的人类)记录得到;学习者必须跨越本体差异与视角差异,常借助领域对抗特征进行迁移。",
article = nil,
}
data["this looks like that"] = {
short = "An interpretable image classifier (ProtoPNet) that explains its predictions by comparing parts of the input image to learned class-specific prototypes — predicting class y because this part looks like that prototype (Chen et al., 2019).",
es = "Clasificador de imágenes interpretable (ProtoPNet) que explica sus predicciones comparando partes de la imagen de entrada con prototipos específicos de clase aprendidos: predice la clase y porque esta parte se parece a aquel prototipo.",
zh = "一种可解释图像分类器(ProtoPNet),通过将输入图像的局部与学习到的类别原型进行比较来解释预测——之所以判定为类别 y,是因为这一部分看起来像那个原型(Chen 等,2019)。",
article = nil,
}
data["thompson sampling"] = {
short = "A Bayesian action-selection strategy that maintains a posterior distribution over reward parameters and selects each action by sampling from the posterior and acting greedily with respect to the sample, naturally trading off exploration and exploitation.",
es = "Estrategia bayesiana de selección de acciones que mantiene una distribución a posteriori sobre los parámetros de recompensa y elige cada acción muestreando de dicha posterior y actuando voraz respecto a la muestra, equilibrando de forma natural exploración y explotación.",
zh = "一种贝叶斯动作选择策略,维护奖励参数的后验分布,通过从后验中采样并对采样结果贪心行动来选择每个动作,从而在探索与利用之间自然地取得平衡。",
article = nil,
}
data["thompson sampling acquisition"] = {
short = "A Bayesian-optimization acquisition rule that draws a sample from the posterior over the objective and selects the input that maximizes that sample, naturally balancing exploration and exploitation through posterior uncertainty.",
es = "Regla de adquisición en optimización bayesiana que muestrea una realización del posterior sobre el objetivo y elige la entrada que maximiza esa realización, equilibrando exploración y explotación a través de la incertidumbre posterior.",
zh = "贝叶斯优化中的一种采集规则:从目标函数的后验中抽取一个样本,并选择使该样本最大化的输入,通过后验不确定性自然地平衡探索与利用。",
article = nil,
}
data["thompson sampling bo"] = {
short = "An acquisition strategy in Bayesian optimization that draws a sample function from the surrogate's posterior and selects the input maximizing that sample. It naturally trades off exploration and exploitation through posterior randomness.",
es = "Estrategia de adquisición en optimización bayesiana que extrae una función muestreada del posterior del modelo sustituto y selecciona la entrada que la maximiza. Equilibra de forma natural exploración y explotación mediante la aleatoriedad del posterior.",
zh = "贝叶斯优化中的采集策略:从代理模型的后验分布中采样一条函数,并选择使该样本函数取最大值的输入;通过后验的随机性自然地在探索与利用之间取得平衡。",
article = nil,
}
data["thompson sampling for ranking"] = {
short = "An online learning-to-rank approach that, at each request, samples model parameters from their posterior and ranks items by the sampled scores, balancing exploration and exploitation across the ranked list.",
es = "Enfoque de aprendizaje en línea para ranking que, en cada solicitud, muestrea los parámetros del modelo a partir de su distribución posterior y ordena los ítems según las puntuaciones muestreadas, equilibrando exploración y explotación en la lista ordenada.",
zh = "一种在线学习排序方法,在每次请求时从模型参数的后验分布中采样,并按采样得分对物品排序,在排序列表中平衡探索与利用。",
article = nil,
}
data["thompson sampling recommender"] = {
short = "A bandit-style recommender that maintains a posterior distribution over each item's reward and, at each interaction, samples one reward per item from these posteriors and recommends the item with the highest sample, naturally trading off exploration and exploitation.",
es = "Recomendador de tipo bandido que mantiene una distribución posterior sobre la recompensa de cada ítem y, en cada interacción, muestrea una recompensa por ítem y recomienda el de mayor muestra, equilibrando de forma natural exploración y explotación.",
zh = "一种基于多臂老虎机的推荐器,为每个物品维护奖励的后验分布,每次交互时从各物品的后验中采样一个奖励并推荐采样值最高的物品,从而自然地权衡探索与利用。",
article = nil,
}
data["thor prover"] = {
short = "A neuro-symbolic theorem-proving system that integrates language-model premise selection with the Sledgehammer tactic in the Isabelle/HOL proof assistant to discharge proof obligations.",
es = "Sistema neurosimbólico de demostración de teoremas que combina la selección de premisas mediante un modelo de lenguaje con la táctica Sledgehammer del asistente Isabelle/HOL para resolver obligaciones de prueba.",
zh = "一种神经符号定理证明系统,将语言模型的前提选择与 Isabelle/HOL 证明助手的 Sledgehammer 策略相结合,用于完成证明义务。",
article = nil,
}
data["threading method"] = {
short = "A protein structure prediction approach that aligns a target sequence to known structural templates by evaluating sequence-structure compatibility, used when sequence homology is too weak for standard homology modeling.",
es = "Enfoque de predicción de estructura proteica que alinea una secuencia objetivo con plantillas estructurales conocidas evaluando la compatibilidad secuencia-estructura, usado cuando la homología de secuencia es demasiado débil para el modelado por homología estándar.",
zh = "一种蛋白质结构预测方法,通过评估序列-结构兼容性将目标序列与已知结构模板对齐,适用于序列同源性过弱无法采用标准同源建模的情况。",
article = nil,
}
data["threshold cryptography"] = {
short = "A cryptographic paradigm in which a secret key or operation is split among n parties so that any subset of size at least t can jointly perform the operation, while fewer than t parties learn nothing.",
es = "Paradigma criptográfico en el que una clave secreta o una operación se reparte entre n partes de modo que cualquier subconjunto de tamaño al menos t pueda ejecutar conjuntamente la operación, mientras que con menos de t partes no se obtiene información.",
zh = "一种密码学范式,将密钥或操作在n个参与方之间分割,使任意至少t个参与方能够联合执行该操作,而少于t个参与方则无法获得任何信息。",
article = nil,
}
data["threshold optimization"] = {
short = "A post-processing fairness technique that selects different decision thresholds for different demographic groups to satisfy a fairness criterion such as equalized odds or demographic parity.",
es = "Técnica de posprocesamiento que ajusta umbrales de decisión específicos por grupo demográfico para cumplir un criterio de equidad como equalized odds o paridad demográfica.",
zh = "一种后处理公平性技术,为不同人口群体选择不同的决策阈值,以满足均等几率或人口统计学平等等公平性标准。",
article = nil,
}
data["threshold sparsification"] = {
short = "A communication-efficient gradient compression method that transmits only those gradient coordinates whose absolute values exceed a fixed or adaptive threshold, with the rest set to zero or accumulated locally.",
es = "Método de compresión de gradientes eficiente en comunicación que transmite solo aquellas coordenadas del gradiente cuyos valores absolutos superan un umbral fijo o adaptativo, dejando el resto en cero o acumulándolas localmente.",
zh = "一种通信高效的梯度压缩方法,仅传输绝对值超过固定或自适应阈值的梯度分量,其余置零或在本地累积。",
article = nil,
}
data["throwing task learning"] = {
short = "Robot learning of dynamic throwing skills, where a manipulator must release an object with a velocity that lands it at a target; a canonical example is TossingBot, which jointly learns grasping and a residual physics-controller for throws into bins.",
es = "Aprendizaje robótico de habilidades de lanzamiento dinámicas, en las que un manipulador debe soltar un objeto con la velocidad necesaria para que caiga en un objetivo; un ejemplo canónico es TossingBot, que aprende conjuntamente el agarre y un controlador físico residual para arrojar objetos a contenedores.",
zh = "让机器人学习动态投掷技能:机械臂需以恰当速度释放物体,使其落入目标位置。代表性工作 TossingBot 联合学习抓取与对物理控制器的残差校正,将物体投入指定箱子。",
article = nil,
}
data["ti-mae"] = {
short = "Ti-MAE: a self-supervised pretraining framework for time series that adapts the masked autoencoder paradigm by randomly masking time points and training an encoder-decoder to reconstruct them.",
es = "Ti-MAE: marco de preentrenamiento autosupervisado para series temporales que adapta el paradigma de autocodificador enmascarado, ocultando aleatoriamente instantes de tiempo y entrenando un codificador-decodificador para reconstruirlos.",
zh = "Ti-MAE:一种用于时间序列的自监督预训练框架,将掩码自编码器范式应用于时间序列,通过随机掩盖时间点并训练编码器-解码器进行重构。",
article = nil,
}
data["tianshou"] = {
short = "A modular PyTorch-based deep reinforcement-learning framework developed by the Tsinghua TSAIL group, offering high-performance implementations of on- and off-policy algorithms with a clean policy/buffer/collector abstraction.",
es = "Framework modular de aprendizaje por refuerzo profundo basado en PyTorch desarrollado por el grupo TSAIL de Tsinghua, que ofrece implementaciones de alto rendimiento de algoritmos on-policy y off-policy con una abstracción limpia de política, búfer y collector.",
zh = "清华 TSAIL 组开发的基于 PyTorch 的模块化深度强化学习框架,提供高效的同策略和离策略算法实现,并具有清晰的策略/缓冲区/采样器抽象。",
article = nil,
}
data["tide"] = {
short = "TiDE (Time-series Dense Encoder): a multilayer-perceptron-based long-horizon forecasting model that maps a window of past observations and known covariates through dense residual blocks to multi-step predictions.",
es = "TiDE (Time-series Dense Encoder): modelo de pronóstico de horizonte largo basado en perceptrones multicapa que transforma una ventana de observaciones pasadas y covariables conocidas mediante bloques densos residuales para producir predicciones de múltiples pasos.",
zh = "TiDE(Time-series Dense Encoder):一种基于多层感知机的长时段预测模型,通过稠密残差块将过去观测窗口和已知协变量映射为多步预测。",
article = nil,
}
data["tier-based federated learning"] = {
short = "A hierarchical federated learning architecture that groups clients into tiers (often by capability, latency, or geography) and performs intra-tier aggregation at edge nodes before forwarding aggregates to a higher-level server.",
es = "Arquitectura jerárquica de aprendizaje federado que agrupa a los clientes en niveles (a menudo por capacidad, latencia o geografía) y realiza agregación intra-nivel en nodos de borde antes de reenviar los agregados a un servidor de nivel superior.",
zh = "一种分层联邦学习架构,将客户端按能力、延迟或地理位置等划分为若干层,先在边缘节点内进行层内聚合,再将聚合结果转发到更高层的服务器。",
article = nil,
}
data["tiered-imagenet"] = {
short = "A few-shot classification benchmark derived from ImageNet that splits classes into 34 disjoint super-categories so that meta-train, meta-validation, and meta-test sets contain semantically distinct concepts. Designed to be harder than mini-ImageNet.",
es = "Banco de pruebas de clasificación con pocos ejemplos derivado de ImageNet que divide las clases en 34 supercategorías disjuntas, de modo que los conjuntos de meta-entrenamiento, meta-validación y meta-prueba contengan conceptos semánticamente distintos. Diseñado para ser más exigente que mini-ImageNet.",
zh = "源自 ImageNet 的小样本分类基准,将类别划分为 34 个不相交的超类,使元训练、元验证和元测试集合包含语义上不同的概念,比 mini-ImageNet 更具挑战性。",
article = nil,
}
data["tiger recommender"] = {
short = "TIGER (Rajput et al., 2023) is a generative retrieval recommender that represents each item by a short tuple of discrete semantic IDs from a residual-quantized autoencoder and trains a Transformer to autoregressively generate the next item's ID tuple.",
es = "TIGER (Rajput et al., 2023) es un recomendador de recuperación generativa que representa cada ítem mediante una tupla corta de identificadores semánticos discretos obtenidos de un autoencoder con cuantización residual, y entrena un Transformer para generar autoregresivamente la tupla de ID del siguiente ítem.",
zh = "TIGER(Rajput 等,2023)是一种生成式检索推荐方法,通过残差量化自编码器将每个物品表示为一组短的离散语义 ID,并训练 Transformer 自回归地生成下一个物品的 ID 元组。",
article = nil,
}
data["tikhonov prior"] = {
short = "A zero-mean isotropic Gaussian prior on parameters that, when combined with a Gaussian likelihood, yields the maximum-a-posteriori estimate equivalent to Tikhonov (L2) regularized regression.",
es = "Prior gaussiano isotrópico de media cero sobre los parámetros que, combinado con una verosimilitud gaussiana, produce una estimación máxima a posteriori equivalente a la regresión regularizada de Tikhonov (L2).",
zh = "一种均值为零的各向同性高斯参数先验,与高斯似然结合时其最大后验估计等价于 Tikhonov(L2)正则化回归。",
article = nil,
}
data["tiktoken"] = {
short = "OpenAI's open-source byte-pair encoding tokenizer library written in Rust with Python bindings, providing fast tokenization for GPT models.",
es = "Biblioteca tokenizadora de codificación por pares de bytes de código abierto de OpenAI, escrita en Rust con bindings de Python, que proporciona tokenización rápida para los modelos GPT.",
zh = "OpenAI 开源的字节对编码分词器库,使用 Rust 编写并提供 Python 绑定,为 GPT 模型提供快速分词。",
article = nil,
}
data["tile coding"] = {
short = "A linear function-approximation feature scheme for reinforcement learning that overlays multiple offset partitions (tilings) of the state space and represents states as sparse binary indicators of the active tiles, providing coarse coding with controllable resolution.",
es = "Esquema de características de aproximación lineal en aprendizaje por refuerzo que superpone varias particiones desplazadas (tilings) del espacio de estados y representa los estados mediante indicadores binarios dispersos de las teselas activas, ofreciendo una codificación gruesa con resolución controlable.",
zh = "强化学习中一种线性函数逼近的特征构造方法:在状态空间上叠加多组偏移的分区(tilings),用激活瓦片的稀疏二值指示器表示状态,从而获得分辨率可控的粗编码。",
article = nil,
}
data["tilted empirical risk minimization"] = {
short = "A generalization of ERM that replaces the average loss with an exponentially tilted log-mean-exp objective, controlled by a tilt parameter that smoothly interpolates between average-, max-, and min-case loss for fairness and robustness.",
es = "Generalización de la minimización del riesgo empírico que sustituye la pérdida promedio por un objetivo log-mean-exp con inclinación exponencial, controlado por un parámetro de inclinación que interpola suavemente entre pérdidas promedio, máxima y mínima, en favor de la equidad y la robustez.",
zh = "对经验风险最小化的推广,用指数倾斜的log-mean-exp目标替代平均损失,由一个倾斜参数在平均、最坏和最好情形损失之间平滑插值,以提升公平性和鲁棒性。",
article = nil,
}
data["time contrastive networks"] = {
short = "A self-supervised representation-learning method (Sermanet et al., 2018) that trains an image encoder so that frames close in time, or simultaneous frames from multiple camera views, are pulled together while temporally distant frames are pushed apart, yielding view-invariant features useful for imitation from observation.",
es = "Método autosupervisado de aprendizaje de representaciones (Sermanet et al., 2018) que entrena un codificador de imágenes para acercar fotogramas próximos en el tiempo, o vistas simultáneas desde múltiples cámaras, y alejar fotogramas temporalmente distantes, produciendo rasgos invariantes a la vista útiles para la imitación a partir de observación.",
zh = "由 Sermanet 等人于 2018 年提出的自监督表示学习方法:训练图像编码器,使时间上邻近的帧或多视角同时刻的帧在嵌入空间中靠近,时间上相距较远的帧相互拉远,从而获得可用于观察式模仿的视角不变特征。",
article = nil,
}
data["time series anomaly detection"] = {
short = "The task of identifying observations, subsequences, or change patterns in a time series that deviate substantially from expected behavior, typically defined relative to historical or contextual norms.",
es = "Tarea de identificar observaciones, subsecuencias o patrones de cambio en una serie temporal que se desvían sustancialmente del comportamiento esperado, generalmente definido con respecto a normas históricas o contextuales.",
zh = "在时间序列中识别相对历史或上下文规范明显偏离预期行为的观测、子序列或变化模式的任务。",
article = nil,
}
data["time series augmentation"] = {
short = "A family of data augmentation techniques tailored to time series, including jittering, scaling, time warping, window slicing, and frequency-domain perturbations, used to expand training data and improve generalization.",
es = "Familia de técnicas de aumento de datos adaptadas a series temporales, que incluyen adición de ruido (jitter), escalado, deformación temporal (time warping), recorte de ventanas y perturbaciones en el dominio de la frecuencia, utilizadas para ampliar los datos de entrenamiento y mejorar la generalización.",
zh = "面向时间序列的数据增强技术集合,包括加噪(jitter)、缩放、时间扭曲、窗口切片以及频域扰动等,用于扩充训练数据并提升泛化能力。",
article = nil,
}
data["time series classification"] = {
short = "The supervised learning task of assigning a categorical label to an entire time series or to fixed-length windows of one, used for activity recognition, ECG diagnosis, and similar applications.",
es = "Tarea de aprendizaje supervisado consistente en asignar una etiqueta categórica a una serie temporal completa o a ventanas de longitud fija de la misma, empleada en reconocimiento de actividades, diagnóstico de ECG y aplicaciones similares.",
zh = "一种监督学习任务,为整条时间序列或其固定长度的窗口分配类别标签,常用于活动识别、心电图诊断等应用。",
article = nil,
}
data["time series clustering"] = {
short = "The unsupervised task of grouping time series into clusters based on shape, distribution, or temporal-feature similarity, typically using distance measures such as DTW or learned representations.",
es = "Tarea no supervisada que agrupa series temporales en conglomerados según su forma, distribución o similitud de características temporales, usando habitualmente medidas de distancia como DTW o representaciones aprendidas.",
zh = "一种无监督任务,根据形状、分布或时间特征相似性将时间序列分组,通常使用 DTW 等距离度量或学习到的表示。",
article = nil,
}
data["time series contrastive learning"] = {
short = "Self-supervised representation learning for time series in which augmented views of the same series are pulled together and views from different series are pushed apart in an embedding space.",
es = "Aprendizaje de representaciones autosupervisado para series temporales en el que vistas aumentadas de la misma serie se acercan y vistas de series distintas se alejan en un espacio de incrustación.",
zh = "面向时间序列的自监督表示学习方法,在嵌入空间中拉近同一序列的增强视图、推远不同序列的视图。",
article = nil,
}
data["time series cross-validation"] = {
short = "Model-evaluation schemes that respect temporal order, such as expanding or rolling-origin splits, in which training always precedes the validation period to avoid look-ahead bias.",
es = "Esquemas de evaluación de modelos que respetan el orden temporal, como las particiones de origen creciente o deslizante, en los que el entrenamiento siempre precede al periodo de validación para evitar sesgo por información futura.",
zh = "尊重时间顺序的模型评估方案,如扩展窗口或滚动原点划分,训练期始终位于验证期之前,以避免前瞻性偏差。",
article = nil,
}
data["time series frequency"] = {
short = "The sampling rate of a time series, i.e. the spacing between consecutive observations (e.g. hourly, daily, monthly), which determines achievable seasonalities and the appropriate forecasting horizon.",
es = "Frecuencia de muestreo de una serie temporal, es decir, el espaciado entre observaciones consecutivas (por ejemplo, horaria, diaria, mensual), que determina las estacionalidades posibles y el horizonte de pronóstico apropiado.",
zh = "时间序列的采样率,即相邻观测之间的间隔(如小时、日、月),决定了可建模的季节性以及合适的预测时段。",
article = nil,
}
data["time series imputation"] = {
short = "Filling in missing values within a time series using methods that range from simple interpolation and last-observation-carried-forward to model-based approaches such as Kalman smoothing, GANs, or diffusion models.",
es = "Relleno de valores faltantes en una serie temporal mediante métodos que van desde la interpolación simple y la última observación arrastrada hasta enfoques basados en modelos como el suavizado de Kalman, GAN o modelos de difusión.",
zh = "对时间序列中缺失值进行填补,方法涵盖简单插值、最近观测前向填充以及基于模型的方法(如卡尔曼平滑、GAN 或扩散模型)。",
article = nil,
}
data["time warping augmentation"] = {
short = "A data-augmentation technique for time series that locally stretches or compresses the time axis via a smooth random warping function, producing additional training samples while preserving global shape.",
es = "Técnica de aumento de datos para series temporales que estira o comprime localmente el eje temporal mediante una función de deformación aleatoria suave, generando muestras de entrenamiento adicionales sin alterar la forma global.",
zh = "面向时间序列的数据增强技术,通过一个平滑的随机扭曲函数在时间轴上进行局部拉伸或压缩,在保持整体形状的同时生成更多训练样本。",
article = nil,
}
data["time-domain audio separation"] = {
short = "Source separation approach that operates directly on the raw waveform rather than on time-frequency representations, exemplified by Conv-TasNet and DPRNN.",
es = "Enfoque de separación de fuentes que opera directamente sobre la forma de onda en lugar de sobre representaciones tiempo-frecuencia, ejemplificado por Conv-TasNet y DPRNN.",
zh = "直接在原始波形上而非时频表示上进行的源分离方法,代表模型包括 Conv-TasNet 和 DPRNN。",
article = nil,
}
data["time-llm"] = {
short = "A framework that reprograms a frozen large language model for time-series forecasting by encoding numeric patches into prototype text tokens and prompting the LLM with statistical context, achieving competitive zero-shot performance.",
es = "Marco que reprograma un modelo de lenguaje grande congelado para el pronóstico de series temporales codificando parches numéricos como tokens prototipo de texto y proporcionando al LLM contexto estadístico, alcanzando un rendimiento competitivo en zero-shot.",
zh = "一种将冻结的大语言模型重新编程用于时间序列预测的框架,将数值补丁编码为原型文本词元并向 LLM 提供统计上下文,可在零样本设定下取得有竞争力的性能。",
article = nil,
}
data["time-varying confounder"] = {
short = "A covariate that confounds the relationship between treatment and outcome and itself changes over time, possibly in response to past treatment. Standard regression adjustment is biased; g-methods such as the g-formula, IPTW, and g-estimation are required.",
es = "Covariable que confunde la relación entre tratamiento y resultado y que además cambia a lo largo del tiempo, posiblemente en respuesta a tratamientos previos. El ajuste por regresión estándar es sesgado y se requieren métodos g como la fórmula g, IPTW y g-estimación.",
zh = "随时间变化、可能受先前处理影响、并对处理与结果关系造成混杂的协变量。标准回归调整会产生偏差,需要使用 g-方法,如 g-公式、IPTW 和 g-估计。",
article = nil,
}
data["time-varying treatment"] = {
short = "An exposure or intervention that is assigned and may change over multiple time points within the same unit. Estimating its cumulative effect requires methods that handle time-varying confounders affected by prior treatment.",
es = "Exposición o intervención que se asigna y puede cambiar en múltiples puntos temporales dentro de una misma unidad. Estimar su efecto acumulado requiere métodos que manejen factores de confusión variables en el tiempo afectados por tratamientos previos.",
zh = "在同一单元内于多个时间点分配且可能变化的暴露或干预。估计其累积效应需要能够处理受先前处理影响的时变混杂因素的方法。",
article = nil,
}
data["time2vec"] = {
short = "A learnable representation of time that augments any input with a vector combining a linear component and several sinusoidal components, providing periodic and non-periodic features for downstream sequence models.",
es = "Representación aprendible del tiempo que enriquece cualquier entrada con un vector que combina una componente lineal y varias componentes sinusoidales, aportando características periódicas y no periódicas a los modelos de secuencias posteriores.",
zh = "一种可学习的时间表示,将线性分量与若干正弦分量组合成向量来增强任意输入,为下游序列模型提供周期性和非周期性特征。",
article = nil,
}
data["timegpt"] = {
short = "A pretrained transformer-based foundation model for time-series forecasting developed by Nixtla, designed for zero-shot prediction across diverse domains and frequencies via a hosted API.",
es = "Modelo fundacional preentrenado basado en transformer para pronóstico de series temporales desarrollado por Nixtla, diseñado para predicción zero-shot en dominios y frecuencias diversos mediante una API alojada.",
zh = "由 Nixtla 开发的基于 Transformer 的时间序列预测预训练基础模型,通过托管 API 在多种领域和频率上提供零样本预测能力。",
article = nil,
}
data["timemixer"] = {
short = "A time-series forecasting model that decomposes the input into multiple downsampled scales and mixes seasonal and trend components across scales using all-MLP blocks, capturing complementary temporal patterns.",
es = "Modelo de pronóstico de series temporales que descompone la entrada en varias escalas submuestreadas y mezcla las componentes estacional y de tendencia entre escalas con bloques compuestos solo por MLP, capturando patrones temporales complementarios.",
zh = "一种时间序列预测模型,将输入下采样为多种尺度,并通过全 MLP 模块跨尺度混合季节和趋势分量,从而捕获互补的时间模式。",
article = nil,
}
data["timer foundation model"] = {
short = "A decoder-only transformer time-series foundation model from Tsinghua trained on a large unified-format corpus to support forecasting, imputation, and anomaly detection in a generative, autoregressive manner.",
es = "Modelo fundacional de series temporales basado en transformer solo-decodificador desarrollado en Tsinghua, entrenado sobre un gran corpus en formato unificado para realizar pronóstico, imputación y detección de anomalías de forma generativa y autoregresiva.",
zh = "由清华提出的仅解码器 Transformer 时间序列基础模型,在统一格式的大规模语料上训练,以生成式自回归方式支持预测、插补和异常检测等任务。",
article = nil,
}
data["timesfm"] = {
short = "A 200-million-parameter decoder-only transformer foundation model for time-series forecasting released by Google Research, pretrained on 100 billion real and synthetic time points for zero-shot prediction.",
es = "Modelo fundacional para pronóstico de series temporales basado en transformer solo-decodificador de 200 millones de parámetros publicado por Google Research, preentrenado sobre 100 mil millones de puntos temporales reales y sintéticos para predicción zero-shot.",
zh = "由 Google Research 发布的 2 亿参数仅解码器 Transformer 时间序列预测基础模型,在 1000 亿个真实和合成时间点上预训练,可用于零样本预测。",
article = nil,
}
data["timesformer"] = {
short = "A transformer-based video classification architecture that applies divided space-time self-attention, alternating attention along the spatial axis within frames and along the temporal axis across frames.",
es = "Una arquitectura de clasificación de video basada en transformer que aplica auto-atención espacio-temporal dividida, alternando la atención en el eje espacial dentro de los cuadros y en el eje temporal entre cuadros.",
zh = "一种基于 Transformer 的视频分类架构,采用分离式时空自注意力,在帧内沿空间维度和跨帧沿时间维度交替应用注意力。",
article = nil,
}
data["timeshap"] = {
short = "TimeSHAP, a SHAP variant tailored to recurrent and sequence models that produces Shapley-value attributions over both features and timesteps, including pruning of irrelevant history (Bento et al., 2021).",
es = "TimeSHAP, una variante de SHAP adaptada a modelos recurrentes y secuenciales que produce atribuciones basadas en valores de Shapley tanto sobre características como sobre pasos de tiempo, incluyendo la poda de historia irrelevante.",
zh = "TimeSHAP:面向循环网络和序列模型的 SHAP 变体,可在特征和时间步两个维度上给出 Shapley 值归因,并对无关历史进行剪枝(Bento 等,2021)。",
article = nil,
}
data["timesnet"] = {
short = "A general time-series model that reshapes a 1D series into 2D tensors along multiple discovered periods, then applies an Inception-style 2D convolutional backbone to capture both intra- and inter-period variations.",
es = "Modelo general de series temporales que reorganiza una serie 1D en tensores 2D según múltiples periodos detectados y aplica un backbone convolucional 2D de tipo Inception para capturar variaciones tanto intra como inter-periodo.",
zh = "一种通用时间序列模型,根据自动发现的多个周期将一维序列重塑为二维张量,并使用 Inception 风格的二维卷积主干同时建模周期内和周期间的变化。",
article = nil,
}
data["timesvd++"] = {
short = "A temporal extension of SVD++ (Koren, 2009) that lets user biases, item biases, and user latent factors drift over time via parametric or binned time functions, capturing evolving preferences and rating-scale shifts.",
es = "Extensión temporal de SVD++ (Koren, 2009) que permite que los sesgos del usuario, los sesgos del ítem y los factores latentes del usuario varíen en el tiempo mediante funciones paramétricas o por intervalos, capturando cambios en preferencias y escalas de calificación.",
zh = "SVD++ 的时间扩展(Koren, 2009),通过参数化或分箱时间函数允许用户偏置、物品偏置和用户潜在因子随时间漂移,以捕捉偏好演变和评分尺度变化。",
article = nil,
}
data["timit"] = {
short = "A small (~5-hour) phonetically balanced read-speech corpus of American English with manual phonetic and word-level segmentation, historically the standard benchmark for phone recognition.",
es = "Corpus pequeño (~5 horas) de habla leída en inglés estadounidense, fonéticamente equilibrado y con segmentación manual a nivel fonético y de palabra; ha sido históricamente el banco de pruebas estándar para reconocimiento de fonemas.",
zh = "一个约 5 小时、音素分布均衡的美式英语朗读语料库,带有人工标注的音素和词级切分,历史上是音素识别的标准基准。",
article = nil,
}
data["tiny time mixer"] = {
short = "A compact (under 1M-parameter) MLP-Mixer-based foundation model for multivariate time-series forecasting from IBM, designed for fast zero- and few-shot inference on resource-constrained settings.",
es = "Modelo fundacional compacto (con menos de 1 millón de parámetros) basado en MLP-Mixer para pronóstico de series temporales multivariadas de IBM, diseñado para inferencia rápida zero- y few-shot en entornos con recursos limitados.",
zh = "由 IBM 提出的基于 MLP-Mixer 的紧凑型多变量时间序列预测基础模型(参数量不到 100 万),面向资源受限场景下的快速零样本和少样本推理。",
article = nil,
}
data["tinyllama"] = {
short = "A 1.1B-parameter open-source language model trained on 3T tokens following the Llama 2 architecture, designed to be small enough for edge deployment while remaining competitive with similarly-sized models.",
es = "Modelo de lenguaje de código abierto de 1100 millones de parámetros entrenado con 3 billones de tokens siguiendo la arquitectura Llama 2, diseñado para ser lo bastante pequeño como para implementarse en el edge sin perder competitividad frente a modelos de tamaño similar.",
zh = "一个 11 亿参数的开源语言模型,遵循 Llama 2 架构并在 3 万亿 token 上训练,旨在足够小巧以便边缘部署,同时在同等规模模型中保持竞争力。",
article = nil,
}
data["tinyml"] = {
short = "A subfield of machine learning focused on deploying inference (and increasingly on-device training) on highly resource-constrained microcontrollers and embedded devices, typically with kilobytes of memory and milliwatt power budgets.",
es = "Subcampo del aprendizaje automático centrado en desplegar inferencia (y cada vez más entrenamiento en dispositivo) sobre microcontroladores y dispositivos embebidos altamente restringidos, típicamente con kilobytes de memoria y presupuestos de potencia de milivatios.",
zh = "机器学习的一个子领域,专注于在资源极其受限的微控制器和嵌入式设备上部署推理(以及越来越多的设备端训练),通常仅有千字节级内存和毫瓦级功耗预算。",
article = nil,
}
data["tip3p water model"] = {
short = "A three-site rigid water model widely used in classical molecular dynamics, with point charges on the oxygen and two hydrogens and a single Lennard-Jones site on the oxygen.",
es = "Modelo rígido de agua de tres sitios ampliamente utilizado en dinámica molecular clásica, con cargas puntuales en el oxígeno y los dos hidrógenos y un único sitio de Lennard-Jones en el oxígeno.",
zh = "一种在经典分子动力学中广泛使用的刚性三位点水模型,氧和两个氢上带有点电荷,氧上有单个 Lennard-Jones 位点。",
article = nil,
}
data["tip4p water model"] = {
short = "A four-site rigid water model that places the negative charge on a virtual site (M-site) along the H-O-H bisector instead of the oxygen, improving liquid-phase properties over TIP3P.",
es = "Modelo rígido de agua de cuatro sitios que coloca la carga negativa en un sitio virtual (sitio M) a lo largo de la bisectriz H-O-H en lugar del oxígeno, mejorando las propiedades en fase líquida respecto a TIP3P.",
zh = "一种刚性四位点水模型,将负电荷放置在沿 H-O-H 角平分线的虚拟位点(M 位点)上而非氧原子上,相对 TIP3P 改善了液相性质。",
article = nil,
}
data["tipping point analysis"] = {
short = "A sensitivity analysis that determines how strong an unmeasured confounder or how extreme an assumption about missing outcomes would need to be to overturn a study's qualitative conclusion. Common in regulatory and clinical-trial settings.",
es = "Análisis de sensibilidad que determina qué tan fuerte tendría que ser un factor de confusión no medido o qué tan extremo un supuesto sobre resultados faltantes para invertir la conclusión cualitativa de un estudio. Es común en contextos regulatorios y de ensayos clínicos.",
zh = "一种敏感性分析方法,用于确定未测量混杂因素需要多强、或对缺失结果的假设需要多极端,才足以推翻研究的定性结论。常见于监管和临床试验场景。",
article = nil,
}
data["tisasrec"] = {
short = "TiSASRec (Li et al., 2020) is a sequential recommender that augments self-attention with both absolute item positions and relative time-interval embeddings between user actions, modeling how the gap between events affects next-item prediction.",
es = "TiSASRec (Li et al., 2020) es un recomendador secuencial que aumenta la auto-atención con incrustaciones de posición absoluta y de intervalo temporal relativo entre acciones del usuario, modelando cómo el lapso entre eventos afecta la predicción del siguiente ítem.",
zh = "TiSASRec(Li 等,2020)是一种序列推荐模型,在自注意力机制中同时引入物品的绝对位置和用户行为之间的相对时间间隔嵌入,以建模事件间隔对下一个物品预测的影响。",
article = nil,
}
data["titanet"] = {
short = "Speaker recognition neural model from NVIDIA NeMo built on a 1D depthwise-separable convolutional backbone with attentive statistics pooling, producing fixed-dimensional speaker embeddings.",
es = "Modelo neuronal de reconocimiento de locutor de NVIDIA NeMo construido sobre una arquitectura convolucional 1D separable en profundidad con pooling estadístico atento, que produce embeddings de locutor de dimensión fija.",
zh = "NVIDIA NeMo 提出的说话人识别神经模型,基于一维深度可分离卷积主干和注意力统计池化,生成固定维度的说话人嵌入。",
article = nil,
}
data["titsias bound"] = {
short = "The variational lower bound on the log marginal likelihood of a sparse Gaussian process introduced by Titsias (2009), based on inducing-point variables and used as the foundation of modern sparse and variational GP methods.",
es = "Cota variacional inferior sobre el logaritmo de la verosimilitud marginal de un proceso gaussiano disperso introducida por Titsias (2009), basada en variables inducidas y utilizada como base de los métodos modernos de procesos gaussianos dispersos y variacionales.",
zh = "Titsias(2009)提出的稀疏高斯过程对数边际似然的变分下界,基于诱导点变量,是现代稀疏与变分 GP 方法的基础。",
article = nil,
}
data["tm-align"] = {
short = "A protein structure alignment algorithm that produces a length-independent similarity score (TM-score) by optimizing residue-to-residue correspondences via dynamic programming and rotation matrices.",
es = "Algoritmo de alineamiento de estructuras proteicas que produce una puntuación de similitud independiente de la longitud (TM-score) optimizando las correspondencias residuo a residuo mediante programación dinámica y matrices de rotación.",
zh = "一种蛋白质结构比对算法,通过动态规划和旋转矩阵优化残基之间的对应关系,给出与长度无关的相似性得分(TM-score)。",
article = nil,
}
data["tm-score"] = {
short = "A length-independent metric of protein structural similarity ranging from 0 to 1, where values above 0.5 typically indicate the same fold.",
es = "Métrica de similitud estructural de proteínas independiente de la longitud que varía entre 0 y 1, donde valores superiores a 0.5 suelen indicar el mismo plegamiento.",
zh = "一种与长度无关的蛋白质结构相似性度量,取值范围 0 到 1,通常大于 0.5 表示相同折叠。",
article = nil,
}
data["tmhmm"] = {
short = "A hidden Markov model–based predictor of transmembrane helices in proteins, widely used to annotate membrane topology from amino acid sequence.",
es = "Predictor basado en modelos ocultos de Markov de hélices transmembrana en proteínas, ampliamente utilizado para anotar la topología de membrana a partir de la secuencia de aminoácidos.",
zh = "一种基于隐马尔可夫模型的蛋白质跨膜螺旋预测工具,广泛用于根据氨基酸序列注释膜拓扑结构。",
article = nil,
}
data["tmt labeling"] = {
short = "Tandem mass tag labeling: a chemical isobaric tagging strategy in quantitative proteomics that allows multiplexed quantification of peptides from up to 18 samples in a single mass-spectrometry run.",
es = "Marcaje con tandem mass tags: estrategia química de etiquetado isobárico en proteómica cuantitativa que permite la cuantificación multiplexada de péptidos de hasta 18 muestras en una sola corrida de espectrometría de masas.",
zh = "串联质量标签标记:定量蛋白质组学中的一种化学等压标记策略,可在一次质谱运行中对多达 18 个样本的肽段进行多重定量。",
article = nil,
}
data["tnt-complex"] = {
short = "A temporal knowledge-graph embedding model that extends ComplEx with time-dependent complex-valued entity and relation factors to score time-stamped triples.",
es = "Modelo de incrustación de grafos de conocimiento temporales que extiende ComplEx con factores complejos dependientes del tiempo para entidades y relaciones, con el fin de puntuar tripletas con marca de tiempo.",
zh = "一种时序知识图谱嵌入模型,通过为实体和关系引入随时间变化的复值因子来扩展 ComplEx,从而对带时间戳的三元组进行打分。",
article = nil,
}
data["token attribution"] = {
short = "An interpretability technique that assigns an importance score to each input token, quantifying its contribution to a model's prediction.",
es = "Técnica de interpretabilidad que asigna a cada token de entrada una puntuación que cuantifica su contribución a la predicción del modelo.",
zh = "一种可解释性技术,为每个输入 token 分配重要性分数,以量化其对模型预测的贡献。",
article = nil,
}
data["token merging"] = {
short = "An inference-time technique that combines similar tokens within a transformer layer to reduce sequence length and accelerate computation, originally proposed for vision transformers (ToMe).",
es = "Técnica aplicada en inferencia que combina tokens similares dentro de una capa de transformer para reducir la longitud de la secuencia y acelerar el cómputo; propuesta originalmente para transformers de visión (ToMe).",
zh = "一种推理阶段技术,通过在 Transformer 层内合并相似 token 来缩短序列长度并加速计算,最初针对视觉 Transformer 提出(ToMe)。",
article = nil,
}
data["token-level alignment multimodal"] = {
short = "A family of multimodal techniques that align individual tokens (words or sub-word units) with specific visual regions or audio frames, enabling fine-grained cross-modal grounding rather than only global pair-level matching.",
es = "Familia de técnicas multimodales que alinean tokens individuales (palabras o subpalabras) con regiones visuales o cuadros de audio específicos, permitiendo un anclaje cruzado de grano fino y no solo el emparejamiento global.",
zh = "一类多模态对齐技术,将单个 token(词或子词)与特定视觉区域或音频帧对应起来,实现细粒度的跨模态对齐,而不仅是粗粒度的整体匹配。",
article = nil,
}
data["token-level saliency"] = {
short = "Saliency analysis applied at the granularity of individual tokens, producing a per-token importance map of the model's input.",
es = "Análisis de saliencia aplicado a nivel de tokens individuales, que produce un mapa de importancia por token sobre la entrada del modelo.",
zh = "在单个 token 粒度上进行的显著性分析,为模型输入生成逐 token 的重要性图。",
article = nil,
}
data["token-to-parameter ratio"] = {
short = "The ratio of training tokens to model parameters, used as a heuristic for compute-optimal training; Chinchilla scaling suggests roughly 20 tokens per parameter as compute-optimal.",
es = "Cociente entre tokens de entrenamiento y parámetros del modelo, usado como heurística para un entrenamiento óptimo en cómputo; el escalado Chinchilla sugiere unos 20 tokens por parámetro como punto óptimo.",
zh = "训练 token 数与模型参数数之比,常作为计算最优训练的经验法则;Chinchilla 扩展定律建议每个参数约 20 个 token 为计算最优。",
article = nil,
}
data["tokenization"] = {
short = "The process of segmenting raw text into discrete units (tokens) such as words, subwords, characters, or bytes, which are then mapped to integer ids for input to a language model.",
es = "Proceso de segmentar texto en unidades discretas (tokens) como palabras, subpalabras, caracteres o bytes, que luego se mapean a identificadores enteros para alimentar a un modelo de lenguaje.",
zh = "将原始文本切分为离散单元(词元)的过程,单元可以是词、子词、字符或字节,随后被映射为整数 id 以输入语言模型。",
article = nil,
}
data["tokenized world model"] = {
short = "A world-model architecture that discretizes observations into tokens via a vector-quantized autoencoder and then models their dynamics autoregressively with a transformer; examples include IRIS and Transformer World Model (TWM).",
es = "Arquitectura de modelo del mundo que discretiza las observaciones en tokens mediante un autoencoder con cuantización vectorial y luego modela sus dinámicas de forma autorregresiva con un transformador; algunos ejemplos son IRIS y Transformer World Model (TWM).",
zh = "一类世界模型架构:通过向量量化自编码器将观测离散化为 token,再用 Transformer 自回归地建模其动力学;典型例子包括 IRIS 和 Transformer World Model(TWM)。",
article = nil,
}
data["tokens per second"] = {
short = "A common throughput metric for language model inference, measuring how many tokens a system can generate or process per second; reported either per request or aggregated across concurrent requests.",
es = "Métrica habitual de rendimiento para la inferencia de modelos de lenguaje, que mide cuántos tokens puede generar o procesar un sistema por segundo; se reporta por petición o agregando peticiones concurrentes.",
zh = "语言模型推理的常用吞吐量指标,衡量系统每秒可生成或处理多少个 token,可按请求报告或对并发请求进行汇总。",
article = nil,
}
data["tonnetz feature"] = {
short = "Audio feature representing tonal harmonic relations on a six-dimensional torus derived from chroma vectors, capturing perfect-fifth, major-third, and minor-third intervals; commonly used in chord recognition.",
es = "Característica de audio que representa las relaciones armónicas tonales sobre un toro de seis dimensiones derivado de vectores de croma, capturando intervalos de quinta justa, tercera mayor y tercera menor; se usa habitualmente en el reconocimiento de acordes.",
zh = "一种音频特征,在由色度向量推导得到的六维环面上表示调性谐波关系,捕捉纯五度、大三度和小三度音程,常用于和弦识别。",
article = nil,
}
data["tool calling"] = {
short = "A capability whereby a language model emits structured calls to external functions or APIs, with arguments validated against a schema, allowing the model to act as the controller for an agentic system.",
es = "Capacidad por la que un modelo de lenguaje emite llamadas estructuradas a funciones o APIs externas, con argumentos validados frente a un esquema, permitiendo al modelo actuar como controlador de un sistema agéntico.",
zh = "语言模型发出对外部函数或 API 的结构化调用、并以模式校验参数的能力,使模型能够作为智能体系统的控制器。",
article = nil,
}
data["tool use"] = {
short = "The capability of a language model to invoke external tools (APIs, functions, code interpreters, retrieval systems) during generation by emitting structured tool calls that an agent runtime executes and feeds back as observations.",
es = "Capacidad de un modelo de lenguaje para invocar herramientas externas (APIs, funciones, intérpretes de código, sistemas de recuperación) durante la generación, emitiendo llamadas estructuradas que un runtime de agente ejecuta y devuelve como observaciones.",
zh = "语言模型在生成过程中调用外部工具(API、函数、代码解释器、检索系统)的能力,通过输出结构化的工具调用,由智能体运行时执行并将结果作为观察反馈给模型。",
article = nil,
}
data["tool use learning"] = {
short = "The problem of teaching a robot to grasp and manipulate an object as a tool to act on the environment, requiring the agent to reason jointly about tool affordances, dynamics and the contact between tool and target.",
es = "Problema de enseñar a un robot a agarrar y manipular un objeto como herramienta para actuar sobre el entorno, lo que requiere razonar conjuntamente sobre las affordances de la herramienta, su dinámica y el contacto entre la herramienta y el objetivo.",
zh = "教机器人抓取并将物体作为工具来作用于环境的问题,要求智能体同时推理工具的可供性、工具的动力学以及工具与作用对象之间的接触。",
article = nil,
}
data["tool-use rl"] = {
short = "Reinforcement-learning fine-tuning of language-model agents to invoke external tools—such as web search, code execution, calculators, or APIs—effectively, by rewarding successful tool calls and final task outcomes.",
es = "Ajuste fino con aprendizaje por refuerzo de agentes de modelos de lenguaje para invocar herramientas externas —búsqueda web, ejecución de código, calculadoras, APIs— de forma eficaz, recompensando las llamadas a herramientas exitosas y los resultados finales de la tarea.",
zh = "通过强化学习微调语言模型智能体,使其能有效调用外部工具(如网页搜索、代码执行、计算器、API),以成功的工具调用和最终任务结果为奖励信号。",
article = nil,
}
data["toolbench"] = {
short = "A benchmark and instruction-tuning dataset for evaluating LLM tool-use abilities across thousands of real-world REST APIs, introduced alongside the ToolLLaMA model.",
es = "Banco de pruebas y conjunto de datos de ajuste por instrucciones para evaluar la capacidad de uso de herramientas de los LLM a través de miles de APIs REST reales, presentado junto al modelo ToolLLaMA.",
zh = "用于评估大语言模型在数千个真实 REST API 上工具使用能力的基准与指令微调数据集,与 ToolLLaMA 模型一同提出。",
article = nil,
}
data["toolformer"] = {
short = "A language model from Meta AI fine-tuned to decide which APIs to call, when to call them, what arguments to pass, and how to incorporate the results, using self-supervised data generation.",
es = "Modelo de lenguaje de Meta AI ajustado para decidir qué APIs invocar, cuándo invocarlas, qué argumentos pasar y cómo incorporar los resultados, usando generación de datos auto-supervisada.",
zh = "Meta AI 的一种语言模型,通过自监督数据生成进行微调,能够自主决定调用哪些 API、何时调用、传入什么参数以及如何整合结果。",
article = nil,
}
data["top-down forecasting"] = {
short = "A hierarchical-forecasting strategy that produces a forecast for the aggregated top-level series and disaggregates it down to lower levels using historical or model-derived proportions.",
es = "Estrategia de pronóstico jerárquico que genera un pronóstico para la serie agregada del nivel superior y la desagrega hacia los niveles inferiores usando proporciones históricas o derivadas de un modelo.",
zh = "一种层次化预测策略,先对最顶层的聚合序列生成预测,再按历史比例或模型推导比例向下分解到各下层序列。",
article = nil,
}
data["top-k accuracy"] = {
short = "Fraction of examples whose true label is among the model's top-k highest-probability predictions. A relaxed accuracy metric standard in large-class image classification (e.g. top-5 on ImageNet).",
es = "Fracción de ejemplos cuya etiqueta verdadera está entre las k predicciones de mayor probabilidad del modelo. Métrica de exactitud relajada estándar en clasificación de imágenes con muchas clases (por ejemplo, top-5 en ImageNet).",
zh = "真实标签出现在模型前 k 个最高概率预测中的样本比例。是大类别数图像分类(如 ImageNet 的 top-5)中常用的放宽版准确率指标。",
article = nil,
}
data["top-k attribution"] = {
short = "Post-processing of an attribution method that retains only the k features or tokens with the highest importance scores, discarding the rest.",
es = "Postprocesado de un método de atribución que conserva solo las k características o tokens con mayor puntuación y descarta el resto.",
zh = "对归因方法的后处理,仅保留得分最高的 k 个特征或 token,舍弃其余部分。",
article = nil,
}
data["top-k off-policy correction"] = {
short = "An off-policy reinforcement-learning correction (Chen et al., 2019) for slate recommenders that re-weights the REINFORCE gradient by a top-k importance ratio, accounting for the fact that policies are evaluated by exposing k items rather than one.",
es = "Corrección off-policy de aprendizaje por refuerzo (Chen et al., 2019) para recomendadores de listas, que reescala el gradiente REINFORCE mediante una razón de importancia top-k, teniendo en cuenta que las políticas se evalúan exponiendo k ítems en lugar de uno solo.",
zh = "用于列表式推荐器的离策略强化学习校正(Chen 等,2019),通过 top-k 重要性比率对 REINFORCE 梯度重新加权,以考虑策略实际是同时曝光 k 个物品而非单个物品的事实。",
article = nil,
}
data["top-k recommendation"] = {
short = "A recommendation task in which the system returns an ordered list of the k items most likely to satisfy a user, evaluated by ranking metrics such as Recall@k, Precision@k, NDCG@k, and HR@k rather than rating prediction error.",
es = "Tarea de recomendación en la que el sistema devuelve una lista ordenada con los k ítems con mayor probabilidad de satisfacer al usuario, evaluada con métricas de ranking como Recall@k, Precisión@k, NDCG@k y HR@k en lugar del error de predicción de calificaciones.",
zh = "一种推荐任务,系统返回最可能满足用户的 k 个物品的有序列表,使用 Recall@k、Precision@k、NDCG@k、HR@k 等排序指标评估,而非评分预测误差。",
article = nil,
}
data["top-k sampling"] = {
short = "A decoding method that truncates the next-token distribution to its k highest-probability tokens, renormalizes, and samples from this reduced set, suppressing low-probability tail tokens.",
es = "Método de decodificación que trunca la distribución del siguiente token a los k tokens de mayor probabilidad, la renormaliza y muestrea de ese conjunto reducido, suprimiendo los tokens de la cola con baja probabilidad.",
zh = "一种解码方法,将下一个 token 的分布截断为概率最高的 k 个 token,重新归一化后再从该子集中采样,从而抑制低概率的尾部 token。",
article = nil,
}
data["top-k sparsification"] = {
short = "A gradient compression scheme that transmits only the k coordinates of largest absolute value per worker per step, zeroing the remaining entries and typically accumulating them in local error-feedback memory for unbiased convergence.",
es = "Esquema de compresión de gradientes que transmite solo las k coordenadas de mayor valor absoluto por trabajador y paso, anulando el resto y normalmente acumulándolas en una memoria local de retroalimentación de error para garantizar una convergencia insesgada.",
zh = "一种梯度压缩方案,每个工作节点每一步只传输绝对值最大的k个分量,其余置零,并通常累积到本地的误差反馈存储中以保证无偏收敛。",
article = nil,
}
data["top-n recommendation"] = {
short = "An equivalent formulation of top-k recommendation that returns the n highest-scored items per user; the term is more common in classical collaborative-filtering literature, while top-k dominates modern deep-learning work.",
es = "Formulación equivalente a la recomendación top-k que devuelve los n ítems con mayor puntuación por usuario; el término es más habitual en la literatura clásica de filtrado colaborativo, mientras que top-k predomina en el trabajo moderno de aprendizaje profundo.",
zh = "与 top-k 推荐等价的提法,为每个用户返回得分最高的 n 个物品;该术语在经典协同过滤文献中更常见,而现代深度学习研究多用 top-k。",
article = nil,
}
data["top-p sampling"] = {
short = "A decoding method that selects the smallest set of next-token candidates whose cumulative probability exceeds a threshold p, then samples from that nucleus. Adapts the candidate set size to the distribution's shape.",
es = "Método de decodificación que selecciona el conjunto más pequeño de candidatos para el siguiente token cuya probabilidad acumulada supera un umbral p, y muestrea de ese núcleo. Adapta el tamaño del conjunto de candidatos a la forma de la distribución.",
zh = "一种解码方法,选择累积概率超过阈值 p 的最小候选 token 集合,并从该核中采样。候选集合的大小会根据分布的形状自适应变化。",
article = nil,
}
data["topic modeling"] = {
short = "A family of unsupervised methods that discover latent thematic structure in document collections by representing each document as a mixture over topics and each topic as a distribution over words.",
es = "Familia de métodos no supervisados que descubren estructura temática latente en colecciones de documentos representando cada documento como una mezcla de temas y cada tema como una distribución sobre palabras.",
zh = "一类无监督方法,通过将每篇文档表示为主题的混合分布、每个主题表示为词的分布,从文档集合中发现潜在的主题结构。",
article = nil,
}
data["topk overlap"] = {
short = "A ranking-agreement metric defined as the size of the intersection between the top-k items chosen by two methods, divided by k. In NAS it quantifies how often a cheap predictor identifies the same best architectures as expensive ground truth.",
es = "Métrica de concordancia entre rankings definida como el tamaño de la intersección entre los k elementos superiores elegidos por dos métodos, dividido por k. En NAS cuantifica con qué frecuencia un predictor barato identifica las mismas arquitecturas óptimas que la verdad de referencia costosa.",
zh = "一种排序一致性指标,定义为两种方法各自选出的前 k 项的交集大小除以 k;在 NAS 中用于衡量廉价预测器与昂贵真实评估在识别最佳架构上的一致程度。",
article = nil,
}
data["topk sae"] = {
short = "A sparse autoencoder variant that enforces sparsity by activating only the k largest hidden units per input, removing the need for an L1 penalty.",
es = "Variante de autoencoder disperso que impone la dispersión activando únicamente las k unidades ocultas mayores por entrada, sin necesidad de penalización L1.",
zh = "一种稀疏自编码器变体,对每个输入仅激活最大的 k 个隐藏单元来强制稀疏性,无需 L1 惩罚。",
article = nil,
}
data["topological data analysis"] = {
short = "A field that uses tools from algebraic topology, especially persistent homology, to extract qualitative shape features from high-dimensional or noisy data.",
es = "Campo que utiliza herramientas de la topología algebraica, en especial la homología persistente, para extraer características cualitativas de forma de datos de alta dimensión o ruidosos.",
zh = "利用代数拓扑工具(尤其是持续同调)从高维或含噪数据中提取定性形状特征的研究领域。",
article = nil,
}
data["topological space"] = {
short = "A set equipped with a collection of subsets called open sets, satisfying axioms that allow notions of continuity, convergence, and connectedness without requiring a metric.",
es = "Conjunto dotado de una colección de subconjuntos llamados abiertos que satisfacen axiomas que permiten definir nociones de continuidad, convergencia y conexión sin requerir una métrica.",
zh = "配备一族满足公理的开集的集合,使得无需度量即可定义连续性、收敛性和连通性等概念。",
article = nil,
}
data["topological torsion fingerprint"] = {
short = "A molecular fingerprint that encodes the presence of all four-atom linear paths (torsions) annotated with atom-type information, capturing local connectivity for similarity searching.",
es = "Huella digital molecular que codifica la presencia de todos los caminos lineales de cuatro átomos (torsiones) anotados con información del tipo de átomo, capturando la conectividad local para la búsqueda por similitud.",
zh = "一种分子指纹,编码所有由四个原子组成的线性路径(扭转)的存在性,并标注原子类型信息,用于相似性搜索时捕捉局部连接关系。",
article = nil,
}
data["topology"] = {
short = "The branch of mathematics studying properties of spaces invariant under continuous deformations such as stretching and bending, but not tearing or gluing.",
es = "Rama de las matemáticas que estudia las propiedades de los espacios invariantes bajo deformaciones continuas como estirar y doblar, pero no rasgar o pegar.",
zh = "研究在连续形变(如拉伸与弯曲,但不撕裂或粘合)下保持不变的空间性质的数学分支。",
article = nil,
}
data["torchaudio"] = {
short = "Official PyTorch library providing audio I/O, signal-processing transforms, datasets, and pretrained speech models with GPU-friendly tensor operations.",
es = "Biblioteca oficial de PyTorch que proporciona entrada/salida de audio, transformaciones de procesamiento de señales, conjuntos de datos y modelos preentrenados de voz con operaciones tensoriales aptas para GPU.",
zh = "PyTorch 官方音频库,提供音频读写、信号处理变换、数据集以及预训练语音模型,并支持 GPU 友好的张量运算。",
article = nil,
}
data["torchrl"] = {
short = "An official PyTorch reinforcement-learning library that provides composable building blocks—environments, replay buffers, samplers, modules, and losses—optimized for GPU-accelerated, vectorized RL training.",
es = "Biblioteca oficial de aprendizaje por refuerzo de PyTorch que ofrece componentes componibles —entornos, búferes de replay, muestreadores, módulos y pérdidas— optimizados para entrenamiento RL vectorizado y acelerado por GPU.",
zh = "PyTorch 官方强化学习库,提供可组合的环境、回放缓冲区、采样器、模块与损失等构件,针对向量化、GPU 加速的 RL 训练进行了优化。",
article = nil,
}
data["torsion angle"] = {
short = "The dihedral angle defined by four consecutively bonded atoms, describing the rotation about the central bond and serving as a key internal coordinate in molecular conformations.",
es = "Ángulo diedro definido por cuatro átomos enlazados consecutivamente, que describe la rotación alrededor del enlace central y sirve como coordenada interna clave en las conformaciones moleculares.",
zh = "由四个相邻成键原子定义的二面角,描述围绕中心键的旋转,是分子构象中关键的内坐标。",
article = nil,
}
data["tortoise tts"] = {
short = "An open-source multi-voice text-to-speech model combining a discrete-token autoregressive prior with a diffusion decoder over mel-spectrograms, known for highly expressive synthesis at the cost of slow inference.",
es = "Modelo de texto a voz multi-locutor de código abierto que combina un previo autorregresivo sobre tokens discretos con un decodificador de difusión sobre espectrogramas mel, reconocido por su síntesis muy expresiva a costa de una inferencia lenta.",
zh = "一个开源的多说话人文本转语音模型,将离散 token 上的自回归先验与作用于梅尔频谱的扩散解码器相结合,以表现力强但推理较慢著称。",
article = nil,
}
data["total derivative"] = {
short = "The best linear approximation of a multivariable function at a point, represented by the Jacobian matrix and capturing how the output changes with respect to all inputs simultaneously.",
es = "La mejor aproximación lineal de una función multivariable en un punto, representada por la matriz Jacobiana y que captura cómo cambia la salida respecto a todas las entradas simultáneamente.",
zh = "多元函数在某点处的最佳线性近似,由雅可比矩阵表示,刻画输出对所有输入同时的变化。",
article = nil,
}
data["total effect"] = {
short = "The overall causal effect of an exposure on an outcome, combining direct and all indirect pathways through mediators. In mediation analysis it equals the sum of the natural direct and natural indirect effects under appropriate identification assumptions.",
es = "Efecto causal total de una exposición sobre un resultado, que combina la vía directa y todas las vías indirectas a través de mediadores. En análisis de mediación equivale a la suma de los efectos directo natural e indirecto natural bajo supuestos adecuados de identificación.",
zh = "暴露对结果的总因果效应,包括直接路径以及通过中介变量的所有间接路径。在中介分析中,在适当的识别假设下等于自然直接效应与自然间接效应之和。",
article = nil,
}
data["total order"] = {
short = "A binary relation on a set that is reflexive, antisymmetric, transitive, and total, meaning every pair of elements is comparable.",
es = "Relación binaria sobre un conjunto que es reflexiva, antisimétrica, transitiva y total, es decir, cada par de elementos es comparable.",
zh = "集合上自反、反对称、传递且任意两元素均可比较的二元关系。",
article = nil,
}
data["total uncertainty"] = {
short = "The full predictive uncertainty of a Bayesian model, decomposable into aleatoric (data noise) and epistemic (model) components, often computed as the entropy of the posterior predictive distribution.",
es = "Incertidumbre predictiva total de un modelo bayesiano, descomponible en componentes aleatoria (ruido de los datos) y epistémica (del modelo), calculada habitualmente como la entropía de la distribución predictiva posterior.",
zh = "贝叶斯模型的整体预测不确定性,可分解为偶然不确定性(数据噪声)与认知不确定性(模型)两部分,通常用后验预测分布的熵来计算。",
article = nil,
}
data["total variation"] = {
short = "A measure of the cumulative change of a function over an interval, equal to the supremum of sums of absolute differences over all partitions; in probability, it bounds the distance between two distributions.",
es = "Medida del cambio acumulado de una función sobre un intervalo, igual al supremo de las sumas de diferencias absolutas sobre todas las particiones; en probabilidad, acota la distancia entre dos distribuciones.",
zh = "函数在区间上累积变化的度量,等于所有划分上绝对差之和的上确界;在概率论中用于度量两个分布之间的距离。",
article = nil,
}
data["total variation distance"] = {
short = "A statistical distance between two probability distributions on the same space: TV(p,q) = ½ Σ |p(x) − q(x)|. It equals the maximum difference in probability the two distributions can assign to any event.",
es = "Distancia estadística entre dos distribuciones de probabilidad sobre el mismo espacio: TV(p,q) = ½ Σ |p(x) − q(x)|. Equivale a la máxima diferencia de probabilidad que ambas distribuciones pueden asignar a un mismo evento.",
zh = "同一空间上两个概率分布之间的统计距离:TV(p,q) = ½ Σ |p(x) − q(x)|,等于两分布对任一事件赋予概率之差的最大值。",
article = nil,
}
data["totalvi"] = {
short = "A deep generative model for joint analysis of CITE-seq data, modeling paired single-cell RNA and surface protein measurements with a variational autoencoder to denoise and integrate modalities.",
es = "Modelo generativo profundo para el análisis conjunto de datos CITE-seq, que modela mediciones pareadas de ARN unicelular y proteínas de superficie con un autocodificador variacional para eliminar ruido e integrar modalidades.",
zh = "一种用于联合分析 CITE-seq 数据的深度生成模型,使用变分自编码器对配对的单细胞 RNA 和表面蛋白测量建模,以实现去噪和多模态整合。",
article = nil,
}
data["toto"] = {
short = "A decoder-only transformer foundation model for observability time series introduced by Datadog, pretrained on trillions of metric points to deliver zero-shot forecasting across infrastructure telemetry.",
es = "Modelo fundacional basado en transformer solo-decodificador para series temporales de observabilidad presentado por Datadog, preentrenado sobre billones de puntos métricos para ofrecer pronóstico zero-shot en telemetría de infraestructura.",
zh = "由 Datadog 提出的面向可观测性时间序列的仅解码器 Transformer 基础模型,在数万亿指标点上预训练,可对基础设施遥测数据进行零样本预测。",
article = nil,
}
data["tournament selection"] = {
short = "A selection scheme used in evolutionary algorithms in which k candidates are sampled uniformly at random and the fittest is chosen as a parent. The tournament size k controls selection pressure.",
es = "Esquema de selección utilizado en algoritmos evolutivos en el que se muestrean k candidatos de forma uniforme al azar y se escoge como progenitor al de mayor aptitud. El tamaño del torneo k controla la presión de selección.",
zh = "进化算法中的一种选择策略:从种群中均匀随机抽取 k 个候选,选择其中适应度最高者作为父代;锦标赛规模 k 控制选择压力。",
article = nil,
}
data["tox21"] = {
short = "A public dataset of around 12,000 chemical compounds annotated for activity against 12 nuclear receptor and stress response assays, widely used to benchmark molecular toxicity prediction models.",
es = "Conjunto de datos público de unos 12 000 compuestos químicos anotados para la actividad en 12 ensayos de receptores nucleares y respuesta al estrés, ampliamente utilizado para evaluar modelos de predicción de toxicidad molecular.",
zh = "一个公开数据集,包含约 12,000 种化合物,针对 12 个核受体和应激反应分析进行了活性标注,广泛用于评估分子毒性预测模型。",
article = nil,
}
data["toxcast"] = {
short = "An EPA high-throughput screening program that generated activity data for thousands of chemicals across hundreds of in vitro assays, used to train and benchmark in silico toxicity models.",
es = "Programa de cribado de alto rendimiento de la EPA que generó datos de actividad para miles de productos químicos en cientos de ensayos in vitro, utilizado para entrenar y evaluar modelos in silico de toxicidad.",
zh = "美国环保局开展的高通量筛选项目,针对数千种化学物质在数百种体外分析中生成了活性数据,用于训练和评估计算毒性模型。",
article = nil,
}
data["toxic language"] = {
short = "Text that contains hateful, abusive, threatening, or otherwise harmful content; the target class for toxicity classifiers used in content moderation.",
es = "Texto con contenido odioso, abusivo, amenazante o de otra forma dañino; la clase objetivo de los clasificadores de toxicidad empleados en moderación de contenido.",
zh = "包含仇恨、辱骂、威胁或其他有害内容的文本;在内容审核中,毒性分类器的目标类别。",
article = nil,
}
data["toxicity bias"] = {
short = "Systematic disparity in toxicity-classifier outputs across demographic groups, where benign text mentioning marginalized identities is over-flagged as toxic.",
es = "Disparidad sistemática en las salidas de un clasificador de toxicidad entre grupos demográficos, donde texto benigno que menciona identidades marginadas se etiqueta erróneamente como tóxico.",
zh = "毒性分类器输出在不同人口群体间的系统性差异,提及边缘化身份的良性文本被过度标记为有毒内容。",
article = nil,
}
data["toxicity classification"] = {
short = "The task of labeling text as toxic, abusive, or harmful, typically along axes such as insult, threat, identity attack, or sexually explicit content; commonly used in content moderation pipelines.",
es = "Tarea de etiquetar texto como tóxico, abusivo o dañino, normalmente según ejes como insulto, amenaza, ataque a la identidad o contenido sexualmente explícito; se utiliza habitualmente en flujos de moderación de contenido.",
zh = "将文本标注为有毒、辱骂或有害的任务,通常按侮辱、威胁、身份攻击或色情内容等维度划分,常用于内容审核流程。",
article = nil,
}
data["toxicity classifier bias"] = {
short = "A specific case of toxicity bias in which a trained classifier assigns higher toxicity scores to text from or about particular dialects, demographics, or identity groups regardless of true content.",
es = "Caso específico de sesgo de toxicidad en el que un clasificador entrenado asigna puntuaciones de toxicidad más altas a textos de o sobre dialectos, demografías o grupos de identidad concretos, independientemente del contenido real.",
zh = "毒性偏见的具体情形,即训练后的分类器对特定方言、人口群体或身份群体相关的文本赋予更高的毒性得分,而与真实内容无关。",
article = nil,
}
data["toxicity filtering"] = {
short = "The process of removing or blocking text classified as toxic from training data, generated outputs, or user inputs in order to reduce harmful content exposure.",
es = "Proceso de eliminar o bloquear texto clasificado como tóxico en datos de entrenamiento, salidas generadas o entradas de usuario para reducir la exposición a contenido dañino.",
zh = "在训练数据、生成输出或用户输入中移除或拦截被判定为有毒文本的过程,用于降低有害内容的暴露。",
article = nil,
}
data["tpe"] = {
short = "Tree-structured Parzen Estimator. A sequential model-based hyperparameter optimization algorithm that models p(x|y) using two density estimators l(x) and g(x) for good and bad observations and selects points maximizing l(x)/g(x).",
es = "Tree-structured Parzen Estimator. Algoritmo secuencial de optimización de hiperparámetros basado en modelo que representa p(x|y) mediante dos estimadores de densidad l(x) y g(x) para observaciones buenas y malas, y selecciona puntos que maximizan l(x)/g(x).",
zh = "TPE(Tree-structured Parzen Estimator),一种基于模型的序贯超参数优化算法,使用两个密度估计器 l(x) 和 g(x) 分别建模优劣观测的 p(x|y),并选择使 l(x)/g(x) 最大的候选点。",
article = nil,
}
data["tpm"] = {
short = "Transcripts per million: a normalized expression unit for RNA-seq that scales read counts by transcript length and total mapped reads, allowing comparable expression values across genes within a sample.",
es = "Transcritos por millón: unidad de expresión normalizada para RNA-seq que escala los conteos de lecturas por longitud del transcrito y por el total de lecturas mapeadas, lo que permite valores de expresión comparables entre genes dentro de una muestra.",
zh = "每百万转录本数(transcripts per million):RNA-seq 的归一化表达单位,按转录本长度和总比对读段数对读段计数进行缩放,使样本内基因之间的表达值可比较。",
article = nil,
}
data["tpot"] = {
short = "Tree-based Pipeline Optimization Tool. An open-source AutoML library that uses genetic programming to evolve scikit-learn pipelines, jointly optimizing preprocessing steps, feature selection, and model choice with hyperparameters.",
es = "Tree-based Pipeline Optimization Tool. Biblioteca AutoML de código abierto que utiliza programación genética para evolucionar pipelines de scikit-learn, optimizando conjuntamente los pasos de preprocesamiento, la selección de características y la elección del modelo junto con sus hiperparámetros.",
zh = "TPOT(Tree-based Pipeline Optimization Tool),一个开源 AutoML 库,使用遗传编程对 scikit-learn 流水线进行进化,联合优化预处理步骤、特征选择以及模型选择及其超参数。",
article = nil,
}
data["tpsa"] = {
short = "Topological polar surface area, an additive descriptor that estimates the polar surface of a molecule from contributions of polar atom types, commonly used as a proxy for membrane permeability.",
es = "Área superficial polar topológica, un descriptor aditivo que estima la superficie polar de una molécula a partir de contribuciones de tipos de átomos polares, utilizado comúnmente como sustituto de la permeabilidad a través de membranas.",
zh = "拓扑极性表面积,一种加和性描述符,通过极性原子类型的贡献估计分子的极性表面,常用作膜渗透性的替代指标。",
article = nil,
}
data["trace"] = {
short = "The sum of the diagonal entries of a square matrix, equal to the sum of its eigenvalues counted with algebraic multiplicity. Linear in its argument and satisfies the cyclic property tr(AB) = tr(BA).",
es = "Suma de los elementos diagonales de una matriz cuadrada, igual a la suma de sus valores propios contados con multiplicidad algebraica. Es lineal en su argumento y cumple la propiedad cíclica tr(AB) = tr(BA).",
zh = "方阵主对角线元素之和,等于其按代数重数计的所有特征值之和。对其参数线性,且满足循环性质 tr(AB) = tr(BA)。",
article = nil,
}
data["trace plot"] = {
short = "A diagnostic plot of MCMC samples for a parameter against iteration index, used to visually assess chain mixing, stationarity, burn-in length, and convergence.",
es = "Gráfico diagnóstico de las muestras MCMC de un parámetro frente al índice de iteración, utilizado para evaluar visualmente la mezcla, la estacionariedad, la longitud del calentamiento y la convergencia de la cadena.",
zh = "将参数的 MCMC 采样值对迭代次数作图的诊断图,用于直观评估链的混合性、平稳性、预烧期长度与收敛性。",
article = nil,
}
data["trace-based inference"] = {
short = "A probabilistic-programming inference strategy that records the random choices made during a program's execution as a trace, then proposes, scores, or transforms whole traces to perform sampling or optimization.",
es = "Estrategia de inferencia en programación probabilística que registra las elecciones aleatorias realizadas durante la ejecución de un programa como una traza, y luego propone, puntúa o transforma trazas completas para muestrear u optimizar.",
zh = "一种概率编程推理策略,将程序执行过程中所做的随机选择记录为轨迹,然后对整条轨迹进行提议、打分或变换以完成采样或优化。",
article = nil,
}
data["tracin"] = {
short = "A training-data attribution method that estimates the influence of each training example on a test prediction by tracking gradient similarity across saved checkpoints during training.",
es = "Método de atribución de datos de entrenamiento que estima la influencia de cada ejemplo de entrenamiento sobre una predicción de prueba siguiendo la similitud de gradientes a lo largo de los checkpoints guardados.",
zh = "一种训练数据归因方法,通过在训练过程中保存的检查点上跟踪梯度相似度,估计每个训练样本对某个测试预测的影响。",
article = nil,
}
data["tracking signal"] = {
short = "A demand-forecasting diagnostic equal to the cumulative forecast error divided by the mean absolute deviation, used to detect persistent bias in a forecasting model.",
es = "Indicador de diagnóstico para el pronóstico de la demanda igual al error acumulado dividido entre la desviación absoluta media, utilizado para detectar sesgo persistente en un modelo de pronóstico.",
zh = "需求预测的诊断指标,等于累计预测误差除以平均绝对偏差,用于检测预测模型是否存在持续性偏差。",
article = nil,
}
data["tractable temporal models"] = {
short = "Temporal probabilistic models—such as hidden Markov models, linear-Gaussian state space models, and certain conditional random fields—whose chain structure permits exact filtering, smoothing, and likelihood computation in polynomial time.",
es = "Modelos probabilísticos temporales —como los modelos ocultos de Markov, los modelos de espacio de estados lineales-gaussianos y ciertos campos aleatorios condicionales— cuya estructura en cadena permite el filtrado, suavizado y cálculo de verosimilitud exactos en tiempo polinomial.",
zh = "一类时间概率模型(如隐马尔可夫模型、线性高斯状态空间模型及某些条件随机场),其链式结构允许在多项式时间内进行精确滤波、平滑和似然计算。",
article = nil,
}
data["tracy-widom distribution"] = {
short = "A probability distribution describing the fluctuations of the largest eigenvalue of large random matrices from the Gaussian ensembles, central to random matrix theory.",
es = "Distribución de probabilidad que describe las fluctuaciones del mayor autovalor de grandes matrices aleatorias de los conjuntos gaussianos, central en la teoría de matrices aleatorias.",
zh = "描述高斯系综大型随机矩阵最大特征值涨落的概率分布,是随机矩阵理论的核心对象。",
article = nil,
}
data["train-test mismatch"] = {
short = "A discrepancy between the conditions under which a model is trained and those under which it is evaluated or deployed. A practical manifestation of distribution shift that often degrades real-world performance.",
es = "Discrepancia entre las condiciones en que se entrena un modelo y aquellas en las que se evalúa o despliega. Manifestación práctica del desplazamiento de distribución que a menudo degrada el desempeño en el mundo real.",
zh = "模型训练所处条件与其评估或部署所处条件之间的不一致,是分布偏移的实际表现,常导致真实场景下的性能下降。",
article = nil,
}
data["training pipeline"] = {
short = "The end-to-end sequence of stages — data ingestion, preprocessing, feature extraction or tokenization, model training, validation, and checkpointing — that transforms raw data into a trained model artifact.",
es = "Secuencia de extremo a extremo de etapas —ingesta de datos, preprocesamiento, extracción de características o tokenización, entrenamiento del modelo, validación y guardado de checkpoints— que transforma datos crudos en un artefacto de modelo entrenado.",
zh = "将原始数据转化为已训练模型工件的端到端阶段序列,包括数据摄取、预处理、特征抽取或分词、模型训练、验证以及检查点保存。",
article = nil,
}
data["training step"] = {
short = "One application of the optimizer that updates model parameters using the gradient computed from a (possibly accumulated) batch; in deep-learning frameworks this is the smallest unit of progress and is logged as `step` or `global_step`.",
es = "Una aplicación del optimizador que actualiza los parámetros del modelo usando el gradiente calculado a partir de un lote (posiblemente acumulado); en los frameworks de aprendizaje profundo es la unidad mínima de progreso y se registra como `step` o `global_step`.",
zh = "优化器的一次应用,使用从(可能累积的)批量中计算得到的梯度更新模型参数;在深度学习框架中是训练进度的最小单位,通常以 `step` 或 `global_step` 记录。",
article = nil,
}
data["training-free nas"] = {
short = "A family of neural architecture search methods that rank candidate architectures using zero-cost proxies (gradient norms, jacobian covariance, NTK condition number) without ever training them, enabling search in seconds rather than GPU-days.",
es = "Familia de métodos de búsqueda de arquitecturas neuronales que clasifica candidatos mediante proxies de costo cero (normas de gradiente, covarianza jacobiana, número de condición del NTK) sin entrenarlos, permitiendo búsquedas en segundos en lugar de días-GPU.",
zh = "一类神经架构搜索方法,通过零成本代理指标(梯度范数、雅可比协方差、NTK条件数)对候选架构进行排序而无需训练,可在数秒而非数日内完成搜索。",
article = nil,
}
data["trajectory diffusion"] = {
short = "The use of diffusion generative models to synthesize robot trajectories — sequences of states or actions — by iteratively denoising a noise sample conditioned on observations or a goal; the basis of methods such as Diffuser and Diffusion Policy.",
es = "Uso de modelos generativos por difusión para sintetizar trayectorias robóticas —secuencias de estados o acciones— mediante el desruidado iterativo de una muestra de ruido condicionada a observaciones o a un objetivo; base de métodos como Diffuser y Diffusion Policy.",
zh = "利用扩散生成模型来生成机器人轨迹(状态或动作序列):从噪声样本出发,依据观测或目标进行条件化的迭代去噪,这是 Diffuser 与 Diffusion Policy 等方法的基础。",
article = nil,
}
data["trajectory inference"] = {
short = "A class of computational methods that reconstruct dynamic cellular processes (e.g., differentiation) from single-cell snapshots by ordering cells along inferred lineages and assigning pseudotime values.",
es = "Conjunto de métodos computacionales que reconstruyen procesos celulares dinámicos a partir de datos de célula única, ordenando las células a lo largo de linajes inferidos y asignando un pseudotiempo.",
zh = "一类从单细胞快照数据中重构动态细胞过程(如分化)的计算方法,通过沿推断的谱系对细胞排序并赋予伪时间值。",
article = nil,
}
data["trajectory optimization"] = {
short = "A class of motion-planning and control methods that compute a robot trajectory by solving a numerical optimization problem over states and controls subject to dynamics, collision and limit constraints; classical solvers include CHOMP, STOMP, TrajOpt, iLQR and DDP.",
es = "Clase de métodos de planificación de movimientos y control que calculan una trayectoria robótica resolviendo un problema de optimización numérica sobre estados y controles, sujeto a restricciones de dinámica, colisión y límites; entre los algoritmos clásicos se cuentan CHOMP, STOMP, TrajOpt, iLQR y DDP.",
zh = "一类运动规划与控制方法,通过在状态和控制变量上求解满足动力学、碰撞和限位约束的数值优化问题,得到机器人轨迹;CHOMP、STOMP、TrajOpt、iLQR 和 DDP 是其中的经典算法。",
article = nil,
}
data["trajectory prediction for robotics"] = {
short = "The task of forecasting the future trajectories of agents in a robot's environment — pedestrians, vehicles, other robots — over a short horizon, used by autonomous vehicles and social robots to plan safe and socially compliant motion.",
es = "Tarea de pronosticar las trayectorias futuras de los agentes en el entorno de un robot —peatones, vehículos, otros robots— en un horizonte corto, utilizada por vehículos autónomos y robots sociales para planificar movimientos seguros y socialmente aceptables.",
zh = "预测机器人环境中其他智能体(行人、车辆、其他机器人)在短时间内未来轨迹的任务,自动驾驶车辆和社交机器人据此规划既安全又符合社会规范的运动。",
article = nil,
}
data["trajectory transformer"] = {
short = "A model-based reinforcement-learning method (Janner et al., 2021) that frames RL as conditional sequence modeling: a transformer is trained to predict tokenized (state, action, reward) trajectories and decisions are taken via beam search over high-return continuations.",
es = "Método de aprendizaje por refuerzo basado en modelo (Janner et al., 2021) que plantea el RL como modelado de secuencias condicional: un transformador se entrena para predecir trayectorias tokenizadas de (estado, acción, recompensa) y las decisiones se toman mediante búsqueda en haz sobre las continuaciones de mayor retorno.",
zh = "Janner 等人(2021)提出的基于模型的强化学习方法,将 RL 视为条件序列建模:训练 Transformer 预测 token 化的(状态、动作、奖励)轨迹,并通过对高回报续段的束搜索来做决策。",
article = nil,
}
data["trajopt"] = {
short = "A motion-planning algorithm by Schulman et al. (2013) that formulates collision-free trajectory generation as sequential convex optimization with signed-distance penalties on continuous-time swept volumes; widely used in research as a fast local optimizer for manipulation and humanoid planning.",
es = "Algoritmo de planificación de movimientos de Schulman et al. (2013) que formula la generación de trayectorias libres de colisiones como una optimización convexa secuencial con penalizaciones de distancia con signo sobre volúmenes barridos en tiempo continuo; muy utilizado en investigación como optimizador local rápido para manipulación y planificación humanoide.",
zh = "Schulman 等人于 2013 年提出的运动规划算法,将无碰撞轨迹生成表述为连续凸优化问题,对连续时间扫描体使用有符号距离惩罚;在研究中被广泛用作面向操作与人形机器人规划的快速局部优化器。",
article = nil,
}
data["tranad"] = {
short = "A transformer-based unsupervised anomaly detection model for multivariate time series that combines an attention encoder with adversarial training and a two-phase reconstruction objective.",
es = "Modelo no supervisado de detección de anomalías para series temporales multivariadas basado en transformer, que combina un codificador de atención con entrenamiento adversarial y un objetivo de reconstrucción en dos fases.",
zh = "一种基于 Transformer 的无监督多变量时间序列异常检测模型,结合注意力编码器、对抗训练和两阶段重构目标。",
article = nil,
}
data["transa"] = {
short = "A knowledge-graph embedding model that uses an adaptive metric in the translation-based family, learning a Mahalanobis-style distance to score (head, relation, tail) triples more flexibly than TransE.",
es = "Modelo de incrustación de grafos de conocimiento de la familia traslacional que aprende una métrica adaptativa de tipo Mahalanobis para puntuar tripletas (cabeza, relación, cola) con más flexibilidad que TransE.",
zh = "一种基于平移的知识图谱嵌入模型,通过学习类似马氏距离的自适应度量,对 (头实体, 关系, 尾实体) 三元组进行比 TransE 更灵活的打分。",
article = nil,
}
data["transcription factor binding"] = {
short = "The sequence-specific interaction between a transcription factor protein and DNA, typically at short motifs in regulatory regions; predicted from PWMs or measured by ChIP-seq, ATAC-seq footprints, or related assays.",
es = "Interacción específica de secuencia entre un factor de transcripción y el ADN, habitualmente en motivos cortos de regiones reguladoras; se predice mediante PWM o se mide con ChIP-seq y huellas de ATAC-seq.",
zh = "转录因子蛋白与 DNA 之间的序列特异性相互作用,通常发生在调控区域的短基序处;可通过位置权重矩阵预测,或通过 ChIP-seq、ATAC-seq 足迹等实验测定。",
article = nil,
}
data["transcriptome assembly"] = {
short = "Reconstruction of full-length transcript sequences from RNA-seq reads, performed either de novo (without a reference) or genome-guided; canonical tools include Trinity, StringTie, and Cufflinks.",
es = "Reconstrucción de secuencias completas de transcritos a partir de lecturas de RNA-seq, ya sea de novo o guiada por un genoma de referencia; herramientas habituales son Trinity, StringTie y Cufflinks.",
zh = "从 RNA-seq 读段重构全长转录本序列,可在无参考(de novo)或基因组引导下进行;常用工具包括 Trinity、StringTie 和 Cufflinks。",
article = nil,
}
data["transd"] = {
short = "A knowledge-graph embedding model that constructs entity-and-relation-specific projection matrices on the fly from two vectors per entity and relation, scoring triples in dynamic relation-specific spaces.",
es = "Modelo de incrustación de grafos de conocimiento que construye matrices de proyección específicas de cada par entidad-relación a partir de dos vectores por entidad y relación, puntuando tripletas en espacios dinámicos por relación.",
zh = "一种知识图谱嵌入模型,利用每个实体和关系的两个向量动态构造实体-关系特定的投影矩阵,在每种关系自有的空间中对三元组进行打分。",
article = nil,
}
data["transdreamer"] = {
short = "A transformer-based variant of the Dreamer world-model agent (Chen et al., 2022) that replaces the recurrent state-space model with a transformer over latent states, improving long-horizon prediction and policy learning in image-based control.",
es = "Variante basada en transformer del agente de modelo del mundo Dreamer (Chen et al., 2022) que reemplaza el modelo recurrente de espacio de estados por un transformer sobre estados latentes, lo que mejora la predicción a largo plazo y el aprendizaje de políticas en control basado en imágenes.",
zh = "Dreamer 世界模型智能体的 Transformer 变体(Chen 等人,2022),用作用于潜在状态的 Transformer 取代原有的循环状态空间模型,从而提升长时序预测和基于图像控制的策略学习能力。",
article = nil,
}
data["transductive conformal prediction"] = {
short = "A conformal prediction variant that recomputes nonconformity scores by re-fitting (or refreshing) the model with each candidate test point included, producing tighter prediction sets at much higher computational cost than split conformal.",
es = "Variante de predicción conforme que recalcula los puntajes de no-conformidad reajustando (o refrescando) el modelo incluyendo cada punto de prueba candidato, produciendo conjuntos de predicción más estrechos a un costo computacional mucho mayor que la versión por partición.",
zh = "一种共形预测变体:每次将候选测试点纳入后重新拟合(或更新)模型并重新计算非一致性得分,与分裂式共形相比可得到更紧的预测集,但计算开销显著更高。",
article = nil,
}
data["transductive few-shot"] = {
short = "A few-shot learning setting in which the model has simultaneous access to all unlabeled query examples at inference time, allowing it to exploit the joint structure of the query set rather than classifying each query in isolation.",
es = "Configuración de aprendizaje con pocos ejemplos en la que el modelo dispone simultáneamente de todas las consultas no etiquetadas durante la inferencia, lo que permite explotar la estructura conjunta del conjunto de consulta en lugar de clasificar cada una por separado.",
zh = "一种小样本学习设定,模型在推理时可同时访问所有无标签查询样本,从而利用整个查询集的联合结构,而非孤立地对每个样本分类。",
article = nil,
}
data["transe"] = {
short = "A foundational knowledge-graph embedding model that represents relations as translations in a continuous vector space, scoring a triple (h, r, t) by the proximity of h + r to t.",
es = "Modelo fundacional de incrustación de grafos de conocimiento que representa las relaciones como traslaciones en un espacio vectorial continuo, puntuando una tripleta (h, r, t) por la cercanía de h + r a t.",
zh = "一种奠基性的知识图谱嵌入模型,将关系建模为连续向量空间中的平移,通过 h + r 与 t 的接近程度为三元组 (h, r, t) 打分。",
article = nil,
}
data["transfer bayesian optimization"] = {
short = "Bayesian optimization that leverages observations from previously-optimized related tasks to accelerate the search on a new task, typically through multi-task Gaussian processes or meta-learned surrogate priors.",
es = "Optimización bayesiana que aprovecha observaciones de tareas previamente optimizadas para acelerar la búsqueda en una tarea nueva, típicamente mediante procesos gaussianos multitarea o priors sustitutos meta-aprendidos.",
zh = "一种贝叶斯优化方法,利用先前已优化相关任务的观测来加速新任务上的搜索,通常通过多任务高斯过程或元学习的代理先验实现。",
article = nil,
}
data["transfer entropy"] = {
short = "An information-theoretic measure that quantifies the directed flow of information from one time series to another, capturing how knowing past values of the source reduces uncertainty about the future of the target.",
es = "Medida informacional que cuantifica el flujo dirigido de información de una serie temporal a otra, capturando cuánto reduce la incertidumbre sobre el futuro del objetivo el conocimiento de los valores pasados de la fuente.",
zh = "一种信息论度量,用于量化一条时间序列向另一条时间序列的有向信息流,反映源序列的过去值在多大程度上降低了对目标序列未来的不确定性。",
article = nil,
}
data["transfer function model"] = {
short = "A dynamic regression model in which the output time series is a linear combination of lagged values of one or more input series plus an ARIMA noise term, generalizing distributed-lag and ARIMAX models.",
es = "Modelo de regresión dinámica en el que la serie temporal de salida es una combinación lineal de valores rezagados de una o más series de entrada más un término de ruido ARIMA, generalizando los modelos de retardos distribuidos y ARIMAX.",
zh = "一类动态回归模型,输出时间序列由一个或多个输入序列的滞后值的线性组合加上 ARIMA 噪声项构成,是分布滞后模型和 ARIMAX 模型的推广。",
article = nil,
}
data["transfer hpo"] = {
short = "Hyperparameter optimization that initializes or biases the search on a target task using results from previously-tuned source tasks, reducing the number of evaluations needed to find a strong configuration.",
es = "Optimización de hiperparámetros que inicializa o sesga la búsqueda en una tarea objetivo usando resultados de tareas fuente previamente ajustadas, reduciendo el número de evaluaciones necesarias para encontrar una buena configuración.",
zh = "一种超参数优化方法,利用先前已调优源任务的结果来初始化或引导目标任务上的搜索,从而减少寻找良好配置所需的评估次数。",
article = nil,
}
data["transfer learning"] = {
short = "A machine-learning paradigm in which knowledge gained by training a model on one task or domain is reused—via initialization, feature extraction, or fine-tuning—to improve learning on a related target task with less data.",
es = "Paradigma de aprendizaje automático en el que el conocimiento adquirido al entrenar un modelo en una tarea o dominio se reutiliza —mediante inicialización, extracción de características o ajuste fino— para mejorar el aprendizaje en una tarea objetivo relacionada con menos datos.",
zh = "一种机器学习范式,将模型在某一任务或领域训练所获得的知识,通过初始化、特征提取或微调等方式重用,以在数据较少的相关目标任务上获得更好的学习效果。",
article = "Transfer Learning",
}
data["transfer learning recommender"] = {
short = "A recommender that transfers knowledge — pretrained embeddings, models, or shared latent factors — from a source domain or task with abundant data to a target recommendation task suffering from sparsity or cold start.",
es = "Recomendador que transfiere conocimiento —incrustaciones preentrenadas, modelos o factores latentes compartidos— desde un dominio o tarea fuente con datos abundantes hacia una tarea de recomendación objetivo afectada por dispersión o arranque en frío.",
zh = "一种通过将预训练嵌入、模型或共享潜在因子等知识从数据丰富的源领域或任务迁移到稀疏或冷启动目标推荐任务的推荐器。",
article = "Transfer Learning",
}
data["transformer"] = {
short = "A neural network architecture based entirely on self-attention layers and feedforward blocks, without recurrence or convolution, introduced for sequence modeling and now standard in language and vision tasks.",
es = "Arquitectura de red neuronal basada por completo en capas de autoatención y bloques feedforward, sin recurrencia ni convolución, introducida para el modelado de secuencias y hoy estándar en tareas de lenguaje y visión.",
zh = "一种完全基于自注意力层与前馈模块的神经网络架构,不使用循环或卷积,最初用于序列建模,目前已成为语言与视觉任务的标准架构。",
article = "Transformer",
}
data["transformer circuits"] = {
short = "A research program that reverse-engineers small subgraphs (circuits) of attention heads and MLPs inside transformers to understand the algorithms they implement.",
es = "Programa de investigación que aplica ingeniería inversa a subgrafos pequeños (circuitos) de cabezas de atención y MLP dentro de transformers para entender los algoritmos que implementan.",
zh = "一项研究方向,对 transformer 内部由注意力头和 MLP 组成的小型子图(电路)进行逆向工程,以理解它们所实现的算法。",
article = nil,
}
data["transformer interpretability beyond attention"] = {
short = "An attribution technique by Chefer et al. that propagates relevance through all transformer components, not only attention weights, by combining LRP rules with attention rollout.",
es = "Técnica de atribución de Chefer et al. que propaga la relevancia a través de todos los componentes del transformer, no solo los pesos de atención, combinando reglas de LRP con attention rollout.",
zh = "Chefer 等人提出的归因技术,将相关性通过 transformer 的所有组件而不仅是注意力权重进行传播,结合 LRP 规则与注意力 rollout。",
article = nil,
}
data["transformer lens"] = {
short = "An open-source Python library for mechanistic interpretability of transformer language models that exposes activations, hooks, and patching utilities.",
es = "Biblioteca Python de código abierto para interpretabilidad mecanicista de modelos de lenguaje basados en transformers, que expone activaciones, hooks y utilidades de parcheo.",
zh = "用于 transformer 语言模型机制可解释性的开源 Python 库,提供激活、hook 与激活修补等工具。",
article = nil,
}
data["transformer nas"] = {
short = "Neural architecture search applied to Transformer models, jointly choosing depth, width, head count, FFN expansion, and attention variants under accuracy and latency constraints.",
es = "Búsqueda de arquitecturas neuronales aplicada a modelos Transformer, eligiendo conjuntamente profundidad, ancho, número de cabezas, expansión del FFN y variantes de atención bajo restricciones de precisión y latencia.",
zh = "针对Transformer模型的神经架构搜索,在精度和延迟约束下联合选择深度、宽度、注意力头数、FFN扩展比和注意力变体。",
article = nil,
}
data["transformer recommender"] = {
short = "A recommender system whose user-history or candidate-item modeling is built on the Transformer architecture, using multi-head self-attention over interaction sequences; representative models include SASRec, BERT4Rec, and Transformers4Rec.",
es = "Sistema de recomendación cuya modelización del historial del usuario o de los ítems candidatos se basa en la arquitectura Transformer, usando auto-atención multi-cabezal sobre secuencias de interacción; modelos representativos incluyen SASRec, BERT4Rec y Transformers4Rec.",
zh = "基于 Transformer 架构构建用户历史或候选物品建模的推荐系统,在交互序列上使用多头自注意力;代表模型包括 SASRec、BERT4Rec 和 Transformers4Rec。",
article = "Transformer",
}
data["transformer transducer"] = {
short = "End-to-end speech recognition architecture that replaces the recurrent encoder of an RNN-Transducer with a Transformer encoder, retaining the prediction network and joint network for streaming-capable, label-synchronous decoding.",
es = "Arquitectura de reconocimiento de voz de extremo a extremo que sustituye el codificador recurrente de un RNN-Transducer por un codificador Transformer, conservando la red de predicción y la red conjunta para decodificación etiqueta-sincrónica con capacidad de streaming.",
zh = "端到端语音识别架构,将 RNN-Transducer 中的循环编码器替换为 Transformer 编码器,保留预测网络和联合网络,以支持可流式、标签同步的解码。",
article = nil,
}
data["transformer tts"] = {
short = "Sequence-to-sequence text-to-speech model that uses Transformer self-attention in both encoder and decoder to predict mel-spectrograms from phoneme inputs, replacing the recurrent stack of Tacotron 2.",
es = "Modelo de síntesis de voz secuencia a secuencia que usa autoatención de Transformer en codificador y decodificador para predecir espectrogramas mel a partir de fonemas, sustituyendo la pila recurrente de Tacotron 2.",
zh = "序列到序列的文本转语音模型,在编码器和解码器中都使用 Transformer 自注意力,从音素预测梅尔谱图,替代 Tacotron 2 的循环结构。",
article = nil,
}
data["transformer world model"] = {
short = "A world model implemented as a transformer that autoregressively predicts future observations, rewards, and termination signals from past tokenized trajectory context, used as the simulator inside model-based RL agents such as TWM and IRIS.",
es = "Modelo del mundo implementado como un transformador que predice de forma autorregresiva observaciones, recompensas y señales de terminación futuras a partir de un contexto pasado de trayectorias tokenizadas, usado como simulador en agentes RL basados en modelo como TWM e IRIS.",
zh = "以 Transformer 实现的世界模型:基于过去的 token 化轨迹上下文,自回归地预测未来观测、奖励和终止信号,常作为 TWM、IRIS 等基于模型的 RL 智能体内部的模拟器。",
article = nil,
}
data["transformer-xl rl"] = {
short = "Use of the Transformer-XL architecture—segment-level recurrence with a relative-positional cached memory—as the policy or value backbone in reinforcement-learning agents that require very long context, popularized by GTrXL (Parisotto et al., 2020).",
es = "Uso de la arquitectura Transformer-XL —recurrencia a nivel de segmento con memoria caché y posiciones relativas— como columna de política o valor en agentes de aprendizaje por refuerzo que necesitan contexto muy largo, popularizado por GTrXL (Parisotto et al., 2020).",
zh = "在需要超长上下文的强化学习智能体中,将 Transformer-XL 架构(具有段级循环和相对位置缓存记忆)作为策略或价值主干网络的做法,由 GTrXL(Parisotto 等,2020)推广。",
article = nil,
}
data["transformers4rec"] = {
short = "Transformers4Rec is an open-source NVIDIA Merlin library that adapts Hugging Face Transformer architectures to sequential and session-based recommendation, providing PyTorch and TensorFlow training pipelines and integration with NVTabular for feature processing.",
es = "Transformers4Rec es una biblioteca de código abierto de NVIDIA Merlin que adapta arquitecturas Transformer de Hugging Face a la recomendación secuencial y basada en sesiones, ofreciendo flujos de entrenamiento en PyTorch y TensorFlow e integración con NVTabular para el procesamiento de características.",
zh = "Transformers4Rec 是 NVIDIA Merlin 的开源库,将 Hugging Face 的 Transformer 架构适配到序列与会话推荐任务,提供 PyTorch 和 TensorFlow 训练流水线,并与 NVTabular 集成以进行特征处理。",
article = nil,
}
data["transfusion"] = {
short = "A multimodal training recipe (Meta, 2024) that trains a single transformer end-to-end with next-token prediction over text tokens and a diffusion objective over image patches, unifying language modeling and image generation in one model.",
es = "Receta de entrenamiento multimodal (Meta, 2024) que entrena un único transformer de extremo a extremo con predicción del siguiente token sobre texto y un objetivo de difusión sobre parches de imagen, unificando el modelado de lenguaje y la generación de imágenes en un mismo modelo.",
zh = "一种多模态训练方案(Meta,2024),在单个 Transformer 上端到端地对文本 token 使用下一 token 预测、对图像 patch 使用扩散目标进行训练,将语言建模与图像生成统一在一个模型中。",
article = nil,
}
data["transh"] = {
short = "A knowledge-graph embedding model that projects entities onto a relation-specific hyperplane before applying a translation, alleviating TransE's difficulty with one-to-many and many-to-one relations.",
es = "Modelo de incrustación de grafos de conocimiento que proyecta las entidades sobre un hiperplano específico de cada relación antes de aplicar la traslación, mitigando la dificultad de TransE con relaciones uno-a-muchos y muchos-a-uno.",
zh = "一种知识图谱嵌入模型,在执行平移之前将实体投影到关系特定的超平面上,从而缓解 TransE 在处理一对多和多对一关系时的困难。",
article = nil,
}
data["transition feature"] = {
short = "A feature in a sequence model such as a CRF or HMM that depends on a pair of adjacent labels, capturing first-order dependencies between successive states in the output sequence.",
es = "Característica en un modelo de secuencia, como un CRF o HMM, que depende de un par de etiquetas adyacentes y captura dependencias de primer orden entre estados sucesivos en la secuencia de salida.",
zh = "序列模型(如 CRF 或 HMM)中依赖于相邻标签对的特征,用于刻画输出序列中相邻状态之间的一阶依赖。",
article = nil,
}
data["transition kernel"] = {
short = "The conditional probability distribution P(s' | s, a) that defines the dynamics of a Markov decision process by specifying, for each state-action pair, the distribution over next states.",
es = "Distribución de probabilidad condicional P(s' | s, a) que define la dinámica de un proceso de decisión de Markov al especificar, para cada par estado-acción, la distribución sobre los estados siguientes.",
zh = "条件概率分布 P(s' | s, a),对每个状态-动作对给出下一状态的分布,从而定义马尔可夫决策过程的动力学。",
article = nil,
}
data["transition matrix"] = {
short = "A square matrix whose entries give the probabilities of moving between states of a Markov chain in one step; rows sum to one for stochastic matrices.",
es = "Matriz cuadrada cuyas entradas indican las probabilidades de moverse entre estados de una cadena de Markov en un paso; las filas suman uno para matrices estocásticas.",
zh = "方阵,其元素给出马尔可夫链一步内在状态之间转移的概率;随机矩阵的每行之和为一。",
article = nil,
}
data["transition probability"] = {
short = "The probability P(s' | s, a) that taking action a in state s leads to next state s'; together with the reward function it specifies the dynamics of a Markov decision process.",
es = "Probabilidad P(s' | s, a) de que al tomar la acción a en el estado s se transite al estado siguiente s'; junto con la función de recompensa especifica la dinámica de un proceso de decisión de Markov.",
zh = "在状态 s 下采取动作 a 后转移到下一状态 s' 的概率 P(s' | s, a);与奖励函数一起共同定义马尔可夫决策过程的动力学。",
article = nil,
}
data["transition state"] = {
short = "A short-lived high-energy configuration along a reaction coordinate corresponding to the saddle point on the potential energy surface separating reactants from products.",
es = "Configuración de alta energía y vida corta a lo largo de una coordenada de reacción que corresponde al punto de silla en la superficie de energía potencial que separa los reactivos de los productos.",
zh = "反应坐标上短暂存在的高能构型,对应于势能面上分隔反应物和产物的鞍点。",
article = nil,
}
data["transmembrane prediction"] = {
short = "Computational identification of membrane-spanning regions in protein sequences, distinguishing transmembrane helices or beta-barrels from soluble regions; classical tools include TMHMM, Phobius, and DeepTMHMM.",
es = "Identificación computacional de regiones que atraviesan la membrana en secuencias proteicas, distinguiendo hélices transmembrana o barriles beta de regiones solubles; herramientas clásicas incluyen TMHMM, Phobius y DeepTMHMM.",
zh = "在蛋白质序列中通过计算方法识别跨膜区域,将跨膜螺旋或 β 桶与可溶性区域区分开;经典工具包括 TMHMM、Phobius 和 DeepTMHMM。",
article = nil,
}
data["transnas-bench"] = {
short = "A neural architecture search benchmark that evaluates a fixed search space across multiple vision tasks (classification, segmentation, room layout, jigsaw, autoencoding, normal prediction), enabling study of architecture transfer between tasks.",
es = "Banco de pruebas de búsqueda de arquitecturas neuronales que evalúa un espacio de búsqueda fijo en múltiples tareas de visión (clasificación, segmentación, distribución de habitaciones, rompecabezas, autocodificación, predicción de normales), permitiendo estudiar la transferencia de arquitecturas entre tareas.",
zh = "一个神经架构搜索基准,在多个视觉任务(分类、分割、房间布局、拼图、自编码、法向量预测)上评估同一搜索空间,便于研究架构在不同任务间的迁移性。",
article = nil,
}
data["transparency by design"] = {
short = "A modeling philosophy that builds interpretability directly into the architecture so that explanations are produced as part of the prediction, rather than reconstructed post hoc.",
es = "Filosofía de modelado que integra la interpretabilidad directamente en la arquitectura, de modo que las explicaciones se generan junto con la predicción y no de forma post hoc.",
zh = "一种建模理念,将可解释性直接内置于模型结构中,使解释作为预测的一部分产生,而非事后重建。",
article = nil,
}
data["transparency report"] = {
short = "A public document in which an organization discloses information about an AI system's data sources, training procedure, evaluation results, known limitations, and policy decisions.",
es = "Documento público en el que una organización divulga información sobre las fuentes de datos, el procedimiento de entrenamiento, los resultados de evaluación, las limitaciones conocidas y las decisiones de política de un sistema de IA.",
zh = "组织公开发布的文件,披露人工智能系统的数据来源、训练流程、评估结果、已知局限性以及政策决策等信息。",
article = nil,
}
data["transportability"] = {
short = "The formal property that a causal effect identified in one study population can be validly transferred to a different target population, given assumptions about which mechanisms and distributions are shared. Encoded graphically using selection diagrams.",
es = "Propiedad formal según la cual un efecto causal identificado en una población de estudio puede transferirse válidamente a una población objetivo distinta, bajo supuestos sobre qué mecanismos y distribuciones se comparten. Se representa gráficamente mediante diagramas de selección.",
zh = "一种形式化性质,指在某一研究总体中识别出的因果效应,在关于哪些机制和分布可共享的假设下,能够有效迁移到不同的目标总体。可用选择图加以图形化表达。",
article = nil,
}
data["transporter networks"] = {
short = "A model architecture for tabletop manipulation (Zeng et al., 2020) that learns pick-and-place by computing a spatial-equivariant cross-correlation between a cropped pick patch and the full scene, predicting where to transport it; sample-efficient enough to learn many tasks from a handful of demonstrations.",
es = "Arquitectura para manipulación sobre mesa (Zeng et al., 2020) que aprende pick-and-place calculando una correlación cruzada equivariante espacial entre un parche recortado del objeto a tomar y la escena completa, prediciendo dónde transportarlo; lo suficientemente eficiente en muestras como para aprender muchas tareas a partir de un puñado de demostraciones.",
zh = "面向桌面操作的模型架构(Zeng 等人,2020),通过在抓取位置裁剪的图像块与整张场景之间计算空间等变的互相关,从而学习抓取-放置任务并预测物体应放置的位置;样本效率高,能够从少量演示中学习多种任务。",
article = nil,
}
data["transpose"] = {
short = "An operation on a matrix that swaps its rows and columns, mapping an m×n matrix A to an n×m matrix Aᵀ where (Aᵀ)_{ij} = A_{ji}. Equivalent to reflecting the matrix across its main diagonal.",
es = "Operación sobre una matriz que intercambia sus filas y columnas, mapeando una matriz A de tamaño m×n a una matriz Aᵀ de tamaño n×m donde (Aᵀ)_{ij} = A_{ji}. Equivale a reflejar la matriz a lo largo de su diagonal principal.",
zh = "对矩阵执行的运算,将其行和列互换,把 m×n 矩阵 A 映射为 n×m 矩阵 Aᵀ,其中 (Aᵀ)_{ij} = A_{ji}。等价于沿主对角线对矩阵进行反射。",
article = nil,
}
data["transposed convolution"] = {
short = "A learnable upsampling operation that maps a lower-resolution feature map to a higher-resolution one by inserting zeros and applying a convolution. Often (loosely) called deconvolution; widely used in segmentation and generative decoders.",
es = "Operación de aumento de resolución aprendible que transforma un mapa de características de baja resolución en uno de mayor resolución insertando ceros y aplicando una convolución. Se la llama (de forma laxa) deconvolución y se usa habitualmente en segmentación y decodificadores generativos.",
zh = "一种可学习的上采样操作,通过插入零并施加卷积,将低分辨率特征图映射到高分辨率特征图。常被(不严格地)称为反卷积,广泛用于分割和生成式解码器。",
article = nil,
}
data["transr"] = {
short = "A knowledge-graph embedding model that maintains separate entity and relation spaces, projecting entities into each relation's space via a learned matrix before performing a translation.",
es = "Modelo de incrustación de grafos de conocimiento que mantiene espacios distintos para entidades y relaciones, proyectando las entidades en el espacio de cada relación mediante una matriz aprendida antes de aplicar una traslación.",
zh = "一种知识图谱嵌入模型,为实体和关系维护各自独立的空间,通过学习得到的矩阵将实体投影到对应关系的空间中再执行平移。",
article = nil,
}
data["transrec"] = {
short = "TransRec (He et al., 2017) is a sequential recommender that embeds users as translation vectors in item space, predicting the next item as the nearest neighbor of the previously consumed item plus the user's translation vector.",
es = "TransRec (He et al., 2017) es un recomendador secuencial que representa a cada usuario como un vector de traslación en el espacio de ítems, prediciendo el siguiente ítem como el vecino más cercano al ítem anterior desplazado por el vector de traslación del usuario.",
zh = "TransRec(He 等,2017)是一种序列推荐方法,将每个用户表示为物品空间中的平移向量,通过将上一物品向量加上用户平移向量后取最近邻来预测下一个物品。",
article = nil,
}
data["trapezoidal rule"] = {
short = "A numerical integration method that approximates the definite integral of a function by summing the areas of trapezoids formed under the curve over subintervals.",
es = "Método de integración numérica que aproxima la integral definida de una función sumando las áreas de trapecios formados bajo la curva en subintervalos.",
zh = "通过对曲线下子区间所形成的梯形面积求和来近似函数定积分的数值积分方法。",
article = nil,
}
data["treatment assignment mechanism"] = {
short = "The conditional probability distribution that determines how units are assigned to treatments given covariates and possibly potential outcomes. Knowing or modeling it correctly is central to causal identification under unconfoundedness.",
es = "Distribución de probabilidad condicional que determina cómo se asignan las unidades a los tratamientos dadas las covariables y, en su caso, los resultados potenciales. Conocerlo o modelarlo correctamente es central para la identificación causal bajo no confusión.",
zh = "给定协变量(必要时还包括潜在结果)后,决定单元如何被分配到各处理的条件概率分布。在无混杂假设下进行因果识别时,对其建模或了解尤为关键。",
article = nil,
}
data["treatment effect heterogeneity"] = {
short = "The variation in causal treatment effects across subpopulations defined by observed or unobserved characteristics. Quantifying it is the goal of methods such as causal forests, meta-learners, and conditional average treatment effect estimation.",
es = "Variación de los efectos causales del tratamiento a través de subpoblaciones definidas por características observadas o no observadas. Cuantificarla es el objetivo de métodos como los bosques causales, los metamodelos y la estimación de efectos condicionales promedio del tratamiento.",
zh = "因果处理效应在由可观测或不可观测特征定义的子总体之间的变异。量化这种异质性是因果森林、元学习器和条件平均处理效应估计等方法的目标。",
article = nil,
}
data["treatment equality"] = {
short = "A group fairness criterion requiring that the ratio of false negatives to false positives be equal across protected groups.",
es = "Criterio de equidad grupal que exige que la razón entre falsos negativos y falsos positivos sea igual entre los grupos protegidos.",
zh = "一种群体公平性准则,要求各受保护群体的假负例与假正例之比相等。",
article = nil,
}
data["tree backup"] = {
short = "An off-policy n-step temporal-difference algorithm (Precup et al., 2000) that estimates returns by recursively backing up an expectation over actions weighted by the target policy, avoiding importance-sampling ratios entirely.",
es = "Algoritmo TD de n pasos fuera de política (Precup et al., 2000) que estima retornos retropropagando recursivamente una esperanza sobre acciones ponderada por la política objetivo, evitando por completo los cocientes de muestreo por importancia.",
zh = "一种离策略 n 步时序差分算法(Precup 等,2000):通过对目标策略下动作的期望进行递归回溯来估计回报,从而完全避免使用重要性采样比率。",
article = nil,
}
data["tree decomposition"] = {
short = "A representation of an undirected graph as a tree of bags—subsets of vertices—satisfying coverage, edge, and running-intersection properties; the basis for the junction tree algorithm and the definition of treewidth.",
es = "Representación de un grafo no dirigido como un árbol de bolsas —subconjuntos de vértices— que satisfacen las propiedades de cobertura, de aristas y de intersección continua; base del algoritmo del árbol de uniones y de la definición de ancho de árbol.",
zh = "将无向图表示为以顶点子集(袋)为节点的树,满足覆盖性、边覆盖性和连通交性条件;它是连接树算法和树宽定义的基础。",
article = nil,
}
data["tree mixture model"] = {
short = "A latent-variable model in which the joint distribution is a mixture of tree-structured graphical models, allowing flexible dependency structure while retaining tractable component-wise inference.",
es = "Modelo con variable latente en el que la distribución conjunta es una mezcla de modelos gráficos con estructura de árbol, lo que permite una estructura de dependencia flexible conservando una inferencia tratable por componente.",
zh = "一类潜变量模型,其联合分布为树结构图模型的混合,既允许灵活的依赖结构,又保持各分量上的可解推理。",
article = nil,
}
data["tree of thoughts"] = {
short = "A prompting framework in which a language model explores multiple reasoning paths organized as a tree, evaluating intermediate states and using search (e.g. BFS or DFS) to choose promising branches. Generalizes chain-of-thought to deliberate problem solving.",
es = "Marco de prompting en el que un modelo de lenguaje explora múltiples caminos de razonamiento organizados como un árbol, evaluando estados intermedios y usando búsqueda (BFS o DFS) para escoger ramas prometedoras. Generaliza la cadena de pensamiento al razonamiento deliberado.",
zh = "一种提示框架,让语言模型沿树状结构探索多条推理路径,对中间状态进行评估,并通过搜索(如 BFS 或 DFS)选择有潜力的分支。它将思维链推广到更具审议性的问题求解。",
article = nil,
}
data["tree shap"] = {
short = "An exact, polynomial-time algorithm for computing Shapley value attributions specialized for tree-based models such as decision trees, random forests, and gradient-boosted trees.",
es = "Algoritmo exacto y de tiempo polinómico para calcular atribuciones por valores de Shapley especializado en modelos basados en árboles, como árboles de decisión, random forests y boosting de gradiente.",
zh = "一种精确且多项式时间复杂度的算法,专门为决策树、随机森林和梯度提升树等基于树的模型计算 Shapley 值归因。",
article = nil,
}
data["tree-allreduce"] = {
short = "A collective communication algorithm for AllReduce in which workers are organized into a tree topology, performing reduce operations bottom-up and broadcast top-down, achieving logarithmic latency at the cost of bandwidth-suboptimality.",
es = "Algoritmo de comunicación colectiva para AllReduce en el que los trabajadores se organizan en una topología de árbol, realizando operaciones de reducción de abajo hacia arriba y difusión de arriba hacia abajo, lo que consigue latencia logarítmica a costa de ser subóptimo en ancho de banda.",
zh = "一种用于AllReduce的集合通信算法,将工作节点组织成树形拓扑,自底向上执行归约、自顶向下进行广播,以带宽次优为代价获得对数级延迟。",
article = nil,
}
data["tree-augmented naive bayes"] = {
short = "A Bayesian network classifier that extends naive Bayes by allowing each non-class attribute to have at most one additional parent attribute, with the parent edges forming a tree learned by maximizing conditional mutual information.",
es = "Clasificador de red bayesiana que extiende el Bayes ingenuo permitiendo que cada atributo no clase tenga como máximo un atributo padre adicional, donde las aristas entre padres forman un árbol aprendido maximizando la información mutua condicional.",
zh = "一种贝叶斯网络分类器,在朴素贝叶斯基础上允许每个非类属性最多再有一个父属性,父属性之间的边构成通过最大化条件互信息学习得到的树。",
article = nil,
}
data["tree-based explanation"] = {
short = "An explanation derived from a tree-structured model, typically as a decision path, set of rules, or per-feature contribution from decision trees or tree ensembles.",
es = "Explicación derivada de un modelo con estructura de árbol, normalmente como un camino de decisión, un conjunto de reglas o contribuciones por característica obtenidas de árboles o ensambles de árboles.",
zh = "由树结构模型得出的解释,通常表现为决策路径、规则集合或来自决策树及其集成模型的逐特征贡献。",
article = nil,
}
data["tree-lstm"] = {
short = "A generalization of the LSTM in which the hidden state of a node is composed from the hidden states of its children in a tree, used to encode syntactic or constituency structures.",
es = "Generalización de la LSTM en la que el estado oculto de un nodo se construye a partir de los estados ocultos de sus hijos en un árbol, usada para codificar estructuras sintácticas o de constituyentes.",
zh = "一种 LSTM 的推广,节点的隐藏状态由其在树结构中各子节点的隐藏状态组合而成,用于编码句法或成分结构。",
article = nil,
}
data["tree-reweighted belief propagation"] = {
short = "A convex variant of loopy belief propagation that reweights messages according to edge appearance probabilities in a distribution over spanning trees, yielding an upper bound on the log-partition function.",
es = "Variante convexa de la propagación de creencias con bucles que repondera los mensajes según las probabilidades de aparición de aristas en una distribución sobre árboles de expansión, proporcionando una cota superior de la log-función de partición.",
zh = "环路信念传播的凸变体,根据生成树分布中各边的出现概率对消息重新加权,给出对数配分函数的上界。",
article = nil,
}
data["tree-structured crf"] = {
short = "A conditional random field whose underlying graph is a tree, allowing exact computation of marginal and most-likely label assignments via the sum-product and max-product algorithms in linear time.",
es = "Campo aleatorio condicional cuyo grafo subyacente es un árbol, lo que permite calcular de forma exacta las marginales y la asignación de etiquetas más probable mediante los algoritmos suma-producto y max-producto en tiempo lineal.",
zh = "底层图为树的条件随机场,可通过和积与最大积算法在线性时间内精确计算边缘分布和最可能的标签序列。",
article = nil,
}
data["tree-structured parzen estimator"] = {
short = "A sequential model-based hyperparameter optimization algorithm that models p(x|y) with two density estimators — one over good and one over bad observations — and selects the next configuration by maximizing the ratio. Implemented in Hyperopt and Optuna.",
es = "Algoritmo secuencial de optimización de hiperparámetros basado en modelos que representa p(x|y) con dos estimadores de densidad — uno sobre observaciones buenas y otro sobre malas — y selecciona la siguiente configuración maximizando la razón. Implementado en Hyperopt y Optuna.",
zh = "一种基于序贯模型的超参数优化算法,使用两个密度估计器分别建模优配置和劣配置上的p(x|y),通过最大化两者比值选择下一个配置。Hyperopt和Optuna中均有实现。",
article = nil,
}
data["treeinterpreter"] = {
short = "A Python library that decomposes a tree-ensemble prediction into a bias term plus per-feature contributions by walking each decision path.",
es = "Biblioteca de Python que descompone la predicción de un ensamble de árboles en un término de sesgo más contribuciones por característica recorriendo cada camino de decisión.",
zh = "一个 Python 库,通过遍历每条决策路径,将树集成模型的预测分解为偏置项加上各特征的贡献。",
article = nil,
}
data["treewidth"] = {
short = "An integer graph parameter measuring how close a graph is to being a tree, defined as one less than the minimum bag size over all tree decompositions; it controls the complexity of exact inference in graphical models.",
es = "Parámetro entero de un grafo que mide cuán cercano es a ser un árbol, definido como uno menos el tamaño mínimo de bolsa sobre todas las descomposiciones en árbol; controla la complejidad de la inferencia exacta en modelos gráficos.",
zh = "衡量图与树相近程度的整数图参数,定义为所有树分解中最小袋大小减一;它决定了图模型中精确推理的复杂度。",
article = nil,
}
data["trend"] = {
short = "The long-term, smooth direction of change in a time series, abstracted away from seasonality and short-term noise, often modeled as a deterministic function of time or a slowly varying stochastic process.",
es = "Dirección de cambio suave y de largo plazo de una serie temporal, abstraída de la estacionalidad y el ruido a corto plazo, modelada a menudo como una función determinista del tiempo o un proceso estocástico de variación lenta.",
zh = "时间序列在长期内的平滑变化方向,剥离季节性和短期噪声后得到,通常被建模为时间的确定性函数或缓慢变化的随机过程。",
article = nil,
}
data["trend stationarity"] = {
short = "A property of a time series whose statistical moments are constant after removing a deterministic trend, distinguishing trend-stationary processes from difference-stationary (unit-root) ones.",
es = "Propiedad de una serie temporal cuyos momentos estadísticos son constantes tras eliminar una tendencia determinista, lo que distingue los procesos estacionarios en tendencia de los estacionarios en diferencia (con raíz unitaria).",
zh = "时间序列在剔除确定性趋势后统计矩保持恒定的性质,用以区分趋势平稳过程与差分平稳(含单位根)过程。",
article = nil,
}
data["trend-cycle decomposition"] = {
short = "Splitting a time series into a smooth trend-cycle component capturing long-run movement and an irregular component, typically via filters such as Hodrick-Prescott, Baxter-King, or Henderson moving averages.",
es = "Descomposición de una serie temporal en un componente suave de tendencia-ciclo que captura el movimiento de largo plazo y un componente irregular, típicamente mediante filtros como el de Hodrick-Prescott, Baxter-King o medias móviles de Henderson.",
zh = "将时间序列分解为反映长期变动的平滑趋势-循环分量和不规则分量,通常借助 Hodrick-Prescott、Baxter-King 或 Henderson 移动平均等滤波器实现。",
article = nil,
}
data["triangle inequality"] = {
short = "The fundamental inequality stating that for any norm or metric, the length of one side is at most the sum of the other two: ||x + y|| <= ||x|| + ||y||.",
es = "Desigualdad fundamental que afirma que para cualquier norma o métrica, la longitud de un lado es como mucho la suma de los otros dos: ||x + y|| <= ||x|| + ||y||.",
zh = "基本不等式,表明对任意范数或度量,任一边的长度不超过其他两边之和:||x + y|| <= ||x|| + ||y||。",
article = nil,
}
data["triangulated graph"] = {
short = "An undirected graph in which every cycle of length four or more contains a chord; equivalently, a chordal graph, required by the junction tree algorithm to ensure the running-intersection property.",
es = "Grafo no dirigido en el que todo ciclo de longitud cuatro o mayor contiene una cuerda; equivalentemente, un grafo cordal, requerido por el algoritmo del árbol de uniones para garantizar la propiedad de intersección continua.",
zh = "无向图,其中长度大于等于 4 的所有环都包含弦;等价于弦图,连接树算法要求该性质以保证连通交性。",
article = nil,
}
data["triformer"] = {
short = "A long-horizon multivariate time-series forecasting model that uses a triangular, variable-specific stack of patch-attention layers to lower complexity from quadratic to linear in sequence length.",
es = "Modelo de pronóstico multivariado de series temporales de horizonte largo que utiliza una pila triangular de capas de atención por parches específica para cada variable, reduciendo la complejidad de cuadrática a lineal en la longitud de secuencia.",
zh = "一种用于长时段多变量时间序列预测的模型,采用按变量分别堆叠的三角形分块注意力结构,将复杂度由序列长度的平方降低到线性。",
article = nil,
}
data["triggered attention"] = {
short = "Streaming attention mechanism for end-to-end ASR that triggers decoder attention only after a CTC spike, restricting the attention window to past encoder frames and enabling low-latency decoding.",
es = "Mecanismo de atención en streaming para ASR de extremo a extremo que activa la atención del decodificador únicamente tras un pico de CTC, restringiendo la ventana de atención a tramas pasadas del codificador y permitiendo decodificación de baja latencia.",
zh = "用于端到端语音识别的流式注意力机制,仅在 CTC 出现尖峰后触发解码器注意力,将注意力窗口限制在过去的编码器帧,从而实现低延迟解码。",
article = nil,
}
data["trimmed mean aggregation"] = {
short = "A Byzantine-robust aggregation rule that, for each coordinate, sorts the reported values from all workers, discards a fixed fraction of the largest and smallest entries, and averages the remainder to limit the influence of outliers.",
es = "Regla de agregación robusta a comportamientos bizantinos que, para cada coordenada, ordena los valores reportados por todos los trabajadores, descarta una fracción fija de los más grandes y los más pequeños y promedia el resto para limitar la influencia de valores atípicos.",
zh = "一种拜占庭鲁棒聚合规则,对每个坐标分量,先对所有工作节点报告的数值排序,丢弃固定比例的最大和最小值,再对其余值取平均,以限制离群值的影响。",
article = nil,
}
data["trimming"] = {
short = "A preprocessing step in observational causal inference that discards units with extreme propensity scores (close to 0 or 1) to improve overlap and stabilize weighted estimators. Common thresholds include 0.05 or 0.1 on each side.",
es = "Paso de preprocesamiento en inferencia causal observacional que descarta unidades con scores de propensión extremos (cercanos a 0 o 1) para mejorar el solapamiento y estabilizar los estimadores ponderados. Umbrales comunes son 0.05 o 0.1 en cada lado.",
zh = "在观测性因果推断中将倾向得分极端(接近 0 或 1)的单元剔除的预处理步骤,用于改善重叠程度并稳定加权估计量。常用阈值为两侧各 0.05 或 0.1。",
article = nil,
}
data["triplane representation"] = {
short = "A 3D scene representation that factorizes a volumetric feature field into three orthogonal 2D feature planes, queried by projecting points onto each plane; used in EG3D and other neural 3D generative models.",
es = "Representación 3D de escena que factoriza un campo de características volumétrico en tres planos 2D ortogonales de características, consultados proyectando puntos sobre cada plano; utilizada en EG3D y otros modelos generativos neurales 3D.",
zh = "一种三维场景表示方法,将体积特征场分解为三个正交的二维特征平面,通过将点投影到每个平面来查询,应用于 EG3D 等神经三维生成模型。",
article = nil,
}
data["triple classification"] = {
short = "A knowledge-graph evaluation task that asks a model to decide whether a given (head, relation, tail) triple is true, typically by thresholding an embedding-based score.",
es = "Tarea de evaluación de grafos de conocimiento que consiste en decidir si una tripleta (cabeza, relación, cola) dada es verdadera, normalmente aplicando un umbral a una puntuación basada en incrustaciones.",
zh = "一种知识图谱评测任务,要求模型判定给定的 (头实体, 关系, 尾实体) 三元组是否成立,通常通过对嵌入打分设定阈值来实现。",
article = nil,
}
data["triple exponential smoothing"] = {
short = "An exponential-smoothing forecasting method, also known as Holt-Winters, that maintains separate level, trend, and seasonal components updated by three smoothing parameters in additive or multiplicative form.",
es = "Método de pronóstico por suavizado exponencial, también conocido como Holt-Winters, que mantiene componentes separados de nivel, tendencia y estacionalidad actualizados por tres parámetros de suavizado en forma aditiva o multiplicativa.",
zh = "一种指数平滑预测方法,又称 Holt-Winters 法,使用三个平滑参数分别更新水平、趋势和季节性分量,可采用加法或乘法形式。",
article = nil,
}
data["triple extraction"] = {
short = "An information-extraction task that produces (subject, relation, object) triples from text, populating knowledge graphs through joint or pipeline entity and relation extraction.",
es = "Tarea de extracción de información que produce tripletas (sujeto, relación, objeto) a partir de texto, alimentando grafos de conocimiento mediante extracción conjunta o en cascada de entidades y relaciones.",
zh = "一种信息抽取任务,从文本中产生 (主语, 关系, 宾语) 三元组,通过联合或流水线式的实体和关系抽取来构建知识图谱。",
article = nil,
}
data["triplet loss"] = {
short = "Metric-learning loss using anchor, positive, and negative samples that requires the anchor-positive distance to be smaller than the anchor-negative distance by at least a margin.",
es = "Pérdida de aprendizaje métrico que utiliza muestras ancla, positiva y negativa, exigiendo que la distancia ancla-positiva sea menor que la ancla-negativa por al menos un margen.",
zh = "使用锚点、正样本和负样本的度量学习损失,要求锚点-正样本距离比锚点-负样本距离至少小一个间隔。",
article = nil,
}
data["triplet loss for time series"] = {
short = "A self-supervised representation-learning objective that samples an anchor subseries, a positive subseries from the same series, and a negative subseries from another, training an encoder to bring positives closer than negatives.",
es = "Objetivo autosupervisado de aprendizaje de representaciones que muestrea una subserie ancla, una subserie positiva de la misma serie y una negativa de otra serie, entrenando al codificador para acercar las positivas más que las negativas.",
zh = "一种面向时间序列的自监督表示学习目标:采样一个锚定子序列、来自同一序列的正子序列以及来自其他序列的负子序列,训练编码器使正样本比负样本更接近锚点。",
article = nil,
}
data["triton kernel"] = {
short = "A GPU kernel written in OpenAI's Triton, a Python-embedded DSL that compiles to efficient CUDA code, allowing researchers to author high-performance custom GPU operators (e.g., FlashAttention) without low-level CUDA programming.",
es = "Kernel de GPU escrito en Triton de OpenAI, un DSL embebido en Python que compila a código CUDA eficiente, lo que permite a los investigadores crear operadores de GPU personalizados de alto rendimiento (por ejemplo, FlashAttention) sin programar en CUDA de bajo nivel.",
zh = "用 OpenAI Triton 编写的 GPU 核函数;Triton 是嵌入 Python 的 DSL,可编译为高效的 CUDA 代码,使研究者无需进行底层 CUDA 编程即可实现高性能的自定义 GPU 算子(如 FlashAttention)。",
article = nil,
}
data["trivialaugment"] = {
short = "A parameter-free automated data-augmentation method that, for each image, samples a single augmentation operation uniformly at random and applies it with a uniformly sampled magnitude, matching or exceeding more complex search-based methods.",
es = "Método automatizado de aumento de datos sin parámetros que, para cada imagen, muestrea uniformemente una única operación de aumento y la aplica con una magnitud también muestreada uniformemente, igualando o superando a métodos basados en búsqueda más complejos.",
zh = "一种无参数的自动化数据增强方法,对每张图像均匀随机地采样一个增强操作,并以均匀随机采样的幅度应用,性能可与更复杂的基于搜索的方法媲美甚至更好。",
article = nil,
}
data["trl library"] = {
short = "Hugging Face's open-source Transformer Reinforcement Learning library, providing implementations of SFT, reward modeling, PPO, DPO, and related algorithms for aligning language models.",
es = "Biblioteca de código abierto de Hugging Face para aprendizaje por refuerzo en transformers (Transformer Reinforcement Learning), que ofrece implementaciones de SFT, modelado de recompensa, PPO, DPO y algoritmos relacionados para alinear modelos de lenguaje.",
zh = "Hugging Face 推出的开源 Transformer 强化学习库,提供 SFT、奖励建模、PPO、DPO 及相关算法的实现,用于对齐语言模型。",
article = nil,
}
data["trpo"] = {
short = "A policy-gradient algorithm that maximizes a surrogate objective subject to a hard constraint on the average KL divergence between the new and old policies, guaranteeing monotonic improvement under linearization.",
es = "Algoritmo de gradiente de política que maximiza un objetivo sustituto sujeto a una restricción dura sobre la divergencia KL promedio entre la nueva política y la anterior, garantizando mejora monótona bajo linealización.",
zh = "一种策略梯度算法,在新旧策略之间平均 KL 散度的硬约束下最大化代理目标,在线性化下保证单调改进。",
article = nil,
}
data["true online sarsa"] = {
short = "A modification of Sarsa(λ) with eligibility traces (van Seijen et al., 2014) that uses dutch traces to exactly implement the equivalent forward-view update under linear function approximation, eliminating the approximation error of conventional accumulating- or replacing-trace Sarsa(λ).",
es = "Modificación de Sarsa(λ) con trazas de elegibilidad (van Seijen et al., 2014) que usa trazas de tipo \"dutch\" para implementar exactamente la actualización equivalente a la vista hacia adelante bajo aproximación lineal de funciones, eliminando el error de aproximación de Sarsa(λ) con trazas acumulativas o de reemplazo convencionales.",
zh = "Sarsa(λ) 的资格迹改进版本(van Seijen 等,2014),采用 \"dutch\" 资格迹,在线性函数逼近下精确实现对应的前向视角更新,消除了传统累积迹或替换迹 Sarsa(λ) 的近似误差。",
article = nil,
}
data["true online td(lambda)"] = {
short = "A linear-function-approximation algorithm by van Seijen and Sutton (2014) that, using dutch eligibility traces, exactly matches the equivalent forward-view TD(λ) update at every step rather than only approximating it as conventional accumulating-trace TD(λ) does.",
es = "Algoritmo con aproximación lineal de van Seijen y Sutton (2014) que, mediante trazas de elegibilidad \"dutch\", iguala exactamente en cada paso la actualización equivalente a la vista hacia adelante de TD(λ), en lugar de solo aproximarla como el TD(λ) convencional con trazas acumulativas.",
zh = "van Seijen 与 Sutton(2014)提出的线性函数逼近算法,借助 \"dutch\" 资格迹,在每一步上精确匹配对应的前向视角 TD(λ) 更新,而不像传统累积迹 TD(λ) 那样仅是近似。",
article = nil,
}
data["true positive rate"] = {
short = "Probability that an actual positive is predicted positive, TP/(TP+FN). Identical to recall and sensitivity; the y-axis of a ROC curve.",
es = "Probabilidad de que un positivo real sea predicho como positivo, TP/(TP+FN). Es idéntica a la exhaustividad y a la sensibilidad, y constituye el eje vertical de la curva ROC.",
zh = "真实为正的样本被预测为正的概率,TP/(TP+FN)。与召回率、敏感度等价,是 ROC 曲线的纵轴。",
article = nil,
}
data["truncated factorization"] = {
short = "A factorization of the joint distribution under intervention in which the conditional density of the intervened variable is removed and replaced by the intervention value. It yields the manipulated distribution and is the basis of Pearl's do-operator.",
es = "Factorización de la distribución conjunta bajo intervención en la que se elimina la densidad condicional de la variable intervenida y se sustituye por el valor de la intervención. Produce la distribución manipulada y es la base del operador do de Pearl.",
zh = "在干预下对联合分布进行的因式分解:去除被干预变量的条件密度并将其替换为干预值,得到的便是操控后分布,是 Pearl 的 do 算子的基础。",
article = nil,
}
data["truncated metric potential"] = {
short = "A pairwise potential in Markov random fields defined as the minimum between a metric distance on label values and a constant truncation threshold, allowing large label discontinuities at bounded cost.",
es = "Potencial por pares en campos aleatorios de Markov definido como el mínimo entre una distancia métrica sobre los valores de etiqueta y un umbral de truncamiento constante, permitiendo grandes discontinuidades de etiquetas con costo acotado.",
zh = "马尔可夫随机场中的成对势函数,定义为标签值上的度量距离与一个固定截断阈值之间的最小值,允许在有界代价下出现较大的标签不连续。",
article = nil,
}
data["truncated stick breaking"] = {
short = "A finite-dimensional approximation to a Dirichlet process or related nonparametric prior obtained by terminating the stick-breaking construction after a fixed number of components, used for tractable variational inference.",
es = "Aproximación de dimensión finita a un proceso de Dirichlet u otro previo no paramétrico, obtenida al detener la construcción de rotura de bastones tras un número fijo de componentes, para inferencia variacional tratable.",
zh = "通过在固定组件数后终止折棍构造而得到的狄利克雷过程或相关非参数先验的有限维近似,用于可处理的变分推断。",
article = nil,
}
data["truncated weights"] = {
short = "Inverse-probability weights that are capped at a fixed value or quantile to limit the influence of units with extreme propensity scores. Reduces variance at the cost of introducing some bias relative to untruncated weighting.",
es = "Pesos de probabilidad inversa acotados en un valor fijo o un cuantil para limitar la influencia de unidades con scores de propensión extremos. Reduce la varianza a costa de introducir cierto sesgo respecto a la ponderación sin truncar.",
zh = "在固定值或分位数处截断的逆概率权重,用以限制倾向得分极端单元的影响。其代价是相对未截断权重引入一定偏差,但能降低方差。",
article = nil,
}
data["truncation error"] = {
short = "The error introduced by approximating an exact mathematical procedure (such as an infinite series or limit) with a finite computation, distinct from round-off error.",
es = "Error introducido al aproximar un procedimiento matemático exacto (como una serie infinita o un límite) mediante un cálculo finito, distinto del error de redondeo.",
zh = "通过有限计算近似精确数学过程(如无穷级数或极限)所引入的误差,与舍入误差有别。",
article = nil,
}
data["trust region"] = {
short = "An optimization framework that restricts each step to a region in which a local model is trusted to approximate the objective, expanding or shrinking the region based on observed agreement with the true function.",
es = "Marco de optimización que restringe cada paso a una región donde un modelo local se considera fiable como aproximación del objetivo, expandiendo o contrayendo dicha región según el acuerdo observado con la función real.",
zh = "一种优化框架:将每一步限制在局部模型可被信赖近似目标函数的区域内,并根据模型与真实函数的一致程度扩大或缩小该区域。",
article = nil,
}
data["trust region policy optimization"] = {
short = "TRPO (Schulman et al., 2015) is an on-policy policy-gradient algorithm that constrains each update to lie within a small KL-divergence trust region around the previous policy, yielding monotonic-improvement guarantees in the linearized objective.",
es = "TRPO (Schulman et al., 2015) es un algoritmo de gradiente de política on-policy que restringe cada actualización a una pequeña región de confianza definida por la divergencia KL alrededor de la política anterior, ofreciendo garantías de mejora monótona en el objetivo linealizado.",
zh = "TRPO(Schulman 等,2015)是一种同策略的策略梯度算法,将每次更新限制在以上一策略为中心、KL 散度较小的信赖域内,从而在线性化目标下提供单调改进保证。",
article = nil,
}
data["trust score"] = {
short = "A scalar that gauges how trustworthy a classifier's prediction is by comparing the distance to the nearest example of the predicted class against the distance to the nearest example of any other class.",
es = "Escalar que evalúa la confiabilidad de la predicción de un clasificador comparando la distancia al ejemplo más cercano de la clase predicha con la distancia al ejemplo más cercano de cualquier otra clase.",
zh = "用于衡量分类器预测可信度的标量,将到预测类别最近样本的距离与到任意其他类别最近样本的距离进行比较。",
article = nil,
}
data["trusted execution environment"] = {
short = "A hardware-isolated processor environment (such as Intel SGX, Arm TrustZone, or AMD SEV) that provides confidentiality and integrity for code and data even against a compromised host operating system or hypervisor.",
es = "Entorno de procesador aislado por hardware (como Intel SGX, Arm TrustZone o AMD SEV) que proporciona confidencialidad e integridad para código y datos incluso frente a un sistema operativo o hipervisor comprometido.",
zh = "一种由硬件隔离的处理器环境(如Intel SGX、Arm TrustZone或AMD SEV),即使主机操作系统或虚拟机监控器被攻破,也能为代码和数据提供机密性与完整性保护。",
article = nil,
}
data["trustworthy ai"] = {
short = "An umbrella term for AI systems that are lawful, ethical, and technically robust, typically operationalized through properties such as fairness, transparency, accountability, privacy, safety, and reliability.",
es = "Término general para sistemas de IA legales, éticos y técnicamente robustos, que se operacionaliza mediante propiedades como equidad, transparencia, rendición de cuentas, privacidad, seguridad y fiabilidad.",
zh = "对合法、合乎伦理且技术稳健的人工智能系统的统称,通常通过公平性、透明度、问责性、隐私、安全和可靠性等属性来落实。",
article = nil,
}
data["trustworthy explanation"] = {
short = "An explanation that is faithful to the model's actual reasoning, robust to small perturbations, and reliable enough to support downstream decisions or audits.",
es = "Explicación fiel al razonamiento real del modelo, robusta ante pequeñas perturbaciones y suficientemente confiable como para sustentar decisiones o auditorías posteriores.",
zh = "忠实反映模型实际推理过程、对小扰动鲁棒、并足够可靠以支持下游决策或审计的解释。",
article = nil,
}
data["truthfulqa"] = {
short = "A benchmark of 817 questions designed to elicit common human misconceptions, used to measure whether language models give truthful answers rather than ones that imitate widespread false beliefs.",
es = "Banco de pruebas de 817 preguntas diseñadas para provocar errores comunes humanos, utilizado para medir si los modelos de lenguaje dan respuestas veraces en lugar de imitar creencias falsas extendidas.",
zh = "包含 817 个问题的基准,旨在引出人类常见误解,用于衡量语言模型是否给出真实答案而非模仿广泛流传的错误观念。",
article = nil,
}
data["ts-tcc"] = {
short = "A self-supervised contrastive framework for time-series representation learning that uses two complementary augmentations and combines temporal and contextual contrasting losses to learn discriminative embeddings.",
es = "Marco contrastivo autosupervisado para aprendizaje de representaciones de series temporales que emplea dos aumentos complementarios y combina pérdidas de contraste temporal y contextual para aprender incrustaciones discriminativas.",
zh = "一种用于时间序列表示学习的自监督对比框架,采用两种互补的数据增强,并结合时间对比和上下文对比损失以学习具判别力的嵌入。",
article = nil,
}
data["ts-vad"] = {
short = "Target-speaker voice activity detection: a neural diarization approach that, given speaker embeddings, predicts the speech activity of each known speaker frame by frame, including overlapped speech.",
es = "Detección de actividad de voz por locutor objetivo: enfoque neuronal de diarización que, dados los embeddings de los locutores, predice la actividad de habla de cada locutor conocido trama a trama, incluyendo habla superpuesta.",
zh = "目标说话人语音活动检测:一种神经话者分离方法,在给定说话人嵌入的情况下,逐帧预测每个已知说话人的语音活动,包括重叠语音。",
article = nil,
}
data["ts2vec"] = {
short = "A universal contrastive self-supervised framework that learns hierarchical timestamp- and instance-level representations of time series via instance-wise and temporal contrastive losses on hierarchically pooled features.",
es = "Marco autosupervisado contrastivo universal que aprende representaciones jerárquicas a nivel de instante y de instancia de series temporales mediante pérdidas contrastivas instancia-instancia y temporales sobre características agrupadas jerárquicamente.",
zh = "一种通用的自监督对比框架,通过对分层池化特征施加实例级和时间级对比损失,学习时间序列在时间戳级和实例级的层次化表示。",
article = nil,
}
data["tsallis entropy"] = {
short = "A non-extensive generalization of Shannon entropy, S_q(p) = (1/(q-1))(1 - Σ p_i^q), parameterized by an entropic index q. It recovers Shannon entropy as q→1 and is non-additive across independent subsystems.",
es = "Generalización no extensiva de la entropía de Shannon, S_q(p) = (1/(q-1))(1 - Σ p_i^q), parametrizada por un índice entrópico q. Recupera la entropía de Shannon en el límite q→1 y no es aditiva entre subsistemas independientes.",
zh = "Shannon 熵的一种非可加广义形式 S_q(p) = (1/(q-1))(1 - Σ p_i^q),由熵指数 q 参数化。当 q→1 时退化为 Shannon 熵,且对独立子系统不具有可加性。",
article = nil,
}
data["tsfresh"] = {
short = "An open-source Python library that automatically extracts hundreds of statistical, spectral, and information-theoretic features from time series and applies hypothesis tests to select the relevant ones.",
es = "Biblioteca de Python de código abierto que extrae automáticamente cientos de características estadísticas, espectrales e informacionales de series temporales y aplica contrastes de hipótesis para seleccionar las relevantes.",
zh = "一个开源 Python 库,自动从时间序列中提取数百种统计、谱和信息论特征,并通过假设检验筛选出相关特征。",
article = nil,
}
data["tsmixer"] = {
short = "An all-MLP architecture for multivariate time series forecasting that alternates time-mixing and feature-mixing layers, designed as a lightweight alternative to Transformer-based forecasters.",
es = "Arquitectura totalmente basada en MLP para pronóstico multivariante de series temporales que alterna capas de mezcla en el tiempo y mezcla de características, propuesta como alternativa ligera a los pronosticadores basados en Transformer.",
zh = "一种完全由多层感知机构成的多变量时间序列预测架构,交替使用时间混合层与特征混合层,作为基于 Transformer 的预测器的轻量级替代方案。",
article = nil,
}
data["ttm"] = {
short = "Tiny Time Mixers, a family of compact pre-trained foundation models for zero- and few-shot multivariate time series forecasting based on the TSMixer architecture.",
es = "Tiny Time Mixers, familia de modelos de base preentrenados y compactos para pronóstico multivariante de series temporales en regímenes de cero y pocos ejemplos, basados en la arquitectura TSMixer.",
zh = "Tiny Time Mixers,一类基于 TSMixer 架构的紧凑型预训练时间序列基础模型,支持多变量预测的零样本和少样本设置。",
article = nil,
}
data["ttranse"] = {
short = "A temporal extension of TransE that incorporates a learned time-vector into the translation, scoring time-stamped triples (h, r, t, τ) by the proximity of h + r + τ to t.",
es = "Extensión temporal de TransE que incorpora un vector temporal aprendido en la traslación, puntuando tripletas con marca de tiempo (h, r, t, τ) por la cercanía de h + r + τ a t.",
zh = "TransE 的时序扩展,在平移中引入一个可学习的时间向量,通过 h + r + τ 与 t 的接近程度对带时间戳的四元组 (h, r, t, τ) 打分。",
article = nil,
}
data["tucker embedding"] = {
short = "A knowledge-graph embedding family, exemplified by TuckER, that scores triples through a Tucker tensor decomposition of the binary relation tensor with a shared core tensor and entity/relation factor matrices.",
es = "Familia de incrustaciones de grafos de conocimiento, ejemplificada por TuckER, que puntúa tripletas mediante una descomposición tensorial de Tucker del tensor binario de relaciones con un tensor núcleo compartido y matrices de factores para entidades y relaciones.",
zh = "一类知识图谱嵌入方法,以 TuckER 为代表,通过对二元关系张量进行 Tucker 张量分解(包含共享的核张量与实体、关系因子矩阵)来对三元组打分。",
article = nil,
}
data["tumor mutational burden"] = {
short = "The number of somatic mutations per megabase of coding DNA in a tumor sample, used as a biomarker for response to immune checkpoint inhibitors.",
es = "Número de mutaciones somáticas por megabase de ADN codificante en una muestra tumoral, utilizado como biomarcador de respuesta a inhibidores de puntos de control inmunitario.",
zh = "肿瘤样本中每兆碱基编码 DNA 的体细胞突变数量,作为免疫检查点抑制剂反应的生物标志物。",
article = nil,
}
data["tumor purity"] = {
short = "The fraction of cancer cells in a tumor sample relative to non-malignant stromal and immune cells; estimated from sequencing data and used to correct allele frequencies and copy-number calls.",
es = "Proporción de células tumorales en una muestra respecto a células estromales e inmunitarias no malignas; se estima a partir de datos de secuenciación y se usa para corregir frecuencias alélicas y llamadas de número de copias.",
zh = "肿瘤样本中癌细胞相对于非恶性基质和免疫细胞的比例;可从测序数据估计,用于校正等位基因频率和拷贝数检测结果。",
article = nil,
}
data["tuned lens"] = {
short = "An interpretability method for transformer language models that trains a per-layer affine probe to translate intermediate hidden states into next-token logit distributions.",
es = "Método de interpretabilidad para modelos de lenguaje basados en transformers que entrena una sonda afín por capa para traducir los estados ocultos intermedios en distribuciones de logits del siguiente token.",
zh = "一种针对 transformer 语言模型的可解释性方法,为每一层训练一个仿射探针,将中间隐藏状态转换为下一 token 的 logits 分布。",
article = nil,
}
data["turing machine"] = {
short = "An abstract computational model consisting of a finite control reading and writing symbols on an infinite tape according to a transition table; defines the standard notion of computability.",
es = "Modelo computacional abstracto que consiste en un control finito que lee y escribe símbolos en una cinta infinita según una tabla de transición; define la noción estándar de computabilidad.",
zh = "抽象的计算模型,由有限控制根据转移表在无限纸带上读写符号组成;定义了可计算性的标准概念。",
article = nil,
}
data["tversky loss"] = {
short = "Generalization of Dice loss that introduces asymmetric weights for false positives and false negatives, useful for highly imbalanced segmentation tasks.",
es = "Generalización de la pérdida Dice que introduce pesos asimétricos para falsos positivos y falsos negativos, útil en tareas de segmentación muy desbalanceadas.",
zh = "Dice 损失的推广,对假阳性与假阴性引入不对称权重,适用于严重不平衡的分割任务。",
article = nil,
}
data["tversky similarity"] = {
short = "An asymmetric similarity coefficient between two sets that weights the contributions of features unique to each set differently, generalizing Tanimoto and Dice indices for molecular fingerprint comparison.",
es = "Coeficiente de similitud asimétrico entre dos conjuntos que pondera de forma diferente las contribuciones de las características exclusivas de cada conjunto, generalizando los índices de Tanimoto y Dice para la comparación de huellas moleculares.",
zh = "两个集合之间的非对称相似性系数,对每个集合独有特征的贡献赋以不同权重,是 Tanimoto 和 Dice 指数在分子指纹比较中的推广。",
article = nil,
}
data["tvqa"] = {
short = "A large-scale video question answering benchmark drawn from clips of six TV shows, requiring temporal localization and joint reasoning over visuals and dialogue/subtitles.",
es = "Un punto de referencia a gran escala de respuesta a preguntas sobre video, construido a partir de fragmentos de seis series de televisión, que exige localización temporal y razonamiento conjunto sobre la imagen y los diálogos o subtítulos.",
zh = "一个大规模视频问答基准,由六部电视剧的片段构成,要求模型进行时间定位并对画面与对白/字幕进行联合推理。",
article = nil,
}
data["twin critic"] = {
short = "A pair of independently parameterized Q-networks—introduced in TD3 and adopted by SAC—whose minimum is used as the bootstrap target for actor and critic updates, mitigating the positive bias caused by maximization noise in single-critic actor-critic methods.",
es = "Par de redes Q parametrizadas de forma independiente —introducidas en TD3 y adoptadas por SAC— cuyo mínimo se usa como objetivo de bootstrap para las actualizaciones del actor y del crítico, mitigando el sesgo positivo causado por el ruido de maximización en métodos actor-crítico de un solo crítico.",
zh = "TD3 中提出、SAC 等也采用的成对独立参数化 Q 网络:取两者最小值作为 actor 和 critic 更新的自举目标,从而缓解单 critic 演员-评论家方法中由最大化噪声引起的正偏差。",
article = nil,
}
data["twin delayed ddpg"] = {
short = "TD3 (Fujimoto, van Hoof, and Meger, 2018), an off-policy actor-critic algorithm extending DDPG with three modifications—twin critics with clipped-min target, target policy smoothing, and delayed actor updates—that substantially improve stability and reduce overestimation bias.",
es = "TD3 (Fujimoto, van Hoof y Meger, 2018), algoritmo actor-crítico fuera de política que extiende DDPG con tres modificaciones —críticos gemelos con objetivo mínimo recortado, suavizado de la política objetivo y actualizaciones retardadas del actor— que mejoran sustancialmente la estabilidad y reducen el sesgo de sobreestimación.",
zh = "TD3(Fujimoto、van Hoof 与 Meger,2018):一种离策略 actor-critic 算法,在 DDPG 基础上引入三项改进——双 critic 取截断最小值目标、目标策略平滑、actor 延迟更新,显著提升稳定性并降低过估计偏差。",
article = nil,
}
data["twin network"] = {
short = "A counterfactual-inference construction that duplicates a structural causal model into a 'factual' and a 'counterfactual' copy sharing exogenous variables, used in counterfactual-fairness analyses.",
es = "Construcción de inferencia contrafactual que duplica un modelo causal estructural en una copia 'factual' y otra 'contrafactual' que comparten las variables exógenas, utilizada en análisis de equidad contrafactual.",
zh = "一种反事实推断构造,将结构因果模型复制为共享外生变量的'事实'副本与'反事实'副本,用于反事实公平性分析。",
article = nil,
}
data["two-pass asr"] = {
short = "Speech recognition decoding scheme in which a streaming first-pass model produces partial hypotheses with low latency and a stronger non-streaming second-pass model rescores or regenerates them for higher accuracy.",
es = "Esquema de decodificación de reconocimiento de voz en el que un primer modelo en streaming produce hipótesis parciales con baja latencia y un segundo modelo no streaming más potente las repuntúa o regenera para mejorar la precisión.",
zh = "语音识别解码方案,先由流式的一遍模型以低延迟输出部分假设,再由更强的非流式二遍模型重打分或重新生成,以提高准确率。",
article = nil,
}
data["two-player zero-sum game"] = {
short = "A game-theoretic setting with exactly two players in which one player's gain equals the other's loss, so the sum of payoffs is zero; foundational to minimax planning and self-play reinforcement learning.",
es = "Marco de teoría de juegos con exactamente dos jugadores en el que la ganancia de uno equivale a la pérdida del otro, de modo que la suma de los pagos es cero; base de la planificación minimax y del autojuego en aprendizaje por refuerzo.",
zh = "博弈论中恰好包含两名玩家的设置,其中一方的收益等于另一方的损失,收益之和为零;是极小极大规划与强化学习中自我对弈的基础。",
article = nil,
}
data["two-sample mendelian randomization"] = {
short = "A Mendelian randomization design that combines genetic variant–exposure associations from one cohort with variant–outcome associations from a different cohort, typically using summary statistics from genome-wide association studies. Enables instrumental-variable causal estimation across separate samples.",
es = "Diseño de aleatorización mendeliana que combina las asociaciones variante genética–exposición provenientes de una cohorte con las asociaciones variante–resultado de otra cohorte, normalmente usando estadísticos resumen de estudios de asociación de todo el genoma. Permite estimación causal por variables instrumentales en muestras separadas.",
zh = "孟德尔随机化设计的一种,将一个队列中遗传变异与暴露的关联和另一个队列中变异与结果的关联结合,通常使用全基因组关联研究的汇总统计量。可在不同样本之间进行工具变量因果估计。",
article = nil,
}
data["two-sided fairness"] = {
short = "A fairness notion for two-sided platforms (e.g. marketplaces, recommender systems) that simultaneously accounts for utility and protected-group treatment of both consumers and producers.",
es = "Noción de equidad para plataformas de dos lados (mercados, sistemas de recomendación) que tiene en cuenta simultáneamente la utilidad y el trato a grupos protegidos tanto de consumidores como de productores.",
zh = "面向双边平台(如市场、推荐系统)的公平性概念,同时兼顾消费者和生产者的效用以及对受保护群体的处置。",
article = nil,
}
data["two-stage least squares"] = {
short = "An instrumental-variable estimator that first regresses the endogenous regressor on the instruments to obtain fitted values and then regresses the outcome on those fitted values. Provides a consistent estimate of the causal effect under instrument validity and relevance.",
es = "Estimador de variables instrumentales que primero regresa el regresor endógeno sobre los instrumentos para obtener valores ajustados y luego regresa el resultado sobre dichos valores. Proporciona una estimación consistente del efecto causal bajo validez y relevancia del instrumento.",
zh = "一种工具变量估计量,先将内生回归元对工具变量回归得到拟合值,再将结果对该拟合值回归。在工具变量有效性和相关性成立时,可得到因果效应的一致估计。",
article = nil,
}
data["two-stage recommender"] = {
short = "A standard industrial recommender architecture composed of a fast retrieval (candidate-generation) stage that selects hundreds to thousands of items from a huge catalog, followed by a heavier ranking stage that scores each candidate with rich features.",
es = "Arquitectura industrial estándar de recomendación formada por una etapa rápida de recuperación (generación de candidatos) que selecciona cientos o miles de ítems del catálogo, seguida de una etapa de ranking más pesada que puntúa cada candidato con características ricas.",
zh = "工业界常见的两阶段推荐架构:先用快速的检索(候选生成)阶段从海量目录中选出数百到数千个物品,再用较重的排序阶段使用丰富特征对每个候选物品打分。",
article = nil,
}
data["two-stream transformer"] = {
short = "A transformer architecture that processes two parallel input streams (e.g. RGB and optical flow for video, or vision and language for VL tasks) and fuses them through cross-attention or late concatenation.",
es = "Arquitectura transformer que procesa dos flujos de entrada en paralelo (por ejemplo, RGB y flujo óptico para video, o visión y lenguaje para tareas VL) y los fusiona mediante atención cruzada o concatenación tardía.",
zh = "一种 Transformer 架构,并行处理两个输入流(如视频中的 RGB 与光流,或视觉-语言任务中的视觉与文本流),并通过交叉注意力或后期拼接进行融合。",
article = nil,
}
data["two-tower model"] = {
short = "A retrieval architecture in which a user encoder (one tower) and an item encoder (the other tower) independently produce embeddings whose dot product or cosine similarity scores compatibility, enabling efficient nearest-neighbor candidate generation over a large catalog.",
es = "Arquitectura de recuperación en la que un codificador de usuario (una torre) y un codificador de ítem (la otra torre) producen incrustaciones de forma independiente cuyo producto punto o similitud coseno mide la compatibilidad, permitiendo generación de candidatos eficiente por vecinos más cercanos sobre catálogos grandes.",
zh = "一种检索架构,使用用户编码器(一塔)和物品编码器(另一塔)独立生成嵌入,通过点积或余弦相似度衡量匹配度,从而在大规模目录上实现高效的最近邻候选生成。",
article = nil,
}
data["two-tower multimodal"] = {
short = "A retrieval architecture using two separate encoders (e.g. an image tower and a text tower) that map their inputs into a shared embedding space, enabling efficient cross-modal nearest-neighbor search at inference time.",
es = "Arquitectura de recuperación con dos codificadores separados (p. ej. una torre de imagen y una torre de texto) que proyectan sus entradas a un mismo espacio de embeddings, lo que permite búsquedas cruzadas eficientes por vecinos más cercanos en inferencia.",
zh = "一种检索架构,使用两个独立的编码器(如图像塔和文本塔)将各自输入映射到共享的嵌入空间,从而在推理时进行高效的跨模态最近邻检索。",
article = nil,
}
data["two-way fixed effects"] = {
short = "A panel data regression specification that includes additive unit and time fixed effects to absorb time-invariant unit heterogeneity and common time shocks. Recent work shows it can produce biased treatment-effect estimates with heterogeneous effects and staggered adoption.",
es = "Especificación de regresión de datos de panel que incluye efectos fijos aditivos de unidad y de tiempo para absorber la heterogeneidad invariante en el tiempo entre unidades y los choques temporales comunes. Investigaciones recientes muestran que puede producir estimaciones sesgadas del efecto del tratamiento cuando hay efectos heterogéneos y adopción escalonada.",
zh = "在面板数据回归中加入加性的单元固定效应和时间固定效应,以吸收单元间随时间不变的异质性和共同的时间冲击。近期研究表明,在效应异质且采用时间错开的情形下,该方法可能产生有偏的处理效应估计。",
article = nil,
}
data["type i error"] = {
short = "In hypothesis testing, the error of rejecting a true null hypothesis; its probability is the significance level alpha (false positive).",
es = "En contraste de hipótesis, el error de rechazar una hipótesis nula verdadera; su probabilidad es el nivel de significancia alfa (falso positivo).",
zh = "假设检验中拒绝真零假设的错误,其概率为显著性水平 α(假阳性)。",
article = nil,
}
data["type ii error"] = {
short = "In hypothesis testing, the error of failing to reject a false null hypothesis; its probability is denoted beta, and 1 - beta is the test's power (false negative).",
es = "En contraste de hipótesis, el error de no rechazar una hipótesis nula falsa; su probabilidad se denota beta, y 1 - beta es la potencia de la prueba (falso negativo).",
zh = "假设检验中未能拒绝假零假设的错误,其概率记为 β,1 - β 为检验的功效(假阴性)。",
article = nil,
}
data["typical sampling"] = {
short = "A sampling method that restricts candidates to tokens whose negative log-probability is close to the conditional entropy of the next-token distribution, aiming to produce outputs whose information content matches the model's expectation.",
es = "Método de muestreo que limita los candidatos a tokens cuya log-probabilidad negativa está cerca de la entropía condicional de la distribución del siguiente token, buscando salidas cuyo contenido de información coincida con la expectativa del modelo.",
zh = "一种采样方法,将候选 token 限制为其负对数概率接近下一个 token 分布条件熵的那些 token,旨在让输出的信息量符合模型的期望。",
article = nil,
}
data["typicality test"] = {
short = "An out-of-distribution detection method that flags inputs whose log-density under a generative model deviates significantly from the typical-set value expected for in-distribution samples, addressing failures of pure likelihood thresholding.",
es = "Método de detección fuera de distribución que marca como OOD las entradas cuya log-densidad bajo un modelo generativo se desvía significativamente del valor típico esperado para muestras dentro de la distribución, corrigiendo fallos del umbral basado únicamente en la verosimilitud.",
zh = "一种分布外检测方法:根据输入在生成模型下的对数密度是否显著偏离分布内样本所期望的典型集取值来判定其为 OOD,从而修正单纯似然阈值方法的失败模式。",
article = nil,
}
data["u-net"] = {
short = "A convolutional encoder-decoder architecture with skip connections between matching encoder and decoder levels, originally designed for biomedical image segmentation and now widely used for dense prediction and diffusion models.",
es = "Arquitectura convolucional codificador-decodificador con conexiones de salto entre niveles equivalentes del codificador y el decodificador, diseñada inicialmente para la segmentación de imágenes biomédicas y hoy ampliamente usada en predicción densa y modelos de difusión.",
zh = "一种带跳跃连接的卷积编码器-解码器架构,在编码器与解码器对应层之间相连,最初用于生物医学图像分割,目前广泛应用于密集预测和扩散模型。",
article = nil,
}
data["u-shaped split learning"] = {
short = "A variant of split learning in which the network is divided into three segments — a head and a tail kept on the client and a middle held by the server — so that raw inputs and labels never leave the client.",
es = "Variante del aprendizaje dividido en la que la red se separa en tres segmentos — una cabeza y una cola que permanecen en el cliente y un tramo intermedio en poder del servidor — de modo que las entradas crudas y las etiquetas nunca salen del cliente.",
zh = "拆分学习的一种变体,将网络分为三段——头部和尾部保留在客户端,中间部分由服务器持有——使原始输入和标签都不会离开客户端。",
article = nil,
}
data["ubr4ctr"] = {
short = "UBR4CTR (User Behavior Retrieval for CTR Prediction; Qin et al., 2020) is a CTR model that, instead of feeding a fixed-length recent history, retrieves a query-relevant subset of the user's lifelong behavior log and feeds it to a downstream attention-based scorer.",
es = "UBR4CTR (User Behavior Retrieval for CTR Prediction; Qin et al., 2020) es un modelo de CTR que, en lugar de alimentar un historial reciente de longitud fija, recupera un subconjunto relevante a la consulta del registro de comportamiento de toda la vida del usuario y lo pasa a un puntuador de atención posterior.",
zh = "UBR4CTR(用于 CTR 预测的用户行为检索;Qin 等,2020)是一种 CTR 模型,不再使用固定长度的近期历史,而是从用户的全生命周期行为日志中检索与查询相关的子集,再输入下游基于注意力的打分模型。",
article = nil,
}
data["ucb acquisition"] = {
short = "An acquisition function for Bayesian optimization defined as μ(x) + κ·σ(x), trading off the surrogate's predicted mean and uncertainty via the exploration coefficient κ; minimization variants use μ(x) − κ·σ(x).",
es = "Función de adquisición para optimización bayesiana definida como μ(x) + κ·σ(x), que equilibra la media predicha y la incertidumbre del modelo sustituto mediante el coeficiente de exploración κ; las variantes para minimización usan μ(x) − κ·σ(x).",
zh = "贝叶斯优化中的一种采集函数,定义为μ(x)+κ·σ(x),通过探索系数κ平衡代理模型的预测均值与不确定性;最小化版本采用μ(x)−κ·σ(x)。",
article = nil,
}
data["ucb-h"] = {
short = "An upper-confidence-bound reinforcement learning algorithm for finite-horizon tabular MDPs that uses Hoeffding-style exploration bonuses on Q-values to obtain near-optimal regret without learning an explicit model.",
es = "Algoritmo de aprendizaje por refuerzo basado en cotas superiores de confianza para MDPs tabulares de horizonte finito que añade bonificaciones de exploración tipo Hoeffding a los valores Q, logrando un arrepentimiento casi óptimo sin aprender un modelo explícito.",
zh = "一种针对有限时域表格型 MDP 的置信上界强化学习算法,对 Q 值施加 Hoeffding 型探索奖励,从而在不显式学习模型的情况下获得近似最优的遗憾界。",
article = nil,
}
data["ucb1"] = {
short = "A multi-armed bandit algorithm that selects the arm with the highest sum of empirical mean reward and a logarithmic exploration bonus, achieving logarithmic regret without prior knowledge of the reward distribution.",
es = "Algoritmo para bandidos multibrazo que selecciona el brazo con la mayor suma de recompensa media empírica y una bonificación de exploración logarítmica, alcanzando un arrepentimiento logarítmico sin conocimiento previo de la distribución de recompensas.",
zh = "一种多臂老虎机算法,选择经验平均奖励与对数探索奖励之和最大的臂,在无需了解奖励分布的情况下实现对数级遗憾。",
article = nil,
}
data["ucb1-tuned"] = {
short = "A refinement of UCB1 that incorporates an empirical variance estimate into the exploration bonus, typically yielding lower regret in practice while preserving the same theoretical guarantees.",
es = "Refinamiento de UCB1 que incorpora una estimación empírica de la varianza en la bonificación de exploración, generalmente con menor arrepentimiento en la práctica conservando las mismas garantías teóricas.",
zh = "UCB1 的改进版,将经验方差估计纳入探索奖励项中,在保持相同理论保证的同时通常取得更低的实际遗憾。",
article = nil,
}
data["ucca parsing"] = {
short = "Parsing into Universal Conceptual Cognitive Annotation, a cross-lingual semantic representation in which sentences become directed acyclic graphs of typed scene-and-participant relations.",
es = "Análisis hacia la Universal Conceptual Cognitive Annotation, una representación semántica interlingüística en la que las oraciones se convierten en grafos acíclicos dirigidos con relaciones tipadas de escena y participantes.",
zh = "向 通用概念认知标注 (UCCA) 的解析,这是一种跨语言的语义表示,将句子表示为带有场景与参与者类型化关系的有向无环图。",
article = nil,
}
data["ucrl"] = {
short = "An upper-confidence reinforcement learning algorithm for tabular MDPs that maintains confidence sets over transition and reward parameters and acts optimistically with respect to the most favorable plausible model.",
es = "Algoritmo de aprendizaje por refuerzo con cotas superiores de confianza para MDPs tabulares que mantiene conjuntos de confianza sobre los parámetros de transición y recompensa y actúa de forma optimista respecto al modelo plausible más favorable.",
zh = "一种针对表格型 MDP 的置信上界强化学习算法,对转移与奖励参数维护置信集合,并按其中最有利的可信模型乐观行动。",
article = nil,
}
data["ucrl2"] = {
short = "An improved upper-confidence reinforcement learning algorithm by Jaksch et al. that achieves near-optimal regret bounds in undiscounted communicating MDPs by computing optimistic policies via extended value iteration over confidence sets.",
es = "Algoritmo mejorado de aprendizaje por refuerzo con cotas superiores de confianza, propuesto por Jaksch et al., que alcanza arrepentimiento casi óptimo en MDPs comunicantes sin descuento mediante políticas optimistas obtenidas con iteración de valor extendida sobre conjuntos de confianza.",
zh = "Jaksch 等人提出的改进型置信上界强化学习算法,通过在置信集合上执行扩展价值迭代得到乐观策略,在无折扣的可通讯 MDP 中实现近似最优的遗憾界。",
article = nil,
}
data["ucsc browser"] = {
short = "A web-based genome viewer hosted at UC Santa Cruz that displays reference genomes alongside annotation tracks for genes, conservation, variation, regulation, and user-uploaded data.",
es = "Visualizador de genomas basado en web alojado en UC Santa Cruz que muestra genomas de referencia junto con pistas de anotación para genes, conservación, variación, regulación y datos cargados por el usuario.",
zh = "由加州大学圣克鲁兹分校提供的基于网页的基因组浏览器,显示参考基因组以及基因、保守性、变异、调控和用户上传数据的注释轨道。",
article = nil,
}
data["uct"] = {
short = "Upper Confidence bounds applied to Trees: a Monte Carlo tree search variant that selects child nodes during simulation using the UCB1 formula, balancing exploration and exploitation in game-tree search.",
es = "Cotas Superiores de Confianza aplicadas a Árboles: variante de búsqueda Monte Carlo en árboles que selecciona los nodos hijos durante la simulación usando la fórmula UCB1, equilibrando exploración y explotación en la búsqueda en árboles de juego.",
zh = "应用于树的置信上界算法:一种蒙特卡洛树搜索变体,在模拟过程中使用 UCB1 公式选择子节点,在博弈树搜索中平衡探索与利用。",
article = nil,
}
data["udrl"] = {
short = "Upside-Down Reinforcement Learning: a paradigm proposed by Schmidhuber that reframes RL as supervised learning by training a policy to map desired returns and horizons to actions, conditioning behavior on the command rather than maximizing reward.",
es = "Aprendizaje por Refuerzo Invertido: paradigma propuesto por Schmidhuber que reformula el RL como aprendizaje supervisado al entrenar una política que asigna acciones a partir de retornos y horizontes deseados, condicionando el comportamiento al comando en lugar de maximizar la recompensa.",
zh = "颠倒式强化学习:Schmidhuber 提出的范式,通过训练一个将期望回报与时间跨度映射为动作的策略,将强化学习重新表述为监督学习,使行为以指令为条件而非以奖励最大化为目标。",
article = nil,
}
data["ufold"] = {
short = "A deep-learning method for RNA secondary structure prediction that formulates the problem as image segmentation on contact maps, achieving accuracy competitive with thermodynamic and folding-based predictors.",
es = "Método de aprendizaje profundo para la predicción de estructura secundaria de ARN que formula el problema como segmentación de imagen sobre mapas de contacto, con precisión comparable a predictores termodinámicos.",
zh = "一种用于 RNA 二级结构预测的深度学习方法,将问题表述为接触图上的图像分割任务,其准确性可与热力学和基于折叠的预测方法相媲美。",
article = nil,
}
data["ul2"] = {
short = "Unifying Language Learning (UL2), a Google pretraining framework that mixes denoising objectives — R-, S-, and X-denoising — under a unified Mixture-of-Denoisers, applied to a 20B-parameter encoder-decoder model.",
es = "Unifying Language Learning (UL2), marco de preentrenamiento de Google que combina objetivos de denoising —R, S y X— bajo una Mezcla de Denoisers unificada, aplicado a un modelo encoder-decoder de 20 mil millones de parámetros.",
zh = "Unifying Language Learning(UL2)是 Google 提出的预训练框架,将 R、S、X 三种去噪目标统一为去噪混合(Mixture-of-Denoisers),应用于一个 200 亿参数的编码器-解码器模型。",
article = nil,
}
data["ultra-large library screening"] = {
short = "Virtual screening of chemical libraries containing hundreds of millions to billions of make-on-demand compounds, enabled by docking algorithms and machine-learning surrogates that scale beyond exhaustive evaluation.",
es = "Cribado virtual de bibliotecas químicas que contienen de cientos de millones a miles de millones de compuestos sintetizables bajo demanda, posibilitado por algoritmos de acoplamiento y modelos sustitutos de aprendizaje automático que escalan más allá de la evaluación exhaustiva.",
zh = "对包含数亿到数十亿可按需合成化合物的化学库进行虚拟筛选,依靠分子对接算法和机器学习代理模型在无法穷尽评估的规模下实现。",
article = nil,
}
data["ultrachat"] = {
short = "A large-scale multi-turn dialogue dataset (~1.5M conversations) generated by prompting two ChatGPT instances to converse with each other, used for instruction tuning open chat models such as Zephyr.",
es = "Conjunto de datos a gran escala de diálogos multi-turno (~1,5 millones de conversaciones) generado haciendo dialogar a dos instancias de ChatGPT entre sí, utilizado para el ajuste por instrucciones de modelos de chat abiertos como Zephyr.",
zh = "大规模多轮对话数据集(约 150 万条对话),通过让两个 ChatGPT 实例互相对话生成,用于 Zephyr 等开源聊天模型的指令微调。",
article = nil,
}
data["ultrafeedback"] = {
short = "A preference dataset of ~64k prompts each rated across multiple model responses on instruction-following, truthfulness, honesty, and helpfulness, widely used for DPO training of open chat models.",
es = "Conjunto de datos de preferencias con unos 64 mil prompts, cada uno con varias respuestas de modelos puntuadas en seguimiento de instrucciones, veracidad, honestidad y utilidad; muy utilizado para el entrenamiento DPO de modelos de chat abiertos.",
zh = "包含约 6.4 万条提示的偏好数据集,每条提示对多个模型回复在指令遵循、真实性、诚实性和有用性方面进行评分,广泛用于开源聊天模型的 DPO 训练。",
article = nil,
}
data["ultragcn"] = {
short = "UltraGCN (Mao et al., 2021) is an ultra-simplified graph collaborative-filtering model that skips explicit graph convolutions and approximates the infinite-layer GCN limit with a closed-form constraint loss over user–item co-occurrences, training faster than LightGCN at comparable accuracy.",
es = "UltraGCN (Mao et al., 2021) es un modelo de filtrado colaborativo basado en grafos ultra-simplificado que prescinde de las convoluciones gráficas explícitas y aproxima el límite de GCN con infinitas capas mediante una pérdida con restricciones en forma cerrada sobre coocurrencias usuario–ítem, entrenando más rápido que LightGCN con precisión comparable.",
zh = "UltraGCN(Mao 等,2021)是一种超简化的图协同过滤模型,省去显式图卷积,并通过对用户–物品共现的闭式约束损失逼近无限层 GCN 的极限,训练速度快于 LightGCN 而精度相近。",
article = nil,
}
data["umbrella sampling"] = {
short = "An enhanced-sampling molecular dynamics technique that biases simulations along a reaction coordinate using harmonic restraints in overlapping windows, then reconstructs the unbiased free-energy profile via WHAM or MBAR.",
es = "Técnica de muestreo mejorado en dinámica molecular que sesga las simulaciones a lo largo de una coordenada de reacción mediante restricciones armónicas en ventanas superpuestas, y luego reconstruye el perfil de energía libre no sesgado mediante WHAM o MBAR.",
zh = "一种增强采样分子动力学方法,通过在重叠窗口中施加谐振约束沿反应坐标对模拟施加偏置,然后利用 WHAM 或 MBAR 重构无偏自由能曲线。",
article = nil,
}
data["umi"] = {
short = "Universal Manipulation Interface (Chi, Xu et al., 2024), a portable handheld gripper instrumented with a fish-eye GoPro camera that lets humans collect manipulation demonstrations in the wild; the resulting data trains diffusion policies that transfer directly to a parallel-jaw robot.",
es = "Universal Manipulation Interface (Chi, Xu et al., 2024), una pinza manual portátil instrumentada con una cámara GoPro de ojo de pez que permite a humanos recolectar demostraciones de manipulación en entornos reales; los datos resultantes entrenan políticas de difusión que se transfieren directamente a un robot con pinza de mordazas paralelas.",
zh = "Universal Manipulation Interface(Chi、Xu 等人,2024):一种装有鱼眼 GoPro 相机的手持便携式夹爪,可让人在真实环境中采集操作演示;由这些数据训练得到的扩散策略可直接迁移到平行夹爪机器人上。",
article = nil,
}
data["umls"] = {
short = "The Unified Medical Language System, a compendium of biomedical vocabularies maintained by the U.S. National Library of Medicine that maps synonyms across ontologies (SNOMED CT, MeSH, ICD, RxNorm, etc.) into shared concept identifiers (CUIs).",
es = "Sistema Unificado de Lenguaje Médico, recopilación de vocabularios biomédicos mantenida por la Biblioteca Nacional de Medicina de EE. UU. que mapea sinónimos entre ontologías (SNOMED CT, MeSH, ICD, RxNorm) a identificadores de concepto compartidos (CUI).",
zh = "统一医学语言系统,由美国国家医学图书馆维护的生物医学词汇汇编,将 SNOMED CT、MeSH、ICD、RxNorm 等本体中的同义词映射到共享的概念标识符(CUI)。",
article = nil,
}
data["umls dataset"] = {
short = "Benchmark datasets derived from the Unified Medical Language System for tasks such as biomedical link prediction and triple classification, often used alongside Kinship and FB15k as relational-reasoning benchmarks.",
es = "Conjuntos de datos de referencia derivados del Unified Medical Language System para tareas como la predicción biomédica de enlaces y la clasificación de tripletas, usados a menudo junto con Kinship y FB15k como evaluaciones de razonamiento relacional.",
zh = "由 Unified Medical Language System 派生的基准数据集,用于生物医学链接预测、三元组分类等任务,常与 Kinship、FB15k 一同作为关系推理评测使用。",
article = nil,
}
data["umls knowledge base"] = {
short = "The Unified Medical Language System, a curated NIH knowledge resource integrating over 200 biomedical vocabularies into a Metathesaurus, Semantic Network, and Specialist Lexicon.",
es = "Unified Medical Language System, un recurso de conocimiento curado por los NIH que integra más de 200 vocabularios biomédicos en un Metathesaurus, una Red Semántica y un Lexicón Especializado.",
zh = "统一医学语言系统(UMLS),由美国国立卫生研究院维护的知识资源,将 200 多种生物医学词汇整合到 Metathesaurus、语义网络和专家词典中。",
article = nil,
}
data["unary potential"] = {
short = "A factor in a graphical model that depends on a single variable, encoding local evidence or prior preferences for that variable's states independently of its neighbors.",
es = "Factor en un modelo gráfico que depende de una sola variable, codificando la evidencia local o las preferencias a priori sobre los estados de esa variable de forma independiente de sus vecinos.",
zh = "图模型中仅依赖单个变量的因子,独立于邻居编码该变量状态的局部证据或先验偏好。",
article = nil,
}
data["unbiased estimator"] = {
short = "A statistical estimator whose expected value equals the true value of the parameter being estimated, so it has zero bias.",
es = "Estimador estadístico cuyo valor esperado es igual al verdadero valor del parámetro estimado, por lo que tiene sesgo cero.",
zh = "其期望值等于被估计参数真实值的统计估计量,即偏差为零。",
article = nil,
}
data["unbiased lambdamart"] = {
short = "A variant of the LambdaMART pairwise learning-to-rank algorithm that incorporates inverse-propensity-scoring weights or click-model corrections so that pairs are reweighted to remove position and selection biases inherent in click logs.",
es = "Variante del algoritmo de learning-to-rank por pares LambdaMART que incorpora pesos de propensión inversa o correcciones de modelo de clic, reponderando los pares para eliminar los sesgos de posición y de selección inherentes a los registros de clics.",
zh = "LambdaMART 成对学习排序算法的一种变体,通过引入逆倾向得分权重或点击模型修正,对样本对重新加权,以消除点击日志中固有的位置偏差和选择偏差。",
article = nil,
}
data["uncertain evidence"] = {
short = "Evidence in a probabilistic model that does not fix a variable to a single value but instead specifies a likelihood function or probability distribution over its states; encompasses soft and virtual evidence.",
es = "Evidencia en un modelo probabilístico que no fija una variable a un único valor sino que especifica una función de verosimilitud o distribución de probabilidad sobre sus estados; abarca la evidencia blanda y la evidencia virtual.",
zh = "概率模型中不将变量固定为单一取值,而是为其状态指定似然函数或概率分布的证据;涵盖软证据和虚拟证据。",
article = nil,
}
data["uncertainty sampling"] = {
short = "An active-learning strategy that selects unlabeled examples on which the current model is least confident — for instance, those with the highest predictive entropy or smallest margin between top classes.",
es = "Estrategia de aprendizaje activo que selecciona los ejemplos no etiquetados sobre los que el modelo actual tiene menor confianza, por ejemplo aquellos con mayor entropía predictiva o menor margen entre las clases más probables.",
zh = "一种主动学习策略,选择当前模型最不确定的未标注样本,例如预测熵最大或前两类间间隔最小的样本。",
article = nil,
}
data["uncertainty-aware explanation"] = {
short = "An explanation that propagates and reports the uncertainty of its attributions, for example via Bayesian models or ensemble variance, instead of returning a single point estimate.",
es = "Explicación que propaga y reporta la incertidumbre de sus atribuciones, por ejemplo mediante modelos bayesianos o varianza de ensambles, en lugar de devolver una única estimación puntual.",
zh = "传播并报告其归因不确定性的解释方法,例如通过贝叶斯模型或集成方差给出,而不是仅返回单点估计。",
article = nil,
}
data["unconfoundedness"] = {
short = "The assumption that treatment assignment is independent of potential outcomes given a set of observed covariates, equivalent to no unmeasured confounding. Together with positivity, it identifies average treatment effects from observational data.",
es = "Supuesto de que la asignación del tratamiento es independiente de los resultados potenciales dado un conjunto de covariables observadas, equivalente a la ausencia de confusores no medidos. Junto con la positividad, identifica el efecto promedio del tratamiento a partir de datos observacionales.",
zh = "假设在给定一组可观测协变量的条件下,处理分配与潜在结果独立,等价于不存在未测量混杂因素。该假设与正性条件结合,可在观测数据中识别平均处理效应。",
article = nil,
}
data["undecidability"] = {
short = "The property of a decision problem for which no algorithm can correctly answer yes or no for every input; the halting problem is the canonical example.",
es = "Propiedad de un problema de decisión para el cual ningún algoritmo puede responder correctamente sí o no para toda entrada; el problema de la parada es el ejemplo canónico.",
zh = "决策问题的一种性质:不存在能对每个输入都正确给出是或否答案的算法;停机问题是其经典例子。",
article = nil,
}
data["under-representation"] = {
short = "Insufficient presence of a demographic group in a dataset, model output distribution, or evaluation, leading to higher error rates or invisibility of that group.",
es = "Presencia insuficiente de un grupo demográfico en un conjunto de datos, en la distribución de salidas de un modelo o en la evaluación, lo que conduce a mayores tasas de error o a la invisibilización del grupo.",
zh = "某一人口群体在数据集、模型输出分布或评估中的存在不足,导致该群体的错误率升高或被忽视。",
article = nil,
}
data["underdamped langevin"] = {
short = "A second-order Langevin diffusion that augments the parameters with momentum variables, mixing faster than overdamped Langevin and used by samplers such as SGHMC and underdamped LMC.",
es = "Difusión de Langevin de segundo orden que aumenta los parámetros con variables de momento, mezclando más rápido que la versión sobreamortiguada y utilizada por muestreadores como SGHMC y LMC subamortiguada.",
zh = "二阶 Langevin 扩散,通过引入动量变量来增广参数,其混合速度快于过阻尼 Langevin,被 SGHMC 与欠阻尼 LMC 等采样器采用。",
article = nil,
}
data["underfitting"] = {
short = "A failure mode in which a model is too constrained—in capacity, training time, or features—to capture the underlying structure of the data, resulting in high error on both training and validation sets.",
es = "Modo de fallo en el que un modelo está demasiado restringido —en capacidad, tiempo de entrenamiento o características— para captar la estructura subyacente de los datos, lo que da lugar a un error alto tanto en el conjunto de entrenamiento como en el de validación.",
zh = "一种失效模式,模型在容量、训练时长或特征方面过于受限,无法捕捉数据的潜在结构,导致训练集和验证集上的误差都很高。",
article = nil,
}
data["undersampling"] = {
short = "A technique for handling class imbalance that reduces the number of majority-class examples in the training set, either by random subsampling or by selecting informative subsets.",
es = "Técnica para tratar el desbalance de clases que reduce el número de ejemplos de la clase mayoritaria en el conjunto de entrenamiento, mediante submuestreo aleatorio o seleccionando subconjuntos informativos.",
zh = "一种处理类别不平衡的技术,通过随机子采样或选取信息丰富的子集来减少训练集中多数类样本的数量。",
article = nil,
}
data["underwater robot learning"] = {
short = "Application of machine-learning methods to autonomous underwater vehicles and underwater manipulators, addressing challenges specific to the medium: poor visibility, currents, communications constraints, hydrodynamics and the high cost of real-world data collection.",
es = "Aplicación de métodos de aprendizaje automático a vehículos submarinos autónomos y manipuladores submarinos, abordando los retos propios del medio: baja visibilidad, corrientes, restricciones de comunicación, hidrodinámica y el alto coste de recolectar datos reales.",
zh = "将机器学习方法应用于自主水下航行器和水下机械臂,需应对该环境特有的挑战:能见度差、洋流、通信受限、水动力学以及在真实环境中采集数据成本高昂。",
article = nil,
}
data["undirected graphical model"] = {
short = "A probabilistic graphical model whose joint distribution factorizes as a normalized product of potential functions over the cliques of an undirected graph; equivalent to a Markov random field.",
es = "Modelo gráfico probabilístico cuya distribución conjunta se factoriza como un producto normalizado de funciones de potencial sobre las cliques de un grafo no dirigido; equivalente a un campo aleatorio de Markov.",
zh = "联合分布可分解为无向图团上势函数归一化乘积的概率图模型;等价于马尔可夫随机场。",
article = nil,
}
data["unevenly spaced time series"] = {
short = "A time series whose observations are not separated by a constant time interval, requiring methods that explicitly model timestamps rather than assume a regular sampling grid.",
es = "Serie temporal cuyas observaciones no están separadas por un intervalo de tiempo constante, lo que exige métodos que modelen explícitamente las marcas de tiempo en lugar de asumir un muestreo regular.",
zh = "观测值之间时间间隔不恒定的时间序列,需要使用显式建模时间戳的方法,而不能假设规则采样网格。",
article = nil,
}
data["uni-mol"] = {
short = "A 3D molecular pretraining framework that learns SE(3)-aware representations from atomic coordinates and types via a transformer with pair-distance-based attention biases.",
es = "Marco de preentrenamiento molecular 3D que aprende representaciones equivariantes SE(3) a partir de coordenadas y tipos atómicos mediante un transformador con sesgos de atención basados en distancias entre pares.",
zh = "一种三维分子预训练框架,通过带有基于原子对距离的注意力偏置的 Transformer,从原子坐标和类型中学习具备 SE(3) 感知能力的表示。",
article = nil,
}
data["uni-mol+"] = {
short = "An extension of Uni-Mol that improves 3D conformer-based molecular property prediction through iterative coordinate refinement and a stronger pretraining objective on quantum-chemistry datasets.",
es = "Extensión de Uni-Mol que mejora la predicción de propiedades moleculares basada en confórmeros 3D mediante un refinamiento iterativo de coordenadas y un objetivo de preentrenamiento más fuerte sobre conjuntos de datos de química cuántica.",
zh = "Uni-Mol 的扩展版本,通过迭代坐标精修和更强的量子化学数据预训练目标,改进基于三维构象的分子性质预测。",
article = nil,
}
data["unification"] = {
short = "An algorithmic procedure that finds a substitution making two logical terms syntactically identical; central to first-order theorem proving, type inference, and Prolog-style resolution.",
es = "Procedimiento algorítmico que encuentra una sustitución que hace sintácticamente idénticos dos términos lógicos; es central para la demostración de teoremas de primer orden, la inferencia de tipos y la resolución estilo Prolog.",
zh = "一种算法过程,寻找使两个逻辑项在语法上相同的代换;是一阶定理证明、类型推断以及 Prolog 风格归结的核心。",
article = nil,
}
data["uniform client sampling"] = {
short = "A client-selection scheme in federated learning that, in each communication round, samples a subset of available clients independently and with equal probability, providing an unbiased estimate of the global objective.",
es = "Esquema de selección de clientes en aprendizaje federado que, en cada ronda de comunicación, muestrea un subconjunto de clientes disponibles de manera independiente y con igual probabilidad, proporcionando una estimación insesgada del objetivo global.",
zh = "一种联邦学习中的客户端选择方案,在每一轮通信中以相等概率独立地对可用客户端进行子集采样,从而对全局目标提供无偏估计。",
article = nil,
}
data["uniform continuity"] = {
short = "A strengthening of continuity for a function on a metric space requiring that for any epsilon > 0 a single delta works for all points, not depending on location.",
es = "Refinamiento de la continuidad para una función en un espacio métrico que exige que para todo epsilon > 0 exista un único delta válido para todos los puntos, sin depender de la ubicación.",
zh = "度量空间上函数连续性的加强:对任意 ε > 0 存在单一的 δ 适用于所有点,与位置无关。",
article = nil,
}
data["uniform convergence"] = {
short = "A mode of convergence of a sequence of functions in which the supremum of the pointwise error tends to zero, preserving continuity and allowing exchange of limit and integral.",
es = "Modo de convergencia de una sucesión de funciones en el que el supremo del error puntual tiende a cero, preservando la continuidad y permitiendo intercambiar límite e integral.",
zh = "函数序列收敛的一种模式,其逐点误差的上确界趋于零,从而保持连续性并允许交换极限与积分。",
article = nil,
}
data["uniform frame sampling"] = {
short = "A simple video preprocessing strategy that selects a fixed number of frames at evenly spaced indices across a clip, used as the default frame selector for many video transformer pipelines.",
es = "Estrategia simple de preprocesamiento de video que selecciona un número fijo de cuadros en posiciones equiespaciadas a lo largo del clip; se usa como selector de cuadros por defecto en muchas tuberías basadas en transformers de video.",
zh = "一种简单的视频预处理策略,在片段中以等间距索引选取固定数量的帧,常作为多种视频 Transformer 流水线的默认抽帧方法。",
article = nil,
}
data["uniform negative sampling"] = {
short = "The simplest negative-sampling scheme for implicit-feedback recommenders, in which non-interacted items are drawn uniformly at random from the catalog as negatives during training, ignoring item popularity or hardness.",
es = "El esquema más simple de muestreo de negativos para recomendadores con retroalimentación implícita, en el que durante el entrenamiento los ítems no interactuados se eligen uniformemente al azar del catálogo como negativos, sin tener en cuenta su popularidad ni dificultad.",
zh = "面向隐式反馈推荐的最简单负采样方案,在训练时从目录中均匀随机抽取未交互的物品作为负样本,不考虑物品的热度或难度。",
article = nil,
}
data["uniform sampling supernet"] = {
short = "A one-shot NAS training scheme that, at every step, samples a single sub-architecture uniformly at random from the search space and updates only that path's weights, decoupling supernet training from the search policy.",
es = "Esquema de entrenamiento NAS one-shot que en cada paso muestrea uniformemente al azar una subarquitectura del espacio de búsqueda y actualiza únicamente los pesos de esa ruta, desacoplando el entrenamiento del supernet de la política de búsqueda.",
zh = "一种单次NAS训练方案,每一步从搜索空间中均匀随机采样一个子架构,仅更新该路径的权重,从而将超网训练与搜索策略解耦。",
article = nil,
}
data["unigram language model"] = {
short = "A subword tokenization algorithm that initializes a large candidate vocabulary and iteratively prunes tokens by maximizing the likelihood of the training corpus under a unigram model over subword units.",
es = "Algoritmo de tokenización en subpalabras que inicializa un gran vocabulario candidato y poda iterativamente tokens maximizando la verosimilitud del corpus de entrenamiento bajo un modelo unigrama sobre unidades de subpalabra.",
zh = "一种子词分词算法,先初始化一个大型候选词表,然后通过最大化训练语料在子词单元上 unigram 模型的似然来迭代地剪除词元。",
article = nil,
}
data["unipc sampler"] = {
short = "Unified Predictor-Corrector (UniPC), a training-free sampler for diffusion models that combines a predictor and a corrector step to achieve high-quality samples in very few denoising steps (often 5-10).",
es = "Unified Predictor-Corrector (UniPC), un muestreador para modelos de difusión que no requiere entrenamiento y combina un paso predictor y otro corrector para producir muestras de alta calidad en muy pocos pasos de denoising (a menudo 5-10).",
zh = "Unified Predictor-Corrector(UniPC)是一种无需训练的扩散模型采样器,将预测步与校正步结合,仅需极少的去噪步数(通常 5-10 步)即可生成高质量样本。",
article = nil,
}
data["uniprot"] = {
short = "A comprehensive, curated resource of protein sequence and functional information, combining the manually reviewed Swiss-Prot database with the automatically annotated TrEMBL.",
es = "Recurso integral y curado de información de secuencias y funciones de proteínas, que combina la base de datos revisada manualmente Swiss-Prot con la anotada automáticamente TrEMBL.",
zh = "一个全面的人工策划的蛋白质序列和功能信息资源,由人工审核的 Swiss-Prot 数据库与自动注释的 TrEMBL 数据库整合而成。",
article = nil,
}
data["uniref"] = {
short = "A set of clustered UniProt sequences provided at three identity thresholds (UniRef100, UniRef90, UniRef50) used to reduce redundancy in homology searches and to build compact protein language model training corpora.",
es = "Conjunto de secuencias UniProt agrupadas en tres umbrales de identidad (UniRef100, UniRef90, UniRef50) que reducen la redundancia en búsquedas de homología y sirven para construir corpus compactos para modelos de lenguaje de proteínas.",
zh = "在三个序列同一性阈值(UniRef100、UniRef90、UniRef50)下对 UniProt 序列进行聚类得到的集合,用于降低同源搜索冗余并构建蛋白质语言模型的紧凑训练语料。",
article = nil,
}
data["uniref50"] = {
short = "A clustering of UniRef90 representatives at 50% sequence identity, yielding the most compact non-redundant set in the UniRef hierarchy; widely used as a training corpus for protein language models.",
es = "Agrupamiento de los representantes de UniRef90 al 50 % de identidad de secuencia, que produce el conjunto no redundante más compacto de la jerarquía UniRef; muy usado como corpus de entrenamiento para modelos de lenguaje de proteínas.",
zh = "在 50% 序列同一性下对 UniRef90 代表序列进行的聚类,得到 UniRef 层级中最紧凑的非冗余集合;广泛用作蛋白质语言模型的训练语料。",
article = nil,
}
data["uniref90"] = {
short = "A clustering of UniRef100 sequences at 90% identity, providing a moderately redundant but informative protein sequence set used for homology searches and language-model pretraining (e.g., ESM, ProtBERT).",
es = "Agrupamiento de secuencias UniRef100 al 90 % de identidad, que ofrece un conjunto moderadamente redundante pero informativo, usado en búsquedas de homología y preentrenamiento de modelos de lenguaje (ESM, ProtBERT).",
zh = "在 90% 同一性下对 UniRef100 序列进行的聚类,提供中等冗余但信息丰富的蛋白质序列集合,用于同源搜索和语言模型预训练(如 ESM、ProtBERT)。",
article = nil,
}
data["unisim"] = {
short = "A learned generative world simulator that produces realistic video conditioned on natural-language or low-level action commands, enabling policy training and evaluation without access to a hand-coded environment.",
es = "Simulador del mundo generativo aprendido que produce vídeo realista condicionado a comandos en lenguaje natural o acciones de bajo nivel, permitiendo entrenar y evaluar políticas sin un entorno codificado a mano.",
zh = "一种学习得到的生成式世界模拟器,可根据自然语言或底层动作指令生成逼真视频,从而无需手工实现的环境即可训练和评估策略。",
article = nil,
}
data["unit root"] = {
short = "A characteristic root of a time series' autoregressive lag polynomial that is exactly equal to one, indicating non-stationarity in which shocks have permanent effects on the level of the process.",
es = "Raíz característica del polinomio autorregresivo de una serie temporal igual a uno, que indica no estacionariedad en la que los choques tienen efectos permanentes sobre el nivel del proceso.",
zh = "时间序列自回归滞后多项式中恰好等于 1 的特征根,表明序列非平稳,冲击对过程水平具有永久影响。",
article = nil,
}
data["unit selection tts"] = {
short = "Concatenative speech synthesis paradigm that builds an utterance by selecting and joining short prerecorded speech units from a database to minimize a target-and-join cost; the dominant pre-neural TTS approach.",
es = "Paradigma concatenativo de síntesis de voz que construye una emisión seleccionando y uniendo unidades de habla pregrabadas de una base de datos minimizando un coste de objetivo y de unión; fue el enfoque dominante de TTS antes de la era neuronal.",
zh = "拼接式语音合成范式,通过从语音单元数据库中选择并连接短录音单元以最小化目标-连接代价来生成话语,是神经网络之前 TTS 的主流方法。",
article = nil,
}
data["unit visualization"] = {
short = "Visualization of what an individual neuron, channel, or feature unit in a neural network responds to, often via activation maximization or by displaying highly-activating inputs.",
es = "Visualización de aquello a lo que responde una neurona, canal o unidad de característica individual de una red neuronal, normalmente mediante maximización de activación o mostrando entradas que la activan fuertemente.",
zh = "对神经网络中单个神经元、通道或特征单元所响应内容的可视化,通常通过激活最大化或展示高激活输入来实现。",
article = nil,
}
data["unitary matrix"] = {
short = "A complex square matrix U whose conjugate transpose is its inverse, U*U = UU* = I. The complex analogue of an orthogonal matrix; preserves the Hermitian inner product and complex norms.",
es = "Matriz cuadrada compleja U cuya transpuesta conjugada es su inversa, U*U = UU* = I. Es el análogo complejo de una matriz ortogonal; preserva el producto interno hermitiano y las normas complejas.",
zh = "复方阵 U,其共轭转置等于其逆,即 U*U = UU* = I。它是正交矩阵的复数推广;保持厄米内积和复范数。",
article = nil,
}
data["uniter"] = {
short = "UNiversal Image-TExt Representation; a vision-language pretraining model that learns a single transformer over image regions and text tokens with masked language modeling, masked region modeling, image-text matching, and word-region alignment objectives.",
es = "UNiversal Image-TExt Representation; modelo de preentrenamiento visión-lenguaje que aprende un único transformer sobre regiones de imagen y tokens de texto, combinando modelado de lenguaje enmascarado, modelado de regiones enmascaradas, emparejamiento imagen-texto y alineación palabra-región.",
zh = "UNiversal Image-TExt Representation;一种视觉-语言预训练模型,在单个 Transformer 中对图像区域与文本 token 联合建模,结合掩码语言建模、掩码区域建模、图文匹配以及词-区域对齐等目标。",
article = nil,
}
data["universal approximation theorem"] = {
short = "A theorem stating that feedforward neural networks with a single hidden layer and appropriate nonlinear activations can approximate any continuous function on a compact set to arbitrary accuracy.",
es = "Teorema que establece que las redes neuronales prealimentadas con una sola capa oculta y activaciones no lineales adecuadas pueden aproximar cualquier función continua sobre un conjunto compacto con precisión arbitraria.",
zh = "定理:具有单一隐藏层和合适非线性激活函数的前馈神经网络可以在紧集上以任意精度逼近任何连续函数。",
article = nil,
}
data["universal interatomic potential"] = {
short = "A machine-learning interatomic potential trained on broad coverage of the periodic table and chemical environments, intended to predict energies and forces for arbitrary materials and molecules without system-specific retraining.",
es = "Potencial interatómico de aprendizaje automático entrenado con una cobertura amplia de la tabla periódica y de entornos químicos, destinado a predecir energías y fuerzas para materiales y moléculas arbitrarios sin reentrenamiento específico del sistema.",
zh = "一种在元素周期表和化学环境中具有广泛覆盖的机器学习原子间势函数,旨在无需针对特定体系重新训练即可预测任意材料和分子的能量与力。",
article = nil,
}
data["universal manipulation interface"] = {
short = "A portable handheld gripper system (Chi, Xu et al., 2024), abbreviated UMI, that pairs a parallel-jaw end effector with a fish-eye GoPro to let humans collect manipulation data anywhere; the demonstrations train diffusion policies that transfer directly to robots with the same gripper.",
es = "Sistema de pinza manual portátil (Chi, Xu et al., 2024), abreviado UMI, que combina un efector final de mordazas paralelas con una cámara GoPro de ojo de pez para que humanos recolecten datos de manipulación en cualquier entorno; las demostraciones entrenan políticas de difusión que se transfieren directamente a robots con la misma pinza.",
zh = "一种手持便携式夹爪系统(Chi、Xu 等人,2024),简称 UMI,将平行夹爪末端执行器与鱼眼 GoPro 相机结合,使人类可在任意环境中采集操作数据;由此得到的演示用于训练扩散策略,并能直接迁移到搭载同款夹爪的机器人。",
article = nil,
}
data["universal probabilistic programming"] = {
short = "A class of probabilistic programming languages that admits arbitrary computation—including recursion, higher-order functions, and stochastic control flow—within models, supporting unbounded numbers of random variables.",
es = "Clase de lenguajes de programación probabilística que admiten cómputo arbitrario —incluyendo recursión, funciones de orden superior y flujo de control estocástico— dentro de los modelos, soportando un número no acotado de variables aleatorias.",
zh = "一类概率编程语言,允许模型内部进行任意计算(包括递归、高阶函数和随机控制流),支持无界数量的随机变量。",
article = nil,
}
data["universal recommender"] = {
short = "Universal Recommender is a general-purpose, multi-action recommender (originally part of Apache PredictionIO / ActionML) that uses correlated cross-occurrence on Elasticsearch to combine multiple user-event types — e.g., views, purchases, likes — into a single ranked recommendation.",
es = "Universal Recommender es un recomendador de propósito general y multi-acción (originalmente parte de Apache PredictionIO / ActionML) que usa coocurrencia cruzada correlacionada sobre Elasticsearch para combinar varios tipos de eventos del usuario —vistas, compras, likes— en una única recomendación ordenada.",
zh = "Universal Recommender 是一种通用、多行为推荐器(最初属于 Apache PredictionIO / ActionML),通过 Elasticsearch 上的相关交叉共现,将浏览、购买、点赞等多种用户事件融合为单一的有序推荐结果。",
article = nil,
}
data["universal value function approximator"] = {
short = "A neural network that approximates value functions jointly conditioned on state and goal, V(s,g) or Q(s,a,g), enabling generalization across goals and forming the basis for goal-conditioned reinforcement learning.",
es = "Red neuronal que aproxima funciones de valor condicionadas conjuntamente al estado y a la meta, V(s,g) o Q(s,a,g), permitiendo la generalización entre metas y sirviendo de base para el aprendizaje por refuerzo condicionado a metas.",
zh = "一种同时以状态和目标为条件的价值函数神经网络逼近器,形如 V(s,g) 或 Q(s,a,g),可在不同目标间泛化,是目标条件强化学习的基础。",
article = nil,
}
data["univnet vocoder"] = {
short = "Neural vocoder that conditions a multi-resolution spectrogram discriminator on log-mel inputs to generate high-fidelity waveforms, balancing quality and inference speed comparable to HiFi-GAN.",
es = "Vocoder neuronal que condiciona un discriminador de espectrograma multirresolución sobre entradas log-mel para generar formas de onda de alta fidelidad, equilibrando calidad y velocidad de inferencia de manera comparable a HiFi-GAN.",
zh = "一种神经声码器,使用以对数梅尔谱为条件的多分辨率谱图判别器生成高保真波形,在质量和推理速度上可与 HiFi-GAN 相媲美。",
article = nil,
}
data["unmeasured confounder"] = {
short = "A variable that influences both treatment and outcome but is not observed in the data, biasing causal effect estimates obtained by adjustment on observed covariates alone. Sensitivity analyses such as E-values quantify how strong such confounding would have to be to change conclusions.",
es = "Variable que influye tanto en el tratamiento como en el resultado pero no se observa en los datos, sesgando las estimaciones del efecto causal obtenidas únicamente con el ajuste por covariables observadas. Análisis de sensibilidad como los E-values cuantifican qué tan fuerte tendría que ser dicha confusión para alterar las conclusiones.",
zh = "对处理和结果都有影响但在数据中未被观测到的变量,会使仅依赖可观测协变量调整的因果效应估计产生偏差。E-value 等敏感性分析可量化此类混杂需多强才足以改变结论。",
article = nil,
}
data["unobserved components model"] = {
short = "A state space decomposition of a time series into latent trend, seasonal, cyclical, and irregular components, each modeled as its own stochastic process and estimated via the Kalman filter.",
es = "Descomposición en espacio de estados de una serie temporal en componentes latentes de tendencia, estacionalidad, ciclo e irregularidad, cada uno modelado como un proceso estocástico propio y estimado con el filtro de Kalman.",
zh = "将时间序列分解为潜在趋势、季节、周期和不规则成分的状态空间模型,每个成分建模为独立的随机过程,并通过卡尔曼滤波进行估计。",
article = nil,
}
data["unreal agent"] = {
short = "UNsupervised REinforcement and Auxiliary Learning agent: an A3C-based deep reinforcement learning system that augments policy training with auxiliary tasks such as pixel control, reward prediction, and value replay to learn richer representations.",
es = "Agente de Aprendizaje por Refuerzo y Auxiliar No Supervisado: sistema de aprendizaje por refuerzo profundo basado en A3C que complementa el entrenamiento de la política con tareas auxiliares como control por píxeles, predicción de recompensa y repetición de valor para aprender representaciones más ricas.",
zh = "无监督强化与辅助学习智能体:基于 A3C 的深度强化学习系统,通过像素控制、奖励预测和价值回放等辅助任务来增强策略训练,从而学习更丰富的表示。",
article = nil,
}
data["unscented kalman filter"] = {
short = "A nonlinear extension of the Kalman filter that propagates a deterministic set of sigma points through the state and measurement equations, capturing posterior mean and covariance to second order without explicit Jacobians.",
es = "Extensión no lineal del filtro de Kalman que propaga un conjunto determinista de puntos sigma a través de las ecuaciones de estado y medición, capturando la media y covarianza posteriores hasta segundo orden sin requerir jacobianas explícitas.",
zh = "卡尔曼滤波的非线性扩展,通过将一组确定性 sigma 点传播经过状态方程和观测方程,在二阶精度上捕获后验均值与协方差,且无需显式雅可比矩阵。",
article = nil,
}
data["unsupervised environment design"] = {
short = "A reinforcement learning paradigm in which an environment generator is trained—typically via an adversarial or regret-based objective—to produce a curriculum of training environments that maximize the learning agent's progress.",
es = "Paradigma de aprendizaje por refuerzo en el que un generador de entornos se entrena —normalmente con un objetivo adversarial o basado en arrepentimiento— para producir un currículo de entornos de entrenamiento que maximicen el progreso del agente.",
zh = "一种强化学习范式,通常以对抗式或基于遗憾的目标训练环境生成器,从而产生一组课程化的训练环境,使智能体的学习进展最大化。",
article = nil,
}
data["unsupervised learning"] = {
short = "A machine learning paradigm in which a model learns structure, patterns, or representations from unlabeled data, encompassing tasks such as clustering, density estimation, and dimensionality reduction.",
es = "Paradigma de aprendizaje automático en el que un modelo aprende estructura, patrones o representaciones a partir de datos no etiquetados, abarcando tareas como agrupamiento, estimación de densidad y reducción de dimensionalidad.",
zh = "一种机器学习范式,模型从无标签数据中学习结构、模式或表示,涵盖聚类、密度估计和降维等任务。",
article = nil,
}
data["unsupervised rl benchmark"] = {
short = "A standardized benchmark suite for evaluating unsupervised reinforcement learning algorithms, in which agents pretrain without external rewards on tasks like DeepMind Control and are then fine-tuned on downstream tasks for comparison.",
es = "Conjunto estandarizado de pruebas para evaluar algoritmos de aprendizaje por refuerzo no supervisado, en el que los agentes se preentrenan sin recompensas externas en tareas como DeepMind Control y luego se afinan en tareas posteriores para su comparación.",
zh = "用于评估无监督强化学习算法的标准化基准套件,智能体先在 DeepMind Control 等任务上无外部奖励进行预训练,再在下游任务上微调以进行比较。",
article = nil,
}
data["unsupervised skill discovery"] = {
short = "A class of reinforcement learning methods that learn a diverse set of distinguishable skills without external reward, typically by maximizing a mutual-information objective between latent skill variables and the resulting behavior.",
es = "Clase de métodos de aprendizaje por refuerzo que aprenden un conjunto diverso de habilidades distinguibles sin recompensa externa, normalmente maximizando un objetivo de información mutua entre variables latentes de habilidad y el comportamiento resultante.",
zh = "一类强化学习方法,无需外部奖励即可学习一组多样且可区分的技能,通常通过最大化潜在技能变量与所产生行为之间的互信息目标实现。",
article = nil,
}
data["untargeted poisoning attack"] = {
short = "A poisoning attack whose goal is to degrade the overall accuracy or convergence of the trained model on any input, in contrast to targeted attacks that aim only to misclassify specific inputs or trigger patterns.",
es = "Ataque de envenenamiento cuyo objetivo es degradar la precisión o la convergencia global del modelo entrenado sobre cualquier entrada, en contraste con los ataques dirigidos que solo buscan clasificar erróneamente entradas específicas o patrones disparadores.",
zh = "一种投毒攻击,目标是降低训练后的模型在任意输入上的整体准确率或收敛性,与仅针对特定输入或触发模式造成错误分类的定向攻击形成对比。",
article = nil,
}
data["update-to-data ratio"] = {
short = "In off-policy reinforcement learning, the number of gradient updates performed per environment step; high UTD ratios increase sample efficiency but can amplify overestimation and require regularization such as dropout or ensembles.",
es = "En aprendizaje por refuerzo fuera de política, número de actualizaciones por gradiente realizadas por cada paso del entorno; un UTD alto aumenta la eficiencia de muestras pero puede amplificar la sobreestimación y requiere regularización como dropout o ensembles.",
zh = "在离策略强化学习中,每个环境步执行的梯度更新次数;较高的更新数据比可提高样本效率,但会放大过估计,需要 dropout 或集成等正则化手段加以缓解。",
article = nil,
}
data["uplift modeling"] = {
short = "A predictive modeling approach that estimates the individual-level incremental effect of a treatment, such as a marketing offer, rather than predicting the absolute outcome. Targets units for whom the treatment changes behavior most.",
es = "Enfoque de modelado predictivo que estima el efecto incremental individual de un tratamiento, como una oferta de marketing, en lugar de predecir el resultado absoluto. Permite focalizar a las unidades en las que el tratamiento más cambia el comportamiento.",
zh = "一种预测建模方法,估计处理(如营销活动)在个体层面的增量效应,而非预测绝对结果。它将干预对象集中于能最大改变其行为的单元。",
article = nil,
}
data["uplift random forest"] = {
short = "An ensemble of uplift decision trees that estimates conditional treatment effects by averaging the splits' uplift criteria over many randomly perturbed trees. Used for individualized policy targeting and heterogeneous treatment effect estimation.",
es = "Conjunto de árboles de uplift que estima efectos condicionales del tratamiento promediando los criterios de uplift de muchos árboles aleatoriamente perturbados. Se utiliza para focalización individualizada de políticas y estimación de efectos heterogéneos del tratamiento.",
zh = "由多棵随机扰动的增益决策树组成的集成模型,通过对各树的增益分裂准则取平均来估计条件处理效应。用于个体化策略投放和异质处理效应估计。",
article = nil,
}
data["uplift tree"] = {
short = "A decision tree whose splitting criterion measures the divergence in treatment-effect distributions between child nodes rather than node purity, producing leaves with relatively homogeneous causal effects. Building block of uplift modeling and uplift forests.",
es = "Árbol de decisión cuyo criterio de división mide la divergencia entre las distribuciones del efecto del tratamiento de los nodos hijos, en lugar de la pureza del nodo, produciendo hojas con efectos causales relativamente homogéneos. Componente fundamental del modelado de uplift y de los bosques de uplift.",
zh = "一种决策树,其分裂准则衡量子节点之间处理效应分布的差异,而非节点纯度,从而生成因果效应相对一致的叶节点。是增益建模和增益森林的基本构件。",
article = nil,
}
data["uplink compression"] = {
short = "Communication-efficiency techniques applied to the client-to-server direction in federated learning, such as quantization, sparsification, sketching, or structured updates, to reduce uplink bandwidth which is typically the bottleneck.",
es = "Técnicas de eficiencia de comunicación aplicadas al sentido cliente-a-servidor en aprendizaje federado, como cuantización, esparsificación, sketching o actualizaciones estructuradas, para reducir el ancho de banda del enlace ascendente, que suele ser el cuello de botella.",
zh = "在联邦学习中应用于客户端到服务器方向的通信效率技术,如量化、稀疏化、草图或结构化更新,用于降低通常是瓶颈的上行带宽。",
article = nil,
}
data["upper confidence bound"] = {
short = "An action-selection rule, originally for multi-armed bandits, that picks the action maximizing the empirical mean plus an exploration bonus that grows with the uncertainty of its estimate, yielding logarithmic regret.",
es = "Regla de selección de acciones, originalmente para bandidos multibrazo, que elige la acción que maximiza la media empírica más una bonificación de exploración que crece con la incertidumbre de su estimación, logrando un arrepentimiento logarítmico.",
zh = "一种动作选择规则,最初用于多臂赌博机问题,选择经验均值加上随其估计不确定性增长的探索奖励之和最大的动作,可获得对数级的遗憾界。",
article = nil,
}
data["upsampling time series"] = {
short = "Increasing the sampling frequency of a time series by inserting new points between existing observations, typically through interpolation or model-based imputation.",
es = "Aumento de la frecuencia de muestreo de una serie temporal mediante la inserción de nuevos puntos entre las observaciones existentes, habitualmente por interpolación o imputación basada en modelos.",
zh = "通过在现有观测之间插入新点来提高时间序列采样频率的过程,通常采用插值或基于模型的填补方法。",
article = nil,
}
data["upside-down rl"] = {
short = "A reinforcement learning paradigm proposed by Schmidhuber that reformulates control as supervised learning of a command-conditioned policy that maps desired returns and horizons to actions, sidestepping value-based or policy-gradient updates.",
es = "Paradigma de aprendizaje por refuerzo propuesto por Schmidhuber que reformula el control como aprendizaje supervisado de una política condicionada a comandos que asigna acciones a partir de retornos y horizontes deseados, evitando las actualizaciones basadas en valor o en gradiente de política.",
zh = "Schmidhuber 提出的强化学习范式,将控制重新表述为对一个由指令条件的策略的监督学习,使其将期望回报与时间跨度映射为动作,从而避开基于价值或策略梯度的更新。",
article = nil,
}
data["urbansound8k"] = {
short = "Public dataset of 8732 labeled urban sound clips (≤4s) drawn from Freesound and organized into 10 classes (e.g., siren, jackhammer, dog bark), distributed in 10 predefined folds for cross-validation.",
es = "Conjunto de datos público de 8732 clips de sonido urbano etiquetados (≤4 s) tomados de Freesound y organizados en 10 clases (sirena, martillo neumático, ladrido de perro, etc.), distribuidos en 10 particiones predefinidas para validación cruzada.",
zh = "公开城市声音数据集,包含 8732 段不超过 4 秒的标注音频(取自 Freesound),分为 10 类(警笛、风钻、狗吠等),并按 10 个预定义折划分以供交叉验证。",
article = nil,
}
data["urlb"] = {
short = "Unsupervised Reinforcement Learning Benchmark: a standard suite that evaluates reward-free pretraining algorithms by measuring downstream task performance after a short fine-tuning phase, typically on DeepMind Control domains.",
es = "Unsupervised Reinforcement Learning Benchmark: conjunto estándar que evalúa algoritmos de preentrenamiento sin recompensa midiendo el rendimiento en tareas posteriores tras una fase breve de ajuste, normalmente en dominios de DeepMind Control.",
zh = "无监督强化学习基准:一套标准套件,通过在简短微调阶段后衡量下游任务表现来评估无奖励预训练算法,通常使用 DeepMind Control 等领域。",
article = nil,
}
data["usad"] = {
short = "UnSupervised Anomaly Detection, an autoencoder-based architecture that uses two decoders trained adversarially to amplify reconstruction error on anomalous multivariate time series windows.",
es = "UnSupervised Anomaly Detection, arquitectura basada en autoencoder que emplea dos decodificadores entrenados de forma adversarial para amplificar el error de reconstrucción en ventanas anómalas de series temporales multivariantes.",
zh = "UnSupervised Anomaly Detection,一种基于自编码器的架构,通过对抗训练的两个解码器放大多变量时间序列异常窗口的重构误差。",
article = nil,
}
data["user browsing model"] = {
short = "User Browsing Model (UBM; Dupret and Piwowarski, 2008) is a click model in which the probability that a user examines a result depends on its position and the position of the previous click, used to derive unbiased relevance estimates from click logs.",
es = "El User Browsing Model (UBM; Dupret y Piwowarski, 2008) es un modelo de clics en el que la probabilidad de que un usuario examine un resultado depende de su posición y de la posición del clic previo, y se utiliza para obtener estimaciones de relevancia no sesgadas a partir de registros de clics.",
zh = "用户浏览模型(UBM;Dupret 和 Piwowarski,2008)是一种点击模型,假设用户检查某个结果的概率取决于其位置以及上一次点击的位置,用于从点击日志中得到无偏的相关性估计。",
article = nil,
}
data["user cold start"] = {
short = "The recommender problem of serving a new user with little or no interaction history; mitigations include onboarding questionnaires, demographic side features, content-based fallbacks, and meta-learning models that adapt quickly from a few signals.",
es = "Problema de recomendación que consiste en atender a un usuario nuevo con escaso o nulo historial de interacciones; se mitiga con cuestionarios de onboarding, atributos demográficos, alternativas basadas en contenido y modelos de meta-aprendizaje que se adaptan rápidamente con pocas señales.",
zh = "向交互历史很少或没有的新用户提供推荐的问题;常用缓解方法包括引导问卷、人口学辅助特征、基于内容的回退方案,以及能从少量信号快速适应的元学习模型。",
article = nil,
}
data["user embedding"] = {
short = "A learned dense vector representation of a user in a recommender or personalization system, summarizing preferences inferred from interaction history, profile features, or context for use in retrieval and ranking.",
es = "Representación vectorial densa aprendida de un usuario en un sistema de recomendación o personalización, que resume las preferencias inferidas a partir del historial de interacciones, características de perfil o contexto, para uso en recuperación y ranking.",
zh = "推荐或个性化系统中用户的可学习稠密向量表示,汇总从交互历史、画像特征或上下文中推断出的偏好,用于召回和排序。",
article = nil,
}
data["user latent factor"] = {
short = "In matrix factorization recommenders, the low-dimensional latent vector associated with a user that, when combined with an item factor (typically by inner product), reconstructs predicted preferences.",
es = "En los recomendadores de factorización matricial, el vector latente de baja dimensión asociado a un usuario que, combinado con un factor de ítem (típicamente por producto interno), reconstruye las preferencias predichas.",
zh = "在矩阵分解推荐器中,与用户关联的低维隐向量,与物品因子(通常通过内积)结合后可重构预测的偏好。",
article = nil,
}
data["user prompt"] = {
short = "The user-authored message in a chat-style interaction with a language model, typically a question, instruction, or content to act on. Combined with the system prompt and prior turns to form the model input.",
es = "Mensaje escrito por el usuario en una interacción de tipo chat con un modelo de lenguaje, normalmente una pregunta, una instrucción o contenido sobre el que actuar. Se combina con el prompt del sistema y los turnos previos para formar la entrada del modelo.",
zh = "在与语言模型的对话交互中由用户编写的消息,通常是问题、指令或需要处理的内容,与系统提示和先前对话一起构成模型输入。",
article = nil,
}
data["user tower"] = {
short = "The user-side sub-network in a two-tower retrieval recommender that maps user features and history to an embedding, computed independently of the item tower so candidate retrieval reduces to nearest-neighbor search.",
es = "Subred del lado del usuario en un recomendador de recuperación de dos torres que mapea las características y el historial del usuario a un embedding, calculado de forma independiente de la torre de ítems para que la recuperación de candidatos se reduzca a una búsqueda de vecinos más cercanos.",
zh = "双塔召回推荐器中位于用户侧的子网络,将用户特征和历史映射为嵌入向量,与物品塔独立计算,从而使候选召回简化为最近邻搜索。",
article = nil,
}
data["user-aligned explanation"] = {
short = "An explanation tailored to a target user's expertise, goals, or mental model so that it is actionable for them, rather than optimized purely for technical fidelity.",
es = "Explicación adaptada a la experiencia, los objetivos o el modelo mental del usuario destinatario, de modo que le resulte accionable, en lugar de optimizarse solo por fidelidad técnica.",
zh = "针对目标用户的专业水平、目标或心理模型量身定制的解释,使其对该用户具有可操作性,而不仅追求技术上的忠实度。",
article = nil,
}
data["user-based collaborative filtering"] = {
short = "A neighborhood collaborative filtering method that predicts a user's preference for an item by aggregating ratings from the most similar other users, where similarity is computed over shared rating patterns.",
es = "Método de filtrado colaborativo basado en vecindario que predice la preferencia de un usuario por un ítem agregando las calificaciones de los usuarios más similares, donde la similitud se calcula sobre patrones de calificación compartidos.",
zh = "一种基于邻域的协同过滤方法,通过聚合最相似用户的评分来预测目标用户对物品的偏好,相似度基于共同评分模式计算。",
article = nil,
}
data["user-level differential privacy"] = {
short = "A differential privacy variant in which the unit of protection is an entire user — potentially contributing many records — rather than a single record. Provides stronger guarantees than record-level DP when one user supplies multiple training examples.",
es = "Variante de privacidad diferencial cuya unidad de protección es un usuario completo, que puede aportar múltiples registros, en lugar de un único registro. Ofrece garantías más estrictas que la DP a nivel de registro cuando un mismo usuario contribuye con varios ejemplos de entrenamiento.",
zh = "一种差分隐私变体,其保护单元为整个用户(可能贡献多条记录),而非单条记录。当同一用户提供多个训练样本时,可提供比记录级 DP 更强的隐私保证。",
article = nil,
}
data["usm"] = {
short = "Universal Speech Model: Google's family of large multilingual speech foundation models (~2B parameters) trained on millions of hours of audio across 100+ languages for ASR and translation.",
es = "Universal Speech Model: familia de modelos fundacionales de habla multilingües de gran tamaño (~2B parámetros) de Google, entrenados con millones de horas de audio en más de 100 idiomas para reconocimiento y traducción.",
zh = "Universal Speech Model:谷歌推出的大规模多语言语音基础模型系列(约 20 亿参数),在涵盖 100 多种语言的数百万小时音频上训练,可用于语音识别和翻译。",
article = nil,
}
data["uspto reaction dataset"] = {
short = "A collection of chemical reactions extracted from US Patent and Trademark Office filings, widely used to train and evaluate reaction prediction and retrosynthesis models.",
es = "Colección de reacciones químicas extraídas de los registros de la Oficina de Patentes y Marcas de Estados Unidos, ampliamente utilizada para entrenar y evaluar modelos de predicción de reacciones y retrosíntesis.",
zh = "从美国专利商标局申请文件中提取的化学反应集合,广泛用于训练和评估反应预测及逆合成模型。",
article = nil,
}
data["utmos"] = {
short = "Open-source neural mean-opinion-score predictor for synthesized speech, fine-tuned from a self-supervised speech model on subjective listening-test data; widely used as an automatic TTS quality metric.",
es = "Predictor neuronal de código abierto de puntuación de opinión media (MOS) para habla sintetizada, ajustado a partir de un modelo de habla autosupervisado con datos de pruebas subjetivas de escucha; muy usado como métrica automática de calidad de TTS.",
zh = "开源的合成语音平均意见分(MOS)神经预测器,从自监督语音模型在主观听测数据上微调而来,被广泛用作 TTS 质量的自动评估指标。",
article = nil,
}
data["utterance-level pit"] = {
short = "Permutation-invariant training variant for speech separation that computes the minimum-loss speaker permutation once per utterance rather than per frame, giving stable speaker assignments across the whole segment.",
es = "Variante del entrenamiento invariante a permutaciones para separación de voz que calcula la permutación de locutores con menor pérdida una vez por enunciado en lugar de por trama, asignando locutores de forma estable en todo el segmento.",
zh = "语音分离中的一种排列不变训练变体,在整段语音上仅计算一次最小损失的说话人排列(而非逐帧计算),从而在整段中获得稳定的说话人分配。",
article = nil,
}
data["uvfa"] = {
short = "Universal Value Function Approximator: a neural network that approximates a value function jointly conditioned on state and goal, V(s,g) or Q(s,a,g), enabling generalization across goals in goal-conditioned reinforcement learning.",
es = "Universal Value Function Approximator: red neuronal que aproxima una función de valor condicionada conjuntamente al estado y a la meta, V(s,g) o Q(s,a,g), permitiendo la generalización entre metas en aprendizaje por refuerzo condicionado a metas.",
zh = "通用价值函数逼近器:一种同时以状态和目标为条件的价值函数神经网络,形如 V(s,g) 或 Q(s,a,g),可在目标条件强化学习中实现跨目标的泛化。",
article = nil,
}
data["v(d)j recombination"] = {
short = "The somatic DNA rearrangement of variable (V), diversity (D), and joining (J) gene segments that generates the diversity of B- and T-cell antigen receptors during lymphocyte development.",
es = "Recombinación somática del ADN entre segmentos génicos variable (V), de diversidad (D) y de unión (J) que genera la diversidad de los receptores de antígeno de linfocitos B y T durante su desarrollo.",
zh = "在淋巴细胞发育过程中,可变(V)、多样性(D)和连接(J)基因片段的体细胞 DNA 重排过程,产生 B 细胞和 T 细胞抗原受体的多样性。",
article = nil,
}
data["v-mpo"] = {
short = "An on-policy variant of Maximum a Posteriori Policy Optimisation that replaces the action-value-based E-step with a top-half advantage-based weighting and uses a Lagrangian-constrained KL trust region for the M-step, scaling MPO to large policy networks.",
es = "Variante en política de Maximum a Posteriori Policy Optimisation que reemplaza el paso E basado en valores de acción por una ponderación basada en las ventajas de la mejor mitad y usa una región de confianza KL con multiplicadores de Lagrange en el paso M, escalando MPO a redes de política grandes.",
zh = "Maximum a Posteriori Policy Optimisation 的同策略变体,将基于动作价值的 E 步替换为基于前一半样本优势的加权,并在 M 步中使用拉格朗日约束的 KL 信赖域,从而将 MPO 扩展到大型策略网络。",
article = nil,
}
data["v-prediction"] = {
short = "A diffusion model parameterization where the network predicts the velocity v = α_t·ε − σ_t·x₀ instead of the noise or clean sample. Improves stability at high noise levels and is used in progressive distillation and Stable Diffusion 2.",
es = "Parametrización de modelos de difusión en la que la red predice la velocidad v = α_t·ε − σ_t·x₀ en lugar del ruido o de la muestra limpia. Mejora la estabilidad con niveles altos de ruido y se usa en destilación progresiva y Stable Diffusion 2.",
zh = "一种扩散模型参数化方式,网络预测速度 v = α_t·ε − σ_t·x₀,而不是噪声或干净样本。在高噪声水平下更稳定,被用于渐进式蒸馏和 Stable Diffusion 2。",
article = nil,
}
data["v-structure"] = {
short = "In a directed acyclic graph, a configuration of three nodes in which two parents point to a common child with no edge between the parents; the parents are marginally independent but become dependent when the child is observed.",
es = "En un grafo acíclico dirigido, configuración de tres nodos en la que dos padres apuntan a un hijo común sin arista entre los padres; los padres son marginalmente independientes pero se vuelven dependientes al observar al hijo.",
zh = "在有向无环图中,两个父节点指向同一子节点且父节点之间无边的三节点结构;父节点边缘独立,但在观测到子节点时变得相关。",
article = nil,
}
data["v-trace"] = {
short = "An off-policy actor-critic correction operator introduced in IMPALA that uses truncated importance sampling weights to compute value targets, enabling stable learning from trajectories collected under stale behavior policies.",
es = "Operador de corrección actor-crítico fuera de política introducido en IMPALA que utiliza pesos de muestreo de importancia truncados para calcular objetivos de valor, permitiendo un aprendizaje estable a partir de trayectorias recogidas con políticas de comportamiento desactualizadas.",
zh = "IMPALA 中引入的离策略 actor-critic 校正算子,使用截断的重要性采样权重计算价值目标,从而在使用陈旧行为策略采集的轨迹上稳定学习。",
article = nil,
}
data["vadam"] = {
short = "A variational inference method for Bayesian neural networks that turns Adam into an approximate natural-gradient variational optimizer by reinterpreting Adam's updates as updates on a Gaussian variational posterior. Proposed by Khan et al. (2018).",
es = "Método de inferencia variacional para redes neuronales bayesianas que convierte Adam en un optimizador variacional de gradiente natural aproximado, reinterpretando las actualizaciones de Adam como actualizaciones de una posterior variacional gaussiana. Propuesto por Khan et al. (2018).",
zh = "Khan 等人(2018)提出的贝叶斯神经网络变分推断方法,将 Adam 的更新重新解释为对高斯变分后验的更新,从而把 Adam 转化为近似自然梯度的变分优化器。",
article = nil,
}
data["vae for collaborative filtering"] = {
short = "A collaborative filtering model that treats each user's interaction vector as input to a variational autoencoder, learning a multinomial likelihood over items conditioned on a latent user variable for top-N recommendation.",
es = "Modelo de filtrado colaborativo que trata el vector de interacciones de cada usuario como entrada de un autoencoder variacional, aprendiendo una verosimilitud multinomial sobre los ítems condicionada a una variable latente de usuario para la recomendación top-N.",
zh = "一种协同过滤模型,将每个用户的交互向量作为变分自编码器的输入,在潜在用户变量条件下学习物品上的多项分布似然,用于 top-N 推荐。",
article = nil,
}
data["vae tiling"] = {
short = "A memory-saving inference trick that splits a large image into overlapping tiles before VAE encode or decode, then blends the tiles back together. Lets latent diffusion models process resolutions that would otherwise exceed GPU memory.",
es = "Técnica de inferencia que ahorra memoria dividiendo una imagen grande en mosaicos solapados antes de codificarla o decodificarla con el VAE, y luego fusiona los mosaicos. Permite que los modelos de difusión latente trabajen con resoluciones que excederían la memoria de la GPU.",
zh = "一种节省显存的推理技巧:在 VAE 编码或解码前将大图切分为有重叠的瓦片,再把瓦片融合回去。使潜空间扩散模型能够处理超出显存的分辨率。",
article = nil,
}
data["vail"] = {
short = "Variational Adversarial Imitation Learning: an extension of GAIL that constrains the discriminator's mutual information about the input via a variational information bottleneck, stabilizing imitation learning from high-dimensional observations.",
es = "Variational Adversarial Imitation Learning: extensión de GAIL que limita la información mutua del discriminador respecto a la entrada mediante un cuello de botella de información variacional, estabilizando el aprendizaje por imitación a partir de observaciones de alta dimensión.",
zh = "变分对抗模仿学习:GAIL 的扩展,通过变分信息瓶颈限制判别器对输入的互信息,从而稳定从高维观测进行的模仿学习。",
article = nil,
}
data["validation set"] = {
short = "A held-out portion of the data used during training to tune hyperparameters and monitor generalization, separate from both the training set used to fit parameters and the test set used for final evaluation.",
es = "Parte de los datos reservada durante el entrenamiento para ajustar hiperparámetros y supervisar la generalización, distinta tanto del conjunto de entrenamiento utilizado para ajustar los parámetros como del conjunto de prueba empleado para la evaluación final.",
zh = "训练过程中预留的一部分数据,用于调节超参数并监控泛化能力,与用于拟合参数的训练集和用于最终评估的测试集均相互独立。",
article = nil,
}
data["validity counterfactual"] = {
short = "A property of a counterfactual example requiring that, when fed back through the model, it actually yields the desired alternative prediction.",
es = "Propiedad de un ejemplo contrafactual que exige que, al ser evaluado de nuevo por el modelo, produzca efectivamente la predicción alternativa deseada.",
zh = "反事实样本的一项属性,要求将其重新输入模型后确实能产生所期望的另一种预测。",
article = nil,
}
data["vall-e"] = {
short = "Neural codec language model from Microsoft that treats text-to-speech as conditional autoregressive generation of EnCodec audio tokens, achieving zero-shot voice cloning from a 3-second speaker prompt.",
es = "Modelo de lenguaje sobre códecs neuronales propuesto por Microsoft que aborda la síntesis de voz como generación autoregresiva condicional de tokens de audio EnCodec, logrando clonación de voz zero-shot a partir de una indicación de 3 segundos del hablante.",
zh = "微软提出的神经编解码语言模型,将文本转语音建模为对 EnCodec 音频 token 的条件自回归生成,只需 3 秒说话人示例即可实现零样本声音克隆。",
article = nil,
}
data["vall-e x"] = {
short = "Cross-lingual extension of VALL-E that conditions on a source-language speaker prompt and target-language text, enabling zero-shot voice cloning across languages while preserving speaker timbre and prosody.",
es = "Extensión cross-lingual de VALL-E que se condiciona en una indicación del hablante en un idioma de origen y texto en el idioma objetivo, permitiendo clonación de voz zero-shot entre idiomas conservando el timbre y la prosodia del hablante.",
zh = "VALL-E 的跨语种扩展,以源语言说话人示例和目标语言文本为条件,实现跨语种零样本声音克隆,同时保留说话人音色和韵律。",
article = nil,
}
data["valle"] = {
short = "VALL-E (Microsoft, 2023); a neural codec language model that synthesizes speech by autoregressively generating discrete EnCodec tokens, enabling high-quality zero-shot voice cloning from a 3-second speaker prompt.",
es = "VALL-E (Microsoft, 2023); un modelo de lenguaje sobre códecs neuronales que sintetiza voz generando autorregresivamente tokens discretos de EnCodec, lo que permite la clonación de voz cero-shot de alta calidad a partir de una indicación de hablante de 3 segundos.",
zh = "VALL-E(微软,2023);一种基于神经编解码器的语言模型,通过自回归生成 EnCodec 离散音频 token 合成语音,可从 3 秒说话人提示实现高质量零样本语音克隆。",
article = nil,
}
data["valor"] = {
short = "Variational Autoencoding Learning of Options by Reinforcement: an unsupervised option-discovery method that maximizes mutual information between trajectories and a latent context variable using a recurrent decoder, yielding a hierarchy of distinguishable skills.",
es = "Variational Autoencoding Learning of Options by Reinforcement: método no supervisado de descubrimiento de opciones que maximiza la información mutua entre trayectorias y una variable latente de contexto mediante un decodificador recurrente, produciendo una jerarquía de habilidades distinguibles.",
zh = "Variational Autoencoding Learning of Options by Reinforcement:一种无监督选项发现方法,使用循环解码器最大化轨迹与潜在上下文变量之间的互信息,从而获得一组层次化且可区分的技能。",
article = nil,
}
data["value alignment"] = {
short = "The problem and practice of designing AI systems whose objectives and behavior conform to human values, intentions, and norms across deployment contexts.",
es = "Problema y práctica de diseñar sistemas de IA cuyos objetivos y comportamiento se ajusten a los valores, intenciones y normas humanas en distintos contextos de despliegue.",
zh = "设计人工智能系统使其目标与行为在各种部署场景中符合人类价值观、意图和规范的研究问题与实践。",
article = nil,
}
data["value decomposition networks"] = {
short = "A cooperative multi-agent reinforcement learning architecture that learns per-agent Q-functions whose sum equals the joint action-value, enabling centralized training and fully decentralized execution under value additivity.",
es = "Arquitectura de aprendizaje por refuerzo multiagente cooperativo que aprende funciones Q por agente cuya suma equivale al valor de acción conjunta, permitiendo entrenamiento centralizado y ejecución totalmente descentralizada bajo aditividad de valores.",
zh = "一种协作式多智能体强化学习架构,学习每个智能体的 Q 函数,使其之和等于联合动作价值,在价值可加性下实现集中式训练和完全分布式执行。",
article = nil,
}
data["value equivalence principle"] = {
short = "A model-based reinforcement learning principle stating that two models are equivalent for planning if they yield the same Bellman updates over a chosen set of policies and value functions, motivating learning models tailored to value computation rather than full state prediction.",
es = "Principio de aprendizaje por refuerzo basado en modelo que establece que dos modelos son equivalentes para la planificación si producen las mismas actualizaciones de Bellman sobre un conjunto elegido de políticas y funciones de valor, motivando el aprendizaje de modelos adaptados al cómputo de valor en lugar de a la predicción completa del estado.",
zh = "一种基于模型的强化学习原理,指出若两个模型在所选的策略与价值函数集合上产生相同的 Bellman 更新,则它们在规划上等价,从而促使学习专为价值计算定制的模型,而非完整的状态预测模型。",
article = nil,
}
data["value function"] = {
short = "In reinforcement learning, a function that estimates the expected return obtainable from a state (state-value function V(s)) or from a state-action pair (action-value function Q(s,a)) under a given policy.",
es = "En aprendizaje por refuerzo, una función que estima el retorno esperado que se puede obtener desde un estado (función de valor de estado V(s)) o desde un par estado-acción (función de valor de acción Q(s,a)) bajo una política dada.",
zh = "在强化学习中,一种用于估计在给定策略下从某状态(状态价值函数 V(s))或某状态-动作对(动作价值函数 Q(s,a))出发可获得的期望回报的函数。",
article = nil,
}
data["value iteration"] = {
short = "A dynamic programming algorithm that computes the optimal value function by iteratively applying the Bellman optimality operator until convergence, from which an optimal policy is derived.",
es = "Algoritmo de programación dinámica que calcula la función de valor óptima aplicando iterativamente el operador de optimalidad de Bellman hasta la convergencia, del cual se deriva una política óptima.",
zh = "一种动态规划算法,通过反复应用贝尔曼最优算子直至收敛来计算最优值函数,并由此导出最优策略。",
article = nil,
}
data["value iteration networks"] = {
short = "A neural-network architecture that embeds a differentiable approximation of the value-iteration algorithm as a recurrent convolutional module, enabling end-to-end learning of policies that perform explicit planning.",
es = "Arquitectura de red neuronal que incorpora una aproximación diferenciable del algoritmo de iteración de valor como módulo convolucional recurrente, permitiendo el aprendizaje extremo a extremo de políticas que realizan planificación explícita.",
zh = "一种神经网络架构,将价值迭代算法的可微近似嵌入为递归卷积模块,从而实现端到端学习能够进行显式规划的策略。",
article = nil,
}
data["value loss coefficient"] = {
short = "A scalar hyperparameter in actor-critic algorithms such as A2C and PPO that scales the value-function loss when combined with the policy-gradient loss in a single objective, controlling the relative weight of critic learning.",
es = "Hiperparámetro escalar en algoritmos actor-crítico como A2C y PPO que pondera la pérdida de la función de valor al combinarla con la pérdida de gradiente de política en un único objetivo, controlando el peso relativo del aprendizaje del crítico.",
zh = "A2C 和 PPO 等 actor-critic 算法中的一个标量超参数,用于在将价值函数损失与策略梯度损失合并为单一目标时对前者加权,从而控制评论家学习的相对权重。",
article = nil,
}
data["value prediction network"] = {
short = "A model-based reinforcement learning architecture by Oh et al. that learns abstract latent dynamics together with reward and value predictions, enabling planning in the value space rather than reconstructing observations.",
es = "Arquitectura de aprendizaje por refuerzo basada en modelo de Oh et al. que aprende dinámicas latentes abstractas junto con predicciones de recompensa y valor, permitiendo planificar en el espacio de valor en lugar de reconstruir observaciones.",
zh = "Oh 等人提出的基于模型的强化学习架构,联合学习抽象的潜在动力学以及奖励和价值预测,从而在价值空间而非重建观测的情况下进行规划。",
article = nil,
}
data["value-sensitive design"] = {
short = "A design methodology that systematically accounts for human values throughout the conception, development, and evaluation of technology, including AI systems.",
es = "Metodología de diseño que considera sistemáticamente los valores humanos durante la concepción, el desarrollo y la evaluación de la tecnología, incluidos los sistemas de IA.",
zh = "一种设计方法论,在技术(包括人工智能系统)的构思、开发与评估过程中系统地考虑人的价值观。",
article = nil,
}
data["valuedice"] = {
short = "An off-policy imitation-learning algorithm by Kostrikov et al. (2020) in the DICE family that minimizes a Donsker–Varadhan representation of the KL divergence between the learner's and the expert's state-action distributions, enabling sample-efficient imitation without an explicit reward.",
es = "Algoritmo de aprendizaje por imitación fuera de política de Kostrikov et al. (2020), de la familia DICE, que minimiza una representación de Donsker–Varadhan de la divergencia KL entre las distribuciones de estado-acción del aprendiz y del experto, lo que permite imitar de forma eficiente en muestras y sin una recompensa explícita.",
zh = "Kostrikov 等人于 2020 年提出的离策略模仿学习算法,属于 DICE 家族;通过最小化学习者与专家状态-动作分布之间 KL 散度的 Donsker–Varadhan 表示,实现无需显式奖励即可高样本效率的模仿。",
article = nil,
}
data["vanilla gradient"] = {
short = "The simplest gradient-based saliency method: it uses the raw gradient of the model's output with respect to each input feature as the attribution score.",
es = "El método de saliencia basado en gradientes más simple: utiliza el gradiente bruto de la salida del modelo respecto a cada característica de entrada como puntuación de atribución.",
zh = "最简单的基于梯度的显著性方法:将模型输出对每个输入特征的原始梯度作为归因得分。",
article = nil,
}
data["vanilla policy gradient"] = {
short = "The basic on-policy policy-gradient algorithm that updates a parameterized stochastic policy by ascending the expected return gradient estimated with the score-function estimator, often combined with a learned baseline for variance reduction.",
es = "Algoritmo básico de gradiente de política en política que actualiza una política estocástica parametrizada ascendiendo por el gradiente del retorno esperado estimado con el estimador de función de puntuación, a menudo combinado con una línea base aprendida para reducir varianza.",
zh = "最基本的同策略策略梯度算法,使用得分函数估计器估计期望回报的梯度并据此更新参数化的随机策略,通常配合学习得到的基线以降低方差。",
article = nil,
}
data["vargrad"] = {
short = "A saliency method that estimates feature importance as the variance of the gradient of the output with respect to the input across multiple noise-perturbed copies of the input.",
es = "Método de saliencia que estima la importancia de las características como la varianza del gradiente de la salida respecto a la entrada calculada sobre múltiples copias perturbadas con ruido.",
zh = "一种显著性方法,将特征重要性估计为:在多个加噪扰动副本上,输出对输入梯度的方差。",
article = nil,
}
data["variable elimination"] = {
short = "An exact inference algorithm for graphical models that successively sums or maximizes out variables according to a chosen ordering, multiplying together and reducing the relevant factors at each step.",
es = "Algoritmo de inferencia exacta para modelos gráficos que elimina variables sucesivamente —sumando o maximizando— según un ordenamiento elegido, multiplicando y reduciendo los factores relevantes en cada paso.",
zh = "图模型的精确推断算法,按选定顺序依次对变量求和或求最大值,在每一步将相关因子相乘并约简。",
article = nil,
}
data["variable elimination ordering"] = {
short = "The sequence in which variables are summed or maximized out during variable elimination; the choice of ordering determines the size of intermediate factors and thus the algorithm's time and space complexity.",
es = "Secuencia en la que se eliminan las variables durante la eliminación de variables; la elección del ordenamiento determina el tamaño de los factores intermedios y, por tanto, la complejidad temporal y espacial del algoritmo.",
zh = "变量消去过程中对变量求和或求最大的顺序;此顺序决定中间因子的规模,从而影响算法的时间与空间复杂度。",
article = nil,
}
data["variable impedance learning"] = {
short = "Learning a policy that, in addition to a desired motion, outputs time-varying impedance parameters — stiffness and damping — for a Cartesian or joint impedance controller, allowing the robot to be compliant during contact and stiff for precise tracking.",
es = "Aprendizaje de una política que, además de un movimiento deseado, produce parámetros de impedancia variables en el tiempo —rigidez y amortiguamiento— para un controlador de impedancia cartesiano o articular, lo que permite al robot ser compliante durante el contacto y rígido para un seguimiento preciso.",
zh = "学习一种策略:在输出期望运动的同时,还输出随时间变化的阻抗参数——刚度与阻尼——交由笛卡尔或关节阻抗控制器执行,从而让机器人在接触时表现柔顺、在精确跟踪时表现刚硬。",
article = nil,
}
data["variable importance"] = {
short = "A scalar measure of how much each input variable contributes to a model's predictive performance or outputs, computed via methods such as permutation, Gini importance, or SHAP.",
es = "Medida escalar de cuánto contribuye cada variable de entrada al desempeño predictivo o a las salidas de un modelo, calculada por métodos como permutación, importancia de Gini o SHAP.",
zh = "衡量每个输入变量对模型预测性能或输出贡献程度的标量指标,可通过置换重要性、Gini 重要性或 SHAP 等方法计算。",
article = nil,
}
data["variable importance plot"] = {
short = "A bar chart that ranks input variables by their importance score, used to summarize which features most influence a model's predictions.",
es = "Gráfico de barras que ordena las variables de entrada por su puntuación de importancia, usado para resumir qué características influyen más en las predicciones del modelo.",
zh = "按重要性得分对输入变量排序的条形图,用于概括哪些特征对模型预测影响最大。",
article = nil,
}
data["variable selection network"] = {
short = "A learnable component, introduced in the Temporal Fusion Transformer, that produces softmax weights over input features at each time step, enabling instance-wise feature selection during forecasting.",
es = "Componente aprendible, introducido en el Temporal Fusion Transformer, que produce pesos softmax sobre las características de entrada en cada paso temporal, permitiendo la selección de variables específica para cada instancia durante el pronóstico.",
zh = "在 Temporal Fusion Transformer 中提出的可学习组件,在每个时间步对输入特征产生 softmax 权重,从而在预测中实现按实例的特征选择。",
article = nil,
}
data["variable stiffness control"] = {
short = "A control approach in which the apparent stiffness of a joint or end effector can be modulated online — either through a variable-stiffness actuator with mechanical springs or via impedance control on a torque-controlled robot — trading positional accuracy for safety and energy efficiency during contact.",
es = "Enfoque de control en el que la rigidez aparente de una articulación o del efector final puede modularse en línea —ya sea mediante un actuador de rigidez variable con resortes mecánicos o por medio de un control de impedancia en un robot controlado en par—, sacrificando precisión posicional a cambio de seguridad y eficiencia energética durante el contacto.",
zh = "一种控制方法,可在线调节关节或末端执行器的等效刚度,既可通过含机械弹簧的可变刚度执行器实现,也可在力矩可控的机器人上通过阻抗控制实现;以位置精度换取在接触过程中的安全性和能效。",
article = nil,
}
data["variable-order markov model"] = {
short = "A Markov model in which the conditioning context length varies with the observed history rather than being fixed to a single order, allowing longer dependencies where supported by the data while remaining compact elsewhere.",
es = "Modelo de Markov en el que la longitud del contexto de condicionamiento varía según la historia observada en lugar de estar fijada a un único orden, permitiendo dependencias más largas cuando los datos lo respaldan y manteniéndose compacto en otros casos.",
zh = "条件上下文长度随观测历史而变化、而非固定为单一阶数的马尔可夫模型,在数据支持的地方允许更长依赖,其余位置保持紧凑。",
article = nil,
}
data["variance"] = {
short = "The expected squared deviation of a random variable from its mean, measuring the spread of its distribution. For a sample, the unbiased estimator divides by n−1 rather than n.",
es = "Esperanza del cuadrado de la desviación de una variable aleatoria respecto a su media, que mide la dispersión de su distribución. Para una muestra, el estimador insesgado divide entre n−1 en lugar de n.",
zh = "随机变量与其均值之差的平方的期望,用于衡量分布的离散程度。对样本而言,无偏估计量除以 n−1 而非 n。",
article = nil,
}
data["variance exploding"] = {
short = "A score-based diffusion SDE formulation in which the marginal noise variance grows without bound as time progresses, with x_t = x_0 + σ_t·ε for an increasing schedule σ_t. Introduced for NCSN-style models.",
es = "Formulación SDE de difusión basada en score en la que la varianza marginal del ruido crece sin acotación a lo largo del tiempo, con x_t = x_0 + σ_t·ε y un planificador σ_t creciente. Introducida para modelos del estilo NCSN.",
zh = "一种基于得分的扩散 SDE 形式,随时间推移噪声边缘方差无限增长,x_t = x_0 + σ_t·ε,σ_t 单调上升。用于 NCSN 类模型。",
article = nil,
}
data["variance preserving"] = {
short = "A score-based diffusion SDE formulation in which the marginal variance of x_t stays bounded over time, parameterized as x_t = √(ᾱ_t)·x_0 + √(1−ᾱ_t)·ε. The DDPM forward process is the discrete analogue.",
es = "Formulación SDE de difusión basada en score en la que la varianza marginal de x_t permanece acotada en el tiempo, con x_t = √(ᾱ_t)·x_0 + √(1−ᾱ_t)·ε. El proceso directo de DDPM es su análogo discreto.",
zh = "一种基于得分的扩散 SDE 形式,x_t 的边缘方差随时间保持有界,参数化为 x_t = √(ᾱ_t)·x_0 + √(1−ᾱ_t)·ε。DDPM 的前向过程是其离散对应。",
article = nil,
}
data["variance reduction federated"] = {
short = "A family of federated optimization techniques that explicitly correct for the variance introduced by partial client participation and heterogeneous client objectives, typically using control variates to align local updates with the global gradient.",
es = "Familia de técnicas de optimización federada que corrigen explícitamente la varianza introducida por la participación parcial de los clientes y por la heterogeneidad de sus objetivos, normalmente mediante variables de control que alinean las actualizaciones locales con el gradiente global.",
zh = "一类联邦优化技术,显式校正由客户端部分参与和目标异质性引入的方差,通常借助控制变量将本地更新与全局梯度对齐。",
article = nil,
}
data["variance stabilizing transformation"] = {
short = "A monotonic transformation, such as log, square root, or Box-Cox, applied to a time series to make its variance approximately independent of the level, simplifying subsequent linear modeling.",
es = "Transformación monótona, como el logaritmo, la raíz cuadrada o Box-Cox, aplicada a una serie temporal para que su varianza sea aproximadamente independiente del nivel, simplificando el modelado lineal posterior.",
zh = "对时间序列施加的单调变换(如对数、平方根或 Box-Cox),使方差近似与水平无关,从而简化后续线性建模。",
article = nil,
}
data["variant effect prediction"] = {
short = "Computational assessment of the functional consequences of genetic variants on protein structure, function, splicing, or regulation; tools include VEP, SIFT, PolyPhen-2, CADD, AlphaMissense, and SpliceAI.",
es = "Evaluación computacional de las consecuencias funcionales de variantes genéticas sobre la estructura, función, empalme o regulación proteica; herramientas habituales incluyen VEP, SIFT, PolyPhen-2, CADD, AlphaMissense y SpliceAI.",
zh = "对遗传变异在蛋白质结构、功能、剪接或调控层面的功能性后果进行计算评估;常用工具包括 VEP、SIFT、PolyPhen-2、CADD、AlphaMissense 和 SpliceAI。",
article = nil,
}
data["variant filtering"] = {
short = "The post-calling step in variant analysis that removes likely false positives based on quality metrics (depth, mapping quality, strand bias, allele balance) using hard thresholds or machine-learning recalibration (e.g., GATK VQSR).",
es = "Etapa posterior al llamado de variantes que elimina probables falsos positivos según métricas de calidad (profundidad, calidad de mapeo, sesgo de cadena, balance alélico) mediante umbrales fijos o recalibración por aprendizaje automático (GATK VQSR).",
zh = "变异检测后的过滤步骤,基于深度、比对质量、链偏倚和等位基因平衡等质量指标,通过固定阈值或机器学习重校准(如 GATK VQSR)去除可能的假阳性。",
article = nil,
}
data["variation ratio"] = {
short = "An uncertainty score equal to one minus the relative frequency of the modal class predicted across multiple stochastic forward passes; high values indicate disagreement among samples and high epistemic uncertainty.",
es = "Puntaje de incertidumbre igual a uno menos la frecuencia relativa de la clase modal predicha a lo largo de múltiples pasadas estocásticas hacia adelante; valores altos indican desacuerdo entre las muestras y elevada incertidumbre epistémica.",
zh = "一种不确定性度量,定义为 1 减去多次随机前向传播中众数类别的相对频率;取值越高表示样本之间的不一致越大、认知不确定性越高。",
article = nil,
}
data["variational autoencoder"] = {
short = "A latent-variable generative model (Kingma & Welling, 2013) trained by maximizing the evidence lower bound (ELBO), in which an encoder network parameterizes an approximate posterior q(z|x) and a decoder parameterizes p(x|z), with the reparameterization trick enabling stochastic backpropagation.",
es = "Modelo generativo de variables latentes (Kingma & Welling, 2013) entrenado maximizando la cota inferior de la evidencia (ELBO): una red codificadora parametriza la posterior aproximada q(z|x) y una decodificadora parametriza p(x|z), y el truco de reparametrización permite la retropropagación estocástica.",
zh = "Kingma 与 Welling 于 2013 年提出的潜变量生成模型:通过最大化证据下界(ELBO)进行训练,编码器参数化近似后验 q(z|x),解码器参数化 p(x|z),借助重参数化技巧实现随机反向传播。",
article = nil,
}
data["variational boosting"] = {
short = "An iterative variational inference scheme that builds a flexible mixture posterior by greedily adding a new component at each round to minimize the residual KL divergence to the true posterior.",
es = "Esquema iterativo de inferencia variacional que construye una posterior de mezcla flexible añadiendo de forma voraz un nuevo componente en cada ronda para minimizar la divergencia KL residual respecto a la posterior verdadera.",
zh = "一种迭代式变分推断方法,通过每一轮贪心地添加一个新的混合分量来构建灵活的混合后验,从而最小化与真实后验之间的残差 KL 散度。",
article = nil,
}
data["variational continual learning"] = {
short = "A Bayesian framework for continual learning that approximates the posterior after each task with a variational distribution and uses it as the prior for the next task, naturally combining sequential Bayesian updating with episodic coreset replay.",
es = "Marco bayesiano para aprendizaje continuo que aproxima la posterior tras cada tarea con una distribución variacional y la utiliza como prior para la siguiente tarea, combinando de forma natural la actualización bayesiana secuencial con un replay de conjunto principal episódico.",
zh = "一种用于持续学习的贝叶斯框架:在每个任务结束后用变分分布近似后验,并将其作为下一任务的先验,自然地将顺序贝叶斯更新与情节式核心集回放相结合。",
article = nil,
}
data["variational dropout"] = {
short = "A regularization technique that interprets Gaussian (or Bernoulli) dropout as variational inference over network weights, learning per-weight dropout rates by optimizing the variational lower bound. Introduced by Kingma, Salimans, and Welling (2015).",
es = "Técnica de regularización que interpreta el dropout gaussiano (o de Bernoulli) como inferencia variacional sobre los pesos de la red, aprendiendo tasas de dropout por peso al optimizar la cota variacional inferior. Introducida por Kingma, Salimans y Welling (2015).",
zh = "一种正则化技术,将高斯(或伯努利)dropout 解释为对网络权重的变分推断,通过优化变分下界为每个权重学习独立的 dropout 率。由 Kingma、Salimans 和 Welling(2015)提出。",
article = nil,
}
data["variational em"] = {
short = "A generalization of the EM algorithm in which the E-step optimizes a tractable variational distribution over latent variables instead of computing the exact posterior, alternated with an M-step that updates model parameters.",
es = "Generalización del algoritmo EM en la que el paso E optimiza una distribución variacional tratable sobre las variables latentes en lugar de calcular la posterior exacta, alternada con un paso M que actualiza los parámetros del modelo.",
zh = "EM 算法的推广,其 E 步对潜变量优化一个可处理的变分分布而非计算精确后验,与更新模型参数的 M 步交替进行。",
article = nil,
}
data["variational fair autoencoder"] = {
short = "A variational autoencoder (Louizos et al., 2016) that learns latent representations approximately independent of a sensitive attribute by adding a maximum mean discrepancy penalty to the ELBO.",
es = "Autoencoder variacional (Louizos et al., 2016) que aprende representaciones latentes aproximadamente independientes de un atributo sensible al añadir una penalización de discrepancia media máxima al ELBO.",
zh = "Louizos 等人(2016)提出的变分自编码器,通过在 ELBO 中加入最大均值差异(MMD)惩罚,学习近似独立于敏感属性的潜在表示。",
article = nil,
}
data["variational gaussian dropout"] = {
short = "The variant of variational dropout that uses Gaussian multiplicative noise on activations or weights with a learnable variance, equivalent to a log-uniform prior on weights and capable of inducing sparsity.",
es = "Variante del dropout variacional que utiliza ruido multiplicativo gaussiano sobre activaciones o pesos con varianza aprendida, equivalente a un prior log-uniforme sobre los pesos y capaz de inducir dispersidad.",
zh = "变分 dropout 的一种变体,对激活或权重施加方差可学习的高斯乘性噪声,等价于权重上的对数均匀先验,并能够诱导稀疏性。",
article = nil,
}
data["variational gaussian process"] = {
short = "A Gaussian process model whose posterior is approximated by a variational distribution over inducing points, scaling exact GP inference to large datasets via the Titsias and KL-corrected ELBOs.",
es = "Modelo de proceso gaussiano cuyo posterior se aproxima mediante una distribución variacional sobre puntos inducidos, lo que permite escalar la inferencia exacta de GP a grandes conjuntos de datos a través de las ELBO de Titsias y corregidas por KL.",
zh = "一种高斯过程模型,其后验由诱导点上的变分分布近似,借助 Titsias 与带 KL 校正的 ELBO,将精确 GP 推断扩展到大规模数据集。",
article = nil,
}
data["variational inequality"] = {
short = "A problem of finding a point in a set such that a given operator evaluated there satisfies an inequality against all other points, generalizing optimization and equilibrium problems.",
es = "Problema consistente en hallar un punto de un conjunto tal que un operador dado evaluado en él satisfaga una desigualdad frente a todos los demás puntos, generalizando problemas de optimización y de equilibrio.",
zh = "在集合中寻找一点,使给定算子在该点处对所有其他点满足某不等式的问题,推广了优化与均衡问题。",
article = nil,
}
data["variational inference"] = {
short = "A family of approximate Bayesian inference methods that recasts posterior estimation as optimization, fitting a tractable parametric distribution to the true posterior by minimizing a divergence (typically reverse KL) via maximization of the evidence lower bound.",
es = "Familia de métodos de inferencia bayesiana aproximada que reformula la estimación de la posterior como un problema de optimización, ajustando una distribución paramétrica tratable a la posterior verdadera al minimizar una divergencia (típicamente la KL inversa) mediante la maximización del ELBO.",
zh = "一类近似贝叶斯推断方法,将后验估计转化为优化问题,通过最大化证据下界(ELBO)以最小化某种散度(通常为反向 KL)来用可处理的参数分布拟合真实后验。",
article = nil,
}
data["variational lower bound"] = {
short = "A tractable lower bound on the log marginal likelihood obtained from Jensen's inequality applied to a variational distribution; maximizing it is equivalent to minimizing the KL divergence to the true posterior.",
es = "Cota inferior tratable sobre la log-verosimilitud marginal obtenida aplicando la desigualdad de Jensen a una distribución variacional; maximizarla equivale a minimizar la divergencia KL respecto a la posterior verdadera.",
zh = "通过对变分分布应用詹森不等式得到的对数边缘似然的可处理下界;最大化它等价于最小化与真实后验的 KL 散度。",
article = nil,
}
data["variational message passing"] = {
short = "A general-purpose algorithm for mean-field variational inference in conjugate exponential-family graphical models that updates each variational factor by passing expected sufficient statistics along the model's edges.",
es = "Algoritmo de propósito general para inferencia variacional de campo medio en modelos gráficos conjugados de la familia exponencial, que actualiza cada factor variacional pasando estadísticas suficientes esperadas a lo largo de las aristas del modelo.",
zh = "用于共轭指数族图模型中均场变分推断的通用算法,通过沿模型边传递期望充分统计量来更新每个变分因子。",
article = nil,
}
data["variational online gauss-newton"] = {
short = "A natural-gradient variational inference algorithm that approximates the Fisher information with a per-parameter Gauss-Newton estimate, enabling efficient online updates of a Gaussian variational posterior over neural-network weights.",
es = "Algoritmo de inferencia variacional con gradiente natural que aproxima la información de Fisher mediante una estimación de Gauss-Newton por parámetro, permitiendo actualizaciones en línea eficientes de una posterior variacional gaussiana sobre los pesos de redes neuronales.",
zh = "一种使用自然梯度的变分推断算法,通过逐参数的 Gauss-Newton 估计来近似 Fisher 信息,实现对神经网络权重高斯变分后验的高效在线更新。",
article = nil,
}
data["variational posterior"] = {
short = "The parameterized approximating distribution q(theta) over latent variables or weights that is optimized to minimize the KL divergence to the true posterior in variational inference.",
es = "Distribución aproximante parametrizada q(theta) sobre las variables latentes o pesos que se optimiza para minimizar la divergencia KL respecto al posterior verdadero en inferencia variacional.",
zh = "变分推断中对潜变量或权重的参数化近似分布 q(theta),通过最小化与真实后验之间的 KL 散度来优化。",
article = nil,
}
data["variational rejection sampling"] = {
short = "A hybrid algorithm that augments a variational posterior with a learned rejection step, drawing samples from q and accepting them with a probability that tightens the implicit bound on the true posterior.",
es = "Algoritmo híbrido que aumenta una posterior variacional con un paso de rechazo aprendido, muestreando de q y aceptando las muestras con una probabilidad que ajusta la cota implícita sobre el posterior verdadero.",
zh = "一种将变分后验与可学习的拒绝步骤结合的混合算法:从 q 中采样并以一定概率接受,从而收紧对真实后验的隐式界。",
article = nil,
}
data["variational rényi bound"] = {
short = "A family of variational bounds on the log marginal likelihood derived from Rényi α-divergences, recovering the standard ELBO at α = 1 and trading bias for variance as α is varied.",
es = "Familia de cotas variacionales sobre la log-verosimilitud marginal derivadas de las α-divergencias de Rényi, que recupera el ELBO estándar para α = 1 e intercambia sesgo por varianza al variar α.",
zh = "基于 Rényi α 散度推导的对数边缘似然变分界族,在 α = 1 时还原为标准 ELBO,并随 α 变化在偏差与方差之间权衡。",
article = nil,
}
data["variational score distillation"] = {
short = "A text-to-3D distillation method (ProlificDreamer) that treats the rendered scene as a variational distribution over 3D parameters rather than a single sample, reducing oversaturation and mode collapse compared to score distillation sampling.",
es = "Método de destilación texto-a-3D (ProlificDreamer) que trata la escena renderizada como una distribución variacional sobre parámetros 3D en lugar de una sola muestra, reduciendo la sobresaturación y el colapso de modos frente al score distillation sampling.",
zh = "一种文生 3D 的蒸馏方法(ProlificDreamer),将渲染场景视为 3D 参数上的变分分布,而非单一样本,相比 SDS 减轻了过饱和与模式塌缩。",
article = nil,
}
data["varibad"] = {
short = "Variational Bayes-Adaptive Deep RL: a meta-reinforcement learning method that learns a variational posterior over task variables from interaction history and conditions a policy on this belief, enabling principled exploration in unknown MDPs.",
es = "Variational Bayes-Adaptive Deep RL: método de meta-aprendizaje por refuerzo que aprende una posterior variacional sobre variables de tarea a partir del historial de interacción y condiciona una política a esa creencia, permitiendo una exploración con fundamento bayesiano en MDPs desconocidos.",
zh = "Variational Bayes-Adaptive Deep RL:一种元强化学习方法,从交互历史中学习关于任务变量的变分后验,并以该信念为条件训练策略,从而在未知 MDP 中实现有原则的探索。",
article = nil,
}
data["varma"] = {
short = "Vector ARMA, a multivariate generalization of ARMA in which each variable is modeled as a linear combination of past values of all variables and past vector innovations.",
es = "Vector ARMA, generalización multivariante de ARMA en la que cada variable se modela como combinación lineal de valores pasados de todas las variables y de innovaciones vectoriales pasadas.",
zh = "向量 ARMA,ARMA 的多变量推广,每个变量被建模为所有变量过去值与过去向量新息的线性组合。",
article = nil,
}
data["varscan"] = {
short = "A heuristic variant caller that detects germline and somatic SNVs, indels, and copy-number changes from aligned short-read sequencing data using simple frequency- and read-count-based criteria.",
es = "Llamador de variantes heurístico que detecta SNV, indeles y cambios de número de copias germinales y somáticos a partir de datos de secuenciación de lecturas cortas alineadas, usando criterios simples basados en frecuencia y conteo de lecturas.",
zh = "一种启发式变异检测工具,基于比对后的短读长测序数据,利用简单的频率和读段计数标准检测胚系和体细胞 SNV、插入缺失及拷贝数变化。",
article = nil,
}
data["vasp"] = {
short = "A neural collaborative filtering model that combines a variational autoencoder branch with a parallel feed-forward (FLVAE/EASE-style) branch over the same interaction matrix, summing their scores to improve top-N recommendation accuracy.",
es = "Modelo neuronal de filtrado colaborativo que combina una rama de autoencoder variacional con una rama paralela de red feed-forward (estilo FLVAE/EASE) sobre la misma matriz de interacciones, sumando sus puntuaciones para mejorar la precisión de la recomendación top-N.",
zh = "一种神经协同过滤模型,在同一交互矩阵上将变分自编码器分支与并行的前馈(FLVAE/EASE 风格)分支结合,通过分数相加提升 top-N 推荐精度。",
article = nil,
}
data["vatex"] = {
short = "A large-scale multilingual video captioning dataset of about 41,000 short clips with paired English and Chinese descriptions, widely used for video captioning and multilingual video-text retrieval.",
es = "Conjunto de datos multilingüe a gran escala de descripción de video con unos 41 000 clips cortos y descripciones pareadas en inglés y chino, ampliamente utilizado en descripción de video y recuperación video-texto multilingüe.",
zh = "一个大规模多语言视频描述数据集,包含约 41,000 个短视频片段及其配对的英文与中文描述,广泛用于视频描述生成与多语言视频-文本检索任务。",
article = nil,
}
data["vbx diarization"] = {
short = "Speaker diarization back-end developed at BUT (VBx) that clusters x-vectors with a Bayesian hidden Markov model using a probabilistic linear discriminant analysis kernel; long the strongest VoxConverse and DIHARD baseline.",
es = "Backend de diarización de locutores desarrollado en BUT (VBx) que agrupa x-vectors mediante un modelo oculto de Markov bayesiano con un núcleo PLDA; durante años fue la línea base más fuerte en VoxConverse y DIHARD.",
zh = "由 BUT 提出的说话人分离后端(VBx),使用基于 PLDA 核的贝叶斯隐马尔可夫模型对 x-vector 进行聚类,长期是 VoxConverse 和 DIHARD 上最强的基线。",
article = nil,
}
data["vc dimension"] = {
short = "The Vapnik-Chervonenkis dimension of a hypothesis class, defined as the largest number of points that can be shattered (classified in all possible ways) by classifiers in the class.",
es = "Dimensión de Vapnik-Chervonenkis de una clase de hipótesis, definida como el mayor número de puntos que pueden ser fragmentados (clasificados en todas las maneras posibles) por clasificadores de la clase.",
zh = "假设类的 Vapnik-Chervonenkis 维数,定义为该类分类器能够打散(以所有可能方式分类)的最大点数。",
article = nil,
}
data["vc-1 representation"] = {
short = "VC-1 (Visual Cortex 1) is a Vision Transformer pretrained by Majumdar et al. (2023) on a large mix of egocentric and manipulation video to serve as a frozen visual backbone for embodied AI; achieves strong results across CortexBench tasks spanning manipulation, navigation and locomotion.",
es = "VC-1 (Visual Cortex 1) es un Vision Transformer preentrenado por Majumdar et al. (2023) sobre una gran mezcla de vídeo egocéntrico y de manipulación para servir como columna vertebral visual congelada en IA encarnada; obtiene resultados sólidos en las tareas de CortexBench de manipulación, navegación y locomoción.",
zh = "VC-1(Visual Cortex 1)是 Majumdar 等人于 2023 年在大量第一人称和操作视频上预训练的视觉 Transformer,用作具身智能的冻结视觉骨干网络;在涵盖操作、导航和运动的 CortexBench 各任务上均取得出色表现。",
article = nil,
}
data["vcf format"] = {
short = "Variant Call Format, a tab-delimited text specification (typically gzipped and tabix-indexed) for storing genetic variants with positions, alleles, quality scores, and per-sample genotype fields; the standard output of variant callers.",
es = "Formato de llamada de variantes, especificación de texto separada por tabuladores (habitualmente comprimida con gzip e indexada con tabix) para almacenar variantes genéticas con posiciones, alelos, puntuaciones de calidad y campos de genotipo por muestra; salida estándar de los llamadores de variantes.",
zh = "变异调用格式,一种以制表符分隔的文本规范(通常经 gzip 压缩并用 tabix 建立索引),用于存储遗传变异的位置、等位基因、质量分数及各样本的基因型字段;是变异检测工具的标准输出格式。",
article = nil,
}
data["vdj annotation"] = {
short = "Assignment of V, D, and J gene segments and CDR3 boundaries to immune receptor sequences from BCR/TCR repertoire sequencing; canonical tools include IgBLAST, MiXCR, and IMGT/HighV-QUEST.",
es = "Asignación de los segmentos génicos V, D y J y de los límites de la CDR3 a secuencias de receptores inmunitarios procedentes de secuenciación de repertorios BCR/TCR; herramientas canónicas son IgBLAST, MiXCR e IMGT/HighV-QUEST.",
zh = "对来自 BCR/TCR 受体组测序的免疫受体序列分配 V、D、J 基因片段并确定 CDR3 边界的过程;典型工具包括 IgBLAST、MiXCR 和 IMGT/HighV-QUEST。",
article = nil,
}
data["vdn"] = {
short = "Value Decomposition Networks: a cooperative multi-agent reinforcement learning algorithm that represents the joint action-value as the sum of per-agent utilities, supporting centralized training with decentralized execution under value additivity.",
es = "Value Decomposition Networks: algoritmo de aprendizaje por refuerzo multiagente cooperativo que representa el valor de acción conjunta como la suma de utilidades por agente, permitiendo entrenamiento centralizado con ejecución descentralizada bajo aditividad de valores.",
zh = "价值分解网络:一种协作式多智能体强化学习算法,将联合动作价值表示为各智能体效用之和,在价值可加性下支持集中式训练和分布式执行。",
article = nil,
}
data["veber rules"] = {
short = "Empirical guidelines for oral bioavailability proposed by Veber et al., requiring no more than 10 rotatable bonds and a polar surface area of at most 140 Ų (or sum of H-bond donors and acceptors ≤ 12).",
es = "Directrices empíricas para la biodisponibilidad oral propuestas por Veber et al., que exigen no más de 10 enlaces rotables y un área de superficie polar de como máximo 140 Ų (o una suma de donantes y aceptores de enlaces de hidrógeno ≤ 12).",
zh = "Veber 等人提出的口服生物利用度经验规则,要求可旋转键数不超过 10 个,极性表面积不超过 140 Ų(或氢键供体与受体数之和 ≤ 12)。",
article = nil,
}
data["vector"] = {
short = "An element of a vector space; in machine learning typically an ordered tuple of real numbers representing a point in a feature space, a parameter set, or a direction along which quantities can be scaled and added.",
es = "Elemento de un espacio vectorial; en aprendizaje automático suele ser una tupla ordenada de números reales que representa un punto en un espacio de características, un conjunto de parámetros o una dirección a lo largo de la cual se pueden escalar y sumar magnitudes.",
zh = "向量空间中的元素;在机器学习中通常是一个有序的实数元组,表示特征空间中的点、参数集合,或可在其上对量进行缩放和相加的方向。",
article = nil,
}
data["vector autoregression"] = {
short = "A multivariate time series model in which a vector of variables is regressed on its own lagged values, used for forecasting and impulse-response analysis in econometrics.",
es = "Modelo multivariante de series temporales en el que un vector de variables se regresa sobre sus propios valores rezagados, utilizado para pronóstico y análisis de impulso-respuesta en econometría.",
zh = "一种多变量时间序列模型,将变量向量对自身滞后值进行回归,常用于计量经济学中的预测和脉冲响应分析。",
article = nil,
}
data["vector bundle"] = {
short = "A topological construction that associates a vector space to each point of a base space in a locally trivial way, central to differential geometry and topology.",
es = "Construcción topológica que asocia un espacio vectorial a cada punto de un espacio base de manera localmente trivial, central en geometría diferencial y topología.",
zh = "以局部平凡的方式将向量空间附加到底空间每一点的拓扑构造,是微分几何与拓扑学的核心对象。",
article = nil,
}
data["vector database"] = {
short = "A database optimized for storing high-dimensional embedding vectors and serving approximate-nearest-neighbor queries, often with metadata filtering, used as the storage layer for retrieval-augmented systems.",
es = "Base de datos optimizada para almacenar vectores de embedding de alta dimensión y atender consultas de vecinos más cercanos aproximados, a menudo con filtrado por metadatos, usada como capa de almacenamiento en sistemas con recuperación aumentada.",
zh = "一种针对存储高维嵌入向量并提供近似最近邻查询而优化的数据库,通常支持元数据过滤,作为检索增强系统的存储层。",
article = nil,
}
data["vector error correction model"] = {
short = "A VAR specification for cointegrated multivariate time series that explicitly includes lagged error-correction terms, modeling both short-run dynamics and long-run equilibrium relationships.",
es = "Especificación VAR para series temporales multivariantes cointegradas que incluye explícitamente términos de corrección de error rezagados, modelando tanto la dinámica de corto plazo como las relaciones de equilibrio a largo plazo.",
zh = "针对协整多变量时间序列的 VAR 规范,显式包含滞后的误差修正项,同时刻画短期动态与长期均衡关系。",
article = nil,
}
data["vector field"] = {
short = "An assignment of a vector to each point of a region in space, used to describe flows, forces, and other directional quantities in physics and differential geometry.",
es = "Asignación de un vector a cada punto de una región del espacio, utilizada para describir flujos, fuerzas y otras cantidades direccionales en física y geometría diferencial.",
zh = "在空间区域内为每一点指定一个向量的映射,用于描述物理与微分几何中的流场、力场等方向性量。",
article = nil,
}
data["vector quantized vae"] = {
short = "A VAE (van den Oord et al., 2017) whose latent space is discrete: the encoder output is mapped to its nearest entry in a learned codebook, and gradients are passed through with a straight-through estimator. Used as a tokenizer for autoregressive image and audio models.",
es = "VAE (van den Oord et al., 2017) cuyo espacio latente es discreto: la salida del codificador se mapea a la entrada más cercana de un libro de códigos aprendido y los gradientes se propagan mediante un estimador straight-through. Se emplea como tokenizador para modelos autorregresivos de imagen y audio.",
zh = "van den Oord 等人于 2017 年提出的离散潜空间 VAE:编码器输出被映射到可学习码本中的最近条目,使用 straight-through 估计器传递梯度。常作为图像和音频自回归模型的 tokenizer。",
article = nil,
}
data["vector scaling"] = {
short = "A post-hoc calibration method for classifiers that scales each pre-softmax logit by a learned per-class factor (and optional bias) on a held-out set, generalizing temperature scaling to a per-dimension transformation.",
es = "Método de calibración post-hoc para clasificadores que escala cada logit pre-softmax por un factor aprendido por clase (y un sesgo opcional) sobre un conjunto retenido, generalizando el escalado por temperatura a una transformación por dimensión.",
zh = "一种用于分类器的事后校准方法,在留出集上为每个类别学习一个独立的缩放因子(及可选偏置)来缩放 pre-softmax logits,是温度缩放在每个维度上的推广。",
article = nil,
}
data["vector space"] = {
short = "An algebraic structure consisting of a set of vectors closed under addition and scalar multiplication, satisfying axioms of associativity, distributivity, and existence of zero and inverses.",
es = "Estructura algebraica formada por un conjunto de vectores cerrado bajo la suma y la multiplicación escalar, que satisface axiomas de asociatividad, distributividad y existencia de cero e inversos.",
zh = "由对加法和标量乘法封闭并满足结合律、分配律及零元与逆元存在性公理的向量集合构成的代数结构。",
article = nil,
}
data["velo"] = {
short = "A learned optimizer (Versatile Learned Optimizer) trained on thousands of diverse tasks via meta-gradient descent, intended to replace hand-designed optimizers like Adam without per-task hyperparameter tuning.",
es = "Optimizador aprendido (Versatile Learned Optimizer) entrenado en miles de tareas diversas mediante descenso meta-gradiente, diseñado para reemplazar optimizadores diseñados a mano como Adam sin necesidad de ajustar hiperparámetros por tarea.",
zh = "一种学习型优化器(Versatile Learned Optimizer),通过元梯度下降在数千个多样任务上训练而成,旨在替代Adam等手工设计的优化器并免去逐任务调参。",
article = nil,
}
data["velocity prediction"] = {
short = "Diffusion training objective in which the model predicts the velocity v = α_t·ε − σ_t·x₀ at each timestep. Equivalent to v-prediction; preferred for distillation and high-noise regimes.",
es = "Objetivo de entrenamiento de difusión en el que el modelo predice la velocidad v = α_t·ε − σ_t·x₀ en cada paso. Equivalente a v-prediction; preferido para destilación y regímenes de ruido alto.",
zh = "一种扩散训练目标:模型在每个时间步预测速度 v = α_t·ε − σ_t·x₀。等价于 v-prediction,常用于蒸馏和高噪声情形。",
article = nil,
}
data["velocyto"] = {
short = "A computational tool that estimates RNA velocity from single-cell RNA-seq by quantifying spliced versus unspliced transcript counts, predicting near-future cell states for trajectory analysis.",
es = "Herramienta computacional que estima la velocidad de ARN a partir de RNA-seq de célula única cuantificando transcritos empalmados y no empalmados, prediciendo estados celulares próximos para el análisis de trayectorias.",
zh = "一种计算工具,通过量化单细胞 RNA-seq 中的剪接与未剪接转录本计数来估计 RNA 速率,从而预测细胞的近期状态以用于轨迹分析。",
article = nil,
}
data["veo"] = {
short = "Google DeepMind's text-to-video diffusion model that generates high-resolution video clips from natural-language prompts. Released in 2024 as the company's first publicly previewed competitor to Sora.",
es = "Modelo de difusión texto-a-vídeo de Google DeepMind que genera clips de vídeo en alta resolución a partir de instrucciones en lenguaje natural. Lanzado en 2024 como su primer competidor previsualizado públicamente frente a Sora.",
zh = "Google DeepMind 推出的文生视频扩散模型,可根据自然语言提示生成高分辨率视频片段。2024 年发布,是其首个公开预览、对标 Sora 的产品。",
article = nil,
}
data["veo 2"] = {
short = "Second-generation text-to-video model from Google DeepMind, released in late 2024. Improves on Veo with longer clips, higher fidelity, better physics, and stronger camera-control prompt adherence.",
es = "Modelo texto-a-vídeo de segunda generación de Google DeepMind, lanzado a finales de 2024. Mejora a Veo con clips más largos, mayor fidelidad, mejor física y mayor obediencia al prompt en el control de cámara.",
zh = "Google DeepMind 的第二代文生视频模型,2024 年底发布。相比 Veo,支持更长片段、更高保真度、更佳物理表现以及更精准的运镜提示遵循。",
article = nil,
}
data["vep tool"] = {
short = "Ensembl's Variant Effect Predictor, a software package that annotates the consequences of genetic variants on transcripts, proteins, and regulatory regions across reference assemblies.",
es = "Predictor del Efecto de Variantes de Ensembl, paquete de software que anota las consecuencias de variantes genéticas sobre transcritos, proteínas y regiones reguladoras en distintos ensamblajes de referencia.",
zh = "Ensembl 的变异效应预测工具(VEP),一款对遗传变异在转录本、蛋白质和调控区域上的影响进行注释的软件包,支持多种参考基因组组装。",
article = nil,
}
data["vera finetuning"] = {
short = "Vector-based Random matrix Adaptation: a parameter-efficient fine-tuning method that freezes a pair of shared random low-rank matrices across all layers and only learns small per-layer scaling vectors, drastically reducing trainable parameters relative to LoRA.",
es = "Adaptación basada en matrices aleatorias y vectores (VeRA): método de ajuste fino con pocos parámetros que congela un par de matrices aleatorias de bajo rango compartidas entre todas las capas y solo aprende pequeños vectores de escala por capa, reduciendo drásticamente los parámetros entrenables frente a LoRA.",
zh = "VeRA(基于向量与随机矩阵的适配):一种参数高效微调方法,冻结所有层共享的一对低秩随机矩阵,只学习每层的小规模缩放向量,相比 LoRA 大幅降低可训练参数量。",
article = nil,
}
data["verbnet"] = {
short = "A broad-coverage English verb lexicon organized into hierarchical Levin-style classes, each with shared syntactic frames, thematic roles, and selectional restrictions.",
es = "Léxico amplio del verbo inglés organizado en clases jerárquicas al estilo de Levin, cada una con marcos sintácticos, papeles temáticos y restricciones de selección compartidos.",
zh = "一个覆盖广泛的英语动词词典,按 Levin 式的层级类别组织,每个类共享句法框架、题元角色和选择限制。",
article = nil,
}
data["verifier reward"] = {
short = "A reward signal in reinforcement learning derived from a learned or rule-based verifier that checks whether a generated output satisfies a specification, used heavily in RL-from-verifiable-rewards (RLVR) for math, code, and reasoning.",
es = "Señal de recompensa en aprendizaje por refuerzo derivada de un verificador aprendido o basado en reglas que comprueba si una salida generada cumple una especificación; es central en RL con recompensas verificables (RLVR) para matemáticas, código y razonamiento.",
zh = "强化学习中的一种奖励信号,由学习到的或基于规则的验证器判断生成输出是否满足规范,广泛用于面向数学、代码和推理的可验证奖励强化学习(RLVR)。",
article = nil,
}
data["vertex cover"] = {
short = "A set of vertices in a graph such that every edge has at least one endpoint in the set; finding a minimum vertex cover is NP-hard.",
es = "Conjunto de vértices de un grafo tal que toda arista tiene al menos un extremo en el conjunto; encontrar una cobertura mínima de vértices es NP-difícil.",
zh = "图中的一组顶点,使得每条边至少有一个端点在该集合中;求最小顶点覆盖是 NP 难问题。",
article = nil,
}
data["vertex vizier"] = {
short = "Google Cloud's managed black-box optimization service on Vertex AI, exposing the Vizier algorithm via REST and gRPC APIs for distributed hyperparameter and experiment tuning.",
es = "Servicio gestionado de optimización de caja negra de Google Cloud sobre Vertex AI, que expone el algoritmo Vizier mediante APIs REST y gRPC para el ajuste distribuido de hiperparámetros y experimentos.",
zh = "Google Cloud在Vertex AI上提供的托管黑盒优化服务,通过REST和gRPC API暴露Vizier算法,用于分布式超参数和实验调优。",
article = nil,
}
data["vertical federated learning"] = {
short = "A federated learning setting in which participants hold different feature columns for an overlapping set of entities and jointly train a model without sharing raw features. Typically combined with private set intersection and secure aggregation or homomorphic encryption.",
es = "Configuración de aprendizaje federado en la que los participantes poseen columnas de características distintas para un conjunto de entidades coincidentes y entrenan conjuntamente un modelo sin compartir las características en bruto. Suele combinarse con intersección privada de conjuntos y agregación segura o cifrado homomórfico.",
zh = "一种联邦学习场景,各参与方对同一组实体持有不同的特征列,并在不共享原始特征的前提下联合训练模型。通常结合隐私集合求交以及安全聚合或同态加密。",
article = nil,
}
data["vertical federated recommender"] = {
short = "A federated recommender deployed across organizations that hold different feature columns for the same users, training a joint model via secure aggregation of intermediate representations without sharing raw features.",
es = "Recomendador federado desplegado entre organizaciones que poseen distintas columnas de características sobre los mismos usuarios, entrenando un modelo conjunto mediante agregación segura de representaciones intermedias sin compartir características en bruto.",
zh = "在持有相同用户但不同特征列的多个机构间部署的联邦推荐器,通过对中间表示进行安全聚合来训练联合模型,而不共享原始特征。",
article = nil,
}
data["vertically partitioned data"] = {
short = "A data partitioning scheme in which different parties hold different attributes (columns) for the same set of entities (rows). The complement of horizontally partitioned data and the basis for vertical federated learning.",
es = "Esquema de partición de datos en el que distintas partes poseen distintos atributos (columnas) para el mismo conjunto de entidades (filas). Es el complemento de los datos particionados horizontalmente y la base del aprendizaje federado vertical.",
zh = "一种数据划分方式:不同参与方对同一组实体(行)持有不同的属性(列)。它是横向划分数据的补充形式,也是纵向联邦学习的基础。",
article = nil,
}
data["vfe"] = {
short = "Variational free energy: the negative ELBO, equal to the KL divergence to the prior minus the expected log likelihood under the variational posterior. Minimizing VFE is equivalent to maximizing the ELBO in variational inference.",
es = "Energía libre variacional: el ELBO negativo, igual a la divergencia KL respecto a la prior menos la log-verosimilitud esperada bajo la posterior variacional. Minimizar la VFE equivale a maximizar la ELBO en inferencia variacional.",
zh = "变分自由能:即负 ELBO,等于到先验的 KL 散度减去变分后验下的期望对数似然。在变分推断中,最小化 VFE 等价于最大化 ELBO。",
article = nil,
}
data["vgg"] = {
short = "A family of convolutional networks introduced by the Visual Geometry Group at Oxford in 2014 that uses very small (3×3) convolution filters stacked into deep architectures (VGG-16, VGG-19).",
es = "Familia de redes convolucionales presentada por el Visual Geometry Group de Oxford en 2014 que utiliza filtros de convolución muy pequeños (3×3) apilados en arquitecturas profundas (VGG-16, VGG-19).",
zh = "由牛津大学 Visual Geometry Group 于 2014 年提出的卷积网络家族,使用非常小的(3×3)卷积滤波器堆叠形成深层架构(VGG-16、VGG-19)。",
article = nil,
}
data["vggish"] = {
short = "Audio embedding model from Google with a VGG-style convolutional architecture trained on AudioSet to map 0.96-second log-mel patches to 128-dimensional semantic features, widely reused as a feature extractor.",
es = "Modelo de embeddings de audio de Google con arquitectura convolucional al estilo VGG entrenado en AudioSet, que mapea fragmentos log-mel de 0,96 s a vectores semánticos de 128 dimensiones; muy usado como extractor de características.",
zh = "谷歌提出的音频嵌入模型,采用 VGG 风格卷积结构,在 AudioSet 上训练,将 0.96 秒的对数梅尔片段映射为 128 维语义向量,被广泛用作特征提取器。",
article = nil,
}
data["via-point movement primitive"] = {
short = "A movement primitive that encodes a robot trajectory as a probability distribution over weights of basis functions and can be conditioned on via-points — desired states at specified times — to adapt to new goals; an extension of probabilistic movement primitives.",
es = "Primitiva de movimiento que codifica una trayectoria robótica como una distribución de probabilidad sobre los pesos de funciones base y que puede condicionarse a puntos de paso —estados deseados en tiempos específicos— para adaptarse a nuevos objetivos; extensión de las primitivas de movimiento probabilísticas.",
zh = "一种运动基元,将机器人轨迹编码为基函数权重上的概率分布,并可基于途经点(在指定时刻应达到的状态)进行条件化,以适应新目标;是概率性运动基元的扩展。",
article = nil,
}
data["vicuna"] = {
short = "Open-source chatbot released by LMSYS in 2023, fine-tuned from LLaMA on roughly 70k user-shared ChatGPT conversations from ShareGPT. Used as the standard baseline in the early Chatbot Arena and many multimodal LLMs.",
es = "Chatbot de código abierto lanzado por LMSYS en 2023, ajustado a partir de LLaMA con unas 70k conversaciones de ChatGPT compartidas por usuarios en ShareGPT. Sirvió como base de comparación estándar en los primeros Chatbot Arena y en muchos LLM multimodales.",
zh = "LMSYS 于 2023 年发布的开源聊天机器人,基于 LLaMA 在 ShareGPT 上约 7 万条用户分享的 ChatGPT 对话进行微调。早期 Chatbot Arena 和众多多模态 LLM 都以其为标准基线。",
article = nil,
}
data["video attribution"] = {
short = "Attribution methods for video models that identify which frames, spatial regions, or spatio-temporal tubelets most influenced a prediction.",
es = "Métodos de atribución para modelos de vídeo que identifican qué fotogramas, regiones espaciales o tubos espaciotemporales influyeron más en una predicción.",
zh = "面向视频模型的归因方法,用于识别哪些帧、空间区域或时空管对某个预测影响最大。",
article = nil,
}
data["video captioning"] = {
short = "A vision-language task that generates a natural-language description summarizing the visual (and sometimes audio) content of a video clip.",
es = "Tarea de visión y lenguaje que genera una descripción en lenguaje natural que resume el contenido visual (y a veces auditivo) de un videoclip.",
zh = "一项视觉-语言任务,生成自然语言描述以概括视频片段的视觉(有时还包括音频)内容。",
article = nil,
}
data["video chain-of-thought"] = {
short = "A prompting and training paradigm that elicits step-by-step reasoning over a video, decomposing a question into intermediate temporal and visual reasoning steps before producing the final answer.",
es = "Paradigma de indicaciones y entrenamiento que induce razonamiento paso a paso sobre un video, descomponiendo la pregunta en pasos intermedios de razonamiento temporal y visual antes de producir la respuesta final.",
zh = "一种提示与训练范式,在对视频进行逐步推理时,将问题分解为中间的时间与视觉推理步骤,再得出最终答案。",
article = nil,
}
data["video chat"] = {
short = "A class of video-language conversational assistants (e.g. VideoChat, VideoChat2) that combine a vision encoder, a temporal/video adapter, and an LLM backbone to support multi-turn dialogue grounded in a video.",
es = "Clase de asistentes conversacionales de video y lenguaje (p. ej. VideoChat, VideoChat2) que combinan un codificador visual, un adaptador temporal o de video y un LLM como columna vertebral, para sostener diálogos multivuelta anclados en un video.",
zh = "一类视频-语言对话助手(如 VideoChat、VideoChat2),通过将视觉编码器、时间/视频适配器与 LLM 主干结合,支持基于视频的多轮对话。",
article = nil,
}
data["video diffusion model"] = {
short = "A diffusion-based generative model that produces video by denoising a tensor with an explicit time axis, typically using temporal attention or 3D convolutions on top of an image diffusion backbone.",
es = "Modelo generativo por difusión que produce vídeo al denoising de un tensor con eje temporal explícito, normalmente añadiendo atención temporal o convoluciones 3D sobre una arquitectura de difusión de imágenes.",
zh = "基于扩散的生成模型,通过对带显式时间轴的张量去噪来生成视频,通常在图像扩散骨干之上加入时间注意力或 3D 卷积。",
article = nil,
}
data["video grounding"] = {
short = "A task that localizes the temporal segment (start and end times) within an untrimmed video that corresponds to a given natural-language query.",
es = "Tarea que localiza el segmento temporal (tiempos de inicio y fin) dentro de un video sin recortar que corresponde a una consulta dada en lenguaje natural.",
zh = "一项任务,在未剪辑的视频中定位与给定自然语言查询相对应的时间片段(起止时间)。",
article = nil,
}
data["video instruction tuning"] = {
short = "A fine-tuning procedure that aligns video-language models with instruction-following behavior using video-question-answer pairs or video-instruction datasets, analogous to text-only instruction tuning of LLMs.",
es = "Procedimiento de ajuste fino que alinea modelos de video y lenguaje con un comportamiento de seguimiento de instrucciones, usando pares video-pregunta-respuesta o conjuntos de instrucciones sobre video, de manera análoga al instruction tuning de los LLM solo de texto.",
zh = "一种微调流程,使用视频-问题-答案对或视频指令数据集,使视频-语言模型具备遵循指令的能力,与纯文本 LLM 的指令微调类似。",
article = nil,
}
data["video pretraining for control"] = {
short = "A family of methods that pretrain visual encoders, dynamics models or even policies on large unlabeled or weakly labeled video corpora — internet how-to videos, egocentric data — and then transfer the learned representations to downstream robot control tasks; examples include R3M, VC-1 and VPT.",
es = "Familia de métodos que preentrenan codificadores visuales, modelos de dinámica o incluso políticas sobre grandes corpus de vídeo sin etiquetas o con etiquetas débiles —vídeos tutoriales de internet, datos egocéntricos— y luego transfieren las representaciones aprendidas a tareas posteriores de control robótico; ejemplos incluyen R3M, VC-1 y VPT.",
zh = "一类方法的总称:在大规模无标签或弱标签视频数据(如互联网教程视频、第一人称数据)上预训练视觉编码器、动力学模型甚至策略,再将所学表征迁移到下游的机器人控制任务;代表方法包括 R3M、VC-1 和 VPT。",
article = nil,
}
data["video question answering"] = {
short = "A multimodal task in which a model answers natural-language questions about a video clip, drawing on visual and often audio or dialogue evidence and frequently requiring temporal reasoning.",
es = "Tarea multimodal en la que un modelo responde preguntas en lenguaje natural sobre un videoclip, apoyándose en evidencia visual y, a menudo, también auditiva o de diálogos, y que con frecuencia exige razonamiento temporal.",
zh = "一项多模态任务,模型针对视频片段回答自然语言问题,需结合视觉以及通常还有音频或对白证据,常涉及时间推理。",
article = nil,
}
data["video token"] = {
short = "A discrete or continuous embedding representing a spatiotemporal patch (or whole frame) of a video, used as the unit of input to a transformer-based video model.",
es = "Embedding discreto o continuo que representa un parche espacio-temporal (o un cuadro entero) de un video, utilizado como unidad de entrada en un modelo de video basado en transformer.",
zh = "用于基于 Transformer 的视频模型的输入单元,以离散或连续嵌入表示视频中的时空小块(或整帧)。",
article = nil,
}
data["video-chatgpt"] = {
short = "A video-conversation multimodal model that pairs a CLIP-based video encoder with a Vicuna LLM through a learned projection, enabling open-ended QA and description over video clips. Introduced by MBZUAI in 2023.",
es = "Modelo multimodal de conversación sobre vídeo que combina un codificador de vídeo basado en CLIP con un LLM Vicuna mediante una proyección aprendida, permitiendo preguntas-respuestas y descripciones abiertas sobre clips. Presentado por MBZUAI en 2023.",
zh = "一种面向视频对话的多模态模型,通过可学习投影将基于 CLIP 的视频编码器与 Vicuna LLM 对接,支持对视频片段的开放式问答与描述。MBZUAI 于 2023 年提出。",
article = nil,
}
data["video-coca"] = {
short = "An extension of CoCa (Contrastive Captioner) to video that attends over encoded frame embeddings and is trained with both contrastive video-text alignment and generative video captioning objectives.",
es = "Una extensión de CoCa (Contrastive Captioner) al dominio del video que atiende sobre embeddings de cuadros codificados y se entrena con objetivos contrastivos de alineación video-texto y de subtitulado generativo de video.",
zh = "CoCa(Contrastive Captioner)向视频领域的扩展,在编码后的帧嵌入上进行注意力计算,并以对比式视频-文本对齐与生成式视频描述这两类目标共同训练。",
article = nil,
}
data["video-llama"] = {
short = "A multimodal LLM that augments LLaMA with a video Q-Former for vision and an audio Q-Former for audio, supporting video understanding and dialogue via instruction tuning on video-text data.",
es = "Un LLM multimodal que extiende LLaMA con un Q-Former de video para la rama visual y un Q-Former de audio para la rama auditiva, habilitando comprensión de video y diálogo mediante ajuste por instrucciones sobre datos de video-texto.",
zh = "一个多模态 LLM,在 LLaMA 基础上增加用于视觉的视频 Q-Former 和用于音频的音频 Q-Former,通过基于视频-文本数据的指令微调实现视频理解与对话。",
article = nil,
}
data["video-llava"] = {
short = "A multimodal LLM that aligns image and video encoders to a shared embedding space before connecting them to an LLM, enabling unified image-and-video understanding with a single set of projection weights.",
es = "LLM multimodal que alinea codificadores de imagen y vídeo a un espacio de incrustaciones compartido antes de conectarlos a un LLM, logrando comprensión unificada de imagen y vídeo con un único conjunto de pesos de proyección.",
zh = "一种多模态 LLM,在与 LLM 连接之前先把图像与视频编码器对齐到共享的嵌入空间,从而以同一套投影权重统一处理图像与视频理解。",
article = nil,
}
data["video-mme"] = {
short = "A comprehensive multimodal evaluation benchmark for video LLMs that scores models on short, medium, and long clips across diverse domains and reasoning skills with human-verified multiple-choice questions.",
es = "Benchmark integral de evaluación multimodal para LLM de vídeo que puntúa a los modelos en clips cortos, medianos y largos a través de dominios y habilidades de razonamiento variados, con preguntas de opción múltiple verificadas por humanos.",
zh = "面向视频 LLM 的综合多模态评测基准,使用经人工核验的多项选择题,对模型在短、中、长片段及多领域、多种推理能力上进行评分。",
article = nil,
}
data["video-text retrieval"] = {
short = "A cross-modal retrieval task that ranks videos given a text query, or text given a video, typically evaluated with Recall@K metrics on benchmarks such as MSR-VTT, DiDeMo, and ActivityNet Captions.",
es = "Tarea de recuperación cruzada que ordena videos a partir de una consulta de texto, o textos a partir de un video, evaluada normalmente con métricas Recall@K sobre puntos de referencia como MSR-VTT, DiDeMo y ActivityNet Captions.",
zh = "一种跨模态检索任务,根据文本查询对视频排序,或反之根据视频对文本排序,通常在 MSR-VTT、DiDeMo、ActivityNet Captions 等基准上以 Recall@K 进行评估。",
article = nil,
}
data["videobert"] = {
short = "A joint video-language model that quantizes video clips into discrete visual tokens and applies BERT-style masked prediction over the concatenation of speech-recognized text and video tokens, trained on large-scale instructional (e.g. cooking) videos.",
es = "Modelo conjunto de video y lenguaje que cuantiza clips de video en tokens visuales discretos y aplica predicción enmascarada al estilo BERT sobre la concatenación de texto reconocido por ASR y los tokens de video, entrenado a gran escala con videos instructivos (p. ej. de cocina).",
zh = "一种视频-语言联合模型,将视频片段量化为离散的视觉 token,在 ASR 识别文本与视频 token 的拼接序列上进行 BERT 风格的掩码预测,以大规模教学类视频(如烹饪视频)训练。",
article = nil,
}
data["videogpt"] = {
short = "An autoregressive video generation model that learns a discrete latent representation via VQ-VAE and then generates videos with a GPT-style transformer over the latent codes.",
es = "Modelo autorregresivo de generación de vídeo que aprende una representación latente discreta mediante VQ-VAE y genera vídeos con un transformador estilo GPT sobre los códigos latentes.",
zh = "一种自回归视频生成模型,通过 VQ-VAE 学习离散潜在表示,然后使用类 GPT 的 Transformer 在潜在码上生成视频。",
article = nil,
}
data["videoldm"] = {
short = "Video Latent Diffusion Model; an extension of latent diffusion to video that inserts temporal layers into a pretrained image diffusion model to generate temporally coherent video clips.",
es = "Modelo de difusión latente para vídeo; una extensión de la difusión latente al vídeo que inserta capas temporales en un modelo de difusión de imágenes preentrenado para generar clips coherentes en el tiempo.",
zh = "视频潜在扩散模型;将潜在扩散扩展到视频的方法,在预训练图像扩散模型中插入时间层以生成时间一致的视频片段。",
article = nil,
}
data["videopoet"] = {
short = "A decoder-only large language model from Google that handles video generation as a multimodal sequence task, mixing tokenized image, video, audio and text inputs to produce video outputs.",
es = "Modelo de lenguaje grande solo decodificador de Google que aborda la generación de vídeo como una tarea multimodal secuencial, mezclando entradas tokenizadas de imagen, vídeo, audio y texto para producir salidas de vídeo.",
zh = "Google 提出的仅解码器大语言模型,将视频生成视为多模态序列任务,混合图像、视频、音频与文本的离散化输入以生成视频输出。",
article = nil,
}
data["vidu"] = {
short = "A text-to-video diffusion model from Shengshu/Tsinghua based on a U-ViT diffusion backbone, producing high-resolution clips of up to several seconds with strong temporal consistency.",
es = "Modelo de difusión texto-a-vídeo de Shengshu/Tsinghua basado en una arquitectura U-ViT, capaz de generar clips de alta resolución de varios segundos con buena coherencia temporal.",
zh = "由生数科技与清华大学提出的文本到视频扩散模型,基于 U-ViT 扩散骨干,可生成数秒时长的高分辨率视频且具备较好的时间一致性。",
article = nil,
}
data["vietoris-rips complex"] = {
short = "A simplicial complex built from a metric space by including a simplex for every finite set of points whose pairwise distances are below a threshold, used in topological data analysis.",
es = "Complejo simplicial construido a partir de un espacio métrico que incluye un símplice por cada conjunto finito de puntos cuyas distancias por pares están por debajo de un umbral, utilizado en análisis topológico de datos.",
zh = "由度量空间构造的单纯复形:对每个两两距离均小于给定阈值的有限点集加入一个单纯形,用于拓扑数据分析。",
article = nil,
}
data["vila"] = {
short = "ViLa (Vision-Language Planning) is a robotics planning method by Hu et al. (2023) that prompts a vision-language model such as GPT-4V with the current scene image and a goal to produce a sequence of language sub-tasks for a low-level skill executor.",
es = "ViLa (Vision-Language Planning) es un método de planificación robótica de Hu et al. (2023) que solicita a un modelo de visión y lenguaje, como GPT-4V, una imagen de la escena actual y un objetivo para generar una secuencia de subtareas en lenguaje natural destinadas a un ejecutor de habilidades de bajo nivel.",
zh = "ViLa(Vision-Language Planning)是 Hu 等人于 2023 年提出的机器人规划方法:将当前场景图像与目标输入到视觉-语言模型(如 GPT-4V)进行提示,由其生成供底层技能执行器执行的语言子任务序列。",
article = nil,
}
data["vim ood score"] = {
short = "Virtual-logit Matching: an out-of-distribution detection score that augments standard logits with a virtual logit derived from the residual of the penultimate features against the principal subspace of in-distribution training features.",
es = "Virtual-logit Matching: puntaje de detección fuera de distribución que aumenta los logits estándar con un logit virtual derivado del residuo de las características penúltimas respecto al subespacio principal de las características de entrenamiento dentro de la distribución.",
zh = "Virtual-logit Matching:一种分布外检测得分,将标准 logits 与从倒数第二层特征相对于分布内训练特征主子空间的残差中导出的虚拟 logit 相结合。",
article = nil,
}
data["vinn"] = {
short = "Visual Imitation through Nearest Neighbors (Pari et al., 2022): an imitation method that pretrains a self-supervised visual encoder (BYOL) on demonstration images and at test time selects actions by retrieving the nearest neighbor in embedding space, achieving strong manipulation performance with very few demonstrations.",
es = "Visual Imitation through Nearest Neighbors (Pari et al., 2022): método de imitación que preentrena un codificador visual autosupervisado (BYOL) sobre imágenes de demostración y, en tiempo de prueba, selecciona acciones recuperando el vecino más cercano en el espacio de embeddings, logrando un fuerte desempeño en manipulación con muy pocas demostraciones.",
zh = "Visual Imitation through Nearest Neighbors(Pari 等人,2022):一种模仿学习方法,先在演示图像上以 BYOL 自监督方式预训练视觉编码器,测试时通过在嵌入空间中检索最近邻来选择动作,仅用极少演示即可在操作任务上取得优异表现。",
article = nil,
}
data["vinvl"] = {
short = "Visual features in Vision-and-Language; a re-trained object-detection backbone (Faster R-CNN with ResNeXt-152) that produces richer region features and notably improves vision-language pretraining.",
es = "Backbone de detección de objetos reentrenado (Faster R-CNN con ResNeXt-152) que produce características de regiones más ricas y mejora notablemente el preentrenamiento visión-lenguaje.",
zh = "重新训练的目标检测骨干(基于 ResNeXt-152 的 Faster R-CNN),可生成更丰富的区域特征,并显著提升视觉语言预训练效果。",
article = nil,
}
data["viquae"] = {
short = "A knowledge-based visual question answering benchmark in which questions about a named entity in an image must be answered using an external knowledge base, emphasizing entity linking and retrieval.",
es = "Banco de pruebas de respuesta visual a preguntas basado en conocimiento donde las preguntas sobre una entidad nombrada en una imagen deben responderse usando una base de conocimiento externa, con énfasis en enlazado de entidades y recuperación.",
zh = "一个基于知识的视觉问答基准,需借助外部知识库回答图像中命名实体相关的问题,强调实体链接与检索。",
article = nil,
}
data["virtual batch norm"] = {
short = "Normalization that computes statistics on a fixed reference batch shared across training, reducing sample dependence within the current minibatch. Introduced for GAN stability.",
es = "Normalización que calcula las estadísticas sobre un batch de referencia fijo compartido durante el entrenamiento, reduciendo la dependencia entre muestras dentro del minibatch actual. Introducida para estabilizar GAN.",
zh = "在训练中使用固定参考批次计算统计量的归一化方法,可降低当前小批量内样本之间的相互依赖。最初用于稳定 GAN 训练。",
article = nil,
}
data["virtual evidence"] = {
short = "Pearl's mechanism for incorporating uncertain or noisy evidence into a Bayesian network by attaching a dummy child node whose likelihood ratio across the parent's states encodes the strength of the evidence.",
es = "Mecanismo de Pearl para incorporar evidencia incierta o ruidosa en una red bayesiana adjuntando un nodo hijo ficticio cuya razón de verosimilitudes sobre los estados del padre codifica la fuerza de la evidencia.",
zh = "Pearl 提出的将不确定或噪声证据纳入贝叶斯网络的方法,通过附加一个虚拟子节点,其在父节点状态上的似然比编码证据强度。",
article = nil,
}
data["virtual screening"] = {
short = "Computational evaluation of large compound libraries to prioritize candidates likely to bind a target or exhibit desired properties, using docking, pharmacophore matching, or machine-learning predictors.",
es = "Evaluación computacional de grandes bibliotecas de compuestos para priorizar candidatos con probabilidad de unirse a una diana o de presentar propiedades deseadas, utilizando acoplamiento, emparejamiento farmacofórico o predictores de aprendizaje automático.",
zh = "对大型化合物库进行的计算评估,使用分子对接、药效团匹配或机器学习预测器来优先选择可能与靶标结合或具有所需性质的候选化合物。",
article = nil,
}
data["visdial"] = {
short = "Visual Dialog; a benchmark and task in which an agent must hold a multi-turn natural-language conversation about an image, answering follow-up questions grounded in the image and dialogue history.",
es = "Diálogo visual; una tarea y banco de pruebas donde un agente mantiene una conversación de varios turnos sobre una imagen, respondiendo preguntas de seguimiento ancladas en la imagen y el historial.",
zh = "视觉对话;一个任务和基准,要求智能体围绕图像进行多轮自然语言对话,基于图像和对话历史回答后续问题。",
article = nil,
}
data["vision transformer"] = {
short = "A transformer architecture for image classification introduced by Dosovitskiy et al. in 2020 that splits an image into fixed-size patches, linearly embeds them, and processes the resulting sequence with a standard transformer encoder.",
es = "Arquitectura transformer para clasificación de imágenes presentada por Dosovitskiy et al. en 2020 que divide una imagen en parches de tamaño fijo, los proyecta linealmente y procesa la secuencia resultante con un codificador transformer estándar.",
zh = "由 Dosovitskiy 等人于 2020 年提出的图像分类 Transformer 架构,将图像划分为固定大小的图块、线性嵌入后用标准 Transformer 编码器处理生成的序列。",
article = nil,
}
data["visit-bench"] = {
short = "A benchmark of real-world, instruction-following visual tasks used to evaluate vision-language models on open-ended user queries with human-rated outputs.",
es = "Banco de pruebas de tareas visuales reales de seguimiento de instrucciones, usado para evaluar modelos visión-lenguaje en consultas abiertas de usuario con puntuaciones humanas.",
zh = "一个由真实世界的指令跟随视觉任务组成的基准,用于在开放式用户查询上以人工评分评估视觉语言模型。",
article = nil,
}
data["visium"] = {
short = "A 10x Genomics spatial transcriptomics platform that captures whole-transcriptome RNA from tissue sections placed on barcoded slide spots (~55 μm), preserving spatial coordinates of gene expression.",
es = "Plataforma de transcriptómica espacial de 10x Genomics que captura ARN del transcriptoma completo a partir de secciones de tejido colocadas en puntos con códigos de barras (~55 μm) en un portaobjetos, preservando las coordenadas espaciales de la expresión génica.",
zh = "10x Genomics 推出的空间转录组学平台,将组织切片置于带有条形码的载玻片点(约 55 μm)上捕获全转录组 RNA,从而保留基因表达的空间坐标。",
article = nil,
}
data["visnet"] = {
short = "An equivariant graph neural network for molecular property prediction that combines vector and scalar features with geometry-aware message passing to model 3D molecular structures efficiently.",
es = "Red neuronal de grafos equivariante para la predicción de propiedades moleculares que combina características vectoriales y escalares con paso de mensajes consciente de la geometría para modelar eficientemente estructuras moleculares 3D.",
zh = "一种用于分子性质预测的等变图神经网络,将向量与标量特征与几何感知的消息传递相结合,以高效建模三维分子结构。",
article = nil,
}
data["vist"] = {
short = "Visual Storytelling; a dataset and task in which an ordered sequence of images must be described with a coherent narrative rather than independent captions, requiring temporal and discourse modeling.",
es = "Narración visual; un conjunto de datos y tarea donde una secuencia ordenada de imágenes debe describirse con una narrativa coherente en lugar de subtítulos independientes, lo que requiere modelar tiempo y discurso.",
zh = "视觉叙事;一个数据集和任务,要求为有序的图像序列生成连贯叙述而非独立字幕,需要建模时间与话语关系。",
article = nil,
}
data["visual abstractor"] = {
short = "A learnable module that maps a long sequence of dense visual features into a small set of summary tokens for a language model, used in vision-language architectures such as mPLUG-Owl.",
es = "Módulo aprendible que mapea una larga secuencia de características visuales densas en un conjunto reducido de tokens resumidos para un modelo de lenguaje; usado en arquitecturas visión-lenguaje como mPLUG-Owl.",
zh = "一种可学习模块,将密集视觉特征的长序列映射为少量摘要 token 输入语言模型,用于 mPLUG-Owl 等视觉语言架构。",
article = nil,
}
data["visual affordance"] = {
short = "A visual representation of where and how an action can be performed on objects in a scene — for example a per-pixel grasp heatmap, a pushing direction map or a contact-point distribution — typically predicted from RGB or RGB-D images and used to guide manipulation policies.",
es = "Representación visual de dónde y cómo puede ejecutarse una acción sobre los objetos de una escena —por ejemplo, un mapa de calor de agarre por píxel, un mapa de direcciones de empuje o una distribución de puntos de contacto— predicha típicamente a partir de imágenes RGB o RGB-D y utilizada para guiar políticas de manipulación.",
zh = "对场景中物体上动作可在何处、以何种方式执行的一种视觉表示——例如逐像素的抓取热图、推动方向图或接触点分布——通常从 RGB 或 RGB-D 图像中预测得到,用于指导操作策略。",
article = nil,
}
data["visual agent"] = {
short = "An agent that perceives images or video, reasons over them with a multimodal model, and takes actions such as calling tools, navigating a GUI, or operating in a simulated environment.",
es = "Agente que percibe imágenes o vídeo, razona sobre ellos con un modelo multimodal y ejecuta acciones como invocar herramientas, navegar una GUI u operar en un entorno simulado.",
zh = "一类能够感知图像或视频、利用多模态模型进行推理并执行调用工具、操作 GUI 或在仿真环境中行动的智能体。",
article = nil,
}
data["visual analogy reasoning"] = {
short = "The task of completing image-based analogies of the form A:B::C:?, often evaluated on Raven's Progressive Matrices, requiring abstract pattern induction over visual attributes and relations.",
es = "Tarea de completar analogías basadas en imágenes de la forma A:B::C:?, evaluada con frecuencia en las Matrices Progresivas de Raven, que requiere inducir patrones abstractos sobre atributos y relaciones visuales.",
zh = "完成形如 A:B::C:? 的视觉类比任务,常使用 Raven 渐进矩阵进行评测,需要对视觉属性与关系进行抽象的模式归纳。",
article = nil,
}
data["visual autoregressive modeling"] = {
short = "An image generation paradigm (VAR) that replaces next-token prediction with next-scale prediction: the model autoregressively generates a coarse-to-fine pyramid of token maps, achieving strong scaling and matching diffusion quality on ImageNet.",
es = "Paradigma de generación de imágenes (VAR) que sustituye la predicción del siguiente token por la predicción de la siguiente escala: el modelo genera autoregresivamente una pirámide de mapas de tokens de gruesos a finos, logrando un buen escalado y igualando la calidad de la difusión en ImageNet.",
zh = "一种图像生成范式(VAR),用“下一尺度预测”取代“下一令牌预测”:模型按从粗到细的金字塔自回归生成多尺度令牌图,规模化效果良好,在 ImageNet 上可与扩散模型媲美。",
article = nil,
}
data["visual chain-of-thought"] = {
short = "A multimodal reasoning technique in which a model produces intermediate visual or visually grounded steps (sketches, region selections, image edits) along with text rationales before giving a final answer.",
es = "Técnica de razonamiento multimodal en la que un modelo produce pasos intermedios visuales o anclados a la imagen (bocetos, selección de regiones, ediciones) junto con explicaciones textuales antes de la respuesta final.",
zh = "一种多模态推理技术,模型在给出最终答案之前生成中间的视觉步骤或视觉锚定步骤(草图、区域选择、图像编辑)以及文本解释。",
article = nil,
}
data["visual cls token"] = {
short = "A learnable [CLS] token prepended to the patch sequence of a Vision Transformer; its final-layer representation is used as a global image embedding for classification or downstream tasks.",
es = "Token [CLS] aprendible que se antepone a la secuencia de parches de un Vision Transformer; su representación en la última capa se utiliza como un embedding global de la imagen para clasificación u otras tareas.",
zh = "在 Vision Transformer 的图像块序列前添加的可学习 [CLS] token,其最后一层表示用作整张图像的全局嵌入,用于分类等下游任务。",
article = nil,
}
data["visual commonsense reasoning"] = {
short = "A task and benchmark (VCR) requiring a model to answer multiple-choice questions about an image and to also justify the answer with a correct rationale, testing visual and commonsense inference.",
es = "Tarea y banco de pruebas (VCR) que exige a un modelo responder preguntas de opción múltiple sobre una imagen y además justificar la respuesta con una explicación correcta, evaluando inferencia visual y de sentido común.",
zh = "视觉常识推理(VCR);要求模型对图像回答多项选择题并给出正确理由的任务与基准,用于评估视觉与常识推理能力。",
article = nil,
}
data["visual cortex policy"] = {
short = "A robot policy whose visual encoder is initialized from a frozen, large-scale pretrained backbone meant to play the role of a visual cortex — most notably the VC-1 representation — leaving only a lightweight policy head to be trained on downstream control tasks.",
es = "Política de robot cuyo codificador visual se inicializa a partir de una columna vertebral preentrenada a gran escala y congelada, pensada para hacer las veces de una corteza visual —en particular la representación VC-1—, dejando solo una cabeza de política ligera para entrenar en las tareas de control posteriores.",
zh = "一种机器人策略,其视觉编码器使用冻结的大规模预训练骨干网络初始化,该骨干旨在扮演 \"视觉皮层\" 的角色(典型代表是 VC-1 表示),下游控制任务仅需训练一个轻量级策略头。",
article = nil,
}
data["visual dialogue"] = {
short = "A task in which an AI agent must hold a coherent multi-turn conversation about a given image, answering follow-up questions that depend on both visual content and dialogue history.",
es = "Tarea en la que un agente debe mantener una conversación coherente de varios turnos sobre una imagen, respondiendo preguntas de seguimiento que dependen del contenido visual y del historial del diálogo.",
zh = "一个任务,要求 AI 智能体围绕给定图像进行连贯的多轮对话,回答依赖图像内容与对话历史的后续问题。",
article = nil,
}
data["visual domain randomization"] = {
short = "A sim-to-real technique that randomizes the visual properties of a simulator — textures, colors, lighting, camera pose, distractor objects — during training so that the policy generalizes to real-world appearances treated as just another sample of the randomized distribution.",
es = "Técnica de simulación a realidad que aleatoriza las propiedades visuales de un simulador —texturas, colores, iluminación, pose de cámara, objetos distractores— durante el entrenamiento, de modo que la política generalice a las apariencias del mundo real tratadas simplemente como una muestra más de la distribución aleatorizada.",
zh = "一种 sim-to-real 技术,在训练中随机化仿真器的视觉属性(纹理、颜色、光照、相机位姿、干扰物体),使策略能够将真实世界的外观视为该随机分布中的又一样本,从而实现泛化。",
article = nil,
}
data["visual entailment"] = {
short = "A task that classifies whether the content of an image entails, contradicts, or is neutral with respect to a natural-language hypothesis; the SNLI-VE dataset is the standard benchmark.",
es = "Tarea que clasifica si el contenido de una imagen implica, contradice o es neutral respecto a una hipótesis en lenguaje natural; el conjunto de datos SNLI-VE es el banco de pruebas estándar.",
zh = "视觉蕴含;判断图像内容相对于自然语言假设是蕴含、矛盾还是中立的任务,标准基准为 SNLI-VE。",
article = nil,
}
data["visual feedback"] = {
short = "A training or inference signal in which images, image-conditioned scores, or vision-language model judgments are used as the reward or correction signal, typically for reinforcement learning or iterative refinement.",
es = "Señal de entrenamiento o inferencia en la que imágenes, puntuaciones condicionadas a imágenes o juicios de un modelo visión-lenguaje se utilizan como recompensa o señal de corrección, normalmente en aprendizaje por refuerzo o refinamiento iterativo.",
zh = "一种训练或推理信号,使用图像、基于图像的评分或视觉语言模型的判断作为奖励或纠错信号,常用于强化学习或迭代优化。",
article = nil,
}
data["visual grounding"] = {
short = "The task of localizing the image region referred to by a natural-language expression, producing a bounding box or mask aligned with the textual referent.",
es = "Tarea de localizar la región de una imagen referida por una expresión en lenguaje natural, produciendo una caja delimitadora o máscara alineada con el referente textual.",
zh = "将自然语言表达所指代的图像区域定位出来的任务,输出与文本指代物对齐的边界框或掩膜。",
article = nil,
}
data["visual imitation through nearest neighbors"] = {
short = "An imitation-learning method (Pari et al., 2022), abbreviated VINN, that trains a self-supervised visual encoder on demonstration images using BYOL and then chooses actions at test time by retrieving the nearest neighbor in embedding space, achieving strong few-shot manipulation results.",
es = "Método de aprendizaje por imitación (Pari et al., 2022), abreviado VINN, que entrena un codificador visual autosupervisado sobre imágenes de demostración con BYOL y, en tiempo de prueba, selecciona acciones recuperando el vecino más cercano en el espacio de embeddings, logrando un fuerte desempeño en manipulación con pocas muestras.",
zh = "Pari 等人于 2022 年提出的模仿学习方法,简称 VINN:先用 BYOL 在演示图像上自监督地训练视觉编码器,测试阶段通过在嵌入空间中检索最近邻来决定动作,可在小样本条件下取得优异的操作表现。",
article = nil,
}
data["visual instruction tuning"] = {
short = "Instruction tuning of a vision-language model on (image, instruction, response) triples — popularized by LLaVA — to align a pretrained multimodal backbone with chat-style image-grounded user requests.",
es = "Ajuste por instrucciones de un modelo visión-lenguaje sobre tripletas (imagen, instrucción, respuesta) — popularizado por LLaVA — para alinear un backbone multimodal preentrenado con peticiones tipo chat ancladas a imágenes.",
zh = "对视觉语言模型在(图像,指令,回答)三元组上进行指令微调(由 LLaVA 推广),使预训练多模态主干与图像锚定的对话式用户请求对齐。",
article = nil,
}
data["visual jailbreak"] = {
short = "An attack on a vision-language model that uses adversarial or crafted images (e.g. with hidden text or steganographic prompts) to bypass safety filters that would block the equivalent text-only request.",
es = "Ataque sobre un modelo visión-lenguaje que utiliza imágenes adversariales o construidas (p. ej. con texto oculto o prompts esteganográficos) para eludir filtros de seguridad que bloquearían el equivalente solo en texto.",
zh = "针对视觉语言模型的越狱攻击,通过对抗性或精心构造的图像(例如含隐藏文本或隐写提示)绕过安全过滤,以提交在纯文本下会被拦截的请求。",
article = nil,
}
data["visual mpc"] = {
short = "Visual Model Predictive Control (Finn & Levine 2017; Ebert et al. 2018): a control framework that learns a video-prediction model of how images change with actions and at each step plans actions by sampling and re-evaluating candidate sequences against a goal image, executing the first action and replanning.",
es = "Visual Model Predictive Control (Finn y Levine, 2017; Ebert et al., 2018): marco de control que aprende un modelo de predicción de vídeo sobre cómo cambian las imágenes con las acciones y, en cada paso, planifica acciones muestreando y reevaluando secuencias candidatas frente a una imagen objetivo, ejecutando la primera acción y replanificando.",
zh = "Visual Model Predictive Control(Finn 与 Levine,2017;Ebert 等人,2018):一种控制框架,学习预测图像如何随动作变化的视频预测模型,在每一步通过采样并依据目标图像重新评估候选动作序列来进行规划,执行第一步动作后再次重新规划。",
article = nil,
}
data["visual navigation rl"] = {
short = "Reinforcement learning approaches in which an embodied agent navigates an environment from raw visual observations (RGB or RGB-D), learning policies that map pixels to motion commands for tasks such as point-goal, object-goal, or instruction-following navigation.",
es = "Enfoques de aprendizaje por refuerzo en los que un agente corporeizado navega por un entorno a partir de observaciones visuales en bruto (RGB o RGB-D), aprendiendo políticas que mapean píxeles a comandos de movimiento para tareas como navegación a punto, a objeto o siguiendo instrucciones.",
zh = "强化学习方法的一类,具身智能体仅依靠原始视觉观测(RGB 或 RGB-D)在环境中导航,学习从像素到运动指令的策略,以完成点目标、物体目标或指令跟随等导航任务。",
article = nil,
}
data["visual prefix tuning"] = {
short = "A parameter-efficient adaptation method for vision-language models that prepends a small set of learned visual prefix tokens to the model input, leaving the backbone weights frozen.",
es = "Método de adaptación eficiente en parámetros para modelos visión-lenguaje que antepone un pequeño conjunto de tokens de prefijo visuales aprendidos a la entrada del modelo, manteniendo los pesos del backbone congelados.",
zh = "一种用于视觉语言模型的参数高效适配方法,在模型输入前添加少量可学习的视觉前缀 token,主干权重保持冻结。",
article = nil,
}
data["visual prompt"] = {
short = "An input modification applied directly in the visual domain — such as colored boxes, arrows, masks, or learned pixel patches — used to steer a vision or vision-language model toward a desired behavior.",
es = "Modificación de la entrada aplicada directamente en el dominio visual — como cajas de colores, flechas, máscaras o parches de píxeles aprendidos — para dirigir un modelo de visión o visión-lenguaje hacia un comportamiento deseado.",
zh = "直接施加在视觉域上的输入修改(如彩色框、箭头、掩码或学习到的像素补丁),用于引导视觉或视觉语言模型表现出特定行为。",
article = nil,
}
data["visual prompt generator"] = {
short = "A learned module — typically a small network or a Q-Former — that converts visual features into a sequence of soft prompt tokens consumable by a frozen language model.",
es = "Módulo aprendido — normalmente una red pequeña o un Q-Former — que convierte características visuales en una secuencia de tokens de prompt suaves consumibles por un modelo de lenguaje congelado.",
zh = "一种可学习模块(通常是小型网络或 Q-Former),将视觉特征转换为软提示 token 序列,供冻结的语言模型使用。",
article = nil,
}
data["visual prompt tuning"] = {
short = "A parameter-efficient method for adapting a frozen Vision Transformer by inserting a small number of learnable prompt tokens into the input or each layer; introduced by Jia et al. (2022).",
es = "Método de adaptación eficiente en parámetros para Vision Transformers congelados que inserta un pequeño número de tokens de prompt aprendibles en la entrada o en cada capa; propuesto por Jia et al. (2022).",
zh = "一种针对冻结 Vision Transformer 的参数高效适配方法,在输入或每一层插入少量可学习的提示 token;由 Jia 等人(2022)提出。",
article = nil,
}
data["visual question answering"] = {
short = "A multimodal task in which a system answers a natural-language question about an image, requiring joint understanding of vision and language; popular benchmarks include VQA v2, GQA, and OK-VQA.",
es = "Tarea multimodal en la que un sistema responde a una pregunta en lenguaje natural sobre una imagen, lo que requiere una comprensión conjunta de visión y lenguaje; entre sus referencias destacan VQA v2, GQA y OK-VQA.",
zh = "一种多模态任务,系统需要针对一幅图像回答自然语言问题,需联合理解视觉和语言;常用基准包括 VQA v2、GQA 和 OK-VQA。",
article = nil,
}
data["visual question answering explanation"] = {
short = "Explanation methods for Visual Question Answering models that reveal which image regions and which words of the question drove the answer.",
es = "Métodos de explicación para modelos de Visual Question Answering que revelan qué regiones de la imagen y qué palabras de la pregunta determinaron la respuesta.",
zh = "面向视觉问答(VQA)模型的解释方法,用于揭示哪些图像区域以及问题中的哪些词主导了答案。",
article = nil,
}
data["visual rationale"] = {
short = "A visual explanation, typically a heatmap or highlighted region, that points to the parts of an image a model used to justify its prediction.",
es = "Explicación visual, normalmente un mapa de calor o región destacada, que señala las partes de una imagen que el modelo utilizó para justificar su predicción.",
zh = "一种视觉解释,通常以热力图或高亮区域形式指出模型用于支撑其预测的图像部分。",
article = nil,
}
data["visual reasoning"] = {
short = "An umbrella term for tasks that require inferring relationships, attributes, counts, or causal structure from images, typically going beyond surface recognition to multi-step compositional inference.",
es = "Término general para tareas que requieren inferir relaciones, atributos, conteos o estructura causal a partir de imágenes, normalmente más allá del reconocimiento superficial e implicando inferencia composicional de varios pasos.",
zh = "视觉推理;泛指需要从图像中推断关系、属性、计数或因果结构的任务,通常超越表层识别,涉及多步组合推理。",
article = nil,
}
data["visual recommender"] = {
short = "A recommender system that incorporates item images as side information, typically by extracting visual embeddings with a CNN or vision transformer and fusing them with collaborative signals to better serve fashion, art, or media catalogs.",
es = "Sistema de recomendación que incorpora las imágenes de los ítems como información complementaria, típicamente extrayendo embeddings visuales con una CNN o un transformer de visión y fusionándolos con señales colaborativas para servir mejor catálogos de moda, arte o medios.",
zh = "将物品图像作为辅助信息的推荐系统,通常使用 CNN 或视觉 Transformer 提取视觉嵌入,并与协同信号融合,以更好地服务时尚、艺术或媒体目录。",
article = nil,
}
data["visual reward learning"] = {
short = "A reinforcement learning approach in which the reward signal is inferred from visual observations, often using learned image-based reward models, demonstrations, or vision-language models, instead of hand-engineered task-specific rewards.",
es = "Enfoque de aprendizaje por refuerzo en el que la señal de recompensa se infiere a partir de observaciones visuales, mediante modelos de recompensa basados en imágenes, demostraciones o modelos de visión-lenguaje, en lugar de recompensas diseñadas manualmente.",
zh = "一种强化学习方法,其奖励信号通过基于图像的奖励模型、演示或视觉-语言模型从视觉观测中推断得到,而非依赖人工设计的任务特定奖励。",
article = nil,
}
data["visual servoing"] = {
short = "A robot control technique that uses visual feedback from a camera to regulate the pose of an end-effector or platform, typically by minimizing an error defined either in image space (image-based) or in 3D Cartesian space (position-based).",
es = "Técnica de control robótico que utiliza retroalimentación visual de una cámara para regular la pose de un efector final o plataforma, minimizando un error definido en el espacio de la imagen (basado en imagen) o en el espacio cartesiano 3D (basado en posición).",
zh = "一种机器人控制技术,利用相机的视觉反馈调节末端执行器或平台的位姿,通常通过最小化定义在图像空间(基于图像)或三维笛卡尔空间(基于位置)的误差实现。",
article = nil,
}
data["visual storytelling"] = {
short = "The task of generating a coherent narrative for a temporally ordered sequence of images, requiring discourse-level cohesion rather than independent per-image captions; canonical dataset is VIST.",
es = "Tarea de generar una narrativa coherente a partir de una secuencia ordenada de imágenes, que exige cohesión a nivel de discurso en lugar de subtítulos independientes por imagen; el conjunto de datos canónico es VIST.",
zh = "视觉叙事;为时间有序的图像序列生成连贯叙述的任务,需要话语层面的衔接而非每张图像独立的字幕,标准数据集为 VIST。",
article = nil,
}
data["visualbert"] = {
short = "An early single-stream vision-language transformer that concatenates BERT word tokens with object-region features and is pretrained with masked language modeling and image-text matching objectives.",
es = "Transformador visión-lenguaje temprano de flujo único que concatena tokens de palabras BERT con características de regiones de objetos y se preentrena con modelado de lenguaje enmascarado y emparejamiento imagen-texto.",
zh = "早期的单流视觉语言 Transformer,将 BERT 词 token 与目标区域特征拼接,并通过掩码语言建模与图文匹配目标进行预训练。",
article = nil,
}
data["visuomotor control"] = {
short = "Closed-loop robot control in which motor commands are computed directly from visual observations, typically with a learned policy that maps pixels (and proprioception) to actions without an explicit perception–planning–control decomposition.",
es = "Control robótico en lazo cerrado en el que las órdenes motoras se calculan directamente a partir de observaciones visuales, normalmente mediante una política aprendida que mapea píxeles (y propiocepción) a acciones sin una descomposición explícita de percepción, planificación y control.",
zh = "一种闭环机器人控制方式,其运动指令直接从视觉观测中计算得到,通常由学习得到的策略将像素(及本体感觉)映射为动作,而不显式区分感知、规划与控制。",
article = nil,
}
data["visuomotor policy"] = {
short = "A control policy that maps visual observations (and optionally proprioceptive state) directly to robot actions, learned end-to-end from demonstrations or reinforcement learning.",
es = "Política de control que mapea observaciones visuales (y opcionalmente el estado propioceptivo) directamente a acciones del robot, aprendida de extremo a extremo a partir de demostraciones o aprendizaje por refuerzo.",
zh = "一种控制策略,将视觉观测(以及可选的本体感觉状态)直接映射到机器人动作,通过演示或强化学习端到端训练得到。",
article = nil,
}
data["vit-resnas"] = {
short = "A search space and methodology that combines Vision Transformer blocks with ResNet-style stages and applies neural architecture search to jointly choose depth, width, and patch sizes, producing accuracy-efficient hybrid backbones.",
es = "Espacio de búsqueda y metodología que combina bloques de Vision Transformer con etapas estilo ResNet y aplica búsqueda de arquitecturas neuronales para elegir conjuntamente profundidad, ancho y tamaños de parche, produciendo backbones híbridos eficientes en precisión.",
zh = "一种将Vision Transformer模块与ResNet风格阶段相结合的搜索空间与方法,通过神经架构搜索联合选择深度、宽度和图像块大小,得到精度与效率平衡的混合骨干网络。",
article = nil,
}
data["vita mllm"] = {
short = "VITA is an open-source multimodal LLM from Tencent and partner labs that jointly handles text, image, video, and audio inputs and supports near-real-time spoken interaction without a separate ASR/TTS pipeline.",
es = "VITA es un LLM multimodal de código abierto desarrollado por Tencent y laboratorios asociados que procesa de forma conjunta texto, imagen, vídeo y audio, y permite interacción hablada casi en tiempo real sin un canal separado de ASR/TTS.",
zh = "VITA 是腾讯及合作机构开源的多模态 LLM,能够联合处理文本、图像、视频与音频输入,并在无需独立 ASR/TTS 流水线的情况下支持近实时语音交互。",
article = nil,
}
data["vita-1.5"] = {
short = "An open-source omnimodal large language model that integrates vision, speech and text in a unified architecture and supports real-time speech-to-speech interaction; developed by the Tencent VITA team.",
es = "Modelo de lenguaje grande omnimodal de código abierto que integra visión, habla y texto en una arquitectura unificada y admite interacción habla-a-habla en tiempo real; desarrollado por el equipo VITA de Tencent.",
zh = "一种开源的全模态大语言模型,在统一架构中整合视觉、语音与文本,并支持实时语音到语音交互;由腾讯 VITA 团队开发。",
article = nil,
}
data["viterbi algorithm"] = {
short = "A dynamic programming algorithm that computes the most probable state sequence in a hidden Markov model or, equivalently, the maximum a posteriori assignment in a chain-structured graphical model in time linear in sequence length.",
es = "Algoritmo de programación dinámica que calcula la secuencia de estados más probable en un modelo oculto de Markov o, de forma equivalente, la asignación máxima a posteriori en un modelo gráfico de cadena, en tiempo lineal en la longitud de la secuencia.",
zh = "一种动态规划算法,在隐马尔可夫模型中计算最可能的状态序列,或等价地在链结构图模型中以序列长度线性的时间求最大后验赋值。",
article = nil,
}
data["viterbi decoding"] = {
short = "The use of the Viterbi algorithm to recover the single most likely sequence of hidden states or labels given an observed sequence, commonly applied in speech recognition, sequence tagging, and channel coding.",
es = "Uso del algoritmo de Viterbi para recuperar la única secuencia más probable de estados ocultos o etiquetas dada una secuencia observada, comúnmente aplicada en reconocimiento de voz, etiquetado de secuencias y codificación de canal.",
zh = "利用维特比算法在给定观测序列下恢复单一最可能隐状态或标签序列,常用于语音识别、序列标注和信道编码。",
article = nil,
}
data["vits"] = {
short = "End-to-end text-to-speech model that jointly trains a conditional variational autoencoder, a normalizing-flow prior, and an adversarial waveform decoder, producing speech directly from text without a separate vocoder.",
es = "Modelo de síntesis de voz de extremo a extremo que entrena conjuntamente un autoencoder variacional condicional, un prior de flujo normalizador y un decodificador adversarial de forma de onda, generando habla directamente desde texto sin un vocoder separado.",
zh = "一种端到端文本转语音模型,联合训练条件变分自编码器、归一化流先验和对抗式波形解码器,直接从文本生成语音,无需独立的声码器。",
article = nil,
}
data["vits2"] = {
short = "An end-to-end text-to-speech model that improves on VITS by adopting a transformer-based posterior encoder and refined adversarial training, yielding more natural prosody and clearer pronunciation.",
es = "Modelo de síntesis de voz de extremo a extremo que mejora a VITS con un codificador posterior basado en transformer y entrenamiento adversario refinado, logrando prosodia más natural y mejor pronunciación.",
zh = "一种端到端文本到语音模型,通过采用基于 Transformer 的后验编码器和改进的对抗训练对 VITS 进行升级,生成更自然的韵律和更清晰的发音。",
article = nil,
}
data["vivit"] = {
short = "Video Vision Transformer; an extension of ViT to video that tokenizes spatio-temporal tubelets and applies factorized space-time attention for efficient video classification.",
es = "Transformador de visión para vídeo; una extensión de ViT al vídeo que tokeniza tubelos espacio-temporales y aplica atención espacio-temporal factorizada para clasificación de vídeo eficiente.",
zh = "视频 Vision Transformer;ViT 在视频上的扩展,将时空小立方体作为 token,采用分解的时空注意力以实现高效视频分类。",
article = nil,
}
data["vizier"] = {
short = "Google's internal black-box optimization service that uses Bayesian optimization (and other policies) to tune hyperparameters at scale; the open-source release is OSS Vizier.",
es = "Servicio interno de optimización de caja negra de Google que usa optimización bayesiana (y otras políticas) para ajustar hiperparámetros a gran escala; su versión de código abierto es OSS Vizier.",
zh = "Google内部的黑盒优化服务,使用贝叶斯优化等策略大规模调优超参数;其开源版本为OSS Vizier。",
article = nil,
}
data["vizwiz"] = {
short = "A visual question answering dataset collected from blind users, who took photos and asked spoken questions about them; answers are crowdsourced and emphasize accessibility-driven challenges such as poor framing and uncommon objects.",
es = "Un conjunto de datos de visual question answering recopilado a partir de usuarios ciegos, que tomaron fotografías y formularon preguntas habladas sobre ellas; las respuestas se obtienen mediante crowdsourcing y enfatizan los retos propios de la accesibilidad, como mala composición y objetos poco habituales.",
zh = "一个由盲人用户构建的视觉问答数据集,用户拍摄照片并提出语音问题,答案通过众包标注,重点关注无障碍场景特有的挑战,例如取景不佳和不常见的物体。",
article = nil,
}
data["vllm"] = {
short = "An open-source LLM serving engine that uses PagedAttention to manage the KV cache as fixed-size blocks, eliminating fragmentation and enabling continuous batching for high-throughput, low-latency inference.",
es = "Motor de inferencia de LLM de código abierto que usa PagedAttention para gestionar la caché KV como bloques de tamaño fijo, eliminando la fragmentación y permitiendo batching continuo para inferencia de alto rendimiento y baja latencia.",
zh = "一种开源 LLM 推理引擎,使用 PagedAttention 将 KV 缓存按固定大小分块管理,消除碎片,实现连续批处理,从而提供高吞吐、低延迟的推理。",
article = nil,
}
data["vlmo"] = {
short = "Vision-Language pretrained Model with Mixture-of-Modality-Experts; a unified Transformer that uses shared self-attention and modality-specific feed-forward experts to support contrastive, masked, and image-text matching pretraining within one architecture.",
es = "Vision-Language pretrained Model with Mixture-of-Modality-Experts; un Transformer unificado que utiliza atención propia compartida y expertos feed-forward específicos por modalidad para soportar preentrenamiento contrastivo, enmascarado y de emparejamiento imagen-texto en una sola arquitectura.",
zh = "Vision-Language pretrained Model with Mixture-of-Modality-Experts;一种统一的 Transformer,使用共享自注意力与各模态专属的前馈专家,在同一架构中同时支持对比、掩码与图文匹配预训练。",
article = nil,
}
data["vmd"] = {
short = "Visual Molecular Dynamics, an open-source program for visualization, analysis, and scripted manipulation of biomolecular structures and molecular dynamics trajectories.",
es = "Visual Molecular Dynamics, programa de código abierto para la visualización, el análisis y la manipulación mediante scripts de estructuras biomoleculares y trayectorias de dinámica molecular.",
zh = "Visual Molecular Dynamics(VMD),一个开源程序,用于生物分子结构和分子动力学轨迹的可视化、分析以及脚本化操作。",
article = nil,
}
data["vocab size"] = {
short = "The number of distinct tokens in a language model's tokenizer, which determines the size of the input embedding table and the output softmax. Larger vocabularies shorten sequences but increase parameter count and softmax cost.",
es = "Número de tokens distintos en el tokenizador de un modelo de lenguaje, que determina el tamaño de la tabla de embeddings de entrada y del softmax de salida. Vocabularios mayores acortan las secuencias pero aumentan los parámetros y el coste del softmax.",
zh = "语言模型分词器中不同令牌的数量,决定了输入嵌入表和输出 softmax 的规模。词表越大,序列越短,但参数量与 softmax 计算成本越高。",
article = nil,
}
data["vocoder"] = {
short = "A model that converts an intermediate acoustic representation, typically a mel-spectrogram, into a time-domain audio waveform; modern neural vocoders include WaveNet, WaveRNN, HiFi-GAN, and WaveGlow.",
es = "Modelo que convierte una representación acústica intermedia, normalmente un mel-espectrograma, en una forma de onda de audio en el dominio temporal; los vocoders neuronales modernos incluyen WaveNet, WaveRNN, HiFi-GAN y WaveGlow.",
zh = "一种将中间声学表示(通常是梅尔频谱图)转换为时域音频波形的模型;现代神经声码器包括 WaveNet、WaveRNN、HiFi-GAN 和 WaveGlow。",
article = nil,
}
data["vocos"] = {
short = "A neural vocoder that predicts complex Fourier-domain coefficients and synthesizes audio via a single inverse short-time Fourier transform, achieving high quality at much lower compute than time-domain vocoders.",
es = "Vocoder neuronal que predice coeficientes complejos en el dominio de Fourier y sintetiza audio mediante una única transformada inversa de Fourier de tiempo corto, logrando alta calidad con mucho menor coste que los vocoders en dominio temporal.",
zh = "一种神经声码器,通过预测复数傅里叶域系数,并使用单次短时傅里叶逆变换合成音频,以远低于时域声码器的计算开销实现高质量合成。",
article = nil,
}
data["voice activity detection"] = {
short = "The task of detecting which frames of an audio stream contain human speech versus silence or non-speech background, used to gate downstream ASR, telephony, and wake-word systems.",
es = "Tarea de detectar qué fragmentos de un flujo de audio contienen voz humana frente a silencio o ruido de fondo, utilizada para activar sistemas posteriores de ASR, telefonía y detección de palabra de activación.",
zh = "检测音频流中哪些帧包含人类语音、哪些为静音或非语音背景的任务,用于门控下游的语音识别、电话和唤醒词系统。",
article = nil,
}
data["voice cloning"] = {
short = "Synthesizing speech in a target speaker's voice from a short reference sample, typically by conditioning a text-to-speech model on a learned speaker embedding rather than fine-tuning on hours of data.",
es = "Síntesis de voz con la identidad de un hablante objetivo a partir de una breve muestra de referencia, normalmente condicionando un modelo de TTS con un embedding de hablante aprendido en lugar de afinarlo con horas de datos.",
zh = "通过使用学习到的说话人嵌入来调节文本到语音模型(而非用数小时数据进行微调),从一段简短参考音频合成目标说话人声音的语音。",
article = nil,
}
data["voice conversion"] = {
short = "The task of transforming a source utterance so that it appears to be spoken by a different target speaker while preserving the linguistic content and prosody.",
es = "Tarea de transformar una grabación de origen para que parezca pronunciada por un hablante objetivo distinto, conservando el contenido lingüístico y la prosodia.",
zh = "将源话语进行转换,使其听起来像是由另一目标说话人发出,同时保留语言内容和韵律的任务。",
article = nil,
}
data["voicebox"] = {
short = "Meta's text-guided multilingual generative speech model trained with non-autoregressive flow matching; supports zero-shot speech synthesis, editing, denoising, and cross-lingual style transfer from a short audio prompt.",
es = "Modelo generativo multilingüe de habla guiado por texto desarrollado por Meta y entrenado con flow matching no autorregresivo; admite síntesis zero-shot, edición, eliminación de ruido y transferencia de estilo entre idiomas a partir de un breve fragmento de audio de referencia.",
zh = "Meta 提出的文本引导多语种生成式语音模型,通过非自回归 flow matching 训练;支持零样本语音合成、编辑、去噪以及基于短音频提示的跨语言风格迁移。",
article = nil,
}
data["voicefilter"] = {
short = "A speaker-conditioned speech separation system that uses a reference embedding of a target speaker to extract that speaker's voice from a mixture, improving downstream ASR in multi-talker conditions.",
es = "Sistema de separación de voz condicionado por hablante que usa un embedding de referencia del hablante objetivo para extraer su voz de una mezcla, mejorando el reconocimiento automático del habla en escenarios con múltiples interlocutores.",
zh = "一种以说话人为条件的语音分离系统,使用目标说话人的参考嵌入从混合音频中提取其声音,提升多说话人场景下的下游语音识别效果。",
article = nil,
}
data["volatility clustering"] = {
short = "The empirical regularity in financial time series that large absolute returns tend to be followed by large absolute returns, and small by small, producing periods of heightened and subdued variability.",
es = "Regularidad empírica de las series financieras según la cual los retornos de gran magnitud tienden a ir seguidos de otros de gran magnitud, y los pequeños de pequeños, generando periodos de variabilidad alta y baja.",
zh = "金融时间序列中的经验规律:大幅收益往往跟随大幅收益,小幅收益跟随小幅收益,从而形成波动剧烈期与平稳期交替的现象。",
article = nil,
}
data["volatility forecasting"] = {
short = "Predicting the future conditional variance or standard deviation of a financial time series, typically using GARCH-family, stochastic volatility, or realized-volatility models.",
es = "Predicción de la varianza o desviación típica condicional futura de una serie temporal financiera, típicamente mediante modelos de la familia GARCH, de volatilidad estocástica o de volatilidad realizada.",
zh = "对金融时间序列未来条件方差或标准差的预测,通常使用 GARCH 族、随机波动率或已实现波动率模型。",
article = nil,
}
data["voltron representation"] = {
short = "A language-driven visual representation for robotics, pretrained by reconstructing video frames conditioned on natural-language captions to learn features that better capture verbs, motions, and task semantics for downstream manipulation.",
es = "Representación visual para robótica guiada por lenguaje, preentrenada reconstruyendo cuadros de vídeo condicionados a descripciones en lenguaje natural para aprender características que capturan mejor verbos, movimientos y semántica de tareas para manipulación posterior.",
zh = "一种语言驱动的机器人视觉表征,通过基于自然语言描述重建视频帧进行预训练,从而更好地捕捉动词、动作和任务语义,用于下游操作任务。",
article = nil,
}
data["volume of distribution"] = {
short = "A pharmacokinetic parameter relating the total amount of drug in the body to its plasma concentration, indicating the apparent extent of distribution into tissues beyond the plasma compartment.",
es = "Parámetro farmacocinético que relaciona la cantidad total de fármaco en el cuerpo con su concentración plasmática, indicando el grado aparente de distribución en los tejidos más allá del compartimento plasmático.",
zh = "一种药代动力学参数,反映体内药物总量与其血浆浓度的关系,表示药物在血浆隔室之外向组织表观分布的程度。",
article = nil,
}
data["von mises expansion"] = {
short = "A functional Taylor-style expansion of a statistical functional around a baseline distribution, with terms given by influence functions. Foundational to semiparametric efficiency theory and to constructing debiased and one-step estimators.",
es = "Expansión funcional de tipo Taylor de un funcional estadístico alrededor de una distribución de referencia, cuyos términos están dados por funciones de influencia. Fundamental para la teoría de eficiencia semiparamétrica y para la construcción de estimadores depurados y de un paso.",
zh = "对统计泛函在某一基准分布附近进行的泛函型 Taylor 展开,各阶项由影响函数给出。是半参数效率理论以及去偏与单步估计量构造的基础。",
article = nil,
}
data["von neumann minimax"] = {
short = "Von Neumann's minimax theorem stating that for two-player zero-sum games with finite strategies and convex compact strategy sets, the maximin and minimax values coincide, guaranteeing an equilibrium.",
es = "Teorema minimax de von Neumann que establece que en juegos de suma cero entre dos jugadores con estrategias finitas y conjuntos de estrategias convexos y compactos, los valores maximin y minimax coinciden, garantizando un equilibrio.",
zh = "冯·诺依曼的极小极大定理:在两人零和博弈中,若策略集为凸紧集且策略有限,则极大极小值与极小极大值相等,从而保证均衡的存在。",
article = nil,
}
data["voronoi diagram"] = {
short = "A partition of a metric space into regions, where each region consists of points closer to a given site than to any other site in a fixed set of sites.",
es = "Partición de un espacio métrico en regiones, donde cada región está formada por los puntos más cercanos a un sitio dado que a cualquier otro sitio de un conjunto fijo.",
zh = "度量空间的一种划分,每个区域由相对于给定点集中某个站点比其他站点更近的所有点组成。",
article = nil,
}
data["voxceleb"] = {
short = "A large-scale speaker identification and verification dataset of short utterances extracted from YouTube interviews, covering thousands of celebrity speakers with naturally occurring noise and varied recording conditions.",
es = "Conjunto de datos a gran escala para identificación y verificación de hablantes, formado por enunciados cortos extraídos de entrevistas de YouTube de miles de famosos, con ruido natural y condiciones de grabación variadas.",
zh = "一个大规模说话人识别与验证数据集,由从 YouTube 名人采访中提取的短语音构成,包含数千名说话人,并自然存在噪声和多样的录音条件。",
article = nil,
}
data["voxceleb2"] = {
short = "An expanded successor to VoxCeleb with over a million utterances from more than 6,000 celebrity speakers, widely used to train deep speaker embedding models such as x-vectors and ECAPA-TDNN.",
es = "Sucesor ampliado de VoxCeleb con más de un millón de enunciados de más de 6000 hablantes famosos, ampliamente utilizado para entrenar modelos profundos de embeddings de hablante como x-vectors y ECAPA-TDNN.",
zh = "VoxCeleb 的扩展版本,包含来自 6000 多名名人说话者的逾百万条语音,被广泛用于训练 x-vector、ECAPA-TDNN 等深度说话人嵌入模型。",
article = nil,
}
data["voxel"] = {
short = "A volumetric pixel: the 3D analog of a pixel, representing a value on a regular grid in three-dimensional space. Used to discretize volumes for medical imaging, 3D convolutional networks, and occupancy grids.",
es = "Píxel volumétrico: el análogo 3D de un píxel, que representa un valor en una rejilla regular en el espacio tridimensional. Se utiliza para discretizar volúmenes en imágenes médicas, redes convolucionales 3D y rejillas de ocupación.",
zh = "体素:像素的三维对应物,表示三维空间中规则网格上的一个值。用于在医学影像、三维卷积网络和占用网格中对体积进行离散化。",
article = nil,
}
data["voxel observation"] = {
short = "A 3D observation representation in which the workspace is discretized into a regular grid of volumetric cells (voxels), each storing features such as occupancy, color, or learned embeddings, used as input to perception or policy networks in robotics.",
es = "Representación de observaciones en 3D en la que el espacio de trabajo se discretiza en una rejilla regular de celdas volumétricas (vóxeles), cada una con características como ocupación, color o embeddings aprendidos, utilizada como entrada para redes de percepción o políticas en robótica.",
zh = "一种三维观测表示方法,将工作空间离散化为规则的体素网格,每个体素存储占用、颜色或学习到的嵌入等特征,作为机器人感知或策略网络的输入。",
article = nil,
}
data["voxlingua107"] = {
short = "A spoken language identification dataset of about 6,600 hours of YouTube audio covering 107 languages, used to train and benchmark language identification models.",
es = "Conjunto de datos para identificación de idioma hablado con unas 6600 horas de audio de YouTube en 107 idiomas, utilizado para entrenar y evaluar modelos de identificación de idioma.",
zh = "一个口语语种识别数据集,包含约 6600 小时来自 YouTube 的音频,涵盖 107 种语言,用于训练和评测语种识别模型。",
article = nil,
}
data["voxpopuli"] = {
short = "A multilingual speech corpus collected from European Parliament event recordings, comprising hundreds of thousands of hours of unlabeled and transcribed speech in 23 languages, used for self-supervised speech pretraining and ASR research.",
es = "Corpus de voz multilingüe recopilado de grabaciones de eventos del Parlamento Europeo, con cientos de miles de horas de habla sin etiquetar y transcrita en 23 idiomas, usado para preentrenamiento autosupervisado e investigación en ASR.",
zh = "一个多语种语音语料库,采集自欧洲议会活动录音,包含 23 种语言的数十万小时无标注语音和有转录语音,用于自监督语音预训练和语音识别研究。",
article = nil,
}
data["voxposer"] = {
short = "A method that uses large language models and vision-language models to compose 3D voxel value maps for robot manipulation, turning natural-language instructions into spatial cost and constraint fields that a motion planner can optimize against.",
es = "Método que utiliza modelos de lenguaje grandes y modelos de visión-lenguaje para componer mapas de valores volumétricos en 3D para manipulación robótica, convirtiendo instrucciones en lenguaje natural en campos espaciales de coste y restricciones que un planificador de movimientos puede optimizar.",
zh = "一种利用大语言模型和视觉-语言模型为机器人操作合成三维体素价值图的方法,将自然语言指令转化为空间代价与约束场,供运动规划器进行优化。",
article = nil,
}
data["voyage-3"] = {
short = "Embedding model from Voyage AI released in 2024, optimized for retrieval-augmented generation. Offers competitive accuracy at a much smaller embedding dimension and lower cost than OpenAI text-embedding-3-large.",
es = "Modelo de embeddings de Voyage AI lanzado en 2024, optimizado para generación aumentada por recuperación (RAG). Ofrece precisión competitiva con una dimensión de embedding mucho menor y un coste inferior al de OpenAI text-embedding-3-large.",
zh = "Voyage AI 于 2024 年发布的嵌入模型,针对检索增强生成(RAG)优化。在嵌入维度更小、成本更低的情况下,精度与 OpenAI text-embedding-3-large 相当。",
article = nil,
}
data["voyager agent"] = {
short = "An LLM-driven embodied agent (NVIDIA, 2023) that plays Minecraft autonomously by combining GPT-4 with an automatic curriculum, an iterative prompting mechanism, and a growing skill library of executable code.",
es = "Agente corporeizado dirigido por LLM (NVIDIA, 2023) que juega a Minecraft de forma autónoma combinando GPT-4 con un currículo automático, un mecanismo de prompting iterativo y una biblioteca creciente de habilidades como código ejecutable.",
zh = "由 LLM 驱动的具身智能体(NVIDIA,2023),结合 GPT-4、自动课程、迭代提示机制以及不断增长的可执行代码技能库,能够在 Minecraft 中自主游玩。",
article = nil,
}
data["vq-bet"] = {
short = "A behavior cloning method that discretizes continuous robot actions using vector-quantized residual codes (VQ-VAE-style) and predicts them with a transformer, capturing multimodal action distributions for manipulation.",
es = "Método de clonación de comportamiento que discretiza acciones robóticas continuas mediante códigos residuales con cuantización vectorial (estilo VQ-VAE) y los predice con un transformer, capturando distribuciones de acciones multimodales para manipulación.",
zh = "一种行为克隆方法,使用残差向量量化编码(类似 VQ-VAE)将连续机器人动作离散化,并通过 transformer 进行预测,从而捕捉操作任务中的多模态动作分布。",
article = nil,
}
data["vq-vae"] = {
short = "Common name for the Vector-Quantized Variational Autoencoder (van den Oord et al., 2017), a VAE with a discrete codebook latent space trained with a straight-through estimator and a commitment loss; widely used as a tokenizer in models such as DALL·E and Jukebox.",
es = "Nombre habitual del autocodificador variacional con cuantización vectorial (van den Oord et al., 2017): un VAE con espacio latente discreto basado en un libro de códigos, entrenado con un estimador straight-through y una pérdida de compromiso. Se usa ampliamente como tokenizador en modelos como DALL·E y Jukebox.",
zh = "向量量化变分自编码器(van den Oord 等,2017)的常用简称:使用离散码本作为潜空间,通过 straight-through 估计器和 commitment 损失进行训练;在 DALL·E、Jukebox 等模型中被广泛用作 tokenizer。",
article = nil,
}
data["vqgan"] = {
short = "A VQ-VAE (Esser et al., 2021) augmented with a patch-based adversarial loss and a perceptual loss, producing a discrete codebook over image patches that can be modeled by a transformer for high-resolution generation (Taming Transformers).",
es = "VQ-VAE (Esser et al., 2021) ampliado con una pérdida adversarial basada en parches y una pérdida perceptual, que produce un libro de códigos discreto sobre parches de imagen modelado posteriormente por un transformer para generación de alta resolución (Taming Transformers).",
zh = "Esser 等人于 2021 年提出的 VQ-VAE 扩展:在重构目标上加入基于图像块的对抗损失和感知损失,得到对图像块的离散码本,再由 Transformer 在其上建模以实现高分辨率生成(Taming Transformers)。",
article = nil,
}
data["vr teleoperation"] = {
short = "Robot teleoperation using virtual-reality headsets and hand controllers, where the operator's tracked head and hand poses are mapped to a robot's end-effector and viewpoint, often used to collect demonstrations for imitation learning.",
es = "Teleoperación de robots mediante visores de realidad virtual y mandos de mano, en la que las poses rastreadas de cabeza y manos del operador se mapean al efector final y al punto de vista del robot, a menudo para recopilar demostraciones para aprendizaje por imitación.",
zh = "使用虚拟现实头显和手柄进行的机器人遥操作,操作者被跟踪的头部和手部位姿映射到机器人的末端执行器和视角,常用于为模仿学习采集示范数据。",
article = nil,
}
data["vsearch"] = {
short = "An open-source sequence analysis toolkit for searching, clustering, dereplication, chimera detection, and pairwise alignment of nucleotide sequences; designed as a free alternative to USEARCH.",
es = "Conjunto de herramientas de análisis de secuencias de código abierto para búsqueda, agrupamiento, desreplicación, detección de quimeras y alineamiento por pares de secuencias de nucleótidos; diseñado como alternativa libre a USEARCH.",
zh = "一个开源的序列分析工具包,用于核苷酸序列的搜索、聚类、去冗余、嵌合体检测和成对比对;设计为 USEARCH 的免费替代方案。",
article = nil,
}
data["wachter counterfactual"] = {
short = "The counterfactual explanation method of Wachter, Mittelstadt and Russell that finds a minimally-perturbed input achieving a target prediction by minimizing a weighted sum of distance and prediction loss.",
es = "Método de explicación contrafactual de Wachter, Mittelstadt y Russell que halla una entrada mínimamente perturbada que logra una predicción objetivo minimizando una suma ponderada de distancia y pérdida de predicción.",
zh = "Wachter、Mittelstadt 与 Russell 提出的反事实解释方法:通过最小化距离与预测损失的加权和,寻找能达到目标预测的最小扰动输入。",
article = nil,
}
data["wake word detection"] = {
short = "An always-on, low-footprint task of detecting a specific trigger phrase such as 'Hey Siri' or 'Alexa' in a continuous audio stream, designed to run efficiently on-device with high recall and low false-alarm rates.",
es = "Tarea siempre activa y de baja huella consistente en detectar una frase de activación específica como 'Hey Siri' o 'Alexa' en un flujo continuo de audio, diseñada para ejecutarse eficientemente en el dispositivo con alta sensibilidad y baja tasa de falsas alarmas.",
zh = "一种始终在线、低占用的任务,用于在连续音频流中检测特定触发短语(如「Hey Siri」「Alexa」),要求可在设备端高效运行,具有高召回率和低误报率。",
article = nil,
}
data["wake-sleep algorithm"] = {
short = "An unsupervised learning algorithm for layered generative models, notably the Helmholtz machine, that alternates a wake phase fitting a recognition network to data-driven activations and a sleep phase fitting a generative network to dream samples.",
es = "Algoritmo de aprendizaje no supervisado para modelos generativos por capas, en particular la máquina de Helmholtz, que alterna una fase de vigilia ajustando una red de reconocimiento a activaciones impulsadas por los datos y una fase de sueño ajustando una red generativa a muestras soñadas.",
zh = "用于分层生成模型(尤其是亥姆霍兹机)的无监督学习算法,交替进行清醒阶段(用数据驱动的激活拟合识别网络)和睡眠阶段(用梦样本拟合生成网络)。",
article = nil,
}
data["wald estimator"] = {
short = "An instrumental-variable estimator that takes the ratio of the instrument–outcome covariance to the instrument–treatment covariance, equivalent to a simple ratio of differences for a binary instrument. Identifies the local average treatment effect under standard IV assumptions.",
es = "Estimador de variables instrumentales que toma el cociente entre la covarianza instrumento–resultado y la covarianza instrumento–tratamiento, equivalente a un cociente simple de diferencias cuando el instrumento es binario. Identifica el efecto promedio del tratamiento local bajo los supuestos estándar de IV.",
zh = "一种工具变量估计量,等于工具与结果的协方差除以工具与处理的协方差;当工具变量为二元变量时,化为差分之比。在标准工具变量假设下可识别局部平均处理效应。",
article = nil,
}
data["walk-forward validation"] = {
short = "A time series cross-validation scheme in which the model is repeatedly retrained on an expanding or rolling training window and evaluated on the immediately following out-of-sample period.",
es = "Esquema de validación cruzada para series temporales en el que el modelo se reentrena repetidamente sobre una ventana de entrenamiento expansiva o deslizante y se evalúa sobre el periodo fuera de muestra inmediatamente posterior.",
zh = "一种时间序列交叉验证方案,模型在扩展或滚动的训练窗口上反复重训练,并在紧随其后的样本外区间上进行评估。",
article = nil,
}
data["walker2d"] = {
short = "A standard MuJoCo continuous-control benchmark from OpenAI Gym in which a planar two-legged walker is rewarded for forward locomotion while remaining upright. Widely used to evaluate model-free and model-based reinforcement learning algorithms.",
es = "Banco de pruebas estándar de control continuo en MuJoCo proveniente de OpenAI Gym, en el que un caminante bípedo planar es recompensado por avanzar manteniéndose erguido. Se utiliza ampliamente para evaluar algoritmos de aprendizaje por refuerzo sin modelo y basados en modelo.",
zh = "OpenAI Gym 中基于 MuJoCo 的标准连续控制基准任务:一个平面双足行走者在保持直立的同时因向前移动而获得奖励。常用于评估无模型与基于模型的强化学习算法。",
article = nil,
}
data["walt video"] = {
short = "WALT (Window Attention Latent Transformer) is a text-to-video latent diffusion model from Google that uses windowed attention over a shared image-and-video latent space to generate temporally consistent clips.",
es = "WALT (Window Attention Latent Transformer) es un modelo de difusión latente texto-a-vídeo de Google que usa atención por ventanas sobre un espacio latente compartido de imagen y vídeo para generar clips temporalmente consistentes.",
zh = "WALT(Window Attention Latent Transformer)是 Google 的文生视频潜空间扩散模型,在共享的图像与视频潜空间上使用窗口注意力,生成时间上连贯的视频片段。",
article = nil,
}
data["wandb sweeps"] = {
short = "Weights & Biases' hyperparameter optimization feature that orchestrates parallel training runs across grid, random, or Bayesian search strategies and aggregates results in the W&B dashboard.",
es = "Funcionalidad de optimización de hiperparámetros de Weights & Biases que orquesta ejecuciones de entrenamiento en paralelo con estrategias de búsqueda en cuadrícula, aleatoria o bayesiana y agrega los resultados en el panel de W&B.",
zh = "Weights & Biases提供的超参数优化功能,可按网格搜索、随机搜索或贝叶斯搜索策略编排并行训练任务,并在W&B面板中汇总结果。",
article = nil,
}
data["warm-start mpc"] = {
short = "A model predictive control technique in which the optimization at each step is initialized from the shifted solution of the previous step (or from a learned policy), substantially reducing solve time and improving real-time feasibility for nonlinear MPC.",
es = "Técnica de control predictivo basado en modelo en la que la optimización en cada paso se inicializa con la solución desplazada del paso anterior (o con una política aprendida), reduciendo notablemente el tiempo de resolución y mejorando la viabilidad en tiempo real del MPC no lineal.",
zh = "一种模型预测控制技术,每一步的优化以上一步解经平移后的结果(或学习到的策略)作为初值,从而大幅缩短求解时间,提升非线性 MPC 的实时可行性。",
article = nil,
}
data["warm-starting hpo"] = {
short = "Hyperparameter optimization that initializes a new search using configurations or surrogate models inherited from previous related runs, avoiding cold-start exploration on each new task.",
es = "Optimización de hiperparámetros que inicializa una búsqueda nueva utilizando configuraciones o modelos sustitutos heredados de ejecuciones relacionadas previas, evitando la exploración en frío en cada tarea nueva.",
zh = "一种超参数优化策略,利用先前相关运行中的配置或代理模型来初始化新搜索,避免每个新任务都进行冷启动探索。",
article = nil,
}
data["warmup phase"] = {
short = "Initial portion of training during which the learning rate is gradually increased from a very small value to its target. Stabilizes optimization of large models, especially with adaptive optimizers and large batch sizes.",
es = "Fase inicial del entrenamiento en la que la tasa de aprendizaje se incrementa gradualmente desde un valor muy pequeño hasta el objetivo. Estabiliza la optimización de modelos grandes, especialmente con optimizadores adaptativos y batches grandes.",
zh = "训练初期阶段,学习率从极小值逐步增大到目标值。可稳定大模型的优化过程,尤其在使用自适应优化器和大批量时效果显著。",
article = nil,
}
data["wasserstein distance"] = {
short = "An optimal-transport-based distance between probability distributions, defined as the minimum expected cost to transform one distribution into another by moving probability mass. The order-1 form is also called the Earth Mover's distance.",
es = "Distancia entre distribuciones de probabilidad basada en transporte óptimo, definida como el mínimo coste esperado para transformar una distribución en otra moviendo masa de probabilidad. La forma de orden 1 también se llama distancia del Earth Mover.",
zh = "基于最优传输的概率分布距离,定义为将一个分布通过移动概率质量转换为另一个分布所需的最小期望代价。一阶形式也称为推土机距离。",
article = nil,
}
data["wasserstein distance for rl"] = {
short = "Use of the Wasserstein (earth mover's) distance to measure divergence between distributions in reinforcement learning, applied in distributional RL (e.g., bounding return distribution differences) and in trust-region or imitation methods that compare state-action visitation distributions.",
es = "Uso de la distancia de Wasserstein (distancia del transporte de tierra) para medir la divergencia entre distribuciones en aprendizaje por refuerzo; se aplica en RL distribucional (p. ej., para acotar diferencias entre distribuciones de retorno) y en métodos de región de confianza o de imitación que comparan distribuciones de visita estado-acción.",
zh = "在强化学习中使用 Wasserstein 距离(推土机距离)衡量分布之间的差异,常用于分布式强化学习(例如约束回报分布差异)以及比较状态-动作访问分布的信赖域和模仿学习方法。",
article = nil,
}
data["wasserstein gan"] = {
short = "A GAN variant (Arjovsky et al., 2017) that minimizes the Wasserstein-1 distance between real and generated distributions instead of the Jensen–Shannon divergence, replacing the discriminator with a 1-Lipschitz critic to provide smoother gradients and a meaningful loss curve.",
es = "Variante de GAN (Arjovsky et al., 2017) que minimiza la distancia de Wasserstein-1 entre las distribuciones real y generada en lugar de la divergencia de Jensen–Shannon, sustituyendo el discriminador por un crítico 1-Lipschitz para obtener gradientes más suaves y una curva de pérdida interpretable.",
zh = "Arjovsky 等人于 2017 年提出的 GAN 变体:以真实分布与生成分布之间的 Wasserstein-1 距离取代 Jensen–Shannon 散度作为优化目标,并将判别器替换为 1-Lipschitz 评论家,从而提供更平滑的梯度和有意义的损失曲线。",
article = nil,
}
data["wasserstein loss"] = {
short = "An adversarial objective derived from the Earth Mover's (Wasserstein-1) distance between real and generated distributions, computed via the Kantorovich-Rubinstein duality where the discriminator (critic) is constrained to be 1-Lipschitz.",
es = "Objetivo adversarial derivado de la distancia de Wasserstein-1 (Earth Mover) entre la distribución real y la generada, calculado mediante la dualidad de Kantorovich-Rubinstein con un crítico restringido a ser 1-Lipschitz.",
zh = "一种基于真实分布与生成分布之间 Wasserstein-1(推土机)距离的对抗目标,通过 Kantorovich-Rubinstein 对偶性计算,其判别器(critic)被约束为 1-Lipschitz 函数。",
article = nil,
}
data["watch time metric"] = {
short = "An engagement metric for video platforms that measures the cumulative or per-impression time a user spends viewing recommended videos, used as a primary success signal for ranking quality.",
es = "Métrica de interacción para plataformas de vídeo que mide el tiempo acumulado o por impresión que un usuario dedica a ver vídeos recomendados, utilizada como señal principal de éxito para la calidad del ranking.",
zh = "视频平台的参与度指标,衡量用户观看推荐视频的累计时长或每次曝光的时长,常作为衡量排序质量的主要成功信号。",
article = nil,
}
data["watch-time prediction"] = {
short = "A regression task in video recommenders that predicts how long a user will watch a candidate video; commonly addressed with weighted logistic regression over impression-weighted positives, as in YouTube's deep ranker.",
es = "Tarea de regresión en recomendadores de vídeo que predice cuánto tiempo verá un usuario un vídeo candidato; suele abordarse mediante regresión logística ponderada sobre positivos ponderados por impresión, como en el ranker profundo de YouTube.",
zh = "视频推荐中的回归任务,预测用户对候选视频的观看时长;常用基于曝光加权正样本的加权逻辑回归来建模,如 YouTube 的深度排序模型所示。",
article = nil,
}
data["water model"] = {
short = "A computational representation of liquid water used in molecular dynamics and free-energy calculations, parameterizing the geometry, partial charges, and Lennard-Jones terms of water molecules. Common variants include TIP3P, TIP4P, TIP5P, SPC, and SPC/E.",
es = "Representación computacional del agua líquida empleada en dinámica molecular y cálculos de energía libre, que parametriza la geometría, las cargas parciales y los términos de Lennard-Jones de las moléculas de agua. Las variantes habituales incluyen TIP3P, TIP4P, TIP5P, SPC y SPC/E.",
zh = "用于分子动力学和自由能计算的液态水计算表示,参数化水分子的几何结构、部分电荷和 Lennard-Jones 项。常见模型包括 TIP3P、TIP4P、TIP5P、SPC 和 SPC/E。",
article = nil,
}
data["watermarking llm"] = {
short = "Family of techniques that embed a statistical signal into LLM outputs, typically by biasing the sampling distribution toward a pseudo-randomly chosen subset of tokens, so that machine-generated text can later be detected without access to the source model.",
es = "Familia de técnicas que insertan una señal estadística en las salidas de un LLM, normalmente sesgando la distribución de muestreo hacia un subconjunto pseudoaleatorio de tokens, para detectar después texto generado por máquina sin necesidad de acceder al modelo original.",
zh = "一类在 LLM 输出中嵌入统计信号的技术,通常将采样分布偏向伪随机选定的词元子集,使得日后无需访问原始模型即可检测机器生成的文本。",
article = nil,
}
data["watkins q(lambda)"] = {
short = "An off-policy temporal-difference learning algorithm by Watkins that combines Q-learning with eligibility traces, propagating TD errors backward through time but cutting traces whenever a non-greedy action is taken to preserve off-policy correctness.",
es = "Algoritmo de aprendizaje por diferencias temporales fuera de política propuesto por Watkins que combina Q-learning con trazas de elegibilidad, propagando los errores de TD hacia atrás en el tiempo pero cortando las trazas cada vez que se toma una acción no codiciosa para preservar la corrección fuera de política.",
zh = "Watkins 提出的离策略时间差分学习算法,将 Q-learning 与资格迹结合,将 TD 误差沿时间向后传播,但在采取非贪婪动作时切断资格迹,以保持离策略的正确性。",
article = nil,
}
data["wav2letter"] = {
short = "An early end-to-end automatic speech recognition system from Facebook AI that uses fully convolutional acoustic models trained with the AutoSegCriterion or CTC loss, designed for fast inference.",
es = "Sistema temprano de reconocimiento automático de voz de extremo a extremo de Facebook AI que utiliza modelos acústicos totalmente convolucionales entrenados con el criterio AutoSeg o pérdida CTC, diseñado para inferencia rápida.",
zh = "Facebook AI 早期提出的端到端自动语音识别系统,使用全卷积声学模型并以 AutoSegCriterion 或 CTC 损失进行训练,设计目标是实现快速推理。",
article = nil,
}
data["wav2vec"] = {
short = "A self-supervised speech representation learning model from Facebook AI that pretrains a convolutional encoder on raw audio with a contrastive next-step prediction objective, producing features for downstream ASR.",
es = "Modelo de aprendizaje autosupervisado de representaciones de voz de Facebook AI que preentrena un codificador convolucional sobre audio en bruto con un objetivo contrastivo de predicción del siguiente paso, generando características para ASR posterior.",
zh = "Facebook AI 提出的自监督语音表示学习模型,使用对比式下一步预测目标在原始音频上预训练卷积编码器,生成可用于下游语音识别的特征。",
article = nil,
}
data["wav2vec 2.0"] = {
short = "A self-supervised speech model that masks portions of a latent feature sequence and learns to identify the true quantized representations among distractors via a contrastive loss; fine-tuning yields strong ASR with little labeled data.",
es = "Modelo de voz autosupervisado que enmascara partes de una secuencia latente de características y aprende a identificar las representaciones cuantizadas verdaderas frente a distractores mediante una pérdida contrastiva; el ajuste fino logra ASR de alta calidad con pocos datos etiquetados.",
zh = "一种自监督语音模型,对潜在特征序列的部分进行掩码,并通过对比损失从干扰项中识别出真实的量化表示;微调后只需少量带标签数据即可获得强大的语音识别能力。",
article = nil,
}
data["wave-u-net"] = {
short = "A U-Net architecture adapted to operate directly on raw audio waveforms for source separation tasks, using one-dimensional strided convolutions for downsampling and learned upsampling in the decoder.",
es = "Arquitectura U-Net adaptada para operar directamente sobre formas de onda de audio en bruto en tareas de separación de fuentes, empleando convoluciones unidimensionales con stride para reducir la dimensión y submuestreo aprendido en el decodificador.",
zh = "一种适配于直接处理原始音频波形进行源分离的 U-Net 架构,使用一维带步幅卷积进行下采样,并在解码器中使用可学习的上采样。",
article = nil,
}
data["waveform tokenization"] = {
short = "Discretizing raw audio waveforms into a sequence of tokens, typically via a neural audio codec such as EnCodec or SoundStream, so that audio can be modeled by language-model-style transformers.",
es = "Discretización de formas de onda de audio en bruto en una secuencia de tokens, habitualmente mediante un códec neuronal como EnCodec o SoundStream, lo que permite modelar el audio con transformers al estilo de los modelos de lenguaje.",
zh = "将原始音频波形离散化为一串 token,通常通过 EnCodec 或 SoundStream 等神经音频编解码器实现,使音频可以由类似语言模型的 Transformer 进行建模。",
article = nil,
}
data["waveglow"] = {
short = "A flow-based neural vocoder from NVIDIA that combines insights from WaveNet and Glow, generating mel-conditioned audio in a single forward pass via invertible affine coupling layers.",
es = "Vocoder neuronal basado en flujos normalizadores de NVIDIA que combina ideas de WaveNet y Glow, generando audio condicionado por mel-espectrograma en una única pasada hacia adelante mediante capas de acoplamiento afín invertibles.",
zh = "NVIDIA 提出的基于流的神经声码器,融合了 WaveNet 与 Glow 的思想,通过可逆仿射耦合层在单次前向传播中生成以梅尔频谱为条件的音频。",
article = nil,
}
data["wavegrad"] = {
short = "A diffusion-based neural vocoder that generates audio waveforms by iteratively denoising Gaussian noise conditioned on a mel-spectrogram, trading inference steps for sample quality.",
es = "Vocoder neuronal basado en difusión que genera formas de onda de audio mediante denoising iterativo de ruido gaussiano condicionado por un mel-espectrograma, intercambiando pasos de inferencia por calidad de muestra.",
zh = "一种基于扩散的神经声码器,以梅尔频谱为条件,通过对高斯噪声进行迭代去噪来生成音频波形,可在推理步数与采样质量之间进行权衡。",
article = nil,
}
data["wavelet decomposition"] = {
short = "Representation of a signal as a sum of localized basis functions at multiple scales, obtained by recursively applying a wavelet transform and yielding approximation and detail coefficients per level.",
es = "Representación de una señal como suma de funciones base localizadas en múltiples escalas, obtenida aplicando recursivamente una transformada wavelet y produciendo coeficientes de aproximación y detalle por nivel.",
zh = "通过递归应用小波变换,将信号表示为多个尺度上局部基函数之和,并在每一层得到近似系数与细节系数的方法。",
article = nil,
}
data["wavelet transform"] = {
short = "An integral transform that decomposes a signal into components localized in both time and frequency by correlating it with scaled and translated copies of a mother wavelet.",
es = "Transformada integral que descompone una señal en componentes localizadas en tiempo y frecuencia mediante la correlación con copias escaladas y trasladadas de una wavelet madre.",
zh = "一种积分变换,通过将信号与母小波的缩放和平移副本相关联,将其分解为在时间和频率上都局部化的分量。",
article = nil,
}
data["wavenet"] = {
short = "An autoregressive raw-audio generative model (van den Oord et al., 2016) that uses a deep stack of dilated causal convolutions to model p(x_t | x_<t) at 16 kHz sample rate, achieving natural-sounding speech and music synthesis.",
es = "Modelo generativo autorregresivo de audio en bruto (van den Oord et al., 2016) que usa una pila profunda de convoluciones causales dilatadas para modelar p(x_t | x_<t) a una tasa de muestreo de 16 kHz, logrando síntesis de voz y música de sonido natural.",
zh = "van den Oord 等人于 2016 年提出的原始音频自回归生成模型:使用深层堆叠的因果空洞卷积建模 16 kHz 采样下的 p(x_t | x_<t),实现自然的语音和音乐合成。",
article = nil,
}
data["wavernn"] = {
short = "An efficient autoregressive RNN-based neural vocoder that uses a single GRU and dual softmax over coarse and fine 8-bit components to synthesize high-quality 16-bit audio in real time on CPU and mobile.",
es = "Vocoder neuronal autorregresivo eficiente basado en RNN que utiliza una única GRU y un doble softmax sobre las componentes gruesa y fina de 8 bits para sintetizar audio de 16 bits de alta calidad en tiempo real en CPU y móviles.",
zh = "一种高效的基于 RNN 的自回归神经声码器,使用单个 GRU 和粗/细 8 位分量上的双 softmax,在 CPU 和移动设备上实时合成高质量的 16 位音频。",
article = nil,
}
data["wavlm"] = {
short = "A self-supervised speech foundation model from Microsoft that extends HuBERT-style masked prediction with utterance mixing and gated relative position bias, producing strong representations for ASR, speaker, and paralinguistic tasks.",
es = "Modelo base de voz autosupervisado de Microsoft que extiende la predicción enmascarada al estilo HuBERT con mezcla de enunciados y sesgo de posición relativa con compuerta, produciendo representaciones sólidas para ASR, identificación de hablante y tareas paralingüísticas.",
zh = "微软提出的自监督语音基础模型,在 HuBERT 风格的掩码预测之上加入语句混合和带门控的相对位置偏置,生成适用于语音识别、说话人和副语言任务的强表示。",
article = nil,
}
data["wdl workflow"] = {
short = "A workflow written in the Workflow Description Language, a human-readable language developed at the Broad Institute for portably specifying multi-step bioinformatics pipelines that run under engines such as Cromwell, miniWDL, or Terra.",
es = "Flujo de trabajo escrito en Workflow Description Language, lenguaje legible por humanos desarrollado en el Broad Institute para especificar de forma portátil pipelines bioinformáticos multietapa ejecutables en motores como Cromwell, miniWDL o Terra.",
zh = "用 Workflow Description Language(WDL)编写的工作流,由 Broad Institute 开发的人类可读语言,用于以可移植方式描述多步骤生物信息学流程,可在 Cromwell、miniWDL 或 Terra 等引擎上运行。",
article = nil,
}
data["weak convergence"] = {
short = "A mode of convergence in which a sequence of measures or random variables converges in the sense that integrals against every bounded continuous test function converge to the corresponding integral of the limit.",
es = "Modo de convergencia en el que una sucesión de medidas o variables aleatorias converge en el sentido de que las integrales contra toda función continua acotada convergen a la integral correspondiente del límite.",
zh = "一种收敛方式:测度或随机变量序列在对每个有界连续检验函数的积分都收敛到极限对应积分的意义下收敛。",
article = nil,
}
data["weak duality"] = {
short = "The principle in optimization that the optimal value of any dual feasible solution is a lower bound (for minimization problems) on the optimal value of the primal problem.",
es = "Principio de optimización que establece que el valor óptimo de cualquier solución factible del dual es una cota inferior (en problemas de minimización) del valor óptimo del primal.",
zh = "优化中的一个原理:对偶问题任一可行解的目标值都是原问题最优值的下界(对最小化问题而言)。",
article = nil,
}
data["weak instrument"] = {
short = "An instrumental variable that is only weakly correlated with the endogenous regressor, leading to imprecise and potentially biased IV estimates. Detected via first-stage F-statistics, with rules of thumb such as F > 10 for a single instrument.",
es = "Variable instrumental que está débilmente correlacionada con el regresor endógeno, lo que produce estimaciones IV imprecisas y potencialmente sesgadas. Se detecta mediante estadísticos F de la primera etapa, con reglas prácticas como F > 10 para un único instrumento.",
zh = "与内生回归元相关性较弱的工具变量,会导致工具变量估计精度差且可能存在偏差。常通过第一阶段 F 统计量加以检测,对单一工具的经验法则是 F 大于 10。",
article = nil,
}
data["weak instrument bias"] = {
short = "Finite-sample bias of two-stage least squares and related IV estimators toward the OLS estimate when the instrument is only weakly correlated with the endogenous regressor. Motivates weak-IV-robust inference such as Anderson–Rubin tests.",
es = "Sesgo en muestras finitas de los mínimos cuadrados en dos etapas y otros estimadores de variables instrumentales hacia el estimador MCO cuando el instrumento está débilmente correlacionado con el regresor endógeno. Motiva la inferencia robusta a instrumentos débiles, como las pruebas de Anderson–Rubin.",
zh = "当工具变量与内生回归元相关性较弱时,两阶段最小二乘及相关工具变量估计量在有限样本下会偏向 OLS 估计的偏差。这促使了对弱工具稳健的推断方法,如 Anderson–Rubin 检验。",
article = nil,
}
data["weak law of large numbers"] = {
short = "A theorem stating that the sample mean of a sequence of independent, identically distributed random variables with finite mean converges in probability to the population mean as the sample size grows.",
es = "Teorema que afirma que la media muestral de una sucesión de variables aleatorias independientes e idénticamente distribuidas con media finita converge en probabilidad a la media poblacional cuando el tamaño de muestra crece.",
zh = "定理表明,具有有限均值的独立同分布随机变量序列的样本均值,当样本量增大时依概率收敛于总体均值。",
article = nil,
}
data["weak stationarity"] = {
short = "A property of a stochastic process whose mean is constant and whose autocovariance depends only on the lag and not on absolute time; also called second-order or covariance stationarity.",
es = "Propiedad de un proceso estocástico cuya media es constante y cuya autocovarianza depende únicamente del rezago y no del tiempo absoluto; también llamada estacionariedad de segundo orden o de covarianza.",
zh = "随机过程的一种性质:均值恒定,且自协方差仅依赖于滞后而与绝对时间无关;亦称二阶平稳或协方差平稳。",
article = nil,
}
data["weak supervision"] = {
short = "A training paradigm that uses noisy, limited, or imprecise sources of labels — such as heuristics, rules, or distant signals — instead of high-quality manual annotations.",
es = "Paradigma de entrenamiento que utiliza fuentes de etiquetas ruidosas, limitadas o imprecisas — como heurísticas, reglas o señales indirectas — en lugar de anotaciones manuales de alta calidad.",
zh = "一种训练范式,使用启发式、规则或间接信号等噪声、有限或不精确的标签来源,而非高质量的人工标注。",
article = nil,
}
data["weak topology"] = {
short = "On a topological vector space, the coarsest topology making every continuous linear functional continuous; in particular, the topology of pointwise convergence on the dual space.",
es = "En un espacio vectorial topológico, la topología más débil que hace continuos a todos los funcionales lineales continuos; en particular, la topología de convergencia puntual en el espacio dual.",
zh = "拓扑向量空间上使每个连续线性泛函都连续的最粗拓扑;特别地,即对偶空间上的逐点收敛拓扑。",
article = nil,
}
data["weakly labeled audio"] = {
short = "Audio data annotated only with clip-level tags indicating which sound events are present, without explicit start and end times, requiring multiple-instance learning or attention pooling for sound event detection.",
es = "Datos de audio anotados únicamente con etiquetas a nivel de clip que indican qué eventos sonoros están presentes, sin tiempos explícitos de inicio y fin, lo que requiere aprendizaje de múltiples instancias o pooling con atención para la detección de eventos sonoros.",
zh = "仅在片段级别标注存在哪些声音事件、不提供精确起止时间的音频数据,需要使用多示例学习或注意力池化来进行声音事件检测。",
article = nil,
}
data["weasel"] = {
short = "Word ExtrAction for time SEries cLassification, a fast and accurate symbolic time series classifier that builds a bag-of-patterns representation from sliding-window SFA words and feeds it to a logistic regression model.",
es = "Word ExtrAction for time SEries cLassification, clasificador simbólico rápido y preciso de series temporales que construye una representación bag-of-patterns a partir de palabras SFA en ventanas deslizantes y la alimenta a un modelo de regresión logística.",
zh = "Word ExtrAction for time SEries cLassification,一种快速准确的符号化时间序列分类器,通过滑动窗口的 SFA 词构建 bag-of-patterns 表示并输入逻辑回归模型。",
article = nil,
}
data["weat"] = {
short = "The Word Embedding Association Test (Caliskan et al., 2017): a statistical test that measures bias in word embeddings by comparing cosine-similarity associations between target words and attribute words.",
es = "Word Embedding Association Test (Caliskan et al., 2017): prueba estadística que mide el sesgo en embeddings de palabras comparando las asociaciones de similitud coseno entre palabras objetivo y palabras de atributo.",
zh = "词嵌入关联测试(Caliskan 等人,2017),通过比较目标词与属性词之间的余弦相似度关联,统计性地测量词嵌入中的偏见。",
article = nil,
}
data["weat test"] = {
short = "Synonym for WEAT — the Word Embedding Association Test, used to quantify implicit bias encoded in pretrained word embeddings.",
es = "Sinónimo de WEAT: la Word Embedding Association Test, utilizada para cuantificar el sesgo implícito codificado en embeddings de palabras preentrenados.",
zh = "WEAT 的同义说法,即词嵌入关联测试,用于量化预训练词嵌入中编码的隐性偏见。",
article = nil,
}
data["web agent rl"] = {
short = "Reinforcement learning applied to autonomous web agents, where a policy operates a browser via clicks, typing, and scrolling to complete user-specified tasks; rewards typically come from task-completion verifiers or human feedback over rendered HTML/DOM observations.",
es = "Aprendizaje por refuerzo aplicado a agentes web autónomos, donde una política maneja un navegador mediante clics, escritura y desplazamiento para completar tareas indicadas por el usuario; las recompensas suelen provenir de verificadores de cumplimiento de la tarea o de retroalimentación humana sobre observaciones HTML/DOM renderizadas.",
zh = "将强化学习应用于自主网页智能体:策略通过点击、输入和滚动操作浏览器以完成用户指定的任务,奖励通常来自任务完成验证器或针对渲染后 HTML/DOM 观测的人类反馈。",
article = nil,
}
data["webppl"] = {
short = "A universal probabilistic programming language embedded in a functional subset of JavaScript, designed for cognitive modeling and Bayesian inference in the browser with built-in samplers and variational inference.",
es = "Lenguaje de programación probabilística universal incrustado en un subconjunto funcional de JavaScript, diseñado para el modelado cognitivo y la inferencia bayesiana en el navegador, con muestreadores integrados e inferencia variacional.",
zh = "嵌入在 JavaScript 函数式子集中的通用概率编程语言,面向认知建模和浏览器中的贝叶斯推断,内置采样器和变分推断。",
article = nil,
}
data["webqsp dataset"] = {
short = "WebQuestionsSP, a knowledge-base question-answering benchmark that augments WebQuestions with semantic parses (SPARQL queries) over Freebase, used to evaluate KBQA systems.",
es = "WebQuestionsSP, un conjunto de evaluación de preguntas y respuestas sobre bases de conocimiento que enriquece WebQuestions con análisis semánticos (consultas SPARQL) sobre Freebase, usado para evaluar sistemas de KBQA.",
zh = "WebQuestionsSP,一个面向知识库问答的基准,它在 WebQuestions 基础上补充了基于 Freebase 的语义解析(SPARQL 查询),用于评测 KBQA 系统。",
article = nil,
}
data["webvid"] = {
short = "Large-scale text-video dataset of roughly 10 million stock-footage clips paired with caption alt-text scraped from a stock video site. Widely used to pretrain text-to-video diffusion models such as ModelScope and ZeroScope.",
es = "Conjunto de datos texto-vídeo a gran escala con unos 10 millones de clips de stock emparejados con sus textos alternativos, recopilado de un sitio de vídeo de stock. Muy usado para preentrenar modelos texto-a-vídeo de difusión como ModelScope y ZeroScope.",
zh = "大规模文本-视频数据集,约 1000 万段从图库视频网站抓取的素材片段及其标题/替代文本。被广泛用于预训练 ModelScope、ZeroScope 等文生视频扩散模型。",
article = nil,
}
data["webvid-10m"] = {
short = "The 10-million-pair release of WebVid; the standard pretraining corpus for many video-text retrieval, captioning, and video question answering models.",
es = "La versión de 10 millones de pares de WebVid; corpus de preentrenamiento estándar para numerosos modelos de recuperación, descripción y respuesta a preguntas sobre video y texto.",
zh = "WebVid 的一千万配对版本,是众多视频-文本检索、描述生成与视频问答模型的标准预训练语料。",
article = nil,
}
data["weekly seasonality"] = {
short = "A periodic pattern in a time series that repeats every seven days, common in retail, traffic, and human-activity data; modeled with a period-seven seasonal component or day-of-week dummy variables.",
es = "Patrón periódico de una serie temporal que se repite cada siete días, común en datos de comercio, tráfico y actividad humana; se modela con un componente estacional de periodo siete o con variables dummy de día de la semana.",
zh = "时间序列中以七天为周期的重复模式,常见于零售、交通和人类活动数据,通常用周期为 7 的季节项或星期几哑变量进行建模。",
article = nil,
}
data["weight averaging"] = {
short = "A family of techniques that average model parameters across training iterations or independent runs (e.g. SWA, EMA) to obtain flatter solutions with improved generalization and, when combined with diagonal covariances, approximate Bayesian posteriors as in SWAG.",
es = "Familia de técnicas que promedian los parámetros del modelo a lo largo de las iteraciones de entrenamiento o entre ejecuciones independientes (por ejemplo SWA, EMA) para obtener soluciones más planas con mejor generalización y, al combinarse con covarianzas diagonales, posteriores bayesianas aproximadas como en SWAG.",
zh = "一类对训练过程中或独立运行间的模型参数取平均的技术(如 SWA、EMA),可获得更平坦、泛化更优的解;与对角协方差结合时还能得到近似贝叶斯后验,如 SWAG 所做。",
article = nil,
}
data["weight decay"] = {
short = "A regularization technique that shrinks model weights toward zero by adding a penalty proportional to their squared norm to the loss, equivalent to L2 regularization for plain SGD.",
es = "Técnica de regularización que reduce los pesos del modelo hacia cero añadiendo a la función de pérdida una penalización proporcional a su norma al cuadrado, equivalente a la regularización L2 en SGD básico.",
zh = "一种正则化技术,通过在损失函数中加入与权重平方范数成正比的惩罚项使模型权重向零收缩,对于普通 SGD 等价于 L2 正则化。",
article = nil,
}
data["weight inheritance"] = {
short = "A technique in evolutionary or progressive neural architecture search where a child architecture initializes its weights by copying overlapping parameters from a parent rather than training from scratch, drastically reducing search cost.",
es = "Técnica en búsqueda evolutiva o progresiva de arquitecturas neuronales en la que una arquitectura hija inicializa sus pesos copiando parámetros coincidentes de un padre en lugar de entrenar desde cero, reduciendo drásticamente el costo de búsqueda.",
zh = "进化式或渐进式神经架构搜索中的一种技术,子架构通过复制父架构中重叠的参数来初始化权重,而非从头训练,从而显著降低搜索开销。",
article = nil,
}
data["weight normalization"] = {
short = "Reparameterization that decouples each weight vector into its direction and magnitude (w = g · v / ||v||). Trains more stably than raw weights without batch statistics.",
es = "Reparametrización que separa cada vector de pesos en su dirección y magnitud (w = g · v / ||v||). Entrena de forma más estable que los pesos en bruto sin requerir estadísticas de batch.",
zh = "将每个权重向量重参数化为方向与幅值的乘积(w = g · v / ||v||)。比直接训练原始权重更稳定,且不依赖批统计信息。",
article = nil,
}
data["weight posterior"] = {
short = "In Bayesian deep learning, the posterior distribution over neural network weights given the training data, p(w | D), inferred via Bayes' rule from a prior over weights and a likelihood; rarely tractable, so it is approximated by methods such as variational inference, MCMC or Laplace approximations.",
es = "En el aprendizaje profundo bayesiano, la distribución posterior sobre los pesos de una red neuronal dadas las observaciones, p(w | D), obtenida por la regla de Bayes a partir de un prior sobre los pesos y una verosimilitud; suele ser intratable y se aproxima mediante inferencia variacional, MCMC o aproximaciones de Laplace.",
zh = "在贝叶斯深度学习中,给定训练数据 D 时神经网络权重的后验分布 p(w | D),由权重的先验和似然通过贝叶斯定理得到;通常不可解析计算,需借助变分推断、MCMC 或拉普拉斯近似等方法进行近似。",
article = nil,
}
data["weight prior"] = {
short = "In Bayesian deep learning, the prior distribution placed on neural network weights, p(w), encoding beliefs before seeing data; common choices include isotropic Gaussian, scale-mixture, hierarchical, and structured priors aligned with desired functional properties.",
es = "En el aprendizaje profundo bayesiano, la distribución a priori sobre los pesos de una red neuronal, p(w), que codifica las creencias antes de observar los datos; las elecciones habituales incluyen priores gaussianos isotrópicos, mezclas de escalas, priores jerárquicos y priores estructurados alineados con propiedades funcionales deseadas.",
zh = "在贝叶斯深度学习中,对神经网络权重所设的先验分布 p(w),用于在观察数据之前编码先验信念;常见选择包括各向同性高斯先验、尺度混合先验、分层先验以及与期望函数性质对齐的结构化先验。",
article = nil,
}
data["weight sample"] = {
short = "A single draw of neural network weights w ~ q(w) from an approximate or exact posterior over parameters, used to form a Monte Carlo estimate of the predictive distribution in Bayesian deep learning or to instantiate one member of a deep ensemble.",
es = "Una única realización de los pesos de una red neuronal w ~ q(w) extraída de una posterior aproximada o exacta sobre los parámetros, utilizada para construir una estimación Monte Carlo de la distribución predictiva en aprendizaje profundo bayesiano o para instanciar un miembro de un ensamble profundo.",
zh = "在贝叶斯深度学习中,从近似或精确的参数后验分布 q(w) 中抽取的一组神经网络权重 w,用于通过蒙特卡洛方法估计预测分布,或作为深度集成中的一个成员。",
article = nil,
}
data["weight sharing"] = {
short = "An efficient NAS strategy in which all candidate architectures are subnetworks of a single supernet whose weights are trained jointly, so each candidate can be evaluated by inheriting the supernet's parameters instead of training its own.",
es = "Estrategia eficiente de NAS en la que todas las arquitecturas candidatas son subredes de un único supernet cuyos pesos se entrenan conjuntamente, de modo que cada candidato puede evaluarse heredando los parámetros del supernet en lugar de entrenar los suyos.",
zh = "一种高效的NAS策略,所有候选架构都是同一个超网络的子网络,其权重联合训练,从而每个候选架构可直接继承超网参数进行评估,而无需单独训练。",
article = nil,
}
data["weight transfer"] = {
short = "Initializing a target model by copying or projecting weights from a related source model — for example, expanding a smaller pretrained network into a larger one — to skip or shorten training of the target.",
es = "Inicialización de un modelo objetivo copiando o proyectando pesos desde un modelo fuente relacionado — por ejemplo, expandiendo una red preentrenada más pequeña a una mayor — para omitir o acortar el entrenamiento del objetivo.",
zh = "通过从相关源模型复制或投影权重来初始化目标模型——例如将较小的预训练网络扩展为更大的网络——以跳过或缩短目标模型的训练。",
article = nil,
}
data["weight tying"] = {
short = "A parameter-sharing technique in which two layers (commonly a transformer's input embedding and output projection) are forced to share the same weight matrix, reducing parameter count and often improving language-model perplexity.",
es = "Técnica de compartición de parámetros en la que dos capas (habitualmente la incrustación de entrada y la proyección de salida de un transformer) se obligan a compartir la misma matriz de pesos, reduciendo el número de parámetros y mejorando con frecuencia la perplejidad del modelo de lenguaje.",
zh = "一种参数共享技术,强制两层(通常是 Transformer 的输入嵌入和输出投影)共用同一权重矩阵,可减少参数量并常常改善语言模型的困惑度。",
article = nil,
}
data["weight-only quantization"] = {
short = "Quantization scheme in which only the model's weights are stored in low precision (e.g. int4 or int8) while activations remain in higher precision and dequantization happens just before each matrix multiply. Common for LLM inference where memory bandwidth, not compute, dominates.",
es = "Esquema de cuantización en el que solo los pesos del modelo se almacenan en baja precisión (por ejemplo int4 o int8), mientras las activaciones permanecen en precisión mayor y la decuantización se hace justo antes de cada multiplicación matricial. Habitual en inferencia de LLM, donde domina el ancho de banda de memoria, no el cómputo.",
zh = "一种量化方案:仅将模型权重存储为低精度(如 int4 或 int8),激活仍保持高精度,并在每次矩阵乘法前进行反量化。常用于 LLM 推理,因为瓶颈在显存带宽而非计算。",
article = nil,
}
data["weighted absolute percentage error"] = {
short = "A forecast accuracy metric defined as the sum of absolute errors divided by the sum of absolute actuals, equivalent to the volume-weighted MAPE and robust to zeros in the actuals.",
es = "Métrica de precisión de pronóstico definida como la suma de errores absolutos dividida entre la suma de valores reales absolutos; equivale al MAPE ponderado por volumen y es robusta frente a ceros en los valores reales.",
zh = "一种预测精度指标,定义为绝对误差之和除以实际值绝对值之和,等价于按量加权的 MAPE,对实际值为零的情形稳健。",
article = nil,
}
data["weighted alternating least squares"] = {
short = "An optimization algorithm for matrix factorization on implicit feedback that alternates closed-form least-squares updates of user and item factors while weighting observed and unobserved entries differently to handle the all-ones implicit signal.",
es = "Algoritmo de optimización para factorización matricial sobre retroalimentación implícita que alterna actualizaciones de mínimos cuadrados en forma cerrada de los factores de usuario e ítem, ponderando de forma distinta las entradas observadas y no observadas para manejar la señal implícita de todos unos.",
zh = "用于隐式反馈矩阵分解的优化算法,在用户因子和物品因子之间交替进行闭式最小二乘更新,同时对已观测项和未观测项赋予不同权重,以处理隐式信号全为 1 的情况。",
article = nil,
}
data["weighted federated averaging"] = {
short = "A variant of FedAvg in which client model updates are aggregated as a weighted mean — typically weighted by the number of local examples or by importance scores — instead of a uniform average. Reduces bias from clients with very different dataset sizes.",
es = "Variante de FedAvg en la que las actualizaciones de los clientes se agregan como una media ponderada, normalmente por el número de ejemplos locales o por puntuaciones de importancia, en lugar de un promedio uniforme. Reduce el sesgo debido a clientes con tamaños de conjunto de datos muy distintos.",
zh = "FedAvg 的一种变体,客户端模型更新按加权平均进行聚合,权重通常取自本地样本数量或重要性分数,而非简单的均匀平均。可降低不同客户端数据集规模差异带来的偏差。",
article = nil,
}
data["weighted forecast combination"] = {
short = "An ensemble technique that combines several individual forecasts using non-negative weights chosen to minimize an expected loss, typically improving accuracy over any single component model.",
es = "Técnica de ensamble que combina varios pronósticos individuales mediante pesos no negativos elegidos para minimizar una pérdida esperada, lo que típicamente mejora la precisión respecto a cualquier modelo componente.",
zh = "一种集成方法,使用非负权重组合若干个体预测,权重通过最小化期望损失选取,通常优于任何单一成员模型的精度。",
article = nil,
}
data["weighted importance sampling"] = {
short = "An off-policy estimator that normalizes importance-sampled returns by the sum of importance weights rather than the sample size, producing a biased but lower-variance estimate of an expectation under a target policy from data collected under a behavior policy.",
es = "Estimador fuera de política que normaliza los retornos ponderados por importancia mediante la suma de los pesos en lugar del tamaño muestral, produciendo una estimación sesgada pero de menor varianza de una esperanza bajo una política objetivo a partir de datos recopilados con una política de comportamiento.",
zh = "一种离策略估计器,将重要性采样返回值用重要性权重之和(而非样本量)进行归一化,从而在使用行为策略采集的数据下,给出对目标策略期望的有偏但方差更低的估计。",
article = nil,
}
data["weighted importance sampling recommender"] = {
short = "An off-policy evaluation or training method for recommender policies that reweights logged interactions by the ratio of target to logging policy probabilities, normalized across the batch to reduce variance compared to vanilla importance sampling.",
es = "Método de evaluación o entrenamiento fuera de política para políticas de recomendación que repondera las interacciones registradas mediante la razón entre las probabilidades de la política objetivo y la de registro, normalizada en el lote para reducir la varianza frente al muestreo de importancia ordinario.",
zh = "用于推荐策略的离策略评估或训练方法,通过目标策略与记录策略概率之比对日志交互进行重加权,并在批次内归一化,以相对普通重要性采样降低方差。",
article = nil,
}
data["weighted majority voting"] = {
short = "An ensemble decision rule in which each predictor casts a vote with a weight proportional to its trustworthiness or estimated accuracy, and the class with the largest total weight wins. Underlies algorithms such as the Weighted Majority Algorithm and many boosting variants.",
es = "Regla de decisión por conjunto en la que cada predictor emite un voto con un peso proporcional a su fiabilidad o precisión estimada, y gana la clase con mayor peso total. Fundamenta algoritmos como el Algoritmo de Mayoría Ponderada y muchas variantes de boosting.",
zh = "一种集成决策规则:每个预测器投票时按其可信度或估计精度加权,总权重最大的类别获胜。它是加权多数算法(WMA)及众多 boosting 变体的基础。",
article = nil,
}
data["weighted matrix factorization"] = {
short = "A matrix factorization model in which each entry of the user-item matrix carries a confidence weight in the squared-error objective, allowing implicit-feedback variants to downweight unobserved entries relative to observed interactions.",
es = "Modelo de factorización matricial en el que cada entrada de la matriz usuario-ítem lleva un peso de confianza en el objetivo de error cuadrático, lo que permite que las variantes de retroalimentación implícita reduzcan el peso de las entradas no observadas frente a las interacciones observadas.",
zh = "一种矩阵分解模型,在平方误差目标中为用户-物品矩阵的每个条目赋予置信度权重,使隐式反馈变体能够相对于已观测交互降低未观测条目的权重。",
article = nil,
}
data["weighted maxsat"] = {
short = "An NP-hard optimization problem that, given a set of weighted Boolean clauses, seeks an assignment maximizing the total weight of satisfied clauses.",
es = "Problema de optimización NP-difícil en el que, dado un conjunto de cláusulas booleanas con pesos, se busca una asignación que maximice el peso total de las cláusulas satisfechas.",
zh = "一种 NP 难的优化问题:给定一组带权重的布尔子句,寻找使被满足子句的总权重最大化的赋值。",
article = nil,
}
data["weighted mean"] = {
short = "A generalized average in which each data point contributes according to a non-negative weight, computed as the sum of weight times value divided by the sum of weights.",
es = "Promedio generalizado en el que cada dato contribuye según un peso no negativo, calculado como la suma de los productos peso por valor dividida entre la suma de los pesos.",
zh = "广义平均值,每个数据点按非负权重贡献,计算为权重与数值乘积之和除以权重之和。",
article = nil,
}
data["weighted median estimator"] = {
short = "An instrumental-variable estimator, used primarily in Mendelian randomization, that returns the weighted median of variant-specific Wald ratios. It yields a consistent causal effect when at least 50% of the weight comes from valid instruments, providing robustness to some invalid instruments.",
es = "Estimador de variables instrumentales, usado principalmente en aleatorización mendeliana, que devuelve la mediana ponderada de los cocientes de Wald específicos por variante. Es consistente cuando al menos el 50% del peso proviene de instrumentos válidos, ofreciendo robustez frente a algunos instrumentos no válidos.",
zh = "一种工具变量估计量,主要用于孟德尔随机化,返回各变异 Wald 比的加权中位数。当至少 50% 的权重来自有效工具时仍可一致地估计因果效应,对部分无效工具具有稳健性。",
article = nil,
}
data["weighted min-fill"] = {
short = "A greedy heuristic for choosing a variable elimination ordering that, at each step, selects the variable whose elimination would add the fewest weighted fill-in edges, where weights reflect domain sizes.",
es = "Heurística voraz para elegir un ordenamiento de eliminación de variables que, en cada paso, selecciona la variable cuya eliminación agregaría la menor cantidad ponderada de aristas de relleno, donde los pesos reflejan los tamaños de los dominios.",
zh = "用于选择变量消去顺序的贪心启发式算法,在每一步选择消去后引入最少加权填充边的变量,权重反映各变量的取值域大小。",
article = nil,
}
data["weighted model counting"] = {
short = "The problem of computing the sum of weights of all satisfying assignments of a propositional formula, where each literal carries a real-valued weight; widely used to encode probabilistic inference in discrete graphical models.",
es = "Problema de calcular la suma de los pesos de todas las asignaciones que satisfacen una fórmula proposicional, donde cada literal tiene un peso real; se usa ampliamente para codificar inferencia probabilística en modelos gráficos discretos.",
zh = "计算命题公式所有满足赋值的权重之和的问题,每个文字带有实数权值;广泛用于将离散图模型上的概率推断进行编码。",
article = nil,
}
data["weighted moving average"] = {
short = "A moving average in which observations within the window are multiplied by user-specified weights before averaging, typically giving more importance to recent data than a simple moving average.",
es = "Promedio móvil en el que las observaciones de la ventana se multiplican por pesos especificados por el usuario antes de promediarse, dando habitualmente mayor importancia a los datos recientes que un promedio móvil simple.",
zh = "一种移动平均方法,先将窗口内的观测值乘以用户指定的权重再求平均,通常比简单移动平均更强调近期数据。",
article = nil,
}
data["weighted qmix"] = {
short = "An extension of QMIX for cooperative multi-agent reinforcement learning that reweights TD updates so that joint actions with higher centralized Q-values receive larger learning signal, mitigating QMIX's tendency to underestimate optimal joint actions.",
es = "Extensión de QMIX para aprendizaje por refuerzo multiagente cooperativo que repondera las actualizaciones TD de modo que las acciones conjuntas con mayores valores Q centralizados reciban una señal de aprendizaje más fuerte, mitigando la tendencia de QMIX a subestimar las acciones conjuntas óptimas.",
zh = "面向协作多智能体强化学习的 QMIX 扩展,对 TD 更新进行重新加权,使具有更高集中式 Q 值的联合动作获得更大的学习信号,从而缓解 QMIX 对最优联合动作的低估倾向。",
article = nil,
}
data["weighted regularized matrix factorization"] = {
short = "A matrix factorization formulation that combines confidence-weighted squared-error loss on observed and unobserved entries with L2 regularization on user and item factors, typically optimized with weighted alternating least squares.",
es = "Formulación de factorización matricial que combina una pérdida de error cuadrático ponderada por confianza sobre entradas observadas y no observadas con regularización L2 sobre los factores de usuario e ítem, optimizada típicamente mediante mínimos cuadrados alternos ponderados.",
zh = "一种矩阵分解形式,将对已观测与未观测条目的置信度加权平方误差损失与对用户和物品因子的 L2 正则化相结合,通常用加权交替最小二乘法优化。",
article = nil,
}
data["welch's method"] = {
short = "A nonparametric estimator of the power spectral density that averages periodograms computed on overlapping, windowed segments of a signal, reducing variance at the cost of frequency resolution.",
es = "Estimador no paramétrico de la densidad espectral de potencia que promedia periodogramas calculados sobre segmentos solapados y ventaneados de una señal, reduciendo la varianza a costa de la resolución en frecuencia.",
zh = "一种功率谱密度的非参数估计方法,对信号的重叠加窗段计算周期图后求平均,以频率分辨率为代价降低方差。",
article = nil,
}
data["welfare maximization"] = {
short = "A policy learning objective that selects a treatment assignment rule to maximize the expected outcome (welfare) across a population, typically formulated as maximizing the value function of a policy under observational or experimental data.",
es = "Objetivo de aprendizaje de políticas que selecciona una regla de asignación de tratamiento para maximizar el resultado esperado (bienestar) en una población, formulado típicamente como la maximización de la función de valor de una política con datos observacionales o experimentales.",
zh = "一种策略学习目标,选取处理分配规则以最大化总体的期望结果(福利),通常表述为在观测或实验数据下最大化策略的价值函数。",
article = nil,
}
data["well-calibration"] = {
short = "A fairness-relevant calibration property requiring that, within each protected group, the predicted probabilities match the empirical outcome frequencies at every probability level.",
es = "Propiedad de calibración relevante para la equidad que exige que, dentro de cada grupo protegido, las probabilidades predichas coincidan con las frecuencias empíricas de los resultados en cada nivel de probabilidad.",
zh = "一种与公平性相关的校准性质,要求在每个受保护群体内,各概率水平上的预测概率都与经验结果频率相匹配。",
article = nil,
}
data["wenet"] = {
short = "An open-source production-oriented end-to-end automatic speech recognition toolkit that unifies streaming and non-streaming inference using a joint CTC and attention-based encoder-decoder.",
es = "Toolkit de reconocimiento automático de voz de extremo a extremo de código abierto orientado a producción que unifica inferencia en streaming y no streaming mediante un codificador-decodificador conjunto basado en CTC y atención.",
zh = "一个面向生产的开源端到端自动语音识别工具包,通过 CTC 与基于注意力的编码器-解码器联合方案,统一支持流式和非流式推理。",
article = nil,
}
data["wenetspeech"] = {
short = "A 10,000-hour multi-domain Mandarin Chinese speech corpus collected from YouTube and podcasts, with a confidence-graded labeling pipeline, used to benchmark large-scale Mandarin ASR.",
es = "Corpus de voz en chino mandarín de 10 000 horas y múltiples dominios recopilado de YouTube y podcasts, con un proceso de etiquetado por niveles de confianza, utilizado para evaluar ASR a gran escala en mandarín.",
zh = "一个 1 万小时、多领域的普通话语音语料库,采集自 YouTube 与播客,具有按置信度分级的标注流程,用于评测大规模普通话语音识别。",
article = nil,
}
data["wgcna"] = {
short = "Weighted Gene Co-expression Network Analysis, a method that constructs a soft-thresholded correlation network of genes from expression data, identifies modules of co-expressed genes via hierarchical clustering, and relates them to phenotypes.",
es = "Análisis de redes de coexpresión génica ponderadas, método que construye una red de correlación con umbral suave a partir de datos de expresión, identifica módulos de genes coexpresados mediante agrupamiento jerárquico y los relaciona con fenotipos.",
zh = "加权基因共表达网络分析,一种基于表达数据构建软阈值相关性网络的方法,通过层次聚类识别共表达基因模块,并将其与表型关联。",
article = nil,
}
data["whisper"] = {
short = "A multilingual encoder-decoder transformer for speech recognition and translation released by OpenAI, trained on 680,000 hours of weakly supervised audio from the web; robust to noise, accents, and code-switching.",
es = "Transformer codificador-decodificador multilingüe para reconocimiento y traducción de voz publicado por OpenAI, entrenado con 680 000 horas de audio web débilmente supervisado; es robusto frente a ruido, acentos y cambio de código.",
zh = "OpenAI 发布的用于语音识别与翻译的多语种编码器-解码器 Transformer,在 68 万小时弱监督网络音频上训练,对噪声、口音和语码转换具有较强鲁棒性。",
article = nil,
}
data["whisper large"] = {
short = "The largest variants of OpenAI's Whisper speech model (Large, Large-v2, Large-v3), with roughly 1.55 billion parameters, providing the highest accuracy across multilingual ASR and speech translation benchmarks.",
es = "Las variantes más grandes del modelo de voz Whisper de OpenAI (Large, Large-v2, Large-v3), con unos 1550 millones de parámetros, que ofrecen la mayor precisión en benchmarks multilingües de ASR y traducción de voz.",
zh = "OpenAI Whisper 语音模型的最大版本(Large、Large-v2、Large-v3),参数量约 15.5 亿,在多语种语音识别和语音翻译基准上提供最高精度。",
article = nil,
}
data["whisper-cpp"] = {
short = "A dependency-free C++ port of OpenAI's Whisper that runs the encoder-decoder transformer with quantized weights on CPU and Apple silicon, enabling efficient on-device speech recognition.",
es = "Port en C++ sin dependencias de Whisper de OpenAI que ejecuta el transformer codificador-decodificador con pesos cuantizados en CPU y Apple silicon, permitiendo reconocimiento de voz eficiente en el dispositivo.",
zh = "OpenAI Whisper 的零依赖 C++ 移植版本,在 CPU 和 Apple Silicon 上以量化权重运行其编码器-解码器 Transformer,实现高效的设备端语音识别。",
article = nil,
}
data["whisperx"] = {
short = "An extension of OpenAI's Whisper that adds accurate word-level timestamps and speaker diarization by aligning Whisper output with a phoneme-level forced-alignment model and clustering speaker embeddings.",
es = "Extensión de Whisper de OpenAI que añade marcas de tiempo precisas a nivel de palabra y diarización de hablantes alineando la salida de Whisper con un modelo de alineamiento forzado a nivel de fonema y agrupando embeddings de hablante.",
zh = "对 OpenAI Whisper 的扩展,通过将 Whisper 输出与音素级强制对齐模型对齐并对说话人嵌入聚类,提供精确的逐词时间戳和说话人分离功能。",
article = nil,
}
data["white noise"] = {
short = "A stochastic process whose elements are uncorrelated, have zero mean, and constant variance; serves as the prototypical innovations process and the null model for residual diagnostics.",
es = "Proceso estocástico cuyos elementos están incorrelacionados, tienen media cero y varianza constante; sirve como proceso de innovaciones prototípico y modelo nulo en los diagnósticos de residuos.",
zh = "一种随机过程,其元素互不相关、均值为零、方差恒定;作为典型的新息过程,也是残差诊断中的零模型。",
article = nil,
}
data["white-box model"] = {
short = "A model whose internal structure and parameters are directly inspectable and interpretable, such as linear models, decision trees, or rule lists.",
es = "Modelo cuya estructura interna y cuyos parámetros son directamente inspeccionables e interpretables, como modelos lineales, árboles de decisión o listas de reglas.",
zh = "内部结构与参数可直接检视并可解释的模型,例如线性模型、决策树或规则列表。",
article = nil,
}
data["whitened parameterization"] = {
short = "A reparameterization in which model parameters are expressed in a basis where the prior (or some reference covariance) becomes the identity, decorrelating and standardizing them; used in Bayesian neural networks and Gaussian processes to improve sampler mixing and variational optimization.",
es = "Reparametrización en la que los parámetros del modelo se expresan en una base donde el prior (o cierta covarianza de referencia) se convierte en la identidad, descorrelacionándolos y estandarizándolos; se usa en redes neuronales bayesianas y procesos gaussianos para mejorar la mezcla de muestreadores y la optimización variacional.",
zh = "一种重参数化方式,将模型参数表示在某个基底下,使得先验(或某参考协方差)变为单位矩阵,从而对参数进行去相关和标准化;常用于贝叶斯神经网络和高斯过程,以改善采样器混合性和变分优化。",
article = nil,
}
data["whittle index"] = {
short = "A scalar index assigned to each arm in a restless multi-armed bandit that quantifies the marginal value of activating the arm; under indexability, the policy that activates arms with the highest Whittle indices is asymptotically optimal.",
es = "Índice escalar asignado a cada brazo en un bandido multi-brazo inquieto que cuantifica el valor marginal de activarlo; bajo indexabilidad, la política que activa los brazos con mayor índice de Whittle es asintóticamente óptima.",
zh = "对受限多臂赌博机中每个臂赋予的标量指数,量化激活该臂的边际价值;在可指数化条件下,按 Whittle 指数从大到小激活臂的策略具有渐近最优性。",
article = nil,
}
data["whole genome sequencing"] = {
short = "Sequencing of the entire genomic DNA of an organism, typically by short-read or long-read platforms, providing the most complete view of single-nucleotide variants, indels, and structural variants.",
es = "Secuenciación del ADN genómico completo de un organismo, habitualmente con plataformas de lecturas cortas o largas, que proporciona la visión más completa de variantes de un solo nucleótido, indeles y variantes estructurales.",
zh = "对生物体全部基因组 DNA 的测序,通常使用短读长或长读长平台,可提供单核苷酸变异、插入缺失和结构变异的最完整视图。",
article = nil,
}
data["whole-body control"] = {
short = "A control framework that coordinates all degrees of freedom of a robot (e.g. a humanoid or mobile manipulator) simultaneously to satisfy multiple prioritized tasks and constraints, typically formulated as a hierarchical or weighted optimization problem.",
es = "Marco de control que coordina simultáneamente todos los grados de libertad de un robot (por ejemplo, un humanoide o un manipulador móvil) para satisfacer múltiples tareas y restricciones priorizadas, normalmente formulado como un problema de optimización jerárquica o ponderada.",
zh = "一种控制框架,同时协调机器人(如人形机器人或移动操作机器人)的所有自由度,以满足多项有优先级的任务和约束,通常表述为分层或加权优化问题。",
article = nil,
}
data["whole-body manipulation"] = {
short = "Manipulation in which a robot uses multiple parts of its body — not only its grippers — such as forearms, torso, or legs, to support, push, or hold objects, typically required for large or heavy items.",
es = "Manipulación en la que un robot utiliza varias partes de su cuerpo —no solo sus pinzas— como antebrazos, torso o piernas para sostener, empujar o sujetar objetos, normalmente necesaria para piezas grandes o pesadas.",
zh = "机器人不仅使用夹爪,还利用身体多个部位(如前臂、躯干或腿部)支撑、推动或夹持物体的操作方式,常用于处理较大或较重的物体。",
article = nil,
}
data["wide and deep"] = {
short = "A recommender architecture that jointly trains a wide linear model on memorized cross-product features with a deep neural network on dense embeddings, combining memorization of frequent co-occurrences with generalization to unseen feature combinations.",
es = "Arquitectura de recomendación que entrena conjuntamente un modelo lineal ancho sobre características de producto cruzado memorizadas con una red neuronal profunda sobre embeddings densos, combinando la memorización de coocurrencias frecuentes con la generalización a combinaciones de características no vistas.",
zh = "一种推荐架构,联合训练对记忆化交叉特征的宽线性模型与对稠密嵌入的深度神经网络,将常见共现的记忆能力与对未见特征组合的泛化能力结合起来。",
article = nil,
}
data["width scaling"] = {
short = "Scaling a neural network by increasing the number of channels or hidden units per layer; in compound-scaling rules such as EfficientNet's, width is scaled jointly with depth and resolution under a fixed compute budget.",
es = "Escalado de una red neuronal aumentando el número de canales o unidades ocultas por capa; en reglas de escalado compuesto como las de EfficientNet, el ancho se escala junto con la profundidad y la resolución bajo un presupuesto de cómputo fijo.",
zh = "通过增加每层的通道数或隐藏单元数来缩放神经网络;在EfficientNet等复合缩放规则中,宽度与深度和分辨率在固定计算预算下共同缩放。",
article = nil,
}
data["wiener process"] = {
short = "A continuous-time stochastic process with stationary independent Gaussian increments and continuous sample paths, serving as the canonical mathematical model of Brownian motion.",
es = "Proceso estocástico de tiempo continuo con incrementos gaussianos estacionarios e independientes y trayectorias muestrales continuas, modelo matemático canónico del movimiento browniano.",
zh = "具有平稳独立高斯增量和连续样本路径的连续时间随机过程,是布朗运动的标准数学模型。",
article = nil,
}
data["wiggle format"] = {
short = "A text-based file format (.wig and the indexed binary bigWig) for representing continuous-valued data along genomic coordinates, used for coverage tracks, conservation scores, and signal tracks in genome browsers.",
es = "Formato de archivo basado en texto (.wig y la versión binaria indexada bigWig) para representar datos de valor continuo a lo largo de coordenadas genómicas, usado para pistas de cobertura, conservación y señal en navegadores genómicos.",
zh = "一种基于文本的文件格式(.wig,及其索引的二进制版本 bigWig),用于沿基因组坐标表示连续值数据,常用于基因组浏览器中的覆盖度、保守性和信号轨道。",
article = nil,
}
data["wigner semicircle law"] = {
short = "A theorem in random matrix theory stating that the empirical spectral distribution of a large symmetric random matrix with independent entries of finite variance converges to a semicircular density.",
es = "Teorema de la teoría de matrices aleatorias que establece que la distribución espectral empírica de una matriz aleatoria simétrica grande, con entradas independientes de varianza finita, converge a una densidad semicircular.",
zh = "随机矩阵理论中的定理,表明具有有限方差独立元素的大对称随机矩阵的经验谱分布收敛到半圆密度。",
article = nil,
}
data["wikidata"] = {
short = "A free, collaboratively edited multilingual knowledge graph hosted by the Wikimedia Foundation, storing structured data as items with statements (property-value pairs) and powering Wikipedia infoboxes.",
es = "Grafo de conocimiento multilingüe, libre y editable de forma colaborativa, alojado por la Fundación Wikimedia, que almacena datos estructurados como ítems con declaraciones (pares propiedad-valor) y nutre las infoboxes de Wikipedia.",
zh = "由维基媒体基金会托管的免费、可协作编辑的多语言知识图谱,以条目和带属性-值对的陈述形式存储结构化数据,并为维基百科的信息框提供数据支持。",
article = nil,
}
data["wikification"] = {
short = "The task of linking mentions in text to their corresponding Wikipedia articles, a form of entity linking targeting Wikipedia as the knowledge base.",
es = "Tarea de enlazar las menciones de un texto con sus correspondientes artículos de Wikipedia; es una forma de enlazado de entidades que toma Wikipedia como base de conocimiento.",
zh = "将文本中的提及链接到对应维基百科条目的任务,是一种以维基百科为知识库的实体链接。",
article = nil,
}
data["wild binary segmentation"] = {
short = "A change-point detection algorithm that recursively applies the CUSUM statistic on randomly drawn sub-intervals of a series, robustly identifying multiple change points without requiring a pre-specified count.",
es = "Algoritmo de detección de puntos de cambio que aplica recursivamente el estadístico CUSUM sobre subintervalos aleatorios de la serie, identificando de forma robusta múltiples puntos de cambio sin requerir un número prefijado.",
zh = "一种变点检测算法,在序列的随机抽取子区间上递归应用 CUSUM 统计量,能够稳健地识别多个变点而无需预先指定其数量。",
article = nil,
}
data["wildbench"] = {
short = "An LLM evaluation benchmark from AI2 that scores chat models on real, in-the-wild user queries collected from chatbot logs, using rubric-based pairwise judging by stronger LLMs.",
es = "Benchmark de evaluación de LLM de AI2 que puntúa modelos conversacionales con consultas reales de usuarios recopiladas de registros de chatbots, utilizando juicio por pares basado en rúbricas con LLM más potentes.",
zh = "AI2 提出的 LLM 评测基准,使用从真实聊天机器人日志中收集的“野生”用户查询,由更强的 LLM 按评分细则进行成对评判,对对话模型打分。",
article = nil,
}
data["win rate"] = {
short = "The fraction of pairwise comparisons in which a model's output is preferred over a baseline (by humans or an LLM judge); a common headline metric for instruction-following and preference evaluations.",
es = "Fracción de comparaciones por pares en las que la salida de un modelo es preferida sobre una referencia (por humanos o por un LLM juez); métrica habitual para evaluaciones de seguimiento de instrucciones y preferencias.",
zh = "在成对比较中,某模型输出相对于基线被偏好(由人工或 LLM 裁判判定)的比例;常作为指令遵循与偏好评估的核心指标。",
article = nil,
}
data["window slicing"] = {
short = "A time series data augmentation technique that extracts random contiguous sub-windows from each training series and treats them as new examples sharing the original label.",
es = "Técnica de aumento de datos para series temporales que extrae subventanas contiguas aleatorias de cada serie de entrenamiento y las trata como nuevos ejemplos con la etiqueta original.",
zh = "一种时间序列数据增强技术,从每条训练序列中随机抽取连续子窗口作为新样本,并保留原始标签。",
article = nil,
}
data["window warping"] = {
short = "A time series data augmentation technique that randomly speeds up or slows down a contiguous segment of the input, leaving the rest unchanged, to expose models to local temporal distortions.",
es = "Técnica de aumento de datos para series temporales que acelera o ralentiza aleatoriamente un segmento contiguo de la entrada, dejando el resto sin cambios, para exponer al modelo a distorsiones temporales locales.",
zh = "一种时间序列数据增强技术,对输入的某一连续片段随机加速或减速,其余部分保持不变,从而让模型接触局部时间扭曲。",
article = nil,
}
data["windowing function"] = {
short = "A weighting function such as Hann, Hamming, or Blackman applied to a frame of a signal before a discrete Fourier transform, reducing spectral leakage by tapering the frame edges to zero.",
es = "Función de ponderación como Hann, Hamming o Blackman que se aplica a un fragmento de señal antes de la transformada discreta de Fourier, reduciendo el escape espectral al atenuar los bordes del fragmento hasta cero.",
zh = "在离散傅里叶变换前应用于信号帧的加权函数(如 Hann、Hamming、Blackman 窗),通过将帧两端衰减为零来减少频谱泄漏。",
article = nil,
}
data["winobias"] = {
short = "A coreference-resolution benchmark (Zhao et al., 2018) that probes gender bias by pairing sentences in which pronouns refer to occupations stereotypically associated with male or female workers.",
es = "Conjunto de evaluación de resolución de correferencia (Zhao et al., 2018) que mide el sesgo de género emparejando oraciones donde los pronombres se refieren a ocupaciones asociadas estereotípicamente a hombres o mujeres.",
zh = "Zhao 等人(2018)提出的共指消解基准,通过让代词指代刻板印象上偏向男性或女性的职业,来检测性别偏见。",
article = nil,
}
data["winogender"] = {
short = "A coreference benchmark (Rudinger et al., 2018) of Winograd-style sentences with paired gendered pronouns and occupations, used to detect gender bias in coreference systems.",
es = "Banco de pruebas de correferencia (Rudinger et al., 2018) con oraciones de estilo Winograd que emparejan pronombres de género y ocupaciones, usado para detectar sesgo de género en sistemas de correferencia.",
zh = "Rudinger 等人(2018)提出的共指基准,采用 Winograd 式句子并配对带性别的代词与职业,用于检测共指系统中的性别偏见。",
article = nil,
}
data["winogrande"] = {
short = "A large-scale (44k example) commonsense reasoning benchmark that extends the Winograd Schema Challenge with adversarial filtering to remove dataset artifacts. Pronoun resolution problems require physical and social commonsense.",
es = "Benchmark de razonamiento de sentido común a gran escala (44k ejemplos) que extiende el Winograd Schema Challenge con filtrado adversarial para eliminar artefactos del conjunto de datos. Los problemas de resolución de pronombres requieren sentido común físico y social.",
zh = "一个大规模(约 4.4 万条)常识推理基准,在 Winograd Schema Challenge 之上加入对抗式筛选以去除数据集偏差。其代词消解题目需要物理与社会常识。",
article = nil,
}
data["wishart distribution"] = {
short = "A multivariate generalization of the chi-squared distribution describing the distribution of sample covariance matrices of independent multivariate normal vectors; widely used as a conjugate prior for covariance matrices.",
es = "Generalización multivariante de la distribución chi-cuadrado que describe la distribución de matrices de covarianza muestrales de vectores normales multivariantes independientes; usada como distribución a priori conjugada para matrices de covarianza.",
zh = "卡方分布的多元推广,描述独立多元正态向量样本协方差矩阵的分布;常用作协方差矩阵的共轭先验。",
article = nil,
}
data["wit dataset"] = {
short = "Wikipedia-based Image Text dataset; a large multilingual collection of image-caption pairs extracted from Wikipedia articles, spanning over 100 languages and used for multimodal and multilingual pretraining.",
es = "Conjunto de datos Wikipedia-based Image Text; una gran colección multilingüe de pares imagen-descripción extraídos de artículos de Wikipedia, que abarca más de 100 idiomas y se utiliza para preentrenamiento multimodal y multilingüe.",
zh = "基于维基百科的图文数据集(WIT);一个从维基百科条目中提取的大规模多语种图像-描述配对集合,覆盖 100 多种语言,用于多模态和多语种预训练。",
article = nil,
}
data["wizardcoder"] = {
short = "Family of code LLMs (Microsoft, 2023) fine-tuned from StarCoder and Code Llama with the Evol-Instruct method on synthesized, progressively harder coding instructions. Achieved state-of-the-art HumanEval scores among open models at release.",
es = "Familia de LLM de código (Microsoft, 2023) ajustados a partir de StarCoder y Code Llama con el método Evol-Instruct sobre instrucciones de programación sintetizadas y progresivamente más difíciles. Alcanzó puntuaciones HumanEval punteras entre los modelos abiertos en su lanzamiento.",
zh = "一系列代码 LLM(微软,2023),基于 StarCoder 和 Code Llama,通过 Evol-Instruct 方法在合成且难度递增的编程指令上微调。发布时在开放模型中取得了 HumanEval 的最佳成绩。",
article = nil,
}
data["wizardlm"] = {
short = "Instruction-tuned LLM family (Microsoft, 2023) trained with Evol-Instruct, a method that uses an LLM to evolve seed instructions into broader and more complex variants. Released as WizardLM and WizardLM-2 fine-tunes of LLaMA and Mixtral.",
es = "Familia de LLM ajustados con instrucciones (Microsoft, 2023) entrenados con Evol-Instruct, un método que usa un LLM para hacer evolucionar instrucciones semilla en variantes más amplias y complejas. Publicada como WizardLM y WizardLM-2, ajustes finos de LLaMA y Mixtral.",
zh = "一系列指令微调的 LLM(微软,2023),使用 Evol-Instruct 方法训练——该方法借助 LLM 把种子指令演化为更广泛、更复杂的变体。发布的版本包括基于 LLaMA 与 Mixtral 微调的 WizardLM 与 WizardLM-2。",
article = nil,
}
data["wmape"] = {
short = "Weighted MAPE, a forecast accuracy metric equal to the sum of absolute errors divided by the sum of absolute actuals, robust to zeros in the actuals and equivalent to WAPE.",
es = "MAPE ponderado, métrica de precisión de pronóstico igual a la suma de errores absolutos dividida entre la suma de valores reales absolutos, robusta frente a ceros en los valores reales y equivalente a WAPE.",
zh = "加权 MAPE,一种预测精度指标,等于绝对误差之和除以实际值绝对值之和,对实际值为零的情形稳健,与 WAPE 等价。",
article = nil,
}
data["wn18"] = {
short = "A knowledge-graph completion benchmark consisting of a subset of WordNet with 18 relations and 40,943 entities; later shown to suffer from inverse-relation test leakage, motivating WN18RR.",
es = "Conjunto de evaluación para completado de grafos de conocimiento formado por un subconjunto de WordNet con 18 relaciones y 40 943 entidades; posteriormente se demostró que sufría de fuga por relaciones inversas, lo que motivó la creación de WN18RR.",
zh = "一个用于知识图谱补全评测的基准,由 WordNet 的子集构成,包含 18 种关系与 40 943 个实体;后被发现存在逆关系导致的测试泄漏,从而促成了 WN18RR 的提出。",
article = nil,
}
data["wn18rr"] = {
short = "A revised version of WN18 that removes inverse-relation pairs from the test set, providing a harder and more realistic benchmark for knowledge-graph link prediction.",
es = "Versión revisada de WN18 que elimina los pares de relaciones inversas del conjunto de test, ofreciendo una evaluación más difícil y realista de la predicción de enlaces en grafos de conocimiento.",
zh = "WN18 的修订版本,从测试集中剔除了逆关系对,为知识图谱链接预测提供了更困难、更现实的基准。",
article = nil,
}
data["wolf phc"] = {
short = "Win or Learn Fast Policy Hill-Climbing: a multi-agent reinforcement learning algorithm by Bowling and Veloso (2002) that performs gradient policy hill-climbing with a variable learning rate — small when winning, large when losing — to achieve rationality and convergence in self-play.",
es = "Win or Learn Fast Policy Hill-Climbing: algoritmo de aprendizaje por refuerzo multiagente de Bowling y Veloso (2002) que realiza ascenso de políticas con tasa de aprendizaje variable — pequeña cuando se gana y grande cuando se pierde — para lograr racionalidad y convergencia en autojuego.",
zh = "Bowling 与 Veloso(2002)提出的多智能体强化学习算法 Win or Learn Fast Policy Hill-Climbing:使用可变学习率(获胜时小、失利时大)进行策略爬山,从而在自对弈中实现理性和收敛性。",
article = nil,
}
data["wolff algorithm"] = {
short = "A cluster Monte Carlo algorithm for Ising and Potts models that flips an entire cluster of like-spin sites grown by a Fortuin-Kasteleyn bond procedure, drastically reducing critical slowing down near phase transitions.",
es = "Algoritmo Monte Carlo de cúmulos para los modelos de Ising y Potts que invierte un cúmulo entero de sitios con espines iguales construido mediante un procedimiento de enlaces de Fortuin-Kasteleyn, reduciendo drásticamente la ralentización crítica cerca de las transiciones de fase.",
zh = "用于 Ising 和 Potts 模型的团簇蒙特卡罗算法,通过 Fortuin-Kasteleyn 键过程构造同自旋团簇并整体翻转,大幅缓解相变附近的临界减慢。",
article = nil,
}
data["word embedding"] = {
short = "A dense, low-dimensional vector representation of a word in which semantically similar words are mapped to nearby points, typically learned from co-occurrence statistics in large text corpora.",
es = "Representación vectorial densa y de baja dimensión de una palabra en la que las palabras semánticamente similares se asignan a puntos cercanos, típicamente aprendida a partir de estadísticas de coocurrencia en grandes corpus de texto.",
zh = "词的稠密低维向量表示,语义相近的词被映射到邻近的点,通常通过大规模文本语料中的共现统计学习得到。",
article = "Word Embeddings",
}
data["word embedding association test"] = {
short = "WEAT (Caliskan et al., 2017): a statistical test for bias in word embeddings, modeled on the Implicit Association Test, that compares mean cosine similarities between target-word sets and attribute-word sets.",
es = "WEAT (Caliskan et al., 2017): prueba estadística de sesgo en embeddings de palabras, inspirada en el Test de Asociación Implícita, que compara las similitudes coseno medias entre conjuntos de palabras objetivo y de atributo.",
zh = "WEAT(Caliskan 等人,2017):仿照内隐联想测验设计的词嵌入偏见统计测试,通过比较目标词集合与属性词集合间的平均余弦相似度来度量偏见。",
article = nil,
}
data["word error rate"] = {
short = "The standard metric for automatic speech recognition accuracy, computed as the sum of substitutions, deletions, and insertions divided by the number of reference words, expressed as a percentage.",
es = "Métrica estándar de precisión en reconocimiento automático de voz, calculada como la suma de sustituciones, eliminaciones e inserciones dividida entre el número de palabras de referencia, expresada como porcentaje.",
zh = "自动语音识别准确度的标准指标,定义为替换、删除和插入次数之和除以参考词数,通常以百分比表示。",
article = nil,
}
data["word sense disambiguation"] = {
short = "An NLP task that determines which sense of a polysemous word is intended in a given context, typically by selecting from a sense inventory such as WordNet.",
es = "Tarea de PLN que determina cuál de los sentidos de una palabra polisémica se utiliza en un contexto dado, típicamente eligiendo de un inventario de sentidos como WordNet.",
zh = "一项自然语言处理任务,判断在给定上下文中多义词所采用的具体义项,通常从 WordNet 等义项库中选择。",
article = nil,
}
data["word-level attribution"] = {
short = "Attribution computed at the granularity of whole words rather than subword tokens or characters, often by aggregating token-level scores back to word boundaries.",
es = "Atribución calculada con granularidad de palabras completas en lugar de subtokens o caracteres, normalmente agregando las puntuaciones a nivel de token a los límites de palabra.",
zh = "在完整单词粒度而非子词 token 或字符粒度上计算的归因,通常通过将 token 级得分聚合到单词边界得到。",
article = nil,
}
data["word2vec"] = {
short = "A family of shallow neural models (CBOW and skip-gram) introduced by Mikolov et al. that learn dense word embeddings by predicting a word from its context or vice versa over a sliding window in a large corpus.",
es = "Familia de modelos neuronales superficiales (CBOW y skip-gram) introducida por Mikolov et al. que aprenden embeddings de palabras densos prediciendo una palabra a partir de su contexto o viceversa mediante una ventana deslizante en un gran corpus.",
zh = "由 Mikolov 等人提出的浅层神经模型家族(CBOW 与 skip-gram),通过在大型语料中以滑动窗口由上下文预测词或由词预测上下文来学习稠密词嵌入。",
article = nil,
}
data["wordnet"] = {
short = "A large lexical database of English in which nouns, verbs, adjectives, and adverbs are grouped into sets of synonyms (synsets) connected by semantic relations such as hypernymy and meronymy.",
es = "Gran base de datos léxica del inglés en la que los sustantivos, verbos, adjetivos y adverbios se agrupan en conjuntos de sinónimos (synsets) conectados por relaciones semánticas como hiperonimia y meronimia.",
zh = "一个大型英语词汇数据库,将名词、动词、形容词和副词组织为同义词集合(synset),并通过上下位、整体-部分等语义关系相互连接。",
article = nil,
}
data["wordpiece"] = {
short = "A subword tokenization algorithm that greedily builds a vocabulary by merging symbol pairs that maximize the likelihood of the training corpus under a unigram language model. Used in BERT and related models.",
es = "Algoritmo de tokenización en subpalabras que construye de forma voraz un vocabulario fusionando pares de símbolos que maximizan la verosimilitud del corpus de entrenamiento bajo un modelo de lenguaje unigrama. Utilizado en BERT y modelos relacionados.",
zh = "一种子词分词算法,通过贪心地合并能在单字语言模型下最大化训练语料似然的符号对来构建词表。BERT 等模型采用该方法。",
article = nil,
}
data["worker node"] = {
short = "A compute node in a distributed training system that executes assigned local computation — typically forward and backward passes on a data shard — and communicates gradients or parameters with a parameter server or peer workers.",
es = "Nodo de cómputo en un sistema de entrenamiento distribuido que ejecuta el cálculo local asignado, normalmente las pasadas hacia adelante y hacia atrás sobre una partición de los datos, y comunica gradientes o parámetros con un servidor de parámetros o con otros nodos.",
zh = "分布式训练系统中的计算节点,负责执行分配给它的本地计算——通常是某一数据分片上的前向和反向传播,并与参数服务器或对等工作节点交换梯度或参数。",
article = nil,
}
data["world model"] = {
short = "A learned generative model of an environment's dynamics that predicts next observations and rewards from current state and action, enabling agents to plan, imagine, or train policies inside the model rather than the real environment.",
es = "Modelo generativo aprendido de la dinámica de un entorno que predice las siguientes observaciones y recompensas a partir del estado y la acción actuales, permitiendo a los agentes planificar, imaginar o entrenar políticas dentro del modelo en lugar de en el entorno real.",
zh = "一种习得的环境动力学生成模型,根据当前状态与动作预测下一观测和奖励,使智能体能够在模型内部进行规划、想象或训练策略,而无需直接与真实环境交互。",
article = nil,
}
data["world model for control"] = {
short = "A learned predictive model of environment dynamics used to plan or train policies for control, typically by rolling out imagined trajectories in latent space and optimizing actions against an objective without further real-world interaction.",
es = "Modelo predictivo aprendido de la dinámica del entorno utilizado para planificar o entrenar políticas de control, normalmente mediante la simulación de trayectorias imaginadas en espacio latente y la optimización de acciones frente a un objetivo sin más interacción real.",
zh = "一种学习得到的环境动力学预测模型,用于规划或训练控制策略,通常在潜在空间中展开想象的轨迹,并针对目标优化动作,无需进一步与真实环境交互。",
article = nil,
}
data["world model learning"] = {
short = "Learning a predictive model of environment dynamics — typically state transitions and rewards — from data, used to plan, generate imagined rollouts for policy training, or simulate counterfactual trajectories in model-based reinforcement learning.",
es = "Aprendizaje de un modelo predictivo de la dinámica del entorno —típicamente transiciones de estado y recompensas— a partir de datos, usado para planificar, generar despliegues imaginados que entrenan la política o simular trayectorias contrafactuales en aprendizaje por refuerzo basado en modelo.",
zh = "从数据中学习环境动态的预测模型(通常包括状态转移和奖励),用于在基于模型的强化学习中进行规划、生成想象推演以训练策略,或模拟反事实轨迹。",
article = nil,
}
data["world vocoder"] = {
short = "A high-quality classical signal-processing vocoder by Morise et al. that decomposes speech into F0 contour, spectral envelope, and aperiodicity, widely used as a baseline in neural TTS research.",
es = "Vocoder clásico de procesamiento de señal de alta calidad propuesto por Morise et al., que descompone la voz en contorno de F0, envolvente espectral y aperiodicidad; ampliamente utilizado como referencia en investigación de TTS neuronal.",
zh = "Morise 等人提出的高质量经典信号处理声码器,将语音分解为基频曲线、频谱包络和非周期性成分,在神经语音合成研究中常作为基线。",
article = nil,
}
data["worst-case fairness"] = {
short = "A fairness paradigm that optimizes a model's performance or constraint on the worst-off subgroup, in contrast to average-case metrics across groups.",
es = "Paradigma de equidad que optimiza el rendimiento o las restricciones del modelo sobre el subgrupo en peor situación, en lugar de métricas promedio entre grupos.",
zh = "一种公平性范式,关注并优化模型在最差子群体上的表现或约束,而非各群体的平均指标。",
article = nil,
}
data["worst-case fairness recommender"] = {
short = "A fairness-aware recommender that optimizes a max-min or minimax-style objective over user or item subgroups, ensuring that the most disadvantaged subgroup's utility or exposure is maximized rather than only the average.",
es = "Recomendador con conciencia de equidad que optimiza un objetivo de tipo max-min o minimax sobre subgrupos de usuarios o ítems, garantizando que se maximice la utilidad o exposición del subgrupo más desfavorecido, no solo la media.",
zh = "一种关注公平性的推荐器,在用户或物品子群上优化最大最小或极小极大形式的目标,确保最弱势子群的效用或曝光被最大化,而不仅是平均值。",
article = nil,
}
data["worst-group accuracy"] = {
short = "The classification accuracy on the lowest-performing demographic or distributional subgroup; a key metric in distributionally robust optimization and group-fairness evaluation.",
es = "Precisión de clasificación sobre el subgrupo demográfico o distribucional con peor rendimiento; métrica clave en optimización distribucionalmente robusta y en evaluación de equidad grupal.",
zh = "在表现最差的人口或分布子群体上的分类准确率;分布鲁棒优化和群体公平性评估中的关键指标。",
article = nil,
}
data["worst-group loss"] = {
short = "The maximum loss attained over all subgroups; minimized in distributionally robust optimization (e.g. Group DRO) to bound performance on the worst-off group.",
es = "Pérdida máxima alcanzada sobre todos los subgrupos; se minimiza en optimización distribucionalmente robusta (p. ej. Group DRO) para acotar el rendimiento del grupo más perjudicado.",
zh = "在所有子群体上取得的最大损失;在分布鲁棒优化(如 Group DRO)中通过最小化此损失来约束最差群体的表现。",
article = nil,
}
data["wrench-resistance score"] = {
short = "A grasp-quality metric that measures the maximum external wrench (force–torque combination) a grasp can resist before failing, given friction and contact constraints; higher scores indicate more robust grasps.",
es = "Métrica de calidad de agarre que mide la fuerza-momento externa máxima (wrench) que un agarre puede resistir antes de fallar, dadas las restricciones de fricción y contacto; valores más altos indican agarres más robustos.",
zh = "一种抓取质量度量,衡量在给定摩擦和接触约束下,抓取在失效前所能抵抗的最大外部力-力矩组合(wrench);分数越高表示抓取越稳健。",
article = nil,
}
data["wrist camera"] = {
short = "A camera mounted on or near a robot's end-effector that provides close-up egocentric views of the gripper and target objects, widely used in visuomotor learning and visual servoing for fine manipulation.",
es = "Cámara montada en o cerca del efector final de un robot que proporciona vistas egocéntricas en primer plano de la pinza y los objetos objetivo, muy utilizada en aprendizaje visuomotor y servocontrol visual para manipulación fina.",
zh = "安装在机器人末端执行器上或附近的相机,提供夹爪及目标物体的近距离自我中心视角,广泛用于视觉运动学习和精细操作的视觉伺服。",
article = nil,
}
data["wsj corpus"] = {
short = "The Wall Street Journal speech corpus, a read-speech dataset of news text recordings (WSJ0 and WSJ1) released by LDC in the 1990s, long used as a benchmark for English ASR.",
es = "Corpus de voz del Wall Street Journal, un conjunto de grabaciones de lectura de textos de noticias (WSJ0 y WSJ1) publicado por LDC en los años 90; ha sido durante mucho tiempo una referencia en reconocimiento de voz en inglés.",
zh = "华尔街日报语音语料库,由 LDC 于 1990 年代发布的新闻朗读语音数据集(包含 WSJ0 与 WSJ1),长期作为英语语音识别的基准。",
article = nil,
}
data["x-13arima-seats"] = {
short = "A seasonal adjustment program developed by the U.S. Census Bureau that combines the X-12-ARIMA enhancements with the SEATS (Signal Extraction in ARIMA Time Series) model-based decomposition. It is the standard tool for official seasonal adjustment of economic time series.",
es = "Programa de ajuste estacional desarrollado por la Oficina del Censo de Estados Unidos que combina las mejoras de X-12-ARIMA con la descomposición basada en modelos SEATS (Signal Extraction in ARIMA Time Series). Es la herramienta estándar para el ajuste estacional oficial de series temporales económicas.",
zh = "美国人口普查局开发的季节调整程序,结合了 X-12-ARIMA 的增强功能与 SEATS(ARIMA 时间序列信号提取)的基于模型的分解方法,是官方经济时间序列季节调整的标准工具。",
article = nil,
}
data["x-chromosome inactivation"] = {
short = "An epigenetic process in mammalian female cells in which one of the two X chromosomes is transcriptionally silenced—initiated by the long non-coding RNA Xist—to equalize X-linked gene dosage between sexes.",
es = "Proceso epigenético en células femeninas de mamíferos por el cual uno de los dos cromosomas X se silencia transcripcionalmente —iniciado por el ARN largo no codificante Xist— para igualar la dosis de genes ligados al X entre sexos.",
zh = "哺乳动物雌性细胞中,一条 X 染色体在转录上被沉默的表观遗传过程——由长非编码 RNA Xist 启动——用于平衡两性间 X 连锁基因的剂量。",
article = nil,
}
data["x-learner"] = {
short = "A meta-learner for estimating heterogeneous treatment effects that imputes individual treatment effects using outcome models fit separately on treated and control units, then combines the resulting effect estimators with a propensity-score weighting. Particularly effective when treatment groups are unbalanced.",
es = "Meta-aprendiz para estimar efectos de tratamiento heterogéneos que imputa efectos individuales usando modelos de resultado ajustados por separado en tratados y controles, y combina los estimadores resultantes con una ponderación por puntaje de propensión. Especialmente efectivo cuando los grupos de tratamiento están desbalanceados.",
zh = "一种用于估计异质处理效应的元学习器,分别在处理组和对照组拟合结果模型以推算个体处理效应,再用倾向得分加权将所得估计组合起来。在处理组规模不均衡时尤为有效。",
article = nil,
}
data["x-vector"] = {
short = "A fixed-dimensional speaker embedding produced by a TDNN trained for speaker classification, where the segment-level statistics-pooling layer's output is projected to a discriminative speaker representation.",
es = "Embedding de hablante de dimensión fija producido por una TDNN entrenada para clasificación de hablantes, donde la salida de la capa de agrupamiento estadístico a nivel de segmento se proyecta a una representación discriminativa del hablante.",
zh = "由用于说话人分类的 TDNN 生成的固定维度说话人嵌入,将段级统计池化层的输出投影为具区分力的说话人表示。",
article = nil,
}
data["x11 decomposition"] = {
short = "A classical seasonal decomposition method developed at the U.S. Census Bureau that splits a time series into trend, seasonal, and irregular components through iterative application of moving-average filters. It is the predecessor of X-12-ARIMA and X-13ARIMA-SEATS.",
es = "Método clásico de descomposición estacional desarrollado en la Oficina del Censo de Estados Unidos que separa una serie temporal en componentes de tendencia, estacionalidad e irregularidad mediante la aplicación iterativa de filtros de medias móviles. Es el predecesor de X-12-ARIMA y X-13ARIMA-SEATS.",
zh = "美国人口普查局开发的经典季节分解方法,通过迭代应用移动平均滤波器将时间序列分解为趋势、季节性和不规则成分。它是 X-12-ARIMA 和 X-13ARIMA-SEATS 的前身。",
article = nil,
}
data["xai benchmark"] = {
short = "A standardized dataset, task suite, or evaluation protocol for comparing explainable AI methods on properties such as faithfulness, robustness, and human utility.",
es = "Conjunto de datos, batería de tareas o protocolo de evaluación estandarizado para comparar métodos de IA explicable en propiedades como fidelidad, robustez y utilidad para humanos.",
zh = "用于比较可解释 AI 方法的标准化数据集、任务套件或评估协议,关注忠实度、鲁棒性和对人类的实用性等属性。",
article = nil,
}
data["xavier initialization"] = {
short = "Weight initialization scheme that draws weights from a distribution with variance 1 / fan_in (or 2 / (fan_in + fan_out)). Designed for tanh/sigmoid networks to keep activation variance roughly constant across layers.",
es = "Esquema de inicialización de pesos que muestrea desde una distribución con varianza 1 / fan_in (o 2 / (fan_in + fan_out)). Diseñado para redes con tanh/sigmoide para mantener aproximadamente constante la varianza de las activaciones entre capas.",
zh = "一种权重初始化方法,从方差为 1 / fan_in(或 2 / (fan_in + fan_out))的分布中采样。针对 tanh/Sigmoid 网络设计,可在各层间保持激活方差大致恒定。",
article = nil,
}
data["xdeepfm"] = {
short = "A click-through-rate prediction model that combines a Compressed Interaction Network (CIN), which generates explicit vector-wise feature interactions of arbitrary order, with a parallel deep neural network and a linear part, jointly learned end-to-end.",
es = "Modelo de predicción de tasa de clics que combina una Red de Interacción Comprimida (CIN), que genera interacciones explícitas de características a nivel de vector y de orden arbitrario, con una red neuronal profunda paralela y una parte lineal, aprendidas conjuntamente de extremo a extremo.",
zh = "一种点击率预测模型,将压缩交互网络(CIN,在向量级别生成任意阶的显式特征交互)与并行的深度神经网络以及线性部分结合,端到端联合训练。",
article = nil,
}
data["xenium"] = {
short = "A 10x Genomics in situ spatial transcriptomics platform that uses padlock probes and rolling-circle amplification to image hundreds of pre-selected transcripts at subcellular resolution in tissue sections.",
es = "Plataforma de transcriptómica espacial in situ de 10x Genomics que utiliza sondas tipo padlock y amplificación por círculo rodante para visualizar cientos de transcritos preseleccionados con resolución subcelular en secciones de tejido.",
zh = "10x Genomics 推出的原位空间转录组学平台,利用挂锁探针和滚环扩增技术,在组织切片中以亚细胞分辨率成像数百种预先选定的转录本。",
article = nil,
}
data["xgboost ranking"] = {
short = "Use of the XGBoost gradient-boosted-tree library with pairwise or listwise ranking objectives (rank:pairwise, rank:ndcg, rank:map) for learning-to-rank tasks such as search and recommendation.",
es = "Uso de la biblioteca XGBoost de árboles potenciados por gradiente con objetivos de ranking por pares o por listas (rank:pairwise, rank:ndcg, rank:map) para tareas de aprendizaje del ranking, como búsqueda y recomendación.",
zh = "使用 XGBoost 梯度提升树库,搭配成对或列表式排序目标(rank:pairwise、rank:ndcg、rank:map),完成搜索与推荐等学习排序任务。",
article = nil,
}
data["xgnn"] = {
short = "A model-level explainability method for graph neural networks that generates class-discriminative graph patterns (subgraphs) by training a graph generator with reinforcement learning to reveal what input structures the GNN associates with a target prediction.",
es = "Método de explicabilidad a nivel de modelo para redes neuronales de grafos que genera patrones de grafo discriminativos por clase mediante un generador entrenado con aprendizaje por refuerzo, revelando qué estructuras de entrada asocia la GNN a una predicción.",
zh = "一种面向图神经网络的模型级可解释性方法,通过强化学习训练图生成器,生成对目标类别具有判别性的子图模式,揭示 GNN 将哪些输入结构与某一预测相关联。",
article = nil,
}
data["xgrad-cam"] = {
short = "An axiomatic refinement of Grad-CAM that derives convolutional feature-map weights from the requirements of sensitivity and conservation, producing class-activation maps with stronger theoretical grounding for CNN explanations.",
es = "Refinamiento axiomático de Grad-CAM que deriva los pesos de los mapas de características convolucionales a partir de las propiedades de sensibilidad y conservación, produciendo mapas de activación por clase con mejor fundamento teórico.",
zh = "Grad-CAM 的公理化改进版本,从敏感性和守恒性两条公理出发推导卷积特征图的权重,得到具有更强理论依据的类激活图。",
article = nil,
}
data["xgrammar"] = {
short = "An open-source library for fast structured generation from large language models, enforcing context-free grammars or JSON schemas via a token-level mask computed from a compressed pushdown automaton.",
es = "Biblioteca de código abierto para generación estructurada eficiente de modelos de lenguaje grandes, que impone gramáticas libres de contexto o esquemas JSON mediante una máscara a nivel de token calculada con un autómata de pila comprimido.",
zh = "一个用于大语言模型高效结构化生成的开源库,通过基于压缩下推自动机计算的词元级掩码来强制执行上下文无关文法或 JSON 模式。",
article = nil,
}
data["xls-r"] = {
short = "A self-supervised cross-lingual speech representation model from Meta AI, scaling wav2vec 2.0 pretraining to 128 languages and up to 2 billion parameters for multilingual speech tasks.",
es = "Modelo autosupervisado de representaciones de voz multilingües de Meta AI, que escala el preentrenamiento de wav2vec 2.0 a 128 idiomas y hasta 2 mil millones de parámetros para tareas de voz multilingüe.",
zh = "Meta AI 提出的自监督跨语言语音表示模型,将 wav2vec 2.0 预训练扩展到 128 种语言、最多 20 亿参数,用于多语言语音任务。",
article = nil,
}
data["xlsr-53"] = {
short = "An earlier cross-lingual self-supervised speech model from Meta AI based on wav2vec 2.0, pretrained jointly on 53 languages and used as the basis for low-resource ASR fine-tuning.",
es = "Modelo autosupervisado multilingüe anterior de Meta AI, basado en wav2vec 2.0 y preentrenado conjuntamente en 53 idiomas; utilizado como base para el ajuste fino de reconocimiento de voz en idiomas con pocos recursos.",
zh = "Meta AI 较早的跨语言自监督语音模型,基于 wav2vec 2.0 在 53 种语言上联合预训练,常作为低资源语音识别微调的基础模型。",
article = nil,
}
data["xnas"] = {
short = "An exponentiated-gradient differentiable NAS algorithm that uses a multiplicative-weights update on architecture parameters with no-regret guarantees, improving over softmax-based DARTS in stability and final accuracy.",
es = "Algoritmo diferenciable de búsqueda de arquitecturas neuronales con gradiente exponenciado que aplica una actualización multiplicativa sobre los parámetros de arquitectura con garantías de no-arrepentimiento, mejorando la estabilidad y la precisión final frente al DARTS basado en softmax.",
zh = "一种基于指数化梯度的可微神经架构搜索算法,对架构参数采用具有无悔保证的乘性权重更新,在稳定性和最终精度上优于基于softmax的DARTS。",
article = nil,
}
data["xstest"] = {
short = "A benchmark of 250 safe and 200 unsafe prompts designed to expose exaggerated safety behavior in large language models, measuring how often a model refuses harmless queries that superficially resemble harmful ones.",
es = "Conjunto de evaluación de 250 instrucciones seguras y 200 inseguras diseñado para exponer comportamientos de seguridad exagerados en modelos de lenguaje, midiendo con qué frecuencia un modelo rechaza consultas inofensivas que se parecen superficialmente a consultas dañinas.",
zh = "一个包含 250 条安全提示和 200 条不安全提示的基准测试,用于揭示大语言模型中过度安全的行为,衡量模型拒绝表面上类似有害请求的无害查询的频率。",
article = nil,
}
data["xtts"] = {
short = "Coqui's open-source zero-shot multilingual text-to-speech model that clones a target voice from a short reference clip and synthesizes speech in many languages without per-speaker fine-tuning.",
es = "Modelo de síntesis de voz multilingüe de tipo zero-shot y código abierto de Coqui que clona una voz objetivo a partir de un breve clip de referencia y sintetiza voz en muchos idiomas sin ajuste fino por hablante.",
zh = "Coqui 开源的零样本多语言文本转语音模型,可从一段短参考音频克隆目标声音,并在多种语言下生成语音,无需对每位说话人进行微调。",
article = nil,
}
data["xtts-v2"] = {
short = "An open-source multilingual text-to-speech model released by Coqui that performs zero-shot voice cloning from a few seconds of reference audio across 16 languages.",
es = "Modelo multilingüe de texto a voz de código abierto publicado por Coqui que realiza clonación de voz de forma zero-shot a partir de unos pocos segundos de audio de referencia, con soporte para 16 idiomas.",
zh = "Coqui 发布的开源多语言文本转语音模型,可基于几秒钟参考音频在 16 种语言上实现零样本语音克隆。",
article = nil,
}
data["xy model"] = {
short = "A classical lattice spin model in which each site carries a continuous unit vector confined to a plane and interacts ferromagnetically with its neighbors; in two dimensions it exhibits the Berezinskii-Kosterlitz-Thouless transition.",
es = "Modelo clásico de espines en una red en el que cada sitio porta un vector unitario continuo confinado a un plano e interactúa ferromagnéticamente con sus vecinos; en dos dimensiones exhibe la transición de Berezinskii-Kosterlitz-Thouless.",
zh = "一种经典晶格自旋模型,每个格点带有限制在平面内的连续单位向量并与近邻铁磁耦合;二维时呈现 Berezinskii-Kosterlitz-Thouless 相变。",
article = nil,
}
data["yago knowledge base"] = {
short = "A large multilingual knowledge graph automatically built from Wikipedia, WordNet, and GeoNames, providing millions of entities and facts with a clean ontology and high-precision typing.",
es = "Gran grafo de conocimiento multilingüe construido automáticamente a partir de Wikipedia, WordNet y GeoNames, que ofrece millones de entidades y hechos con una ontología limpia y un tipado de alta precisión.",
zh = "一个大规模多语言知识图谱,通过自动整合 Wikipedia、WordNet 和 GeoNames 构建,包含数百万个实体和事实,具有清晰的本体结构和高精度的类型标注。",
article = nil,
}
data["yago3-10"] = {
short = "A benchmark subset of the YAGO3 knowledge graph containing entities with at least ten relations, widely used for evaluating link prediction and knowledge-graph embedding models.",
es = "Subconjunto de referencia del grafo de conocimiento YAGO3 que contiene entidades con al menos diez relaciones, ampliamente usado para evaluar modelos de predicción de enlaces e incrustación de grafos de conocimiento.",
zh = "YAGO3 知识图谱的一个基准子集,只保留至少具有十个关系的实体,被广泛用于评估链接预测和知识图谱嵌入模型。",
article = nil,
}
data["yamnet"] = {
short = "An audio event classifier from Google based on a MobileNetV1 backbone trained on the AudioSet ontology to predict 521 sound classes from log-mel spectrograms.",
es = "Clasificador de eventos sonoros de Google basado en una arquitectura MobileNetV1, entrenado sobre la ontología AudioSet para predecir 521 clases de sonido a partir de espectrogramas log-mel.",
zh = "Google 的音频事件分类器,基于 MobileNetV1 架构在 AudioSet 标签体系上训练,从对数梅尔频谱预测 521 类声音。",
article = nil,
}
data["yao protocol"] = {
short = "A two-party secure computation protocol, originally proposed by Andrew Yao, that evaluates an arbitrary boolean circuit on private inputs by garbling the circuit and using oblivious transfer. Foundational construction for general-purpose secure multi-party computation.",
es = "Protocolo de computación segura entre dos partes, propuesto originalmente por Andrew Yao, que evalúa un circuito booleano arbitrario sobre entradas privadas mediante el cifrado del circuito (garbling) y la transferencia oblivia. Construcción fundamental de la computación multipartita segura de propósito general.",
zh = "由姚期智最早提出的两方安全计算协议,通过对布尔电路进行混淆(garbling)并结合不经意传输,在私有输入上对任意布尔电路求值。是通用安全多方计算的基础构造。",
article = nil,
}
data["yarn extension"] = {
short = "A context-window extension method for RoPE-based language models that interpolates rotary embeddings non-uniformly across frequency bands, enabling much longer contexts than training with little additional fine-tuning.",
es = "Método de extensión de la ventana de contexto para modelos de lenguaje basados en RoPE que interpola las codificaciones rotatorias de forma no uniforme entre bandas de frecuencia, permitiendo contextos mucho más largos que los del entrenamiento con poco ajuste fino adicional.",
zh = "一种针对基于 RoPE 的语言模型的上下文窗口扩展方法,对旋转位置编码在不同频段进行非均匀插值,仅需少量额外微调即可支持远超训练长度的上下文。",
article = nil,
}
data["yearly seasonality"] = {
short = "A periodic component of a time series that repeats with a one-year cycle, capturing recurring patterns driven by calendar effects, weather, holidays, or business cycles. Common in retail sales, energy demand, and tourism data.",
es = "Componente periódico de una serie temporal que se repite con un ciclo de un año, capturando patrones recurrentes provocados por efectos de calendario, clima, festividades o ciclos económicos. Frecuente en datos de ventas minoristas, demanda energética y turismo.",
zh = "时间序列中以一年为周期重复的周期性成分,捕捉由日历效应、天气、节假日或经济周期驱动的循环模式。常见于零售销售、能源需求和旅游数据。",
article = nil,
}
data["yeo-johnson transformation"] = {
short = "A power transformation that extends the Box-Cox transformation to support both positive and negative values, parameterized by a single λ that is typically chosen to maximize the likelihood under a Gaussian assumption. Used to stabilize variance and reduce skewness in time series and regression inputs.",
es = "Transformación de potencia que extiende la transformación de Box-Cox para admitir valores tanto positivos como negativos, parametrizada por un único λ que normalmente se elige maximizando la verosimilitud bajo un supuesto gaussiano. Se utiliza para estabilizar la varianza y reducir la asimetría en series temporales y entradas de regresión.",
zh = "一种幂变换,将 Box-Cox 变换扩展到同时支持正值和负值,由单一参数 λ 控制,通常通过在高斯假设下最大化似然来选取。用于稳定方差并降低时间序列和回归输入的偏度。",
article = nil,
}
data["yfcc100m"] = {
short = "Yahoo Flickr Creative Commons 100 Million; a dataset of about 100 million Flickr images and videos under Creative Commons licenses with rich metadata including titles, tags, descriptions, and geolocation.",
es = "Yahoo Flickr Creative Commons 100 Million; un conjunto de datos con aproximadamente 100 millones de imágenes y videos de Flickr bajo licencias Creative Commons, con metadatos detallados como títulos, etiquetas, descripciones y geolocalización.",
zh = "Yahoo Flickr Creative Commons 100 Million;一个包含约一亿张 Flickr 图像和视频的数据集,均采用知识共享许可,并附有标题、标签、描述和地理位置等丰富元数据。",
article = nil,
}
data["yfcc15m"] = {
short = "A 15-million-pair English-captioned subset of YFCC100M curated by OpenAI for the original CLIP paper; commonly used as a smaller-scale benchmark for contrastive vision-language pretraining.",
es = "Un subconjunto de 15 millones de pares con descripciones en inglés extraído de YFCC100M y curado por OpenAI para el artículo original de CLIP; se usa habitualmente como referencia a menor escala para el preentrenamiento contrastivo de visión y lenguaje.",
zh = "YFCC100M 的一个一千五百万英文配对子集,由 OpenAI 为原始 CLIP 论文整理而成,常用作较小规模的对比式视觉-语言预训练基准。",
article = nil,
}
data["yi-34b"] = {
short = "A 34-billion-parameter open-weight bilingual (English and Chinese) large language model released by 01.AI, trained on a 3-trillion-token corpus and supporting context lengths up to 200K tokens in extended variants.",
es = "Modelo de lenguaje grande bilingüe (inglés y chino) de pesos abiertos con 34 mil millones de parámetros publicado por 01.AI, entrenado con un corpus de 3 billones de tokens y con soporte de contextos de hasta 200K tokens en sus variantes extendidas.",
zh = "由 01.AI 发布的 340 亿参数开源双语(中英)大语言模型,在 3 万亿词元语料上训练,扩展版本支持最长 200K 词元的上下文。",
article = nil,
}
data["yi-vl"] = {
short = "An open-weight multimodal vision-language model from 01.AI built on the Yi base model, supporting English and Chinese image-grounded conversation and visual question answering.",
es = "Modelo multimodal visión-lenguaje de pesos abiertos de 01.AI construido sobre el modelo base Yi, con soporte para conversación basada en imágenes y respuesta a preguntas visuales en inglés y chino.",
zh = "由 01.AI 发布、基于 Yi 基础模型构建的开源多模态视觉语言模型,支持中英文图像对话和视觉问答。",
article = nil,
}
data["yin pitch"] = {
short = "A classical autocorrelation-based fundamental-frequency estimation algorithm by de Cheveigné and Kawahara that uses a difference function with a cumulative-mean normalization to robustly detect pitch in monophonic signals.",
es = "Algoritmo clásico de estimación de frecuencia fundamental basado en autocorrelación, propuesto por de Cheveigné y Kawahara, que usa una función de diferencia con normalización por media acumulada para detectar de forma robusta el tono en señales monofónicas.",
zh = "de Cheveigné 与 Kawahara 提出的经典基频估计算法,基于自相关,使用累积均值归一化的差分函数,能在单音信号中稳健地检测音高。",
article = nil,
}
data["yolo"] = {
short = "A family of single-stage object detectors, beginning with Redmon et al. in 2016, that frames detection as a single regression from image pixels to bounding box coordinates and class probabilities, prioritizing real-time inference. Variants include YOLOv1 through YOLOv8 and beyond.",
es = "Familia de detectores de objetos de una sola etapa, iniciada por Redmon et al. en 2016, que plantea la detección como una única regresión desde los píxeles de la imagen hacia las coordenadas de caja delimitadora y las probabilidades de clase, priorizando la inferencia en tiempo real. Las variantes incluyen YOLOv1 a YOLOv8 y posteriores.",
zh = "由 Redmon 等人于 2016 年开创的一族单阶段目标检测器,将检测视为从图像像素到边界框坐标和类别概率的单次回归,优先考虑实时推理。变体包括 YOLOv1 至 YOLOv8 及之后版本。",
article = nil,
}
data["youcook2"] = {
short = "An instructional cooking video dataset of 2000 untrimmed YouTube videos with temporally localized natural-language descriptions of recipe steps; used for video grounding, captioning, and procedural understanding benchmarks.",
es = "Un conjunto de datos de videos instructivos de cocina compuesto por 2000 vídeos no recortados de YouTube con descripciones en lenguaje natural localizadas temporalmente para los pasos de las recetas; se utiliza en pruebas de anclaje, descripción y comprensión procedimental de video.",
zh = "一个烹饪教学视频数据集,包含 2000 段未剪辑的 YouTube 视频,并附有按时间定位的菜谱步骤自然语言描述;用于视频时序定位、描述生成与程序性理解基准。",
article = nil,
}
data["yourtts"] = {
short = "An open-source zero-shot multi-speaker, multilingual TTS model based on VITS that conditions on speaker embeddings to synthesize new voices from a few seconds of reference audio.",
es = "Modelo de síntesis de voz multilocutor y multilingüe de tipo zero-shot y código abierto, basado en VITS, que se condiciona en embeddings de hablante para sintetizar nuevas voces a partir de unos segundos de audio de referencia.",
zh = "基于 VITS 的开源零样本多说话人多语言语音合成模型,通过说话人嵌入条件化,从数秒参考音频合成新的声音。",
article = nil,
}
data["youtubednn"] = {
short = "A two-stage deep recommender deployed at YouTube where a candidate-generation network maps users to a softmax over millions of videos for retrieval, followed by a deep ranker trained as weighted logistic regression on watch time.",
es = "Recomendador profundo en dos etapas desplegado en YouTube, donde una red de generación de candidatos mapea a los usuarios a una softmax sobre millones de vídeos para la recuperación, seguida de un ranker profundo entrenado como regresión logística ponderada sobre el tiempo de visualización.",
zh = "YouTube 部署的两阶段深度推荐系统:候选生成网络将用户映射到对数百万视频的 softmax 用于召回,随后由深度排序模型以观看时长上的加权逻辑回归进行训练。",
article = nil,
}
data["yule-simpson paradox"] = {
short = "A statistical phenomenon in which a trend or association observed within each subgroup of a population reverses or disappears when the subgroups are aggregated. It illustrates how confounding can produce misleading marginal associations.",
es = "Fenómeno estadístico en el que una tendencia o asociación observada dentro de cada subgrupo de una población se invierte o desaparece al agregar los subgrupos. Ilustra cómo el confundido puede producir asociaciones marginales engañosas.",
zh = "一种统计现象:在总体的每个子群体中观察到的趋势或关联,在合并各子群体后会发生反转或消失。它说明了混杂因素如何导致具有误导性的边际关联。",
article = nil,
}
data["zermelo-fraenkel axioms"] = {
short = "The standard axiomatic foundation of set theory, consisting of the Zermelo–Fraenkel axioms (often combined with the axiom of choice as ZFC) from which most of contemporary mathematics can be derived.",
es = "Fundamento axiomático estándar de la teoría de conjuntos, formado por los axiomas de Zermelo–Fraenkel (a menudo junto con el axioma de elección como ZFC), del cual puede derivarse la mayor parte de la matemática contemporánea.",
zh = "集合论的标准公理基础,由策梅洛–弗兰克尔公理组成(常与选择公理一起记为 ZFC),当代数学的大部分可由此推导。",
article = nil,
}
data["zero moment point"] = {
short = "A point on the ground where the resultant moment of contact reaction forces has no horizontal component; commonly used as a stability criterion for biped and humanoid locomotion when the foot remains flat on the ground.",
es = "Punto en el suelo donde el momento resultante de las fuerzas de reacción de contacto no tiene componente horizontal; se utiliza habitualmente como criterio de estabilidad en la locomoción bípeda y humanoide cuando el pie permanece apoyado en el suelo.",
zh = "地面上一点,其上接触反作用力的合力矩在水平方向上分量为零;常用作双足和人形机器人行走时(脚掌平放于地面)的稳定性判据。",
article = nil,
}
data["zero operation"] = {
short = "A candidate operation in NAS search spaces that outputs all zeros, effectively disconnecting two nodes; selecting it lets the search prune edges and learn the connectivity pattern of the cell.",
es = "Operación candidata en espacios de búsqueda NAS que produce todo ceros, desconectando efectivamente dos nodos; seleccionarla permite a la búsqueda podar aristas y aprender el patrón de conectividad de la celda.",
zh = "NAS搜索空间中的一种候选操作,其输出全为零,相当于断开两个节点之间的连接;选择该操作可让搜索剪除边并学习单元的连通模式。",
article = nil,
}
data["zero optimizer states"] = {
short = "ZeRO (Zero Redundancy Optimizer): a family of memory-optimization stages from DeepSpeed that shard optimizer states (Stage 1), gradients (Stage 2), and parameters (Stage 3) across data-parallel ranks, enabling training of models far larger than a single device's memory.",
es = "ZeRO (Zero Redundancy Optimizer): familia de etapas de optimización de memoria de DeepSpeed que distribuyen los estados del optimizador (Etapa 1), los gradientes (Etapa 2) y los parámetros (Etapa 3) entre los rangos de paralelismo de datos, permitiendo entrenar modelos mucho mayores que la memoria de un solo dispositivo.",
zh = "ZeRO(Zero Redundancy Optimizer,零冗余优化器):DeepSpeed 提出的一系列显存优化阶段,将优化器状态(Stage 1)、梯度(Stage 2)和参数(Stage 3)切分到各数据并行进程,使可训练模型规模远超单卡显存。",
article = nil,
}
data["zero-2 sharding"] = {
short = "The second stage of the ZeRO memory optimizer, which shards optimizer states and gradients across data-parallel workers while keeping a full copy of model parameters on every worker. Reduces per-device memory roughly proportionally to the data-parallel degree.",
es = "Segunda etapa del optimizador de memoria ZeRO, que reparte (shards) los estados del optimizador y los gradientes entre los trabajadores en paralelismo de datos, manteniendo una copia completa de los parámetros del modelo en cada uno. Reduce la memoria por dispositivo de forma aproximadamente proporcional al grado de paralelismo de datos.",
zh = "ZeRO 内存优化器的第二阶段,将优化器状态和梯度在数据并行的各工作节点间分片,同时在每个节点上保留模型参数的完整副本。可使每设备显存占用大致按数据并行度缩减。",
article = nil,
}
data["zero-3 sharding"] = {
short = "The third stage of the ZeRO memory optimizer, which shards optimizer states, gradients, and model parameters across data-parallel workers, gathering parameter shards on demand during forward and backward passes. Enables training of models too large to fit on a single device.",
es = "Tercera etapa del optimizador de memoria ZeRO, que reparte estados del optimizador, gradientes y parámetros del modelo entre los trabajadores en paralelismo de datos, recopilando los fragmentos de parámetros bajo demanda durante las pasadas hacia adelante y hacia atrás. Permite entrenar modelos demasiado grandes para caber en un solo dispositivo.",
zh = "ZeRO 内存优化器的第三阶段,将优化器状态、梯度和模型参数同时在数据并行的各工作节点间分片,并在前向和反向传播时按需收集参数分片。能够训练单设备无法容纳的超大规模模型。",
article = nil,
}
data["zero-cost nas"] = {
short = "Neural architecture search that ranks candidates using zero-cost proxies — scores computed from a single mini-batch forward/backward pass — instead of training, enabling search in CPU-minutes.",
es = "Búsqueda de arquitecturas neuronales que clasifica candidatos mediante proxies de costo cero — puntuaciones calculadas a partir de una única pasada hacia adelante/atrás sobre un mini-lote — en lugar de entrenar, permitiendo búsquedas en minutos de CPU.",
zh = "一种神经架构搜索方法,使用零成本代理(仅需一次小批量前向/反向传播即可计算的得分)对候选架构进行排序,而无需训练,可在CPU分钟级完成搜索。",
article = nil,
}
data["zero-cost proxies"] = {
short = "Cheap-to-compute scores (e.g., grad_norm, snip, grasp, fisher, synflow, NTK condition number, jacobian covariance) that approximate an architecture's trainability or final accuracy from one mini-batch, used to rank candidates in zero-cost NAS.",
es = "Puntuaciones de cómputo barato (p. ej., grad_norm, snip, grasp, fisher, synflow, número de condición del NTK, covarianza jacobiana) que aproximan la entrenabilidad o la precisión final de una arquitectura a partir de un mini-lote, usadas para clasificar candidatos en NAS de costo cero.",
zh = "一组计算开销极小的指标(如grad_norm、snip、grasp、fisher、synflow、NTK条件数、雅可比协方差),仅用一个小批量即可近似估计架构的可训练性或最终精度,用于零成本NAS中的候选排序。",
article = nil,
}
data["zero-crossing rate"] = {
short = "A simple signal feature defined as the rate at which a waveform changes sign per unit time, used in voiced/unvoiced detection, percussive-onset estimation, and basic audio classification.",
es = "Característica simple de la señal definida como la frecuencia con la que una forma de onda cambia de signo por unidad de tiempo; se utiliza en detección de voz/no voz, estimación de inicios percusivos y clasificación básica de audio.",
zh = "一种简单的信号特征,定义为单位时间内波形改变符号的次数,常用于浊音/清音检测、打击声起始点估计以及基本的音频分类。",
article = nil,
}
data["zero-inflated single-cell"] = {
short = "Statistical models for single-cell RNA-seq counts that combine a point mass at zero (representing technical dropouts) with a count distribution (typically negative binomial), used by tools such as ZINB-WaVE and SCDE to handle excess zeros.",
es = "Modelos estadísticos para conteos de RNA-seq de célula única que combinan una masa puntual en cero (que representa abandonos técnicos) con una distribución de conteos (habitualmente binomial negativa), usados por herramientas como ZINB-WaVE y SCDE para manejar el exceso de ceros.",
zh = "针对单细胞 RNA-seq 计数的统计模型,将零处的点质量(表示技术性丢失)与计数分布(通常为负二项分布)相结合,用于处理过多的零值;ZINB-WaVE、SCDE 等工具采用此类模型。",
article = nil,
}
data["zero-knowledge proof"] = {
short = "A cryptographic protocol in which a prover convinces a verifier that a statement is true without revealing any information beyond the fact that the statement holds. Underpins privacy-preserving authentication, verifiable computation, and several blockchain primitives.",
es = "Protocolo criptográfico en el que un demostrador convence a un verificador de que una afirmación es cierta sin revelar más información que la propia validez de la afirmación. Sustenta la autenticación con preservación de la privacidad, la computación verificable y varias primitivas de blockchain.",
zh = "一种密码学协议,证明者向验证者证明某陈述为真,同时不泄露除该陈述成立之外的任何信息。它是隐私保护身份验证、可验证计算以及多种区块链原语的基础。",
article = nil,
}
data["zero-shot forecasting"] = {
short = "Producing forecasts for a target time series without any task-specific training on that series, typically by leveraging a pretrained time-series foundation model that generalizes across domains. Contrasts with classical per-series fitting and with supervised fine-tuning.",
es = "Generación de pronósticos para una serie temporal objetivo sin entrenamiento específico sobre esa serie, normalmente aprovechando un modelo fundacional de series temporales preentrenado que generaliza entre dominios. Se diferencia del ajuste clásico serie a serie y del fine-tuning supervisado.",
zh = "在目标时间序列上无需任何针对性训练即可生成预测,通常依靠在多领域上预训练并具备泛化能力的时间序列基础模型。与经典的逐序列拟合以及有监督微调形成对比。",
article = nil,
}
data["zero-shot generalization rl"] = {
short = "The capability of a reinforcement learning policy to perform well on environments, tasks, or levels never seen during training, typically evaluated on procedurally generated benchmarks (e.g., Procgen) or held-out task variants.",
es = "Capacidad de una política de aprendizaje por refuerzo para desempeñarse bien en entornos, tareas o niveles nunca vistos durante el entrenamiento, evaluada típicamente en bancos de pruebas generados proceduralmente (p. ej., Procgen) o en variantes de tarea reservadas.",
zh = "强化学习策略对训练中从未见过的环境、任务或关卡的良好泛化能力,通常通过在程序化生成基准(如 Procgen)或保留任务变体上的表现进行评估。",
article = nil,
}
data["zero-shot image-text retrieval"] = {
short = "Cross-modal retrieval evaluation in which a vision-language model trained without supervision on the target dataset must retrieve images given text queries, or text given image queries; a canonical benchmark for CLIP-style contrastive models.",
es = "Evaluación de recuperación cross-modal en la que un modelo de visión y lenguaje, sin entrenamiento supervisado sobre el conjunto objetivo, debe recuperar imágenes a partir de consultas de texto, o texto a partir de consultas de imagen; es una prueba canónica para modelos contrastivos del estilo CLIP.",
zh = "一种跨模态检索评测:视觉-语言模型在目标数据集上未经过有监督训练的情况下,需要根据文本查询检索图像,或根据图像查询检索文本;是 CLIP 类对比模型的典型基准。",
article = nil,
}
data["zero-shot learning"] = {
short = "Performing a task on classes or instructions that were not seen during training, typically by relying on semantic descriptions, attributes, or large pre-trained models conditioned on task instructions.",
es = "Realización de una tarea sobre clases o instrucciones que no se observaron durante el entrenamiento, normalmente apoyándose en descripciones semánticas, atributos o modelos preentrenados condicionados por instrucciones.",
zh = "在训练期间未见过的类别或指令上完成任务,通常依赖语义描述、属性或受任务指令条件化的大型预训练模型。",
article = nil,
}
data["zero-shot manipulation"] = {
short = "Robot manipulation in which the policy executes new tasks, objects, or scenes that were not seen during training, typically by leveraging large pretrained vision-language models, foundation policies, or compositional reasoning.",
es = "Manipulación robótica en la que la política ejecuta tareas, objetos o escenas nuevas no vistas durante el entrenamiento, normalmente aprovechando grandes modelos preentrenados de visión-lenguaje, políticas fundacionales o razonamiento composicional.",
zh = "一种机器人操作方式,策略能够执行训练中未见过的新任务、新物体或新场景,通常借助大型预训练视觉-语言模型、基础策略或组合式推理实现。",
article = nil,
}
data["zero-shot nas"] = {
short = "Neural architecture search that selects an architecture without training any candidate, relying entirely on zero-cost proxies, theoretical priors, or pretrained predictors evaluated on the unrolled architecture.",
es = "Búsqueda de arquitecturas neuronales que selecciona una arquitectura sin entrenar ningún candidato, basándose por completo en proxies de costo cero, priors teóricos o predictores preentrenados evaluados sobre la arquitectura desplegada.",
zh = "一种神经架构搜索方法,完全不训练任何候选架构,仅依靠零成本代理、理论先验或预训练预测器对展开的架构进行评估来选择最终架构。",
article = nil,
}
data["zero-shot policy"] = {
short = "A reinforcement learning policy applied directly to a new task or environment without any task-specific fine-tuning, typically obtained via meta-learning, large-scale multitask pretraining, or conditioning a generalist policy on task descriptors or goals.",
es = "Política de aprendizaje por refuerzo aplicada directamente a una nueva tarea o entorno sin ningún ajuste fino específico de la tarea; suele obtenerse mediante meta-aprendizaje, preentrenamiento multitarea a gran escala o condicionando una política generalista sobre descriptores u objetivos de la tarea.",
zh = "无需任何针对该任务的微调即可直接部署到新任务或新环境的强化学习策略,通常通过元学习、大规模多任务预训练,或将通用策略以任务描述或目标作为条件来获得。",
article = nil,
}
data["zero-shot prompting"] = {
short = "Prompting a language model to perform a task using only a natural-language description of the task, without providing any demonstrations of input-output behavior.",
es = "Estrategia de prompting que pide a un modelo de lenguaje realizar una tarea usando únicamente una descripción en lenguaje natural de la tarea, sin proporcionar demostraciones de pares entrada-salida.",
zh = "仅通过对任务的自然语言描述提示语言模型完成任务,而不提供任何输入-输出示例的提示方式。",
article = nil,
}
data["zero-shot recommender"] = {
short = "A recommender that produces relevant items for users, items, or domains unseen during training by relying on side information such as text descriptions, embeddings, or large language model reasoning rather than collaborative interaction history.",
es = "Recomendador que produce ítems relevantes para usuarios, ítems o dominios no vistos durante el entrenamiento, apoyándose en información complementaria como descripciones textuales, embeddings o razonamiento de modelos de lenguaje grandes, en lugar del historial de interacciones colaborativas.",
zh = "一种推荐器,通过利用文本描述、嵌入或大语言模型推理等辅助信息,而非协同交互历史,为训练中未见过的用户、物品或领域生成相关物品。",
article = nil,
}
data["zero-shot tts"] = {
short = "A text-to-speech setting in which the model can synthesize speech in voices, languages, or styles never seen during training, typically by conditioning on reference audio or language embeddings.",
es = "Escenario de síntesis de voz en el que el modelo puede generar voz en hablantes, idiomas o estilos nunca vistos durante el entrenamiento, generalmente condicionándose en audio de referencia o embeddings de idioma.",
zh = "一种语音合成设置,模型能够在训练中从未见过的说话人、语言或风格上生成语音,通常通过参考音频或语言嵌入进行条件化。",
article = nil,
}
data["zero-shot variant effect prediction"] = {
short = "Predicting the functional impact of genetic or amino-acid variants without supervised training on variant-effect labels, typically by scoring mutations using the likelihoods assigned by a protein or DNA language model.",
es = "Predicción del impacto funcional de variantes genéticas o de aminoácidos sin entrenamiento supervisado sobre etiquetas de efecto, generalmente puntuando las mutaciones mediante las verosimilitudes asignadas por un modelo de lenguaje de proteínas o de ADN.",
zh = "在无须使用变异效应标签进行有监督训练的情况下,预测基因或氨基酸变异的功能影响,通常通过蛋白质或 DNA 语言模型为突变赋予的似然性进行打分。",
article = nil,
}
data["zero-shot video classification multimodal"] = {
short = "Classifying videos into action or event categories using a multimodal vision-language model without fine-tuning on the target label set; class names are encoded as natural-language prompts and matched to video features.",
es = "Clasificación de videos en categorías de acción o evento usando un modelo multimodal de visión y lenguaje sin ajuste fino sobre el conjunto de etiquetas objetivo; los nombres de las clases se codifican como prompts en lenguaje natural y se comparan con las representaciones del video.",
zh = "使用多模态视觉-语言模型对视频进行动作或事件分类,在目标标签集上不进行微调;类别名称被编码为自然语言提示,与视频特征进行匹配。",
article = nil,
}
data["zero-shot voice cloning"] = {
short = "Synthesis of speech in a target speaker's voice using only a short reference clip and no additional fine-tuning, typically achieved by conditioning a TTS model on a speaker embedding extracted from the reference.",
es = "Síntesis de voz con la voz de un hablante objetivo usando solo un breve clip de referencia y sin ajuste fino adicional; suele lograrse condicionando un modelo de TTS en un embedding de hablante extraído del clip de referencia.",
zh = "仅使用一段短参考音频、无需额外微调即可合成目标说话人音色的语音,通常通过让 TTS 模型在从参考音频提取的说话人嵌入上条件化来实现。",
article = nil,
}
data["zero-shot vqa"] = {
short = "Answering questions about images or videos without task-specific fine-tuning, typically by prompting a frozen vision-language model whose pretraining did not include the target VQA dataset.",
es = "Responder preguntas sobre imágenes o videos sin ajuste fino específico para la tarea, normalmente mediante prompting a un modelo de visión y lenguaje congelado cuyo preentrenamiento no incluyó el conjunto VQA objetivo.",
zh = "在不针对任务进行微调的情况下回答关于图像或视频的问题,通常通过对一个冻结的视觉-语言模型进行提示完成,且该模型预训练时未见过目标 VQA 数据集。",
article = nil,
}
data["zero-sum mdp"] = {
short = "A two-player Markov game in which the rewards of the two players sum to zero at every step, modeling strictly competitive interactions; optimal play corresponds to a minimax value and can be computed via algorithms such as minimax-Q.",
es = "Juego de Markov de dos jugadores en el que las recompensas de ambos suman cero en cada paso, modelando interacciones estrictamente competitivas; el juego óptimo corresponde a un valor minimax y puede calcularse con algoritmos como minimax-Q.",
zh = "两人马尔可夫博弈,其中两位玩家在每一步的奖励之和为零,用于建模严格竞争的交互;最优策略对应极小极大值,可由 minimax-Q 等算法计算。",
article = nil,
}
data["zero123"] = {
short = "A diffusion-based model that synthesizes novel views of an object from a single RGB image conditioned on a relative camera pose, enabling 3D reconstruction and view interpolation without multi-view training data.",
es = "Modelo basado en difusión que sintetiza vistas novedosas de un objeto a partir de una sola imagen RGB condicionado por una pose de cámara relativa, permitiendo reconstrucción 3D e interpolación de vistas sin datos de entrenamiento multi-vista.",
zh = "一种基于扩散模型的方法,以单张 RGB 图像为输入并以相对相机位姿为条件合成物体的新视角,可在无需多视图训练数据的情况下实现 3D 重建和视角插值。",
article = nil,
}
data["zeroscope"] = {
short = "An open-weight text-to-video diffusion model fine-tuned from ModelScope's text-to-video model, producing short watermark-free clips at resolutions up to 1024x576.",
es = "Modelo de difusión texto-a-vídeo de pesos abiertos ajustado a partir del modelo texto-a-vídeo de ModelScope, que genera clips cortos sin marca de agua con resoluciones de hasta 1024x576.",
zh = "一个开源的文本到视频扩散模型,从 ModelScope 的文本到视频模型微调而来,可生成最高 1024x576 分辨率的无水印短视频片段。",
article = nil,
}
data["zerospeech challenge"] = {
short = "A recurring benchmark series for unsupervised discovery of speech units (phones, words, language models) from raw audio without textual supervision, organized since 2015.",
es = "Serie recurrente de benchmarks para el descubrimiento no supervisado de unidades del habla (fonos, palabras, modelos de lenguaje) a partir de audio sin supervisión textual, organizada desde 2015.",
zh = "自 2015 年起举办的系列基准评测,旨在从原始音频中无监督地发现语音单元(音素、词、语言模型),不使用文本监督。",
article = nil,
}
data["zinc database"] = {
short = "A free, curated database of commercially available compounds prepared in 3D ready-to-dock formats, maintained by the Irwin and Shoichet laboratories for use in virtual screening and ligand discovery.",
es = "Base de datos gratuita y curada de compuestos disponibles comercialmente, preparados en formatos 3D listos para acoplamiento, mantenida por los laboratorios de Irwin y Shoichet para el cribado virtual y el descubrimiento de ligandos.",
zh = "由 Irwin 与 Shoichet 实验室维护的免费、经过精心整理的可购买化合物数据库,化合物以可直接对接的三维格式提供,广泛用于虚拟筛选和配体发现。",
article = nil,
}
data["zinc15"] = {
short = "The 2015 release of the ZINC virtual-screening database, comprising more than 230 million purchasable compounds in 3D dock-ready format and offering tranche-based browsing by physicochemical properties.",
es = "Versión de 2015 de la base de datos de cribado virtual ZINC, que contiene más de 230 millones de compuestos comprables en formato 3D listo para acoplamiento y ofrece navegación por particiones según propiedades fisicoquímicas.",
zh = "ZINC 虚拟筛选数据库的 2015 年版本,收录超过 2.3 亿个可购买的三维对接就绪化合物,并按理化性质分区供检索。",
article = nil,
}
data["zinc20"] = {
short = "The 2020 release of the ZINC virtual-screening database, expanded to over 1.4 billion purchasable compounds and incorporating make-on-demand combinatorial libraries from vendors such as Enamine.",
es = "Versión de 2020 de la base de datos de cribado virtual ZINC, ampliada a más de 1400 millones de compuestos comprables e incorporando bibliotecas combinatorias bajo pedido de proveedores como Enamine.",
zh = "ZINC 虚拟筛选数据库的 2020 年版本,扩展至超过 14 亿个可购买化合物,并纳入了 Enamine 等供应商按需合成的组合化学库。",
article = nil,
}
data["zinc250k"] = {
short = "A benchmark subset of roughly 250,000 drug-like molecules sampled from the ZINC database, popularized by Kusner et al. (2017) and widely used to train and evaluate molecular generative models.",
es = "Subconjunto de referencia de aproximadamente 250 000 moléculas con propiedades de fármaco muestreadas de la base de datos ZINC, popularizado por Kusner et al. (2017) y ampliamente utilizado para entrenar y evaluar modelos generativos moleculares.",
zh = "从 ZINC 数据库中抽取的约 25 万个类药分子的基准子集,由 Kusner 等人于 2017 年推广,被广泛用于训练和评估分子生成模型。",
article = nil,
}
data["zipformer"] = {
short = "A Transformer-based encoder for speech recognition from the k2 / icefall project that processes audio at multiple temporal resolutions in a U-Net-like structure for improved efficiency and accuracy.",
es = "Codificador basado en Transformer para reconocimiento de voz del proyecto k2/icefall, que procesa el audio en múltiples resoluciones temporales mediante una estructura tipo U-Net para mejorar la eficiencia y la precisión.",
zh = "k2/icefall 项目提出的基于 Transformer 的语音识别编码器,采用类 U-Net 结构在多种时间分辨率下处理音频,以兼顾效率与精度。",
article = nil,
}
data["zorn lemma"] = {
short = "A statement equivalent to the axiom of choice asserting that any partially ordered set in which every chain has an upper bound contains at least one maximal element.",
es = "Enunciado equivalente al axioma de elección que afirma que todo conjunto parcialmente ordenado en el que cada cadena tiene una cota superior posee al menos un elemento maximal.",
zh = "与选择公理等价的命题,断言每个偏序集若每条链都有上界,则至少存在一个极大元。",
article = nil,
}
return data