All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)where <math>g</math> and <math>f</math> are activation functions, <math>\mathbf{W}_1, \mathbf{W}_2</math> are weight matrices, and <math>\mathbf{b}_1, \mathbf{b}_2</math> are bias vectors. The hidden layer enables the network to learn nonlinear relationships that a single perceptron cannot capture.
 h Spanish (es)donde <math>g</math> y <math>f</math> son funciones de activación, <math>\mathbf{W}_1, \mathbf{W}_2</math> son matrices de pesos y <math>\mathbf{b}_1, \mathbf{b}_2</math> son vectores de sesgo. La capa oculta permite a la red aprender relaciones no lineales que un único perceptrón no puede capturar.
 h Chinese (zh)其中 <math>g</math> 和 <math>f</math> 是激活函数,<math>\mathbf{W}_1, \mathbf{W}_2</math> 是权重矩阵,<math>\mathbf{b}_1, \mathbf{b}_2</math> 是偏置向量。隐藏层使网络能够学习单一感知机无法捕捉的非线性关系。