Translations:Neural Networks/20/es: Difference between revisions

    From Marovi AI
    ([deploy-bot] Translate Neural Networks unit 20 to es)
    Tag: translation
     
    (Batch translate Neural Networks unit 20 → es)
    Tag: translation
     
    (2 intermediate revisions by the same user not shown)
    Line 1: Line 1:
    El '''teorema de aproximación universal''' (Cybenko 1989, Hornik 1991) establece que una red prealimentada con una sola capa oculta que contenga un número finito de neuronas puede aproximar cualquier función continua sobre un subconjunto compacto de <math>\mathbb{R}^n</math> con precisión arbitraria, siempre que la función de activación cumpla condiciones suaves (por ejemplo, ser no constante, acotada y continua).
    El '''teorema de aproximación universal''' (Cybenko 1989, Hornik 1991) afirma que una red feedforward con una única capa oculta que contiene un número finito de neuronas puede aproximar cualquier función continua sobre un subconjunto compacto de <math>\mathbb{R}^n</math> con precisión arbitraria, siempre que la {{Term|activation function|función de activación}} satisfaga condiciones suaves (por ejemplo, ser no constante, acotada y continua).

    Latest revision as of 23:40, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Neural Networks)
    The '''universal approximation theorem''' (Cybenko 1989, Hornik 1991) states that a feedforward network with a single hidden layer containing a finite number of neurons can approximate any continuous function on a compact subset of <math>\mathbb{R}^n</math> to arbitrary accuracy, provided the {{Term|activation function}} satisfies mild conditions (e.g. is non-constant, bounded, and continuous).

    El teorema de aproximación universal (Cybenko 1989, Hornik 1991) afirma que una red feedforward con una única capa oculta que contiene un número finito de neuronas puede aproximar cualquier función continua sobre un subconjunto compacto de $ \mathbb{R}^n $ con precisión arbitraria, siempre que la función de activación satisfaga condiciones suaves (por ejemplo, ser no constante, acotada y continua).