Translations:Neural Networks/28/zh: Difference between revisions

    From Marovi AI
    ([deploy-bot] Translate Neural Networks unit 28 to zh)
    Tag: translation
     
    (Batch translate Neural Networks unit 28 → zh)
    Tag: translation
     
    (2 intermediate revisions by the same user not shown)
    Line 1: Line 1:
    * '''[[Convolutional Neural Networks|卷积神经网络]]'''(CNN)—— 面向图像等网格结构数据,采用局部连接与权重共享。
    * '''[[Convolutional Neural Networks]]'''(CNN)—— 为图像等网格结构数据而设计,使用局部连接和权重共享。
    * '''[[Recurrent Neural Networks|循环神经网络]]'''(RNN)—— 面向序列数据,通过形成回路的连接维持隐藏状态。
    * '''[[Recurrent Neural Networks]]'''(RNN)—— 为序列数据而设计,连接形成循环以保持隐藏状态。
    * '''Transformer''' —— 基于注意力机制的架构,已在自然语言处理领域占据主导地位,并日益应用于视觉领域。
    * '''{{Term|transformer|Transformer}}''' —— 基于{{Term|attention|注意力}}的架构,已在自然语言处理领域占据主导地位,并日益在视觉领域得到应用。
    * '''自编码器'''(autoencoder)—— 训练目标是重建输入,常用于降维与生成式建模。
    * '''自编码器''' —— 训练用于重建其输入的网络,用于降维和生成式建模。
    * '''生成对抗网络'''(GAN)—— 由生成器与判别器两个网络相互对抗训练,用于生成逼真的数据。
    * '''生成对抗网络'''(GAN)—— 成对的网络(生成器和判别器)通过竞争训练,以生成逼真的数据。

    Latest revision as of 23:41, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Neural Networks)
    * '''[[Convolutional Neural Networks]]''' (CNNs) — designed for grid-structured data such as images, using local connectivity and weight sharing.
    * '''[[Recurrent Neural Networks]]''' (RNNs) — designed for sequential data, with connections that form cycles to maintain hidden state.
    * '''{{Term|transformer|Transformers}}''' — {{Term|attention}}-based architectures that have become dominant in natural language processing and increasingly in vision.
    * '''Autoencoders''' — networks trained to reconstruct their input, used for dimensionality reduction and generative modelling.
    * '''Generative adversarial networks''' (GANs) — pairs of networks (generator and discriminator) trained in competition to generate realistic data.
    • Convolutional Neural Networks(CNN)—— 为图像等网格结构数据而设计,使用局部连接和权重共享。
    • Recurrent Neural Networks(RNN)—— 为序列数据而设计,连接形成循环以保持隐藏状态。
    • Transformer —— 基于注意力的架构,已在自然语言处理领域占据主导地位,并日益在视觉领域得到应用。
    • 自编码器 —— 训练用于重建其输入的网络,用于降维和生成式建模。
    • 生成对抗网络(GAN)—— 成对的网络(生成器和判别器)通过竞争训练,以生成逼真的数据。