About 109,000 results
Open links in new tab
  1. 一文了解Transformer全貌(图解Transformer)

    Sep 26, 2025 · 网上有关Transformer原理的介绍很多,在本文中我们将尽量模型简化,让普通读者也能轻松理解。 1. Transformer整体结构 在机器翻译中,Transformer可以将一种语言翻译成 …

  2. 如何最简单、通俗地理解Transformer? - 知乎

    Transformer最开始应用于NLP领域的机器翻译任务,但是它的通用性很好,除了NLP领域的其他任务,经过变体,还可以用于视觉领域,如ViT(Vision Transformer)。 这些特点 …

  3. Transformer模型怎么用于regression的问题? - 知乎

    回归问题概述 Transformer模型基础 回归问题中的Transformer架构调整 应用案例 优化与技巧 挑战与改进 1. 回归问题概述 回归问题是监督学习中的一种任务,目标是预测一个连续值。这类问 …

  4. 挑战 Transformer:全新架构 Mamba 详解

    Sep 23, 2025 · 而就在最近,一名为 Mamba 的架构似乎打破了这一局面。 与类似规模的 Transformer 相比, Mamba 具有 5 倍的吞吐量, 而且 Mamba-3B 的效果与两倍于其规模的 …

  5. 为什么我还是无法理解transformer? - 知乎

    7 Transformer 的发展 Transformer架构自从发明之后,沿着几条道路快速发展,它模型分Encoder和Decoder两个部分,怎么做成实际的模型是个排列组合问题:只选择Encoder,只 …

  6. Transformer两大变种:GPT和BERT的差别(易懂版)-2更

    Jul 16, 2025 · Transformer是GPT和BERT的前身。谷歌和OpenAI在自然语言处理技术上的优化,都是基于这个模型。 更多关于的Transformer可以看文章: ChatGPT与Transformer(无公 …

  7. transformer的损失函数如何定义? - 知乎

    Transformer 的整体结构,左图Encoder和右图Decoder 可以看到 Transformer 由 Encoder 和 Decoder 两个部分组成,Encoder 和 Decoder 都包含 6 个 block。Transformer 的工作流程大体 …

  8. 你对下一代Transformer架构的预测是什么? - 知乎

    2. 引入随机化(Randomized Transformer) Transformer巨大的规模使得不管训练还是推理都极具挑战。 然而,很少有人知道的是,引入随机化矩阵算法可以减少Transformer需要的FLOPs。 …

  9. 为什么Transformer适合做多模态任务? - 知乎

    但是Transformer,特别是ViT (Vision Transformer)出来之后,这个模型壁垒就被打破了,人们发现原来对付图像和文本都可以使用同一个模型,那么处理多模态的任务,就直接使用把两种模态 …

  10. 深度学习中“Transformer”怎么翻译为中文? - 知乎

    Transformer 个人觉得不翻译为好。 Transformer按在机器翻译中原意可以翻译为变形器或变换器。但随着Transformer的普及,它已经成为一类以 自注意力 为主要部件的特定模型,其原本在机 …