企业宣传,产品推广,广告招商,广告投放联系seowdb

Transformer动画解说

一、GPT的**是Transformer

GPT(Generative Pre-trained Transformer) 是一种基于单向Transformer解码器的预训练言语模型,它经过在大规模语料库上的无监视学习来捕捉言语的统计法令,从而具有弱小的文本生成才干。

在GPT(Generative Pre-trained Transformer)模型中,字母G、P、T各自有其特定的含意:

GPT的**是Transformer

Transformer模型在多模态数据解决中雷同表演着关键角色 ,其能够高效、准确地解决蕴含不同类型(如图像、文本、音频、视频等)的多模态数据。

Transformer的多模态

二、Transformer的上班原理

Transformer上班原理四部曲: Embedding(向量化)、Attention(留意力机制)、MLPs(多层感知机)和Unembedding(模型输入)。

Embedding -> Attention -> MLPs -> Unembedding

阶段一:Embedding(向量化)

“Embedding”在字面上的翻译是“嵌入”,但在机器学习和人造言语解决的高低文中,咱们更偏差于将其了解为一种“向量化”或“向量示意”的技术。

(1)Tokenization(词元化):

Tokenization

(2)Embedding(向量化):

Tokens转换为向量

向量语义相似度

阶段二:Attention(留意力机制)

Attention模块协助嵌入向量构成相关性,即确定它们如何相互关联以构建出无心义的句子或段落。

留意力计算公式

(1)Attention的目标:

降级嵌入向量

建设语义相关性

(2)Attention的上班流程(留意力计算Q、K、V):

留意力计算Q、K、V

阶段三:MLPs(多层感知机或前馈网络)

Transformer的编码器和解码器中的每一层都蕴含一个全衔接的前馈神经网络。FFNN理论蕴含两个线性变换,两边经常使用ReLU激活函数启动非线性解决。

(1)MLPs在Transformer中的

MLPs在Transformer中的位置

(2)MLPs在Transformer中的作用:

MLPs在Transformer中的作用

阶段四:Unembedding(模型输入)

Transformers经过Softmax在生成输入时, 将原始留意力分数转换为输入标志的概率散布。这种概率散布将较高的留意力权重调配给更相关的标志,并将较低的权重调配给不太相关的标志。

(1)Softmax在Transformer的

Softmax在Transformer的位置

(2)Softmax在Transformer的作用:

Softmax在Transformer中的作用

原文链接:​ ​​ ​

© 版权声明
评论 抢沙发
加载中~
每日一言
不怕万人阻挡,只怕自己投降
Not afraid of people blocking, I'm afraid their surrender