当前位置: 首页 > news >正文

给网站网站做代理wordpress 培训机构

给网站网站做代理,wordpress 培训机构,wordpress网站缓存安装,绿色做环保网站的好处目录 前言自注意力机制Self-Attention层的具体机制Self-Attention 矩阵计算 多头注意力机制例子解析 代码实现总结与心得体会 前言 多头注意力机制可以说是Transformer中最主要的模块#xff0c;没有之一。这次我们来仔细分析一下注意力机制与多头注意力机制。 自注意力机制… 目录 前言自注意力机制Self-Attention层的具体机制Self-Attention 矩阵计算 多头注意力机制例子解析 代码实现总结与心得体会 前言 多头注意力机制可以说是Transformer中最主要的模块没有之一。这次我们来仔细分析一下注意力机制与多头注意力机制。 自注意力机制 在Transformer模型中输入的文本序列经过输入处理转换为一个向量的序列然后就会被送到第1层的编码器第一层的编码器的输出同样是一个向量的序列再送到下一层编码器。 通过上图可以发现向量在层间流动时向量的数量和维度都是不变的。单层编码器接收到上一层的输入然后进入自注意力层计算然后再输入到前馈神经网络中最后得到每个位置的新向量。 Self-Attention层的具体机制 例如想要翻译的句子为“The animal didn’t cross the street because it was too tired”。 句子中的it是一个代词想要知道它具体代指什么对模型来说并不容易。通过引用Self-Attention机制模型就会最终计算出it代指的是animal。同样的当模型处理句子中其他词时Self-Attention机制也可以让模型不仅仅关注当前位置的词还关注句中其它位置相关的词进而更好地理解当前位置的词。 通过一个简单的例子来解释自注意力机制的计算过程假设一句话为Thinking Machines。 自注意力会计算Thinking-Thinking、Thinking-Machines、Machines-Thinking、Machines-Machines共2的2次方种组合。 具体的计算过程如下 1 对输入编码器的词向量进行线性变换得到Query、Key和Value向量。变换的过程是通过词向量分别和3个参数矩阵相乘参数矩阵可以通过模型训练学习到。 2 计算 Attention Score 注意力分数 。 假如我们现在计算Thinking的Attention Score需要根据Thinking对应的词向量对句子中的其他词向量都计算一个分数这些分数决定了在编码Thinking这个词时对句子中其它位置的词向量的权重。 Attention Score 是根据Thinking对应的Query向量和其他位置的每个词的Key向量进行点积得到的。Thinking的第一个Attention Score 就是q1和k1的点积第二个分数是 q 1 q_1 q1​和 k 2 k_2 k2​的点积。 3 把得到的每个分数除以 d k \sqrt{d_k} dk​ ​。 d k d_k dk​是Key向量的维度。这一步的目的是为了在反向传播时求梯度时更加稳定。 s c o r e 11 q 1 ⋅ k 1 d k score_{11} \frac{q_1 \cdot k_1}{\sqrt{d_k}} score11​dk​ ​q1​⋅k1​​ s c o r e 12 q 1 ⋅ k 2 d k score_{12} \frac{q_1 \cdot k_2}{\sqrt{d_k}} score12​dk​ ​q1​⋅k2​​ 4 然后把分数经过一个Softmax函数通过Softmax将分数归一化使分数都是正数并且加起来等于1。 s c o r e 11 s o f t m a x ( s c o r e 11 ) score_{11} softmax(score_{11}) score11​softmax(score11​) s c o r e 12 s o f t m a x ( s c o r e 12 ) score_{12} softmax(score_{12}) score12​softmax(score12​) 5 得到每个词向量的分数后将分数分别与对应的Value向量相乘。对于分数高的位置相乘后的值就越大我们把更多的注意力放到了它们的身上对于分数低的位置相乘后的值就越小这些位置的词可能就相关性不大。 6 把第5步得到的Value向量相加就得到了Self-Attention在当前位置对应的输出 z 1 v 1 × s c o r e 11 v 2 × s c o r e 12 z_1 v_1 \times score_{11} v_2 \times score_{12} z1​v1​×score11​v2​×score12​ 最后整体看一下Self-Attention计算的全过程 Self-Attention 矩阵计算 具体的实现时并不会像上面那样阶段分明的分成6个步骤而是将向量合并到一起进行矩阵运算。 X 1 X_1 X1​ 第一个单词的输入向量 X 2 X_2 X2​ 第二个单词的输入向量 X [ X 1 ; X 2 ] X [X_1;X_2] X[X1​;X2​] 将两个向量合并为矩阵 具体来说分为了两步 1计算Query、Key、Value的矩阵。 Q X W Q Q XW^Q QXWQ计算Query K X W K K XW^K KXWK计算Key V X W V V XW^V VXWV计算Value 把所有的词向量放到一个矩阵X中然后分别和3个权重矩阵 W Q W^Q WQ、 W K W^K WK、 W V W^V WV相乘得到 Q Q Q、 K K K、 V V V矩阵。矩阵X中的每一行表示句子中的每一个词的词向量。 Q Q Q、 K K K、 V V V矩阵中的每一行表示Query向量、Key向量、Value向量向量的维度是 d k d_k dk​。 2矩阵计算把上面第2步到第6步压缩为一步直接得到Self-Attention的输出 Z s o f t m a x ( Q K T d k ) × V Z softmax(\frac {QK^T} {\sqrt{d_k}}) \times V Zsoftmax(dk​ ​QKT​)×V 多头注意力机制 Transformer的论文中通过增加多头注意力机制一组注意力称为一个Attention Head进一步完善了Self-Attention。这种机制从如下两个方面增强了Attention层的能力 扩展了模型关注不同位置的能力 在上面的例子中第一个位置的输出 z 1 z_1 z1​包含了句子中其他每个位置的很小一部分信息。但 z 1 z_1 z1​仅仅是单个向量所以可能仅由第1个位置的信息主导了。而当我们翻译句子The animal didnt cross the street because it was too tired时我们不仅希望模型关注到it本身还希望模型关注到The和animal甚至关注到tired。 多头注意力机制赋予了Attention层多个“子表示空间” 多头注意力机制会有多组 W Q W^Q WQ、 W K W^K WK、 W V W^V WV的权重矩阵因此可以将 X X X变换到更多种子空间中进行表示 。 每组注意力设定单独的 W Q W^Q WQ、 W K W^K WK、 W V W^V WV参数矩阵。将输入 X X X与它们相乘得到多组 Q Q Q、 K K K、 V V V矩阵。接下来把每组的 Q Q Q、 K K K、 V V V计算得到各自的 Z Z Z。 由于前馈神经网络层接收的是1个矩阵其中每行的向量表示一个词而不是8个矩阵所以要直接把8个子矩阵拼接得到一个大矩阵然后和另一个权重矩阵 W O W^O WO相乘做一次变换映射到前馈神经网络层所需要的维度。 把多头注意力放到一张图中 例子解析 再来看一下上面提到的it的例子不同的Attention Heads对应的it attention了哪些内容。 图中绿色和橙色线条分别表示2组不同的Attention Heads。可以看到当我们编码单词it时其中一个Attention Head橙色最关注的是the animal另外一个绿色Attention Head关注的是tired。因此在某种意义上it在模型中的表示融合了animal和tire的部分表达。 代码实现 class MultiHeadAttention(nn.Module):def __init__(self, hid_dim, n_heads, dropout):super().__init__()self.hid_dim hid_dimself.n_heads n_heads# hid_dim必须整除assert hid_dim % n_heads 0# 定义wqself.w_q nn.Linear(hid_dim, hid_dim)# 定义wkself.w_k nn.Linear(hid_dim, hid_dim)# 定义wvself.w_v nn.Linear(hid_dim, hid_dim)self.fc nn.Linear(hid_dim, hid_dim)self.do nn.Dropout(dropout)self.scale torch.sqrt(torch.FloatTensor([hid_dim//n_heads]))def forward(self, query, key, value, maskNone):# Q与KV在句子长度这一个维度上数值可以不一样bsz query.shape[0]Q self.w_q(query)K self.w_k(key)V self.w_v(value)# 将QKV拆成多组方案是将向量直接拆开了# (64, 12, 300) - (64, 12, 6, 50) - (64, 6, 12, 50)# (64, 10, 300) - (64, 10, 6, 50) - (64, 6, 10, 50)# (64, 10, 300) - (64, 10, 6, 50) - (64, 6, 10, 50)Q Q.view(bsz, -1, self.n_heads, self.hid_dim//self.n_heads).permute(0, 2, 1, 3)K K.view(bsz, -1, self.n_heads, self.hid_dim//self.n_heads).permute(0, 2, 1, 3)V V.view(bsz, -1, self.n_heads, self.hid_dim//self.n_heads).permute(0, 2, 1, 3)# 第1步Q x K / scale# (64, 6, 12, 50) x (64, 6, 50, 10) - (64, 6, 12, 10)attention torch.matmul(Q, K.permute(0, 1, 3, 2)) / self.scale# 需要mask掉的地方attention设置的很小很小if mask is not None:attention attention.masked_fill(mask 0, -1e10)# 第2步做softmax 再dropout得到attentionattention self.do(torch.softmax(attention, dim-1))# 第3步attention结果与k相乘得到多头注意力的结果# (64, 6, 12, 10) x (64, 6, 10, 50) - (64, 6, 12, 50)x torch.matmul(attention, V)# 把结果转回去# (64, 6, 12, 50) - (64, 12, 6, 50)x x.permute(0, 2, 1, 3).contiguous()# 把结果合并# (64, 12, 6, 50) - (64, 12, 300)x x.view(bsz, -1, self.n_heads * (self.hid_dim // self.n_heads))x self.fc(x)return x 测试一下是否能输出 query torch.rand(64, 12, 300) key torch.rand(64, 10, 300) value torch.rand(64, 10, 300) attention MultiHeadAttention(hid_dim300, n_heads6, dropout0.1) output attention(query, key, value) print(output.shape)总结与心得体会 通过对多头注意力机制的学习有一个让我印象深刻的地方就是它的多头注意力机制不是像其它模块设计思路一样对同一个输入做了多组运算而是将输入切分成不同的部分每部分分别做了多组运算。由于自然语言处理中一个单词的词向量往往是很长的所以这种方式比CV的那种堆叠的方式能减少很多计算量并且在效果方面不会损失太多。 个人感觉词向量的不同分组之间的关系有点像计算机视觉中彩色图像的多个通道多头注意力机制有点像后面的通道注意力的计算。
http://www.hkea.cn/news/14324043/

相关文章:

  • 帮人做项目的网站网上代做论文的网站好
  • 三亚中国检科院生物安全中心门户网站建设企业手机网站建设平台
  • 福田官网网站wordpress 搭建教程 pdf
  • 网站建设工程师招聘网站开发毕业设计评审表
  • 北京网站设计联系方式如何让自己的网站被百度收录
  • o2o网站建设哪家好如何建设一个自己 的网站首页
  • 网站备案中国开头ui设计工资怎么样
  • 外贸网站免费推广苏州新公司网站建设
  • 网站规划与开发设计外贸网站服务器
  • 哪个网站的理财频道做的比较好网站开发与维护项目招标
  • 网站建设与管理ppt课件百度云盘网站建设在会计里算什么资产
  • 济南城乡建设官方网站制作图片库
  • 杭州好的公司网站设计一个公司可以备案两个网站
  • 武昌网站建设制作dedecms模板自适应
  • seo整站优化系统免费个人logo设计
  • ASP做购物网站视频dede医院网站模板
  • 合肥制作网站价格网站建设包括哪些方面选择题
  • 武清做网站公司网站建设客户源
  • 上海网站建设开发制作软件开发发布平台
  • 做网站的图哪来站长网站建设
  • 免费linux网站空间项目外包合同
  • 百度百科网站开发网站导航的重要性
  • 郑州高档网站建设app 微信 网站三合一
  • 安徽合肥网站制作wordpress图片无损压缩
  • 台州网站制作教程网站建设更新
  • 玩具电子商务网站建设论文上海到北京机票价格查询
  • 宁波网站制作与推广价格杭州建设监理协会网站
  • 闵行做网站公司我做网站推广
  • 跨境进口网站怎么做wordpress域名修改
  • asp.net 微网站开发国外域名怎么购买