当前位置: 首页 > news >正文

秦皇岛网站关键词南阳网站排名优化费用

秦皇岛网站关键词,南阳网站排名优化费用,上海网站建设哪家服务好,网站域名审核时间最近学习了Transformer模型#xff0c;突然意识到我常阅读的一篇论文中也使用了Transformer。回想起上次开组会时#xff0c;老师问我论文中的模型是什么#xff0c;我当时没有答上来#xff0c;现在才发现其实用的就是Transformer。这种学习过程让我深感#xff0c;学得越…最近学习了Transformer模型突然意识到我常阅读的一篇论文中也使用了Transformer。回想起上次开组会时老师问我论文中的模型是什么我当时没有答上来现在才发现其实用的就是Transformer。这种学习过程让我深感学得越多知识之间的联系就会越清晰许多概念最终都能融会贯通。 这里也分享一下论文地址。 这篇论文主要探讨了如何利用联邦学习来解决跨域推荐问题然后是在序列编码器和域提示机制上运用了Transformer来增强模型的性能。 序列编码器 在推荐系统中不同的领域Domain之间需要进行数据交换与学习。为了保护用户隐私这篇论文引入了联邦学习算法。与传统上传用户数据的方式不同联邦学习仅上传模型参数的梯度进行聚合让客户端在本地进行模型训练从而防止攻击者通过附加手段从模型参数或梯度中推断出隐私特征。 在这个背景下论文中的序列编码器使用了Transformer架构主要依赖于Transformer的核心组件多头自注意力机制Multi-Head Attention, MH和位置感知前馈神经网络Position-wise Feedforward Network, FFN。这些模块使得模型能够捕捉用户行为数据中的顺序依赖关系。 具体来说Transformer的自注意力机制能够让模型在计算某个输入项目时同时关注其他位置的输入。这种全局的依赖建模能力使得模型能够对用户的序列化行为进行更好的理解从而提升推荐的准确性。 对于每个输入项目向量 v i v_i vi​我们首先将其与对应的位置信息嵌入 p j p_j pj​相加j为项目在序列中的位置以确保模型能够感知项目序列中的位置。类似于处理句子时不仅需要知道某个字的内容还需要考虑它在句子中的位置。因此有 h j 0 v i p j h_j^0 v_i p_j hj0​vi​pj​ 然后作者将这个初始状态 h j 0 h_j^0 hj0​输入到MH和FFN中进行非线性变换编码过程的定义如下 H l [ h 0 l ; . . . ; h n l ] H^l[h_0^l;...;h_n^l] Hl[h0l​;...;hnl​] H ( l 1 ) F F N ( M H ( H l ) ) , l ∈ 1 , 2 , . . . , L H^(l1)FFN(MH(H^l)),l\in {1,2,...,L} H(l1)FFN(MH(Hl)),l∈1,2,...,L 其中 ∈ R× 表示第层中每个序列的隐藏表示 是总层数。 我们将第 个位置的隐藏状态i n 作为序列表示S 是域 A 中的输入序列。 通过这种方式序列编码器利用了Transformer的全局自注意力机制能够同时考虑用户行为序列中所有项目的相互依赖关系提升了跨域推荐的效果。 域提示 为了进一步提高跨域推荐的性能论文设计了提示微调策略该其中的域提示同样基于Transformer的多头注意力机制。域提示的核心在于捕捉每个领域Domain内用户的共性偏好。 域提示机制由**提示上下文词Prompt Context Words和域提示编码器Domain Prompt Encoder**组成。在这个机制中假设我们在域提示中有 d W d_W dW​个上下文词这些词通过Transformer中的多头注意力层MA进行编码。 与传统的自注意力不同域提示机制利用预训练模型中的序列嵌入h作为查询向量来对上下文词进行注意力计算。这种查询键-值的自注意力操作能够帮助模型通过上下文信息更精准地捕捉领域内的偏好特征。具体的计算过程如下 M A ( P d o m a i n ) [ h e a d 1 ; h e a d 2 ; . . . ; h e a d n h ] w O MA(P_{domain})[head_1;head_2;...;head_{n_h}]w^O MA(Pdomain​)[head1​;head2​;...;headnh​​]wO h e a d i A t t e n t i o n ( h d W i Q , P d o m a i n W i K , P d o m a i n W i V ) head_iAttention(h_dW_i^Q,P_{domain}W_i^K,P_{domain}W_i^V) headi​Attention(hd​WiQ​,Pdomain​WiK​,Pdomain​WiV​) 其中 n h n_h nh​是注意力头的数量 W i Q , W i K , W i V ∈ R d V × d V / n h W O ∈ R d V × d V W_i^Q, W_i^K, W_i^V \in \mathbb{R}^{d_V \times d_V/n_h}W_O \in \mathbb{R}^{d_V \times d_V} WiQ​,WiK​,WiV​∈RdV​×dV​/nh​WO​∈RdV​×dV​ 为可学习参数 h d \mathbf{h}_d hd​是上下文词的表示。 通过这种机制域提示能够更好地从不同领域的用户行为中提取共性信息进而提升跨域推荐的效果。 总结 这篇论文利用了Transformer的多头自注意力机制和前馈神经网络在序列编码器和域提示学习机制中进行建模。Transformer的全局依赖建模能力使得模型在捕捉用户行为序列中的复杂模式时更加有效同时通过联邦学习保护用户隐私解决了跨域推荐中的关键问题。
http://www.hkea.cn/news/14586250/

相关文章:

  • php论坛网站建设教程可以看qq空间的网站
  • 架设网站flash不显示人气最旺的传奇手游
  • 网站同时做竞价和优化可以网站pv多少可以
  • 石家庄的网站公司网站做qq发送链接
  • 电子商务网站建设的阶段化分析沈阳城乡建设局官网
  • 兖州建设公司网站公司网站维护该谁来做
  • app和手机网站的区别专业模板网站制作价格
  • 手机网站 cms苏州网站建设设计制作公司怎么样
  • 网站建设 400电话 广告沧州美升网络科技有限公司
  • 设计师网站上海咸阳学校网站建设多少钱
  • 国内最最早做虚拟货币的网站企业网站需要多少费用
  • 网站建设策划书参考案例wordpress 调用评论数
  • 网站备案客户资料建设部网站上标准合同
  • 广东网站开发软件市场营销数字营销
  • 织梦建站教程全集电商平台介绍
  • 上海正规做网站公司有哪些媒体网站建设
  • 四举措加强网站建设网站公司做网站
  • 张家口建设厅官方网站宁波网站排名优化报价
  • 模板下载网站河北省建设项目环保备案网站
  • 在线小公司网站制作住院证明图片在线制作
  • 宝安网站制作哪家强wordpress商城主题破解
  • 科技公司网站设计方案wordpress怎样增加移动端
  • 站长之家网站网站设计字体最好用
  • 阿里云上做网站套模板怎么做济南 网站设计公司
  • 江门网站主机壳 安装wordpress
  • server 2008 iis 部署网站wordpress自定义选项
  • 网站cms系统sem优化是什么意思
  • 网站开发通用流程安徽专业建网站
  • 网站建设平台资讯玉石网站建设的定位
  • 旅游网站建设流程步骤绍兴企业建站模板