当前位置: 首页 > news >正文

宿州市住房和城乡建设局网站微信h5商城网站

宿州市住房和城乡建设局网站,微信h5商城网站,想自学广告设计怎么学,北京正规做网站公司代码在最后 本次设计了一个LSTM基于差分多头注意力机制的改进的iTransformer时间序列预测模型结合了LSTM#xff08;长短期记忆网络#xff09;和改进版的iTransformer#xff08;差分多头注意力机制#xff09;#xff0c;具备以下优势#xff1a; 时序特征建模能力基于差分多头注意力机制的改进的iTransformer时间序列预测模型结合了LSTM长短期记忆网络和改进版的iTransformer差分多头注意力机制具备以下优势 时序特征建模能力 LSTM的优势LSTM擅长捕捉时间序列中的长期依赖关系对于周期性、趋势性变化的建模非常有效能够处理复杂的时间序列模式尤其是在非线性和动态变化的序列中。多头注意力机制的优势通过多头注意力机制可以从不同的子空间并行地关注序列中的不同部分有助于捕捉输入序列中的多尺度和多层次的依赖关系。差分注意力机制则能够进一步增强模型对序列中不同时间点间变化的敏感性。 增强模型的灵活性与适应性 传统的iTransformer模型通过自注意力机制建模序列中的全局依赖而引入差分多头注意力机制后能够更加灵活地处理不同时间步之间的依赖关系并通过差分操作提高模型对短期波动和突变的响应能力。对于具有周期性波动或突发性变化的时间序列差分操作能够有效减少长期趋势的干扰使得模型能够专注于更加细粒度的变化。 减少噪声干扰 传统的iTransformer模型在处理含有噪声的时间序列时可能会因为自注意力机制对全局依赖关系的过度关注而被噪声干扰。差分多头注意力机制能够通过差分的方式抑制噪声的影响从而提高预测的准确性。 多尺度学习 多头注意力机制在不同的头部学习不同尺度的信息这对于时间序列预测尤其重要因为时间序列数据通常存在不同的时间尺度例如日、周、月的周期性波动。差分多头注意力能够根据数据的不同特征动态调整各个头部的关注点从而获得多层次、多尺度的预测能力。 增强的预测性能 结合LSTM的长短期记忆能力和差分多头注意力机制的灵活性LSTM差分多头注意力机制改进版的iTransformer能够更好地捕捉复杂时间序列数据中的非线性关系、周期性特征以及局部趋势变化因此相比传统的时间序列预测模型如LSTM或iTransformer单独使用具有更好的预测精度和泛化能力。 1.LSTM LSTMLong Short-Term Memory长短期记忆网络是一种特殊的递归神经网络RNN设计用于解决标准RNN在处理长序列时的梯度消失和梯度爆炸问题。LSTM通过引入记忆单元和门控机制可以在长时间跨度内保持和更新关键信息从而在许多序列数据任务中表现出色。 LSTM的结构 LSTM的基本单元包括以下三个主要组件 细胞状态Cell State 细胞状态是LSTM的核心部分贯穿整个序列的数据流。它相当于一个直通通道允许信息以最少的修改通过时间步长传播。细胞状态通过加法和乘法操作来控制信息的传递和遗忘避免了梯度消失问题。 门控机制Gates LSTM通过三个门控来调节信息的流动 遗忘门Forget Gate决定细胞状态中哪些信息需要被遗忘。它接受前一时间步长的隐藏状态和当前输入通过一个Sigmoid激活函数输出一个0到1之间的值控制信息是否被丢弃。输入门Input Gate决定当前时间步长的新信息对细胞状态的更新程度。输入门与当前输入和前一隐藏状态结合通过Sigmoid激活函数输出控制信号。输出门Output Gate决定细胞状态中的哪些部分将作为隐藏状态输出并传递到下一时间步长。输出门通过Sigmoid激活函数结合当前输入和前一隐藏状态生成下一步的隐藏状态。 隐藏状态Hidden State 隐藏状态是LSTM输出的主要内容也是传递到下一个时间步长的信息。它包含了LSTM单元对当前时间步长输入和细胞状态的理解。 本文尝试使用傅里叶卷积改进itransformer相结合进行时间序列的预测作为一个创新性模型。 2.itransformer 基于Transformer模型的时序预测架构通常将同一时间步的不同变量编码成一个统一的多维temporal token并通过注意力机制来建模不同时间步之间的时序相关性。然而近年来线性时序预测模型重新崛起展现出比Transformer模型更优的效果促使人们反思当前基于Transformer的时序预测架构的一些局限性 对于同一时间步的数据点变量之间可能具有不同的物理意义采集时间可能不一致且尺度差异显著。将这些变量强行编码为统一的temporal token不再区分不同的通道channels可能会导致多变量间的相关性被削弱从而无法有效学习基于变量的高效表征不适用于多变量时序预测任务。在某些数据集中保持变量通道的独立性并考虑变量之间的互相关性是非常必要的。此外由于变量之间存在时滞性一个时间点的temporal token所包含的信息量有限从这些token出发可能不利于建模全局的时序相关性。 在建模时间方向上的长期依赖性时随着历史窗口长度的增加Transformer面临性能下降和计算量爆炸的问题。 基于这些思考提出了一种全新的基于Transformer的时序预测架构该架构并未改变Transformer的网络结构而是重新定义了注意力机制和前馈网络的作用。iTransformer将不同的变量独立编码为各自的token通过注意力机制来建模变量之间的相关性同时通过前馈网络建模变量的时序相关性从而获取更优的时序表征。 2.工作原理 图上部分是传统Transformer的运行机制传统的Transformer是将同一时间戳下的各个变量赋予相同的Token值会影响各个变量之间相关性的提取同时当遇到时间不对齐事件时这种方式也会引入噪声。传统的Transformer的self-attention和Embedding也会将时序信息打乱这样也会对预测产生影响。基于此本文提出iTransformer“倒置Transformer”简而言之就是对时间序列采取一种“倒置视角”将每个变量的整个时间序列独立地Embedding为一个token并用注意力机制进行多元关联同时利用FNN进行序列表示。 具体介绍可以看源码论文https://arxiv.org/pdf/2310.06625 ​ 目前清华大学排列的不同任务预测效果itransformer也排在前列是一个相对优秀的模型。 3.差分注意力机制 原论文https://arxiv.org/pdf/2410.05258 需要的同学可以看原论文这里就不在详细介绍很好理解。 Transformer 模型倾向于将注意力过多分配到与任务无关的上下文导致注意力噪声问题。 在此工作中作者提出了一种名为 DIFF Transformer 的新架构使用差分注意力机制来强化对关键信息的关注同时抑制噪声。具体而言该机制通过计算两组独立的 Softmax 注意力分布之间的差值来实现降噪从而促进稀疏注意力模式的形成。 实验表明DIFF Transformer 在扩展模型规模和训练数据时的表现优于传统 Transformer 并在长上下文建模、关键信息检索、减少幻觉如问答和文本摘要任务中的错误生成以及上下文学习等实际应用中表现出显著优势。 此外该方法还能减轻模型激活值的离群问题为量化和训练稳定性提供新的可能性。 通过更专注于相关上下文DIFF Transformer 提高了模型的准确性和鲁棒性 尤其是在处理长序列和复杂任务时。 核心创新 引入了差分注意力机制通过计算两个独立的 Softmax 注意力分布的差异来消除噪声增强对关键信息的关注。 它确保模型将注意力集中在与任务相关的关键信息上而不是被无关上下文干扰。 类似于降噪耳机中的差分放大器该机制通过相减操作过滤掉公共噪声。 4.实验部分 部分实验代码 class Model(nn.Module):Vanilla Transformerwith O(L^2) complexityPaper link: https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdfdef __init__(self, configs):super(Model, self).__init__()self.pred_len configs.pred_lenself.output_attention configs.output_attentionself.lstm LSTM(input_sizeconfigs.enc_in, hidden_sizeconfigs.d_model, num_layers3,batch_sizeconfigs.batch_size)# Embeddingself.enc_embedding DataEmbedding(configs.enc_in, configs.d_model, configs.embed, configs.freq,configs.dropout)# Encoderself.encoder Encoder([EncoderLayer(AttentionLayer(FullAttention(False, configs.factor, attention_dropoutconfigs.dropout,output_attentionconfigs.output_attention), configs.d_model, configs.n_heads),configs.d_model,configs.d_ff,dropoutconfigs.dropout,activationconfigs.activation) for l in range(configs.e_layers)],norm_layertorch.nn.LayerNorm(configs.d_model))# Decoderself.dec_embedding DataEmbedding(configs.dec_in, configs.d_model, configs.embed, configs.freq,configs.dropout)self.decoder Decoder([DecoderLayer(AttentionLayer(FullAttention(True, configs.factor, attention_dropoutconfigs.dropout,output_attentionFalse),configs.d_model, configs.n_heads),AttentionLayer(FullAttention(False, configs.factor, attention_dropoutconfigs.dropout,output_attentionFalse),configs.d_model, configs.n_heads),configs.d_model,configs.d_ff,dropoutconfigs.dropout,activationconfigs.activation,)for l in range(configs.d_layers)],norm_layertorch.nn.LayerNorm(configs.d_model),projectionnn.Linear(configs.d_model, configs.c_out, biasTrue))数据集 数据集都可以只要是时间序列格式不限领域类似功率预测风电光伏预测负荷预测流量预测浓度预测机械领域预测等等各种时间序列直接预测。可以做验证模型对比模型。格式类似顶刊ETTH的时间序列格式即可。 这里是时间列7列影响特征1列预测特征也可以没有时间 实验结果 这里我按照训练集80%测试集20%进行训练。 第一个是改进前的第二个是改进后的可以看出效果有非常明显的提升也证实了设计的可行性。 功能如下 1.多变量输入单变量输出/可改多输出 2.多时间步预测单时间步预测 3.评价指标R方  RMSE  MAE  MAPE 对比图 4.数据从excel/csv文件中读取直接替换即可。 5.结果保存到文本中可以后续处理。 6.对比模型消融实验也准备好了一步到位 代码带数据注释清晰直接一键运行即可适合新手小白。 接运行主页还有其他优质模型或者需要在此基础缝合模型或者其他模型要求直接发要求给博主就行。 6.补充 创新性非常高保底3区以上完全够用效果也不错。代码里也有pdf理论知识和注释方便理解代码是在顶会源码的基础上解决了大量报错删除多余部分并且添加功能适合小白注释清楚没学过都能看懂。 继续改进LSTM也可以改为其他创新卷积或者提取特征模块例如可将LSTM改为TCNCNN或者其他提取特征的方式itransformer也可以替换为其他主预测模型另外也可以改其他优化算法继续提升创新。比如SSA多元宇宙VMd等等其他优化算法。如果需要也可以发要求私信博主。 模型预测效果优秀。结合其他模型或者其他效果都很不错。 7.源码以及详细视频讲解地址适合小白 代码地址https://www.bilibili.com/video/BV1atqLY8EAz/?spm_id_from333.999.0.0vd_source7dc3f07cab7883fe035e5ceef5206f80
http://www.hkea.cn/news/14285061/

相关文章:

  • 广州网站开发费用wordpress下载按钮
  • 成都市成华区建设局官方网站离我最近的电脑培训中心
  • 福建省城乡建设厅网站新浪微博做wordpress图床
  • 什么服装网站做一件代发建设商务网站的目的
  • 用asp怎么做网站中国建设银行官方网站下载
  • 做外贸 需要做网站吗工商营业执照网上注册
  • 山西网站建设开发团队天津房地产网站建设
  • 不用建网站怎么做淘宝客腾讯企点qq
  • 网站开发技术协议怎么写深圳电子商务平台设计
  • 公司注销后网站备案吗濮阳做公司网站
  • thinkphp做网站快吗中国文明网联盟网站建设
  • 汽车网站设计做网站营业范围
  • 郓城做网站公司网站推广信息怎么做
  • 电子商务网站建设与维护代码网推所什么意思
  • 深圳勘察设计协会网站免费咨询服务
  • 如何制作网站页面企业网站推荐
  • 珠海网站外包西安好的互联网设计公司
  • 专业网站是什么意思wordpress区块链快讯模板
  • 深圳企业网站建设价格大兴模版网站开发公司哪家好
  • 软件工程的八个步骤windows优化大师的特点
  • 网吧网站怎么做的驰够网官方网站
  • 做染料的网站学做窗帘要下载哪个网站
  • 展示网站报价腾讯企业网页设计
  • 分享一个网站能用的临海网站制作
  • 做放单网站现货平台在中国合法吗
  • 如何在免费网站上做推扩wordpress标题怎么
  • 化工材料 技术支持 东莞网站建设wordpress多重搜索
  • 易语言做网站登录器wordpress自动推送token
  • 宿迁公司做网站百度域名是什么
  • 机场建设投资公司官方网站山西建网站