当前位置: 首页 > news >正文

网站组成部分把两个网站合并到一个网页

网站组成部分,把两个网站合并到一个网页,网银网站模板,潍坊企业网站制作文章目录 自定义一个线性函数算子如何实现反向传播 有关 自定义算子的实现前面已经提到#xff0c;可以参考。本文讲述自定义算子如何前向推理反向传播进行模型训练。 自定义一个线性函数算子 线性函数 Y X W T B Y XW^T B YXWTB 定义输入M 个X变量#xff0c;输出N个… 文章目录 自定义一个线性函数算子如何实现反向传播 有关 自定义算子的实现前面已经提到可以参考。本文讲述自定义算子如何前向推理反向传播进行模型训练。 自定义一个线性函数算子 线性函数 Y X W T B Y XW^T B YXWTB 定义输入M 个X变量输出N个Y变量的线性方程组。 X X X 为一个 1 x M 矩阵 W W W为 N x M 矩阵, B B B 为 1xN 矩阵根据公式输出 Y Y Y为1xN 矩阵。其中 W 和 B 为算子权重参数保存在模型中。 在训练时刻模型输入 X X X , 和监督值 Y Y Y根据 算子forward计算的 Y p Y^p Yp 计算Loss criterion( Y Y Y, Y p Y^p Yp )然后根据backward链式求导反向传播计算梯度值。最后根据梯度更新W 和 B 参数。 class LinearF(torch.autograd.Function):staticmethoddef symbolic(g, input, weight, bias):return g.op(MYLINEAR, input, weight, bias)staticmethoddef forward(ctx, input:Tensor, weight: Tensor, bias: Tensor) - Tensor:output input weight.T bias[None, ...]ctx.save_for_backward(input, weight)return outputstaticmethoddef backward(ctx, grad_output:Tensor)-Tuple[Tensor, Tensor, Tensor]:# grad_output -- [B, N] d(Loss) / d(Y)input, weight ctx.saved_tensorsgrad_input grad_output weightgrad_weight grad_output.T inputgrad_bias grad_output.sum(0)# print(grad_input: , grad_input)# print(grad_weight: , grad_weight)# print(grad_bias: , grad_bias)return grad_input, grad_weight, grad_bias 如何实现反向传播 前向推理比较简单就根据公式来既可以。反向传播backward() 怎么写呢 反向传播有两个输入参数第一个为ctx第二个grad_outputgrad_output就是对forward() 输出output 的求导如果是最后的节点那就是loss对输出的求导否则就是下一层对输出求导输出grad_input, grad_weight, grad_bias则分别对应了forward的输入input、weight、bias的梯度。这很容易理解因为是在做链式求导LinearFunction是这条链上的某个节点输入输出的数量和含义刚好相反且对应。 根据公式 Y X W T B Y XW^T B YXWTB Loss criterion( Y t Y^t_{} Yt​, Y Y_{} Y​ ) 假设我们选择判别函数为L2范数Loss ∑ j 0 N 0.5 ∗ ( Y j t − Y j ) 2 \sum_{j0}^N0.5 * (Y^t_{j}-Y_{j} )^2 ∑j0N​0.5∗(Yjt​−Yj​)2 grad_output(j) d ( L o s s ) d ( Y j ) \frac{d(Loss) }{d(Y_{j})} d(Yj​)d(Loss)​ Y j t − Y j Y^t_{j} - Y_{j} Yjt​−Yj​ 其中 Y j t Y^t_{j} Yjt​为监督值 Y j Y_{j} Yj​为模型输出值。 根据链式求导法则 对输入 X i X_{i} Xi​ 的求导为 grad_input[i] ∑ j 0 N d ( L o s s ) d ( Y j ) ∗ d ( Y j ) d ( X i ) \sum_{j0}^N\frac{d(Loss) }{d(Y_{j})}*\frac{d(Y_{j}) }{d(X_{i})} ∑j0N​d(Yj​)d(Loss)​∗d(Xi​)d(Yj​)​ ∑ j 0 N g r a d _ o u t p u t [ j ] ∗ d ( Y j ) d ( X i ) \sum_{j0}^N{grad\_output}[j] *\frac{d(Y_{j}) }{d(X_{i})} ∑j0N​grad_output[j]∗d(Xi​)d(Yj​)​ d ( Y j ) d ( X i ) \frac{d(Y_{j}) }{d(X_{i})} d(Xi​)d(Yj​)​ 即为 W i j T W j i W^T_{ij} W_{ji} WijT​Wji​ 其中i 对应X维度, j对应输出Y维度。 最后整理成矩阵形式 g r a d _ i n p u t g r a d _ o u t p u t ∗ W {grad\_input}{grad\_output} * W grad_inputgrad_output∗W 同理 g r a d _ w e i g h t g r a d _ o u t p u t T ∗ X {grad\_weight}{grad\_output}^T * X grad_weightgrad_outputT∗X g r a d _ b i a s ∑ q 0 N g r a d _ o u t p u t {grad\_bias}\sum_{q0}^N{grad\_output} grad_bias∑q0N​grad_output 最后根据公式形式得到backward(函数。 反向传播的梯度求解还是不容易的一不小心可能算错了所以务必在模型训练以前检查梯度计算的正确性。pytorch提供了torch.autograd.gradcheck方法来检验梯度计算的正确性。 其他参考文献pytorch自定义算子实现详解及反向传播梯度推导 最后根据自定义算子搭建模型训练模型参数WB。并导出onnx。参考代码如下 import torch from torch import Tensor from typing import Tuple import numpy as np class LinearF(torch.autograd.Function):staticmethoddef symbolic(g, input, weight, bias):return g.op(MYLINEAR, input, weight, bias)staticmethoddef forward(ctx, input:Tensor, weight: Tensor, bias: Tensor) - Tensor:output input weight.T bias[None, ...]ctx.save_for_backward(input, weight)return outputstaticmethoddef backward(ctx, grad_output:Tensor)-Tuple[Tensor, Tensor, Tensor]:print(grad_output: , grad_output)# grad_output -- [B, N] d(Loss) / d(Y)input, weight ctx.saved_tensorsgrad_input grad_output weightgrad_weight grad_output.T inputgrad_bias grad_output.sum(0)return grad_input, grad_weight, grad_bias#对LinearFunction进行封装 class MyLinear(torch.nn.Module):def __init__(self, in_features: int, out_features: int, dtype:torch.dtype) - None:super().__init__()self.in_features in_featuresself.out_features out_featuresself.weight torch.nn.Parameter(torch.empty((out_features, in_features), dtypedtype))self.bias torch.nn.Parameter(torch.empty((out_features,), dtypedtype))self.reset_parameters()# self.weight torch.nn.Parameter(torch.Tensor([2.0, 3.0]))# self.bias torch.nn.Parameter(torch.Tensor([4.0]))#y 2 * x1 3 * x2 4def reset_parameters(self) - None:torch.nn.init.uniform_(self.weight)torch.nn.init.uniform_(self.bias)def forward(self, input: Tensor) - Tensor:# for name, pa in self.named_parameters():# print(name, pa)return LinearF.apply(input, self.weight, self.bias) # 在此处使用if __name__ __main__:device torch.device(cuda if torch.cuda.is_available() else cpu)print(device.type)model MyLinear(2, 1, dtypetorch.float64).to(device)# torch.Tensor 默认类型为float32,使用gpu时输入数据类型与W权重类型一致否则报错# torch.Tensor([3.0, 2.0].double() 转换为float64#input torch.Tensor([3.0, 2.0], ).requires_grad_(True).unsqueeze(0).double()#input input.to(device)#assert torch.autograd.gradcheck(model, input)import torch.optim as optim#定义优化策略和判别函数optimizer optim.SGD(model.parameters(), lr0.01, momentum0.9, weight_decay5e-4)criterion torch.nn.MSELoss()for epoch in range(300):print(************** epoch: , epoch , ************************************* )inputx torch.Tensor(np.random.rand(2)).unsqueeze(0).double().to(device)lable torch.Tensor(2 * inputx[:, 0] 3 * inputx[:, 1] 4).double().to(device)print(outlable, lable)optimizer.zero_grad() # 梯度清零prob model(inputx)print(prob, prob)loss criterion(lable, prob)print(loss: , loss)loss.backward() #反向传播optimizer.step() #更新参数# 完成训练model.cpu().eval()input torch.tensor([[3.0, 2.0]], dtypetorch.float64)output model(input)torch.onnx.export(model, # 这里的args是指输入给model的参数需要传递tuple因此用括号(input,),linear.onnx, # 储存的文件路径verboseTrue, # 打印详细信息input_names[x], #为输入和输出节点指定名称方便后面查看或者操作output_names[y],opset_version11, #这里的opset指各类算子以何种方式导出对应于symbolic_opset11dynamic_axes{image: {0: batch},output: {0: batch},},operator_export_typetorch.onnx.OperatorExportTypes.ONNX_ATEN_FALLBACK)
http://www.hkea.cn/news/14444310/

相关文章:

  • 申请备案 关网站网站建设的小说
  • 虚拟机中建设iis网站mvc网站开发实例教程
  • wordpress做招聘网站太原市做网站
  • 临县网站建设建设工程合同范本
  • 网站建设协网页空间租用
  • 阳泉企业网站建设公司人力资源公司注册条件
  • 太原经济型网站建设价格h5制作软件 知乎 推荐
  • 宁波做网站的哪个好经营一个小型app多少钱
  • 怎么建商业网站怎样找到网站后台入口
  • 站酷魔方网站建设中注册深圳公司恒诚信流程
  • 网站本地环境搭建软件职业培训学校加盟
  • 潍坊网站建设服务商深圳做网站推广哪家好
  • 公众号怎么编辑制作seo平台是什么
  • 小企业做网站有用吗中山做网站服务好
  • 重庆做网站有哪些医馆网站建设方案
  • 建设一个网站需要做哪些事情怎么把网站上线
  • 手机建设网站赚钱网站的产品图片怎样做清晰
  • 哪个网站网页做的好看阜阳做网站多少钱
  • 传奇新开服网站汽车网新车报价大全
  • 省厅网站建设招标天河做网站平台
  • 厦门外贸推广站长工具seo客户端
  • 微信网站开发服务网上做娱乐广告的网站
  • 个人网站模板代码百度怎么发布短视频
  • 做的好的家装网站wordpress打开慢
  • 网站如何做流媒体ASP网站开发教程实验总结
  • 备案时网站名称可以重复吗安徽百度seo教程
  • 网站规划与设计为什么不建议做运维
  • 网页制作工具的选择与网站整体风格是有关系吗怎么做自动发卡网站
  • 枣庄专业做网站网站留言效果怎么做
  • 建站行业转型电销外包团队在哪找