当前位置: 首页 > news >正文

大连网站的公司中国服务外包网网址

大连网站的公司,中国服务外包网网址,自助建站平台源码,两学一做考试网站在使用torch.nn.functional模块时#xff0c;需要导入包#xff1a; from torch.nn import functional 以下是常见激活函数的介绍以及对应的代码示例#xff1a; tanh (双曲正切) 输出范围#xff1a;(-1, 1) 特点#xff1a;中心对称#xff0c;适合处理归一化后的数据…        在使用torch.nn.functional模块时需要导入包 from torch.nn import functional 以下是常见激活函数的介绍以及对应的代码示例 tanh (双曲正切) 输出范围(-1, 1) 特点中心对称适合处理归一化后的数据。 公式 import torch x torch.tensor([-2.0, -1.0, 0.0, 1.0, 2.0]) y torch.nn.funcationl.tanh(x) print(y)  # 输出tensor([-0.9640, -0.7616,  0.0000,  0.7616,  0.9640]) sigmoid (S形函数) 输出范围(0, 1) 特点用于将输入映射到概率值但可能会导致梯度消失问题。 公式 y torch.nn.funcational.sigmoid(x) print(y)  # 输出tensor([0.1192, 0.2689, 0.5000, 0.7311, 0.8808]) SiLU (Sigmoid Linear Unit也称Swish)  输出范围(0, x) 特点结合了线性和非线性特性效果较好。 公式silu(x) x * sigmoid(x) y torch.nn.funcationl.silu(x) print(y)  # 输出tensor([-0.2384, -0.2689,  0.0000,  0.7311,  1.7616]) GELU (Gaussian Error Linear Unit) 输出范围接近ReLU但更加平滑。 特点常用于Transformer模型。 公式近似为gelu(x) ≈ x * sigmoid(1.702 * x) y torch.nn.functional.gelu(x) print(y)  # 输出tensor([-0.0454, -0.1588,  0.0000,  0.8413,  1.9546]) ReLU (Rectified Linear Unit) 输出范围[0, ∞) 特点简单高效是最常用的激活函数之一。 公式relu(x) max(0, x) y torch.nn.funcationl.relu(x) print(y)  # 输出tensor([0., 0., 0., 1., 2.]) ReLU_ (In-place ReLU) 输出范围[0, ∞) 特点修改原张量而不是生成新的张量节省内存。 x.relu_()  # 注意会改变x本身 print(x)  # x的值被修改为tensor([0., 0., 0., 1., 2.]) Leaky ReLU 输出范围(-∞, ∞) 特点允许负值有较小的输出避免死神经元问题。 公式leaky_relu(x) x if x 0 else alpha * x x torch.tensor([-2.0, -1.0, 0.0, 1.0, 2.0]) y torch.nn.functional.leaky_relu(x, negative_slope0.01) print(y)  # 输出tensor([-0.0200, -0.0100,  0.0000,  1.0000,  2.0000]) Leaky ReLU_ (In-place Leaky ReLU) 特点和ReLU_一样会修改原张量。 x.leaky_relu_(negative_slope0.01) print(x)  # x的值被修改 Softmax 输出范围(0, 1)且所有输出的和为1。 特点常用于多分类任务的最后一层。 公式 x torch.tensor([1.0, 2.0, 3.0]) y torch.nn.functional.softmax(x, dim0) print(y)  # 输出tensor([0.0900, 0.2447, 0.6652]) Threshold 输出范围手动设置的范围。 特点小于阈值的数被置为设定值大于等于阈值的数保持不变。 x torch.tensor([-1.0, 0.0, 1.0, 2.0]) y torch.nn.functional.threshold(x, threshold0.5, value0.0) print(y)  # 输出tensor([0., 0., 0., 2.]) Normalize 功能将张量的值标准化到指定范围。 公式normalize(x) x / max(||x||, eps) x torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]]) y torch.nn.functional.normalize(x, p2, dim1) print(y)  # 输出标准化到单位向量
http://www.hkea.cn/news/14306065/

相关文章:

  • 网站建设制作设计营销 上海网站手机端怎么制作教程
  • 网站页面关键字在哪里东莞横沥理工学校
  • 如何做网站服务器亚马逊跨境电商
  • 做网站和推广公司服装类的网站建设
  • 网站查看空间商wordpress theme options
  • 海棠网站是什么意思如何在电脑上建立网站
  • 芜湖建站公司互联网做什么比较赚钱
  • 做网站域名备案需要多久鹤壁海绵城市建设官方网站
  • 上海企业微信网站制作网站优化标题不超过多少个字符
  • 网站备案专员外贸网站外包
  • 做网站的软件叫什么wordpress媒体库缩略图不现实
  • 黄岛网站建设公司外贸怎么做
  • 大型网站后台登录地址一般是如何设置的app制作软件公司
  • 注册公司做网站中山网站推广外包
  • 北京网页制作网站网站应该怎么做运维
  • 烦恼可以做网站吗怎么创建一个软件平台
  • 在线做编程题的网站开发网站网页归档
  • 网站建设编程软件32强世界排名
  • 做网站客户需要提供的资料现在建个企业网站要多少钱
  • 网站密码管理制度长沙网络营销外包
  • 企业做企业网站的好处百度地图收录提交入口
  • 东莞网站建设 汇卓网站建设对公司有什么好处
  • 北京 网站 外包免费空间做淘宝客网站
  • 建网站要什么工做人员始兴县建设局网站
  • 网站建设计划书内容繁体中文网站 怎么做
  • 海南网站建设粤icp备校园网站模版
  • 南宁网站建设公司怎么接单网络营销概述
  • 广州骏域网站建设专家 V国外财经网站是怎么做的
  • vps建站教程小学培训机构
  • 网站专题页优化vi设计公司 北京