当前位置: 首页 > news >正文

百度怎么建设网站常用的电子商务网站

百度怎么建设网站,常用的电子商务网站,沈阳网站建设的公司哪家好,网站系统名称怎么填目录1 爱因斯坦求和由来2 爱因斯坦求和原理3 实例#xff1a;字母表示法3.1 向量运算3.2 矩阵运算3.3 张量运算4 实例#xff1a;常量表示法4.1 向量运算4.2 矩阵运算4.3 张量运算1 爱因斯坦求和由来 爱因斯坦求和约定(Einstein summation convention)是一种标记的约定#… 目录1 爱因斯坦求和由来2 爱因斯坦求和原理3 实例字母表示法3.1 向量运算3.2 矩阵运算3.3 张量运算4 实例常量表示法4.1 向量运算4.2 矩阵运算4.3 张量运算1 爱因斯坦求和由来 爱因斯坦求和约定(Einstein summation convention)是一种标记的约定又称为爱因斯坦标记法(Einstein notation)在处理关于坐标的方程式时非常有用。这约定是由阿尔伯特·爱因斯坦于1916年提出的。后来爱因斯坦与友人半开玩笑地说“这是数学史上的一大发现若不信的话可以试着返回那不使用这方法的古板日子。” 采用爱因斯坦求和约定可以使数学表达式显得简洁明快。 在深度学习中经常涉及高阶张量运算普通代数方法(如矩阵乘法)相对冗杂因此引入爱因斯坦求和约定其核心原理是将张量下标划分为自由标(free index)和哑标(dummy index)通过遍历自由标而对哑标逐元相乘求和的方式进行张量运算。 2 爱因斯坦求和原理 爱因斯坦求和原理并不复杂具体而言可以用下图来通俗理解定义 自由标在输入输出侧都出现且各出现一次的索引号哑标只在输入侧出现且出现两次的索引号。 输入、输出索引号的个数表示各参与运算张量的维度例如下图表示两个二维张量做求和运算输出一个二维张量。 3 实例字母表示法 3.1 向量运算 # 一维张量 a torch.tensor([1, 2, 3], dtypefloat) b torch.tensor([4, 5, 6], dtypefloat)# 向量内积 print(向量内积:, torch.einsum(i, i -, a, b)) # 向量点乘 print(向量点乘:,torch.einsum(i, i - i, a, b))结果如下 向量内积: tensor(32., dtypetorch.float64)向量点乘: tensor([ 4., 10., 18.], dtypetorch.float64)3.2 矩阵运算 # 二维张量 c torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]], dtypefloat) d torch.ones((3, 4), dtypefloat)# 矩阵乘法 print(矩阵乘法:, torch.einsum(ij, jk - ik, c, d)) # 转置 print(矩阵转置:, torch.einsum(ij - ji, c)) # 迹 print(迹:, torch.einsum(ii -, c)) # 对角元 print(对角元:, torch.einsum(ii - i, c)) # 矩阵按行求和 print(矩阵按行求和:, torch.einsum(ij - j, c)) # 矩阵按列求和 print(矩阵按列求和:, torch.einsum(ij - i, c)) # 矩阵所有元素求和 print(矩阵所有元素求和:, torch.einsum(ij -, c)) # 矩阵乘向量 print(矩阵乘向量:, torch.einsum(ij, j - i, c, a))结果如下 矩阵乘法: tensor([[ 6., 6., 6., 6.],[15., 15., 15., 15.],[24., 24., 24., 24.]], dtypetorch.float64) 矩阵转置: tensor([[1., 4., 7.],[2., 5., 8.],[3., 6., 9.]], dtypetorch.float64)迹: tensor(15., dtypetorch.float64)对角元: tensor([1., 5., 9.], dtypetorch.float64)矩阵按行求和: tensor([12., 15., 18.], dtypetorch.float64)矩阵按列求和: tensor([ 6., 15., 24.], dtypetorch.float64)矩阵所有元素求和: tensor(45., dtypetorch.float64)矩阵乘向量: tensor([14., 32., 50.], dtypetorch.float64)3.3 张量运算 # 高阶张量 e torch.arange(60.).reshape(5, 3, 4) f torch.arange(24.).reshape(2, 4, 3)# 三维张量压缩 print(三维张量压缩:, torch.einsum(kij, lji - kl, e, f))结果如下 三维张量压缩: tensor([[ 440., 1232.],[ 1232., 3752.],[ 2024., 6272.],[ 2816., 8792.],[ 3608., 11312.]])4 实例常量表示法 以下结果同第三节不再赘述 4.1 向量运算 索引表示法 (张量后接输入索引, 最后是输出索引)# 一维张量 a np.array([1, 2, 3], dtypefloat) b np.array([4, 5, 6], dtypefloat)# 向量内积 print(向量内积:, np.einsum(a, [0], b, [0])) # 向量点乘 print(向量点乘:,np.einsum(a, [0], b, [0], [0]))4.2 矩阵运算 # 二维张量 c np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]], dtypefloat) d np.ones((3, 4), dtypefloat)# 矩阵乘法 print(矩阵乘法:, np.einsum(c, [0, 1], d, [1, 2], [0, 2])) # 转置 print(矩阵转置:, np.einsum(c, [0, 1], [1, 0])) # 迹 print(迹:, np.einsum(c, [0, 0])) # 对角元 print(对角元:, np.einsum(c, [0, 0], [0])) # 矩阵按行求和 print(矩阵按行求和:, np.einsum(c, [0, 1], [1])) # 矩阵按列求和 print(矩阵按列求和:, np.einsum(c, [0, 1], [0])) # 矩阵所有元素求和 print(矩阵所有元素求和:, np.einsum(c, [0, 1])) # 矩阵乘向量 print(矩阵乘向量:, np.einsum(c, [0, 1], a, [1], [0]))4.3 张量运算 # 高阶张量 e np.arange(60.).reshape(5, 3, 4) f np.arange(24.).reshape(2, 4, 3)# 三维张量压缩 print(三维张量压缩:, np.einsum(e, [2, 0, 1], f, [3, 1, 0], [2, 3]))更多精彩专栏 《ROS从入门到精通》《Pytorch深度学习实战》《机器学习强基计划》《运动规划实战精讲》… 源码获取 · 技术交流 · 抱团学习 · 咨询分享 请联系
http://www.hkea.cn/news/14476394/

相关文章:

  • 定制开发一般多少钱无锡网站制作优化推广
  • 无锡网站建设制作温州网站设计服务
  • 网站开发专业广州营销课程培训班
  • 便利的邯郸网站建设asp.net网站开发基础
  • 新校区建设网站承德做网站
  • 网站工作建设站电话云服务器使用教程
  • 深圳松岗网站建设网页传奇游戏排行榜2022
  • 制作网站制作公司WordPress 多厂商
  • 公民道德建设网站如何做色流量网站
  • 福州网站建设公司哪个好适合seo软件
  • 网站建设行业淘宝装修模板nodejs做网站容易被攻击吗
  • 知企业网站怎么打不开wordpress安装问题
  • 佛山高端网站建设报价线下推广怎么做
  • 电子商务网站软件建设的垂直网站建设步骤
  • 免费的建设网站软件下载wordpress投稿验证码
  • 家政公司网站的建设建设银行跨行转账网站
  • 网站建设与管理考试题常熟沿江开发区人才网最新招聘
  • 网站技术培训学校如何用外网ip做网站
  • 做网站对电脑要求高吗加盟手机网站源码
  • 去哪找人做网站网站网警备案流程
  • 做明星简介网站侵权吗正规的网站制作电话
  • 固始做网站的公司优化网站标题
  • 寿县有做网站开发的吗手机网站建设规划图
  • 企业网站销售省级建设主管部门网站
  • 网站基本配置优秀网站h5案例分享
  • 福州网站怎么做seo网站浮动窗口怎么做
  • 搜集10个优秀网站学校网站建设机构
  • wordpress访问网站很慢做知乎网站要多少钱
  • 网站美工切图是如何做的dede网站模板怎么安装
  • 宝山做网站wordpress文章打开慢