当前位置: 首页 > news >正文

腾讯云配置wordpress国内好的seo网站

腾讯云配置wordpress,国内好的seo网站,一键生成app工具,广东响应式网站建设平台Apache TVM 是一个端到端的深度学习编译框架#xff0c;适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 → https://tvm.hyper.ai/ 作者#xff1a;Tianqi Chen 下面介绍如何在 TVM 中进行递归计算#xff08;神经网络中的典型模式#xff09;。 from…Apache TVM 是一个端到端的深度学习编译框架适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 → https://tvm.hyper.ai/ 作者Tianqi Chen 下面介绍如何在 TVM 中进行递归计算神经网络中的典型模式。 from __future__ import absolute_import, print_functionimport tvm import tvm.testing from tvm import te import numpy as npTVM 用线性算子来描述符号循环。以下线性算子计算 X 列上的累积和。 线性在张量的最高维度上进行。s_state 是描述线性转换状态的占位符。s_init 描述如何初始化前 k 个时间步长其第一个维度为 1描述了如何初始化第一个时间步长的状态。 s_update 描述了如何更新时间步长 t 处的值更新的值可通过状态占位符引用上一个时间步长的值。注意在当前或之后的时间步长引用 s_state 是无效的。 线性包含状态占位符、初始值和更新描述。推荐列出线性单元的输入线性的结果是一个张量—— s_state 在时域更新后的结果。 m te.var(m) n te.var(n) X te.placeholder((m, n), nameX) s_state te.placeholder((m, n)) s_init te.compute((1, n), lambda _, i: X[0, i]) s_update te.compute((m, n), lambda t, i: s_state[t - 1, i] X[t, i]) s_scan tvm.te.scan(s_init, s_update, s_state, inputs[X])调度线性单元 通过分别调度 update 和 init 部分来调度线性体。注意调度更新部分的第一个迭代维度是无效的。要在时间迭代上拆分用户可以在 scan_op.scan_axis 上进行调度。 s te.create_schedule(s_scan.op) num_thread 256 block_x te.thread_axis(blockIdx.x) thread_x te.thread_axis(threadIdx.x) xo, xi s[s_init].split(s_init.op.axis[1], factornum_thread) s[s_init].bind(xo, block_x) s[s_init].bind(xi, thread_x) xo, xi s[s_update].split(s_update.op.axis[1], factornum_thread) s[s_update].bind(xo, block_x) s[s_update].bind(xi, thread_x) print(tvm.lower(s, [X, s_scan], simple_modeTrue))输出结果 main primfn(X_1: handle, scan_1: handle) - ()attr {from_legacy_te_schedule: True, global_symbol: main, tir.noalias: True}buffers {X: Buffer(X_2: Pointer(float32), float32, [(stride: int32*m: int32)], [], typeauto),scan: Buffer(scan_2: Pointer(float32), float32, [(stride_1: int32*m)], [], typeauto)}buffer_map {X_1: X, scan_1: scan}preflattened_buffer_map {X_1: X_3: Buffer(X_2, float32, [m, n: int32], [stride, stride_2: int32], typeauto), scan_1: scan_3: Buffer(scan_2, float32, [m, n], [stride_1, stride_3: int32], typeauto)} {attr [IterVar(blockIdx.x: int32, (nullptr), ThreadIndex, blockIdx.x)] thread_extent floordiv((n 255), 256);attr [IterVar(threadIdx.x: int32, (nullptr), ThreadIndex, threadIdx.x)] thread_extent 256;if tir.likely((((blockIdx.x*256) threadIdx.x) n), dtypebool) {scan[(((blockIdx.x*256) threadIdx.x)*stride_3)] X[(((blockIdx.x*256) threadIdx.x)*stride_2)]}for (scan.idx: int32, 0, (m - 1)) {attr [IterVar(blockIdx.x, (nullptr), ThreadIndex, blockIdx.x)] thread_extent floordiv((n 255), 256);attr [IterVar(threadIdx.x, (nullptr), ThreadIndex, threadIdx.x)] thread_extent 256;if tir.likely((((blockIdx.x*256) threadIdx.x) n), dtypebool) {let cse_var_1: int32 (scan.idx 1)scan[((cse_var_1*stride_1) (((blockIdx.x*256) threadIdx.x)*stride_3))] (scan[((scan.idx*stride_1) (((blockIdx.x*256) threadIdx.x)*stride_3))] X[((cse_var_1*stride) (((blockIdx.x*256) threadIdx.x)*stride_2))])}} }构建和验证 可以像其他 TVM 内核一样构建线性内核这里用 numpy 来验证结果的正确性。 fscan tvm.build(s, [X, s_scan], cuda, namemyscan) dev tvm.cuda(0) n 1024 m 10 a_np np.random.uniform(size(m, n)).astype(s_scan.dtype) a tvm.nd.array(a_np, dev) b tvm.nd.array(np.zeros((m, n), dtypes_scan.dtype), dev) fscan(a, b) tvm.testing.assert_allclose(b.numpy(), np.cumsum(a_np, axis0))多阶段线性单元 以上示例用 s_update 中的一个张量计算阶段描述了线性单元可以在线性单元中使用多个张量级。 以下代码演示了有两个阶段操作的线性单元中的线性过程 m te.var(m) n te.var(n) X te.placeholder((m, n), nameX) s_state te.placeholder((m, n)) s_init te.compute((1, n), lambda _, i: X[0, i]) s_update_s1 te.compute((m, n), lambda t, i: s_state[t - 1, i] * 2, names1) s_update_s2 te.compute((m, n), lambda t, i: s_update_s1[t, i] X[t, i], names2) s_scan tvm.te.scan(s_init, s_update_s2, s_state, inputs[X])这些中间张量可以正常调度。为了确保正确性TVM 创建了一个组约束——禁用线性循环之外的 compute_at 位置的线性体。 s te.create_schedule(s_scan.op) xo, xi s[s_update_s2].split(s_update_s2.op.axis[1], factor32) s[s_update_s1].compute_at(s[s_update_s2], xo)输出结果 print(tvm.lower(s, [X, s_scan], simple_modeTrue)) main primfn(X_1: handle, scan_1: handle) - ()attr {from_legacy_te_schedule: True, global_symbol: main, tir.noalias: True}buffers {X: Buffer(X_2: Pointer(float32), float32, [(stride: int32*m: int32)], [], typeauto),scan: Buffer(scan_2: Pointer(float32), float32, [(stride_1: int32*m)], [], typeauto)}buffer_map {X_1: X, scan_1: scan}preflattened_buffer_map {X_1: X_3: Buffer(X_2, float32, [m, n: int32], [stride, stride_2: int32], typeauto), scan_1: scan_3: Buffer(scan_2, float32, [m, n], [stride_1, stride_3: int32], typeauto)} {allocate(s1: Pointer(global float32), float32, [32]), storage_scope global {for (i: int32, 0, n) {scan[(i*stride_3)] X[(i*stride_2)]}for (scan.idx: int32, 0, (m - 1)) {for (i.outer: int32, 0, floordiv((n 31), 32)) {for (i_1: int32, 0, 32) {if tir.likely((((i.outer*32) i_1) n), dtypebool) {s1_1: Buffer(s1, float32, [32], [])[i_1] (scan[((scan.idx*stride_1) (((i.outer*32) i_1)*stride_3))]*2f32)}}for (i.inner: int32, 0, 32) {if tir.likely((((i.outer*32) i.inner) n), dtypebool) {let cse_var_2: int32 (scan.idx 1)let cse_var_1: int32 ((i.outer*32) i.inner)scan[((cse_var_2*stride_1) (cse_var_1*stride_3))] (s1_1[i.inner] X[((cse_var_2*stride) (cse_var_1*stride_2))])}}}}} }多状态 对于像 RNN 这样的复杂应用需要多个递归状态。线性支持多个递归状态以下示例演示如何构建具有两种状态的递归。 m te.var(m) n te.var(n) l te.var(l) X te.placeholder((m, n), nameX) s_state1 te.placeholder((m, n)) s_state2 te.placeholder((m, l)) s_init1 te.compute((1, n), lambda _, i: X[0, i]) s_init2 te.compute((1, l), lambda _, i: 0.0) s_update1 te.compute((m, n), lambda t, i: s_state1[t - 1, i] X[t, i]) s_update2 te.compute((m, l), lambda t, i: s_state2[t - 1, i] s_state1[t - 1, 0]) s_scan1, s_scan2 tvm.te.scan([s_init1, s_init2], [s_update1, s_update2], [s_state1, s_state2], inputs[X] ) s te.create_schedule(s_scan1.op) print(tvm.lower(s, [X, s_scan1, s_scan2], simple_modeTrue))输出结果 main primfn(X_1: handle, scan_2: handle, scan_3: handle) - ()attr {from_legacy_te_schedule: True, global_symbol: main, tir.noalias: True}buffers {X: Buffer(X_2: Pointer(float32), float32, [(stride: int32*m: int32)], [], typeauto),scan: Buffer(scan_4: Pointer(float32), float32, [(stride_1: int32*m)], [], typeauto),scan_1: Buffer(scan_5: Pointer(float32), float32, [(stride_2: int32*m)], [], typeauto)}buffer_map {X_1: X, scan_2: scan, scan_3: scan_1}preflattened_buffer_map {X_1: X_3: Buffer(X_2, float32, [m, n: int32], [stride, stride_3: int32], typeauto), scan_2: scan_6: Buffer(scan_4, float32, [m, n], [stride_1, stride_4: int32], typeauto), scan_3: scan_7: Buffer(scan_5, float32, [m, l: int32], [stride_2, stride_5: int32], typeauto)} {for (i: int32, 0, n) {scan[(i*stride_4)] X[(i*stride_3)]}for (i_1: int32, 0, l) {scan_1[(i_1*stride_5)] 0f32}for (scan.idx: int32, 0, (m - 1)) {for (i_2: int32, 0, n) {let cse_var_1: int32 (scan.idx 1)scan[((cse_var_1*stride_1) (i_2*stride_4))] (scan[((scan.idx*stride_1) (i_2*stride_4))] X[((cse_var_1*stride) (i_2*stride_3))])}for (i_3: int32, 0, l) {scan_1[(((scan.idx 1)*stride_2) (i_3*stride_5))] (scan_1[((scan.idx*stride_2) (i_3*stride_5))] scan[(scan.idx*stride_1)])}} }总结 本教程演示了如何使用线性原语。 用 init 和 update 描述线性。将线性单元当作正常 schedule 进行调度。对于复杂的工作负载在线性单元中使用多个状态和步骤。 下载 Python 源代码scan.py 下载 Jupyter Notebookscan.ipynb
http://www.hkea.cn/news/14303217/

相关文章:

  • 电商网站图片兰州市七里河建设局网站
  • 河南龙王建设集团网站wordpress企业培训
  • 做公司月刊网站网站开发配置状态报告
  • 网页设计与网站建设实训报告网站备案承诺书
  • 哪个网站微博做的最好深圳网站推广策划
  • 织梦网站怎样做百度主动推送学校网站开发模式
  • 广东深广东深圳网站建设服务浙江银安建设有限公司网站
  • 网站做视频怎么赚钱的广东专业做网站排名公司
  • 可以在自己家做外卖的网站庆阳建设局网站
  • 昆山高端网站建设机构微信彩票网站网站建设
  • 做网站代码编辑工具凌云网最新消息
  • 网站建设 国鸿宁波市镇海建设交通局网站
  • 视频网站怎么搭建seo查询工具
  • 微网站开发入门推荐网站建设品牌
  • 平台推广网站排名开发做网站公司
  • 做网站策划书文档廊坊做网站公司
  • 下载模板后怎么建设网站南沙网站建设价格
  • 做影视网站怎么赚钱正规游戏代理加盟
  • 做网站一般几个人百度地图怎么看上次导航的路线
  • 网站模板整站湘潭网站建设磐石网络上班时间
  • 深圳做外贸网站运动鞋建设网站前的市场分析
  • 网站的栏目和板块设计wordpress html插件
  • 字体样式 网站鞍山网站建设优化
  • 腾讯云建设网站wordpress页眉文件名
  • 长沙网站运营外包公司上高县建设局网站
  • 自己建网站卖东西成都城乡建设局官方网站
  • 河北seo网站优化公司wordpress 网站死机
  • 开发网站的过程皖icp合肥网站建设
  • 南京旭光建设监理网站首页缙云 网站建设
  • 可以建网站的网络公司有哪些韩国网站域名