当前位置: 首页 > news >正文

在网站上部署淘宝联盟推广代码的推广模式.公司做网站怎么赚钱

在网站上部署淘宝联盟推广代码的推广模式.,公司做网站怎么赚钱,做销售网站需要多少钱,潍坊网站制作多少钱引言 在开篇中我们介绍了#xff0c;为节点生成节点表征#xff08;Node Representation#xff09;是图计算任务成功的关键#xff0c;我们要利用神经网络来学习节点表征。 消息传递范式是一种聚合邻接节点信息来更新中心节点信息的范式#xff0c;它将卷积算子推广到了…引言 在开篇中我们介绍了为节点生成节点表征Node Representation是图计算任务成功的关键我们要利用神经网络来学习节点表征。 消息传递范式是一种聚合邻接节点信息来更新中心节点信息的范式它将卷积算子推广到了不规则数据领域实现了图与神经网络的连接。消息传递范式因为简单、强大的特性于是被人们广泛地使用。遵循消息传递范式的图神经网络被称为消息传递图神经网络。本节中 首先我们将学习图神经网络生成节点表征的范式–消息传递Message Passing范式。接着我们将初步分析PyG中的MessagePassing基类通过继承此基类我们可以方便地构造一个图神经网络。然后我们以继承MessagePassing基类的GCNConv类为例学习如何通过继承MessagePassing基类来构造图神经网络。再接着我们将对MessagePassing基类进行剖析。最后我们将学习在继承MessagePassing基类的子类中覆写message(),aggreate(),message_and_aggreate()和update()这些方法的规范。 消息传递范式介绍 下方图片展示了基于消息传递范式的聚合邻接节点信息来更新中心节点信息的过程 图中黄色方框部分展示的是一次邻接节点信息传递到中心节点的过程B节点的邻接节点A,C的信息经过变换后聚合到B节点接着B节点信息与邻接节点聚合信息一起经过变换得到B节点的新的节点信息。同时分别如红色和绿色方框部分所示遵循同样的过程C、D节点的信息也被更新。实际上同样的过程在所有节点上都进行了一遍所有节点的信息都更新了一遍。这样的“邻接节点信息传递到中心节点的过程”会进行多次。如图中蓝色方框部分所示A节点的邻接节点B,C,D的已经发生过一次更新的节点信息经过变换、聚合、再变换产生了A节点第二次更新的节点信息。多次更新后的节点信息就作为节点表征。 消息传递图神经网络遵循上述的“聚合邻接节点信息来更新中心节点信息的过程”来生成节点表征。用 x ( k − 1 ) i ∈ R F \mathbf{x}^{(k-1)}i\in\mathbb{R}^F x(k−1)i∈RF表示 ( k − 1 ) (k-1) (k−1)层中节点 i i i的节点表征 e j , i ∈ R D \mathbf{e}{j,i} \in \mathbb{R}^D ej,i∈RD 表示从节点 j j j到节点 i i i的边的属性消息传递图神经网络可以描述为 x i ( k ) γ ( k ) ( x i ( k − 1 ) , □ j ∈ N ( i ) ϕ ( k ) ( x i ( k − 1 ) , x j ( k − 1 ) , e j , i ) ) , \mathbf{x}_i^{(k)} \gamma^{(k)} \left( \mathbf{x}_i^{(k-1)}, \square_{j \in \mathcal{N}(i)} \phi^{(k)}\left(\mathbf{x}_i^{(k-1)}, \mathbf{x}_j^{(k-1)},\mathbf{e}_{j,i}\right) \right), xi(k)​γ(k)(xi(k−1)​,□j∈N(i)​ϕ(k)(xi(k−1)​,xj(k−1)​,ej,i​)), 其中 □ \square □表示可微分的、具有**排列不变性函数输出结果与输入参数的排列无关**的函数。具有排列不变性的函数有sum()函数、mean()函数和max()函数。 γ \gamma γ和 ϕ \phi ϕ表示可微分的函数如MLPs多层感知器。 注1神经网络的生成节点表征的操作称为节点嵌入Node Embedding节点表征也可以称为节点嵌入。为了统一此次组队学习中的表述我们规定节点嵌入只代指神经网络生成节点表征的操作。 注2未经过训练的图神经网络生成的节点表征还不是好的节点表征好的节点表征可用于衡量节点之间的相似性。通过监督学习对图神经网络做很好的训练图神经网络才可以生成好的节点表征。我们将在第5节介绍此部分内容。 注3节点表征与节点属性的区分遵循被广泛使用的约定此次组队学习我们也约定节点属性data.x是节点的第0层节点表征第 h h h层的节点表征经过一次的节点间信息传递产生第 h 1 h1 h1层的节点表征。不过节点属性不单指data.x广义上它就指节点的属性如节点的度等。 MessagePassing基类初步分析 Pytorch Geometric(PyG)提供了MessagePassing基类它封装了“消息传递”的运行流程。通过继承MessagePassing基类可以方便地构造消息传递图神经网络。构造一个最简单的消息传递图神经网络类我们只需定义message()方法 ϕ \phi ϕ、update()方法 γ \gamma γ以及使用的消息聚合方案aggr“add”、aggrmean或aggr“max”。这一切是在以下方法的帮助下完成的 MessagePassing(aggradd, flowsource_to_target, node_dim-2)对象初始化方法 aggr定义要使用的聚合方案“add”、mean 或 “max” flow定义消息传递的流向source_to_target 或 “target_to_source” node_dim定义沿着哪个维度传播默认值为**-2**也就是节点表征张量Tensor的哪一个维度是节点维度。节点表征张量x形状为[num_nodes, num_features]其第0维度也是第-2维度是节点维度其第1维度也是第-1维度是节点表征维度所以我们可以设置node_dim-2。 注MessagePassing(……)等同于MessagePassing.__init__(……)MessagePassing.propagate(edge_index, sizeNone, **kwargs) 开始传递消息的起始调用在此方法中message、update等方法被调用。 它以edge_index边的端点的索引和flow消息的流向以及一些额外的数据为参数。 请注意propagate()不局限于基于形状为[N, N]的对称邻接矩阵进行“消息传递过程”。基于非对称的邻接矩阵进行消息传递当图为二部图时需要传递参数size(N, M)。 如果设置sizeNone则认为邻接矩阵是对称的。MessagePassing.message(...) 首先确定要给节点 i i i传递消息的边的集合 如果flow“source_to_target”则是 ( j , i ) ∈ E (j,i) \in \mathcal{E} (j,i)∈E的边的集合 如果flow“target_to_source”则是 ( i , j ) ∈ E (i,j) \in \mathcal{E} (i,j)∈E的边的集合。 接着为各条边创建要传递给节点 i i i的消息即实现 ϕ \phi ϕ函数。 MessagePassing.message(…)方法可以接收传递给MessagePassing.propagate(edge_index, sizeNone, **kwargs)方法的所有参数我们在message()方法的参数列表里定义要接收的参数例如我们要接收x,y,z参数则我们应定义message(x,y,z)方法。 传递给propagate()方法的参数如果是节点的属性的话可以被拆分成属于中心节点的部分和属于邻接节点的部分只需在变量名后面加上_i或_j。例如我们自己定义的message方法包含参数x_i那么首先propagate()方法将节点表征拆分成中心节点表征和邻接节点表征接着propagate()方法调用message方法并传递中心节点表征给参数x_i。而如果我们自己定义的meassage方法包含参数x_j那么propagate()方法会传递邻接节点表征给参数x_j。 我们用 i i i表示“消息传递”中的中心节点用 j j j表示“消息传递”中的邻接节点。MessagePassing.aggregate(...) 将从源节点传递过来的消息聚合在目标节点上一般可选的聚合方式有sum, mean和max。MessagePassing.message_and_aggregate(...) 在一些场景里邻接节点信息变换和邻接节点信息聚合这两项操作可以融合在一起那么我们可以在此方法里定义这两项操作从而让程序运行更加高效。MessagePassing.update(aggr_out, ...): 为每个节点 i ∈ V i \in \mathcal{V} i∈V更新节点表征即实现 γ \gamma γ函数。此方法以aggregate方法的输出为第一个参数并接收所有传递给propagate()方法的参数。 MessagePassing子类实例 我们以继承MessagePassing基类的GCNConv类为例学习如何通过继承MessagePassing基类来实现一个简单的图神经网络。 GCNConv的数学定义为 x i ( k ) ∑ j ∈ N ( i ) ∪ i 1 deg ⁡ ( i ) ⋅ deg ⁡ ( j ) ⋅ ( Θ ⋅ x j ( k − 1 ) ) , \mathbf{x}_i^{(k)} \sum_{{j \in \mathcal{N}(i) \cup { i }}} \frac{1}{\sqrt{\deg(i)} \cdot \sqrt{\deg(j)}} \cdot \left( \mathbf{\Theta} \cdot \mathbf{x}_j^{(k-1)} \right), xi(k)​j∈N(i)∪i∑​deg(i) ​⋅deg(j) ​1​⋅(Θ⋅xj(k−1)​), 其中邻接节点的表征 x j ( k − 1 ) \mathbf{x}_j^{(k-1)} xj(k−1)​首先通过与权重矩阵 Θ \mathbf{\Theta} Θ相乘进行变换然后按端点的度 deg ⁡ ( i ) , deg ⁡ ( j ) \deg(i), \deg(j) deg(i),deg(j)进行归一化处理最后进行求和。这个公式可以分为以下几个步骤 向邻接矩阵添加自环边。对节点表征做线性转换。计算归一化系数。归一化邻接节点的节点表征。将相邻节点表征相加求和 聚合。 步骤1-3通常是在消息传递发生之前计算的。步骤4-5可以使用MessagePassing基类轻松处理。该层的全部实现如下所示。 import torch from torch_geometric.nn import MessagePassing from torch_geometric.utils import add_self_loops, degreeclass GCNConv(MessagePassing):def __init__(self, in_channels, out_channels):super(GCNConv, self).__init__(aggradd, flowsource_to_target)# Add aggregation (Step 5).# flowsource_to_target 表示消息从源节点传播到目标节点self.lin torch.nn.Linear(in_channels, out_channels)def forward(self, x, edge_index):# x has shape [N, in_channels]# edge_index has shape [2, E]# Step 1: Add self-loops to the adjacency matrix.edge_index, _ add_self_loops(edge_index, num_nodesx.size(0))# Step 2: Linearly transform node feature matrix.x self.lin(x)# Step 3: Compute normalization.row, col edge_indexdeg degree(col, x.size(0), dtypex.dtype)deg_inv_sqrt deg.pow(-0.5)norm deg_inv_sqrt[row] * deg_inv_sqrt[col]# Step 4-5: Start propagating messages.return self.propagate(edge_index, xx, normnorm)def message(self, x_j, norm):# x_j has shape [E, out_channels]# Step 4: Normalize node features.return norm.view(-1, 1) * x_jGCNConv继承了MessagePassing并以求和作为领域节点信息聚合方式。该层的所有逻辑都发生在其forward()方法中。在这里我们首先使用torch_geometric.utils.add_self_loops()函数向我们的边索引添加自循环边步骤1以及通过调用torch.nn.Linear实例对节点表征进行线性变换步骤2。propagate()方法也在forward方法中被调用propagate()方法被调用后节点间的信息传递开始执行。 归一化系数是由每个节点的节点度得出的它被转换为每条边的节点度。结果被保存在形状为[num_edges,]的变量norm中步骤3。 edge_index 是一个形状为 [2, E] 的张量其中 E 是边的数量。 row edge_index[0] 表示边的源节点索引。 col edge_index[1] 表示边的目标节点索引。 简写就是 row, col edge_index 通过 row 和 col可以获取每条边连接的两个节点从而访问节点的度数信息。 deg degree(col, x.size(0), dtypex.dtype)在 PyTorch Geometric 中torch_geometric.utils.degree 是一个用于计算节点度数的工具函数。 它的输入是图中每条边的目标节点索引输出是每个节点的度数。 通过 degree(col, x.size(0))计算每个节点的度数。col 表示每条边的目标节点因此按 col 统计得到每个节点的入度。 x.size(0):表示图中节点的总数 N。表示张量 x 在第 0 维度即行数上的大小。在图神经网络GCN代码中x.size(0) 通常用于获取节点的数量因为 x 是节点特征矩阵。这个值用于指定度数数组的长度确保每个节点包括孤立节点的度数都能被正确计算。 dtypex.dtype:确保返回的度数张量 deg 的数据类型与输入特征张量 x 的类型一致。 deg 是一个长度为节点数 N 的张量表示每个节点的度数。 norm deg_inv_sqrt[row] * deg_inv_sqrt[col]通过 row 和 col 索引得到相应节点的度数倒数平方根并将其相乘。最终得到的 norm 是一个长度为 E边的个数 的张量。 该 norm 表示每条边的归一化因子用于后续消息传递过程中的特征归一化。 在message()方法中我们需要通过norm对邻接节点表征x_j进行归一化处理。 x_j 是从邻接节点传来的特征形状为 [E, out_channels]其中 E 是边的数量。 norm 是每条边的归一化因子形状为 [E]。 归一化因子调整形状 norm.view(-1, 1) norm 是形状 [E] 的张量。使用 .view(-1, 1) 将其调整为 [E, 1] 的形状使其可以广播broadcast到 x_j 的形状 [E, out_channels]。 归一化特征 norm.view(-1, 1) * x_j 逐元素乘法将归一化因子 norm 应用于每条边的特征 x_j。这一步相当于将邻接矩阵的归一化权重应用于节点特征确保每条边的信息根据归一化因子缩放。 通过以上内容的学习我们便掌握了创建一个仅包含一次“消息传递过程”的图神经网络的方法。如下方代码所示我们可以很方便地初始化和调用它 from torch_geometric.datasets import Planetoiddataset Planetoid(rootdataset, nameCora) data dataset[0]net GCNConv(data.num_features, 64) h_nodes net(data.x, data.edge_index) print(h_nodes.shape)通过串联多个这样的简单图神经网络我们就可以构造复杂的图神经网络模型。我们将在第5节介绍复杂图神经网络模型的构建。 MessagePassing基类剖析 在__init__()方法中我们看到程序会检查子类是否实现了message_and_aggregate()方法并将检查结果赋值给fuse属性。 class MessagePassing(torch.nn.Module):def __init__(self, aggr: Optional[str] add, flow: str source_to_target, node_dim: int -2):super(MessagePassing, self).__init__()# 此处省略n行代码# Support for fused message passing.self.fuse self.inspector.implements(message_and_aggregate)# 此处省略n行代码“消息传递过程”是从propagate方法被调用开始执行的。 class MessagePassing(torch.nn.Module):# 此处省略n行代码def propagate(self, edge_index: Adj, size: Size None, **kwargs):# 此处省略n行代码# Run fused message and aggregation (if applicable).if (isinstance(edge_index, SparseTensor) and self.fuse and not self.__explain__):coll_dict self.__collect__(self.__fused_user_args__, edge_index, size, kwargs)msg_aggr_kwargs self.inspector.distribute(message_and_aggregate, coll_dict)out self.message_and_aggregate(edge_index, **msg_aggr_kwargs)update_kwargs self.inspector.distribute(update, coll_dict)return self.update(out, **update_kwargs)# Otherwise, run both functions in separation.elif isinstance(edge_index, Tensor) or not self.fuse:coll_dict self.__collect__(self.__user_args__, edge_index, size, kwargs)msg_kwargs self.inspector.distribute(message, coll_dict)out self.message(**msg_kwargs)# 此处省略n行代码aggr_kwargs self.inspector.distribute(aggregate, coll_dict)out self.aggregate(out, **aggr_kwargs)update_kwargs self.inspector.distribute(update, coll_dict)return self.update(out, **update_kwargs)参数简介 edge_index: 边端点索引它可以是Tensor类型或SparseTensor类型。 当flowsource_to_target时节点edge_index[0]的信息将被传递到节点edge_index[1] 当flowtarget_to_source时节点edge_index[1]的信息将被传递到节点edge_index[0]size: 邻接节点的数量与中心节点的数量。 对于普通图邻接节点的数量与中心节点的数量都是N我们可以不给size传参数即让size取值为默认值None。 对于二部图邻接节点的数量与中心节点的数量分别记为M, N于是我们需要给size参数传一个元组(M, N)。kwargs: 图其他属性或额外的数据。 propagate()方法首先检查edge_index是否为SparseTensor类型以及是否子类实现了message_and_aggregate()方法如是就执行子类的message_and_aggregate方法否则依次执行子类的message(),aggregate(),update()三个方法。 message方法的覆写 前面我们介绍了传递给propagate()方法的参数如果是节点的属性的话可以被拆分成属于中心节点的部分和属于邻接节点的部分只需在变量名后面加上_i或_j。现在我们有一个额外的节点属性节点的度deg我们希望meassge方法还能接收中心节点的度我们对前面GCNConv的message方法进行改造得到新的GCNConv类 import torch from torch_geometric.nn import MessagePassing from torch_geometric.utils import add_self_loops, degreeclass GCNConv(MessagePassing):def __init__(self, in_channels, out_channels):super(GCNConv, self).__init__(aggradd, flowsource_to_target)# Add aggregation (Step 5).# flowsource_to_target 表示消息从源节点传播到目标节点self.lin torch.nn.Linear(in_channels, out_channels)def forward(self, x, edge_index):# x has shape [N, in_channels]# edge_index has shape [2, E]# Step 1: Add self-loops to the adjacency matrix.edge_index, _ add_self_loops(edge_index, num_nodesx.size(0))# Step 2: Linearly transform node feature matrix.x self.lin(x)# Step 3: Compute normalization.row, col edge_indexdeg degree(col, x.size(0), dtypex.dtype)deg_inv_sqrt deg.pow(-0.5)norm deg_inv_sqrt[row] * deg_inv_sqrt[col]# Step 4-5: Start propagating messages.return self.propagate(edge_index, xx, normnorm, degdeg.view((-1, 1)))def message(self, x_j, norm, deg_i):# x_j has shape [E, out_channels]# deg_i has shape [E, 1]# Step 4: Normalize node features.return norm.view(-1, 1) * x_j * deg_ifrom torch_geometric.datasets import Planetoiddataset Planetoid(rootdataset, nameCora) data dataset[0]net GCNConv(data.num_features, 64) h_nodes net(data.x, data.edge_index) print(h_nodes.shape)若一个数据可以被拆分成属于中心节点的部分和属于邻接节点的部分其形状必须是[num_nodes, *]因此在上方代码的第29行我们执行了**deg.view((-1, 1))**操作使得数据形状为[num_nodes, 1]然后才将数据传给propagate()方法。 aggregate方法的覆写 在前面的例子的基础上我们增加如下的aggregate方法。通过观察运行结果我们可以看到我们覆写的aggregate方法被调用同时在super(GCNConv, self).__init__(aggradd)中传递给aggr参数的值被存储到了self.aggr属性中。 import torch from torch_geometric.nn import MessagePassing from torch_geometric.utils import add_self_loops, degreeclass GCNConv(MessagePassing):def __init__(self, in_channels, out_channels):super(GCNConv, self).__init__(aggradd, flowsource_to_target)# Add aggregation (Step 5).# flowsource_to_target 表示消息从源节点传播到目标节点self.lin torch.nn.Linear(in_channels, out_channels)def forward(self, x, edge_index):# x has shape [N, in_channels]# edge_index has shape [2, E]# Step 1: Add self-loops to the adjacency matrix.edge_index, _ add_self_loops(edge_index, num_nodesx.size(0))# Step 2: Linearly transform node feature matrix.x self.lin(x)# Step 3: Compute normalization.row, col edge_indexdeg degree(col, x.size(0), dtypex.dtype)deg_inv_sqrt deg.pow(-0.5)norm deg_inv_sqrt[row] * deg_inv_sqrt[col]# Step 4-5: Start propagating messages.return self.propagate(edge_index, xx, normnorm, degdeg.view((-1, 1)))def message(self, x_j, norm, deg_i):# x_j has shape [E, out_channels]# deg_i has shape [E, 1]# Step 4: Normalize node features.return norm.view(-1, 1) * x_j * deg_idef aggregate(self, inputs, index, ptr, dim_size):print(self.aggr:, self.aggr)print(aggregate is called)return super().aggregate(inputs, index, ptrptr, dim_sizedim_size)from torch_geometric.datasets import Planetoiddataset Planetoid(rootdataset, nameCora) data dataset[0]net GCNConv(data.num_features, 64) h_nodes net(data.x, data.edge_index) print(h_nodes.shape)message_and_aggregate方法的覆写 在一些案例中“消息传递”与“消息聚合”可以融合在一起。对于这种情况我们可以覆写message_and_aggregate方法在message_and_aggregate方法中一块实现“消息传递”与“消息聚合”这样能使程序的运行更加高效。 import torch from torch_geometric.nn import MessagePassing from torch_geometric.utils import add_self_loops, degree from torch_sparse import SparseTensorclass GCNConv(MessagePassing):def __init__(self, in_channels, out_channels):super(GCNConv, self).__init__(aggradd, flowsource_to_target)# Add aggregation (Step 5).# flowsource_to_target 表示消息从源节点传播到目标节点self.lin torch.nn.Linear(in_channels, out_channels)def forward(self, x, edge_index):# x has shape [N, in_channels]# edge_index has shape [2, E]# Step 1: Add self-loops to the adjacency matrix.edge_index, _ add_self_loops(edge_index, num_nodesx.size(0))# Step 2: Linearly transform node feature matrix.x self.lin(x)# Step 3: Compute normalization.row, col edge_indexdeg degree(col, x.size(0), dtypex.dtype)deg_inv_sqrt deg.pow(-0.5)norm deg_inv_sqrt[row] * deg_inv_sqrt[col]# Step 4-5: Start propagating messages.adjmat SparseTensor(rowedge_index[0], coledge_index[1], valuetorch.ones(edge_index.shape[1]))# 此处传的不再是edge_idex而是SparseTensor类型的Adjancency Matrixreturn self.propagate(adjmat, xx, normnorm, degdeg.view((-1, 1)))def message(self, x_j, norm, deg_i):# x_j has shape [E, out_channels]# deg_i has shape [E, 1]# Step 4: Normalize node features.return norm.view(-1, 1) * x_j * deg_idef aggregate(self, inputs, index, ptr, dim_size):print(self.aggr:, self.aggr)print(aggregate is called)return super().aggregate(inputs, index, ptrptr, dim_sizedim_size)def message_and_aggregate(self, adj_t, x, norm):print(message_and_aggregate is called)# 没有实现真实的消息传递与消息聚合的操作from torch_geometric.datasets import Planetoiddataset Planetoid(rootdataset, nameCora) data dataset[0]net GCNConv(data.num_features, 64) h_nodes net(data.x, data.edge_index) # print(h_nodes.shape)运行程序后我们可以看到虽然我们同时覆写了message方法和aggregate方法然而只有message_and_aggregate方法被执行。 update方法的覆写 from torch_geometric.datasets import Planetoid import torch from torch_geometric.nn import MessagePassing from torch_geometric.utils import add_self_loops, degree from torch_sparse import SparseTensorclass GCNConv(MessagePassing):def __init__(self, in_channels, out_channels):super(GCNConv, self).__init__(aggradd, flowsource_to_target)# Add aggregation (Step 5).# flowsource_to_target 表示消息从源节点传播到目标节点self.lin torch.nn.Linear(in_channels, out_channels)def forward(self, x, edge_index):# x has shape [N, in_channels]# edge_index has shape [2, E]# Step 1: Add self-loops to the adjacency matrix.edge_index, _ add_self_loops(edge_index, num_nodesx.size(0))# Step 2: Linearly transform node feature matrix.x self.lin(x)# Step 3: Compute normalization.row, col edge_indexdeg degree(col, x.size(0), dtypex.dtype)deg_inv_sqrt deg.pow(-0.5)norm deg_inv_sqrt[row] * deg_inv_sqrt[col]# Step 4-5: Start propagating messages.adjmat SparseTensor(rowedge_index[0], coledge_index[1], valuetorch.ones(edge_index.shape[1]))# 此处传的不再是edge_idex而是SparseTensor类型的Adjancency Matrixreturn self.propagate(adjmat, xx, normnorm, degdeg.view((-1, 1)))def message(self, x_j, norm, deg_i):# x_j has shape [E, out_channels]# deg_i has shape [E, 1]# Step 4: Normalize node features.return norm.view(-1, 1) * x_j * deg_idef aggregate(self, inputs, index, ptr, dim_size):print(self.aggr:, self.aggr)print(aggregate is called)return super().aggregate(inputs, index, ptrptr, dim_sizedim_size)def message_and_aggregate(self, adj_t, x, norm):print(message_and_aggregate is called)# 没有实现真实的消息传递与消息聚合的操作def update(self, inputs, deg):print(deg)return inputsdataset Planetoid(rootdataset, nameCora) data dataset[0]net GCNConv(data.num_features, 64) h_nodes net(data.x, data.edge_index) # print(h_nodes.shape)update方法接收聚合的输出作为第一个参数此外还可以接收传递给propagate方法的任何参数。在上方的代码中我们覆写的update方法接收了聚合的输出作为第一个参数此外接收了传递给propagate的deg参数。
http://www.hkea.cn/news/14472234/

相关文章:

  • 地方门户网站模板世界500强企业中国有哪些
  • 温州市城乡建设厅网站wordpress密码修改
  • 叫任何一个人一个小时做网站山西响应式官网建设平台
  • 网络推广怎么做?青岛百度优化
  • 电子商务网站建设定位设想比价网站怎么做
  • 新网站推广我要自学网怎么样
  • 永久免费网站建设宁波网站推广优化外包公司
  • 网站建设修改教程视频做运动特卖的网站
  • 网站建设哪几家公司好wordpress主题使用帮助
  • 网站如何做映射长春建设信息网站
  • 长春网站上排名权威的郑州网站建设
  • 网站的营销特点wordpress教程_博客吧
  • 济南比较好的网站开发公司南宁seo产品优化服务
  • 英文网站设计公司国内最新新闻资讯
  • 外贸公司建网站一般多少钱莱芜网页制作公司
  • wordpress全站固定链接手机网站域名和pc域名的区别
  • 湖南建筑信息网seo平台优化
  • 做电影网站需要服务器吗seo教程书籍
  • 自己怎么做单页网站wordpress galleria
  • 网站建设开发实训报告总结营销型企业网站的建设步骤
  • 常用网站开发软件6广州有几个区分别叫什么
  • 网站服务器迁移开发软件平台
  • 网站建设公司山而南京网站南京网站开发
  • 外贸网站推广费用百度搜索数据
  • 网站设计比例深圳外贸网站制作
  • wap网站服务器网站设计提案
  • 网站开发技术路线与规范鸿星尔克网络营销案例分析
  • 齐河专业企业网站建设网站建设所需要的东西
  • 东莞网站推广企业c 类似wordpress
  • 个人做网站 私活游戏平台十大排名