当前位置: 首页 > news >正文

黄页网站大全热点链接到另一个网站怎么做

黄页网站大全,热点链接到另一个网站怎么做,crm管理,网站营销的重要价值目录 0、基本信息1、研究动机2、创新点——One For All #xff1a;unique features3、准备4、具体实现4.1、用TAGs统一来自不同领域的图数据4.2、用NOI#xff08;NODES-OF-INTEREST#xff09;统一不同图任务4.2.1、NOI子图4.2.2、NOI提示结点 4.3、用于图的上下文学习unique features3、准备4、具体实现4.1、用TAGs统一来自不同领域的图数据4.2、用NOINODES-OF-INTEREST统一不同图任务4.2.1、NOI子图4.2.2、NOI提示结点 4.3、用于图的上下文学习ICL的图提示范式GPP 5、训练和评估过程未完待续 0、基本信息 会议2024-ICLR-UNDER_REVIEW评分66610作者Anonymous authors文章链接ONE FOR ALL: TOWARDS TRAINING ONE GRAPHMODEL FOR ALL CLASSIFICATION TASKS代码链接ONE FOR ALL: TOWARDS TRAINING ONE GRAPHMODEL FOR ALL CLASSIFICATION TASKS 1、研究动机 设计一个能够解决多个任务的模型是人工智能长期发展的一个目标。最近LLMs因其强大的学习能力在执行跨领域的下游任务上取巨大的成功但是在图领域上还没有一个统一的模型解决图结构数据上不同的任务。 面临的挑战—— 1来自不同领域的图数据集通常在特征表示上不同。 具体来说来自不同领域的图数据特征有不同的维度大小分布和语义意义几乎不可能使用一个相同的模型直接学习这些数据的表征。 2图领域中不同的下游任务涉及图的不同的部分以及需要指定任务的知识和方法。 图上任务可以分为结点级边级和图级的任务图神经网络在不同类任务上成功背后的原因是不同的。结点级任务——节点特征恰当的平滑边级or图级任务——编码局部结构很重要。一个优秀的结点级任务模型不一定能够在边级or图级任务上表现优秀。 总之现有的模型不能够有效地学习不同的任务。 3如何设计一个统一的方法执行跨领域和上下文学习的图任务模型仍然是不清楚的 针对上述挑战作者提出一个通用的解决方案——one for all(OFA)用于建立和训练具有跨领域上下文学习能力的模型。 2、创新点——One For All unique features 1文本属性图TAG  OFA使用文本属性图TAGs将来自不同领域的图数据整合到一个大的TAG数据集并利用LLMs的能力从所有领域中共同学习。 9个常见的来自不同领域的数据集用文本描述图中所有的结点和边然后使用单个LLM将来自不同领域的文本嵌入到同一个嵌入空间。 2NOI子图 和NOI提示结点  NOInodes-of-interest子图 和NOI提示结点不仅统一了不同类型的图任务而且提高了基础模型学习图中结构信息的能力。 3图提示范式 (GPP) 图提示范式 (graph prompting paradigmGPP)——插入一个提示图到原始的输入图中的特定任务的方式。提示图中的节点包含关于下游任务的所有相关信息由文本描述并由与输入图相同的LLM编码器编码。然后修改后的图形成为基础模型的实际输入。 因此OFA是自适应的根据提示图以执行不同的任务。训练后用户可以用自然文本描述任何图形并应用OFA管道来预测可能看不见的类。 3、准备 文本属性图TAGs  将TAG定义为一个图图中的每个节点和每条边都与一个文本句子相关联。 TAG G ( V , E , R ) \mathcal{G}(\mathcal{V},\mathcal{E},\mathcal{R}) G(V,E,R) V { v 1 , … , v ∣ V ∣ } \mathcal{V}\{v_1,\dots ,v_{|\mathcal{V}|}\} V{v1​,…,v∣V∣​}是结点集合 R { r 1 , … , r R } \mathcal{R}\{r_1,\dots,r_{\mathcal{R}}\} R{r1​,…,rR​}是关系集合 E { e 1 , … , e ∣ E ∣ } \mathcal{E}\{e_1,\dots,e_{|\mathcal{E}|}\} E{e1​,…,e∣E∣​}是边集合。一条边 e i j ( v i , r , v j ) ∈ E e_{ij}(v_i,r,v_j)\in \mathcal{E} eij​(vi​,r,vj​)∈E由源结点 v i ∈ V v_i\in \mathcal{V} vi​∈V关系 r ∈ R r\in \mathcal{R} r∈R和目的结点 v j ∈ V v_j\in \mathcal{V} vj​∈V组成。 s v i s_{v_i} svi​​定义为与结点 v i v_i vi​相关的文本句子 s e i j s_{e_{ij}} seij​​表示与边 e i j ∈ E e_{ij}\in \mathcal{E} eij​∈E相关联的文本句子。 N k ( v ) \mathcal{N}_k(v) Nk​(v)定义为结点 v v v的 k k k跳内所有邻居结点的集合。 学习情景——分类问题 定义一个数据集 D { ( d i , y i ) } 1 D \mathcal{D}\{(d_i,y_i)\}_1^D D{(di​,yi​)}1D​ D D D为数据集中数据的数量 d i d_i di​是一个数据样本 y i ∈ Y y_i\in\mathcal{Y} yi​∈Y是 d i d_i di​的标签 Y \mathcal{Y} Y是所有数据标签的集合。将数据集划分为训练集验证集和测试集即 D t r a i n , D v a l , D t e s t \mathcal{D}_{train},\mathcal{D}_{val},\mathcal{D}_{test} Dtrain​,Dval​,Dtest​.对应的标签集合为 Y t r a i n , Y v a l , Y t e s t \mathcal{Y}_{train},\mathcal{Y}_{val},\mathcal{Y}_{test} Ytrain​,Yval​,Ytest​. 关注三种学习情景 1监督学习  该模型将在 D t r a i n D_{train} Dtrain​上进行训练并在 D v a l D_{val} Dval​上进行评估来选择最好的模型。最后使用 D t e s t D_{test} Dtest​对模型的性能进行评估。验证集和测试集数据中的所有标签都在训练过程中已知即 Y t r a i n Y t e s t \mathcal{Y}_{train} \mathcal{Y}_{test} Ytrain​Ytest​ 2少样本学习  少样本学习的训练和评估过程与监督学习类似但是在少样本学习中 Y t r a i n ∩ Y t e s t ∅ \mathcal{Y}_{train}\cap \mathcal{Y}_{test}\emptyset Ytrain​∩Ytest​∅. 少样本学习通常处理 N-way K-shot任务其中使用 N ∗ K N*K N∗K数据 { ( d i , y i ) } 1 N ∗ K \{(d_i,y_i)\}^{N*K}_1 {(di​,yi​)}1N∗K​作为支持样本使得每个不同的类都提供有 K K K个标记数据其中 N N N是不同类的总数。接下来给定这些支持样本模型需要将查询集合 Q { d i } 1 n \mathcal{Q} \{d_i\}^n_1 Q{di​}1n​中的数据分类到这 N N N个类中。 3零样本学习  这可以被看作是少数学习的特殊情况。在零次学习中对于任何 N-way K-shot任务将 K 0 K 0 K0因为没有支持样本。 zero-shot learning 是机器学习中的一种策略其目标是使模型能够理解并识别它在训练阶段未曾遇到过的类别。 few-shot learning旨在在只给出非常少量已知类别的标注数据时通过学习如何利用这些数据来泛化到未知类别上完成分类任务。 one-shot learning在只给出单个样本时通过学习如何利用这个样本来泛化到未知类别上完成分类任务。 4语境学习 语境学习是指通过给预先训练好的语言模型提供特定任务的例子或语境对其进行微调的过程。这种方法利用了预先训练的模型的知识和泛化能力并对其进行调整以便更好地执行手头的具体任务。  对于语言模型这主要是通过提示机制来实现的。预训练的LLM模型将由提示文本 C C C提供的提示作为输入然后通过生成以C为条件的句子的其余部分来给出任务的答案。 在语境学习过程中模型可以通过 使用语义先验知识在给定的上下文样例下预测标签从给定的样例里学习输入-标签映射 ICL主要思路是给出少量的标注样本设计任务相关的指令形成提示模板用于指导待测试样本生成相应的结果。 4、具体实现 overview 1来自不同领域的图数据聚合到具有相同形式的文本属性图TAG并使用单个LLM模型将所有的TAGs嵌入到相同的空间中 2通过NOI子图和NOI提示结点统一图域中不同类型的任务这样图模型能够自动的考虑到任务相关的信息 3图提示范式GPP将任务信息有机地注入到图数据中从而实现上下文学习。 下面来分别介绍 4.1、用TAGs统一来自不同领域的图数据 尽管不同领域图的属性不同但所有属性都可以用自然语言来描述。这种优势在于通过使用文本来描述节点和边我们可以应用LLM将不同的图形属性编码到同一空间中。 用于任何结点和边文本特征生成的标准化形式 给定一个文本属性图 G \mathcal{G} G文本特征 s v i s_{v_i} svi​​总是从文本特征结点Feature node开始表示该结点是具有原始图特征的输入结点而不是提示结点。接下来是特征类型的文本描述feature description和特征的内容feature content如果一个结点具有多个特征则将他们通过分号连接起来。 边 e i j e_{ij} eij​的文本特征 s e i j s_{e_{ij}} seij​​的构造是类似的不过文本的开始是特征边 附录B 将LLM作为编码器将所有的文本特征编码为一个固定长度的向量作为结点or边的最终输入特征。 也就是说对于结点 v i v_i vi​和边 e i j e_{ij} eij​他们的向量表征为 x i L L M ( s v i ) x_i\mathbf{LLM}(s_{v_i}) xi​LLM(svi​​) 和 x i j L L M ( s e i j ) x_{ij}\mathbf{LLM}(s_{e_{ij}}) xij​LLM(seij​​)  因为LLM编码的输入特征包含域信息所以后续的工作可以捕获和利用该信息。通常任何类型的LLM都可以用作编码器并且更强的LLM可能会产生更好的整体性能。在OFA中为了简单起见本文采用了句子转换器TransformerReimers Gurevych2019它具有很强的学习句子嵌入的能力。 4.2、用NOINODES-OF-INTEREST统一不同图任务 Nodes-of-Interest(NOI)是指任务中的一组目标结点表示为 T \mathcal{T} T。NOI不局限于列出任务级别其大小取决于预测目标。 4.2.1、NOI子图 NOI子图为由NOI结点组成的子图。 定义 S h ( v ) { V v h , E v h , R v h } S_h(v)\{\mathcal{V}_v^h,\mathcal{E}_v^h,\mathcal{R}_v^h\} Sh​(v){Vvh​,Evh​,Rvh​}为结点 v v v周围 h h h跳ego-subgraphs包含结点 v v v的 h h h跳邻居结点和所有互连的边。NOI子图 G h ( T ) \mathcal{G}_h(\mathcal{T}) Gh​(T)包含NOI中所有结点的ego-subgraphs G h ( T ) ⋃ v ∈ T S h ( v ) { ⋃ v ∈ T V v h , ⋃ v ∈ T E v h , ⋃ v ∈ T R v h } \mathcal{G}_h(\mathcal{T})\bigcup_{v\in\mathcal{T}}\mathcal{S}_h(v)\{\bigcup_{v\in\mathcal{T}}\mathcal{V}_v^h,\bigcup_{v\in\mathcal{T}}\mathcal{E}_v^h,\bigcup_{v\in\mathcal{T}}\mathcal{R}_v^h\} Gh​(T)v∈T⋃​Sh​(v){v∈T⋃​Vvh​,v∈T⋃​Evh​,v∈T⋃​Rvh​} 结点级任务——NOI就是结点本身 T { v } \mathcal{T}\{v\} T{v}且 G h ( T ) S h ( v ) \mathcal{G}_h(\mathcal{T})S_h(v) Gh​(T)Sh​(v)链接级任务—— T { v i , v j } \mathcal{T}\{v_i,v_j\} T{vi​,vj​}且 G h ( T ) S h ( v i ) ∪ S h v j \mathcal{G}_h(\mathcal{T})S_h(v_i) \cup S_h{v_j} Gh​(T)Sh​(vi​)∪Sh​vj​图级任务——NOI包含图上所有结点NOI子图 G h ( T ) ( V , E , R ) \mathcal{G}_h(\mathcal{T})(\mathcal{V},\mathcal{E},\mathcal{R}) Gh​(T)(V,E,R) 4.2.2、NOI提示结点 NOI提示结点统一不同任务中处理和readout过程。NOI提示节点与任务提示文本相关联 文本由相同的LLM进行编码。NOI提示结点与NOI中所有结点相连并通过信息传递汇总NOI和任务描述中的信息。然后将类结点附加到下游任务的提示结点中。 3.3节会详细介绍class node。每个class node保存与特定类相关的文本信息 NOI子图和NOI提示节点的结合实现了对所有节点级、边级和图级任务的统一读取和处理。此外连接到NOI的NOI提示节点可以被视为标记技巧其提升了原始图模型的表达能力以更好地学习NOI周围的结构信息。同时NOI提示节点上的任务提示文本允许图模型根据特定任务调整读出参数这在现有工作中是不可行的。 4.3、用于图的上下文学习ICL的图提示范式GPP LLMs通过提示进行情境学习使模型不需要微调就能够执行不同学习情景的各种下游任务。 上下文学习的核心原则是使输入数据与下游任务保持一致。因此图提示范式GPP就是操作输入图使模型能够从输入本身获取任务相关的信息。这种范式赋予图模型对可见和不可见类的上下文学习能力。 提示图 p ( V p , E p , R p ) \mathcal{p}(\mathcal{V}_p,\mathcal{E}_p,\mathcal{R}_p) p(Vp​,Ep​,Rp​)有两种结点第一种结点为NOI提示节点假设我们查询目标NOI子图 G h q ( T q ) ( V q h , E q h , R p ) \mathcal{G}_h^q(\mathcal{T}^q)(\mathcal{V}_q^h,\mathcal{E}_q^h,\mathcal{R}_p) Ghq​(Tq)(Vqh​,Eqh​,Rp​)则NOI提示结点为 p q p_q pq​。GPP在NOI提示结点和NOI中的每个结点之间添加一条边定义为 E c r o s s q { ( t , r t 2 p , p q ) , ( p q , r p 2 t , t ) ∣ t ∈ T q } \mathcal{E}^q_{cross}\{(t,r_{t2p},p_q),(p_q,r_{p2t},t)|t\in \mathcal{T}^q\} Ecrossq​{(t,rt2p​,pq​),(pq​,rp2t​,t)∣t∈Tq} r p 2 t r_{p2t} rp2t​和 r p 2 t r_{p2t} rp2t​分别是从NOI到NOI提示结点的边和反向边的关系。 提示图中第二种结点类型是class node。每个class node保存与特定类相关的文本信息 类节点 i i i定义为 c i c_i ci​在每个类节点和NOI提示结点添加边定义为 E q u e r y q { ( p q , r q 2 c , c i ) , ( c i , r c 2 q , p q ) ∣ i ∈ [ N ] } \mathcal{E}^q_{query}\{(p_q,r_{q2c},c_i),(c_i,r_{c2q},p_q)|i\in [N]\} Equeryq​{(pq​,rq2c​,ci​),(ci​,rc2q​,pq​)∣i∈[N]} N N N是类的数量 r q 2 c r_{q2c} rq2c​和 r c 2 q r_{c2q} rc2q​分别是从NOI提示结点到类结点的边和反向边的关系。 一个提示图为 V p { p q } ⋃ { c i ∣ i ∈ [ N ] } , E p E q u e r y ⋃ E c r o s s q , R p { r t 2 p , r p 2 t , r q 2 c , r c 2 q } . \mathcal{V}_{p}\{p_{q}\}\bigcup\{c_{i}|i\in[N]\},\mathcal{E}_{p}\mathcal{E}_{query}\bigcup\mathcal{E}_{cross}^{q},\mathcal{R}_{p}\{r_{t2p},r_{p2t},r_{q2c},r_{c2q}\}. Vp​{pq​}⋃{ci​∣i∈[N]},Ep​Equery​⋃Ecrossq​,Rp​{rt2p​,rp2t​,rq2c​,rc2q​}. 然后输入到后续图模型的提示图是输入图和提示图的组合表示为 G m ( V q h ⋃ V ^ p , E q h ⋃ L ^ p , R q h ⋃ R p ) . \mathcal{G}_{m}(\mathcal{V}_{q}^{h}\bigcup\hat{\mathcal{V}}_{p},\mathcal{E}_{q}^{h}\bigcup\hat{\mathcal{L}}_{p},\mathcal{R}_{q}^{h}\bigcup\mathcal{R}_{p}). Gm​(Vqh​⋃V^p​,Eqh​⋃L^p​,Rqh​⋃Rp​). 使用图学习模型来处理提示图并使用类节点的嵌入来进行二进制分类。具体地令 h c i h_{c_i} hci​​是来自图学习模型的类节点 c i c_i ci​的向量表示。我们预测NOI属于类别 i i i的可能性通过 P [ NOI belongs to class  i ] σ ( MLP ( h c i ) ) P[\text{NOI belongs to class }i]\sigma(\text{MLP}(h_{c_i})) P[NOI belongs to class i]σ(MLP(hci​​)) MLP是一个多层感知机其一维输出表示 h c i h_{c_i} hci​​的分类分数。 注意因为NOI提示节点和类节点连接到NOI并包含任务文本描述所以固定长度的向量 h c i h_{c_i} hci​​包含关于输入图和任务的信息使得预测依赖于任务。虽然现有的图学习方法需要为不同的任务使用不同的池化机制但这种公式化将不同级别的任务转化为类节点上相同的二进制分类任务因此所有任务都可以一起训练。对于多类问题我们比较不同类的预测得分来做出决策。 l a r g m a x i ( M L P ( h c i ) ∣ i ∈ [ N ] ) l\mathrm{argmax}_i\left(\mathrm{MLP}(h_{c_i})|i\in[N]\right) largmaxi​(MLP(hci​​)∣i∈[N]) l l l是NOI的预测类别。 GPP也可以解决少样本问题未看见类的支持NOI子图帮助更好的分类查询子图支持NOI子图定义为 G h i , k ( T k i ) \mathcal{G}_h^{i,k}(\mathcal{T}_k^i) Ghi,k​(Tki​)对于第 i i i类和第 k k k个支持样本NOI T k i T^i_k Tki​属于第 i i i类。 对于查询NOI提示节点我们通过以下方式将每个支持NOI子图连接到其对应的支持NOI提示节点 p i , k p_{i,k} pi,k​ E c r o s s s ⋃ i ∈ [ N ] , k ∈ [ K ] E c r o s s i , k ⋃ i ∈ [ N ] , k ∈ [ K ] { ( t , r t 2 p , p i , k ) , ( p i , k , r p 2 t , t ) ∣ t ∈ T k i } . \mathcal{E}_{cross}^s\bigcup_{i\in[N],k\in[K]}\mathcal{E}_{cross}^{i,k}\bigcup_{i\in[N],k\in[K]}\{(t,r_{t2p},p_{i,k}),(p_{i,k},r_{p2t},t)|t\in\mathcal{T}_k^i\}. Ecrosss​i∈[N],k∈[K]⋃​Ecrossi,k​i∈[N],k∈[K]⋃​{(t,rt2p​,pi,k​),(pi,k​,rp2t​,t)∣t∈Tki​}. 为了增强分类将支持NOI提示结点连接到其NOI所属的类节点即 E s u p p { ( p i , k , r s 2 c , c i ) ∣ i ∈ [ N ] , k ∈ [ K ] } \mathcal{E}_{supp}\{(p_{i,k},r_{s2c},c_i)|i\in[N],k\in[K]\} Esupp​{(pi,k​,rs2c​,ci​)∣i∈[N],k∈[K]}。由于查询NOI提示节点和类节点之间的关系类型 r s 2 c r_{s2c} rs2c​和 r q 2 c r_{q2c} rq2c​不同该模型能够区分查询和信息支持NOI。少镜头提示图 P \mathcal{P} P的总体组件是 V p { p q } ⋃ { p i , k ∣ i ∈ [ N ] , k ∈ [ K ] } ⋃ { c i ∣ i ∈ [ N ] } , \mathcal{V}_p\{p_q\}\bigcup\{p_{i,k}|i\in[N],k\in[K]\}\bigcup\{c_i|i\in[N]\}, Vp​{pq​}⋃{pi,k​∣i∈[N],k∈[K]}⋃{ci​∣i∈[N]}, E p E c r o s s q ⋃ E q u e r y ⋃ E c r o s s s ⋃ E s u p p , R p { r t 2 p , r p 2 t , r q 2 c , r c 2 q , r s 2 c } \mathcal{E}_p\mathcal{E}_{cross}^q\bigcup\mathcal{E}_{query}\bigcup\mathcal{E}_{cross}^s\bigcup\mathcal{E}_{supp},\quad\mathcal{R}_p\{r_{t2p},r_{p2t},r_{q2c},r_{c2q},r_{s2c}\} Ep​Ecrossq​⋃Equery​⋃Ecrosss​⋃Esupp​,Rp​{rt2p​,rp2t​,rq2c​,rc2q​,rs2c​} 提示图可以以与上面讨论的类似的方式构造。与前面提到的场景一样类节点的输出嵌入用于进行二进制分类。OFA通过将支持NOI提示节点连接到相应的类节点来利用少量支持示例并且模型综合类节点上的示例信息和任务语义信息以进行更准确的预测。请注意少数样本情景中类节点表示仍然与零样本情景中的表示一致因此它们也可以一起训练。 总而言之NOI表示与任务相关的节点集合并且提取的NOI子图包括NOI的邻域信息。然后NOI提示节点通过图学习模型总结NOI中的信息因为所有NOI节点都连接到NOI提示节点。NOI提示符节点稍后连接到一组带有文本描述的类节点。在图模型处理之后类节点表示包含类信息、任务信息和NOI信息它们可以用于独立地进行预测就像LLM的提示输入包含输入、目标和任务描述一样。 设计了一个能够识别不同边缘类型的GNN作为OFA中的图模型。 5、训练和评估过程 不管任务类型所有输入都被标准化为提示文本属性图 G m G_m Gm​OFA首先使用LLM将图中的所有文本嵌入到向量表示中 x i j L L M ( s e i j ) , ∀ e i j ∈ E m , x i L L M ( s v i ) , ∀ v i ∈ V m x_{ij}LLM(s_{e_{ij}}),\forall e_{ij}\in\mathcal{E}_{m},\quad x_{i}LLM(s_{v_{i}}),\forall v_{i}\in\mathcal{V}_{m} xij​LLM(seij​​),∀eij​∈Em​,xi​LLM(svi​​),∀vi​∈Vm​ 然后通过一个多个的信息传递层处理嵌入文本得到 G m \mathcal{G}_m Gm​中每个结点的最终嵌入 h v i l 1 W s e l f h v i l ∑ r ∈ R m ∑ v j ∈ N 1 r ( v i ) 1 ∣ N 1 r ( v i ) ∣ W r ( R e L U ( h v j l x i j ) ) h_{v_{i}}^{l1}\boldsymbol{W}_{\mathrm{self}}h_{v_{i}}^{l}\sum_{r\in\mathcal{R}_{m}}\sum_{v_{j}\in\mathcal{N}_{1}^{r}(v_{i})}\frac{1}{|\mathcal{N}_{1}^{r}(v_{i})|}\boldsymbol{W}_{r}(\mathrm{ReLU}(h_{v_{j}}^{l}x_{ij})) hvi​l1​Wself​hvi​l​r∈Rm​∑​vj​∈N1r​(vi​)∑​∣N1r​(vi​)∣1​Wr​(ReLU(hvj​l​xij​)) 其中 h v i 0 x i h_{v_i}^0x_i hvi​0​xi​ W s e l f W_{self} Wself​和 W r W_r Wr​是用于自环和关系的可训练的变换矩阵 N 1 r ( v i ) \mathcal{N}_1^r(v_i) N1r​(vi​)是连接到具有关系类型 r r r的 v i v_i vi​的直接邻居。GNN是R-GCN的拓展。 设计了一个简单的注意力层来总结从 h 1 h_1 h1​到 h L h_L hL​的所有层输出。最终的结点表征为 h v i H ⋅ S o f t m a x ( ( W k H ) ′ ⋅ W q x i ) ′ , H [ h v i 1 . . . h v i l . . . h v i L ] h_{v_i}\boldsymbol{H}\cdot Softmax((\boldsymbol{W}_k\boldsymbol{H})\cdot\boldsymbol{W}_qx_i),\quad\boldsymbol{H}[h_{v_i}^1\quad...\quad h_{v_i}^l\quad...\quad h_{v_i}^L] hvi​​H⋅Softmax((Wk​H)′⋅Wq​xi​)′,H[hvi​1​...hvi​l​...hvi​L​] W k W_k Wk​和 W q W_q Wq​是key和query可训练的权重。 最后我们收集每个类节点 { h c i ∣ ∀ v ∈ [ N ] } \{ h_{c_i}| \forall v \in[N]\} {hci​​∣∀v∈[N]}的输出节点嵌入并且使用MLP预测头对每个类节点执行二进制分类类 i i i的可能性为 p i σ ( M L P ( h c i ) ) p_i\sigma(\mathsf{MLP}(h_{c_i})) pi​σ(MLP(hci​​)) σ \sigma σ为sigmoid函数。对于多分类问题所有类别的概率为 l p argmax ⁡ ( ( p i ∣ i ∈ [ N ] ) ) , l_p\operatorname{argmax}\left((p_i|i\in[N])\right), lp​argmax((pi​∣i∈[N])), l p l_p lp​为模型的最终预测。 对于 G m \mathcal{G}_m Gm​的训练损失函数为 L G m − 1 N ∑ i 1 N y i ⋅ l o g ( p i ) ( 1 − y i ) ⋅ ( 1 − l o g ( p i ) ) \mathcal{L}_{\mathcal{G}_{m}}-\frac{1}{N}\sum_{i1}^{N}y_{i}\cdot log(p_{i})(1-y_{i})\cdot(1-log(p_{i})) LGm​​−N1​i1∑N​yi​⋅log(pi​)(1−yi​)⋅(1−log(pi​)) 其中 N N N为 G m \mathcal{G}_m Gm​中类的数量。 未完待续
http://www.hkea.cn/news/14495421/

相关文章:

  • 创新型的顺的网站制作喀什网站建设公司
  • 响应式网站建设智能优化ip形象设计报价明细
  • 建设网站的安全性介绍1688官网入口
  • 自助建站平台网站外贸网站建站方案
  • 苏州网站制作开发游戏周边产品 做网站
  • 内蒙古集宁建设厅官方网站凡科网免费网站域名注册
  • 纯flash网站菜谱网站手机源码
  • 厦门网站建设高级课程seod的中文意思
  • 临沂网站优化公司php框架做网站
  • 沧州哪里可以做网站手机自己怎么建电影网站
  • 工业信息化部网站备案查询专业设计网站的公司
  • 商务网站建设工程师是icp备案是什么意思
  • wdcp网站备份问题做本地团购网站
  • 淄博 网站设计网站开发流程是什么
  • 一个网站做十个二级域名可以用自己的电脑做网站主机
  • 做查询系统网站微信网站制作价格
  • 积分商城网站开发优化方案英语必修二电子版
  • 手机网投网站建设网站空间服务器排名
  • 现代网站开发建设流程wordpress icp
  • 常州建网站网站建设成都云
  • 网站盈利wordpress 主页文章分类
  • 四平网站建设404页面对网站的好处及设置方法郑州网站推
  • 云南做网站哪家好免费编程软件手机版
  • 郑州网站建设没效果国际域名和国内域名区别
  • 东莞市专注网站建设怎么样建设外贸购物网站
  • 学校的网站建设和资源库建设wordpress怎么设计主题
  • 试述网站建设的流程.毕业设计网站做几个页面
  • 婚纱网站策划书模板电脑端游排行榜前十名网络游戏
  • 省 两学一做 专题网站昆山教育平台网站建设
  • 网站添加wordpress外包公司