做网站水印,优化网站图片,南京门户网站建设,同一个ip网站太多 seo阅读时间#xff1a;2023-12-8
1 介绍
年份#xff1a;2023 作者#xff1a;孙浩哲#xff0c;布朗克斯医疗卫生系统 会议#xff1a; Science and Information Conference 引用量#xff1a;4 论文主要探讨了深度学习中的模块化#xff08;modularity#xff09;概念…阅读时间2023-12-8
1 介绍
年份2023 作者孙浩哲布朗克斯医疗卫生系统 会议 Science and Information Conference 引用量4 论文主要探讨了深度学习中的模块化modularity概念模块化具有易于理解、解释、扩展、模块组合性和重用等优点。论文探讨了数据、任务和模型模块化在深度学习中的表现数据模块化指的是观察或创建不同目的的数据组任务模块化指的是将任务分解为子任务模型模块化意味着神经网络系统的架构可以分解为可识别的模块。
2 创新点
多维度综述论文从数据、任务和模型三个维度对深度学习中的模块化进行了全面的综述这种多角度的分析为理解模块化在深度学习中的作用提供了一个全面的视角。模块化定义的讨论论文对模块化这一概念进行了深入的探讨并尝试提出一个通用的定义这有助于统一不同研究者对模块化理解的差异。模块化优势的具体化详细描述了模块化在深度学习中的各种优势如易于设计、提高解释性、促进知识迁移和重用、改善泛化和样本效率等这些优势的具体阐述为模块化的应用提供了明确的指导。模块化原则的实例分析论文不仅讨论了模块化的理论基础还结合具体的深度学习子领域如计算机视觉和自然语言处理展示了模块化原则的实际应用案例。模块化与深度学习模型的结合论文探讨了如何将模块化原则与现有的深度学习模型结合包括对典型模块的分析和模块组合方式的讨论这有助于推动深度学习模型的创新和发展。模块化在不同学习场景下的应用论文讨论了模块化在少样本学习、多任务学习、持续学习等不同学习场景下的应用这有助于理解模块化在解决实际问题中的潜力。
3 相关研究
3.1 思维导图 3.2 数据模块化
数据模块化分为原生数据模块化intrinsic data modularity和人为的数据模块化imposed data modularity 原生的数据模块化指的是数据集中自然存在的、未经人为引入的模块划分。这种模块化通常是数据固有特性的反映可能源自数据的生成过程或其内在的结构。例如在一个图像数据集中不同的类别可以自然形成模块因为属于同一类别的图像在特征空间中倾向于彼此接近。固有模块化可以由数据集中的类别标签隐含地定义它反映了数据样本之间的语义关系即样本的相似性或差异性。此外数据集中的固有模块化还可以通过其他元数据特征来识别如时间、地点、性别等。代表的数据集有ImageNet、Omniglot、OmniPrint、Meta-Album、NORB、Moons Dataset、VQA v2.0、 SpeakingFaces 。 人为的数据模块化是指由人为引入的数据集划分。这种模块化是基于特定目的或为了实现特定的学习目标而人为创建的。例如在训练深度学习模型时实践者可能会将整个训练数据集划分为多个小批量mini-batches每个小批量作为一个模块进行处理。这种划分有助于减少反向传播过程中的内存需求使得训练大型深度学习模型成为可能。此外强加的模块化还可以包括数据增强、特征划分、课程学习中的非均匀小批量采样等这些都是为了更好地训练学习机器而人为设计的策略。
3.3 任务模块化
子任务分解可以分为两种模式并行分解和顺序分解。 1并行分解 将一个任务分解成可以同时并行处理的子任务。比如
同质分解当子任务彼此相似时这种分解被称为同质的。例如将多类分类问题分解为多个较小的分类问题。参数掩码使用参数掩码来识别对个别类别负责的参数子集。树状结构将神经网络分解为树状结构处理不同子集的类别确保不同类别的特征不会在网络的后层中共享。模块化二元分类器将多类分类模型分解为可重用、可替换和可组合的二元分类器模块。
2顺序分解 将任务分解为需要按特定顺序依次执行的子任务。 比如
强化学习中的应用在强化学习中复杂任务可以分解为一系列子任务或步骤代理需要按顺序学习完成这些步骤。学习效率如果学习发生在分解阶段的粒度上而不是整个任务强化学习代理将更有效地学习。信用分配任务的分解允许独立地进行信用分配失败可以追溯到具体的问题阶段而不影响其他阶段。实际应用顺序子任务分解广泛应用于实际应用中如光学字符识别OCR和自然语言处理NLP。多语言识别面对多语言识别任务时可以分解为脚本识别和特定脚本的识别两个阶段。文本识别文本识别任务通常包括解耦的文本检测定位文本的边界框和文本识别识别边界框中的文本两个子任务。NLP流程传统的自然语言处理流程包括句子分割、词标记化、词性标注、词形还原、过滤停用词和依存句法分析等子任务。
3.4 模型模块化
3.4.1 优点
设计和实现的便利性模型模块化允许神经网络由重复的层或块模式组成简化了模型架构的描述和实现。Kolmogorov复杂性模块化设计减少了模型架构描述的长度提高了描述的简洁性。硬件和软件优化标准化的神经网络构建块如全连接层和卷积层促进了为快速计算优化的硬件和软件生态系统的发展。专家知识整合模块化有助于将专家知识整合到模型设计中提升模型性能。可解释性模块化允许为每个神经网络模块分配特定子任务增强了模型的可解释性。选择性模块评估提供了对不同样本或任务间关系洞察的能力有助于条件计算的背景下理解模型行为。重用和知识转移模块化促进了跨任务的模块重用例如通过微调大型预训练模型来适应下游任务。细粒度重用研究者关注于更细粒度的模块重用假设任务共享底层模式并保留可重用模块的清单。组合泛化模块化有助于实现组合泛化即系统地重新组合已知元素以映射新输入到正确输出。知识保留模块化有助于知识保留使得知识更新和故障排除更加有针对性。减少梯度干扰和灾难性遗忘模块化有助于减轻不同任务间的梯度干扰和灾难性遗忘问题。模型扩展模块化模型可以通过增加或减少模块数量来扩展或缩小模型容量适应不同大小的数据集。计算成本与模型大小解耦基于稀疏激活的模块化方法允许增加模型容量而不增加计算成本因为每次前向传递只评估模型的一小部分。超大型模型示例如Switch Transformer展示了通过模块化可以构建具有数万亿参数的超大型模型。
3.4.2 非序列数据模块化
全连接层、卷积层、局部连接层 (类似于卷积层但移除了参数共享的约束)、低秩局部连接层 (Low-rank locally connected layers)、 群卷积层 (Group convolutional layers)、深度可分离卷积层 (Depthwise separable convolutional layers)、构建块 (多个层组合成一个更高层次的模块例如ResNet、Inception、ResNeXt和Wide ResNet中的构建块)、Inception模块、 ResNet块。
3.4.3 序列数据模块化
递归神经网络(RNN)、门控循环单元 (GRU)、长短期记忆网络 (LSTM)、自注意力层、多头自注意力、Transformer 块、视觉变换器 (Vision transformers)。
3.5 模块化的组合
3.5.1 静态模块组合
静态组合指模块组合的结构对所有输入样本或任务都是固定不变的。 比如顺序连接、集成组合 (并行方式组织)、Dropout、树形结构组合 (结合了顺序和并行组合形成树状结构)、有向无环图 (DAG)、合作组合 (每个模块作为独立的神经网络具有特定功能与集成组合不同合作组合中的模块通常是异构的)。 (a) 顺序连接 (b) 集成 © 树形结构组合 (d) 一般有向无环图 (e) 条件组合f) 合作组合
3.5.2 条件模块组合
条件组合指的是根据每个特定的输入动态地条件性地、稀疏地或选择性地激活或使用组合模块。 比如条件计算 (根据输入样本或任务的条件选择性地激活模块)、专家混合 (由多个独立的神经网络组成每个模块学习处理整体任务的一个子任务MoE)、模块崩溃 (训练过程中可能出现的问题其中一个小模块被频繁选择导致其他模块被忽视)、批量大小缩小 (条件激活的模块可能会导致处理的批量大小减少影响硬件效率)、堆叠MoE (Stacked MoE)、层次MoE (Hierarchical MoE)、网络移植通过直接移植对应新能力的模块来为通用网络添加新能力 。 (a) 堆叠MoE (b) 分层MoE
3.6 其他模块化
图论中的模块化 在图论中模块化是一个用于社区检测的度量衡量社区内部连接的密度与社区间连接的密度之比。参数聚类 受到图论中模块化度量的启发研究了神经网络训练过程中参数聚类模式的出现。结构模块化与功能专业化 通过三个启发式度量定义了结构模块化并直观地理解为子网络能够独立完成子任务的程度。结构与功能模块化的关系 通过设计场景研究了结构模块化通过模块间稀疏连接强制实现是否导致模块的功能专业化。超网络的模块化 将模块化用于描述超网络学习每个输入实例不同函数的能力。解耦表示的模块化 解耦表示旨在逆转数据生成过程将数据的潜在因素恢复到学习到的表示中其中模块化表示是解耦表示的一个理想属性。
6 思考
作者也在结论中说到在深度学习中模块化这个概念本身没有一个明确的定义所以作者将深度学习中所有可以称为模块化概念的方法、模型和结构都列举了出来并说明了这些结构的优点和特性。启发性较低。