聊城做网站推广地方,手机软件制作和做网站相同,神马seo服务,普通人做电商要多少钱一、说明 为了学习好深度学习#xff0c;有必要知道深度学习的整个成长历史#xff0c;可以说#xff0c;深度学习的发展历程伴随整个人工智能的成长历程#xff0c;本文将介绍这个历程的关键性历史节点。 二、深度学习的旅程 2.1 深度学习的当前认知 深度学习是机器学习的… 一、说明 为了学习好深度学习有必要知道深度学习的整个成长历史可以说深度学习的发展历程伴随整个人工智能的成长历程本文将介绍这个历程的关键性历史节点。 二、深度学习的旅程 2.1 深度学习的当前认知 深度学习是机器学习的一个更进化的分支它使用算法层来处理数据模仿思维过程或开发抽象。 它通常用于视觉识别物体和理解人类语音。信息通过每一层传递前一层的输出为下一层提供输入。网络中的第一层称为输入层最后一层称为输出层。 输入和输出之间的所有层都称为隐藏层。每层通常都是一个简单、统一的算法包含一种激活函数。 特征提取是深度学习的另一个方面。它用于模式识别和图像处理。特征提取使用算法自动构建有意义的数据“特征”以达到训练、学习和理解的目的。通常是一个数据科学家或者程序员负责特征提取。 2.2 深度学习的发起 深度学习的历史可以追溯到1943年当时沃尔特·皮茨和沃伦·麦卡洛克创建了一个基于神经网络人类大脑的那个时刻为标志。 他们使用了算法和数学的组合他们称之为“阈值逻辑”来模仿思维过程。从那时起深度学习一直在稳步发展其发展只经历了两次重大突破。两人都与臭名昭著的人有关人工智能的冬天。 2.3 20世纪60年代 亨利·J·凯利 (Henry J. Kelley) 因开发连续性基础知识而受到赞誉反向传播模型1960 年。1962 年Stuart Dreyfus 开发了仅基于链式法则的更简单版本。虽然反向传播的概念用于训练目的的误差反向传播确实在 20 世纪 60 年代初就已经存在但它笨拙且低效直到 1985 年才变得有用。 开发深度学习算法的最早努力来自 Alexey Grigoryevich Ivakhnenko开发了数据处理的分组方法和 Valentin Grigorʹevich Lapa《控制论和预测技术》的作者于 1965 年提出。他们使用具有多项式复杂方程激活函数的模型然后对模型进行统计分析。然后从每一层中统计选择的最佳特征被转发到下一层一个缓慢的手动过程。 2.4 20世纪70年代 20 世纪 70 年代第一个人工智能冬天开始了这是无法兑现承诺的结果。缺乏资金的影响限制了深度学习和人工智能研究。幸运的是有人在没有资金的情况下进行了这项研究。 首先 ”卷积神经网络”是福岛邦彦使用的。福岛设计了具有多个池化层和卷积层的神经网络。1979年他开发了一种名为Neocognitron的人工神经网络该网络采用分层、多层设计。这种设计使计算机能够“学习”识别视觉模式。这些网络类似于现代版本但采用了多层重复激活的强化策略进行训练随着时间的推移这种策略会变得更加强大。此外福岛的设计允许通过增加某些连接的“重量”来手动调整重要功能。 其中的许多概念新认知机继续使用。 自上而下的连接和新的学习方法的使用使得各种神经网络得以实现。当同时呈现多个模式时选择性注意模型可以通过将注意力从一种模式转移到另一种模式来分离和识别各个模式。我们许多人在多任务处理时使用相同的过程。现代神经认知机不仅可以识别缺失信息的模式例如不完整的数字5还可以通过添加缺失的信息来完成图像。这可以用“推理”来形容。 反向传播利用误差训练深度学习模型在 1970 年得到了显着发展。正是在那时Seppo Linnainmaa 撰写了他的硕士论文其中包括用于反向传播的 FORTRAN 代码。 不幸的是这个概念直到 1985 年才应用于神经网络。当时 Rumelhart、Williams 和 Hinton 证明了神经网络中的反向传播可以提供“有趣的”分布表示。从哲学上讲这一发现揭示了认知心理学中的问题人类的理解是否依赖于符号逻辑计算主义或分布式表示连接主义。 2.5 20世纪80年代和90年代 1989 年Yann LeCun 在贝尔实验室首次提供了反向传播的实际演示。他将卷积神经网络与反向传播读取“手写”数字。该系统最终被用来读取手写支票的号码。 这段时间也是人工智能第二个冬天1985-90年代的开始这也影响了神经网络和深度学习的研究。许多过于乐观的人夸大了人工智能的“直接”潜力超出了预期并激怒了投资者。愤怒如此强烈“人工智能”一词达到了伪科学的程度。幸运的是一些人继续致力于人工智能和深度学习的研究并取得了一些重大进展。1995 年Dana Cortes 和 Vladimir Vapnik 开发了支持向量机一种用于映射和识别相似数据的系统。用于循环神经网络的 LSTM长短期记忆由 Sepp Hochreiter 和 Juergen Schmidhuber 于 1997 年开发。 深度学习的下一个重大演变发生在 1999 年当时计算机处理数据和 GPU 的速度开始变得更快图形处理单元被开发出来。通过 GPU 处理图片更快的处理速度在 10 年内将计算速度提高了 1000 倍。在此期间神经网络开始与支持向量机竞争。虽然神经网络与支持向量机相比可能较慢但神经网络使用相同的数据提供了更好的结果。神经网络还具有随着更多训练数据的添加而不断改进的优势。 2.6 2000年-2010年 2000年左右梯度消失问题出现了。人们发现下层形成的“特征”教训并没有被上层学习因为没有学习信号到达这些层。这并不是所有神经网络的基本问题只是那些采用基于梯度的学习方法的神经网络的基本问题。问题的根源在于某些激活函数。许多激活函数压缩了它们的输入进而以某种混乱的方式减小了输出范围。这产生了映射在极小范围内的大面积输入。在这些输入区域中较大的变化将减少为输出的较小变化从而导致梯度消失。解决这个问题的两个解决方案是逐层预训练和开发长短期记忆。 2001年META Group现称为Gartner的一份研究报告将数据增长的挑战和机遇描述为三维的。该报告将数据量的增加和数据速度的增加描述为数据源和类型范围的增加。这是为应对刚刚开始的大数据冲击做好准备的呼吁。 2009 年斯坦福大学人工智能教授李飞飞发起了图像网组建了一个包含超过 1400 万张标记图像的免费数据库。互联网现在和过去都充满了未标记的图像。“训练”神经网络需要标记图像。李教授说“我们的愿景是大数据将改变机器学习的工作方式。数据驱动学习。” 2.7 2011-2020 到 2011 年GPU 的速度显着提高使得“无需”逐层预训练即可训练卷积神经网络。随着计算速度的提高深度学习在效率和速度方面具有明显的优势。一个例子是亚历克斯网一种卷积神经网络其架构在 2011 年和 2012 年期间赢得了多项国际比赛。整流线性单元用于提高速度和 dropout。 同样是在 2012 年Google Brain 发布了一个名为“猫实验。这个自由奔放的项目探索了“无监督学习”的困难。深度学习使用“监督学习”这意味着卷积神经网络是使用标记数据进行训练的想想来自 ImageNet 的图像。使用无监督学习卷积神经网络会获得未标记的数据然后被要求寻找重复出现的模式。 猫实验使用了分布在 1000 多台计算机上的神经网络。从 YouTube 上随机获取一千万张“未标记”图像显示给系统然后允许训练软件运行。训练结束时发现最高层的一个神经元对猫的图像反应强烈。该项目创始人吴恩达 (Andrew Ng) 表示“我们还发现了一个对人脸反应非常强烈的神经元。” 无监督学习仍然是深度学习领域的一个重要目标。 这生成对抗神经网络GAN于 2014 年推出。GAN 由 Ian Goodfellow 创建。通过 GAN两个神经网络在游戏中相互对抗。游戏的目标是让一个网络模仿一张照片并欺骗对手相信它是真实的。对手当然是在寻找破绽。游戏一直进行到近乎完美的照片欺骗对手为止。GAN 提供了一种完善产品的方法并且也开始被骗子使用。 三、深度学习和商业的未来 深度学习提供了基于图像的产品搜索Ebay、Etsy以及在装配线上检查产品的有效方法。第一个支持消费者便利第二个是商业生产力的例子。 目前演变人工智能依赖于深度学习。深度学习仍在不断发展需要创造性的想法。 语义技术正在与深度学习一起使用人工智能更上一层楼提供听起来更自然、更人性化的对话。 银行和金融服务机构正在使用深度学习来实现交易自动化、降低风险、检测欺诈并向投资者提供人工智能/聊天机器人建议。EIU经济学人智库的一份报告显示86% 的金融服务机构计划到 2025 年增加人工智能投资。 深度学习和人工智能正在影响新商业模式的创建。这些企业正在创造拥抱深度学习、人工智能和现代技术的新企业文化。