当前位置: 首页 > news >正文

HTML asp 网站wordpress更改主题名称

HTML asp 网站,wordpress更改主题名称,佛山网站推广建设,dw做网站字体 别人电脑显示对于具备完善业务逻辑的任务#xff0c;大多数情况下#xff0c;正常的人都可以给出一个符合业务逻辑的应用程序。但是对于一些包含超过人类所能考虑到的逻辑的任务#xff0c;例如面对如下任务#xff1a; 编写一个应用程序#xff0c;接受地理信息、卫星图像和一些历史…对于具备完善业务逻辑的任务大多数情况下正常的人都可以给出一个符合业务逻辑的应用程序。但是对于一些包含超过人类所能考虑到的逻辑的任务例如面对如下任务 编写一个应用程序接受地理信息、卫星图像和一些历史天气信息并预测明天的天气编写一个应用程序接受自然文本表示的问题并正确回答该问题编写一个应用程序接受一张图像识别出该图像所包含的人并在每个人周围绘制轮廓编写一个应用程序向用户推荐他们可能喜欢但在自然浏览过程中不太可能遇到的产品。 即使是顶级程序员也无难以提出完美的解决方案 原因可能各不相同。有时任务可能遵循一种随着时间推移而变化的模式我们需要程序来自动调整。 有时任务内的关系可能太复杂比如像素和抽象类别之间的关系需要数千或数百万次的计算。 即使人类的眼睛能毫不费力地完成这些难以提出完美解决方案的任务这其中的计算也超出了人类意识理解范畴。 机器学习machine learningML是一类强大的可以从经验中学习的技术。 通常采用观测数据或与环境交互的形式机器学习算法会积累更多的经验其性能也会逐步提高。 相反对于一直执行相同的业务逻辑无论积累多少经验都不会自动提高除非开发人员认识到问题并更新软件。 1 一个机器学习的例子 手机助手都有特定的唤醒词假如需要我们编写程序来响应一个“唤醒词”比如“Alexa”“小爱同学”和“Hey Siri”。整体工作流程如下图所示 从传统的编程手段出发很难有解决的方法。机器学习可以通过收集一个包含大量音频样本的数据集dataset并对包含和不包含唤醒词的样本进行标记。 利用机器学习算法我们不需要设计一个“明确地”识别唤醒词的系统。 相反我们只需要定义一个灵活的程序算法其输出由许多参数parameter决定然后使用数据集来确定当下的“最佳参数集”这些参数通过某种性能度量方式来达到完成任务的最佳性能。 任一调整参数后的程序被称为模型model。 通过操作参数而生成的所有不同程序输入-输出映射的集合称为“模型族”。 使用数据集来选择参数的元程序被称为学习算法learning algorithm。 在开始用机器学习算法解决问题之前我们必须精确地定义问题确定输入input和输出output的性质并选择合适的模型族。 在本例中模型接收一段音频作为输入然后在是或否中生成一个选择作为输出。 如果一切顺利经过一番训练模型对于“片段是否包含唤醒词”的预测通常是正确的。 在机器学习中学习learning是一个训练模型的过程。 通过这个过程我们可以发现正确的参数集从而使模型强制执行所需的行为。 换句话说我们用数据训练train模型。 训练过程通常包含如下步骤 从一个随机初始化参数的模型开始这个模型基本没有“智能”获取一些数据样本例如音频片段以及对应的是或否标签调整参数使模型在这些样本中表现得更好重复第2步和第3步直到模型在任务中的表现令人满意 在这里我们没有编写唤醒词识别器而是编写了一个“学习”程序。 如果我们用一个巨大的带标签的数据集它很可能可以“学习”识别唤醒词。 这种“通过用数据集来确定程序行为”的方法可以被看作用数据编程programming with data。 2 机器学习中的关键组件 核心组件 可以用来学习的数据data如何转换数据的模型model一个目标函数objective function用来量化模型的有效性调整模型参数以优化目标函数的算法algorithm。 2.1 数据 每个数据集由一个个样本example, sample组成大多时候它们遵循独立同分布(independently and identically distributed, i.i.d.)。 样本有时也叫做数据点data point或者数据实例data instance通常每个样本由一组称为特征features或协变量covariates的属性组成。 机器学习模型会根据这些属性进行预测。 在上面的监督学习问题中要预测的是一个特殊的属性它被称为标签label或目标target。 当处理图像数据时每一张单独的照片即为一个样本它的特征由每个像素数值的有序列表表示。 当每个样本的特征类别数量都是相同的时候其特征向量是固定长度的这个长度被称为数据的维数dimensionality。 固定长度的特征向量是一个方便的属性它可以用来量化学习大量样本。然而并不是所有的数据都可以用“固定长度”的向量表示。 以图像数据为例如果它们全部来自标准显微镜设备那么“固定长度”是可取的 但是如果图像数据来自互联网它们很难具有相同的分辨率或形状。 这时将图像裁剪成标准尺寸是一种方法但这种办法很局限有丢失信息的风险。 此外文本数据更不符合“固定长度”的要求。与传统机器学习方法相比深度学习的一个主要优势是可以处理不同长度的数据。 一般来说拥有越多数据的时候工作就越容易。 更多的数据可以被用来训练出更强大的模型从而减少对预先设想假设的依赖。 数据集的由小变大为现代深度学习的成功奠定基础。 在没有大数据集的情况下许多令人兴奋的深度学习模型黯然失色。 就算一些深度学习模型在小数据集上能够工作但其效能并不比传统方法高。 仅仅拥有海量的数据是不够的我们还需要正确的数据。 如果数据中充满了错误或者如果数据的特征不能预测任务目标那么模型很可能无效。糟糕的预测性能甚至会加倍放大事态的严重性。 一种常见的问题来自不均衡的数据集比如在一个训练数据集中某些类别的属性没有样本表示当模型遇到这样的预测对象的时候就会束手无策。 当数据不具有充分代表性甚至包含了一些社会偏见时模型就很有可能有偏见。 2.2 模型 大多数机器学习会涉及到数据的转换。深度学习与经典方法的区别主要在于前者关注的功能强大的模型这些模型由神经网络错综复杂的交织在一起包含层层数据转换因此被称为深度学习deep learning。 2.3 目标函数 机器学习可以理解为从经验中学习。这里的“学习”是指自主提高模型完成某些任务的效能。 在机器学习中我们需要定义模型的优劣程度的度量这个度量在大多数情况是“可优化”的这被称之为目标函数objective function。 我们通常定义一个目标函数并希望优化它到最低点。 因为越低越好所以这些函数有时被称为损失函数loss function或cost function。 但这只是一个惯例我们也可以取一个新的函数优化到它的最高点。 这两个函数本质上是相同的只是翻转一下符号。 当任务在试图预测数值时最常见的损失函数是平方误差squared error即预测值与实际值之差的平方。 当试图解决分类问题时最常见的目标函数是最小化错误率即预测与实际情况不符的样本比例。 有些目标函数如平方误差很容易被优化有些目标如错误率由于不可微性或其他复杂性难以直接优化。 在这些情况下通常会优化替代目标。 通常损失函数是根据模型参数定义的并取决于数据集。 在一个数据集上我们可以通过最小化总损失来学习模型参数的最佳值。 该数据集由一些为训练而收集的样本组成称为训练数据集training dataset或称为训练集training set。 然而在训练数据上表现良好的模型并不一定在“新数据集”上有同样的性能这里的“新数据集”通常称为测试数据集test dataset或称为测试集test set。 训练数据集用于拟合模型参数测试数据集用于评估拟合的模型。测试性能可能会显著偏离训练性能。 当一个模型在训练集上表现良好但不能推广到测试集时这个模型被称为过拟合overfitting的。 2.4 优化算法 获得了一些数据源及其表示、一个模型和一个合适的损失函数接下来就需要一种算法它能够搜索出最佳参数以最小化损失函数。 深度学习中大多流行的优化算法通常基于一种基本方法–梯度下降gradient descent。 简而言之在每个步骤中梯度下降法都会检查每个参数看看如果仅对该参数进行少量变动训练集损失会朝哪个方向移动。 然后它在可以减少损失的方向上优化参数。 3 机器学习分类 3.1 监督学习 监督学习supervised learning擅长在“给定输入特征”的情况下预测标签。 每个“特征-标签”对都称为一个样本example。 有时即使标签是未知的样本也可以指代输入特征。 目标是生成一个模型能够将任何输入特征映射到标签即预测。 监督学习之所以能发挥作用是因为在训练参数时我们为模型提供了一个数据集其中每个样本都有真实的标签。 用概率论术语来说我们希望预测“估计给定输入特征的标签”的条件概率。 监督学习的学习过程一般可以分为三大步骤 从已知大量数据样本中随机选取一个子集为每个样本获取真实标签。有时这些样本已有标签有时这些样本可能需要被人工标记。这些输入和相应的标签一起构成了训练数据集选择有监督的学习算法它将训练数据集作为输入并输出一个“已完成学习的模型”将之前没有见过的样本特征放到这个“已完成学习的模型”中使用模型的输出作为相应标签的预测。 即使使用简单的描述给定输入特征的预测标签监督学习也可以采取多种形式的模型并且需要大量不同的建模决策这取决于输入和输出的类型、大小和数量。 3.1.1 回归 回归regression是最简单的监督学习任务之一。 当标签取任意数值时我们称之为回归问题此时的目标是生成一个模型使它的预测非常接近实际标签值。判断回归问题的一个很好的经验法则是任何有关“有多少”的问题很可能就是回归问题。 3.1.2 分类 “哪一个”的问题叫做分类classification问题。分类问题希望模型能够预测样本属于哪个类别category正式称为类class。最简单的分类问题是只有两类这被称之为二项分类binomial classification。回归是训练一个回归函数来输出一个数值 分类是训练一个分类器来输出预测的类别。 给定一个样本特征模型为每个可能的类分配一个概率。预测类别的概率的大小传达了一种模型的不确定性。当有两个以上的类别时我们把这个问题称为多项分类multiclass classification问题。与解决回归问题不同分类问题的常见损失函数被称为交叉熵cross-entropy。 层次分类(hierarchical classification)。 3.1.3 标记问题 学习预测不相互排斥的类别的问题称为多标签分类multi-label classification。 3.1.4 搜索 在信息检索领域我们希望对一组项目进行排序。 以网络搜索为例目标不是简单的 “query-page” 分类而是在海量搜索结果中找到用户最需要的那部分。 搜索结果的排序也十分重要学习算法需要输出有序的元素子集。 该问题的一种可能的解决方案首先为集合中的每个元素分配相应的相关性分数然后检索评级最高的元素。PageRank谷歌搜索引擎背后最初的秘密武器就是这种评分系统的早期例子但它的奇特之处在于它不依赖于实际的查询。 在这里他们依靠一个简单的相关性过滤来识别一组相关条目然后根据PageRank对包含查询条件的结果进行排序。 3.1.5 推荐系统 另一类与搜索和排名相关的问题是推荐系统recommender system它的目标是向特定用户进行“个性化”推荐。 推荐系统会为“给定用户和物品”的匹配性打分这个“分数”可能是估计的评级或购买的概率。 由此对于任何给定的用户推荐系统都可以检索得分最高的对象集然后将其推荐给用户。 尽管推荐系统具有巨大的应用价值但单纯用它作为预测模型仍存在一些缺陷。 首先我们的数据只包含“审查后的反馈”用户更倾向于给他们感觉强烈的事物打分。 此外推荐系统有可能形成反馈循环推荐系统首先会优先推送一个购买量较大可能被认为更好的商品然而目前用户的购买习惯往往是遵循推荐算法但学习算法并不总是考虑到这一细节进而更频繁地被推荐。 3.1.6 序列学习 如果输入是连续的模型可能就需要拥有“记忆”功能。 序列学习需要摄取输入序列或预测输出序列或两者兼而有之。 具体来说输入和输出都是可变长度的序列。 1标记和解析 这涉及到用属性注释文本序列输入和输出的数量基本上是相同的。 通常目标是基于结构和语法假设对文本进行分解和注释以获得一些注释。 2自动语音识别 在语音识别中输入序列是说话人的录音输出序列是说话人所说内容的文本记录。 它的挑战在于与文本相比音频帧多得多声音通常以8kHz或16kHz采样。 也就是说音频和文本之间没有1:1的对应关系因为数千个样本可能对应于一个单独的单词。 这也是“序列到序列”的学习问题其中输出比输入短得多。 3文本到语音 这与自动语音识别相反。 换句话说输入是文本输出是音频文件。 在这种情况下输出比输入长得多。 4机器翻译 在语音识别中输入和输出的出现顺序基本相同。 而在机器翻译中颠倒输入和输出的顺序非常重要。 换句话说虽然我们仍将一个序列转换成另一个序列但是输入和输出的数量以及相应序列的顺序大都不会相同。 下面这个例子“错误的对齐”反应了德国人喜欢把动词放在句尾的特殊倾向。 德语: Haben Sie sich schon dieses grossartige Lehrwerk angeschaut? 英语: Did you already check out this excellent tutorial? 错误的对齐: Did you yourself already this excellent tutorial looked-at?其他学习任务也有序列学习的应用。 例如确定“用户阅读网页的顺序”是二维布局分析问题。 再比如对话问题对序列的学习更为复杂确定下一轮对话需要考虑对话历史状态以及现实世界的知识。 3.2 无监督学习 监督学习需要向模型提供巨大数据集每个样本包含特征和相应标签值。数据中不含有“目标”的机器学习问题通常被为无监督学习unsupervised learning。 无监督学习可以解决的问题 聚类clustering问题没有标签的情况下给数据分类。主成分分析principal component analysis问题找到少量的参数来准确地捕捉数据的线性相关属性。因果关系causality和概率图模型probabilistic graphical models问题描述观察到的许多数据的根本原因。生成对抗性网络generative adversarial networks提供一种合成数据的方法甚至像图像和音频这样复杂的非结构化数据。 3.3 与环境互动 预先获取大量数据然后启动模型不再与环境交互。 这里所有学习都是在算法与环境断开后进行的被称为离线学习offline learning。 对于监督学习从环境中收集数据的过程可以描述为 离线学习的特点 好的一面是我们可以孤立地进行模式识别而不必分心于其他问题。缺点是解决的问题相当有限。 我们可能会期望人工智能不仅能够做出预测而且能够与真实环境互动。 与预测不同“与真实环境互动”实际上会影响环境。 这里的人工智能是“智能代理”而不仅是“预测模型”。 当训练和测试数据不同时会出现分布偏移distribution shift的问题。 3.4 强化学习 在强化学习问题中智能体agent在一系列的时间步骤上与环境交互。 在每个特定时间点智能体从环境接收一些观察observation并且必须选择一个动作action然后通过某种机制有时称为执行器将其传输回环境最后智能体从环境中获得奖励reward。 此后新一轮循环开始智能体接收后续观察并选择后续操作依此类推。 强化学习的过程如下图 强化学习的目标是产生一个好的策略policy。 强化学习智能体选择的“动作”受策略控制即一个从环境观察映射到行动的功能。 强化学习框架的通用性十分强大。可以将任何监督学习问题转化为强化学习问题。 假设我们有一个分类问题可以创建一个强化学习智能体每个分类对应一个“动作”。 然后我们可以创建一个环境该环境给予智能体的奖励。 这个奖励与原始监督学习问题的损失函数是一致的。 强化学习还可以解决许多监督学习无法解决的问题。 在强化学习中我们并不假设环境告诉智能体每个观测的最优动作。 一般来说智能体只是得到一些奖励。 此外环境甚至可能不会告诉是哪些行为导致了奖励。 强化学习可能还必须处理部分可观测性问题。 也就是说当前的观察结果可能无法阐述有关当前状态的所有信息。 在任何时间点上强化学习智能体可能知道一个好的策略但可能有许多更好的策略从未尝试过的。 强化学习智能体必须不断地做出选择是应该利用当前最好的策略还是探索新的策略空间放弃一些短期回报来换取知识。 一般的强化学习问题是一个非常普遍的问题。 智能体的动作会影响后续的观察而奖励只与所选的动作相对应。 环境可以是完整观察到的也可以是部分观察到的。 当环境可被完全观察到时强化学习问题被称为马尔可夫决策过程markov decision process。 当状态不依赖于之前的操作时我们称该问题为上下文赌博机contextual bandit problem。 当没有状态只有一组最初未知回报的可用动作时这个问题就是经典的多臂赌博机multi-armed bandit problem。 4 深度学习发展 大约2010年开始那些在计算上看起来不可行的神经网络算法变得热门起来实际上是以下两点导致的 其一随着互联网的公司的出现为数亿在线用户提供服务大规模数据集变得触手可及另外廉价又高质量的传感器、廉价的数据存储克莱德定律以及廉价计算摩尔定律的普及特别是GPU的普及使大规模算力唾手可得。 在过去取得巨大进步的想法; 新的容量控制方法如dropout (Srivastava et al., 2014)有助于减轻过拟合的危险。这是通过在整个神经网络中应用噪声注入 (Bishop, 1995) 来实现的出于训练目的用随机变量来代替权重。注意力机制解决了困扰统计学一个多世纪的问题如何在不增加可学习参数的情况下增加系统的记忆和复杂性。研究人员通过使用只能被视为可学习的指针结构 (Bahdanau et al., 2014) 找到了一个优雅的解决方案。不需要记住整个文本序列例如用于固定维度表示中的机器翻译所有需要存储的都是指向翻译过程的中间状态的指针。这大大提高了长序列的准确性因为模型在开始生成新序列之前不再需要记住整个序列。多阶段设计。例如存储器网络 (Sukhbaatar et al., 2015) 和神经编程器-解释器 (Reed and De Freitas, 2015)。它们允许统计建模者描述用于推理的迭代方法。这些工具允许重复修改深度神经网络的内部状态从而执行推理链中的后续步骤类似于处理器如何修改用于计算的存储器。另一个关键的发展是生成对抗网络 (Goodfellow et al., 2014) 的发明。传统模型中密度估计和生成模型的统计方法侧重于找到合适的概率分布通常是近似的和抽样算法。因此这些算法在很大程度上受到统计模型固有灵活性的限制。生成式对抗性网络的关键创新是用具有可微参数的任意算法代替采样器。然后对这些数据进行调整使得鉴别器实际上是一个双样本测试不能区分假数据和真实数据。通过使用任意算法生成数据的能力它为各种技术打开了密度估计的大门。即使是业余的涂鸦者也可以根据描述场景布局的草图生成照片级真实图像。在许多情况下单个GPU不足以处理可用于训练的大量数据。在过去的十年中构建并行和分布式训练算法的能力有了显著提高。并行计算的能力也对强化学习的进步做出了相当关键的贡献。这导致了计算机在围棋、雅达里游戏、星际争霸和物理模拟例如使用MuJoCo中实现超人性能的重大进步。如果有大量的状态、动作、奖励三元组可用即只要有可能尝试很多东西来了解它们之间的关系强化学习就会发挥最好的作用。深度学习框架在传播思想方面发挥了至关重要的作用。 机器学习既是人工智能的一个分支也是人工智能的一种方法。深度学习是机器学习的一个子集。深度学习是“深度”的模型学习了许多“层”的转换每一层提供一个层次的表示。由于表示学习representation learning目的是寻找表示本身因此深度学习可以称为“多级表示学习”。
http://www.hkea.cn/news/14313964/

相关文章:

  • 百度不做网站外链是什么原因wordpress淘点金插件
  • 网站要做几个备案大连专业模板网站制作
  • 江门专业做网站o2o商超网站建设
  • 网站建设沟通话术做搜狗网站优化首页
  • 物流货运网站济南网站建设工资
  • 电子商务网站建设如何策划与实施wordpress 5.01不要升级
  • 网站开发建站免费的html模版下载
  • 网站开发立项网站开发 ssh 菜鸟
  • 建设网站站点有哪些步骤做一个网站完整的网页
  • 网站设计思路方案南昌网站建设专业公司
  • 网站支付宝网上支付功能怎么做自己做首饰的好网站
  • 公司企业网络推广优化网站是什么意思
  • 免费注册的网站电子商务企业网站制作
  • 网站建设 seo商情网打车软件app开发
  • 心悦会员免做卡网站爱站网
  • 伍佰亿搜索引擎网站系统门户网站建设 交流发言
  • 苏州网站制作排名优化几十万做网站平台
  • 红色网站呢怎样在赶集微网站做微招聘
  • 网站开发常用的开发工具企业邮箱怎么申请账号
  • 做网站学注册保险代理公司需要什么条件
  • 邯郸企业网站建设费用深圳市深企在线技术开发有限公司
  • 用图片做简单网站网络营销的主要传播渠道是
  • 云主机重装系统后网站重新部署吗做推文网站
  • 隆尧网站生活信息网站建设
  • 免费开源企业网站程序wordpress邮箱插件
  • 上海黄金网站设计浅谈旅游网站的规划与建设
  • 网站开发系统计划书wordpress 搭建网站
  • 怎么备份网站模板网站建设为什么要全款
  • 在一个网站上面发布广告怎么做做网站实验报告
  • 演讲网站开发背景营销推广型网站价格