网站定位授权开启权限怎么做,wordpress 插件 速度,网站怎么企业备案,sem工具是什么1、监督学习简介
监督学习#xff08;Supervised Learning#xff09;是一种重要的机器学习方法#xff0c;它的目标是通过“已知输入特征”来预测对应的标签。在监督学习中#xff0c;每一个“特征-标签”对被称为样本#xff08;example#xff09;#xff0c;这些样…1、监督学习简介
监督学习Supervised Learning是一种重要的机器学习方法它的目标是通过“已知输入特征”来预测对应的标签。在监督学习中每一个“特征-标签”对被称为样本example这些样本通常包含明确的标签用于训练模型。
1. 什么是监督学习
监督学习的核心在于构建一个模型将输入特征映射到相应的标签从而实现预测。举一个简单的例子假如我们需要预测某位患者是否会心脏病发作那么“心脏病发作”或“心脏病没有发作”就是标签而输入特征则可能是患者的生命体征例如心率、舒张压、收缩压等。
2. 监督学习如何运作
监督学习的运作基于一个标记过的数据集。这个数据集包含了许多样本并且每个样本都附带真实标签。通过训练过程模型能够学习并近似估计给定输入特征的条件概率。这种方法广泛应用于工业场景中因为许多问题都可以被描述为“在已有数据的基础上估计未知信息”。
常见的应用场景包括
基于计算机断层扫描CT图像预测是否为癌症根据英语句子预测正确的法语翻译根据本月财务数据预测下个月的股票价格。
3. 监督学习的步骤
监督学习的过程通常可以分为三个主要步骤 数据采集与标签从大量数据样本中随机选取一个子集并获取每个样本的真实标签。这些标签有时是现成的如患者的恢复情况有时需要人工标记如图像分类。最终这些特征和标签构成了训练数据集。 选择算法并训练模型选择一个适合的有监督学习算法并使用训练数据集作为输入输出一个完成训练的模型。 模型预测将之前未见过的样本特征输入到已经训练完成的模型中使用模型输出的结果作为预测的标签。
下图展示了整个监督学习过程的逻辑结构 4. 多种模型与建模决策
监督学习的模型形式多种多样具体选择取决于输入和输出的类型、大小和数量。例如在处理不同长度的序列数据时我们需要使用不同的模型来进行建模。尽管一些模型可能比较简单但在面对不同类型的问题时往往需要进行复杂的建模决策。
2、常见的监督学习
2.1回归
回归问题的本质在于预测连续数值型输出。下面我们详细解释一下什么是连续
“连续”是指输出的值可以在一个连续的数值范围内取任意实数而不是仅限于某些特定的点或离散的值。简单来说连续数值是指没有中断或离散的间隔数据可以在一个区间内平滑变化。
例如 房价预测房价可能是100,000美元、250,000美元甚至可以是123,456.78美元。它可以是任何值不是固定在某些离散的类别里比如高价、中价、低价。 温度预测温度可能是23.5℃、24.8℃等也可以是25.123℃温度值可以变化为任何小数点后的数而不是仅限于整度。 时间预测比如你预测一个项目完成需要10.5天输出的时间是连续的它可以是10天、10.1天、10.2天等等而不是固定在整数的天数上。
连续 vs 离散
连续可以取任意数值例如1.2、3.456、10.56789……。离散只能取固定的值或类别例如1、2、3……或类别A、类别B。
因此连续是指输出的值可以在某个区间内取到任何值没有跳跃或间断。
具体来说回归问题的目标是找到一个数学模型将输入特征如房屋的面积、卧室数量等与对应的连续数值标签如房屋价格、电影评分等联系起来使得模型能够根据给定的输入特征对标签进行合理的预测。
总结回归问题的本质有以下几个关键点 输出是连续数值回归问题不同于分类问题后者的输出是离散的类别标签而回归问题的输出是实数可以在某个范围内取任何值。例如房价、温度、降雨量等都是连续数值因此属于回归问题。 特征与标签之间的映射关系回归模型的任务是学习输入特征与输出标签之间的关系通常通过拟合一个函数来描述这种关系。这个函数可以是线性的如线性回归或非线性的如多项式回归、神经网络回归等。 误差最小化回归模型的目标是最小化预测值与真实值之间的差距常见的损失函数是平方误差损失函数即最小化预测值和实际标签值之间差异的平方和。这个过程帮助模型不断调整参数提升预测的精确度。 解决“有多少”类问题回归问题通常解决涉及“有多少”或“预测数值”的问题比如“这栋房子的售价是多少”或“这次手术需要多少时间”。
因此回归问题的本质是通过模型学习特征和数值型标签之间的映射关系最终实现对连续值的准确预测。
2.2分类
分类Classification是一种监督学习任务主要用于解决“哪一个”的问题。分类的目标是将输入数据分配到特定的类别中。换句话说分类模型会根据给定的特征预测一个样本属于哪个类别class。让我们来详细了解分类。
分类问题的核心是模型根据输入特征预测出每个类别的概率然后选择概率最大的那个类别作为最终的输出结果。
具体来说
模型输出的是每个类别的概率比如对于一个手写数字识别模型模型可能会输出0是5%的概率1是10%的概率2是85%的概率等等。最终的预测结果是概率最大的类别。在这个例子中模型会预测数字是2因为它的概率85%最高。
所以分类问题中的模型确实会输出概率但是最终的预测结果是根据概率最高的类别来决定的不是直接输出最大的概率值本身。
你理解的大部分是对的正确的表述应该是分类模型会输出各个类别的概率最终根据最高的概率来预测样本所属的类别。
1. 分类任务的定义
分类问题希望模型能够预测样本属于哪个类别。每个类别代表不同的分类结果例如在手写数字识别中类别可以是数字0到9中的任意一个。分类问题的核心就是预测某个样本属于某个特定类别。
2. 分类的基本形式 二项分类Binomial Classification这是最简单的分类问题只有两个类别。比如判断一张图片是猫还是不是猫这就属于二项分类。输出结果可能是{0, 1}0代表“不是猫”1代表“是猫”。 多项分类Multiclass Classification当类别多于两个时分类问题称为多项分类。例如手写数字识别中数字从0到9共10个类别模型需要预测某个数字对应哪一个类别。
3. 分类模型的输出与不确定性
分类模型的输出通常是每个类别的概率值。假设你有一张图片分类模型可能会预测这张图片是猫的概率为0.9即90%确定是猫。这个概率值表达了模型的不确定性模型越确定某个样本属于某个类别该类别的概率越高。
即使模型输出的概率最高的类别并不代表它绝对正确。例如一个毒蘑菇检测分类器预测蘑菇是有毒的概率为0.2这意味着有80%的概率蘑菇是无毒的但我们仍然不敢冒险因为有20%的风险可能是致命的。这说明在某些应用中我们需要考虑风险而不仅仅是模型的预测概率。
4. 损失函数与分类问题
分类问题中常用的损失函数是交叉熵损失函数Cross-Entropy Loss。交叉熵衡量模型预测的概率分布与真实标签分布之间的差异模型训练的目标是最小化这个差异使得预测更加准确。
5. 层次分类Hierarchical Classification
分类问题并不总是简单的二项或多项分类有些分类任务需要考虑类别之间的关系这就是层次分类。在层次分类中类别之间存在某种结构性或血缘关系。例如动物分类中将狮子狗误认为雪纳瑞并不是一个严重的错误但如果把狮子狗误认为恐龙显然是不合理的。
层次分类的问题在于错误分类的严重性会因类别的关系不同而不同。例如将有毒的响尾蛇误认为无毒的乌梢蛇可能是致命的而错误地将狮子狗当作雪纳瑞则没有那么严重。
6. 分类任务的应用
分类广泛应用于很多实际场景如
手写字符识别判断手写数字属于0到9中的哪个数字。图片分类判断一张图片是猫、狗还是其他动物。文本分类判断一篇文章的主题类别比如是体育、政治还是娱乐。
总结
分类是解决“哪一个”问题的任务目标是预测一个样本属于哪个类别。它分为二项分类和多项分类输出的结果是类别的概率分布模型会根据最高的概率选择最可能的类别。分类任务还可以处理复杂的层次结构通过考虑类别之间的关系减少错误分类的严重性。
2.3多标签分类
多标签分类与常见的二项或多项分类不同它允许每个样本同时属于多个类别。下面是主要内容的概括 分类问题的局限性虽然二项分类和多项分类可以处理简单的任务如区分猫和狗但在复杂场景中单一类别的分类方法可能不够。例如面对包含多种动物的图像如图中有猫、公鸡、狗和驴我们希望模型能识别多个不相互排斥的类别即多标签分类。 多标签分类定义多标签分类的任务是为一个样本分配多个标签。例如在技术博客上一篇文章可能会被标记为“机器学习”“云计算”“Linux”等多个相关标签因为这些概念可以同时出现。 实际应用 假设你有一张包含猫、狗和树的图片。对于多标签分类 模型会分别预测图中有“猫”的概率、有“狗”的概率、有“树”的概率。输出可能是猫90%、狗85%、树95%。
2.4搜索与排序
在信息检索领域如网络搜索目标不仅是找到相关的结果还需要对结果进行排序。例如搜索引擎通过为每个页面分配相关性分数将最相关的结果放在前面。早期的谷歌使用 PageRank 算法为页面评分现代搜索引擎则结合机器学习和用户行为来提高搜索结果的准确性和排序质量。
搜索与排序的核心在于找到最相关的结果并以合适的顺序呈现给用户。具体来说 相关性在搜索任务中核心目标是根据用户的查询从海量数据中检索出最相关的内容。相关性是关键模型需要评估每个结果与用户查询的匹配度。相关性通常通过机器学习算法、查询关键字与内容的匹配程度、以及用户行为数据来衡量。 排序找到相关结果后排序是另一个核心步骤。不同的结果可能具有不同的相关性排序的任务是确保最符合用户需求的结果排在前面。排序依赖于相关性分数也可以结合其他因素如点击率、页面质量、用户个性化偏好等。 用户体验搜索和排序的最终目标是优化用户体验确保用户在最短的时间内找到最需要的信息。因此排序不仅要准确反映结果的相关性还要满足用户的直观需求和行为模式。
总结
搜索的核心在于从海量信息中找到最相关的内容排序的核心则是确保这些相关结果按照相关性高低排列以提升用户的检索效率和体验。
2.5序列学习
1. 序列学习的特点
序列学习处理可变长度的输入和输出与传统机器学习中固定大小的输入和输出不同。模型不仅需要处理当前的输入还需要记住历史信息因为输入间往往有顺序或时间上的关系。常见的应用场景包括视频处理、语言翻译、语音识别、医学监控等。
2. 序列学习的应用
视频处理视频由连续帧组成每帧之间的信息是相关的模型需要记住前一帧的信息来理解后一帧。医学监控病人的生命体征是随时间变化的序列数据模型需要综合考虑多小时的历史数据做出准确预测。机器翻译输入和输出都是文本序列不同语言的词序和长度通常不一致模型需要处理序列之间的对齐和转换。自动语音识别将音频序列转换为文本音频帧和文本之间没有一一对应关系因此模型要将长输入序列压缩成较短的输出文本。
3. 特殊序列学习任务
标记和解析对文本序列进行标记比如识别句中的实体命名实体识别。语音识别从音频输入生成文本输出。文本到语音从文本输入生成音频输出处理从短文本到长音频的转换。机器翻译将一个语言的序列转换为另一种语言可能需要处理输入和输出顺序不一致的问题。