网站建设描述,小程序商城一般哪家好,网站建设大全,哪个网站帮忙做户型方案目录
前言
监督学习 vs 无监督学习
回归 vs 分类 Regression vs Classification
训练集 vs 测试集 vs 验证集
泛化和过拟合 Generalization Overfitting
线性分类器 Linear Classifiers
激活函数 - 概率决策
⚠线性回归
决策树 Decision Trees
决策树构建递归…目录
前言
监督学习 vs 无监督学习
回归 vs 分类 Regression vs Classification
训练集 vs 测试集 vs 验证集
泛化和过拟合 Generalization Overfitting
线性分类器 Linear Classifiers
激活函数 - 概率决策
⚠线性回归
决策树 Decision Trees
决策树构建递归退出条件C
信息熵 Entropy
信息增益 Information Gain
⚠ID3算法实例
总结 前言
本复习笔记基于李晶晶老师的课堂PPT与复习大纲供自己期末复习与学弟学妹参考用。
本节是人工智能复习的最后一小节重点在于了解概念会做计算题。
前面几节都在专栏当中可以自行查看也可以走传送门
电子科技大学人工智能期末复习笔记一搜索问题
电子科技大学人工智能期末复习笔记二MDP与强化学习
电子科技大学人工智能期末复习笔记三一阶逻辑
电子科技大学人工智能期末复习笔记四概率与贝叶斯网络 监督学习 vs 无监督学习
监督学习输入已知类别的数据样本 分类、回归
无监督学习输入未知类别的数据样本 聚类 回归 vs 分类 Regression vs Classification
分类对输入数据进行离散值标签的预测
回归预测连续的、具体的数值
Output 连续 vs 离散
分类需要激活函数 训练集 vs 测试集 vs 验证集
训练集用于学习参数例如模型概率
测试集用于计算模型的准确率
验证集用于调节超参数 泛化和过拟合 Generalization Overfitting
在有监督学习中我们会在训练数据集上建立一个模型之后会把这个模型用于新的之前从未见过的数据中这个过程称为模型的泛化
模型在训练集上表现好在测试集验证集表现差就说明出现了过拟合问题出现这种情况的主要原因是训练数据中存在噪音或者训练数据太少
解决办法选取合适的停止训练标准使用验证数据集获取额外数据进行交叉验证正则化 Relative frequency parameters will overfit the training data 相对频率参数会过拟合训练数据 线性分类器 Linear Classifiers
输入特征向量 f(x)
权重向量 w
在二分类中
真实标签为 y*∈{-11}
预测标签为 y w和f(x)在同一平面则为正样本y1反之y-1 如果分类正确不更新w分类错误则更新 w
w w y* · f(x) 其中y* 1或-1 在多分类中
输入特征向量 f(x)
每个类别的权重 向量 预测标签为 y 取最大的一个类别标签 如果分类正确不更新w分类错误则更新 w此时需要分别对正确和错误的两个w进行更新
关键点减小错分类别的向量点积增大真实类别的向量点积 激活函数 - 概率决策 ⚠线性回归 L2 loss所有样本的平方误差和 例 决策树 Decision Trees
决策树构建递归退出条件C
当前样本集D包含的样本属于同一类别C当前属性集A为空或样本集D中所有样本在所有属性上取值相同但类别可能不相同当前结点包含的样本集为空
信息熵 Entropy
信息熵是度量样本集合纯度的指标
假定当前样本集合D中第k类样本所占比例为pkk12...|y|则D的信息熵的定义为 Ent(D)的取值范围为 [0,log2|y| ]值越小纯度越高
计算信息熵时约定若p0则0
信息增益 Information Gain
样本集D的某个离散属性a有V个可能的取值用a来对D进行划分则会产生V个分支结点其中第v个分支结点包含了D中所有在在属性a上取值为的样本记为。定义用属性a对样本集D进行划分所获得的信息增益为 一般而言信息增益越大意味着使用属性a来进行划分获得的纯度提升越大
在ID3算法中选择信息增益大的属性来划分样本集
⚠ID3算法实例 总结
至此人工智能复习笔记更新完毕后续有时间会更新一下实验的讲解包括基于A*算法的八数码问题求解、ID3决策树实战、以及Q-learning和Sarsa实现的悬崖问题求解。