当前位置: 首页 > news >正文

学php网站开发好吗西安专业网站建设价格

学php网站开发好吗,西安专业网站建设价格,上海的装修公司排名,企业推广哪个平台好不同于KNN最近邻算法的空间思维#xff0c;线性算法的线性思维#xff0c;决策树算法的树状思维#xff0c;神经网络的网状思维#xff0c;SVM的升维思维。 贝叶斯方法强调的是 先后的因果思维。 监督式模型分为判别式模型和生成式模型。 判别模型和生成模型的区别#xf… 不同于KNN最近邻算法的空间思维线性算法的线性思维决策树算法的树状思维神经网络的网状思维SVM的升维思维。 贝叶斯方法强调的是 先后的因果思维。 监督式模型分为判别式模型和生成式模型。 判别模型和生成模型的区别 判别式模型输入一个特征X可以直接得到一个y。 生成式模型上来先学习一个联合概率分布 p(x,y) 再用他根据贝叶斯法则求条件概率密度分布。 —— 没有决策边界的存在 判别式数据对于数据分布特别复杂的情况比如文本图像视频 而生成式模型对于数据有部分特征缺失的情况下效果更好 而且更容易添加数据的先验知识 p(x) 1、核心思想和原理 贝叶斯公式 建立了四个概率分布之间的关系已知变量 X 和 未知变量模型参数w 之间的计算关系 假定 X 表示数据W 表示模型的参数 Likelihood翻译成可能性或者是似然函数最大似然估计指的就是这个 以下图中 s 表示状态 o 表示观测。 参数估计 1、最大似然估计 MLE 2、最大后验估计 MAP 3、贝叶斯估计 2、朴素贝叶斯分类 我们知道分类问题是 给定特征 X输出分类标记 y 那么朴素贝叶斯方法是如何由指定特征得到分类类别的呢 2.1、举个栗子 能不能直接根据这些经验上面的数据来判断一个境外人员有没有得新冠呢 —— 转换为数学语言即 比较难求的显然就是 Likelihood所以朴素贝叶斯假设特征之间相互独立。 根据中心极限定理频率就等于概率虽然这里数据没有那么多也一样可以这么算 2.2、朴素贝叶斯分类及其代码实现 逻辑简单易于实现效率高时空开销小条件独立假设不成立则分类效果一般适用于特征相关性较小时 代码实现 import numpy as np X [[1,0,0,1],[0,1,0,0],[1,1,0,0],[0,1,2,0],[1,0,0,0],[1,0,0,0],[1,1,2,1],[0,1,1,0],[1,1,1,0],[0,0,2,0],[1,1,0,1],[1,1,0,1]]y [0,0,1,1,0,0,1,1,1,1,0,0]t[[0,0,0,1]] from sklearn.naive_bayes import BernoulliNB bnb BernoulliNB() bnb.fit(X,y) bnb.predict_proba(t) array([[0.875, 0.125]]) 2,3、朴素贝叶斯家族 2.3.1、伯努利朴素贝叶斯与多项式朴素贝叶斯 伯努利分布两点分布、0-1分布 属于离散型概率分布 伯努利分布公式 伯努利实验 —— 例如抛硬币。 二项式分布和多项式分布 二项式分布伯努利实验重复n次。 n 1的二项式分布就是伯努利分布。 多项式分布抛硬币改为掷骰子。 伯努利朴素贝叶斯每个特征都服从伯努利分布的一种贝叶斯分类器 适用于二分类离散变量。 特征的条件概率服从伯努利分布 xi 表示第 i 哥特征维度y 表示观测道德类别。 特征可选值大于两个时可用多项式分布。 2.3.2、 高斯朴素贝叶斯 2.4、分类器效果对比 from sklearn.datasets import load_irisiris load_iris() X iris.data y iris.target from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.25, random_state0) from sklearn.naive_bayes import BernoulliNB nb BernoulliNB() nb.fit(X_train, y_train) nb.score(X_test, y_test) 0.23684210526315788 print(iris.DESCR) .. _iris_dataset:Iris plants dataset --------------------**Data Set Characteristics:**:Number of Instances: 150 (50 in each of three classes):Number of Attributes: 4 numeric, predictive attributes and the class:Attribute Information:- sepal length in cm- sepal width in cm- petal length in cm- petal width in cm- class:- Iris-Setosa- Iris-Versicolour- Iris-Virginica:Summary Statistics: Min Max Mean SD Class Correlation sepal length: 4.3 7.9 5.84 0.83 0.7826sepal width: 2.0 4.4 3.05 0.43 -0.4194petal length: 1.0 6.9 3.76 1.76 0.9490 (high!)petal width: 0.1 2.5 1.20 0.76 0.9565 (high!) :Missing Attribute Values: None:Class Distribution: 33.3% for each of 3 classes.:Creator: R.A. Fisher:Donor: Michael Marshall (MARSHALL%PLUio.arc.nasa.gov):Date: July, 1988The famous Iris database, first used by Sir R.A. Fisher. The dataset is taken from Fishers paper. Note that its the same as in R, but not as in the UCI Machine Learning Repository, which has two wrong data points.This is perhaps the best known database to be found in the pattern recognition literature. Fishers paper is a classic in the field and is referenced frequently to this day. (See Duda Hart, for example.) The data set contains 3 classes of 50 instances each, where each class refers to a type of iris plant. One class is linearly separable from the other 2; the latter are NOT linearly separable from each other... topic:: References- Fisher, R.A. The use of multiple measurements in taxonomic problemsAnnual Eugenics, 7, Part II, 179-188 (1936); also in Contributions toMathematical Statistics (John Wiley, NY, 1950).- Duda, R.O., Hart, P.E. (1973) Pattern Classification and Scene Analysis.(Q327.D83) John Wiley Sons. ISBN 0-471-22361-1. See page 218.- Dasarathy, B.V. (1980) Nosing Around the Neighborhood: A New SystemStructure and Classification Rule for Recognition in Partially ExposedEnvironments. IEEE Transactions on Pattern Analysis and MachineIntelligence, Vol. PAMI-2, No. 1, 67-71.- Gates, G.W. (1972) The Reduced Nearest Neighbor Rule. IEEE Transactionson Information Theory, May 1972, 431-433.- See also: 1988 MLC Proceedings, 54-64. Cheeseman et als AUTOCLASS IIconceptual clustering system finds 3 classes in the data.- Many, many more ...from sklearn.naive_bayes import GaussianNB nb GaussianNB() nb.fit(X_train, y_train) nb.score(X_test, y_test) 1.0 from sklearn.naive_bayes import CategoricalNB nb CategoricalNB() nb.fit(X_train, y_train) nb.score(X_test, y_test) 0.8947368421052632 from sklearn.naive_bayes import MultinomialNB nb MultinomialNB() nb.fit(X_train, y_train) nb.score(X_test, y_test) 0.5789473684210527 from sklearn.naive_bayes import ComplementNB nb ComplementNB() nb.fit(X_train, y_train) nb.score(X_test, y_test) 0.5789473684210527 2.5、多项式朴素贝叶斯代码实现 纯文本数据不能直接传入模型需要进行特征抽取。 Chapter-10/10-6 多项式朴素贝叶斯代码实现.ipynb · 梗直哥/Machine-Learning - Gitee.com 3、优缺点和使用条件 朴素贝叶斯优点 过程简单速度快。 对多分类问题言样有效。 分布独立假设下效果好。 贝叶斯思想光芒万丈先验打开“扇大门。拓展 变分 朴素贝叶斯缺点 条件独立假设在现实中往往很难保证。 只适用于简单比大小问题。 如果个别类别概率为0则预测失败。平滑技术解决。 条件概率和先验分布计算复杂度较高高维计算困难。 适用条件 文本分类/垃圾文本过滤/情感判别。 多分类实时预测。 推荐系统、与 协同过滤 一起。 复杂问题建模。 参考 Machine-Learning: 《机器学习必修课经典算法与Python实战》配套代码 - Gitee.com
http://www.hkea.cn/news/14487077/

相关文章:

  • 上海高端网站建设服务器网站的开发流程有哪几个阶段
  • 辽宁网站网站建设微商城下载
  • 想做一个网站怎么做素材网大全
  • 给企业开发网站网站做sem优化
  • 网站建设都需要外国做的福利小视频在线观看网站
  • 可以进入外国网站的浏览器微信小程序登录页面
  • 定制网站系统官方网站怎么建设的
  • 建设网站好公司简介云南外贸建站推广
  • 用自己的计算机做服务器建网站给网站做优化刷活跃要收费吗
  • 网站建设服务器域名云主机如何做网站
  • 下陆区建设局网站定制网站开发公司生物医药
  • html5集团网站英铭广州网站建设
  • 设计师素材网站e邢台市属于哪个省
  • 加强学校网站建设的必要性宁波微信开发
  • 合肥网站建设推荐 晨飞网络做指甲的网站
  • 国内做外贸的网站大连线上教学
  • 个人网站设计论文phpWordPress 嵌入flash
  • wordpress建个人网站有什么字体设计网站
  • 嘉兴 网站建设北京 网站策划公司
  • 门户网站制作价格表友情链接论坛
  • 投标文件网站开发技术部分android手机开发
  • 桥 网站建设广东省备案网站建设方案书
  • 沈阳城乡建设官方网站做小程序好还是做微网站好
  • 泸州市网站建设wordpress备份文件
  • 合理规划网站结构中文命名网页制作素材会怎么样
  • asp网站查看器android代码打开wordpress
  • 成交型网站建设方案cn 域名网站
  • 建设网站服务器自营方式wordpress评论回复插件
  • 西安做营销型网站东莞市招投标交易中心
  • 北京网站建设价格低网络营销常用的工具有哪些