当前位置: 首页 > news >正文

网站建设要买哪些软件网站关键词优化费用

网站建设要买哪些软件,网站关键词优化费用,佛山白坭网站建设,深圳一建公司随机森林1. 使用Boston数据集进行随机森林模型构建2. 数据集划分3.构建自变量与因变量之间的公式4. 模型训练5. 寻找合适的ntree6. 查看变量重要性并绘图展示7. 偏依赖图:Partial Dependence Plot#xff08;PDP图#xff09;8. 训练集预测结果1. 使用Boston数据集进行随机森… 随机森林1. 使用Boston数据集进行随机森林模型构建2. 数据集划分3.构建自变量与因变量之间的公式4. 模型训练5. 寻找合适的ntree6. 查看变量重要性并绘图展示7. 偏依赖图:Partial Dependence PlotPDP图8. 训练集预测结果1. 使用Boston数据集进行随机森林模型构建 library(rio) library(ggplot2) library(magrittr) library(randomForest) library(tidyverse) library(skimr) library(DataExplorer) library(caret) library(varSelRF) library(pdp) library(iml) data(boston)as.data.frame(boston) skim(boston)#数据鸟瞰 plot_missing(boston)#数据缺失 #na.roughfix() #填补缺失 hist(boston$lstat,breaks 50)数据展示 2. 数据集划分 ###################################### # 1.数据集划分 set.seed(123) trains - createDataPartition(y boston$lstat,p0.70,list F) traindata - boston[trains,] testdata - boston[-trains,]3.构建自变量与因变量之间的公式 #因变量自变量构建公式 colnames(boston) form_reg - as.formula(paste0(lstat ~,paste(colnames(traindata)[1:15],collapse ))) form_reg构建的公式 4. 模型训练 #### 2.1模型mtry的最优选取mry12 % Var explained最佳 #默认情况下数据集变量个数的二次方根分类模型或1/3预测模型 set.seed(123) n - ncol(boston)-5 errRate - c(1) #设置模型误判率向量初始值 for (i in 1:n) {rf_train - randomForest(form_reg, data traindata,ntree 1000,#决策树的棵树p 0.8,mtry i,#每个节点可供选择的变量数目importance T #输出变量的重要性)errRate[i] - mean(rf_train$mse)print(rf_train) } m which.min(errRate) print(m)结果 Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 1 Mean of squared residuals: 13.35016% Var explained: 72.5Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 2 Mean of squared residuals: 11.0119% Var explained: 77.31Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 3 Mean of squared residuals: 10.51724% Var explained: 78.33Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 4 Mean of squared residuals: 10.41254% Var explained: 78.55Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 5 Mean of squared residuals: 10.335% Var explained: 78.71Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 6 Mean of squared residuals: 10.22917% Var explained: 78.93Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 7 Mean of squared residuals: 10.25744% Var explained: 78.87Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 8 Mean of squared residuals: 10.11666% Var explained: 79.16Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 9 Mean of squared residuals: 10.09725% Var explained: 79.2Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 10 Mean of squared residuals: 10.09231% Var explained: 79.21Call: randomForest(formula form_reg, data traindata, ntree 1000, p 0.8, mtry i, importance T) Type of random forest: regression Number of trees: 1000 No. of variables tried at each split: 11 Mean of squared residuals: 10.12222% Var explained: 79.15结果显示mtry为11误差最小精度最高 5. 寻找合适的ntree #### 寻找合适的ntree set.seed(123) rf_train-randomForest(form_reg,datatraindata,mtry11,ntree500,importance T,proximityTRUE) plot(rf_train,main ERROR TREES) #绘制模型误差与决策树数量关系图运行结果 6. 查看变量重要性并绘图展示 #### 变量重要性 importance-importance(rf_train) ##### 绘图法1 barplot(rf_train$importance[,1],main输入变量重要性测度指标柱形图) box()重要性展示 ##### 绘图法2 varImpPlot(rf_train,main Variable Importance plot) varImpPlot(rf_train,main Variable Importance plot,type 1) varImpPlot(rf_train,sortTRUE,n.varnrow(rf_train$importance),main Variable Importance plot,type 2) # 基尼系数 hist(treesize(rf_train)) #展示随机森林模型中每棵决策树的节点数 max(treesize(rf_train)); min(treesize(rf_train))“%IncMSE” 即increase in mean squared error通过对每一个预测变量随机赋值如果该预测变量更为重要那么其值被随机替换后模型预测的误差会增大。“IncNodePurity”即increase in node purity通过残差平方和来度量代表了每个变量对分类树每个节点上观测值的异质性的影响从而比较变量的重要性。两个指示值均是判断预测变量重要性的指标均是值越大表示该变量的重要性越大但分别基于两者的重要性排名存在一定的差异。 7. 偏依赖图:Partial Dependence PlotPDP图 部分依赖图可以显示目标和特征之间的关系是线性的、单调的还是更复杂的 缺点 部分依赖函数中现实的最大特征数是两个这不是PDP的错而是2维表示纸或屏幕的错是我们无法想象超过3维的错。 partialPlot(x rf_train,pred.data traindata,x.var cmedv )PDP图 rf_train %%partial(pred.var c(cmedv, age), chull TRUE, progress TRUE) %%autoplot(contour TRUE, legend.title SOS,option B, direction -1) theme_bw()theme(textelement_text(size12, familyserif))交互结果展示 #预测与指标的关系散点图 plot(lstat ~ cmedv, data traindata)8. 训练集预测结果 #图示训练集预测结果 plot(x traindata$lstat,y trainpred,xlab 实际值,ylab 预测值,main 随机森林-实际值与预测值比较 )trainlinmod - lm(trainpred ~ traindata$lstat) #拟合回归模型 abline(trainlinmod, col blue,lwd 2.5, lty solid) abline(a 0,b 1, col red,lwd 2.5, lty dashed) legend(topleft,legend c(Mode1,Base),col c(blue,red),lwd 2.5,lty c(solid,dashed)) #测试集预测结果 testpred - predict(rf_train,newdata testdata) #测试集预测误差结果 defaultSummary(data.frame(obs testdata$lstat,pred testpred)) #图示测试集结果 plot(x testdata$lstat,y testpred,xlab 实际值,ylab 预测值,main 随机森林-实际值与预测值比较 ) testlinmod - lm(testpred ~ testdata$lstat) abline(testlinmod, col blue,lwd 2.5, lty solid) abline(a 0,b 1, col red,lwd 2.5, lty dashed) legend(topleft,legend c(Mode1,Base),col c(blue,red),lwd 2.5,lty c(solid,dashed))
http://www.hkea.cn/news/14511261/

相关文章:

  • 如何做网站 百度如何查询网站空间大小
  • 哪里有网站建设哪家好哈尔滨建筑网
  • 做网站包括图片设计吗做网站和做app有什么不同
  • 重庆电子商务网站seo网站设计中的js
  • 网站建设都有什么栏目安全中国asp.net网站开发项目实战培训班
  • 网站设计专业的公司wordpress权限不够
  • 程序员个人博客网站提升网站流量的方法
  • 手机网站建设公司电话咨询网站建设 自动跳转
  • 衡水电子商务网站建设百度自建站
  • 深圳专门做网站室内设计有限公司
  • 软件园二期做网站的公司有哪些好用的做微信公众号的网站
  • 网站建设 牛商网技术提供凡科网站手机投票怎么做
  • 展示网站建设价格北京网站建设 fim
  • 成都网站建设开发价网页制作素材代码
  • 网站建设 主要内容无锡电子商务网站建设
  • 茶叶网站flash模板免费下载怎么查看网站提交百度的度
  • 佛山专业做网站的网页制作需要下载什么软件
  • vs中可以用新建项目来做网站吗制作属于自己的网站
  • 做公司+网站建设收款 wordpress
  • 便宜网站建设哪家好承德市网站建设
  • 网站 被刷流量门户网站系统架构
  • 武锡网站建设生购房政策重庆seo海洋qq
  • 网站建设定制公司建设银行网盾进不去网站是怎么办
  • 永州网站建设多少钱wordpress手机号登陆不了
  • 黑色炫酷灯饰照明科技企业商务网站模板无后台基础怎么建设网站
  • 建设工程信息网站有哪些昆明网站建设 昆明光硕
  • cms二次开发网站建设建设网站常见问题
  • 网站开发课程培训云浮住房和城乡建设部官方网站
  • 国外调色网站宿迁手机网站建设公司
  • 社交网站开发 转发多语言网站 seo