当前位置: 首页 > news >正文

网站流量功能更怎么做淘宝seo关键词的获取方法有哪些

网站流量功能更怎么做,淘宝seo关键词的获取方法有哪些,网站域名注册哪家好,莆田网站建设咨询遇到一个还不错的使用Xgboost训练模型的githubhttps://github.com/MachineLP/Spark-/tree/master/pyspark-xgboost 1、这是一个跑通的代码实例#xff0c;使用的是泰坦尼克生还数据#xff0c;分类模型。 这里使用了Pipeline来封装特征处理和模型训练步骤#xff0c;保存为…遇到一个还不错的使用Xgboost训练模型的githubhttps://github.com/MachineLP/Spark-/tree/master/pyspark-xgboost 1、这是一个跑通的代码实例使用的是泰坦尼克生还数据分类模型。 这里使用了Pipeline来封装特征处理和模型训练步骤保存为pipelineModel。 注意这里加载xgboost依赖的jar包和zip包的方法。 #这是用 pipeline 包装了XGBOOST的例子。 此路通import os import sys import time import pandas as pd import numpy as np import pyspark.sql.types as typ import pyspark.ml.feature as ft from pyspark.sql.functions import isnan, isnullfrom pyspark.sql.types import StructType, StructFieldfrom pyspark.sql.types import * from pyspark.ml.feature import StringIndexer, VectorAssembler from pyspark.ml import Pipeline from pyspark.sql.functions import col from pyspark.sql import SparkSessionos.environ[PYSPARK_PYTHON] Python3.7/bin/python os.environ[PYSPARK_SUBMIT_ARGS] --jars xgboost4j-spark-0.90.jar,xgboost4j-0.90.jar pyspark-shellspark SparkSession \.builder \.appName(PySpark XGBOOST Titanic) \.config(spark.driver.allowMultipleContexts, true) \.config(spark.pyspark.python, Python3.7/bin/python) \.config(spark.yarn.dist.archives, hdfs://ns62007/user/dmc_adm/_PYSPARK_ENV/Python3.7.zip#Python3.7) \.config(spark.executorEnv.PYSPARK_PYTHON, Python3.7/bin/python) \.config(spark.sql.autoBroadcastJoinThreshold, -1) \.enableHiveSupport() \.getOrCreate()spark.sparkContext.addPyFile(sparkxgb.zip)schema StructType([StructField(PassengerId, DoubleType()),StructField(Survived, DoubleType()),StructField(Pclass, DoubleType()),StructField(Name, StringType()),StructField(Sex, StringType()),StructField(Age, DoubleType()),StructField(SibSp, DoubleType()),StructField(Parch, DoubleType()),StructField(Ticket, StringType()),StructField(Fare, DoubleType()),StructField(Cabin, StringType()),StructField(Embarked, StringType())])upload_file titanic/train.csv hdfs_path hdfs://tmp/gao/dev_data/dmb_upload_data/ file_path os.path.join(hdfs_path, upload_file.split(/)[-1])df_raw spark\.read\.option(header, true)\.schema(schema)\.csv(file_path)df_raw.show(20) df df_raw.na.fill(0)sexIndexer StringIndexer()\.setInputCol(Sex)\.setOutputCol(SexIndex)\.setHandleInvalid(keep)cabinIndexer StringIndexer()\.setInputCol(Cabin)\.setOutputCol(CabinIndex)\.setHandleInvalid(keep)embarkedIndexer StringIndexer()\.setInputCol(Embarked)\.setHandleInvalid(keep)# .setOutputCol(EmbarkedIndex)\vectorAssembler VectorAssembler()\.setInputCols([Pclass, Age, SibSp, Parch, Fare])\.setOutputCol(features)from sparkxgb import XGBoostClassifier xgboost XGBoostClassifier(maxDepth3,missingfloat(0.0),featuresColfeatures,labelColSurvived )pipeline Pipeline(stages[vectorAssembler, xgboost])trainDF, testDF df.randomSplit([0.8, 0.2], seed24) trainDF.show(2) model pipeline.fit(trainDF)print (88888888888888888888) model.transform(testDF).select(col(PassengerId), col(Survived), col(prediction)).show() print (9999999999999999999)# Write model/classifier model.write().overwrite().save(os.path.join(hdfs_path,xgboost_class_test))from pyspark.ml import PipelineModel model1 PipelineModel.load(os.path.join(hdfs_path,xgboost_class_test)) model1.transform(testDF).show()这是执行结果 2、当然也可以不用pipeline封装直接训练xgboost模型并保存。 但这里遇到无法加载训练好的xgb模型的问题。 # Train a xgboost model from pyspark.ml.feature import VectorAssembler, StringIndexer, OneHotEncoder, StandardScaler from pyspark.ml import Pipeline from sparkxgb import XGBoostClassifierassembler VectorAssembler(inputCols[ Pclass, Age, SibSp, Parch,Fare],outputColfeatures, handleInvalidskip)xgboost XGBoostClassifier(maxDepth3,missingfloat(0.0),featuresColfeatures, labelColSurvived)# pipeline Pipeline(stages[assembler, xgboost]) # trained_model pipeline.fit(data)td assembler.transform(data) trained_raw_model xgboost.fit(td)result trained_raw_model.transform(td) result.select([Survived, rawPrediction, probability, prediction]).show()# save trained model to local disk trained_raw_model.nativeBooster.saveModel(outputmodel.xgboost)# 无法加载已经训练好的XGB模型 from sparkxgb import XGBoostClassifier,XGBoostClassificationModel model1 XGBoostClassificationModel.load(outputmodel.xgboost) model1.transform(td).show() 这是运行结果 这里报错无法使用 XGBoostClassificationModel加载已经训练好的XGB模型。
http://www.hkea.cn/news/14387145/

相关文章:

  • 国内做网站哪家好百度云建网站
  • qq群推广网站免费秒进淘宝客优惠卷网站怎么做的
  • 南皮县网站建设wordpress底部添加工信部链接
  • 企业网站管理系统cms源码下载wordpress 相册主题
  • 建筑公司网站董事长致辞网站建设优化推广教程
  • 中国怎么进fiverr网站做任务品牌全案策划
  • 各人可做的外贸网站网页打不开pdf文件如何设置
  • 有没有专门做老年婚介的网站汽车用品网站规划
  • 如何做免费域名网站亳州做网站哪家好
  • 一个网站做多少内链合适专业建设网站建站
  • 丹东网站建就有公司域名怎么建设网站
  • 旅游o2o小程序源码宁波网站推广优化哪家正规
  • wordpress找不到php的拓展宁波关键词优化平台
  • 淘宝客做软件网站app哪个网站可以做奖状
  • 邮件模板网站空间主机 建网站
  • 酒店网站建设必要性网站建设行业发展方向
  • 做公司月刊网站织梦好还是wordpress
  • 薛城网站建设最有效的100个营销方法
  • 域名注册网站推荐注册公司流程和要求
  • 青羊区城乡建设网站网站的icon图标做多大
  • 变化型网页网站有哪些建设摩托官网
  • 济南wordpress 建站网站建设的可行性要求
  • 北京建设监理协会网站中铁三局招聘信息2022
  • 企业首页网站属于什么类型网站做经销找厂家好的网站
  • 阿里云服务器租赁重庆seo全面优化
  • python做网站吗哈尔滨网站制作公司电话
  • 网站建设学生选课系统设计长宁区公司网站建设
  • 福州网站设计培训做网站标签栏的图片大小
  • 用discuz做的大网站h5 做移动端网站
  • 哪里有国内网站建设公司个人做当地旅游网站