当前位置: 首页 > news >正文

注册网站需要房产证湖州做网站推广的公司

注册网站需要房产证,湖州做网站推广的公司,深圳设计院跳槽事件,中山蚂蚁网站开发1.8 Spark编程入门 1.8.1 通过IDEA创建Spark工程 ps:工程创建之前步骤省略,在scala中已经讲解,直接默认是创建好工程的 导入Pom文件依赖 !-- 声明公有的属性 --propertiesmaven.compiler.source1.8/maven.compiler.sourcemaven.compiler…1.8 Spark编程入门 1.8.1 通过IDEA创建Spark工程 ps:工程创建之前步骤省略,在scala中已经讲解,直接默认是创建好工程的 导入Pom文件依赖 !-- 声明公有的属性 --propertiesmaven.compiler.source1.8/maven.compiler.sourcemaven.compiler.target1.8/maven.compiler.targetencodingUTF-8/encodingscala.version2.12.8/scala.versionspark.version3.1.2/spark.versionhadoop.version3.2.1/hadoop.versionscala.compat.version2.12/scala.compat.version/properties !-- 声明并引入公有的依赖 --dependenciesdependencygroupIdorg.scala-lang/groupIdartifactIdscala-library/artifactIdversion${scala.version}/version/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-core_2.12/artifactIdversion${spark.version}/version/dependencydependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-client/artifactIdversion${hadoop.version}/version/dependency/dependencies ​ !-- 配置构建信息 --build!-- 资源文件夹 --sourceDirectorysrc/main/scala/sourceDirectory!-- 声明并引入构建的插件 --plugins!-- 用于编译Scala代码到class --plugingroupIdnet.alchim31.maven/groupIdartifactIdscala-maven-plugin/artifactIdversion3.2.2/versionexecutionsexecutiongoalsgoalcompile/goalgoaltestCompile/goal/goalsconfigurationargsarg-dependencyfile/argarg${project.build.directory}/.scala_dependencies/arg/args/configuration/execution/executions/pluginplugin!-- 程序打包 --groupIdorg.apache.maven.plugins/groupIdartifactIdmaven-shade-plugin/artifactIdversion2.4.3/versionexecutionsexecutionphasepackage/phasegoalsgoalshade/goal/goalsconfiguration!-- 过滤掉以下文件不打包 解决包重复引用导致的打包错误--filtersfilterartifact*:*/artifactexcludesexcludeMETA-INF/*.SF/excludeexcludeMETA-INF/*.DSA/excludeexcludeMETA-INF/*.RSA/exclude/excludes/filter/filterstransformers!-- 打成可执行的jar包 的主方法入口--transformer  implementationorg.apache.maven.plugins.shade.resource.ManifestResourceTransformermainClass/mainClass/transformer/transformers/configuration/execution/executions/plugin/plugins/build 1.8.2 Scala实现WordCount package com.qianfeng.sparkcore ​ import org.apache.spark.{SparkConf, SparkContext} ​ /*** 使用Spark统计单词个数*/ object Demo01_SparkWC {def main(args: Array[String]): Unit {//1、获取spark上下文环境 local[n] : n代表cpu核数*代表可用的cpu数量如果打包服务器运行则需要注释掉.setMaster()val conf new SparkConf().setAppName(spark-wc).setMaster(local[*])val sc new SparkContext(conf)//2、初始化数据val rdd sc.textFile(/Users/liyadong/data/sparkdata/test.txt)//3、对数据进行加工val sumRDD rdd.filter(_.length 10).flatMap(_.split(\t)).map((_, 1)).reduceByKey(_ _)//4、对数据进行输出println(sumRDD.collect().toBuffer)sumRDD.foreach(println(_)) ​//5、关闭sc对象sc.stop()} } 1.8.3 程序打包上传集群 在Spark安装目录中的bin目录进行提交作业操作 spark-submit \ --class com.qianfeng.sparkcore.Demo01_SparkWC \ --master yarn \ --deploy-mode client \ /home/original-hn-bigdata-1.0.jar hdfs://qianfeng01:9820/words hdfs://qianfeng01:9820/output/0901 注意:如果HDFS集群中有数据文件直接使用集群的数据文件即可如果没有的话使用【hdfs dfs -put /home/words /】从Linux系统中将文件上传到HDFS查看集群中运行之后的结果【hdfs dfs -tail output/0901/*】 Guff_hys_python数据结构,大数据开发学习,python实训项目-CSDN博客
http://www.hkea.cn/news/14271675/

相关文章:

  • 广东公司响应式网站建设报价苏州网站营销公司简介
  • 接私活做网站设计网址制作网站
  • 网站仿造机关建设网站
  • 网站服务器租用价格wordpress 自定义目录
  • 诚聘网站开发人员wordpress免邮箱验证
  • 网页制作网站制作建设公司排名
  • 最炫的网站wordpress怎么搭
  • 网站建设佰首选金手指十三外包加工网app
  • 网站模版怎么样口碑好网站建设价格
  • 菏泽网站建设方案零基础建设网站教程
  • 淘宝客做网站备注怎么写的国家工商注册网
  • 网站标题算关键词优化吗海南做网站的
  • 哪里可以做产品购物网站百度客户端电脑版
  • aspnet东莞网站建设价格wordpress get_pages 输出格式
  • 志勋网站建设公司东莞横沥医院
  • 获取网站目录下所有文件烟台企业建站系统模板
  • 合肥品牌网站建设行唐网站建设
  • 网站图片下载 代码东莞百度首页优化
  • 常德论坛市民留言板网站seo诊断分析
  • 外贸网站宗旨网站内容批量替换
  • 网站制作学校深圳龙岗租房子多少钱一个月
  • 重庆市公共资源交易中心网站厦门房地产网站建设
  • 如何做彩票网站信息网页设计去除下划线代码
  • android源码下载网站网站建设经验总结
  • 门户网站建设目标短网址在线生成免费
  • 网站开发区企业网站模板库
  • 南宁seo网站建设佛山html5网站建设
  • 成品网站怎样建设诸暨东莞网站建设公司
  • 做网站需要学jq吗内蒙古建设厅官网站
  • 一个空间两个网站外贸稳中提质韧性强