当前位置: 首页 > news >正文

华为erp企业管理系统软件网站优化推广哪家好

华为erp企业管理系统软件,网站优化推广哪家好,8+1网站正能量直接入口没封,济南网站建设方案咨询目录 一、目的与要求 二、实验内容 三、实验步骤 1、安装Hadoop和Spark 2、HDFS常用操作 3、Spark读取文件系统的数据 四、结果分析与实验体会 一、目的与要求 1、掌握在Linux虚拟机中安装Hadoop和Spark的方法#xff1b; 2、熟悉HDFS的基本使用方法#xff1b; 3、掌…目录 一、目的与要求 二、实验内容 三、实验步骤 1、安装Hadoop和Spark 2、HDFS常用操作 3、Spark读取文件系统的数据 四、结果分析与实验体会 一、目的与要求 1、掌握在Linux虚拟机中安装Hadoop和Spark的方法 2、熟悉HDFS的基本使用方法 3、掌握使用Spark访问本地文件和HDFS文件的方法。 二、实验内容 1、安装Hadoop和Spark 进入Linux系统完成Hadoop伪分布式模式的安装。完成Hadoop的安装以后再安装SparkLocal模式。 2、HDFS常用操作 使用Hadoop提供的Shell命令完成如下操作 1启动Hadoop在HDFS中创建用户目录“/user/你的名字的拼音”。以张三同学为例创建 /user/zhangsan 下同 2在Linux系统的本地文件系统的“/home/zhangsan”目录下新建一个文本文件test.txt并在该文件中至少十行英文语句然后上传到HDFS的“/user/zhangsan”目录下 3把HDFS中“/user/zhangsan”目录下的test.txt文件下载到Linux系统的本地文件系统中的“/tmp”目录下 4将HDFS中“/user/zhangsan”目录下的test.txt文件的内容输出到终端中进行显示 5在HDFS中的“/”目录下创建子目录input把HDFS中“/user/zhangsan”目录下的test.txt文件复制到“/input”目录下 6删除HDFS中“/user/zhangsan”目录下的test.txt文件 7查找HDFS中所有的 .txt文件 8使用hadoop-mapreduce-examples-3.1.3.jar程序对/input目录下的文件进行单词个数统计写出运行命令并验证运行结果。 3、Spark读取文件系统的数据 1在pyspark中读取Linux系统本地文件“/home/zhangsan/test.txt”然后统计出文件的行数 2在pyspark中读取HDFS系统文件“/user/zhangsan/test.txt”然后统计出文件的行数 3编写独立应用程序读取HDFS系统文件“/user/zhangsan/test.txt”然后统计出文件的行数通过 spark-submit 提交到 Spark 中运行程序。 三、实验步骤 1、安装Hadoop和Spark 进入Linux系统完成Hadoop伪分布式模式的安装。完成Hadoop的安装以后再安装SparkLocal模式。具体安装步骤可以参照我前面写的博客 大数据存储技术1—— Hadoop简介及安装配置-CSDN博客https://blog.csdn.net/Morse_Chen/article/details/134833801Spark环境搭建和使用方法-CSDN博客https://blog.csdn.net/Morse_Chen/article/details/134979681 2、HDFS常用操作 1启动Hadoop在HDFS中创建用户目录“/user/你的名字的拼音”。以张三同学为例创建 /user/zhangsan 下同 [rootbigdata zhc]# start-dfs.sh [rootbigdata zhc]# jps [rootbigdata zhc]# hdfs dfs -mkdir -p /user/zhc [rootbigdata zhc]# hdfs dfs -ls /user 2在Linux系统的本地文件系统的“/home/zhangsan”目录下新建一个文本文件test.txt并在该文件中至少十行英文语句然后上传到HDFS的“/user/zhangsan”目录下 [rootbigdata zhc]# cd /home/zhc [rootbigdata zhc]# vi test.txt [rootbigdata zhc]# hdfs dfs -put /home/zhc/test.txt /user/zhc test.txt 文件内容如下  welcome to linux hello hadoop spark is fast hdfs is good start pyspark use python scala and R great success I love spark ten 这里可以看到上传成功了。  3把HDFS中“/user/zhangsan”目录下的test.txt文件下载到Linux系统的本地文件系统中的“/tmp”目录下 [rootbigdata zhc]# hdfs dfs -get /user/zhc/test.txt /tmp/ 4将HDFS中“/user/zhangsan”目录下的test.txt文件的内容输出到终端中进行显示 [rootbigdata zhc]# hdfs dfs -cat /user/zhc/test.txt 5在HDFS中的“/”目录下创建子目录input把HDFS中“/user/zhangsan”目录下的test.txt文件复制到“/input”目录下 [rootbigdata zhc]# hdfs dfs -cp /user/zhc/test.txt /input/ 6删除HDFS中“/user/zhangsan”目录下的test.txt文件 [rootbigdata zhc]# hdfs dfs -rm -f /user/zhc/test.txt 7查找HDFS中所有的 .txt文件 [rootbigdata zhc]# hdfs dfs -ls -R / | grep -i \.txt$ 8使用hadoop-mapreduce-examples-3.1.3.jar程序对/input目录下的test.txt文件进行单词个数统计写出运行命令并验证运行结果。 注意在做这一步之前要先启动yarn进程            指定输出结果的路径/output该路径不能已存在。 先切换到 /usr/local/servers/hadoop/share/hadoop/mapreduce 路径下然后再开始统计单词个数。 [rootbigdata zhc]# cd /usr/local/servers/hadoop/share/hadoop/mapreduce [rootbigdata mapreduce]# hadoop jar hadoop-mapreduce-examples-3.1.3.jar wordcount /input/test.txt /output 输入命令查看HDFS文件系统中/output目录下的结果。  [rootbigdata mapreduce]# hdfs dfs -ls /output [rootbigdata mapreduce]# hdfs dfs -cat /output/part-r-00000 3、Spark读取文件系统的数据 先在终端启动Spark。 [rootbigdata zhc]# pyspark 1在pyspark中读取Linux系统本地文件“/home/zhangsan/test.txt”然后统计出文件的行数 textFilesc.textFile(file:///home/zhc/test.txt)linecounttextFile.count()print(linecount) 2在pyspark中读取HDFS系统文件“/user/zhangsan/test.txt”如果该文件不存在请先创建然后统计出文件的行数 注意由于在第2题的6问中已经删除了HDFS中“/user/zhangsan”目录下的test.txt文件所以这里要重新将test.txt文件从本地系统上传到HDFS中。 [rootbigdata zhc]# hdfs dfs -put /home/zhc/test.txt /user/zhctextFilesc.textFile(hdfs://localhost:9000/user/zhc/test.txt)linecounttextFile.count()print(linecount)3编写独立应用程序读取HDFS系统文件“/user/zhangsan/test.txt”然后统计出文件的行数通过 spark-submit 提交到 Spark 中运行程序。 [rootbigdata mycode]# vi CountLines_hdfs.py [rootbigdata mycode]# spark-submit CountLines_hdfs.py CountLines_hdfs.py文件内容如下 from pyspark import SparkContext FilePath hdfs://localhost:9000/user/zhc/test.txt sc SparkContext(local,Simple App) data sc.textFile(FilePath).cache( ) print(文件行数:,data.count()) 四、结果分析与实验体会 通过本次Spark实验学会了如何安装、启动Hadoop和Spark并掌握了HDFS的基本使用方法使用Spark访问本地文件和HDFS文件的方法。在Linux系统的本地文件系统和在HDFS中分别进行各种文件操作然后在Spark中读取文件系统的数据并能统计文件的行数。         在做第三题2时在pyspark中读取HDFS系统文件“/user/zhangsan/test.txt”要将第二题6中删除的test.txt文件重新上传到HDFS中注意文件路径要写正确 file_path“hdfs:///user/zhc/test.txt”。在第三题3中可以修改如下路径中的文件 /usr/local/spark/conf/log4j.properties.template将文件中内容 “log4j.rootCategoryINFO” 改为 “log4j.rootCategoryERROR”这样在输出结果时就不会显示大量的INFO信息使得结果更简化。
http://www.hkea.cn/news/14381064/

相关文章:

  • xampp做网站九江市建设规划局网站
  • 怎样创造一个网站wordpress小程序前端
  • 免费申请网站域名软件设计的过程
  • 产品网站建设个旧市建设局网站
  • 深圳市做网站的做系统网站提醒有风险
  • 更改wordpress程序站点网址在线网站开发培训
  • 网站开发模块学些什么html友情链接代码
  • 网站更新和维护怎么做做网站的版式会侵权吗
  • 请人做网站谁来维护鞍山网站建设公司
  • 深圳制作网站主页app软件开发公司排行
  • 网站开发从什么学起wordpress和域名
  • 山东临沂网站推广公司注册地址费用
  • 高仿网站源码asp网站开发的主要困难
  • 做个电商网站温州做微网站设计
  • 科右中旗网站建设做网站横幅的图片多大
  • 中国有名的模版网站常见的网络推广工具
  • 怎么诊断网站邢台物流网站建设
  • 推广网站可以做跳转吗wordpress啥意思
  • 济南高新区建设局网站极简风格wordpress主题
  • 一个网站需要多少容量太原百度关键词优化
  • 清远网站开发注册个网站域名多少钱一年
  • 家电维修怎么自己做网站wordpress安卓源码分析
  • 数据库 搭建 网站重庆建筑工程特种作业信息网
  • 织梦 更换网站图标珠海微信网站
  • 备案号是哪个网站百度一下你知道
  • 公司网站域名如何申请河东建设局网站
  • 做网站用地图科技数码app排名
  • 如果建设一个网站网站管理员密码忘记
  • 邢台12345网站备案平台新增网站
  • 如何建设提卡网站社交网站开发技术岗