网站如何建设,广东网站制作平台,网站等保如何做,网页游戏公益服平台第1章 HDFS—核心参数
1.1 NameNode内存生产配置
1#xff09;NameNode内存计算 每个文件块大概占用150byte#xff0c;一台服务器128G内存为例#xff0c;能存储多少文件块呢#xff1f; 128 * 1024 * 1024 * 1024 / 150Byte ≈ 9.1亿 G MB KB Byte 2#xff09;Hadoop…第1章 HDFS—核心参数
1.1 NameNode内存生产配置
1NameNode内存计算 每个文件块大概占用150byte一台服务器128G内存为例能存储多少文件块呢 128 * 1024 * 1024 * 1024 / 150Byte ≈ 9.1亿 G MB KB Byte 2Hadoop2.x系列配置NameNode内存 NameNode内存默认2000m如果服务器内存4GNameNode内存可以配置3g。在hadoop-env.sh文件中配置如下。 HADOOP_NAMENODE_OPTS-Xmx3072m 3Hadoop3.x系列配置NameNode内存 1hadoop-env.sh中描述Hadoop的内存是动态分配的
# The maximum amount of heap to use (Java -Xmx). If no unit
# is provided, it will be converted to MB. Daemons will
# prefer any Xmx setting in their respective _OPT variable.
# There is no default; the JVM will autoscale based upon machine
# memory size.
# export HADOOP_HEAPSIZE_MAX# The minimum amount of heap to use (Java -Xms). If no unit
# is provided, it will be converted to MB. Daemons will
# prefer any Xms setting in their respective _OPT variable.
# There is no default; the JVM will autoscale based upon machine
# memory size.
# export HADOOP_HEAPSIZE_MIN
HADOOP_NAMENODE_OPTS-Xmx102400m2查看NameNode占用内存
[atguiguhadoop102 ~]$ jps
3088 NodeManager
2611 NameNode
3271 JobHistoryServer
2744 DataNode
3579 Jps[atguiguhadoop102 ~]$ jmap -heap 2611
Heap Configuration:MaxHeapSize 1031798784 (984.0MB)3查看DataNode占用内存
[atguiguhadoop102 ~]$ jmap -heap 2744
Heap Configuration:MaxHeapSize 1031798784 (984.0MB)查看发现hadoop102上的NameNode和DataNode占用内存都是自动分配的且相等。不是很合理。 这里面的链接可以做经验参考 https://docs.cloudera.com/documentation/enterprise/6/release-notes/topics/rg_hardware_requirements.html#concept_fzz_dq4_gbb 具体修改hadoop-env.sh
export HDFS_NAMENODE_OPTS-Dhadoop.security.loggerINFO,RFAS -Xmx1024mexport HDFS_DATANODE_OPTS-Dhadoop.security.loggerERROR,RFAS -Xmx1024m1.2 NameNode心跳并发配置 1hdfs-site.xml The number of Namenode RPC server threads that listen to requests from clients. If dfs.namenode.servicerpc-address is not configured then Namenode RPC server threads listen to requests from all nodes. NameNode有一个工作线程池用来处理不同DataNode的并发心跳以及客户端并发的元数据操作。 对于大集群或者有大量客户端的集群来说通常需要增大该参数。默认值是10。
propertynamedfs.namenode.handler.count/namevalue21/value
/property企业经验dfs.namenode.handler.count比如集群规模DataNode台数为3台时此参数设置为21。可通过简单的python代码计算该值代码如下。
[atguiguhadoop102 ~]$ sudo yum install -y python[atguiguhadoop102 ~]$ python
Python 2.7.5 (default, Apr 11 2018, 07:36:10)
[GCC 4.8.5 20150623 (Red Hat 4.8.5-28)] on linux2
Type help, copyright, credits or license for more information.import mathprint int(20*math.log(3))
21quit()1.3 开启回收站配置
开启回收站功能可以将删除的文件在不超时的情况下恢复原数据起到防止误删除、备份等作用。 1回收站工作机制 2开启回收站功能参数说明 1默认值fs.trash.interval 00表示禁用回收站其他值表示设置文件的存活时间。 2默认值fs.trash.checkpoint.interval 0检查回收站的间隔时间。如果该值为0则该值设置和fs.trash.interval的参数值相等。 3要求fs.trash.checkpoint.interval fs.trash.interval。 3启用回收站 修改core-site.xml配置垃圾回收时间为1分钟。
propertynamefs.trash.interval/namevalue1/value
/property4查看回收站 回收站目录在HDFS集群中的路径/user/atguigu/.Trash/…. 5注意通过网页上直接删除的文件也不会走回收站。 6通过程序删除的文件不会经过回收站需要调用moveToTrash()才进入回收站
Trash trash New Trash(conf);
trash.moveToTrash(path);7只有在命令行利用hadoop fs -rm命令删除的文件才会走回收站。
[atguiguhadoop102 hadoop-3.1.3]$ hadoop fs -rm -r /user/atguigu/input
2021-07-14 16:13:42,643 INFO fs.TrashPolicyDefault: Moved: hdfs://hadoop102:9820/user/atguigu/input to trash at: hdfs://hadoop102:9820/user/atguigu/.Trash/Current/user/atguigu/input8恢复回收站数据
[atguiguhadoop102 hadoop-3.1.3]$ hadoop fs -mv
/user/atguigu/.Trash/Current/user/atguigu/input /user/atguigu/input第2章 HDFS—集群压测
在企业中非常关心每天从Java后台拉取过来的数据需要多久能上传到集群消费者关心多久能从HDFS上拉取需要的数据 为了搞清楚HDFS的读写性能生产环境上非常需要对集群进行压测。 HDFS的读写性能主要受网络和磁盘影响比较大。为了方便测试将hadoop102、hadoop103、hadoop104虚拟机网络都设置为100mbps。 100Mbps单位是bit10M/s单位是byte ; 1byte8bit100Mbps/812.5M/s。 测试网速来到hadoop102的/opt/module目录创建一个
[atguiguhadoop102 software]$ python -m SimpleHTTPServer2.1 测试HDFS写性能
0写测试底层原理 1测试内容向HDFS集群写10个128M的文件
[atguiguhadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -write -nrFiles 10 -fileSize 128MB2021-02-09 10:43:16,853 INFO fs.TestDFSIO: ----- TestDFSIO ----- : write
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Date time: Tue Feb 09 10:43:16 CST 2021
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Number of files: 10
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Total MBytes processed: 1280
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Throughput mb/sec: 1.61
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Average IO rate mb/sec: 1.9
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: IO rate std deviation: 0.76
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Test exec time sec: 133.05
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:注意nrFiles n为生成mapTask的数量生产环境一般可通过hadoop103:8088查看CPU核数设置为CPU核数 - 1
Number of files生成mapTask数量一般是集群中CPU核数-1我们测试虚拟机就按照实际的物理内存-1分配即可 Total MBytes processed单个map处理的文件大小 Throughput mb/sec:单个mapTak的吞吐量 计算方式处理的总文件大小/每一个mapTask写数据的时间累加 集群整体吞吐量生成mapTask数量*单个mapTak的吞吐量 Average IO rate mb/sec::平均mapTak的吞吐量 计算方式每个mapTask处理文件大小/每一个mapTask写数据的时间全部相加除以task数量 IO rate std deviation:方差、反映各个mapTask处理的差值越小越均衡 2注意如果测试过程中出现异常 1可以在yarn-site.xml中设置虚拟内存检测为false
!--是否启动一个线程检查每个任务正使用的虚拟内存量如果任务超出分配值则直接将其杀掉默认是true --
propertynameyarn.nodemanager.vmem-check-enabled/namevaluefalse/value
/property2分发配置并重启Yarn集群 3测试结果分析 1由于副本1就在本地所以该副本不参与测试 一共参与测试的文件10个文件 * 2个副本 20个 压测后的速度1.61 实测速度1.61M/s * 20个文件 ≈ 32M/s 三台服务器的带宽12.5 12.5 12.5 ≈ 30m/s 所有网络资源都已经用满。 如果实测速度远远小于网络并且实测速度不能满足工作需求可以考虑采用固态硬盘或者增加磁盘个数。 2如果客户端不在集群节点那就三个副本都参与计算
2.2 测试HDFS读性能
1测试内容读取HDFS集群10个128M的文件
[atguiguhadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -read -nrFiles 10 -fileSize 128MB2021-02-09 11:34:15,847 INFO fs.TestDFSIO: ----- TestDFSIO ----- : read
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Date time: Tue Feb 09 11:34:15 CST 2021
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Number of files: 10
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Total MBytes processed: 1280
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Throughput mb/sec: 200.28
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Average IO rate mb/sec: 266.74
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: IO rate std deviation: 143.12
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Test exec time sec: 20.832删除测试生成数据
[atguiguhadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -clean3测试结果分析为什么读取文件速度大于网络带宽由于目前只有三台服务器且有三个副本数据读取就近原则相当于都是读取的本地磁盘数据没有走网络。
第3章 HDFS—多目录
3.1 NameNode多目录配置
1NameNode的本地目录可以配置成多个且每个目录存放内容相同增加了可靠性 2具体配置如下 1在hdfs-site.xml文件中添加如下内容
propertynamedfs.namenode.name.dir/namevaluefile://${hadoop.tmp.dir}/dfs/name1,file://${hadoop.tmp.dir}/dfs/name2/value
/property注意因为每台服务器节点的磁盘情况不同所以这个配置配完之后可以选择不分发 2停止集群删除三台节点的data和logs中所有数据。
[atguiguhadoop102 hadoop-3.1.3]$ rm -rf data/ logs/
[atguiguhadoop103 hadoop-3.1.3]$ rm -rf data/ logs/
[atguiguhadoop104 hadoop-3.1.3]$ rm -rf data/ logs/3格式化集群并启动。
[atguiguhadoop102 hadoop-3.1.3]$ bin/hdfs namenode -format
[atguiguhadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh3查看结果
[atguiguhadoop102 dfs]$ ll
总用量 12
drwx------. 3 atguigu atguigu 4096 12月 11 08:03 data
drwxrwxr-x. 3 atguigu atguigu 4096 12月 11 08:03 name1
drwxrwxr-x. 3 atguigu atguigu 4096 12月 11 08:03 name2检查name1和name2里面的内容发现一模一样。
3.2 DataNode多目录配置
1DataNode可以配置成多个目录每个目录存储的数据不一样数据不是副本 2具体配置如下 在hdfs-site.xml文件中添加如下内容
propertynamedfs.datanode.data.dir/namevaluefile://${hadoop.tmp.dir}/dfs/data1,file://${hadoop.tmp.dir}/dfs/data2/value
/property3查看结果
[atguiguhadoop102 dfs]$ ll
总用量 12
drwx------. 3 atguigu atguigu 4096 4月 4 14:22 data1
drwx------. 3 atguigu atguigu 4096 4月 4 14:22 data2
drwxrwxr-x. 3 atguigu atguigu 4096 12月 11 08:03 name1
drwxrwxr-x. 3 atguigu atguigu 4096 12月 11 08:03 name24向集群上传一个文件再次观察两个文件夹里面的内容发现不一致一个有数一个没有
[atguiguhadoop102 hadoop-3.1.3]$ hadoop fs -put wcinput/word.txt /3.3 集群数据均衡之磁盘间数据均衡
生产环境由于硬盘空间不足往往需要增加一块硬盘。刚加载的硬盘没有数据时可以执行磁盘数据均衡命令。Hadoop3.x新特性 1生成均衡计划我们只有一块磁盘不会生成计划
hdfs diskbalancer -plan hadoop1032执行均衡计划
hdfs diskbalancer -execute hadoop103.plan.json3查看当前均衡任务的执行情况
hdfs diskbalancer -query hadoop1034取消均衡任务
hdfs diskbalancer -cancel hadoop103.plan.json第4章 HDFS—集群扩容及缩容
4.1 添加白名单
白名单表示在白名单的主机IP地址可以用来存储数据。 企业中配置白名单可以尽量防止黑客恶意访问攻击。 配置白名单步骤如下 1在NameNode节点的/opt/module/hadoop-3.1.3/etc/hadoop目录下分别创建whitelist 和blacklist文件 1创建白名单
[atguiguhadoop102 hadoop]$ vim whitelist在whitelist中添加如下主机名称假如集群正常工作的节点为102 103
hadoop102
hadoop1032创建黑名单
[atguiguhadoop102 hadoop]$ touch blacklist保持空的就可以2在hdfs-site.xml配置文件中增加dfs.hosts配置参数
!-- 白名单 --
propertynamedfs.hosts/namevalue/opt/module/hadoop-3.1.3/etc/hadoop/whitelist/value
/property!-- 黑名单 --
propertynamedfs.hosts.exclude/namevalue/opt/module/hadoop-3.1.3/etc/hadoop/blacklist/value
/property3分发配置文件whitelisthdfs-site.xml
[atguiguhadoop104 hadoop]$ xsync hdfs-site.xml whitelist4第一次添加白名单必须重启集群不是第一次只需要刷新NameNode节点即可
[atguiguhadoop102 hadoop-3.1.3]$ myhadoop.sh stop[atguiguhadoop102 hadoop-3.1.3]$ myhadoop.sh start5在web浏览器上查看DNhttp://hadoop102:9870/dfshealth.html#tab-datanode
6在hadoop104上执行上传数据数据失败
[atguiguhadoop104 hadoop-3.1.3]$ hadoop fs -put NOTICE.txt /7二次修改白名单增加hadoop104
[atguiguhadoop102 hadoop]$ vim whitelist修改为如下内容
hadoop102
hadoop103
hadoop1048刷新NameNode
[atguiguhadoop102 hadoop-3.1.3]$ hdfs dfsadmin -refreshNodes
Refresh nodes successful9在web浏览器上查看DNhttp://hadoop102:9870/dfshealth.html#tab-datanode
4.2 服役新服务器
1需求 随着公司业务的增长数据量越来越大原有的数据节点的容量已经不能满足存储数据的需求需要在原有集群基础上动态添加新的数据节点。 2环境准备 1在hadoop100主机上再克隆一台hadoop105主机 2修改IP地址和主机名称
[roothadoop105 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
[roothadoop105 ~]# vim /etc/hostname3拷贝hadoop102的/opt/module目录和/etc/profile.d/my_env.sh到hadoop105
[atguiguhadoop102 opt]$ scp -r module/* atguiguhadoop105:/opt/module/[atguiguhadoop102 opt]$ sudo scp /etc/profile.d/my_env.sh roothadoop105:/etc/profile.d/my_env.sh[atguiguhadoop105 hadoop-3.1.3]$ source /etc/profile4删除hadoop105上Hadoop的历史数据data和log数据
[atguiguhadoop105 hadoop-3.1.3]$ rm -rf data/ logs/5配置hadoop102和hadoop103到hadoop105的ssh无密登录
[atguiguhadoop102 .ssh]$ ssh-copy-id hadoop105[atguiguhadoop103 .ssh]$ ssh-copy-id hadoop1053服役新节点具体步骤 1直接启动DataNode即可关联到集群
[atguiguhadoop105 hadoop-3.1.3]$ hdfs --daemon start datanode
[atguiguhadoop105 hadoop-3.1.3]$ yarn --daemon start nodemanager4在白名单中增加新服役的服务器 1在白名单whitelist中增加hadoop104、hadoop105并重启集群
[atguiguhadoop102 hadoop]$ vim whitelist修改为如下内容
hadoop102
hadoop103
hadoop104
hadoop1052分发
[atguiguhadoop102 hadoop]$ xsync whitelist3刷新NameNode
[atguiguhadoop102 hadoop-3.1.3]$ hdfs dfsadmin -refreshNodes
Refresh nodes successful5在hadoop105上上传文件
[atguiguhadoop105 hadoop-3.1.3]$ hadoop fs -put /opt/module/hadoop-3.1.3/LICENSE.txt /这里我们思考一个问题如果数据不均衡hadoop105数据少其他节点数据多怎么处理
4.3 服务器间数据均衡
1企业经验 在企业开发中如果经常在hadoop102和hadoop104上提交任务且副本数为2由于数据本地性原则就会导致hadoop102和hadoop104数据过多hadoop103存储的数据量小。 另一种情况就是新服役的服务器数据量比较少需要执行集群均衡命令。
2开启数据均衡命令
[atguiguhadoop105 hadoop-3.1.3]$ sbin/start-balancer.sh -threshold 10对于参数10代表的是集群中各个节点的磁盘空间利用率相差不超过10%可根据实际情况进行调整。 3停止数据均衡命令
[atguiguhadoop105 hadoop-3.1.3]$ sbin/stop-balancer.sh注意由于HDFS需要启动单独的Rebalance Server来执行Rebalance操作所以尽量不要在NameNode上执行start-balancer.sh而是找一台比较空闲的机器。
4.4 黑名单退役服务器
黑名单表示在黑名单的主机IP地址不可以用来存储数据。 企业中配置黑名单用来退役服务器。 黑名单配置步骤如下 1编辑/opt/module/hadoop-3.1.3/etc/hadoop目录下的blacklist文件
[atguiguhadoop102 hadoop] vim blacklist添加如下主机名称要退役的节点 hadoop105 注意如果白名单中没有配置需要在hdfs-site.xml配置文件中增加dfs.hosts配置参数
!-- 黑名单 --
propertynamedfs.hosts.exclude/namevalue/opt/module/hadoop-3.1.3/etc/hadoop/blacklist/value
/property2分发配置文件blacklisthdfs-site.xml
[atguiguhadoop104 hadoop]$ xsync hdfs-site.xml blacklist3第一次添加黑名单必须重启集群不是第一次只需要刷新NameNode节点即可
[atguiguhadoop102 hadoop-3.1.3]$ hdfs dfsadmin -refreshNodes
Refresh nodes successful4检查Web浏览器退役节点的状态为decommission in progress退役中说明数据节点正在复制块到其他节点 5等待退役节点状态为decommissioned所有块已经复制完成停止该节点及节点资源管理器。注意如果副本数是3服役的节点小于等于3是不能退役成功的需要修改副本数后才能退役
[atguiguhadoop105 hadoop-3.1.3]$ hdfs --daemon stop datanode
stopping datanode[atguiguhadoop105 hadoop-3.1.3]$ yarn --daemon stop nodemanager
stopping nodemanager6如果数据不均衡可以用命令实现集群的再平衡
[atguiguhadoop102 hadoop-3.1.3]$ sbin/start-balancer.sh -threshold 10第5章 HDFS—存储优化
注演示纠删码和异构存储需要一共5台虚拟机。尽量拿另外一套集群。提前准备5台服务器的集群。
5.1 纠删码
5.1.1 纠删码原理
HDFS默认情况下一个文件有3个副本这样提高了数据的可靠性但也带来了2倍的冗余开销。Hadoop3.x引入了纠删码采用计算的方式可以节省约50左右的存储空间。 1纠删码操作相关的命令
[atguiguhadoop102 hadoop-3.1.3]$ hdfs ec
Usage: bin/hdfs ec [COMMAND][-listPolicies][-addPolicies -policyFile file][-getPolicy -path path][-removePolicy -policy policy][-setPolicy -path path [-policy policy] [-replicate]][-unsetPolicy -path path][-listCodecs][-enablePolicy -policy policy][-disablePolicy -policy policy][-help command-name].2查看当前支持的纠删码策略
[atguiguhadoop102 hadoop-3.1.3] hdfs ec -listPoliciesErasure Coding Policies:
ErasureCodingPolicy[NameRS-10-4-1024k, Schema[ECSchema[Codecrs, numDataUnits10, numParityUnits4]], CellSize1048576, Id5], StateDISABLEDErasureCodingPolicy[NameRS-3-2-1024k, Schema[ECSchema[Codecrs, numDataUnits3, numParityUnits2]], CellSize1048576, Id2], StateDISABLEDErasureCodingPolicy[NameRS-6-3-1024k, Schema[ECSchema[Codecrs, numDataUnits6, numParityUnits3]], CellSize1048576, Id1], StateENABLEDErasureCodingPolicy[NameRS-LEGACY-6-3-1024k, Schema[ECSchema[Codecrs-legacy, numDataUnits6, numParityUnits3]], CellSize1048576, Id3], StateDISABLEDErasureCodingPolicy[NameXOR-2-1-1024k, Schema[ECSchema[Codecxor, numDataUnits2, numParityUnits1]], CellSize1048576, Id4], StateDISABLED3纠删码策略解释: RS-3-2-1024k使用RS编码每3个数据单元生成2个校验单元共5个单元也就是说这5个单元中只要有任意的3个单元存在不管是数据单元还是校验单元只要总数3就可以得到原始数据。每个单元的大小是1024k102410241048576。 RS-10-4-1024k使用RS编码每10个数据单元cell生成4个校验单元共14个单元也就是说这14个单元中只要有任意的10个单元存在不管是数据单元还是校验单元只要总数10就可以得到原始数据。每个单元的大小是1024k102410241048576。 RS-6-3-1024k使用RS编码每6个数据单元生成3个校验单元共9个单元也就是说这9个单元中只要有任意的6个单元存在不管是数据单元还是校验单元只要总数6就可以得到原始数据。每个单元的大小是1024k102410241048576。 RS-LEGACY-6-3-1024k策略和上面的RS-6-3-1024k一样只是编码的算法用的是rs-legacy。 XOR-2-1-1024k使用XOR编码速度比RS编码快每2个数据单元生成1个校验单元共3个单元也就是说这3个单元中只要有任意的2个单元存在不管是数据单元还是校验单元只要总数 2就可以得到原始数据。每个单元的大小是1024k102410241048576。
5.1.2 纠删码案例实操 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件都会执行此策略。 默认只开启对RS-6-3-1024k策略的支持如要使用别的策略需要提前启用。 1需求将/input目录设置为RS-3-2-1024k策略 2具体步骤 1开启对RS-3-2-1024k策略的支持
[atguiguhadoop102 hadoop-3.1.3]$ hdfs ec -enablePolicy -policy RS-3-2-1024k
Erasure coding policy RS-3-2-1024k is enabled2在HDFS创建目录并设置RS-3-2-1024k策略
[atguiguhadoop102 hadoop-3.1.3]$ hdfs dfs -mkdir /input[atguiguhadoop202 hadoop-3.1.3]$ hdfs ec -setPolicy -path /input -policy RS-3-2-1024k3上传文件并查看文件编码后的存储情况
[atguiguhadoop102 hadoop-3.1.3]$ hdfs dfs -put web.log /input注你所上传的文件需要大于2M才能看出效果。低于2M只有一个数据单元和两个校验单元 4查看存储路径的数据单元和校验单元并作破坏实验
5.2 异构存储冷热数据分离
异构存储主要解决不同的数据存储在不同类型的硬盘中达到最佳性能的问题。
5.2.1 异构存储Shell操作
1查看当前有哪些存储策略可以用
[atguiguhadoop102 hadoop-3.1.3]$ hdfs storagepolicies -listPolicies2为指定路径数据存储目录设置指定的存储策略
hdfs storagepolicies -setStoragePolicy -path xxx -policy xxx3获取指定路径数据存储目录或文件的存储策略
hdfs storagepolicies -getStoragePolicy -path xxx4取消存储策略执行改命令之后该目录或者文件以其上级的目录为准如果是根目录那么就是HOT
hdfs storagepolicies -unsetStoragePolicy -path xxx5查看文件块的分布
bin/hdfs fsck xxx -files -blocks -locations6查看集群节点
hadoop dfsadmin -report5.2.2 测试环境准备
1测试环境描述 服务器规模5台 集群配置副本数为2创建好带有存储类型的目录提前创建 集群规划
节点存储类型分配hadoop102RAM_DISKSSDhadoop103SSDDISKhadoop104DISKRAM_DISKhadoop105ARCHIVEhadoop106ARCHIVE2配置文件信息1为hadoop102节点的hdfs-site.xml添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/name value[SSD]file:///opt/module/hadoop-3.1.3/hdfsdata/ssd,[RAM_DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/ram_disk/value
/property2为hadoop103节点的hdfs-site.xml添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/namevalue[SSD]file:///opt/module/hadoop-3.1.3/hdfsdata/ssd,[DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/disk/value
/property3为hadoop104节点的hdfs-site.xml添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/namevalue[RAM_DISK]file:///opt/module/hdfsdata/ram_disk,[DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/disk/value
/property4为hadoop105节点的hdfs-site.xml添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/namevalue[ARCHIVE]file:///opt/module/hadoop-3.1.3/hdfsdata/archive/value
/property5为hadoop106节点的hdfs-site.xml添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/namevalue[ARCHIVE]file:///opt/module/hadoop-3.1.3/hdfsdata/archive/value
/property3数据准备 1启动集群
[atguiguhadoop102 hadoop-3.1.3]$ hdfs namenode -format
[atguiguhadoop102 hadoop-3.1.3]$ myhadoop.sh start1并在HDFS上创建文件目录
[atguiguhadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /hdfsdata2并将文件资料上传
[atguiguhadoop102 hadoop-3.1.3]$ hadoop fs -put /opt/module/hadoop-3.1.3/NOTICE.txt /hdfsdata5.2.3 HOT存储策略案例
1最开始我们未设置存储策略的情况下我们获取该目录的存储策略
[atguiguhadoop102 hadoop-3.1.3]$ hdfs storagepolicies -getStoragePolicy -path /hdfsdata2我们查看上传的文件块分布
[atguiguhadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]未设置存储策略所有文件块都存储在DISK下。所以默认存储策略为HOT。
5.2.4 WARM存储策略测试
1接下来我们为数据降温
[atguiguhadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy WARM2再次查看文件块分布我们可以看到文件块依然放在原处。
[atguiguhadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations3我们需要让他HDFS按照存储策略自行移动文件块
[atguiguhadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata4再次查看文件块分布
[atguiguhadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.105:9866,DS-d46d08e1-80c6-4fca-b0a2-4a3dd7ec7459,ARCHIVE], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]文件块一半在DISK一半在ARCHIVE符合我们设置的WARM策略
5.2.5 COLD策略测试
1我们继续将数据降温为cold
[atguiguhadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy COLD注意当我们将目录设置为COLD并且我们未配置ARCHIVE存储目录的情况下不可以向该目录直接上传文件会报出异常。 2手动转移
[atguiguhadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata3检查文件块的分布
[atguiguhadoop102 hadoop-3.1.3]$ bin/hdfs fsck /hdfsdata -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.105:9866,DS-d46d08e1-80c6-4fca-b0a2-4a3dd7ec7459,ARCHIVE], DatanodeInfoWithStorage[192.168.10.106:9866,DS-827b3f8b-84d7-47c6-8a14-0166096f919d,ARCHIVE]]所有文件块都在ARCHIVE符合COLD存储策略。
5.2.6 ONE_SSD策略测试
1接下来我们将存储策略从默认的HOT更改为One_SSD
[atguiguhadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy One_SSD2手动转移文件块
[atguiguhadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata3转移完成后我们查看文件块分布
[atguiguhadoop102 hadoop-3.1.3]$ bin/hdfs fsck /hdfsdata -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-2481a204-59dd-46c0-9f87-ec4647ad429a,SSD]]文件块分布为一半在SSD一半在DISK符合One_SSD存储策略。
5.2.7 ALL_SSD策略测试
1接下来我们再将存储策略更改为All_SSD
[atguiguhadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy All_SSD2手动转移文件块
[atguiguhadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata3查看文件块分布我们可以看到
[atguiguhadoop102 hadoop-3.1.3]$ bin/hdfs fsck /hdfsdata -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.102:9866,DS-c997cfb4-16dc-4e69-a0c4-9411a1b0c1eb,SSD], DatanodeInfoWithStorage[192.168.10.103:9866,DS-2481a204-59dd-46c0-9f87-ec4647ad429a,SSD]]所有的文件块都存储在SSD符合All_SSD存储策略。
5.2.8 LAZY_PERSIST策略测试
1继续改变策略将存储策略改为lazy_persist
[atguiguhadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy lazy_persist2手动转移文件块
[atguiguhadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata3查看文件块分布
[atguiguhadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]这里我们发现所有的文件块都是存储在DISK按照理论一个副本存储在RAM_DISK其他副本存储在DISK中这是因为我们还需要配置“dfs.datanode.max.locked.memory”“dfs.block.size”参数。 那么出现存储策略为LAZY_PERSIST时文件块副本都存储在DISK上的原因有如下两点 1当客户端所在的DataNode节点没有RAM_DISK时则会写入客户端所在的DataNode节点的DISK磁盘其余副本会写入其他节点的DISK磁盘。 2当客户端所在的DataNode有RAM_DISK但“dfs.datanode.max.locked.memory”参数值未设置或者设置过小小于“dfs.block.size”参数值时则会写入客户端所在的DataNode节点的DISK磁盘其余副本会写入其他节点的DISK磁盘。 但是由于虚拟机的“max locked memory”为64KB所以如果参数配置过大还会报出错误
ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in secureMain
java.lang.RuntimeException: Cannot start datanode because the configured max locked memory size (dfs.datanode.max.locked.memory) of 209715200 bytes is more than the datanodes available RLIMIT_MEMLOCK ulimit of 65536 bytes.我们可以通过该命令查询此参数的内存
[atguiguhadoop102 hadoop-3.1.3]$ ulimit -amax locked memory (kbytes, -l) 64第6章 HDFS—故障排除
注意采用三台服务器即可恢复到Yarn开始的服务器快照。
6.1 NameNode故障处理
注意采用三台服务器即可恢复到Yarn开始的服务器快照。 1需求 NameNode进程挂了并且存储的数据也丢失了如何恢复NameNode 2故障模拟 1kill -9 NameNode进程
[atguiguhadoop102 current]$ kill -9 198862删除NameNode存储的数据/opt/module/hadoop-3.1.3/data/tmp/dfs/name
[atguiguhadoop102 hadoop-3.1.3]$ rm -rf /opt/module/hadoop-3.1.3/data/dfs/name/*3问题解决 1拷贝SecondaryNameNode中数据到原NameNode存储数据目录
[atguiguhadoop102 dfs]$ scp -r atguiguhadoop104:/opt/module/hadoop-3.1.3/data/dfs/namesecondary/* ./name/2重新启动NameNode
[atguiguhadoop102 hadoop-3.1.3]$ hdfs --daemon start namenode3向集群上传一个文件
6.2 集群安全模式磁盘修复
1安全模式文件系统只接受读数据请求而不接受删除、修改等变更请求 2进入安全模式场景 NameNode在加载镜像文件和编辑日志期间处于安全模式 NameNode再接收DataNode注册时处于安全模式 3退出安全模式条件 dfs.namenode.safemode.min.datanodes:最小可用datanode数量默认0 dfs.namenode.safemode.threshold-pct:副本数达到最小要求的block占系统总block数的百分比默认0.999f。只允许丢一个块 dfs.namenode.safemode.extension:稳定时间默认值30000毫秒即30秒 4基本语法 集群处于安全模式不能执行重要操作写操作。集群启动完成后自动退出安全模式。 1bin/hdfs dfsadmin -safemode get 功能描述查看安全模式状态 2bin/hdfs dfsadmin -safemode enter 功能描述进入安全模式状态 3bin/hdfs dfsadmin -safemode leave 功能描述离开安全模式状态 4bin/hdfs dfsadmin -safemode wait 功能描述等待安全模式状态 5案例1启动集群进入安全模式 1重新启动集群
[atguiguhadoop102 subdir0]$ myhadoop.sh stop[atguiguhadoop102 subdir0]$ myhadoop.sh start2集群启动后立即来到集群上删除数据提示集群处于安全模式 6案例2磁盘修复 需求数据块损坏进入安全模式如何处理 1分别进入hadoop102、hadoop103、hadoop104的/opt/module/hadoop-3.1.3/data/dfs/data/current/BP-1015489500-192.168.10.102-1611909480872/current/finalized/subdir0/subdir0目录统一删除某2个块信息 [atguiguhadoop102 subdir0]$ pwd /opt/module/hadoop-3.1.3/data/dfs/data/current/BP-1015489500-192.168.10.102-1611909480872/current/finalized/subdir0/subdir0
[atguiguhadoop102 subdir0]$ rm -rf blk_1073741847 blk_1073741847_1023.meta [atguiguhadoop102 subdir0]$ rm -rf blk_1073741865 blk_1073741865_1042.meta 说明hadoop103/hadoop104重复执行以上命令 2重新启动集群 [atguiguhadoop102 subdir0]$ myhadoop.sh stop [atguiguhadoop102 subdir0]$ myhadoop.sh start 3观察http://hadoop102:9870/dfshealth.html#tab-overview
说明安全模式已经打开块的数量没有达到要求。
4离开安全模式[atguiguhadoop102 subdir0]$ hdfs dfsadmin -safemode get Safe mode is ON [atguiguhadoop102 subdir0]$ hdfs dfsadmin -safemode leave Safe mode is OFF 5观察http://hadoop102:9870/dfshealth.html#tab-overview
6将元数据删除7观察http://hadoop102:9870/dfshealth.html#tab-overview集群已经正常 7案例3 需求模拟等待安全模式 1查看当前模式 [atguiguhadoop102 hadoop-3.1.3]$ hdfs dfsadmin -safemode get Safe mode is OFF 2先进入安全模式 [atguiguhadoop102 hadoop-3.1.3]$ bin/hdfs dfsadmin -safemode enter 3创建并执行下面的脚本 在/opt/module/hadoop-3.1.3路径上编辑一个脚本safemode.sh [atguiguhadoop102 hadoop-3.1.3]$ vim safemode.sh
#!/bin/bash hdfs dfsadmin -safemode wait hdfs dfs -put /opt/module/hadoop-3.1.3/README.txt /
[atguiguhadoop102 hadoop-3.1.3]$ chmod 777 safemode.sh
[atguiguhadoop102 hadoop-3.1.3]$ ./safemode.sh 4再打开一个窗口执行 [atguiguhadoop102 hadoop-3.1.3]$ bin/hdfs dfsadmin -safemode leave 5再观察上一个窗口 Safe mode is OFF 6HDFS集群上已经有上传的数据了
6.3 慢磁盘监控
“慢磁盘”指的时写入数据非常慢的一类磁盘。其实慢性磁盘并不少见当机器运行时间长了上面跑的任务多了磁盘的读写性能自然会退化严重时就会出现写入数据延时的问题。 如何发现慢磁盘 正常在HDFS上创建一个目录只需要不到1s的时间。如果你发现创建目录超过1分钟及以上而且这个现象并不是每次都有。只是偶尔慢了一下就很有可能存在慢磁盘。 可以采用如下方法找出是哪块磁盘慢 1通过心跳未联系时间。 一般出现慢磁盘现象会影响到DataNode与NameNode之间的心跳。正常情况心跳时间间隔是3s。超过3s说明有异常。 2fio命令测试磁盘的读写性能 1顺序读测试
[atguiguhadoop102 ~]# sudo yum install -y fio
[atguiguhadoop102 ~]# sudo fio -filename/home/atguigu/test.log -direct1 -iodepth 1 -thread -rwread -ioenginepsync -bs16k -size2G -numjobs10 -runtime60 -group_reporting -nametest_rRun status group 0 (all jobs):READ: bw360MiB/s (378MB/s), 360MiB/s-360MiB/s (378MB/s-378MB/s), io20.0GiB (21.5GB), run56885-56885msec结果显示磁盘的总体顺序读速度为360MiB/s。 2顺序写测试
[atguiguhadoop102 ~]# sudo fio -filename/home/atguigu/test.log -direct1 -iodepth 1 -thread -rwwrite -ioenginepsync -bs16k -size2G -numjobs10 -runtime60 -group_reporting -nametest_wRun status group 0 (all jobs):WRITE: bw341MiB/s (357MB/s), 341MiB/s-341MiB/s (357MB/s-357MB/s), io19.0GiB (21.4GB), run60001-60001msec结果显示磁盘的总体顺序写速度为341MiB/s。 3随机写测试
[atguiguhadoop102 ~]# sudo fio -filename/home/atguigu/test.log -direct1 -iodepth 1 -thread -rwrandwrite -ioenginepsync -bs16k -size2G -numjobs10 -runtime60 -group_reporting -nametest_randwRun status group 0 (all jobs):WRITE: bw309MiB/s (324MB/s), 309MiB/s-309MiB/s (324MB/s-324MB/s), io18.1GiB (19.4GB), run60001-60001msec结果显示磁盘的总体随机写速度为309MiB/s。 4混合随机读写
[atguiguhadoop102 ~]# sudo fio -filename/home/atguigu/test.log -direct1 -iodepth 1 -thread -rwrandrw -rwmixread70 -ioenginepsync -bs16k -size2G -numjobs10 -runtime60 -group_reporting -nametest_r_w -ioschedulernoopRun status group 0 (all jobs):READ: bw220MiB/s (231MB/s), 220MiB/s-220MiB/s (231MB/s-231MB/s), io12.9GiB (13.9GB), run60001-60001msecWRITE: bw94.6MiB/s (99.2MB/s), 94.6MiB/s-94.6MiB/s (99.2MB/s-99.2MB/s), io5674MiB (5950MB), run60001-60001msec结果显示磁盘的总体混合随机读写读速度为220MiB/s写速度94.6MiB/s。
6.4 小文件归档
1HDFS存储小文件弊端 每个文件均按块存储每个块的元数据存储在NameNode的内存中因此HDFS存储小文件会非常低效。因为大量的小文件会耗尽NameNode中的大部分内存。但注意存储小文件所需要的磁盘容量和数据块的大小无关。例如一个1MB的文件设置为128MB的块存储实际使用的是1MB的磁盘空间而不是128MB。 2解决存储小文件办法之一 HDFS存档文件或HAR文件是一个更高效的文件存档工具它将文件存入HDFS块在减少NameNode内存使用的同时允许对文件进行透明的访问。具体说来HDFS存档文件对内还是一个一个独立文件对NameNode而言却是一个整体减少了NameNode的内存。 3案例实操 1需要启动YARN进程
[atguiguhadoop102 hadoop-3.1.3]$ start-yarn.sh2归档文件 把/input目录里面的所有文件归档成一个叫input.har的归档文件并把归档后文件存储到/output路径下。
[atguiguhadoop102 hadoop-3.1.3]$ hadoop archive -archiveName input.har -p /input /output3查看归档
[atguiguhadoop102 hadoop-3.1.3]$ hadoop fs -ls /output/input.har
[atguiguhadoop102 hadoop-3.1.3]$ hadoop fs -ls har:///output/input.har4解归档文件
[atguiguhadoop102 hadoop-3.1.3]$ hadoop fs -cp har:///output/input.har/* /第7章 HDFS—集群迁移
7.1 Apache和Apache集群间数据拷贝 1scp实现两个远程主机之间的文件复制
scp -r hello.txt roothadoop103:/user/atguigu/hello.txt // 推 pushscp -r roothadoop103:/user/atguigu/hello.txt hello.txt // 拉 pullscp -r roothadoop103:/user/atguigu/hello.txt roothadoop104:/user/atguigu //是通过本地主机中转实现两个远程主机的文件复制如果在两个远程主机之间ssh没有配置的情况下可以使用该方式。2采用distcp命令实现两个Hadoop集群之间的递归数据复制
[atguiguhadoop102 hadoop-3.1.3]$ bin/hadoop distcp hdfs://hadoop102:8020/user/atguigu/hello.txt 第8章 MapReduce生产经验
8.1 MapReduce跑的慢的原因
MapReduce程序效率的瓶颈在于两点 1计算机性能 CPU、内存、磁盘、网络 2I/O操作优化 1数据倾斜 2Map运行时间太长导致Reduce等待过久 3小文件过多
8.2 MapReduce常用调优参数 8.3 MapReduce数据倾斜问题
1数据倾斜现象 数据频率倾斜——某一个区域的数据量要远远大于其他区域。 数据大小倾斜——部分记录的大小远远大于平均值。 2减少数据倾斜的方法 1首先检查是否空值过多造成的数据倾斜 生产环境可以直接过滤掉空值如果想保留空值就自定义分区将空值加随机数打散。最后再二次聚合。 2能在map阶段提前处理最好先在Map阶段处理。如Combiner、MapJoin 3设置多个reduce个数
第9章 Hadoop-Yarn生产经验
9.1 常用的调优参数
1调优参数列表 1Resourcemanager相关 yarn.resourcemanager.scheduler.client.thread-count ResourceManager处理调度器请求的线程数量 yarn.resourcemanager.scheduler.class 配置调度器 2Nodemanager相关 yarn.nodemanager.resource.memory-mb NodeManager使用内存数 yarn.nodemanager.resource.system-reserved-memory-mb NodeManager为系统保留多少内存和上一个参数二者取一即可
yarn.nodemanager.resource.cpu-vcores NodeManager使用CPU核数 yarn.nodemanager.resource.count-logical-processors-as-cores 是否将虚拟核数当作CPU核数 yarn.nodemanager.resource.pcores-vcores-multiplier 虚拟核数和物理核数乘数例如4核8线程该参数就应设为2 yarn.nodemanager.resource.detect-hardware-capabilities 是否让yarn自己检测硬件进行配置
yarn.nodemanager.pmem-check-enabled 是否开启物理内存检查限制container yarn.nodemanager.vmem-check-enabled 是否开启虚拟内存检查限制container yarn.nodemanager.vmem-pmem-ratio 虚拟内存物理内存比例 3Container容器相关 yarn.scheduler.minimum-allocation-mb 容器最小内存 yarn.scheduler.maximum-allocation-mb 容器最大内存 yarn.scheduler.minimum-allocation-vcores 容器最小核数 yarn.scheduler.maximum-allocation-vcores 容器最大核数
第10章 Hadoop综合调优
10.1 Hadoop小文件优化方法
10.1.1 Hadoop小文件弊端
HDFS上每个文件都要在NameNode上创建对应的元数据这个元数据的大小约为150byte这样当小文件比较多的时候就会产生很多的元数据文件一方面会大量占用NameNode的内存空间另一方面就是元数据文件过多使得寻址索引速度变慢。 小文件过多在进行MR计算时会生成过多切片需要启动过多的MapTask。每个MapTask处理的数据量小导致MapTask的处理时间比启动时间还小白白消耗资源。
10.1.2 Hadoop小文件解决方案
1在数据采集的时候就将小文件或小批数据合成大文件再上传HDFS数据源头 2Hadoop Archive存储方向 是一个高效的将小文件放入HDFS块中的文件存档工具能够将多个小文件打包成一个HAR文件从而达到减少NameNode的内存使用 3CombineTextInputFormat计算方向 CombineTextInputFormat用于将多个小文件在切片过程中生成一个单独的切片或者少量的切片。 4开启uber模式实现JVM重用计算方向 默认情况下每个Task任务都需要启动一个JVM来运行如果Task任务计算的数据量很小我们可以让同一个Job的多个Task运行在一个JVM中不必为每个Task都开启一个JVM。 1未开启uber模式在/input路径上上传多个小文件并执行wordcount程序
[atguiguhadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output22观察控制台2021-02-14 16:13:50,607 INFO mapreduce.Job: Job job_1613281510851_0002 running in uber mode : false3观察
http://hadoop103:8088/cluster4开启uber模式在mapred-site.xml中添加如下配置
!-- 开启uber模式默认关闭 --
propertynamemapreduce.job.ubertask.enable/namevaluetrue/value
/property!-- uber模式中最大的mapTask数量可向下修改 --
propertynamemapreduce.job.ubertask.maxmaps/namevalue9/value
/property
!-- uber模式中最大的reduce数量可向下修改 --
propertynamemapreduce.job.ubertask.maxreduces/namevalue1/value
/property
!-- uber模式中最大的输入数据量默认使用dfs.blocksize 的值可向下修改 --
propertynamemapreduce.job.ubertask.maxbytes/namevalue/value
/property5分发配置
[atguiguhadoop102 hadoop]$ xsync mapred-site.xml6再次执行wordcount程序
[atguiguhadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output27观察控制台2021-02-14 16:28:36,198 INFO mapreduce.Job: Job job_1613281510851_0003 running in uber mode : true8观察
http://hadoop103:8088/cluster10.2 测试MapReduce计算性能
使用Sort程序评测MapReduce 注一个虚拟机不超过150G磁盘尽量不要执行这段代码 1使用RandomWriter来产生随机数每个节点运行10个Map任务每个Map产生大约1G大小的二进制随机数
[atguiguhadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar randomwriter random-data2执行Sort程序
[atguiguhadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar sort random-data sorted-data3验证数据是否真正排好序了
[atguiguhadoop102 mapreduce]$
hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar testmapredsort -sortInput random-data -sortOutput sorted-data10.3 企业开发场景案例
10.3.1 需求
1需求从1G数据中统计每个单词出现次数。服务器3台每台配置4G内存4核CPU4线程。 2需求分析 1G / 128m 8个MapTask1个ReduceTask1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务4 3 3 10.3.2 HDFS参数调优 1修改hadoop-env.sh
export HDFS_NAMENODE_OPTS-Dhadoop.security.loggerINFO,RFAS -Xmx1024mexport HDFS_DATANODE_OPTS-Dhadoop.security.loggerERROR,RFAS -Xmx1024m2修改hdfs-site.xml
!-- NameNode有一个工作线程池默认值是10 --
propertynamedfs.namenode.handler.count/namevalue21/value
/property3修改core-site.xml
!-- 配置垃圾回收时间为60分钟 --
propertynamefs.trash.interval/namevalue60/value
/property4分发配置
[atguiguhadoop102 hadoop]$ xsync hadoop-env.sh hdfs-site.xml core-site.xml10.3.3 MapReduce参数调优
1修改mapred-site.xml
!-- 环形缓冲区大小默认100m --
propertynamemapreduce.task.io.sort.mb/namevalue100/value
/property!-- 环形缓冲区溢写阈值默认0.8 --
propertynamemapreduce.map.sort.spill.percent/namevalue0.80/value
/property!-- merge合并次数默认10个 --
propertynamemapreduce.task.io.sort.factor/namevalue10/value
/property!-- maptask内存默认1g maptask堆内存大小默认和该值大小一致mapreduce.map.java.opts --
propertynamemapreduce.map.memory.mb/namevalue-1/valuedescriptionThe amount of memory to request from the scheduler for each map task. If this is not specified or is non-positive, it is inferred from mapreduce.map.java.opts and mapreduce.job.heap.memory-mb.ratio. If java-opts are also not specified, we set it to 1024./description
/property!-- matask的CPU核数默认1个 --
propertynamemapreduce.map.cpu.vcores/namevalue1/value
/property!-- matask异常重试次数默认4次 --
propertynamemapreduce.map.maxattempts/namevalue4/value
/property!-- 每个Reduce去Map中拉取数据的并行数。默认值是5 --
propertynamemapreduce.reduce.shuffle.parallelcopies/namevalue5/value
/property!-- Buffer大小占Reduce可用内存的比例默认值0.7 --
propertynamemapreduce.reduce.shuffle.input.buffer.percent/namevalue0.70/value
/property!-- Buffer中的数据达到多少比例开始写入磁盘默认值0.66。 --
propertynamemapreduce.reduce.shuffle.merge.percent/namevalue0.66/value
/property!-- reducetask内存默认1greducetask堆内存大小默认和该值大小一致mapreduce.reduce.java.opts --
propertynamemapreduce.reduce.memory.mb/namevalue-1/valuedescriptionThe amount of memory to request from the scheduler for each reduce task. If this is not specified or is non-positive, it is inferredfrom mapreduce.reduce.java.opts and mapreduce.job.heap.memory-mb.ratio.If java-opts are also not specified, we set it to 1024./description
/property!-- reducetask的CPU核数默认1个 --
propertynamemapreduce.reduce.cpu.vcores/namevalue2/value
/property!-- reducetask失败重试次数默认4次 --
propertynamemapreduce.reduce.maxattempts/namevalue4/value
/property!-- 当MapTask完成的比例达到该值后才会为ReduceTask申请资源。默认是0.05 --
propertynamemapreduce.job.reduce.slowstart.completedmaps/namevalue0.05/value
/property!-- 如果程序在规定的默认10分钟内没有读到数据将强制超时退出 --
propertynamemapreduce.task.timeout/namevalue600000/value
/property
2分发配置
[atguiguhadoop102 hadoop]$ xsync mapred-site.xml
10.3.4 Yarn参数调优
1修改yarn-site.xml配置参数如下
!-- 选择调度器默认容量 --
propertydescriptionThe class to use as the resource scheduler./descriptionnameyarn.resourcemanager.scheduler.class/namevalueorg.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler/value
/property!-- ResourceManager处理调度器请求的线程数量,默认50如果提交的任务数大于50可以增加该值但是不能超过3台 * 4线程 12线程去除其他应用程序实际不能超过8 --
propertydescriptionNumber of threads to handle scheduler interface./descriptionnameyarn.resourcemanager.scheduler.client.thread-count/namevalue8/value
/property!-- 是否让yarn自动检测硬件进行配置默认是false如果该节点有很多其他应用程序建议手动配置。如果该节点没有其他应用程序可以采用自动 --
propertydescriptionEnable auto-detection of node capabilities such asmemory and CPU./descriptionnameyarn.nodemanager.resource.detect-hardware-capabilities/namevaluefalse/value
/property!-- 是否将虚拟核数当作CPU核数默认是false采用物理CPU核数 --
propertydescriptionFlag to determine if logical processors(such ashyperthreads) should be counted as cores. Only applicable on Linuxwhen yarn.nodemanager.resource.cpu-vcores is set to -1 andyarn.nodemanager.resource.detect-hardware-capabilities is true./descriptionnameyarn.nodemanager.resource.count-logical-processors-as-cores/namevaluefalse/value
/property!-- 虚拟核数和物理核数乘数默认是1.0 --
propertydescriptionMultiplier to determine how to convert phyiscal cores tovcores. This value is used if yarn.nodemanager.resource.cpu-vcoresis set to -1(which implies auto-calculate vcores) andyarn.nodemanager.resource.detect-hardware-capabilities is set to true. The number of vcores will be calculated as number of CPUs * multiplier./descriptionnameyarn.nodemanager.resource.pcores-vcores-multiplier/namevalue1.0/value
/property!-- NodeManager使用内存数默认8G修改为4G内存 --
propertydescriptionAmount of physical memory, in MB, that can be allocated for containers. If set to -1 andyarn.nodemanager.resource.detect-hardware-capabilities is true, it isautomatically calculated(in case of Windows and Linux).In other cases, the default is 8192MB./descriptionnameyarn.nodemanager.resource.memory-mb/namevalue4096/value
/property!-- nodemanager的CPU核数不按照硬件环境自动设定时默认是8个修改为4个 --
propertydescriptionNumber of vcores that can be allocatedfor containers. This is used by the RM scheduler when allocatingresources for containers. This is not used to limit the number ofCPUs used by YARN containers. If it is set to -1 andyarn.nodemanager.resource.detect-hardware-capabilities is true, it isautomatically determined from the hardware in case of Windows and Linux.In other cases, number of vcores is 8 by default./descriptionnameyarn.nodemanager.resource.cpu-vcores/namevalue4/value
/property!-- 容器最小内存默认1G --
propertydescriptionThe minimum allocation for every container request at the RM in MBs. Memory requests lower than this will be set to the value of this property. Additionally, a node manager that is configured to have less memory than this value will be shut down by the resource manager./descriptionnameyarn.scheduler.minimum-allocation-mb/namevalue1024/value
/property!-- 容器最大内存默认8G修改为2G --
propertydescriptionThe maximum allocation for every container request at the RM in MBs. Memory requests higher than this will throw an InvalidResourceRequestException./descriptionnameyarn.scheduler.maximum-allocation-mb/namevalue2048/value
/property!-- 容器最小CPU核数默认1个 --
propertydescriptionThe minimum allocation for every container request at the RM in terms of virtual CPU cores. Requests lower than this will be set to the value of this property. Additionally, a node manager that is configured to have fewer virtual cores than this value will be shut down by the resource manager./descriptionnameyarn.scheduler.minimum-allocation-vcores/namevalue1/value
/property!-- 容器最大CPU核数默认4个修改为2个 --
propertydescriptionThe maximum allocation for every container request at the RM in terms of virtual CPU cores. Requests higher than this will throw anInvalidResourceRequestException./descriptionnameyarn.scheduler.maximum-allocation-vcores/namevalue2/value
/property!-- 虚拟内存检查默认打开修改为关闭 --
propertydescriptionWhether virtual memory limits will be enforced forcontainers./descriptionnameyarn.nodemanager.vmem-check-enabled/namevaluefalse/value
/property!-- 虚拟内存和物理内存设置比例,默认2.1 --
propertydescriptionRatio between virtual memory to physical memory when setting memory limits for containers. Container allocations are expressed in terms of physical memory, and virtual memory usage is allowed to exceed this allocation by this ratio./descriptionnameyarn.nodemanager.vmem-pmem-ratio/namevalue2.1/value
/property2分发配置
[atguiguhadoop102 hadoop]$ xsync yarn-site.xml10.3.5 执行程序
1重启集群
[atguiguhadoop102 hadoop-3.1.3]$ sbin/stop-yarn.sh
[atguiguhadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh2执行WordCount程序
[atguiguhadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output3观察Yarn任务执行页面
http://hadoop103:8088/cluster/appsOK关于大数据技术之Hadoop生产调优手册的内容是比较侧重实际的希望各位能够从里面学到有用的调优方法后面我有时间也会继续更新相关内容。