当前位置: 首页 > news >正文

深圳网站建设延安手机网站制作的公司

深圳网站建设延安,手机网站制作的公司,教育网站解决方案,网站建设前准备一、安装包下载 官方网址#xff1a;https://hadoop.apache.org#xff0c;点击Download。 hadoop环境配置前置准备-CSDN博客 或者从网盘资料中获取安装包 链接: https://pan.baidu.com/s/1vTQWQLmZ8JHUqs5Us5FcFQ?pwdzgzs 提取码: zgzs 在前置准备章节#xff0c;我们…一、安装包下载 官方网址https://hadoop.apache.org点击Download。 hadoop环境配置前置准备-CSDN博客 或者从网盘资料中获取安装包 链接: https://pan.baidu.com/s/1vTQWQLmZ8JHUqs5Us5FcFQ?pwdzgzs 提取码: zgzs  在前置准备章节我们准备了基于VMware的三台虚拟机其硬件配置如下。 节点 CPU 内存 node1 1核心 4GB node2 1核心 2GB node3 1核心 2GB Hadoop HDFS的角色包含 NameNode主节点管理者 DataNode从节点工作者 SecondaryNameNode主节点辅助 节点 服务 node1 NameNode、DataNode、SecondaryNameNode node2 DataNode node3 DataNode 注意 请确认已经完成前置准备中的服务器创建、固定IP、防火墙关闭、Hadoop用户创建、SSH免密、JDK部署等操作。 hadoop环境配置前置准备-CSDN博客 二、上传 解压 1. 上传Hadoop安装包到node1节点中位置 /export/server 2. 解压缩安装包到/export/server/中 tar -zxvf hadoop-3.3.4.tar.gz -C /export/server3. 构建软链接 cd /export/serverln -s /export/server/hadoop-3.3.4 hadoop4. 进入hadoop安装包内 cd hadoop5、cd 进入Hadoop安装包内通过 ls -l 命令查看文件夹内部结构 各个文件夹含义如下 • bin 存放 Hadoop 的各类程序命令 • etc 存放 Hadoop 的配置文件 • include C 语言的一些头文件 • lib 存放 Linux 系统的动态链接库 .so 文件 • libexec 存放配置 Hadoop 系统的脚本文件 .sh 和 .cmd • licenses-binary 存放许可证文件 • sbin 管理员程序 super bin • share 存放二进制源码 Java jar 包 三、修改配置文件应用自定义设置 配置HDFS集群我们主要涉及到如下文件的修改 • workers   配置从节点 DataNode 有哪些 • hadoop-env.sh   配置 Hadoop 的相关环境变量 • core-site.xml   Hadoop 核心配置文件 • hdfs-site.xml   HDFS 核心配置文件 这些文件均存在与$HADOOP_HOME/etc/hadoop文件夹中。 ps$HADOOP_HOME是后续我们要设置的环境变量其指代Hadoop安装文件夹即/export/server/hadoop 一、配置workers文件 # 进入配置文件目录 cd etc/hadoop# 编辑workers文件 vim workers# 填入如下内容 node1 node2 node3填入的node1、node2、node3表明集群记录了三个从节点DataNode 二、配置hadoop-env.sh文件 # 编辑 vim hadoop-env.sh# 填入如下内容 export JAVA_HOME/export/server/jdk export HADOOP_HOME/export/server/hadoop export HADOOP_CONF_DIR$HADOOP_HOME/etc/hadoop export HADOOP_LOG_DIR$HADOOP_HOME/logs• JAVA_HOME 指明 JDK 环境的位置在哪 • HADOOP_HOME 指明 Hadoop 安装位置 • HADOOP_CONF_DIR 指明 Hadoop 配置文件目录位置 • HADOOP_LOG_DIR 指明 Hadoop 运行日志目录位置 通过记录这些环境变量 来指明上述运行时的重要信息 三、配置core-site.xml文件 # 编辑 vim core-site.xml# 在文件内部填入如下内容 configurationpropertynamefs.defaultFS/namevaluehdfs://node1:8020/value/propertypropertynameio.file.buffer.size/namevalue131072/value/property /configurationhdfs://node1:8020为整个HDFS内部的通讯地址应用协议为hdfs://Hadoop内置协议 表明DataNode将和node1的8020端口通讯node1是NameNode所在机器 此配置固定了node1必须启动NameNode进程 四、配置hdfs-site.xml文件 # 编辑hdfs-site.xml vim hdfs-site.xml# 在文件内部填入如下内容 configurationpropertynamedfs.datanode.data.dir.perm/namevalue700/value/propertypropertynamedfs.namenode.name.dir/namevalue/data/nn/value/propertypropertynamedfs.namenode.hosts/namevaluenode1,node2,node3/value/propertypropertynamedfs.blocksize/namevalue268435456/value/propertypropertynamedfs.namenode.handler.count/namevalue100/value/propertypropertynamedfs.datanode.data.dir/namevalue/data/dn/value/property /configuration keydfs.datanode.data.dir.perm 含义hdfs文件系统默认创建的文件权限设置 值700即rwx------ keydfs.namenode.name.dir 含义NameNode元数据的存储位置 值/data/nn在node1节点的/data/nn目录下 keydfs.namenode.hosts 含义NameNode允许哪几个节点的DataNode连接即允许加入集群 值node1、node2、node3这三台服务器被授权 keydfs.blocksize 含义hdfs默认块大小 值268435456256MB keydfs.namenode.handler.count 含义namenode处理的并发线程数 值100以100个并行度处理文件系统的管理任务 keydfs.datanode.data.dir 含义从节点DataNode的数据存储目录 值/data/dn即数据存放在node1、node2、node3三台机器的/data/dn内 五、准备数据目录 namenode数据存放node1的/data/nn datanode数据存放node1、node2、node3的/data/dn 执行如下 在node1节点 mkdir -p /data/nnmkdir /data/dn在node2和node3节点 mkdir -p /data/dn 六、分发Hadoop文件夹 目前已经基本完成Hadoop的配置操作可以从node1将hadoop安装文件夹远程复制到node2、node3 分发 # 在node1执行如下命令 cd /export/serverscp -r hadoop-3.3.4 node2:pwd/scp -r hadoop-3.3.4 node3:pwd/在node2执行为hadoop配置软链接 # 在node2执行如下命令 ln -s /export/server/hadoop-3.3.4 /export/server/hadoop在node3执行为hadoop配置软链接 # 在node3执行如下命令 ln -s /export/server/hadoop-3.3.4 /export/server/hadoop七、配置环境变量 为了方便我们操作Hadoop可以将Hadoop的一些脚本、程序配置到PATH中方便后续使用。 在Hadoop文件夹中的bin、sbin两个文件夹内有许多的脚本和程序现在来配置一下环境变量 1、修改环境变量文件 # 编辑 vim /etc/profile# 在/etc/profile文件底部追加如下内容 export HADOOP_HOME/export/server/hadoop export PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin2、在node2和node3配置同样的环境变量 八、授权为hadoop用户 hadoop部署的准备工作基本完成 为了确保安全hadoop系统不以root用户启动我们以普通用户hadoop来启动整个Hadoop服务 所以现在需要对文件权限进行授权。 ps请确保已经提前创建好了hadoop用户前置准备章节中有讲述并配置好了hadoop用户之间的免密登录 以root身份在node1、node2、node3三台服务器上均执行如下命令 # 以root身份在三台服务器上均执行 chown -R hadoop:hadoop /data chown -R hadoop:hadoop /export九、格式化整个文件系统 前期准备全部完成现在对整个文件系统执行初始化 格式化namenode # 确保以hadoop用户执行 su - hadoop# 格式化namenode hadoop namenode -format启动 # 一键启动hdfs集群 start-dfs.sh# 一键关闭hdfs集群 stop-dfs.sh# 如果遇到命令未找到的错误表明环境变量未配置好可以以绝对路径执行 /export/server/hadoop/sbin/start-dfs.sh /export/server/hadoop/sbin/stop-dfs.sh十、查看HDFS WEBUI 启动完成后可以在浏览器打开 http://node1:9870即可查看到hdfs文件系统的管理网页。
http://www.hkea.cn/news/14359563/

相关文章:

  • 商务酒店设计网站建设网站建设需求调研方法
  • 流行的网站开发技术高端的饰品行业网站开发
  • 仓山区建设局招标网站万网域名管理平台登录
  • 工程门户网站建设百度图片
  • 菠菜网站开发一条龙安徽华建建设工程公司网站
  • php开发网站建设网站建设合作协议模板
  • 做彩票的网站有哪些中国价格信息网
  • 冻品网站的建设背景漂亮的logo设计图片
  • 中小企业网站开发韵茵如何推广短视频
  • app定制开发网站有哪些菏泽汽车网站建设
  • 江阴网站的建设如何建网站
  • php网站源码删除体育热点新闻
  • 青岛建设局官方网站wordpress改造熊掌号
  • 做设计必须知道的几个网站网络营销和电子商务的区别
  • 个人网站模板h52022年今天新闻联播
  • 布吉做网站的公司wordpress首页显示vip标识
  • 手把手教你做网站腾讯企点多少钱一年
  • 怎么增加网站的外链电商网站建设收费
  • 如何新建自己的网站网站页面
  • 网站建设 保密达人室内设计网主页
  • 凡科建站官网免费注册ui界面素材
  • 晟阳建设官方网站福州百度代理
  • 纯静态网站怎么入侵万能证件p图
  • 网站开发方面的文献公司网站维护与更新
  • 外贸网站翻译建设织梦网站系统删除不了
  • 网站怎么看是什么程序做的移动网站建设
  • 手机网站开发前台架构求职简历模板免费下载
  • 做视频在哪个网站收益高福州2017网站建设
  • 以网站建设专业画一幅画建设游戏运营网站开展工作内容
  • 关于网站运营的问题电话销售怎么找客户渠道