当前位置: 首页 > news >正文

海珠区专业做网站公司网站模块建设方案

海珠区专业做网站公司,网站模块建设方案,营销型企业网站的提出,盐城市亭湖区城乡建设网站Hadoop伪分布式安装教程 一、安装背景1.1 软件列表1.2 系统软件列表 二、安装Hadoop2.1 安装 Java 环境2.1.1 前期准备2.1.2 文件传输2.1.3 解压文件2.1.4 配置 jdk 的环境变量2.1.5 输入 java、javac、java -version 命令检验 jdk 是否安装成功 2.2 Hadoop 下载地址[hadoop](h… Hadoop伪分布式安装教程 一、安装背景1.1 软件列表1.2 系统软件列表 二、安装Hadoop2.1 安装 Java 环境2.1.1 前期准备2.1.2 文件传输2.1.3 解压文件2.1.4 配置 jdk 的环境变量2.1.5 输入 java、javac、java -version 命令检验 jdk 是否安装成功 2.2 Hadoop 下载地址[hadoop](https://archive.apache.org/dist/hadoop/common/)hadoop-3.1.3.tar.gz 文件2.2.1 传输文件2.2.2 解压文件2.2.3 进入hadoop2.2.4 将 Hadoop 添加到环境变量2.2.5 测试是否安装成功2.2.6 在伪分布式中我们主要是修改Hadoop的两个配置文件core-site.xml、hdfs-site.xml2.2.7 Hadoop初始化2.2.8 拓展 Hadoop 目录 结构2.2.9 报错 三、安装 hive3.1 文件传输3.2 解压文件3.3 修改名称3.4 修改/etc/profile添加环境变量3.5 初始化元数据库默认是derby数据库 三、MySQL安装1. 安装MySQL1) 安装MySQL服务器2) 安装MySQL客户端3)配置MySQL4) 测试MySQL5配置MySQL6)一些 MySQL 命令7报错解决方法8navicte 连接 四、配置Hive元数据存储到MySQL1. 配置元数据到MySQL1新建Hive元数据库2在$HIVE_HOME/conf目录下新建hive-site.xml文件3初始化Hive元数据库修改为采用MySQL存储元数据4启动Hive5使用Hive6查看MySQL中的元数据 五、Hive服务部署5.1 Hadoop端配置5.2 Hive端配置5.3 测试 一、安装背景 语雀博客地址链接: 《Hadoop伪分布式安装教程》 1.1 软件列表 Unbuntu 24.04LTSjava 1.8Hadoop 3.1.3Hive 3.1.3mysql 8vmware 17profinshell inshell 大数据软件资源链接hadoophivejava1.8mysql8.jar https://pan.baidu.com/s/1k63c-srXl6CQACVyGjhlkg?pwd5vqr 提取码5vqr --来自百度网盘超级会员V6的分享1.2 系统软件列表 openssh-serverssh 连接sudo apt-get install ssh-contact-service ssh 登陆时直接使用 root 最高级别用户登陆即可 教程详见 Linux学习笔记文章第一部分 root权限的设置 Linux学习笔记文章 vim文本编辑sudo apt-get install vimnet-toolsifconfig 查看 IP 地址ip addr 也可以直接查看sudo apt-get install net-tools 二、安装Hadoop 2.1 安装 Java 环境 2.1.1 前期准备 首先在根目录下创建文件夹 Downloads 用来存放传输上来的文件在 opt 目录下创建 module 文件用来存放使用解压出来的大数据软件 pwd可以查看当前的位置信息 # 回到根目录 cd .. # 创建Downloads mkdir Downloads # 去到opt目录下 cd .. cd opt mkdir module2.1.2 文件传输 将 jdk-8u411-linux-x64.tar.gz 安装传到虚拟机上 2.1.3 解压文件 # 解压文件 tar -zxvf jdk-8u411-linux-x64.tar.gz -C /opt/module/ # 进入Java目录并改名 cd /opt/module/ mv jdk1.8.0_411 jdk1.82.1.4 配置 jdk 的环境变量 vim /etc/profile # 添加以下内容 # JAVAHOME export JAVA_HOME/opt/module/jdk1.8 export CLASSPATH.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH$PATH:$JAVA_HOME/bin # 让配置文件生效 source /etc/profile2.1.5 输入 java、javac、java -version 命令检验 jdk 是否安装成功 2.2 Hadoop 下载地址hadoophadoop-3.1.3.tar.gz 文件 2.2.1 传输文件 用文件传输工具将hadoop-3.1.3.tar.gz导入到 Downloads目录里面注意 非 root 用户操作上传文件操作可能会失败 2.2.2 解压文件 # 解压安装文件到/opt/module 下面 tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/ #查看是否解压成功 ls /opt/module/ hadoop-3.1.32.2.3 进入hadoop # 进入hadoop解压位置 cd /opt/module ll # 修改hadoop-3.1.3名字 mv hadoop-3.1.3 hadoop # 进入hadoop-3.1.3 cd hadoop2.2.4 将 Hadoop 添加到环境变量 # 1 打开/etc/profile vim /etc/profile # 2在 my_env.sh 文件末尾添加如下内容 # HADOOP_HOME export HADOOP_HOME/opt/module/hadoop export PATH$PATH:$HADOOP_HOME/bin export PATH$PATH:$HADOOP_HOME/sbin # 3让修改后的文件生效 source /etc/profile2.2.5 测试是否安装成功 hadoop version Hadoop 3.1.3 2.2.6 在伪分布式中我们主要是修改Hadoop的两个配置文件core-site.xml、hdfs-site.xml # 进入到hadoop目录下 cd /opt/module/hadoop # 进入core-site.xml目录 cd ./etc/hadoop # 我们通过执行以下两个命令来实现对core-site.xml配置文件进行修改 vim core-site.xml # 在configuration-/configuration标签中加入以下配置 propertynamehadoop.tmp.dir/namevaluefile:/opt/module/hadoop/tmp/valuedescriptionAbase for other temporary directories./description/property propertynamefs.defaultFS/namevaluehdfs://localhost:9000/value /property # 对hdfs-site.xml配置文件进行修改 vim hdfs-site.xml # 在configuration-/configuration标签中加入以下配置 propertynamedfs.replication/namevalue1/value /property propertynamedfs.namenode.name.dir/namevaluefile:/opt/module/hadoop/tmp/dfs/name/value /property propertynamedfs.datanode.data.dir/namevaluefile:/opt/module/hadoop/tmp/dfs/data/value /property2.2.7 Hadoop初始化 初始化工作比较简单只需要执行以下命令即可 cd /opt/module/hadoop #进入hadoop目录 ./bin/hdfs namenode -format #初始化hadoop成功的话会看到 “successfully formatted” 的提示具体返回信息类似如下初始工作完成之后我们就可以开启Hadoop了具体命令如下 cd /opt/module/hadoop ./sbin/start-dfs.sh #start-dfs.sh是个完整的可执行文件中间没有空格本地 web 访问hadoop虚拟机 web 访问hadoop启动完成后我们可以通过输入jps命令来进行验证Hadoop伪分布式是否配置成功 2.2.8 拓展 Hadoop 目录 结构 bin 目录存放对 Hadoop 相关服务hdfsyarnmapred进行操作的脚本etc 目录Hadoop 的配置文件目录存放 Hadoop 的配置文件lib 目录存放 Hadoop 的本地库对数据进行压缩解压缩功能sbin 目录存放启动或停止 Hadoop 相关服务的脚本share 目录存放 Hadoop 的依赖 jar 包、文档、和官方案例 2.2.9 报错 hadoop 启动时报如下错误 Starting namenodes on [localhost] ERROR: Attempting to operate on hdfs namenode as root ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation. Starting datanodes ERROR: Attempting to operate on hdfs datanode as root ERROR: but there is no HDFS_DATANODE_USER defined. Aborting operation. Starting secondary namenodes [cai4-VMware-Virtual-Platform] ERROR: Attempting to operate on hdfs secondarynamenode as root ERROR: but there is no HDFS_SECONDARYNAMENODE_USER defined. Aborting operation.Starting namenodes on [localhost] localhost: Warning: Permanently added localhost (ED25519) to the list of known hosts. localhost: rootlocalhost: Permission denied (publickey,password). Starting datanodes localhost: rootlocalhost: Permission denied (publickey,password). Starting secondary namenodes [cai4-VMware-Virtual-Platform] cai4-VMware-Virtual-Platform: Warning: Permanently added cai4-vmware-virtual-platform (ED25519) to the list of known hosts. cai4-VMware-Virtual-Platform: rootcai4-vmware-virtual-platform: Permission denied (publickey,password).localhost: ERROR: JAVA_HOME is not set and could not be found. Starting datanodes localhost: ERROR: JAVA_HOME is not set and could not be found. Starting secondary namenodes [cai4-VMware-Virtual-Platform] cai4-VMware-Virtual-Platform: ERROR: JAVA_HOME is not set and could not be found.解决方法 # 输入如下命令在环境变量中添加下面的配置 vi /etc/profile # 然后向里面加入如下的内容 export HDFS_NAMENODE_USERroot export HDFS_DATANODE_USERroot export HDFS_SECONDARYNAMENODE_USERroot export YARN_RESOURCEMANAGER_USERroot export YARN_NODEMANAGER_USERroot # 输入如下命令使改动生效 source /etc/profile//Linux命令---实现SSH免密登录 exit # 退出前面的登录 cd ~/.ssh/ # 若没有该目录请先执行一次ssh localhost ssh-keygen -t rsa # 回车后一直回车直到出现图形化界面 cat ./id_rsa.pub ./authorized_keys # 加入授权# 修改hadoop-env.sh (我的hadoop安装在/usr/local/ 目录下) vim /opt/module/hadoop/etc/hadoop/hadoop-env.sh # 将原本的JAVA_HOME 替换为绝对路径就可以了 #export JAVA_HOME${JAVA_HOME} export JAVA_HOME/opt/module/jdk1.8.三、安装 hive 3.1 文件传输 把 apache-hive-3.1.3-bin.tar.gz上传到Linux的/Downloads 目录下 3.2 解压文件 解压apache-hive-3.1.3-bin.tar.gz到/opt/module/ 目录下面 tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /opt/module/3.3 修改名称 修改apache-hive-3.1.3-bin的名称为hive cd /opt/module mv apache-hive-3.1.3-bin hive3.4 修改/etc/profile添加环境变量 vim /etc/profile # 1添加内容 # HIVE_HOME export HIVE_HOME/opt/module/hive export PATH$PATH:$HIVE_HOME/bin source /etc/profile3.5 初始化元数据库默认是derby数据库 cd /opt/module/hive bin/schematool -dbType derby -initSchema报错 Exception in thread main java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)Vat org.apache.hadoop.conf.Configuration.set(Configuration.java:1357)at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338)at org.apache.hadoop.mapred.JobConf.setJar(JobConf.java:518)at org.apache.hadoop.mapred.JobConf.setJarByClass(JobConf.java:536)at org.apache.hadoop.mapred.JobConf.init(JobConf.java:430)at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:5144)at org.apache.hadoop.hive.conf.HiveConf.init(HiveConf.java:5107)at org.apache.hive.beeline.HiveSchemaTool.init(HiveSchemaTool.java:96)at org.apache.hive.beeline.HiveSchemaTool.main(HiveSchemaTool.java:1473)at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)at java.lang.reflect.Method.invoke(Method.java:498)at org.apache.hadoop.util.RunJar.run(RunJar.java:318)at org.apache.hadoop.util.RunJar.main(RunJar.java:232)原因是hadoop和hive的两个guava.jar版本不一致两个jar位置分别位于下面两个目录 /opt/module/hive/lib/guava-19.0.jar /opt/module/hadoop/share/hadoop/common/lib/guava-27.0-jre.jar # 解决办法是删除低版本的那个将高版本的复制到低版本目录下。 cd /opt/module/hive/lib rm -f guava-19.0.jar cp /opt/module/hadoop/share/hadoop/common/lib/guava-27.0-jre.jar . # 再次运行schematool -dbType derby -initSchema即可成功初始化元数据库。三、MySQL安装 1. 安装MySQL 1) 安装MySQL服务器 apt-get install mysql-server在安装过程中系统将提示您创建root密码。选择一个安全的并确保记住它因为后面需要用到这个密码。 2) 安装MySQL客户端 apt-get install mysql-client3)配置MySQL 运行MySQL初始化安全脚本 mysql_secure_installation4) 测试MySQL 无论你如何安装它MySQL应该已经开始自动运行。要测试它请检查其状态。 systemctl status mysql.service将看到类似于以下内容的输出 5配置MySQL # 更改MySQL密码策略 set global validate_password_policy0; set global validate_password_length1; update user set host% where userroot; ALTER USER root% IDENTIFIED WITH mysql_native_password BY 123456; flush privileges;6)一些 MySQL 命令 # 设置MySQL服务开机自启动 service mysql enable 或 systemctl enable mysql.service # 停止MySQL服务开机自启动 service mysql disable 或 systemctl disable mysql.service # 重启MySQL数据库服务 service mysql restart 或 systemctl restart mysql.service # MySQL的配置文件 vim /etc/mysql/mysql.conf.d/mysqld.cnf7报错 Failed to restart mysqld.service: Unit mysqld.service not found.“The MySQL server is running with the --skip-grant-tables option so it cannot execute”Navicat报错10061ERROR 1819 (HY000): Your password does not satisfy the current policy requirements 解决方法 sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf # bind-address 127.0.0.1 mysql -u root -p use mysql select host,user from user; update user set host% where userroot; flush privileges; grant all privileges on *.* to root%; ALTER USER root% IDENTIFIED WITH mysql_native_password BY root_pwd; ## 授权root远程登录 后面的root_pwd代表登录密码 flush privileges;解决方法 /etc/init.d/mysql startflush privileges; ALTER USER rootlocalhost IDENTIFIED BY 123456;8navicte 连接 四、配置Hive元数据存储到MySQL 1. 配置元数据到MySQL 1新建Hive元数据库 #登录MySQL mysql -uroot -p123456 #创建Hive元数据库 create database metastore; quit;2在$HIVE_HOME/conf目录下新建hive-site.xml文件 vim $HIVE_HOME/conf/hive-site.xml # 添加如下内容 ?xml version1.0? ?xml-stylesheet typetext/xsl hrefconfiguration.xsl?configuration!-- jdbc连接的URL --propertynamejavax.jdo.option.ConnectionURL/namevaluejdbc:mysql://localhost:3306/metastore?useSSLfalse/value/property!-- jdbc连接的Driver--propertynamejavax.jdo.option.ConnectionDriverName/namevaluecom.mysql.jdbc.Driver/value/property!-- jdbc连接的username--propertynamejavax.jdo.option.ConnectionUserName/namevalueroot/value/property!-- jdbc连接的password --propertynamejavax.jdo.option.ConnectionPassword/namevalue123456/value/property!-- Hive默认在HDFS的工作目录 --propertynamehive.metastore.warehouse.dir/namevalue/opt/module/hive/warehouse/value/property /configuration3初始化Hive元数据库修改为采用MySQL存储元数据 cd /opt/module/hive bin/schematool -dbType mysql -initSchema -verbose4启动Hive hive5使用Hive show databases; show tables; create table stu(id int, name string); insert into stu values(1,ss); select * from stu;6查看MySQL中的元数据 查看元数据库中存储的库信息DBS 查看元数据库中存储的表信息TBLS 查看元数据库中存储的表中列相关信息COLUMNS_V2 五、Hive服务部署 5.1 Hadoop端配置 hivesever2的模拟用户功能依赖于Hadoop提供的proxy user代理用户功能只有Hadoop中的代理用户才能模拟其他用户的身份访问Hadoop集群。因此需要将hiveserver2的启动用户设置为Hadoop的代理用户配置方式如下修改配置文件core-site.xml然后记得分发三台机器: cd $HADOOP_HOME/etc/hadoop vim core-site.xml # 增加如下配置 !-- 配置访问hadoop的权限能够让hive访问到 -- propertynamehadoop.proxyuser.root.hosts/namevalue*/value /property propertynamehadoop.proxyuser.root.users/namevalue*/value /property5.2 Hive端配置 在hive-site.xml文件中添加如下配置信息: # 查看主机名 hostname cai4-VMware-Virtual-Platform # 更改主机名 hostnamectl set-hostname hadoop100 # 同步更改/etc/hosts内容 !-- 指定hiveserver2连接的host -- propertynamehive.server2.thrift.bind.host/namevaluehadoop/value /property !-- 指定hiveserver2连接的端口号 -- propertynamehive.server2.thrift.port/namevalue10000/value /property5.3 测试 # 启动hiveserver2 hive --service hiveserver2 # 若报错Error starting HiveServer2 on attempt 1 , will retry in 60000ms # 在 hive-site.xml 中添加如下配置propertynamehive.server2.active.passive.ha.enable/namevaluetrue/valuedescriptionWhether HiveServer2 Active/Passive High Availability be enabled when Hive Interactive sessions are enabled.This will also require hive.server2.support.dynamic.service.discovery to be enabled./description/property # 重新启动hiveserver2服务 hive --service hiveserver2 #使用命令行客户端beeline进行远程访问 启动beeline客户端 beeline -u jdbc:hive2://192.168.191.28:10000 -n root其中hive --service hiveserver2命令启动后界面如下为正常且未连接远程之前皆为正常 # 重启hadoop sbin/stop-all.sh sbin/start-all.sh # 重启hive ps -aux|grep hive 查找进程命令 kill -9 2323 #启动metastore服务 hive --service metastore
http://www.hkea.cn/news/14512528/

相关文章:

  • 品牌的手机网站制作网易网
  • 惠州高端模板建站网站建设协调会
  • 网站建设800元全包搜索案例的网站
  • 做淘宝导航网站wordpress标签logo
  • 盐城网站建设小程序公司网站设计论文经济可行性分析
  • 备案网站可以做接码平台么网站建设 北京昌平
  • 网站必须做等保合规上海网站建设 上海网站制作
  • 公司自己做网站吗什么都不懂能去干运营吗
  • 快速排名程序招聘seo网站推广
  • 四川省化工建设有限公司网站做网站招标
  • 大连市营商环境建设局门户网站网站改版 数据迁移
  • 免费素材视频网站广州番禺越秀和樾府
  • 东莞网站建设营销的企业公众号开发者密码怎么获得
  • 响应式网站 html邢台建设一个企业网站
  • 网站开发建设技术特点自媒体平台有哪些赚钱
  • 网站建设公司怎么发展网站建设之前必须 域名备案
  • 夜晚很晚视频免费素材网站windows优化大师官方网站
  • 青岛网站建设方案策划登陆Wordpress手机app
  • 郑州网站建设+论坛深圳深圳龙岗网站建设公司
  • 购买网站域名 空间wordpress 风格
  • 几个做ppt的网站知乎凡客官网 电脑版
  • 衡水网站设计境外电商平台入驻
  • wordpress中的搜索郴州网站seo外包
  • 做企业网站赚钱吗房产网站开发
  • 自己做网站要多久济宁网站制作
  • html网站怎么做视频有没有做家具特卖的网站
  • 没有专项备案的网站利用淘宝联盟做网站赚取佣金
  • 网站建设合同验收标准中国国际室内设计师网
  • 什么手机可做网站wordpress 赞赏
  • 效果好的网站建企业官网属于什么网站