当前位置: 首页 > news >正文

电商网站开发计划书网络推广方案百度百科

电商网站开发计划书,网络推广方案百度百科,网站建设是做什么的,网站开发用哪个框架docker本地搭建spark yarn hive环境 前言软件版本准备工作使用说明构建基础镜像spark on yarn模式构建on-yarn镜像启动on-yarn集群手动方式自动方式 spark on yarn with hive(derby server)模式构建on-yarn-hive镜像启动on-yarn-hive集群手动方式自动方式 常用示例spark执行sh脚… docker本地搭建spark yarn hive环境 前言软件版本准备工作使用说明构建基础镜像spark on yarn模式构建on-yarn镜像启动on-yarn集群手动方式自动方式 spark on yarn with hive(derby server)模式构建on-yarn-hive镜像启动on-yarn-hive集群手动方式自动方式 常用示例spark执行sh脚本Java远程提交Yarn任务maven部分依赖java代码 参考资料 前言 ​ 为了学习大数据处理相关技术需要相关软件环境作为支撑实践的工具。而这些组件的部署相对繁琐对于初学者来说不够友好。本人因为工作中涉及到该部分内容通过参考网上的资料经过几天摸索实现了既简单又快捷的本地环境搭建方法。特写下该文章加以记录以期能够给初学者一些参考和帮助。 本文主要介绍基于docker在本地搭建spark on yarn以及hive采用derby服务模式。为什么没有使用mysql作为hive的metastore呢因为既然是作为学习和测试用的环境尽量让其保持简单derby数据库不需要单独配置直接启动即可使用足够轻量和简便。 完整的代码已经提交到gitee spark-on-yarn-hive-derby 软件版本 组件版本spark镜像bitnami/spark:3.1.2hadoop3.2.0hive3.1.2derby10.14.2.0 准备工作 下载gitee代码 https://gitee.com/crazypandariy/spark-on-yarn-hive-derby下载derby(https://archive.apache.org/dist/db/derby/db-derby-10.14.2.0/db-derby-10.14.2.0-bin.tar.gz) 移动到spark-on-yarn-hive-derby-master目录和start-hadoop.sh处于同级目录中下载hadoop(https://archive.apache.org/dist/hadoop/common/hadoop-3.2.0/hadoop-3.2.0.tar.gz)移动到spark-on-yarn-hive-derby-master目录 使用说明 config/workers中配置的是作为工作节点的hostname这个必须要和docker-compose-.yml中定义的hostname保持一致 config/ssh_config用于免密登录 config中涉及到hostname的配置文件有core-site.xml、hive-site.xml、spark-hive-site.xml、yarn-site.xml一定要和docker-compose-.yml中定义的hostname保持一致 构建基础镜像构建on-yarn 镜像构建on-yarn-hive镜像 构建基础镜像 采用spark成熟镜像方案 bitnami/spark:3.1.2 作为原始镜像在此基础上安装openssh制作免密登录的基础镜像。由于master和worker节点均基于该基础镜像其中的ssh密钥均相同可以简化安装部署。 docker build -t my/spark-base:3.1.2 base/Dockerfile .spark on yarn模式 构建on-yarn镜像 docker build -t my/spark-hadoop:3.1.2 -f on-yarn/Dockerfile .启动on-yarn集群 手动方式 # 创建集群 docker-compose -f on-yarn/docker-compose-manul.yml -p spark up -d # 启动hadoop docker exec -it spark-master-1 sh /opt/start-hadoop.sh# 停止集群 docker-compose -f on-yarn/docker-compose-manul.yml -p spark stop # 删除集群 docker-compose -f on-yarn/docker-compose-manul.yml -p spark down# 启动集群 docker-compose -f on-yarn/docker-compose-manul.yml -p spark start # 启动hadoop docker exec -it spark-master-1 sh /opt/start-hadoop.sh自动方式 # 创建集群 docker-compose -f on-yarn/docker-compose-auto.yml -p spark up -d # 停止集群 docker-compose -f on-yarn/docker-compose-auto.yml -p spark stop # 启动集群 docker-compose -f on-yarn/docker-compose-auto.yml -p spark start # 删除集群 docker-compose -f on-yarn/docker-compose-auto.yml -p spark downspark on yarn with hive(derby server)模式 构建on-yarn-hive镜像 docker build -t my/spark-hadoop-hive:3.1.2 -f on-yarn-hive/Dockerfile .启动on-yarn-hive集群 手动方式 # 创建集群 docker-compose -f on-yarn-hive/docker-compose-manul.yml -p spark up -d # 启动hadoop docker exec -it spark-master-1 sh /opt/start-hadoop.sh # 启动hive docker exec -it spark-master-1 sh /opt/start-hive.sh# 停止集群 docker-compose -f on-yarn-hive/docker-compose-manul.yml -p spark stop # 删除集群 docker-compose -f on-yarn-hive/docker-compose-manul.yml -p spark down# 启动集群 docker-compose -f on-yarn-hive/docker-compose-manul.yml -p spark start # 启动hadoop docker exec -it spark-master-1 sh /opt/start-hadoop.sh # 启动hive docker exec -it spark-master-1 sh /opt/start-hive.sh自动方式 # 创建集群 docker-compose -f on-yarn-hive/docker-compose-auto.yml -p spark up -d # 停止集群 docker-compose -f on-yarn-hive/docker-compose-auto.yml -p spark stop # 启动集群 docker-compose -f on-yarn-hive/docker-compose-auto.yml -p spark start # 删除集群 docker-compose -f on-yarn-hive/docker-compose-auto.yml -p spark down常用示例 spark执行sh脚本 spark-shell --master yarn EOF // 脚本内容 // 示例 val data Array(1,2,3,4,5) val distData sc.parallelize(data) val sum distData.reduce((a,b)ab) println(Sum: sum) EOFJava远程提交Yarn任务 进入master容器创建demo表命令 hive -e create table demo(name string)创建maven项目将core-site.xml yarn-site.xml hdfs-site.xml hive-site.xml等文件拷贝到src/main/resources将 local-spark-worker1 和 local-spark-master 指向本地虚拟网络适配器的IP地址 例如我用的是windows系统则使用SwitchHosts软件修改上述hostname指向的IP地址其中192.168.138.1是虚拟网络适配器的IP 192.168.138.1 local-spark-worker1 192.168.138.1 local-spark-master上传spark依赖jar包 hdfs dfs -mkdir -p /spark/jars hdfs dfs -put -f /opt/bitnami/spark/jars/* /spark/jarsmaven部分依赖 dependencygroupIdorg.apache.spark/groupIdartifactIdspark-core_2.12/artifactIdversion3.1.2/version/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-yarn_2.12/artifactIdversion3.1.2/version/dependencydependencygroupIdorg.junit.jupiter/groupIdartifactIdjunit-jupiter/artifactIdversion5.9.1/versionscopetest/scope/dependencyjava代码 以cluster模式提交spark-sql浏览器输入http://localhost:9870打开hdfs管理界面创建目录/user/my进入该目录并上传spark-sql-cluster.jar package org.demo.spark;import org.apache.spark.SparkConf; import org.apache.spark.deploy.yarn.Client; import org.apache.spark.deploy.yarn.ClientArguments; import org.junit.jupiter.api.Test;public class SparkOnYarnTest {Testpublic void yarnApiSubmit() {// prepare arguments to be passed to // org.apache.spark.deploy.yarn.Client objectString[] args new String[] {--jar,hdfs:///user/my/spark-sql-cluster.jar,--class, org.apache.spark.sql.hive.cluster.SparkSqlCliClusterDriver,--arg, spark-internal,--arg, -e,--arg, \\\insert into demo(name) values(zhangsan)\\\};// identify that you will be using Spark as YARN mode // System.setProperty(SPARK_YARN_MODE, true);// create an instance of SparkConf objectString appName Yarn Client Remote App;SparkConf sparkConf new SparkConf();sparkConf.setMaster(yarn);sparkConf.setAppName(appName);sparkConf.set(spark.submit.deployMode, cluster);sparkConf.set(spark.yarn.jars, hdfs:///spark/jars/*.jar);sparkConf.set(spark.hadoop.yarn.resourcemanager.hostname, local-spark-master);sparkConf.set(spark.hadoop.yarn.resourcemanager.address, local-spark-master:8032);sparkConf.set(spark.hadoop.yarn.resourcemanager.scheduler.address, local-spark-master:8030);// create ClientArguments, which will be passed to ClientClientArguments cArgs new ClientArguments(args);// create an instance of yarn Client clientClient client new Client(cArgs, sparkConf, null);// submit Spark job to YARNclient.run();} }参考资料 使用 Docker 快速部署 Spark Hadoop 大数据集群 SparkSQL 与 Hive 整合关键步骤解析 spark-sql-for-cluster
http://www.hkea.cn/news/14398623/

相关文章:

  • 青海最好的网站建设公司站长统计官方网站
  • 小说网站快速做排名企业推广策划书
  • 网站域名绑定破解建设一个网站报价
  • 网站开发报价合同东莞横沥新闻今天
  • 做网站建设的公司有哪些方面无锡市网站设计
  • 跨平台 移动网站开发大连网站建设联合企邦
  • ui设计公司网站技术成果交易网站建设方案
  • dw做网站的流程晋城网站建设
  • 策划方案免费网站模板网站音响案例
  • 安卓开发步骤seo兼职怎么收费
  • vs2017 如何做网站wordpress feed地址
  • godaddy 建网站贵阳网站建设哪家便宜
  • 网站网页能自己做吗wordpress 4.8.2漏洞
  • 公众号的微网站怎么做京东网站建设的目标
  • 做网站 卖会员搭建个网站
  • 网站开发制作的流程是什么html5 wordpress 主题
  • 对接网站建设是什么意思一些可以做翻译的网站
  • 网站的图片大小怀化网站推广
  • 湖北襄阳网站建设有高并发 高访问量网站开发
  • 网站建设技术文案美食优秀设计网站
  • 用nas做网站电子商务网站系统详细设计的内容
  • 胶州家园网站建设安全可信网站
  • 网站开发简历模板江西省注册和城乡建设厅网站
  • 网上做兼职网站有哪些手机网站制作报价
  • 网站源码下载插件普陀企业网站建设
  • 北京主页网站建设wordpress主题在哪个文件夹
  • 县级部门和乡镇不能建网站建设有限责任公司属于什么企业类型
  • 哪里有做网站的平台惠州网站建设服务
  • 手机商城建站系统网站建设中文wordpress模版
  • 做国外电影网站天津网站建设公司