当前位置: 首页 > news >正文

怎么用手机网站做软件好网站上传到虚拟服务器

怎么用手机网站做软件好,网站上传到虚拟服务器,怎么网站搜索排名优化,杭州室内设计公司排行榜前言 学完了 Hadoop、Spark#xff0c;本想着先把 Kafka、Flume 这些工具先学完的#xff0c;但想了想还是把核心的技术先学完最后再去把那些工具学学。 最近心有点累哈哈哈#xff0c;偷偷立个 flag#xff0c;反正也没人看#xff0c;明年的今天来这里还愿哈#xff0c…前言 学完了 Hadoop、Spark本想着先把 Kafka、Flume 这些工具先学完的但想了想还是把核心的技术先学完最后再去把那些工具学学。 最近心有点累哈哈哈偷偷立个 flag反正也没人看明年的今天来这里还愿哈愿望这种事情我是从来是不会说出来的毕竟言以泄败事以密成嘛。 那我隐晦低表达一下摘录自《解忧杂货店》的一条句子 这是克朗对自己梦想的描述其实他不是自不量力而是假如放弃了这个梦想他的生活就失去了光他未来的几十年生活会枯燥无味会活的没有一点激情。         就像一个曾经自己深爱过的姑娘一样明明无法在一起却还是始终记挂着因为心里眼里只有她所以别人在你眼中都会黯然失色的没有色彩的东西又怎么能投入激情去爱呢 我的愿望有两个在上面中有所体现但我希望结果不要是遗憾第一个愿望明年这会大概知道结果了第二个愿望应该会晚一点也许在2025年的春天也许会更早一点... API 环境搭建 添加依赖 pom.xml propertiesflink.version1.13.0/flink.versionjava.version1.8/java.versionscala.binary.version2.12/scala.binary.versionslf4j.version1.7.30/slf4j.version /properties dependencies !-- 引入 Flink 相关依赖--dependencygroupIdorg.apache.flink/groupIdartifactIdflink-java/artifactIdversion${flink.version}/version/dependencydependencygroupIdorg.apache.flink/groupIdartifactIdflink-streaming-java_${scala.binary.version}/artifactIdversion${flink.version}/version/dependencydependencygroupIdorg.apache.flink/groupIdartifactIdflink-clients_${scala.binary.version}/artifactIdversion${flink.version}/version /dependency !-- 引入日志管理相关依赖--dependencygroupIdorg.slf4j/groupIdartifactIdslf4j-api/artifactIdversion${slf4j.version}/version/dependencydependencygroupIdorg.slf4j/groupIdartifactIdslf4j-log4j12/artifactIdversion${slf4j.version}/version/dependencydependencygroupIdorg.apache.logging.log4j/groupIdartifactIdlog4j-to-slf4j/artifactIdversion2.14.0/version /dependency /dependencieslog4j.properties  log4j.rootLoggererror, stdout log4j.appender.stdoutorg.apache.log4j.ConsoleAppender log4j.appender.stdout.layoutorg.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern%-4r [%t] %-5p %c %x - %m%n入门案例 0、数据准备 在 根目录下创建 words.txt hello flink hello java hello spark hello hadoop 1、批处理 批处理所用到的算子API 都继承自 DataSet而新版的 Flink 已经做到了流批一体这里只做演示以后这类 API 应该是要被弃用了。 import org.apache.flink.api.common.typeinfo.Types; import org.apache.flink.api.java.ExecutionEnvironment; import org.apache.flink.api.java.operators.AggregateOperator; import org.apache.flink.api.java.operators.DataSource; import org.apache.flink.api.java.operators.FlatMapOperator; import org.apache.flink.api.java.operators.UnsortedGrouping; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.util.Collector;public class BatchWordCount {public static void main(String[] args) throws Exception {// 1. 创建一个执行批式数据处理环境ExecutionEnvironment env ExecutionEnvironment.getExecutionEnvironment();// 2. 从文件中读取数据 String类型 批式数据处理环境得到的 DataSource 继承自 DataSetDataSourceString lineDS env.readTextFile(input/words.txt);// 3. 将每行数据转换成一个二元组类型// 输入类型: String 输出类型: Tuple2FlatMapOperatorString, Tuple2String, Long wordAndOne // String lines: 输入数据行 CollectorTuple2String,Long out: 输出类型lineDS.flatMap((String line, CollectorTuple2String, Long out) - {String[] words line.split( );for (String word : words) {out.collect(Tuple2.of(word, 1L));}}).returns(Types.TUPLE(Types.STRING, Types.LONG)); //使用 Java 泛型的时候, 由于泛型擦除的存在, 需要显示信息返回返回值类型// 4. 根据 word 分组UnsortedGroupingTuple2String, Long wordGroup wordAndOne.groupBy(0); // 0 是索引位置// 5. 分组内进行聚合AggregateOperatorTuple2String, Long res wordGroup.sum(1); // 1 也是索引位置// 6. 打印结果res.print();} }运行结果 (hadoop,1) (flink,1) (hello,4) (java,1) (spark,1)Process finished with exit code 0 因为现在已经是流批一体的框架了所以提交 Flink 批处理任务需要用下面的语句 $ bin/flink run -Dexecution.runtime-modeBATCH BatchWordCount.jar 2、流处理 2.1、有界数据流处理 这里我们用离线数据提前创建好的文件用流处理API DataStream 的算子来做处理。 import org.apache.flink.api.common.typeinfo.Types; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.datastream.KeyedStream; import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.util.Collector;public class BoundedStreamWordCount {public static void main(String[] args) throws Exception {// 1. 创建一个流式的执行环境StreamExecutionEnvironment env StreamExecutionEnvironment.createLocalEnvironment();// 2. 流式数据处理环境得到的 DataSource 继承自 DataStreamDataStreamSourceString lineDS env.readTextFile(input/words.txt);// 3. flatMap 打散数据 返回元组SingleOutputStreamOperatorTuple2String, Long wordAndOne lineDS.flatMap((String line, CollectorTuple2String, Long out) - {String[] words line.split( );for (String word : words) {out.collect(Tuple2.of(word, 1L));}}).returns(Types.TUPLE(Types.STRING, Types.LONG));// 4. 根据 word 分组KeyedStreamTuple2String, Long, String wordGroupByKey wordAndOne.keyBy(t - t.f0);// 5. 根据键对索引为 1 处的值进行合并SingleOutputStreamOperatorTuple2String, Long res wordGroupByKey.sum(1);// 6. 输出结果res.print();// 7. 执行env.execute(); // 这里我们的数据是有界的,但是真正开发环境是无界的,这里需要用execute方法等待新数据的到来} }运行结果 3 (java,1) 13 (flink,1) 1 (spark,1) 5 (hello,1) 5 (hello,2) 5 (hello,3) 5 (hello,4) 15 (hadoop,1) 我们可以发现输出的单词的顺序是乱序的因为集群模式下数据流不是在本地执行的而是在多个节点中执行所以也就无法保证先输入的单词最先输出。 Idea下Flink API 会使用多线程来模拟集群下的多节点并行处理而我们每行数据前面的 编号 代表的就是线程的 id对应 Flink 运行时占据的最小资源也叫任务槽默认使用当前电脑的所有 CPU 数。 我们还可以发现hello是同一个节点上处理的这是因为我们在做分组的时候把分组后的数据分到了同一个节点子任务上。 2.2、无界数据流处理 这里我们使用 netcat 来模拟产生数据流 import org.apache.flink.api.common.typeinfo.Types; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.datastream.KeyedStream; import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.util.Collector;public class UnBoundedStreamWordCount {public static void main(String[] args) throws Exception {// 1. 创建一个流式的执行环境StreamExecutionEnvironment env StreamExecutionEnvironment.createLocalEnvironment();// 2. 流式数据处理环境得到的 DataSource 继承自 DataStreamParameterTool parameterTool ParameterTool.fromArgs(args);String host parameterTool.get(host);Integer port parameterTool.getInt(port);DataStreamSourceString lineDS env.socketTextStream(host,port);// 3. flatMap 打散数据 返回元组SingleOutputStreamOperatorTuple2String, Long wordAndOne lineDS.flatMap((String line, CollectorTuple2String, Long out) - {String[] words line.split( );for (String word : words) {out.collect(Tuple2.of(word, 1L));}}).returns(Types.TUPLE(Types.STRING, Types.LONG));// 4. 根据 word 分组KeyedStreamTuple2String, Long, String wordGroupByKey wordAndOne.keyBy(t - t.f0);// 5. 根据键对索引为 1 处的值进行合并SingleOutputStreamOperatorTuple2String, Long res wordGroupByKey.sum(1);// 6. 输出结果res.print();// 7. 执行env.execute(); // 这里我们的数据是有界的,但是真正开发环境是无界的,这里需要用execute方法等待新数据的到来} }运行结果  可以看到处理是相当快的毕竟数据量很小但是会想到 SparkStreaming 的处理过程我们之前用 SparkStreaming 的时候还需要设置 Reciver 的接收间隔而我们的 Flink 则是真正的实时处理。 总结 Flink 的学习终于开始了还是一样的要求不照搬视频课件内容每行代码要有自己的思考每行博客也要是自己思考的总结。 还有最近感觉愈发词穷该多看书了以后养成每次博客加一条书摘的习惯。
http://www.hkea.cn/news/14456488/

相关文章:

  • php宠物用品公司网站源码地推是什么意思
  • 哪个网站做外贸网站建设指导思想
  • 免费推广网站大全下载西安房价走势最新消息
  • 中国住房和城乡建设网站什么网站是专门做评论赚钱的
  • 土特产 网站源码优质做网站价格
  • 西安大网站建设公司中小企业网站建设济南兴田德润厉害吗
  • 河南海华工程建设监理公司网站网站建设需求策划书
  • 网站不兼容ie6wordpress 隐私策略
  • 360网站建设搜索淮安建设机械网站制作
  • 创建自己的网站需要准备什么友情链接查询结果
  • 丽水建设局网站文件wordpress 栏目权限
  • 金华网站建设哪个公司好点电子商务网站建设与维护实验报告
  • 郑州企业网站推广网站分享链接怎么做的
  • au网站怎么注册自己造网站
  • 成都建站推广网站开发与硬件合同
  • 彩票网站建设开发大连百姓网
  • 长沙网站seo推广石家庄防疫最新政策
  • 门户网站的建设方案做汽车价格的网站建设
  • 商业平台网站开发工商天眼查官网查企业
  • 网站平台建设项目书软件工程考研科目
  • 网站建设知识童装网站建设文案
  • 个人网站做贷款广告毕业设计做网站怎样的工作量算达标
  • 自己的网站服务器wordpress invoker
  • 个人网站开发总结文档企业建设电子商务网站的目的
  • 网站搜索功能怎样做南通建设工程造价信息网站
  • 深圳网站设计公司 网络服务个人网站备案后可以做行业内容吗
  • 廊坊哪里有做阿里巴巴网站的杭州网站建设洛洛科技
  • 什么是网站建设外包wordpress添加项目
  • 兰州市建设工程招标投标中心网站产品推广宣传语
  • 更新网站要怎么做呢做国外贸易的网站