当前位置: 首页 > news >正文

做产品网站多少钱沧州市网站建设价格

做产品网站多少钱,沧州市网站建设价格,移动网站开发面试,中山公司注册实训笔记8.31 8.31笔记一、项目开发流程一共分为七个阶段1.1 数据产生阶段1.2 数据采集存储阶段1.3 数据清洗预处理阶段1.4 数据统计分析阶段1.5 数据迁移导出阶段1.6 数据可视化阶段 二、项目数据清洗预处理的实现2.1 清洗预处理规则2.1.1 数据清洗规则2.1.2 数据预处理规则 2… 实训笔记8.31 8.31笔记一、项目开发流程一共分为七个阶段1.1 数据产生阶段1.2 数据采集存储阶段1.3 数据清洗预处理阶段1.4 数据统计分析阶段1.5 数据迁移导出阶段1.6 数据可视化阶段 二、项目数据清洗预处理的实现2.1 清洗预处理规则2.1.1 数据清洗规则2.1.2 数据预处理规则 2.2 技术选项2.3 代码实现 三、项目的数据统计分析阶段3.1 概念和技术选项3.2 Hive数据仓库进行统计分析时两个核心概念3.2.1 数据仓库分层3.2.2 数据仓库建模 3.3 数据统计分析的实现最好把所有的HQL代码写到一个SQL文件中最后统一执行运行 统计分析必须启动HDFS和YARN3.3.1 构建ODS层3.3.2 构建DWD层3.3.3 构建ADS层 3.4 统计分析部署和运行 四、项目的数据迁移导出阶段4.1 概念4.2 数据迁移导出的技术选型4.3 数据迁移导出的开发实现 五、项目的数据可视化阶段六、【项目补充点】6.1 模拟其他年份其他月份其他日期的数据 七、相关代码7.1 导出7.2 生成7.3 收集7.4 清理7.5 分析 8.31笔记 一、项目开发流程一共分为七个阶段 1.1 数据产生阶段 1.2 数据采集存储阶段 1.3 数据清洗预处理阶段 1.4 数据统计分析阶段 1.5 数据迁移导出阶段 1.2~1.5大数据开发阶段 1.3~1.5周期性调度执行三个阶段需要通过azkaban任务调度工具进行自动化周期调度执行 项目的第7个阶段任务调度阶段 1.6 数据可视化阶段 二、项目数据清洗预处理的实现 2.1 清洗预处理规则 2.1.1 数据清洗规则 一条用户行为数据如果字段个数不足16那么数据不完整舍弃一条用户行为数据中如果响应状态码大于等于400的那么数据访问错误舍弃一条用户行为数据中省份 纬度 经度 年龄以-填充的那么代表数据缺失舍弃 2.1.2 数据预处理规则 预处理规则清洗完成的数据中最后在输出时有很多的字段我们不需要的因此我们需要对部分数据进行舍弃对需要保留的字段数据以\001特殊字符分割输出 2.2 技术选项 MapReduce技术 2.3 代码实现 【注意】 因为我们只需要做数据的清洗预处理操作不涉及到聚合操作因此我们只需要一个Mapper阶段即可不需要reduce阶段 MapReduce数据清洗预处理是周期性调度执行的一天执行一次第二天处理前一天采集存储的数据前一天采集存储的数据是以时间为基准的动态目录下存放因此MR程序处理数据时输入数据的目录必须得是昨天时间的目录。 【注意】会在第二天处理前一天的数据一般会在第二天的凌晨去处理第一天采集存储的数据。任务调度的事情 MR程序处理完成的数据输出到HDFS上但是数据清洗预处理完成的数据给Hive做统计分析的Hive我们也是一天执行一次Hive是在数据清洗预处理完成之后执行的。 MR程序处理完成的数据输出到HDFS上时也必须以基于时间的动态目录存放 创建Maven项目引入MR的编程依赖编写MR程序的Mapper程序和Driver驱动程序在本地测试运行无问题之后需要将代码打成jar包上传到大数据环境中在YARN上运行 必须启动YARN 三、项目的数据统计分析阶段 3.1 概念和技术选项 统计分析就是基于我们清洗预处理完成的高质量从不同的数据纬度聚合数据或者对数据进行计算得到我们感兴趣的一些指标或者是对网站运营发展有关的一些指标。 统计分析进行数据计算时可能涉及到大量的聚合操作以及一些排名、排序等等操作而这些操作也都是数据计算那么我们就可以使用大数据计算框架完成而大数据计算框架MapReduce如果要聚合、排序、分组等操作MR代码就会非常的复杂。因此我们一般做统计分析时有一个想法既能计算大量的数据还能快速简单的进行数据的聚合、排名、分组等操作。就可以使用Hive数据仓库技术完成。 【注意】基本上到现在为止如果我们要做大数据统计分析不是直接使用大数据计算框架MapReduce、Spark、Flink因为大数据统计分析涉及到大量的聚合、排序、分组等等操作操作如果直接使用大数据计算框架代码会非常的复杂。基本上都是使用类SQL表面上写的是类SQL语句底层还是大数据计算框架的方式进行大数据统计分析的。 Hadoop—Hive Spark—Spark SQL Flink—Flink SQL 3.2 Hive数据仓库进行统计分析时两个核心概念 3.2.1 数据仓库分层 数据仓库建模是用来梳理表和表之间的关系的便于我们后期进行统计分析。数据仓库分层是我们使用数据仓库进行统计分析的开发流程。 数据仓库分层从最底层开始到最高层主要有如下三层不同的公司基于三层更加细致的分层 ODS层数据贴源层 如果我们要使用Hive数据仓库做统计分析首先我们需要把清洗预处理完成的数据导入到Hive中加载成为一个数据表ODS层指的就是把清洗预处理完成的数据原模原样的导入到Hive中导入进来之后这些表组成了ODS层 DW层数据仓库层–Hive统计分析的核心 数据仓库建模的阶段 DWD层明细宽表层 把ODS层的数据表可以再次处理一下构建成为一个明细宽表、明细宽表一般会把ODS层的字段拆分成更加细粒度的字段便于我们后期好做统计分析时间字段 DIM层纬表层 纬度表如果比较多那么纬度表单独划分到DW的DIM层 ADS层数据应用层 将统计分析的结果以指标表的形式存储到ADS层 3.2.2 数据仓库建模 建模的目的是为了方便我们后期统计分析 在使用Hive进行数据统计分析时首先必须先把清洗预处理完成的数据加载到Hive中成为数据表而且一般在真实的企业项目中清洗预处理完成数据不止一个各种各样的数据数据和数据之间都是有关系的。 所谓的数据仓库建模就是我们在对数据进行清洗预处理的时候清洗预处理完成之后的多个数据之间的关系梳理建模 数据仓库建模的名词解释 事实表一张表中基本全都是外键如果我们需要查询数据需要将这个表和各个对应的其它数据表进行关联查询才能得到我们想要的数据 订单表维度表事实表中外键对应的详细信息存储的表而且他也是我们统计分析时纬度信息 用户表 商品表 数据仓库模型建立有很多种方式的主要分为 3NF数据仓库建模 纬度建模 星型模型 事实表直接与纬度表关联而且只有一级关联 雪花模型 事实表直接与维度表关联纬度表拆分出更加细致的一些纬度表 星座模型 在一个数仓中事实表有多个每一个事实表都有它自己对应的纬度表纬度表还有它的二级纬度表 如何完成建模数据清洗预处理的时候把数据处理成为合适的模型结构 3.3 数据统计分析的实现最好把所有的HQL代码写到一个SQL文件中最后统一执行运行 统计分析必须启动HDFS和YARN 3.3.1 构建ODS层 ODS层指的是我们把清洗预处理完成的数据不加以任何的处理直接原模原样的在Hive中构建与之对应的表格并且把数据装载到表格当中 清洗预处理完成的数据格式以\001特殊字符分割的这样的话可以避免分隔符和字段的中一些符号冲突导致装载数据到Hive出现串行的问题。 Hive中数据表有很多分类的内部表、外部表、分区表、分桶表 考虑数据统计分析一天执行一次也就意味着我们每天处理完成的数据都需要往Hive的ODS层的数据表导入一份如何区分ODS层导入的数据是哪一天需要构建一个分区表基于时间的。外部表 3.3.2 构建DWD层 DWD明细宽表层就是把ODS层的数据表字段拆分成为更加细粒度的字段便于我们后期的统计分析。 DWD层说白了就是在ODS的数据表基础之上在多增加一些冗余字段但是方便我们后期操作了 ODS层的字段如下 可以拆分的字段主要有两个 时间字段后期需要基于细粒度的时间做统计分析 年 月 日 时 来源URL字段后期统计站内站外的流量占比站内站外的对比是基于HOST主机名/域名——HOST DWD层这个数据表就属于我们Hive的自有表了因此明细宽表我们构建成为内部分区表即可 明细宽表中没有数据明细宽表中的数据从什么地方来因为DWD层是基于ODS层建立的因此DWD层的数据需要从ODS层查询获得。 需要从ODS层对应的数据表中查询指定的数据添加到DWD层当中注意一下分区的问题。 3.3.3 构建ADS层 ADS层其实就是我们基于DW数据仓库库构建的DWD和DIM层的数据表进行查询通过聚合、分组、排序等等操作统计相关的指标得到指标数据然后将指标数据存储到一个Hive数据表中。 基于时间纬度的指标 统计网站每年的用户的流量 网站每天都会产生数据每一天数据一增加那么当前年份的用户访问量必然增加一天的数据 思路不是针对明细宽表某一个分区的数据进行统计分析而是针对于明细宽表中整体数据集进行统计分析所有的分区进行操作 实现因为在明细宽表中已经拆分除了visit_year字段因此我们只需要根据visit_year分区聚合数据即可得到每一年的用户访问量 select visit_year,count(*) from dwd_user_behavior_detail group by visit_year; 统计网站每一年不同月份的用户流量 实现同上区别分组时需要根据年和月来分组 统计网站每一年不同月份下每天用户的访问量 实现同上区别分组的时候需要根据年、月、日三个字段来分组 统计网站每一年不同月份下每天的每小时用户的访问量 实现同上区别分组的时候需要根据年、月、日、时四个字段来分组 统计网站每一年每一个月的流量相比于上个月的比例开窗函数上边界和下边界针对每一年不同月份的用户流量指标的二次分析结果 select temp.*,concat(round(temp.flow/temp.before_month_flow,1)*100,%) as rate from (select * ,first_value(flow) over(partition by visit_year order by visit_month asc rows between 1 PRECEDING and CURRENT ROW) as before_month_flowfrom ads_month_flow ) as temp基于地理纬度的指标 统计网站不同省份每天用户的流量 数据统计分析每天执行一次每天都要统计不同省份在当天的用户流量占比情况统计两种方式 针对明细宽表的数据集整体进行聚合统计 上面这种方式不太友好8.31号我要统计按道理来说只需要统计8.30号采集的数据即可8.29号的数据不需要统计了但是如果针对数据集整体统计的话8.29号的结果会重新计算一遍指标表添加数据时需要覆盖添加 只针对当前时间分区的数据进行统计 节省资源指标表的数据需要追加添加即可 统计网站不同省份每月/每年用户流量 针对的就是数据集整体 而非某一个分区 每天访问量TOP10的省份 针对的不是明细宽表 而是我们的前面统计不同省份每天用户流量指标二次分析指标统计出来之后需要覆盖添加 需要使用排名函数 ads_province_day_flow select temp.date_time, temp.province, temp.flow from{ select *, row_number() over(partition by data_time order by flow desc) as rank_num from ads_province_day_flow } as temp where temp.rank_num 10;基于用户纬度的指标 统计网站不同年龄段用户的流量 明细宽表当中存在一个字段代表的是用户的年龄而用户年龄都是大于等于18岁小于100岁。 基于年龄这个字段我想查看一下网站不同年龄段的用户情况 用户年龄段 青年18-44中年45-59中老年60-79老年80岁以上 【注意】案例针对是数据集整体不参杂时间的纬度概念指标需要覆盖添加的 需要用到hive中的分支函数 统计网站每年/每月/每天的不同年龄段的用户访问量 统计每天网站的独立访客数 独立访客数其实就是IP地址一个IP算一个独立访客只需要把每天的ip地址去重之后求一个总数得到每天的独立访客数针对某一个分区的指标数据就是追加 统计网站每月、每年的独立访问数 针对数据集整体了 基于终端纬度的指标 统计网站用户使用的不同浏览器的占比情况 用户行为数据中有一个字段user_agentuser_agent当中就包含着我们用户使用的浏览器信息情况基于这个字段统计统计网站不同浏览器的占比情况不统计所有的浏览器我们只统计一些常见的浏览器的占比 IE、淘宝、火狐、欧朋、QQ浏览器 Safari苹果不同年龄段用户访问量指标是类似的 统计网站不同时间段下的不同浏览器的占比情况 基于来源纬度的指标 统计网站每天站内和站外的流量占比 用户行为数据中有一个字段referer_url字段字段代表的是用户访问网站的来源来源可能是站内的可能是站外的现在统计网站站内和站外的来源流量区分站内和站外来源主要看referer_url中referer_host字段字段代表来源的域名如果域名是www.bailongma.com那么代表来源是站内的 如果域名不是白龙马 那么代表来源是站外的针对的是数据集整体覆盖 统计网站不同时间段的站内和站外的流量占比统计网站不同来源网站的占比 指标有很多可以进行各种自由扩展 3.4 统计分析部署和运行 我们统计分析也是每天执行一次我们总不能每天运行统计分析指标代码我们自己手动挨着运行 我们统计分析需要把所有统计分析代码封装到一个xxx.sql文件中然后到时候统计分析需要执行我们直接使用hive -f xxx.sql --hiveconf xxxxxxx 四、项目的数据迁移导出阶段 4.1 概念 现在我们通过Hive数据仓库做的统计分析指标都是在Hive的ADS层存储着。统计的指标的主要目的是为了指导网站的发展和运营的因此统计完成的数据其中可以做很多操作基于统计分析的结果进行二次统计分析基于统计分析的指标结合相关大数据算法做一些数据预测或者数据的深度挖掘基于统计分析的结果进行可视化大屏的制作。 我们项目中最终需要把统计分析的结果以图表的形式进行可视化展示。 目前现有的可视化技术基本都不太支持从Hive中直接读取数据然后进行可视化展示但是这些技术支持从RDBMSMySQL中读取数据进行可视化展示。 因此我们做可视化大屏之前需要把Hive数据仓库中ADS层的数据迁移导出到RDBMS关系型数据库当中然后再借助大数据技术RDBMS实现数据可视化展示即可 4.2 数据迁移导出的技术选型 我们就是想把Hive数据仓库中数据导出到RDBMS中目前只学了SQOOP技术 当然除了Sqoop技术以外还有一个技术DataX阿里云提供的数据传输工具 4.3 数据迁移导出的开发实现 要把Hive的数据迁移到MySQL中SQOOP既可以实现把RDBMS数据迁移到大数据环境导入同时也支持把大数据环境数据迁移到RDBMS中导出 只需要编写针对性的SQOOP导出数据的命令即可导出的时候需要注意两个问题 MySQL中的必须提前存在和导出的指标表一致的数据表结构导出数据时有些指标数据追加到MySQL中针对于分区的指标统计–sqoop默认导出就是追加的但是有些指标需要覆盖原先的MySQL数据表针对整体数据集的指标统计–sqoop支持不良好可以通过sqoop把原始MySQL数据表清空然后再导出 【注意】后期的话我们做数据可视化我们需要连接MySQL我们本次只讲第三方工具的可视化工具可视化基本上都是支持公网数据库我们的自己的局域网数据库不支持的。 如何获取带有一个公网IP的MySQL数据库 我们购买一个云服务器然后在云服务器上自己安装一个MySQL即可。我们直接购买一个云MySQL数据库。 五、项目的数据可视化阶段 白龙马大屏 六、【项目补充点】 6.1 模拟其他年份其他月份其他日期的数据 只需要通过date -s “时间” 系统时间改成我们想要模拟数据的日期即可把以前产生的userBehavior.log文件删除了然后启动采集程序 启动数据模拟程序处理数据只需要再把系统时间往后调整一天 【注意】数据清洗预处理和数据统计分析底层需要用到MR程序一定一定要注意MR程序的Map任务的个数和reduce任务的个数以及每一个map任务和reduce任务占用的内存。 七、相关代码 7.1 导出 # shell脚本中需要封装所有和数据导出相关的sqoop命令 # 导出每年用户的流量指标指标针对的是数据集的整体所以为了防止数据重复导出的时候需要覆盖导出 # sqoop对覆盖导出适用还是有点问题折中的方式先通过sqoop命令把mysql对应的指标表的数据先清空 再导出 echo 导出ads_year_flow指标开始 sqoop eval --driver com.mysql.cj.jdbc.Driver --connect jdbc:mysql://gz-cdb-8yj5rfsd.sql.tencentcdb.com:63506/project?serverTimezoneAsia/ShanghaiuseUnicodetruecharacterEncodingUTF-8 --username root --password admin777rmrf --query truncate year_flowsqoop export --driver com.mysql.cj.jdbc.Driver --connect jdbc:mysql://gz-cdb-8yj5rfsd.sql.tencentcdb.com:63506/project?serverTimezoneAsia/ShanghaiuseUnicodetruecharacterEncodingUTF-8 --username root --password admin777rmrf --table year_flow --columns visit_year,flow --export-dir /user/hive/warehouse/project.db/ads_year_flow --input-fields-terminated-by \001 -m 1echo 导出ads_year_flow指标成功# 导出省份每天的流量 针对的分区数据统计 因此这个指标需要追加导出而非覆盖导出 echo 导出ads_province_day_flow指标开始sqoop export --driver com.mysql.cj.jdbc.Driver --connect jdbc:mysql://gz-cdb-8yj5rfsd.sql.tencentcdb.com:63506/project?serverTimezoneAsia/ShanghaiuseUnicodetruecharacterEncodingUTF-8 --username root --password admin777rmrf --table province_day_flow --columns data_time,province,latitude,longitude,flow --export-dir /user/hive/warehouse/project.db/ads_province_day_flow --input-fields-terminated-by \001 -m 1echo 导出ads_province_day_flow指标成功7.2 生成 7.3 收集 # 1、给Flume进程agent起名别 source channel sink组件起别名 project.sourcess1 project.channelsc1 project.sinksk1# 2、配置source关联的数据源 记录用户行为数据的日志文件/root/project/data-gen/userBehavior.log project.sources.s1.typeexec project.sources.s1.commandtail -F /root/project/data-gen/userBehavior.log# 3、配置channel管道 基于内存的 project.channels.c1.typememory project.channels.c1.capacity20000 project.channels.c1.transactionCapacity10000 project.channels.c1.byteCapacity104857600# 4、配置sink关联的目的地 HDFS HDFS的目的地是一个基于时间的动态目录 project.sinks.k1.typehdfs project.sinks.k1.hdfs.pathhdfs://single:9000/dataCollect/%Y-%m-%d project.sinks.k1.hdfs.roundtrue project.sinks.k1.hdfs.roundValue24 project.sinks.k1.hdfs.roundUnithour project.sinks.k1.hdfs.filePrefixdata project.sinks.k1.hdfs.fileSuffix.log project.sinks.k1.hdfs.useLocalTimeStamptrue # 文件滚动设置只基于文件的大小的滚动 不基于event滚动、时间滚动 project.sinks.k1.hdfs.rollInterval0 project.sinks.k1.hdfs.rollCount0 project.sinks.k1.hdfs.rollSize134217728 project.sinks.k1.hdfs.fileTypeDataStream# 5、关联agent的各个组件 project.sources.s1.channelsc1 project.sinks.k1.channelc17.4 清理 #!/bin/bash hadoop jar /root/project/data-clean/project-clean-pre.jar com.sxuek.DataCleanDriver7.5 分析 #!/bin/bash yesdate -d yesterday %Y-%m-%d echo $yes hive -f /root/project/data-analy/data_analy.sql --hiveconf yesterday$yes-- 0、创建一个项目专属的数据库 create database if not exists project; use project; -- 1、构建ODS层的数据表数据表和清洗预处理完成的数据格式一致的表格 而且ODS层的表格是外部分区表 create external table if not exists ods_user_behavior_origin(ip_addr string, --ip地址visit_time string,-- 浏览时间request_url string,-- 行为触发之后的请求网址referer_url string,-- 来源网址user_agent string,-- 用户使用的浏览器信息province string, --省份latitude string, -- 纬度longitude string, -- 经度age int --年龄 )partitioned by(data_gen_time string) row format delimited fields terminated by \001; -- 2、需要将清洗预处理完成的昨天的数据/dataClean/yyyy-MM-dd导入到ods层的昨天时间分区中。 load data inpath /dataClean/${hiveconf:yesterday} into table ods_user_behavior_origin partition(data_gen_time${hiveconf:yesterday});-- 3、构建DWD明细宽表层 就是在ods数据表基础之上增加了五列字段 visit_year visit_month visit_day visit_hour referer_host create table if not exists dwd_user_behavior_detail(ip_addr string, --ip地址visit_time string,-- 浏览时间visit_year string, --拆分的浏览年份visit_month string,----拆分的浏览月份visit_day string,---拆分的浏览天visit_hour string,---拆分的浏览时request_url string,-- 行为触发之后的请求网址referer_url string,-- 来源网址referer_host string, -- 来源网址的域名user_agent string,-- 用户使用的浏览器信息province string, --省份latitude string, -- 纬度longitude string, -- 经度age int --年龄 )partitioned by(data_gen_time string) row format delimited fields terminated by \001; -- 4、从贴源数据表查询明细宽表所需的数据然后把数据增加到明细宽表的昨天的时间分区中 insert overwrite table dwd_user_behavior_detail partition(data_gen_time${hiveconf:yesterday}) select ip_addr,visit_time,date_format(visit_time,yyyy) as visit_year,date_format(visit_time,MM) as visit_month,date_format(visit_time,dd) as visit_day,date_format(visit_time,HH) as visit_hour,request_url,referer_url,parse_url(referer_url,HOST) as referer_host,user_agent,province,latitude,longitude,age from ods_user_behavior_origin where data_gen_time${hiveconf:yesterday};-- 5、构建数据应用层 统计各种各样的指标数据并且把指标数据保存到Hive对应的指标表中 指标表的结构必须和我们查询的指标数据一致的 --1基于时间纬度--统计网站每年用户的流量 create table if not exists ads_year_flow(visit_year string,flow bigint )row format delimited fields terminated by \001;-- 将统计的结果覆盖添加到基于年份的指标表中 防止年份流量数据重复 insert overwrite table ads_year_flow select visit_year,count(*) from dwd_user_behavior_detail group by visit_year;-- 2统计网站每一年不同月份的用户流量 create table if not exists ads_month_flow(visit_year string,visit_month string,flow bigint )row format delimited fields terminated by \001;insert overwrite table ads_month_flow select visit_year,visit_month,count(*) from dwd_user_behavior_detail group by visit_year,visit_month;-- 3基于地理纬度的指标--统计网站不同省份每天用户的流量 针对分区的方式完成 create table if not exists ads_province_day_flow(data_time string,province string,latitude string,longitude string,flow bigint )row format delimited fields terminated by \001;-- 因为这个指标是针对某一个分区的数据进行的 不用担心和以前统计出来的结果冲突 所以追加即可 insert into table ads_province_day_flow select data_gen_time,province,latitude,longitude,count(*) from dwd_user_behavior_detail where data_gen_time${hiveconf:yesterday} group by data_gen_time,province,latitude,longitude;-- 4统计网站不同年龄段的用户访问量 create table if not exists ads_age_range_flow(youth bigint,middle_age bigint,middle_elderly_age bigint,old_age bigint )row format delimited fields terminated by \001;-- 针对的是数据集整体 每天要执行一次 因此这个指标覆盖添加 insert overwrite table ads_age_range_flow select sum(if(age18 and age 44,1,0)),sum(if(age45 and age 59,1,0)),sum(if(age60 and age 79,1,0)),sum(if(age80,1,0)) FROM dwd_user_behavior_detail;-- 5基于用户纬度--统计网站每天的独立访客数 create table if not exists ads_day_uv(date_time string,num bigint )row format delimited fields terminated by \001;insert into table ads_day_uv select data_gen_time ,count(DISTINCT(ip_addr)) FROM dwd_user_behavior_detail WHERE data_gen_time ${hiveconf:yesterday} group by data_gen_time;-- 6基于终端纬度--统计网站不同浏览器的使用占比 create table if not exists ads_user_agent_flow(user_agent string,flow bigint )row format delimited fields terminated by \001;insert overwrite table ads_user_agent_flow select IE,count(1) from dwd_user_behavior_detail where user_agent like %MSIE% UNION select Firefox,count(1) from dwd_user_behavior_detail where user_agent like %Firefox% UNION select Opera,count(1) from dwd_user_behavior_detail where user_agent like %Opera% UNION select Safari,count(1) from dwd_user_behavior_detail where user_agent like %Safari% UNION select QQBrowser,count(1) from dwd_user_behavior_detail where user_agent like %QQBrowser% UNION select TaoBrowser,count(1) from dwd_user_behavior_detail where user_agent like %TaoBrowser%;-- 7基于来源纬度的指标--统计网站站内和站外的流量情况 create table if not exists ads_flow_referer(referer string,flow bigint )row format delimited fields terminated by \001;insert overwrite table ads_flow_referer select 站内,count(1) from dwd_user_behavior_detail where referer_host www.bailongma.com UNION select 站外,count(1) from dwd_user_behavior_detail where referer_host ! www.bailongma.com;
http://www.hkea.cn/news/14301245/

相关文章:

  • 网站建设 中企动力西安靓号网站开发
  • 深圳的seo网站排名优化网页美工培训哪里好
  • 网站做支付需要准备什么东西域名转移 网站访问
  • 建设通网站是什么网站网站建设的流程及步骤
  • 海南哪家公司做网站做的好合肥大型网站设计公司
  • 湛江建站程序开发一个跑腿app需要多少钱
  • 有关学校网站建设的建议互动企业展厅设计公司
  • 包头建设厅官方网站想自己开发一款软件
  • 网站建设多少钱哪个济南兴田德润有活动吗个人网站的设计及实现
  • 四川移动网站建设报价网站建设专业输入法
  • 东莞网站托管公司安阳网络平台
  • 南宁做网站设计方案wordpress网页没法评论
  • 江苏建设网官方网站龙华营销型网站建设公司
  • 广州建设水务局网站建设企业网站企业网银
  • 上海网站制作是什么营销推广48个方法
  • 有网站了怎么设计网页wordpress会员推广下载支付插件
  • 顺德网站建设哪家好集团网站设计公司
  • 建筑网站绿地新里城菏泽注册公司流程和费用
  • 上海闵行网站建设网站被攻击了怎么办
  • 网站建设 部署与发布题库wordpress文件调用
  • 网站备案和不备案有什么区别大连微信网站建设
  • 温州好的网站推广官网是怎么做的
  • wordpress网站全过程举报网站平台
  • 合肥哪家做网站小程序开发平台需要网站吗
  • 如何做打码网站整合营销网络推广
  • 先做网站后付款网站建设与管理实训课程
  • 阿里巴巴国际贸易网站苏州专业建站
  • 电子商务网站建设的方法江阴设计公司
  • 网站 app 哪个先做深圳谷歌优化seo
  • 如何制作餐馆网站门户网站界面设计