photoshop制作网站海报,阿里巴巴推广平台,个人做负面网站犯法不,wordpress widgetkit文章目录
前言
一、精准营销简介
二、大数据精准营销过程
三、大数据精准营销方式
四、项目目标
五、项目流程
六、数据的处理
数据的预览
数据的读取
数据的解析
数据预处理
异常值处理 缺失值处理 时间格式和时区转换 量纲转化
重…文章目录
前言
一、精准营销简介
二、大数据精准营销过程
三、大数据精准营销方式
四、项目目标
五、项目流程
六、数据的处理
数据的预览
数据的读取
数据的解析
数据预处理
异常值处理 缺失值处理 时间格式和时区转换 量纲转化
重复数据处理
总结
前言
随着大数据时代的不断发展大数据在生活方面的应用这门技术也越来越重要很多人都开启了学学习大数据及家属本文就介绍了大数据在精准营销方面的应用。 一、精准营销简介 精准营销是指企业通过定量和定性相结合的方法对目标市场的不同消费者进行细致分析并根据他们不同的消费心理和行为特征采用有针对性的现代技术、方法和指向明确的策略从而实现对目标市场不同消费者群体强有效性、高投资回报的营销沟通。 精准营销最大的优点在于“精准”即在市场细分的基础上对不同消费者进行细致分析确定目标对象。 精准营销的主要特点有以下几点 1精准的客户定位是营销策略的基础。 2精准营销能提供高效、投资高回报的个性化沟通。过去营销活动面对的是大众目标不够明确沟通效果不明显。精准营销是在确定目标对象后划分客户生命周期的各个阶段抓住消费者的心理进行细致、有效的沟通。 3精准营销为客户提供增值服务为客户细致分析量身定做避免了用户对商品的挑选节约了客户的时间成本和精力同时满足客户的个性化需求增加了顾客让渡价值。 4发达的信息技术有益于企业实现精准化营销“大数据”和“互联网”时代的到来意味着人们可以利用数字中的镜像世界映射出现实世界的个性特征。
二、大数据精准营销过程 传统的营销理念是根据顾客的基本属性如顾客的性别、年龄、职业和收入等来判断顾客的购买力和产品需求从而进行市场细分以及制定相应的产品营销策略这是一种静态的营销方式。 大数据精准营销不仅记录了人们的行为轨迹还记录了人们的情感与生活习惯能够精准预测顾客的需求从而实现以客户生命周期为基准的精准化营销这是一个动态的营销过程。 1助力客户信息收集与处理 2客户细分与市场定位 3辅助营销决策与营销战略设计 4精准的营销服务 5营销方案设计 6营销结果反馈
三、大数据精准营销方式 在大数据的背景下百度等公司掌握了大量的调研对象的数据资源这些用户的前后行为将能够被精准地关联起来。具体方式包括以下几点 1实时竞价RTB 2交叉销售 3点告 4窄告 5定向广告推送
四、项目目标
1.通过对海量交易流水数据的深度分析和挖掘构建全方位的客户标签体系。
2.基于客户标签体系从基本信息、消费能力、行为习惯等多个维度对客户进行精准画像。
3.计算客户商品兴趣度排行榜支持精准目标客户筛选。
五、项目流程 先找到符合要求的数据集导入MySQL数据库使用pymsql将数据源提取到python再进行数据预处理再进行客户交易行为的分析客户标签体系的构建最后进行精准营销的应用。 六、数据的处理
数据的预览
数据来源于sql文件数据。
其中包含本项目包含客户在某平台的367万脱敏交易流水数据交易时间跨度为5年。每条交易记录包含客户ID、交易时间、交易金额和交易附言四个字段如下表所示︰ 数据的读取
主要包括以下三个步骤︰
数据描述︰字段中英文、取值范围和备注信息·
数据调用:MySQL数据库的连接和数据提取·
数据解析︰将数据格式转换为DataFrame
主要涉及PyMySQL、Pandas等模块的基本使用
首先创建数据库sell 再将sql文件导入到数据库中 创建表business 再使用source语句导入sql文件 查看导入的数据 数据的解析
选择使用python来进行数据解析
Python对于数据预处理和数据再加工非常的友好但是缺少了一些数据预处理和清洗部分。Pandas使得可以只使用Python完成完整的数据清洗流程并且不用依靠其他的特定领域的语言·使用非常广泛功能强大得到很多公司和个人的认可
使用python中的pymysql库来连接MySQL数据库
从数据库中读入全部数据select * from business并将其命名为sql。但目前的数据是以嵌套的形式存储的所以需要将其转化为Pandas内置的DataFrame对象再进行后续操作。 db为数据库的database
查看导入的result有40000行数据说明导入成功 再将列名进行处理修改成MySQL数据库中相对应的表名 数据预处理
由于原始数据存在一些质量问题为了便于后续的数据分析我们需要进行数据预处理。利用Pandas提供的便利工具和函数对交易数据进行预处理的流程如下图所示∶ 数据预处理主要包括以下五个步骤:
1) 统计分析:对数据进行统计分析,初步了解数据特点。
2) 异常值处理:对交易时间等字段中出现的异常数据进行诊断并确定异常值处理方法。
3) 缺失值处理∶对于存在缺失值的交易金额和交易附言字段诊断缺失值产生的原因确定缺失值处理方法。
4) 数据格式转换∶为了便于后续分析对于金额字段的量纲、交易时间字段的时间格式进行转换。
5) 重复数据过滤︰检测交易数据中存在的重复交易记录并删除重复的记录。
主要涉及NumPy、Pandas等模块的基本使用
查看导入的数据 客户交易流水记录中正值为金额流出负值为金额流入
交易附言信息为中文描述该列数据之后可能要进行文本处理·
交易时间列为unix时间戳转换为标准北京时间更易处理。
发现其中的一些多余的符号需要去除。
查看result数据的总列数和总行数分别在变量rows和cols中 查看数据的前五行将结果保存到变量head中。 查看数据的基本情况 查看客户总数将客户数保存在数值变量user_num中 计算交易次数保存在变量user_counts中 异常值处理 Unix时间戳是指格林尼治时间1970年01月01日00时00分00秒起至现在的总秒数。我们已经知道交易时间(unix_time )字段无缺失值还需要检测数据中是否有异常的情况。Unix时间戳为10位数字(如果精确到毫秒为13位)我们使用正则表达式对数据进行匹配检测是否存在位数异常的值。 发现数据中没有空缺数值的异常值通常时间戳为10位数据中出现了9位和11位的时间戳视为异常值处理处理方法是将这些九位的数据在第一位加1.11位的时间戳删除其最后一位。 处理完之后查看数据 再次使用正则表达式查找异常值发现无异常值说明异常值处理成功 缺失值处理 查看交易时间是否存在缺失值 结果为0不存在缺失值
查看交易附言是否存在缺失值 结果为0不存在缺失值
查看交易金额是否存在缺失值 可以看出payment这一列含有45个缺失值应该将其删除删除缺失值以后再次查询缺失值的数据为0条 查看result数据 删除了45条缺失值以后还有39955条正常的数据 时间格式和时区转换
将时间戳转换为“年-月-日 时:分:秒” 查看结果 时区转化将林格威治时间转换为北京时间并查看最后五条数据 量纲转化
在以上处理的过程中我们会观察到 payment全部为整型数值。在这里我们将其转换为更符合我们观察的形式将其小数点向左平移两位形式为元.角分。 重复数据处理 接下来对数据进一步分析检测是否存在重复交易记录并进行处理。DataFrame的duplicated()函数可以判断数据中的行是否有重复返回值为一个Series对象。其中无重复值的行标记为False 有重复值的行标记为True 。 可以发现重复数据有0行
总结
至此数据的处理已经完成下一步将进行客户交易行为的分析。