用户画像番外篇之随笔三则
一则:开发上的一点记录
文章说是生活随笔,到不如说是对本周开发工作中的一些体会与思考的记录。
这个专栏我想除了对知识上的一些记录,以后也可以加入生活上的收获。好记性不如烂笔头,或许多年后再回看这些文章,回看进步的历程,也是一件很有成就感的事情。
4 月份换了工作去做数据开发,重点项目还是做用户画像。开发时间排的很紧,平均每天要开发 1~2 个标签。从和需求方确认标签口径,找标签对应数据所在的表、字段定义、数据存储结构,到写标签逻辑,上线验证标签正确性…. 时间简直不够,更不要说某些复杂口径的一个标签都要写上百行的逻辑。
这周到现在又开发了 6 个标签,写了一个调度脚本,正在进行着一次数据逻辑调优。下面挑两个重要点的记录一下:
1、任务调度脚本开发
画像数据目前是写在 Spark SQL 里面,通过每天定时任务调 python 脚本,来执行 Spark SQL。
但这样的话开发效率比较低,一方面开发人员写完 Hive SQL 脚本后,还需要在外面包一层 spark 才打包成可执行脚本,另一个方面对于每一个打包后的 python 脚本都要写一个 crontab 调度命令。
所以必须要优化一下流程。优化方式就是:
①开发人员对画像标签只需写 Hive SQL 脚本,传到服务器对应目录下;
②通过一个 python 脚本,自动扫描目录下的 sql 文件,加载并替换掉 sql 中的日期变量,并将替换日期后的脚本文件包上 spark 去执行;
③每天 crontab 命令只需定时调度该 python 脚本即可,不需要在每新上一个标签的 Hive SQL 逻辑,就上一条调度命令。
2、数据逻辑调优
开发出的标签很多了,但有的标签逻辑复杂,需要做进一步调优,提高每日跑批作业的执行效率,这里就与日志数据相关的标签为例。
用户近 30 日活跃时间段 _:_ 这个口径需要计算用户近 30 天是在中午、下午、晚上哪个时间段访问次数最多,这显然是一个与日志数据相关的口径。
而记录用户访问行为的日志数据的情况是:
1、做了 _ 日期分区 _,每日全量更新历史数据。而且日志数据量很大,每天都有亿级 pv;
2、这就导致了在每天跑批时都需要从近 30 天的访问日志中抽取数据计算,一次几十亿 pv 的计算,相当耗费计算资源了。
后来做的调优方式是:
①首次刷数据时刷近 30 日用户在每个时间段的活跃次数,做倒排序找出用户活跃时间段;
②后续每天跑批任务时,只需计算前一天用户访问各时间段对应的次数(不通过日期分区字段找,对用户访问时间做日期格式处理后通过访问日期来找),并与历史数据做加总,找出其活跃时间段;
③这样计算就免去了计算近 30 日的日志数据,仅需计算前一天的数据即可。
近期在不断补充学习新知识,spark 要搞起来了、shell 命令要用熟起来了。都要投入精力搞。
写到这会已经周五早上 53 分了,过几个小时还要继续投入。这周的一些想法先总结到这里。
我觉得生活也好、工作也好,或许就是在这么一天天的貌似不起眼的积累中,不断进步的。
作为一个多年的米粉,记得那次看红米 note3 发布会的末尾,被他文案中朴实、真诚的语句吸引了。在这里想用那句台词做结“我所有的向往”。向往着在每一个看似普通的日子中精彩生活、不断进步、奔腾向前。
二则:自动发送邮件脚本
这段时间在对流量部门提供数据方面的支持,把每天自动发送邮件的脚本讲一讲吧,虽然很基础,好像没什么可以说的 …
在日常运营工作中,数据提取人员面对众多业务方的数据需求,往往应接不暇。他们需要一套自动化的程序去帮助他们完成一些周期性和重复性较强的工作。
为了减少重复性工作,数据提取人员可以使用 Python 自动化脚本跑定时任务。将写好的 HQL 语句放入 Python 脚本中,并在 linux 服务器上设置 crontab 定时调度任务,保证每天定时自动从数据仓库提取数据完毕后,将结果集写到 excel 中并发送邮件到数据需求方的邮箱。Python 脚本代码执行如下
#coding: utf-8
search_data = """ 创建临时表查询昨日运营数据"""
report_data = ''' select * from 上一步创建的临时表 '''
import psycopg2
import smtplib
import os
import openpyxl
import datetime
from impala.dbapi import connect
from email.mime.multipart import MIMEMultipart
from email.mime.text import MIMEText
from email.mime.image import MIMEImage
import pyhs2 # HIVE环境
wb = openpyxl.load_workbook('/home/path/username/daily_report_v1.xlsx') # 打开服务器存储路径下的excel文件
# 连接HIVE环境
impala_conn = pyhs2.connect(host='10.xx.xx.xx', port=xxx, authMechanism="PLAIN", user='username', password='password', database='dwd')
seo_h5_1 = impala_conn.cursor()
h5_result = impala_conn.cursor()
seo_h5_1.execute('''SET mapreduce.job.queuename=root.yydata''')
seo_h5_1.execute(search_data) # 执行HQL语句
# 取出来数据
h5_result.execute(report_data) # 取出来数据
h5_result = h5_result.fetchall()
#放到sheet里面去
sheet = wb.get_sheet_by_name('daily_report') #daily_report表
#清除历史数据
for i in range(2,sheet.max_row + 1 ):
for j in range(1,sheet.max_column + 1 ):
sheet.cell(row=i,column=j).value = ''
#填充结果数据
for i in range(2,len(h5_result) + 2 ):
for j in range(1,len(h5_result[i-2]) + 1 ):
sheet.cell(row=i,column=j).value = h5_result[i-2][j-1]
#关闭HIVE链接
impala_conn.close()
wb.save('/home/path/usernamet/daily_report_v1.xlsx') # 保存excel文件
receiver = 'receiver_email@xxx.com' # 收件人邮箱地址
date_str = datetime.datetime.strftime(datetime.date.today()-datetime.timedelta(days=1),'%m%d')
mail_txt = """
Dear All,
附件是运营日报,请查收。
"""
msgRoot = MIMEMultipart('mixed')
msgRoot['Subject'] = unicode(u'日报-%s' % date_str) #添加日期
msgRoot['From'] = 'sender_email@xxx.com'
msgRoot['To'] = receiver
msgRoot["Accept-Language"]="zh-CN"
msgRoot["Accept-Charset"]="ISO-8859-1,utf-8"
msg = MIMEText(mail_txt,'plain','utf-8')
msgRoot.attach(msg)
att = MIMEText(open('/home/path/usernamet/daily_report_v1.xlsx', 'rb').read(), 'base64', 'utf-8')
att["Content-Type"] = 'application/octet-stream'
att["Content-Disposition"] = 'attachment; filename="日报2017%s.xlsx"' % date_str
msgRoot.attach(att)
smtp = smtplib.SMTP()
smtp.connect('mail.address.com')
smtp.login('sender_email@xxx.com', 'sender_password')
for k in receiver.split(','):
smtp.sendmail('receiver_email@xxx.com', k, msgRoot.as_string())
smtp.quit()
将上面的 python 脚本后放入连接到数据仓库的服务器上,在 linux 下设置 crontab 调度语句,如“10 16 * * * python /home/path/username/auto_email.py”表示每天下午 16 点 10 分执行 /home/ path/username/ 路径下的 auto_email.py 文件。
执行代码后,程序将自动执行 SQL 语句连接到数据库提取数据,提数完毕后将数据写入 excel 文件中,并自动发送邮件到数据需求方邮箱。
这样通过定时调度的脚本即可解决业务方每天对日报数据的需求,将数据提取人员从繁重的机械性劳动中解放出来。
三则:一次对渠道流量异常情况的分析
流量部门目前对 APP 线上推广需要支付较多的渠道推广费用,但不同渠道带来的用户质量、活跃度、消费能力参差不齐
为了支持流量部门高效推广,减少对垃圾渠道的投放费用。需要对部分投放费用较高,但是营收、活跃度转化较低的渠道需要重点分析
对于渠道流量进行分析的几个关键指标:
根据 AARRR 模型,从获取用户到用户付费环节依次递进的关系,这里主要从激活、留存、付费三个环节展开
1)激活环节
①激活注册转化率:用户从应用商店下载 APP 后,不一定都会有注册行为。对于刷下载量、用户为抢红包、赚积分等目的而进行的下载,后续的注册量会很低。对于一些问题渠道来说,他的激活注册转化率(注册量 / 激活量)会远低于正常渠道;
②激活时间:在某些特殊情况下(如部门为冲 KPI 而刷下载量),一些问题渠道的激活时间会存在问题。正常来说,用户激活时间也符合人的正常作息时间段,而异常渠道因为存在机器刷量的情况,激活时间段分布也就没有那么规律了,下图就是一个栗子:
橙色和黄色线对应的渠道的激活时间分布存在一些不正常。
2)留存环节
③7 日留存率:对正常渠道来说,该渠道的用户下载 APP 是为了使用,后续的留存会多一些。而对于刷量、刷积分下载、抢红包下载等目的而下载的来说,下载激活后可能接着就卸载掉或再不使用了。从 7 日留存率这个指标也能看出一些问题渠道;
④访问深度:这里就指 PV/UV 了,对于渠道来说 PV 只该渠道一定时间段内的用户总访问量,UV 只该时间段内访问用户数,相除代表该渠道每个用户平均访问页面数。正常来说,用户下载了 APP 即时不注册也是为了使用或查看资讯等目的,因此访问深度不会很低。而问题渠道的用户根本目的不是为了使用产品,因此这些渠道的访问深度就很低了;
3)付费环节
⑤用户获客成本:对正常渠道来说,获取的付费用户量按照 AARRR 这个模型一层层下来,付费用户数 / 激活用户数(即付费用户获取比例)会在一个正常逻辑区间内。而对于垃圾渠道来说,激活用户人数可能会很多,但是付费用户人数很少,就会导致付费用户获取比例极低,用户获取成本高的惊人….
现在刷下载的供应商很多,在流量分析时候对刷下载的供应商进行一些调研,了解他们的刷量模式和报价也是对分析很有帮助的。这会刷量不仅能刷激活、还能刷注册、刷留存、刷好评…. 反正我们分析什么指标,他们都能刷这些指标的值….
但是垃圾渠道就是垃圾渠道,再怎么刷还是能分析出问题和破绽的。
时间:2018-09-27 23:33 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
- [机器学习]堪比当年的LSTM,Transformer引燃机器学习圈:它是
- [机器学习]论机器学习领域的内卷:不读PhD,我配不配找工
- [机器学习]机器学习基础图表:概念、原理、历史、趋势和算法
- [机器学习]分析了 600 多种烘焙配方,机器学习开发出新品
- [机器学习]2021年的机器学习生命周期
- [机器学习]物联网和机器学习促进企业业务发展的5种方式
- [机器学习]机器学习中分类任务的常用评估指标和Python代码实现
- [机器学习]机器学习和深度学习的区别是什么?
- [机器学习]堪比当年的LSTM,Transformer引燃机器学习圈:它是
- [机器学习]年终总结:2021年五大人工智能(AI)和机器学习(ML)发展趋势
相关推荐:
网友评论: