如何简单、高效的进行留存和漏斗分析

Databend 是一个使用 Rust 研发、开源的、完全面向云架构的新式数仓,致力于提供极速的弹性扩展能力,打造按需、按量的 Data Cloud 产品体验。
开源地址:https://github.com/datafuselabs/databend

前言

随着移动互联网的发展,我们时刻都在生产着数据。
如果你做了一款 APP,3 月份新增用户 1000 人,你是不是想了解在未来的某些时间段内,这部分用户里有多少人持续使用了你的 APP?
如果你在经营一个电商,你可能更加关注用户在登录,访问(某个商品),下单,付款流程里每个环节的转化率,了解用户行为轨迹变化,以精准优化产品设计。比如,如果 Andorid 用户在 下单 到 付款这个环节转化率明显低于其他客户端,说明 Andorid 客户端在 付款 这个环节上存在一些问题。
这就是我们经常说的用户留存和漏斗转化率分析。
大部分数仓要满足这两个需求,基本都要写一堆 SQL 来进行复杂表达,且性能低下,因为这两个分析会重度依赖 GROUP BY,百万级数据可能就会在分钟级。
本篇就来聊聊 Databend 如何做到简洁、高效的满足这两个需求,使用一个简单的 SQL, 在千万级的数据集上也可以轻松搞定。

留存分析

数据表

CREATE TABLE events(`user_id` INT, `visit_date` DATE);
  • user_id - 用户 ID
  • visit_date - 用户访问日期

构造数据集

构造用户访问记录。

# user_id 从 0 到 10000000 在 2022-05-15 访问数据
INSERT INTO events SELECT number AS user_id, '2022-05-15' FROM numbers(10000000);

# user_id 从 0 到 5000000 在 2022-05-16 访问数据
INSERT INTO events SELECT number AS user_id, '2022-05-16' FROM numbers(5000000);

# user_id 从 0 到 100000 在 2022-05-17 访问数据
INSERT INTO events SELECT number As user_id, '2022-05-17' FROM numbers(100000);

留存分析

SELECT
    sum(r[0]) AS r1,
    sum(r[1]) AS r2,
    sum(r[2]) AS r3
FROM
(
    SELECT
        user_id,
        retention(login_date = '2022-05-15', login_date = '2022-05-16', login_date = '2022-05-17') AS r
    FROM events
    GROUP BY user_id
);

这里使用 Databend retention 函数轻松搞定:

+----------+---------+--------+
| r1       | r2      | r3     |
+----------+---------+--------+
| 10000000 | 5000000 | 100000 |
+----------+---------+--------+
  • 2022-05-15 有 10000000 人访问
  • 2022-05-16 有 5000000 个用户持续访问,用户留存率 5000000/10000000 = 50%
  • 2022-05-17 有100000个用户持续访问,用户留存率 100000/10000000 = 10%

漏斗分析

数据表

CREATE TABLE events(user_id BIGINT, event_name VARCHAR, event_timestamp TIMESTAMP);
  • user_id - 用户 ID
  • event_name - 事件类型:登录, 访问 ,下单 ,付款
  • event_timestamp - 事件时间(Databend TIMESTAMP 类型精度是小数点后 6 位, 微秒(microsecond))

构造数据集

# 用户 100123 事件
INSERT INTO events VALUES(100123, '登录', '2022-05-14 10:01:00');
INSERT INTO events VALUES(100123, '访问', '2022-05-14 10:02:00');
INSERT INTO events VALUES(100123, '下单', '2022-05-14 10:04:00');
INSERT INTO events VALUES(100123, '付款', '2022-05-14 10:10:00');

# 用户 100125 事件
INSERT INTO events VALUES(100125, '登录', '2022-05-15 11:00:00');
INSERT INTO events VALUES(100125, '访问', '2022-05-15 11:01:00');
INSERT INTO events VALUES(100125, '下单', '2022-05-15 11:02:00');

# 用户 100126 事件
INSERT INTO events VALUES(100126, '登录', '2022-05-15 12:00:00');
INSERT INTO events VALUES(100126, '访问', '2022-05-15 12:01:00');

# 用户 100127 事件
INSERT INTO events VALUES(100127, '登录', '2022-05-15 11:30:00');
INSERT INTO events VALUES(100127, '访问', '2022-05-15 11:31:00');

漏斗分析

SELECT
    level,
    count() AS count
FROM
(
    SELECT
        user_id,
        window_funnel(3600000000)(event_timestamp, event_name = '登录', event_name = '访问', event_name = '下单', event_name = '付款') AS level
    FROM events
    GROUP BY user_id
)
GROUP BY level ORDER BY level ASC;
+-------+-------+
| level | count |
+-------+-------+
|     2 |     2 |
|     3 |     1 |
|     4 |     1 |
+-------+-------+

这里使用 Databend window_funnel 函数对用户在 1 小时窗口内,进行事件链下钻分析。一小时内:有多少用户登录(level-1) –> 有多少用户访问(level-2) –> 有多少用户下单(level-3) –> 有多少用户付款(level-4)从结果来看:

  • 登录 --> 访问 这条事件链上总共有 2 个用户,100126 和 100127
  • 登录 --> 访问 --> 下单 这条事件链上有 1 位用户,100125
  • 登录 --> 访问 --> 下单 --> 购买 这条事件链上总共有 1 位用户,100123

这样我们就可以轻松计算出每个阶段的转化率。

性能

从上面示例可以看出,留存和漏斗分析都重度依赖 GROUP BY user_id,如果 user_id 较多,对 GROUP BY 计算速度有比较高的要求,Databend 在 GROUP BY上做了大量的优化,目前性能已经非常强悍,具体机制可以参考这篇文章 Databend 的 Group By 聚合查询为什么跑的这么快?

总结

Databend 留存(RETENTION)函数和漏斗分析(WINDOW_FUNNEL)函数去年已经实现,把复杂的逻辑进行封装,让用户使用起来更加方便。

Databend 作为一个新一代云数仓,在设计上做了一个很大的转变:数据不再是重心,用户的体验才是。

对于一个数仓产品,相信大部分用户都希望:

  • 不再为存储空间发愁
  • 不再为计算资源发愁
  • 开箱即用,真正的按需、按量付费

随着云基础设施的发展,我们在 Databend Platform 里让这一切都变成了可能。

基于开源 Databend 内核、AWS EC2 计算资源、S3 的对象存储,加上自研的 Serverless Infrastructure,Databend 团队即将推出他们的第一个企业级产品:Databend Platform。
来,让我们一起看看在 Databend Platform 里如何做漏斗分析:
1.选择 Worksheet
2.选择休眠的 Warehouse
3.执行漏斗分析 SQL,自动唤醒 Warehouse
4.Warehouse 自动休眠
5.就是这么简单

blog-window-funnel.gif

关于 Databend

Databend 是一款开源、弹性、低成本,基于对象存储也可以做实时分析的新式数仓。期待您的关注,一起探索云原生数仓解决方案,打造新一代开源 Data Cloud。

文章首发于公众号:Databend

posted @ 2022-05-26 17:13  Databend  阅读(125)  评论(0编辑  收藏  举报