开源推荐 Go 大数据生态开源项目 CDS 中 ClickHouse 使用的建表方案

kevwan · 2020年11月29日 · 746 次阅读
本帖已被设为精华帖!

基于 go-zero 构建的 CDS 数据同步与 ClickHouse 的建表方案紧密相关,下面介绍了两种建表方案。

实时表

起初 ClickHouse 并未考虑数据更新的问题,在官网中有介绍 ClickHouse 诞生的历史。

https://clickhouse.tech/docs/en/introduction/history/

从中可以看出两点:

  • 用于日志分析
  • 使用非汇总数据在线计算

也就是说数据导入后不考虑变更,而且想要直接分析源数据。

但是现实中我们有很多有价值的数据在事务型数据库中存储,或者我们需要用到的数据在事务型数据库中。而事务型数据库中存储的是状态型数据 (可以发生变化),对于 ClickHouse 而言,数据更新是一个非常困难的操作

因为上面提到的需求,更新这个功能在随后还是以 mutation 的形式加入了。这种 mutation 形式在官网中:

https://clickhouse.tech/docs/en/sql-reference/statements/alter/update/

有这样的描述 “this is a heavy operation not designed for frequent use.” 而且不支持更新用于计算主键或分区键的列。

可以看出,直接对数据执行更新操作对 ClickHouse 来说是一件非常糟糕的事。

这种情况在其他用于大数据处理的数据库中也存在,比如以 HDFS 为支撑的数据仓库,它同样更多的要求数据是不可变的。

即便提供了更新操作,性能都不佳。解决这个需求一般的方法是用程序定期的对过往的数据进行合并,形成一份最新的数据。这种方法的缺点是不能做到实时更新数据。

cds 同步设计目标之一是解决事务型数据库数据实时同步至 ClickHouse 的问题。

ClickHouseMergeTree 表引擎,这种引擎的特点就是它会自动在后台合并数据。

MergeTree 表引擎家族中有一个 ReplacingMergeTree 的表引擎,它会在合并数据的时候根据主键删除具有相同主键的重复项。不过官网也指出了它的缺点:

“Data deduplication occurs only during a merge. Merging occurs in the background at an unknown time, so you can't plan for it. Some of the data may remain unprocessed. Although you can run an unscheduled merge using the OPTIMIZE query, don't count on using it, because the OPTIMIZE query will read and write a large amount of data. Thus, ReplacingMergeTree is suitable for clearing out duplicate data in the background in order to save space, but it doesn't guarantee the absence of duplicates.”

没有提到的是,在查询时加上 final 关键字就可以得到最终数据,而不用动用 OPTIMIZE 这种超重型操作。

final 也有缺点,就是会导致 ClickHouse 以单线程的方式执行,不过这个方式在新的版本中已经改变了https://github.com/ClickHouse/ClickHouse/pull/10463,开发中的新引擎 MaterializeMySQL也使用了同样的方法 https://github.com/ClickHouse/ClickHouse/issues/4006 。加上如何合理使用 prewhere 和索引,查询速度还算可以。

利用 ReplacingMergeTree的表引擎,我们只需要将数据插入 ClickHouse ,数据就可以被自动合并了。

update

那么删除的操作呢?可以新增一个删除的标志列。如果源数据被删除,那么插入一条新的删除标志为真的数据,ReplacingMergeTree 合并后会变成这一列,查询时在 where 中添加过滤条件就好了

delete)

cds中的rtu模块已经实现了上述update/delete变更insert` 的操作。

rtu

ReplacingMergeTree 具体建表方式如下:

CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
    name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
    name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
    ...
) ENGINE = ReplacingMergeTree([ver])
[PARTITION BY expr]
[ORDER BY expr]
[SAMPLE BY expr]
[SETTINGS name=value, ...]

这里有几个需要非常注意的点:

  1. 你需要指定一个版本列用于数据合并时确定最新数据,一般指定成 update_time 可以实现上面的功能。

  2. 数据的合并发生在同一个集群分片的同一个分区里。也就是说对数据插入有所要求。

ClickHouse 推荐数据直接插入 clickhosue 集群节点的本地存储表中,而不是通过分布式表插入。这意味着你需要将数据按主键自行散列好后插入对应集群节点的本地存储表。packge cds/tools/ckgroup实现了这个功能。

  1. 这种表引擎对 ORDER BY 的设定有所要求,它必须是主键,但主键可能并非 olap 查询的常用维度,会导致查询性能不佳。如果需要很高的查询性能,可以考虑定期将数据导入至普通 MergeTree 表中。

  2. ReplacingMergeTree表引擎合并后会删除旧版本的数据。

这种表引擎给 cds 中全量同步和增量同步一起进行时可能出现的重复数据自动去重。

历史版本与还原

如果想要查询历史中某段时间几天的数据每天的情况,就需要保存每天所有的数据。如果每天保存一个所有数据的快照的话,将会非常占用存储空间,很不经济。

如果只保存增量和变更数据将会节省很多空间,问题是如何从一堆增量和变更数据中还原每一天的数据?

对于 clickhouse 而言,这种情况下不能使用 ReplacingMergeTree 表引擎,在上面提到的第 4 点ReplacingMergeTree表引擎合并后会删除旧版本的数据。

在 clickhouse 中使用普通 MergeTree,利用 argMax合理的分区 方案可以实现版本还原。如:

-- 查询某一日全部用户中编辑角色的数量
SELECT date
     , uniq(user_id)
FROM (
         SELECT date
              , id                                    user_id
              , argMax(users.role, users.update_time) role_
         FROM (
                  SELECT id
                       , update_time
                       , role
                       , toDate('2020-11-11') date
                  FROM default.user
                  WHERE 
                    create_time < toDateTime(date + INTERVAL 1 DAY)
                    AND update_time < toDateTime(date + INTERVAL 1 DAY)
                  ) users
         GROUP BY date, id
         ) day_snap_shot -- 生成当日快照
WHERE role_ = 'editor' 
GROUP BY date;

上面介绍了两种建表方案,一种实时的,一种带有所有版本变更的。两种方案各有优劣,根据使用场景选择。这两种方案都不完美。

我们仍然在探索新的方法,希望你也能参与进来,一起建设更好的数据。

项目地址

cds 项目地址:https://github.com/tal-tech/cds

go-zero 项目地址:https://github.com/tal-tech/go-zero

如果觉得文章不错,欢迎 star 并加入微信交流群 🤝

cds

更多原创文章干货分享,请关注公众号
  • 加微信实战群请加微信(注明:实战群):gocnio
astaxie 将本帖设为了精华贴 11月30日 01:45
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册