企业🤖AI Agent构建引擎,智能编排和调试,一键部署,支持私有化部署方案 广告
数据量小的时候无所谓,数据量大的情况下,由于count distinct操作需要用一个Reduce Task来完成,这一个Reduce需要处理的数据量太大,就会导致整个Job很难完成. 一般count distinct使用先group by再count的方式替换: 原本sql ~~~ select count(distinct id) from bigtable; ~~~ 采用group by 去重id ~~~ select count(id) from (select id from bigtable group by id) a; ~~~ 虽然时间变长,但是reduce节点负载差不多了