筛选数据去重

发布于 2022-09-12 13:15:06 字数 142 浏览 12 评论 0

image
如上图,数据多插入了一次,
第一个问题:能根据datetime字段删除重复数据,只保留一条么?
第二个问题:筛选的时候,重复数据怎么只筛选一条?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

囚我心虐我身 2022-09-19 13:15:06

是分布式表吗?若要去除分布式表中的重复记录,可以使用context by子句在查询时去重。

context by是DolphinDB独有的功能,是对标准SQL语句的拓展。context by与group by类似,都对数据进行分组,但是使用group by时,每一组返回一个标量值,而使用context by时,每一组返回一个和组内元素数量相同的向量。context by与limit一起使用能够获取表中每个分组前n条记录或最后n条记录。用context by去重的例子如下:

select * from sensors where datetime between 2020.11.01T00:00:00 : 2020.11.03T23:59:59 context by datetime limit -1

上述代码limit后面为负数,表示取每个分组的最后一条记录。

数据库里面去重,可以把分区数据读到内存表后,按上述方法去重,然后把分区删除,再把去重后的结果集插入表中。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文