如何对XML大文件中的数据去重?

发布于 2022-09-01 07:21:39 字数 225 浏览 20 评论 0

目的:xml->mysql

困难:xml中可能存在重复数据,但xml文件有400+M

问题:如何去掉这些重复数据?

目前的想法:每次insert数据之前,把待插数据和表存数据进行比对,但感觉效率不高。

请教:有没有更好的办法?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

本王不退位尔等都是臣 2022-09-08 07:21:39

才 400M 就算是大文件了么……

先做去重再导入数据呗。才400M的数据,拿个 dict 存需要去重的 key 就可以了。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文