如何对XML大文件中的数据去重?
目的:xml->mysql
困难:xml中可能存在重复数据,但xml文件有400+M
问题:如何去掉这些重复数据?
目前的想法:每次insert数据之前,把待插数据和表存数据进行比对,但感觉效率不高。
请教:有没有更好的办法?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
目的:xml->mysql
困难:xml中可能存在重复数据,但xml文件有400+M
问题:如何去掉这些重复数据?
目前的想法:每次insert数据之前,把待插数据和表存数据进行比对,但感觉效率不高。
请教:有没有更好的办法?
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(1)
才 400M 就算是大文件了么……
先做去重再导入数据呗。才400M的数据,拿个 dict 存需要去重的 key 就可以了。