理想的内存数据结构,用于从大约中删除重复项。 100,000 个整数
我想加载一个包含大约 100,000 个整数的文件。在加载过程中,我想删除重复项并将其余部分插入数据库。
哪种是 C# 中的理想数据结构?
B 树是否适合我的情况,如果是,C# 中是否有 B 树实现?
(我是 C# 新手。)
I want to load a file that contains maybe around 100,000 integers. In the process of loading, I want to remove the duplicates and insert the rest into a database.
Which is the ideal data-structure in C#?
Would B-trees be ideal for my case, and if so, is there a B-tree implementation in C#?
(I am new to C#.)
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
我只需使用
HashSet
。它将忽略重复项。请注意,枚举
HashSet
以未指定的顺序返回元素。如果您需要排序,请查看
SortedDictionary
。它是基于树的,并且可能会更慢。I'd simply use an
HashSet<T>
. It will ignore duplicates.Note that enumerating an
HashSet<T>
returns the elements in unspecified order.If you need sorting, look into
SortedDictionary<TKey, TValue>
. It's tree based, and will probably be slower.假设 1L == 1Lakh,这并不是一个大数目。
只需使用不允许重复的集合类型,例如
HashSet
:
Assuming 1L == 1Lakh, this is not a large amount.
Just use a collection type that does not allow duplicates such as a
HashSet
: