理想的内存数据结构,用于从大约中删除重复项。 100,000 个整数

发布于 2025-01-04 18:23:40 字数 174 浏览 0 评论 0原文

我想加载一个包含大约 100,000 个整数的文件。在加载过程中,我想删除重复项并将其余部分插入数据库。

  1. 哪种是 C# 中的理想数据结构?

  2. B 树是否适合我的情况,如果是,C# 中是否有 B 树实现?

(我是 C# 新手。)

I want to load a file that contains maybe around 100,000 integers. In the process of loading, I want to remove the duplicates and insert the rest into a database.

  1. Which is the ideal data-structure in C#?

  2. Would B-trees be ideal for my case, and if so, is there a B-tree implementation in C#?

(I am new to C#.)

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

梦忆晨望 2025-01-11 18:23:40

我只需使用 HashSet。它将忽略重复项。

请注意,枚举 HashSet 以未指定的顺序返回元素。


如果您需要排序,请查看 SortedDictionary。它是基于树的,并且可能会更慢。

I'd simply use an HashSet<T>. It will ignore duplicates.

Note that enumerating an HashSet<T> returns the elements in unspecified order.


If you need sorting, look into SortedDictionary<TKey, TValue>. It's tree based, and will probably be slower.

腹黑女流氓 2025-01-11 18:23:40

假设 1L == 1Lakh,这并不是一个大数目。

只需使用不允许重复的集合类型,例如 HashSet

HashSet(Of T) 类提供高性能的集合操作。集合是不包含重复元素的集合,其元素没有特定的顺序。

Assuming 1L == 1Lakh, this is not a large amount.

Just use a collection type that does not allow duplicates such as a HashSet:

The HashSet(Of T) class provides high-performance set operations. A set is a collection that contains no duplicate elements, and whose elements are in no particular order.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文