Shell命令将大文件分割成10个小文件

发布于 2024-10-01 09:54:10 字数 212 浏览 4 评论 0原文

我有一个 csv 导入文件,其中包含 3300 万行,需要导入到我的数据库中。我可以使用 C# 控制台应用程序导入它,然后使用在导入超时后运行的存储过程。因此我想将文件拆分为 10 个较小的文件。

我可以用 C# 来完成,但我怀疑使用 shell 实用程序有更好的方法。我安装了 cygwin,并且可以使用所有常见的 Linux shell 实用程序。是否有一个简洁的命令组合可以用来分割文件?

I have a csv import file with 33 million lines that need to be imported into my database. I can import it with a C# console app but then the stored procedures that run after the import timeout. Consequently I want to split the file into 10 smaller files.

I could do it in C# but I suspect there's a much better approach using shell utilities. I have cygwin installed and can use all the common Linux shell utilities. Is there a neat little combination of commands I could use to split the file?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(4

Smile简单爱 2024-10-08 09:54:10

使用 split - 例如,每 340 万行分割一个文件(应该为您提供 10 个文件):

split -l 3400000

$ 人分裂

Use split - e.g. to split a file every 3.4 million lines (should give you 10 files):

split -l 3400000

$ man split

愛放△進行李 2024-10-08 09:54:10

按行拆分很好,但是您也可以按大小拆分

从原始文件创建 1MB 文件

split -b 1024k <file_name> 

从原始文件创建 1GB 文件

split -b 1024m <file_name>

splitting by line is good however you can also split by size

creates 1MB files out of the original

split -b 1024k <file_name> 

creates 1GB files out of original

split -b 1024m <file_name>
吃素的狼 2024-10-08 09:54:10

coreutils 8.8(尚未发布)中的 split 版本将具有命令

split -n l/10

现在您需要指定每个文件的特定行数

The version of split in coreutils 8.8 (not yet released) will have the command

split -n l/10

For now you'll need to specify a particular number of lines per file

她说她爱他 2024-10-08 09:54:10

如果您的 csv 文件有 500 行要分成两部分(250+250),

请下载并安装“Cygwin Terminal”

并添加注释“split -l 250 filename.csv”

If your csv file have 500 rows to split two part(250+250)

download and install "Cygwin Terminal"

put comment "split -l 250 filename.csv"

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文