写入文件非常快,覆盖文件需要更长的时间

发布于 2024-08-20 03:24:25 字数 630 浏览 4 评论 0原文

我在 Linux Fedora Core 11< 上发现 PHP 脚本存在一些性能问题/a> 框,所以我运行了一些命令来寻找瓶颈。我注意到的一件事是写入文件非常快:

[root@localhost ~]# dd if=/dev/zero of=/root/myGfile bs=1024K count=1000
1000+0 records in
1000+0 records out
1048576000 bytes (1.0 GB) copied, 1.0817 s, 969 MB/s

但是覆盖它需要更长的时间;

[root@localhost ~]# dd if=/dev/zero of=/root/myGfile bs=1024K count=1000
1000+0 records in
1000+0 records out
1048576000 bytes (1.0 GB) copied, 23.0658 s, 45.5 MB/s

这是为什么? (我可以重复这些结果。)

I have been seeing a few performance problems with a PHP script on a Linux Fedora Core 11 box, so I was running some commands to look for a bottleneck. One thing I noticed was that writing a file is pretty quick:

[root@localhost ~]# dd if=/dev/zero of=/root/myGfile bs=1024K count=1000
1000+0 records in
1000+0 records out
1048576000 bytes (1.0 GB) copied, 1.0817 s, 969 MB/s

But overwriting it takes much longer;

[root@localhost ~]# dd if=/dev/zero of=/root/myGfile bs=1024K count=1000
1000+0 records in
1000+0 records out
1048576000 bytes (1.0 GB) copied, 23.0658 s, 45.5 MB/s

Why is that? (I can repeat those results.)

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

没企图 2024-08-27 03:24:25

第一次写入文件时,它会缓冲在系统内存中。

第二次写入文件时,文件被截断,由于某种原因,这会导致所有脏页写入磁盘。是的,这看起来很愚蠢:当文件刚刚被截断为长度零时,为什么要写出文件数据?

您可以通过使第二个 dd 只写入 4k 数据来演示这一点。需要同样长的时间。

您还可以使用 conv=notrunc 强制 dd 不截断。

The first time you write the file, it's buffered in system memory.

The second time you write the file, the file is truncated, which for some reason causes all of the dirty pages to get written out to disk. Yes, this seems stupid: why write out file data when that file just got truncated to length zero?

You can demonstrate this by making the second dd only write, say, 4k of data. It takes just as long.

You can also force dd to not truncate by using conv=notrunc.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文