高手们, 工业级应用,求快速删除百万级文件的方法?

发布于 2022-07-25 21:02:53 字数 358 浏览 13 评论 6

一个应用:
很多分区(reiserFS), 每个分区文件满后需要删除,重新接受文件,

但是分区内文件数太大(500万左右),每次删除文件耗时过长,而且容易宕机,破坏文件系统,

采用 格式化分区的方法代替删除整个分区文件方法,但是 频繁 的umount/mount的过程不是什么可靠,

所以异想天开,

1。能不能不要卸载直接格式化分区,

或者

2。求快速删除百万级文件的方法?

欢迎赐教!

[ 本帖最后由 studyonly 于 2006-8-31 10:53 编辑 ]

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(6

简单爱 2022-07-27 01:02:31

还有,最好写个脚本加到cron里,定期prune过期文件。周期越短,服务越稳定。

筑梦 2022-07-27 01:00:14

原帖由 studyonly 于 2006-8-31 10:48 发表
一个应用:
很多分区(reiserFS), 每个分区文件满后需要删除,重新接受文件,

但是分区内文件数太大(500万左右),每次删除文件耗时过长,而且容易宕机,破坏文件系统,

采用 格式化分区的方法代替删除整 ...

直接用reiserfs提供的用户接口把所有的inode和block引用清零。假如你把自己的代码优化一下,这样可能会比mkfs.reiserfs还快。

mkfs或许很好,省心,省力。

挽容 2022-07-27 00:51:26

不知道可以在平时就是空间没满的时候就判断出不需要的文件就进行删除呢?
比如每天定时运行一个程序,自动检查文件,发现是不需要的就删除掉.这样把500万的大任务分解下去,就容易办多了.

一次性删除百万文件,都是够呛的.

り繁华旳梦境 2022-07-27 00:24:38

原帖由 wolfop 于 2006-8-31 15:07 发表
显然可以直接umount newfs。位什么频繁mount /umount不可靠?

很多时候,mount会失败,是不是跟存储柜有关 ?

诗笺 2022-07-26 23:58:43

dd

骑趴 2022-07-26 16:21:41

显然可以直接umount newfs。位什么频繁mount /umount不可靠?

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文