如何标准化在不同机器上测量的数据速率(作业运行时间/作业执行期间读取和写入的字节数)值?

发布于 2024-12-19 13:27:59 字数 118 浏览 2 评论 0原文

这些机器可能具有不同数量的 CPU、不同的负载和不同的 RAM 大小。 在这种情况下,我如何标准化获得的数据速率值,以便我可以知道特定系统比其他系统具有更好的 IO 能力? 谁能详细告诉我吗?

谢谢, 阿伦

The machines may have different number of CPUs, different load and different RAM sizes.
In that case how do i normalize the data rate values obtained so that i can tell a particular system is better IO capable than the other?
Can anyone tell me in detail ?

Thanks,
Arun

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

手心的海 2024-12-26 13:27:59

我认为你不能将其标准化为任意“工作”。有多少工作是受 CPU 限制的? I/O 限制是多少?如果作业主要从文件中读取,则机器上的整体 CPU 负载可能并不重要。仅当您需要大量 RAM 时,RAM 大小才重要,并且您的操作系统可能会限制分配给单个进程的 RAM 大小,因此系统上的 RAM 总量无关紧要。

如果您想测量系统的 I/O 能力,请编写(或查找)一些测量 I/0 绑定操作的基准测试(例如,将各种 sizer 的块连续写入磁盘,或通过套接字发送数据等)并在系统正常运行时(即未进行防病毒扫描或下载更新时)运行它们。您获得的结果应该具有可比性,无需对它们进行标准化(尽管它们显然会受到变化,因此您需要在每个系统上进行多次运行,然后查看平均值和标准差)。

I don't think you can normalize this for an arbitrary "job". How much of the job is CPU bound? How much is I/O bound? The overall CPU load on a machine may not matter if job mainly reading from a file. RAM size only matters when you need a lot of it, and your OS may put limits on how much may be allocated to a single process, so the total amount of RAM on a system is irrelevant.

If you want to measure the I/O capabilities of a system, write (or find) some benchmarks that measure I/0-bound operations (e.g. that continuously write chunks of various sizer to disk, or send data through a socket, etc) and run them on the system under it's normal operation (i.e. when it's not doing an anti virus scan or downloading updates). The results you get should be comparable without the need to normalize them (though they'll will obviously be subject to variation, so you'll need to do several runs on each system and then look at the means and standard deviations).

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文