返回介绍

Why and when does distributed computing matter?

发布于 2025-02-25 23:44:05 字数 888 浏览 0 评论 0 收藏 0

  • data growing exponentially
    • Whole genome sequencing 100-200 GB per BAM file
    • NYSE 1 TB of trade data per day
    • Large Hadron Collider 15 PB per year (1 PB = 1,000 TB)
  • storage \(\gg\) access speeds
    • how long does it take to read or write a 1 TB disk?
      • parallel reads can result in large speed ups
  • most relevant for big data
    • 1 billion rows
    • \(\gg\) 128 MB (default block size for Hadoop)
  • other solutions may be more suitable
    • shared memory parallel system
    • Relational databases (seek time is bottleneck)
    • Grid computing for compute-intensive jobs where netwrok bandwidth is not bottleneck (HPC, MPI)
    • Volunteer computing (compute time \(\gg\) data transfer time)

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文