Windows Azure - 自动负载平衡 - 分区

发布于 2024-09-02 05:38:18 字数 633 浏览 8 评论 0原文

我正在浏览一些视频。我发现 Windows Azure 会根据分区键将 blob 分组到分区中,并自动在其服务器上对这些分区进行负载平衡。 Blob 的分区键是 Blob 名称。使用 blob 名称,azure 将自动进行分区。

现在,我的问题是,我可以让 azure 根据容器名称进行分区吗?我希望我的分区键是容器名称。

例如,我有一个存储帐户。其中我有 2 个名为 container1container2 的容器。在container1中,我有1000个名为1.txt、2.txt、3.txt、.......、501.txt、502.txt、..... 999.txt、1000的文件。 txt 在container2中,我还有另外1000个名为1001.txt、1002.txt、1003.txt、.......、1501.txt、1502.txt、...的文件。 . 1999.txt, 2000.txt

现在,Windows Azure 会根据 blob 名称生成 2000 个分区并通过多个服务器为我服务吗?

如果Azure根据容器名称进行分区不是更好吗?一台服务器上的container1 和另一台服务器上的container2。

I was going through some videos. I found that Windows Azure will group the blobs into partitions based on the partition key and will Automatically Load Balance these partitions on their servers. The partition key for a blob is blob name. Using the blob name, azure will automatically do partitions.

Now, My question is that Can I able to make the azure to do partitions based on the Container Name. I wanted my partition key to be container name.

For example, I have a storage account. In that I have 2 containers named container1 and container2. In container1, I have 1000 files named 1.txt, 2.txt, 3.txt, ......., 501.txt, 502.txt, ..... 999.txt, 1000.txt and in container2, I have another 1000 files named 1001.txt, 1002.txt, 1003.txt, ......., 1501.txt, 1502.txt, ..... 1999.txt, 2000.txt

Now, Will Windows Azure will generate 2000 partitions based on the blob name and serve me through several servers???

Won't it be better if Azure partitions based on the Container name? container1 on one server and conatiner2 on another.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

梦断已成空 2024-09-09 05:38:19

这取决于你所说的更好是什么意思。如果您为单独的服务器和硬盘驱动器付费,我可能会同意您的观点 - 但使用天蓝色存储,您只需为您使用的空间大小付费。如果他们选择将其分布在多台计算机上以获得最佳性能(目标 blob 访问性能为“高达 60 MB/秒”),那么这与您的账单无关。

只是好奇,为什么你认为更多的分区不好?对我来说,文件访问似乎是一件好事。

如果我有 2000 个文件想要提供最具可扩展性的访问,我认为将这 2000 个文件分布在 2000 台机器/硬盘上将是性能最佳且可扩展的解决方案...而不是 2 个服务器/硬盘(以及什么)如果翻倍到 4000 会发生吗?)。

我发现这篇 blob 文章内容非常丰富(尤其是底部的分区和可扩展性以及性能目标部分下的区域):Windows Azure 存储抽象及其可扩展性目标

That depends on what you mean by better. If you are paying for the individual servers and hard drives, I might agree with you - but with azure storage you just pay for the size of the space you use. If they choose to spread it across multiple machines to get the best perf (target blob access perf is "Up to 60 MBytes/sec") then it doesn't matter with your bill.

Just curious, why do you think having more partions is bad? To me it seems like with file access it is a good thing.

If I have 2000 files that I want to provide the most scalable access to, I would think having those 2000 files spread across 2000 machines/hard drives would be the best performing and scalable solution ... not 2 servers/hard drives (and what happens if that doubles to 4000?).

I found this blob article pretty informative (especially the area under the Partitions and Scalability and Performance Targets sections toward the bottom):Windows Azure Storage Abstractions and their Scalability Targets

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文