在 AWS 中移动大型数据集
我刚刚继承了一个在 EC2 上运行的系统,运行多个实例,并且有一些大数据量 - 2TB+。关于备份这些内容并移动到本地计算机的最佳(最便宜+最快)方法有什么建议吗?我认为这些文件可以有效地 tar 和 zip,但仍然有 100g。我是否应该忘记提取数据并基于 ec2 备份构建新实例?
I have just inherited a system running on EC2, running several instances and there are some large data volumes - 2TB+. Any suggestions on best (cheapest + quickest) way to back these up and move to local machines ? I think the files will tar and zip efficiently but still be several 100g. Should I just forget about pulling the data down and build new instances based on ec2 backups.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
将数据暂存到 S3。然后,您可以直接下载它,或者让 Amazon 使用 AWS Import Export 将其通过物理驱动器发送给您。
Stage the data to S3. You can then directly download it or have Amazon send it to you on a physical drive using AWS Import Export.