AWS 导出任务失败

发布于 2025-01-13 22:48:07 字数 436 浏览 3 评论 0原文

我正在使用 AWS CLI 将去年的各个日志流从 Cloudwatch 日志组导出到 S3 存储桶。但是,面临以下错误。谁能帮我解决这个问题吗?

aws 日志 create-export-task --task-name "任务名称" --log-group-name "日志组" --log-stream-name-prefix "stream" --from "1615374910975" --to "1640995200000" --destination "bucket name" --destination-prefix "path"

注意:我已经将一些日志导出到同一个 s3桶。
保留期:1 年

错误:

此任务可能因导出太大而失败,请缩短请求窗口。

导出任务意外失败。请稍后重试。

I am working on exporting individual log streams of the last year from Cloudwatch log groups to the S3 bucket using AWS CLI. However, facing the below errors. Can anyone help me with this?

aws logs create-export-task --task-name "name of the task" --log-group-name "log group" --log-stream-name-prefix "stream" --from "1615374910975" --to "1640995200000" --destination "bucket name" --destination-prefix "path"

Note: I have already exported some logs to the same s3 bucket.
Retention period: 1 year

Errors:

This task has failed likely due to export being too large, please shorten the request window.

Export task failed unexpectedly. Please try again later.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

往事风中埋 2025-01-20 22:48:07

由于导出大数据和大时间段(每年),我遇到了此错误。然后,我把时间从每年一次缩短为每月一次。这对我有用。

I have faced this error due to exporting large data and large time periods (yearly). Then, I shortened the time period from yearly to monthly. That is works for me.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文