GCP Dataflow 发布/订阅到发布/订阅
我正在使用 gcp pub/sub。如果接受新消息时出现异常,我会将其放入死信队列。 我希望有机会在审核后重新处理邮件。我尝试使用数据流,但它只是在消息到达死信队列时立即发送消息。 有什么建议我该如何解决吗?
I'm using gcp pub/sub. If there was exception while accepting new message, I put it to dead letter queue.
I want to have an opportunity to reprocess message after reviewing. I tried to use Dataflow, but it just sends messages as soon as it came to dead letter queue.
Any advices how can I solve it?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
对于临时解决方案,可以使用数据流将数据从死信主题导出到 BigQuery。查看数据后,使用任何组件处理数据并将其从 BigQuery 重新导出到 pubsub。这样您就可以控制何时导出数据。我知道这并不理想。但短期内会有帮助。
For temporary solution, maybe export data from dead letter topic to BigQuery using dataflow. Once you review the data, use any component to process and re-export data to pubsub from BigQuery. This way you can control when to export data. I know this is not ideal. But will help for short term.