spark-stream中如何依次遍历同一个window中每个batch的数据呢?
批次间隔为10s, 窗口大小为20s, 步长为10s, 这样每个window应该有2个批次的数据,但是我用DStream.foreachRDD()
每次只执行一次,按我理解因为有2个批次数据应该执行两次,但实际测试下来无论window中有多少batch都是只调用一次
如何辨别出每一个批次的数据呢?比如第一个批次执行某个操作,第二个批次执行另一种操作,但他们都在同一个窗口中
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论