sparkStreaming中使用redis造成连接数高居不下的问题
在sparkStreaming中使用redis,创建jedisPool线程池,然后使用完毕后,通过jedis.close关闭连接,送回连接池,使用的是单例的创建JedisPool的方式,但是为什么redis的连接数还是一直在增加,不下降?各位有什么好的解决方案么?
线程池创建的方式:
redis连接数
虽然有升有降,但整体趋势是往上增加的
有遇到过同样问题的么?求解答呢
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
每次forecachpartition操作时,都会创建一个redispool,而不是只创建一次,所以每次用完要手动close掉,不然会不断增加连接数。