Hbase-利用mapreduce往hbase写入数据的时候发生Unable to find region
我用mapreduce往hbase数据表中插入数据,大约2KW条数据,每次插入到500W左右的时候就发生Unable to find region错误。例如我是往data2里插入数据。
抛出的异常为:
org.apache.hadoop.hbase.client.NoServerForRegionException: Unable to find region for data2,04684015,99999999999999 after 10 tries.
data节点还有点剩余空间:
Datanodes available: 1 (1 total, 0 dead)
Name: 192.168.192.227:50010
Decommission Status : Normal
Configured Capacity: 40160919552 (37.4 GB)
DFS Used: 23629361152 (22.01 GB)
Non DFS Used: 6461186048 (6.02 GB)
DFS Remaining: 10070372352(9.38 GB)
DFS Used%: 58.84%
DFS Remaining%: 25.08%
Last contact: Fri Nov 16 09:44:19 CST 2012
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
问题解决了吗? 我用sqoop将mysql导入hbase出现这个问题!怎么解决的?
创建表的时候预分区
http://blog.csdn.net/kirayuan/article/details/8225509
是由于Region Split或Region Blance等导致Region的短暂下线,此时客户端与HBase集群进行RPC操作时会抛出NotServingRegionException异常