搭建spark伪分布式需要先搭建hadoop吗?如果要先搭建hadoop的话,hadoop也是搭建伪分布式吗
新手一枚,求一个大神教一下怎么搭建spark
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
新手一枚,求一个大神教一下怎么搭建spark
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(2)
Spark和Hadoop是完全两种集群。Spark是分布式计算框架,Hadoop是分布式计算/存储/调度框架。Spark可以无缝访问存在HDFS上的数据。
所以两个集群如何搭建是没有关系的。Spark只关心如何访问HDFS,就是hdfs://namenode:port/能访问就行。
当然Spark作业提交到YARN那是另外一回事了。
https://www.google.com/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=spark1.6.1+%E9%85%8D%E7%BD%AE 搜索一下会死啊