返回介绍

3.1 安装概述

发布于 2024-09-24 23:25:31 字数 2402 浏览 0 评论 0 收藏 0

表格 9 Hadoop 组件安装要点列表

软件安装启动使用
Hadoop七步骤。包括多台主机间免密码访问,安装 JAVA,编译安装 Hadoop,配置 Hadoop 环境变量和配置文件。# 同时启动 YARN 和 HDFS $ sbin/start-all.sh$ hadoop [cmd]
hbase下载二进制;编辑配置文件: hbase-env.sh 、hbase-site.xml 和 regionservers$ bin/start-hbase.sh$ hbase shell
spark下载二进制,解压即可用。# 自带集群模式启动 $ sbin/start-all.sh3 种语言交互环境(bin 目录)pyspark/spark-shell/sparkR 1 个脚本提交命令: ./bin/spark-submit [script]
Hive下载二进制,解压即可用。./bin/Hive 

备注:Hadoop 生态一般依赖于 hdfs,所以一般要先启动 hadoop。

  1. jps 示例:

    denny@denny-ubuntu:~$ jps
    4786 Master
    4900 Worker
    4280 ResourceManager
    4417 NodeManager
    4119 SecondaryNameNode
    5806 Jps
    3925 DataNode
    

    说明:master/worker 是 spark 独立模式集群的进程;NodeManager/SecondaryNameNode/DataNode 是 Hadoop HDFS 的进程;Resource Manager 是 YARN 集群管理调度进程。

  2. 启动 hadoop 命令

start-all.sh = start-dfs.sh + start-yarn.sh

# 1) hdfs:相应启动 namenode, datanode, secondarynamenode,
$ ./sbin/start-dfs.sh

# 2) yarn
$ ./sbin/start-yarn.sh
  1. 启动 spark 命令

start-all.sh = start-master.sh + start-slave.sh

  1. spark master

    /home/denny/source/jdk1.8.0_121/bin/java -cp /home/hadoop/bin/spark-2.1.0-bin-hadoop2.6/conf/:/home/hadoop/bin/spark-
    2.1.0-bin-hadoop2.6/jars/*:/usr/local/hadoop/etc/hadoop/ -Xmx1g org.apache.spark.deploy.master.Master --host denny-ubuntu --port 707
    7 --webui-port 8080
    

2)spark worker

/usr/lib/jvm/java-7-openjdk-i386/jre/bin/java -cp /home/hadoop/bin/spark-2.1.0-bin-hadoop2.6/conf/:/home/hadoop/bin/s
park-2.1.0-bin-hadoop2.6/jars/* -Xmx1g -XX:MaxPermSize=256m org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://denny-ub
untu:7077

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文