spark 部署
前提环境
- hadoop已部署
- java1.8以上环境
- spark 符合hadoop版本的bin包已解压
进入spark conf目录
- 配置spark-env.sh文件
SPARK_LOCAL_IP=master #本机ip或hostname SPARK_MASTER_IP=master #master节点ip或hostname export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop #hadoop的配置路径 export YARN_CONF_DIR=/usr/local/hadoop/etc/hadoop #yarn路径配置 export JAVA_HOME=/usr/local/jdk export HADOOP_HOME=/usr/local/hadoop
- 配置slaves文件
- 配置spark-env.sh文件