@tsing1226
2016-05-04T15:44:40.000000Z
字数 834
阅读 931
spark
在Spark配置文件夹 conf下创建文件slaves,该文件中必须包含spark worker的所有主机名。
$mkdir -p /conf/slaves
master主机对其他worker机器中的通过SSH进行无密钥访问。如果没有设置SSH无密钥访问,你可以设置SPARK_SSH_FOREGROUND环境变量为每个worker设置密码。
根据SPARK_HOME/bin下的脚本启动/停止Spark集群
注意:这些脚本的执行必须在你想要运行的spark master机器之上,而不是在本地机器上。
4. (可选)配置环境变量
修改配置文件conf/spark-env.sh
5.启动集群
./sbin/start-master.sh
6.将应用程序部署到集群上
./bin/spark-shell --master spark://IP:PORT