@tsing1226
        
        2016-05-04T07:44:40.000000Z
        字数 834
        阅读 1094
    spark
在Spark配置文件夹 conf下创建文件slaves,该文件中必须包含spark worker的所有主机名。
$mkdir -p /conf/slaves
master主机对其他worker机器中的通过SSH进行无密钥访问。如果没有设置SSH无密钥访问,你可以设置SPARK_SSH_FOREGROUND环境变量为每个worker设置密码。
根据SPARK_HOME/bin下的脚本启动/停止Spark集群
注意:这些脚本的执行必须在你想要运行的spark master机器之上,而不是在本地机器上。 
4. (可选)配置环境变量 
修改配置文件conf/spark-env.sh 
5.启动集群
./sbin/start-master.sh
6.将应用程序部署到集群上
./bin/spark-shell --master spark://IP:PORT
