怎样安装使用Standalone模式
1、进入spark安装目录下的conf文件夹

2、修改配置文件名称

3、修改slave文件,添加work节点:

4、修改spark-env.sh文件,添加如下配置:

5、分发spark包

6、启动

7、网页查看:hadoop102:8080
注意:如果遇到 “JAVA_HOME not set” 异常,可以在sbin目录下的spark-config.sh 文件中加入如下配置:

8、官方求PI


9、启动spark shell

10、参数:--master spark://hadoop102:7077指定要连接的集群的master
执行WordCount程序

声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。
阅读量:60
阅读量:87
阅读量:21
阅读量:129
阅读量:74