安装spark步骤详解
方法/步骤
1
1、进入spark安装目录下的conf文件夹
2
2、修改配置文件名称
3
3、修改slave文件,添加work节点:
4
4、修改spark-env.sh文件,添加如下配置:
5
5、分发spark包
6
6、启动
7
注意:如果遇到 “JAVA_HOME not set” 异常,可以在sbin目录下的spark-config.sh 文件中加入如下配置:
8
7、官方求PI案例
9
8、启动spark shell
10
参数:--master spark://hadoop102:7077指定要连接的集群的master执行WordCount程序
下一篇:安装Spark2.1页面操作