多语言展示
当前在线:1931今日阅读:31今日分享:25

怎样安装spark

安装spark步骤详解
方法/步骤
1

1、进入spark安装目录下的conf文件夹

2

2、修改配置文件名称

3

3、修改slave文件,添加work节点:

4

4、修改spark-env.sh文件,添加如下配置:

5

5、分发spark包

6

6、启动

7

注意:如果遇到 “JAVA_HOME not set” 异常,可以在sbin目录下的spark-config.sh 文件中加入如下配置:

8

7、官方求PI案例

9

8、启动spark shell

10

参数:--master spark://hadoop102:7077指定要连接的集群的master执行WordCount程序

推荐信息