1、解压,编辑spark-env.sh文件
- [root@spark0 conf]# cp spark-env.sh.template spark-env.sh
- [root@spark0 conf]# vim spark-env.sh
- SPARK_MASTER_IP=192.168.6.2
2、设置主节点IP地址:
3、设置从节点IP地址:
添加IP地址:
4、启动:
查看进程:
5、启动spark-shell:
6、运行一个简单的例子:
- val rdd=sc.textFile("/home/spark0/spark.txt").collect
7、网页 http://192.168.6.2:4040/jobs/ 查看任务:
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请
点击举报。