Spark 环境安装
一、准备工作
二、解压安装
1、上传 spark 安装包到/opt/soft目录,进入 该目录 下,执行如下命令:
tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz -C /usr/local/src
三、配置环境变量
export SPARK_HOME=/usr/local/src/spark
export PATH=
P
A
T
H
:
PATH:
export PATH=$PATH:$SPARK_HOME/sbin
四、 修改spark–env.sh信息
export JAVA_HOME=/usr/local/src/jdk
export SPARK_MASTER_HOST=master
export SPARK_MASTER_PORT=7077
五、 修改配置文件slaves
六、 启动spark
start-all.sh
cd /usr/local/src/spark/sbin/
./start-all.sh
七、查询pi的值
./spark–submit –master spark://master:7077 —class org.apache.spark.examples.SparkPi /usr/local/src/spark/examples/jars/spark–examples_2.11-2.1.1.jar
原文地址:https://blog.csdn.net/weixin_43977307/article/details/134797692
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_47288.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。