博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Centos下基于Hadoop安装Spark(分布式)
阅读量:6715 次
发布时间:2019-06-25

本文共 2125 字,大约阅读时间需要 7 分钟。

前提

Hadoop可成功在分布式系统下启动

 

下载scala  链接是

Master和其他子主机下

wget https://downloads.lightbend.com/scala/2.12.7/scala-2.12.7.tgz

解压

tar -zxvf scala-2.12.7.tgz

将解压后的文件复制到自己的文件路径

cp -r ./scala-2.12.7 /usr/scala

配置环境变量

vim /etc/profile

添加

export SCALA_HOME=/usr/scalaexport PATH=$PATH:$SCALA_HOME/bin

执行

. /etc/profile

使之生效,后测试

scala -version
[root@xinglichao sbin]# scala -versionScala code runner version 2.12.7 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.

表示成功

下载Spark  链接是(还有很多镜像可供使用)

在Master主机上使用wget下载

wget http://mirrors.shu.edu.cn/apache/spark/spark-2.3.2/spark-2.3.2-bin-hadoop2.7.tgz

同scala一样,要执行解压,复制到指定文件夹

tar -zxvf spark-2.3.2-bin-hadoop2.7.tgzcp ./spark-2.3.2-bin-hadoop2.7/* /usr/spark/

 进入/usr/spark/conf

配置spark-env.sh和slaves

cp spark-env.sh.template spark-env.shcp slaves.template slaves
vim spark-env.sh

添加配置

#java路径 export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-3.b13.el7_5.x86_64/jre#scala路径 export SCALA_HOME=/usr/scala #hadoop路径export HADOOP_HOME=/usr/hadoop/hadoop-2.7.5#指向包含Hadoop集群的(客户端)配置文件的目录,运行在Yarn上配置此项   export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.7.5/etc/hadoop#指定默认master的ip或主机名export SPARK_MASTER_HOST=xinglichao#指定maaster提交任务的默认端口为7077    export SPARK_MASTER_PORT=7077#指定masster节点的webui端口       export SPARK_MASTER_WEBUI_PORT=8080#每个worker从节点的端口(可选配置)       export SPARK_WORKER_PORT=7078#每个worker从节点的wwebui端口(可选配置)  export SPARK_WORKER_WEBUI_PORT=8081#每个worker从节点能够支配的内存数 export SPARK_WORKER_MEMORY=1g#允许Spark应用程序在计算机上使用的核心总数(默认值:所有可用核心)export SPARK_WORKER_CORES=1#每个worker从节点的实例(可选配置) export SPARK_WORKER_INSTANCES=1
vim slaves
子主机的主机名或者ip

将spark分发到子节点主机

scp /usr/spark/* root@192.168.0.102:/usr/spark/

在Master上启动spark

[root@xinglichao sbin]# pwd/usr/spark/sbin[root@xinglichao sbin]# ./start-all.sh starting org.apache.spark.deploy.master.Master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-xinglichao.outzhangpeng: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-zhangpeng.out[root@xinglichao sbin]#

jps查看进程


 

本节完......

转载于:https://www.cnblogs.com/xinglichao/p/9838997.html

你可能感兴趣的文章
ijkPlayer 集成
查看>>
Python 文件 writelines() 方法
查看>>
背水一战 Windows 10 (76) - 控件(控件基类): Control - 基础知识, 焦点相关, 运行时获取 ControlTemplate 和 DataTemplate 中的元素...
查看>>
比特币的区块结构解析
查看>>
图像滤镜艺术---Glow Filter发光滤镜
查看>>
[离散时间信号处理学习笔记] 14. 多采样率信号处理
查看>>
create-react-app 引入 antd 及 解决 antd 样式无法显示的bug
查看>>
获取图形验证码
查看>>
值得 .NET 开发者了解的15个特性
查看>>
Fresco-Facebook的图片加载框架的使用
查看>>
Android Runtime Stats
查看>>
InstallShield卸载状态
查看>>
CentOS7 修改主机名
查看>>
小工具:天气查询 Vs自定义设置 DevGridControl中GridView排序问题 小工具:火车票查询 小工具:邮件发送 小工具:截图&简单图像处理...
查看>>
11.QT-布局管理器(Box,Grid,Form,Stacked)
查看>>
用 Anaconda 完美解决 Python2 和 python3 共存问题
查看>>
易语言飞扬学习
查看>>
Android 自定义Android ORM 框架greenDAO数据库文件的路径
查看>>
python程序打包成.exe
查看>>
oc懒加载 & swift lazy
查看>>