IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> 高可用spark安装与配置 -> 正文阅读

[大数据]高可用spark安装与配置

(1)解压安装包到/usr/local下。

tar -zxf /opt/spark-1.6.3-bin-hadoop2.6.tgz -C /usr/local

(2)进入/usr/local/spark-1.6.3-bin-hadoop2.6/conf。

cd /usr/local/spark-1.6.3-bin-hadoop2.6/conf

3)配置spark-env.sh文件,复制spark-env.sh.template文件,重命名为spark-env.sh。

配置spark-env.sh文件

Java的路径:

JAVA_HOME=/usr/java/jdk1.8.0_151

hadoop的路径:

HADOOP_CONF_DIR=/usr/local/hadoop-2.6.5/etc/hadoop

spark主节点的ip:

SPARK_MASTER_IP=master(或者是ip地址)

spark主节点的端口号:

SPARK_MASTER_PORT=7077

设置每个节点能给予executor的所有内存:

SPARK_WORKER_MEMORY=512m

设置每台机器所用的核数:

SPARK_WORKER_CORES=1

每个executor的内存:

SPARK_EXECUTOR_MEMORY=512m

设置每个executor的核数:

SPARK_EXECUTOR_CORES=1

每个节点的实例(设置每个节点worker能够启动的实例的个数)

SPARK WORKER INSTANCES=1

配置slaves文件,复制slaves.template文件,重命名为slaves。

cp slaves.template slaves

#?在文件中配置如下内容:

slave1

slave2

(5)配置spark-defaults.conf文件,复制spark-defaults.conf.template文件,重命名为spark-defaults.conf

#?在配置文件中添加如下内容:

spark.master ??????????????spark://master:7077 ???spark主节点所在机器的端口,spark://默认写法

spark.eventLog.enabled ????true ??????????????????是否打开任务日志功能,默认为false

spark.eventLog.dir ????????hdfs://master:8020/spark-logs ???任务日志默认存放位置,配置为一个HDFS路径即可

(6)将配置好的Spark目录同步到子节点。

scp -r /usr/local/spark-1.6.3-bin-hadoop2.6/ slave1:/usr/local

scp -r /usr/local/spark-1.6.3-bin-hadoop2.6/ slave2:/usr/local

(7)创建spark-logs目录

hdfs dfs -mkdir /spark-logs

(8)修改环境变量,在各节点的/etc/profile下添加Spark对应路径。

export SPARK_HOME=/usr/local/spark-1.6.3-bin-hadoop2.6

export PATH=$PATH:$SPARK_HOME/bin

????运行“source /etc/profile”使配置生效。

’‘’

启动spark:

cd到spark的安装路径如:cd /usr/local/spark-2.4.0-bin-hadoop2.6/

start-all.sh

start-history-server.sh ?hdfs://master:8020/spark-logs

关闭spark:

cd到spark的安装路径如:cd /usr/local/spark-2.4.0-bin-hadoop2.6/

stop-all.sh

stop-history-server.sh ?hdfs://master:8020/spark-logs

‘’‘

(9)jps检查三个节点是否已开启Hadoop集群,未开启则在master通过命令开启。

$HADOOP_HOME/sbin/start-all.sh

第十步:首先cd $SPARK_HOME进入spark,接着cd进入sbin目录

???????????????????接着启动 ./start-all.sh

查看jps,成功启动master则表示成功

(11)在浏览器查看,检查能否正常监控,两个子节点状态是否与要求一致。

http://master:8080

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-10-23 12:34:35  更:2021-10-23 12:35:18 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年4日历 -2024/4/16 22:48:08-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码