| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 大数据 -> 基于Ubuntu虚拟机的Spark简单集群搭建(二) -> 正文阅读 |
|
[大数据]基于Ubuntu虚拟机的Spark简单集群搭建(二) |
前言在之前的一篇文章中,我介绍了spark集群搭建的第一步,hadoop集群的搭建,在这篇文章中,我会继续讲解Spark集群的搭建过程。 OK,假设我们现在已经成功安装并且配置好了hadoop,接下来,我们开始正式进入Spark的安装过程。 1.Spark安装首先我们需要在master节点上进行Spark的安装。我选择了2.0.2的版本,这里是下载链接。当然你也可以选择其他的版本,但是需要注意的是,如果你选择的Spark版本过高,可能导致无法与你的hadoop版本适配。 OK,完成下载后,进行如下的命令行操作,和hadoop安装时十分类似。
2.环境变量配置同样在master机器上,打开bashrc文件进行环境变量配置。
在文件中添加如下内容
并使其生效。
3.Spark集群配置进入到/usr/local/spark的conf路径下,进行以下文件的配置。 a)slaves文件 但是由于其开始并没有这个文件,而只有slaves.template文件,所以我们需要先拷贝重命名一下。
然后打开这个slaves文件,并将默认的localhos替换为slave(工作节点的主机名),因为我只有一台名为slave的工作机器,因此如下。
b)spark-env.sh文件 同样的,我们需要先将template文件拷贝重命名。
然后在文件中添加如下内容
4.复制到各个从节点在master机器上进行如下操作。
然后进入slave节点中,在终端输入如下指令,安装spark。
5.运行Spark因为我们的Spark是基于hadoop来运行的,因此我们首先需要将hadoop启动起来。 在master机器上运行如下指令启动hadoop
然后我们再再master机器上启动Spark的master进程。
使用jps命令查看master机器上的进程情况,结果如下。 我们发现,除了hadoop的相关进程之外,还多了一个Master进程,证明master节点已经成功启动。 然后我们同样在master机器上再启动worker进程。
然后我们进入我们的slave机器,通过查看jps,结果如下。 ?我们发现,同样的除了hadoop的相关进程,多出来一个Worker进程,证明worker节点也已经成功启动。 OKK,到此为止,关于spark集群的整个搭建过程就差不多结束了,感谢大家的阅读。 参考: |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年5日历 | -2025/5/2 11:29:15- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |