Spark Standalone 部署

news/2024/5/20 1:30:10 标签: spark, 大数据, linux, 分布式, hdfs

Spark Standalone 部署

  • 解压缩文件
  • 修改配置文件
  • 启动集群
    • Web UI 界面
    • 提交应用
    • 提交参数说明
  • 配置历史服务
    • 配置日志存储路径
    • 添加日志配置
    • 重启
    • 重新执行任务
    • 查看历史服务
  • 配置高可用(HA)
    • 集群规划
    • 停止集群
    • 启动 Zookeeper
    • 启动集群
    • 关闭集群
    • 关闭历史服务

解压缩文件

spark-3.0.0-bin-hadoop3.2.tgz 文件上传到 Linux 并解压缩在指定位置

tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module

在这里插入图片描述

cd /opt/module

在这里插入图片描述

改名 :

mv spark-3.0.0-bin-hadoop3.2 spark-3.0.0-standalone

在这里插入图片描述

修改配置文件

进入解压缩后路径的 conf 目录,修改 slaves.template 文件名为 slaves

mv slaves.template slaves

在这里插入图片描述

修改 slaves 文件,添加 worker 节点

vim slaves

内容 :

cpucode101
cpucode102
cpucode103

在这里插入图片描述

修改 spark-env.sh.template 文件名为 spark-env.sh

mv spark-env.sh.template spark-env.sh

在这里插入图片描述

修改 spark-env.sh 文件,添加 JAVA_HOME 环境变量和集群对应的 master 节点

在这里插入图片描述

vim spark-env.sh

内容 :

export JAVA_HOME=/opt/module/jdk1.8.0_212
SPARK_MASTER_HOST=cpucode101
SPARK_MASTER_PORT=7077

在这里插入图片描述

7077端口,相当于 Hadoop3 内部通信的 8020 端口,此处的端口需要确认自己的 Hadoop 配置

分发 spark-standalone 目录

xsync spark-standalone

在这里插入图片描述

启动集群

确保 Zookeeper 关闭

执行脚本命令:

./sbin/start-all.sh

在这里插入图片描述

查看三台服务器运行进程

jpsall

在这里插入图片描述

Web UI 界面

http://cpucode101:8080

在这里插入图片描述

提交应用

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://cpucode101:7077 \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10
  • –class : 执行程序的主类
  • –master spark://cpucode102:7077 独立部署模式,连接到Spark集群
  • spark-examples_2.12-3.0.0.jar 运行类所在的jar包
  • 数字10 : 程序的入口参数,用于设定当前应用的任务数量

在这里插入图片描述

执行任务时,会产生多个Java进程

jpsall

在这里插入图片描述

执行任务时,默认采用服务器集群节点的总核数,每个节点内存 1024M

在这里插入图片描述

提交参数说明

bin/spark-submit \
--class <main-class>
--master <master-url> \
... # other options
<application-jar> \
[application-arguments]
参数解释可选值举例
– classSpark程序中包含主函数的类
– masterSpark程序运行的模式(环境)模式:local[*]、spark://cpucode101:7077、 Yarn
– executor-memory 1G每个executor可用内存为1G符合集群内存配置即可,具体情况具体分析
– total-executor-cores 2所有 executor 使用的 cpu 核数为 2 个
– executor-cores每个 executor 使用的 cpu 核数
application-jar打包好的应用jar,包含依赖。这个URL在集群中全局可见。 如 : hdfs:// 共享存储系统,如果是file:// path,那么所有的节点的path都包含同样的jar
application-arguments传给 main() 方法的参数

配置历史服务

spark-shell 停止后,就看不到历史任务的运行情况,所以要配置历史服务器记录任务运行情况

修改 spark-defaults.conf.template 文件名为 spark-defaults.conf

mv spark-defaults.conf.template spark-defaults.conf

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6QJgogdb-1678108566828)(../../png/Standalone%E9%83%A8%E7%BD%B2/image-20230203141836141.png)]

配置日志存储路径

修改 spark-default.conf 文件

vim spark-default.conf

内容 :

spark.eventLog.enabled          true
spark.eventLog.dir              hdfs://cpucode101:8020/directory

在这里插入图片描述

需要启动 hadoop 集群,HDFS 上的 directory 目录需要提前存在

myhadoop.sh start

在这里插入图片描述

创建 HDFS 文件夹

hadoop fs -mkdir /directory

在这里插入图片描述

http://cpucode101:9870

在这里插入图片描述

添加日志配置

修改 spark-env.sh 文件,

vim spark-env.sh
export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080 
-Dspark.history.fs.logDirectory=hdfs://cpucode101:8020/directory 
-Dspark.history.retainedApplications=30"
  • 参数1:WEB UI 访问的端口号为 18080
  • 参数2:指定历史服务器日志存储路径
  • 参数3:指定保存 Application 历史记录的个数,如果超过这个值,旧的应用程序信息将被删除,这个是内存中的应用数,而不是页面上显示的应用数

在这里插入图片描述

分发配置文件

xsync conf

在这里插入图片描述

重启

重启动 Hadoop 集群

./sbin/start-all.sh

在这里插入图片描述

重启动历史服务

./sbin/start-history-server.sh

在这里插入图片描述

重新执行任务

./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://cpucode101:7077 \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

在这里插入图片描述

查看历史服务

http://cpucode101:18080

在这里插入图片描述

配置高可用(HA)

当集群中只有一个 Master 节点,就存在单点故障问题

为了解决单点故障问题,需要在集群中配置多个Master节点,一旦处于活动状态的 Master 发生故障时,由备用 Master 提供服务,保证作业可以继续执行

高可用采用 Zookeeper 设置

高可用原理 :

在这里插入图片描述

集群规划

cpucode101cpucode102cpucode103
SparkMasterMaster
ZookeeperZookeeperZookeeper
WorkerWorkerWorker

停止集群

./sbin/stop-all.sh

在这里插入图片描述

启动 Zookeeper

zk.sh start

在这里插入图片描述

修改 spark-env.sh 文件添加如下配置

注释如下内容:

#SPARK_MASTER_HOST=cpucode101
#SPARK_MASTER_PORT=7077

添加如下内容:

#Master监控页面默认访问端口为8080,
#但是可能会和Zookeeper冲突,所以改成8989,
#也可以自定义,访问UI监控页面时请注意
SPARK_MASTER_WEBUI_PORT=8989

export SPARK_DAEMON_JAVA_OPTS="
-Dspark.deploy.recoveryMode=ZOOKEEPER 
-Dspark.deploy.zookeeper.url=cpucode101,cpucode102,cpucode103
-Dspark.deploy.zookeeper.dir=/spark"

在这里插入图片描述

分发配置文件

xsync conf/

在这里插入图片描述

启动集群

./sbin/start-all.sh

在这里插入图片描述

在这里插入图片描述

启动 cpucode102 的单独 Master 节点,此时 cpucode102 节点 Master 状态处于备用状态

ssh cpucode102 /opt/module/spark-3.0.0-standalone/sbin/start-master.sh

在这里插入图片描述

在这里插入图片描述

提交应用到高可用集群

在这里插入图片描述

./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://cpucode101:7077,cpucode102:7077 \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

在这里插入图片描述

同时 停止 cpucode101 的 Master 资源监控进程

sudo kill -9 10397

在这里插入图片描述

在这里插入图片描述

查看 cpucode102 的Master 资源监控 Web UI,稍等一段时间后,cpucode102 节点的 Master 状态

在这里插入图片描述

关闭集群

./sbin/stop-all.sh

在这里插入图片描述

关闭 cpucode102 主

ssh cpucode102 /opt/module/spark-3.0.0-standalone/sbin/stop-master.sh

在这里插入图片描述

关闭历史服务

./sbin/stop-history-server.sh

在这里插入图片描述


http://www.niftyadmin.cn/n/128423.html

相关文章

IOS - 抓包通杀篇

IOS中大多数情况&#xff0c;开发者都会使用OC提供的api函数&#xff0c;CFNetworkCopySystemProxySettings来进行代理检测&#xff1b; CFNetworkCopySystemProxySettings 检测函数直接会检测这些ip和端口等&#xff1a; 采用直接附加页面进程&#xff1a; frida -UF -l 通…

一种新的 Mini Micro 编程方式

我很高兴正式宣布MiniBASIC的发布&#xff0c;它是 1980 年代经典 BASIC 编程语言的干净、强大的新实现。MiniBASIC 可在 itch.io 上在线使用&#xff0c;或下载用于 Windows、Mac 或 Linux。它也是完全开源的&#xff08;托管在GitHub上&#xff09;。一种新的 Mini Micro 编程…

关于递归处理,应该怎么处理,思路是什么?

其实问题很简单&#xff0c;就是想要循环遍历整个data对象&#xff0c;来实现所有name转成label&#xff0c;但是想到里面还有children属性&#xff0c;整个children里面可能还会嵌套很多很多的name&#xff0c;如此循环&#xff0c;很难搞&#xff0c;知道使用递归&#xff0c…

作为一个新人,怎样学习嵌入式Linux?

作为一个新人&#xff0c;怎样学习嵌入式Linux&#xff1f;被问过太多次&#xff0c;特写这篇文章来回答一下。 在学习嵌入式Linux之前&#xff0c;肯定要有C语言基础。汇编基础有没有无所谓(就那么几条汇编指令&#xff0c;用到了一看就会)。 C语言要学到什么程度呢&#x…

盒子模型的简介

盒子的组成 一个盒子由外到内可以分成四个部分&#xff1a;margin&#xff08;外边距&#xff09;、border&#xff08;边框&#xff09;、padding&#xff08;内边距&#xff09;、content&#xff08;内容&#xff09;。会发现margin、border、padding是css属性&#xff0c;因…

如何成为程序员中的牛人/高手?

目录 一、牛人是怎么成为牛人的&#xff1f; 二、关于牛人的一点看法 三、让程序员与业务接壤&#xff0c;在开发团队中“升级” 四、使用低代码平台 目标效果 五、最后 祝伟大的程序员们梦想成真、码到成功&#xff01; 一、牛人是怎么成为牛人的&#xff1f; 最近在某…

LeetCode 1599. Maximum Profit of Operating a Centennial Wheel【数组,模拟】中等

本文属于「征服LeetCode」系列文章之一&#xff0c;这一系列正式开始于2021/08/12。由于LeetCode上部分题目有锁&#xff0c;本系列将至少持续到刷完所有无锁题之日为止&#xff1b;由于LeetCode还在不断地创建新题&#xff0c;本系列的终止日期可能是永远。在这一系列刷题文章…

网上鲜花交易平台,可运行

文章目录项目介绍一、项目功能介绍1、用户模块主要功能包括&#xff1a;2、商家模块主要功能包括&#xff1a;3、管理员模块主要功能包括&#xff1a;二、部分页面展示1、用户模块部分功能页面展示2、商家模块部分功能页面展示3、管理员模块部分功能页面展示三、部分源码四、底…