IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> 本地调试spark任务demo -> 正文阅读

[大数据]本地调试spark任务demo

window本地连接远程集群,执行spark任务

介绍: 看网上的博客对于本地联调spark任务整个部署流程都不是很全, 所以单独写了一个,同时加深一些影响,方便下次直接使用
功能: window电脑本地连接远程集群, 执行spark任务调试demo

第一步:demo代码

需要修改的参数:

  1. spark.sql.warehouse.dir ,该参数指定了 Hive 的数据存储目录;
  2. hive.metastore.uris;
  3. hive.exec.scratchdir,该参数指定了 Hive 的数据临时文件目录,默认位置为 HDFS 上面的 /tmp/hive 路径下;
package com.hzw.fdc.service

import org.apache.spark.internal.Logging
import org.apache.spark.sql.{DataFrame, SparkSession}

object MainFabIndicatorErrorReportService extends  Logging{

  def main(args: Array[String]): Unit = {

    logWarning(s"----------解析 程序入参 args---------")

    val warehouseLocation = "hdfs://116.63.158.113:8020/user/hive/warehouse"

    //获取SparkSession
    val spark: SparkSession = SparkSession.builder()
      .appName("MainFabIndicatorErrorReportService")
      .master( "local[2]" )
      .config("spark.sql.warehouse.dir",warehouseLocation)
      .config("dfs.client.use.datanode.hostname", "true")
      //.config("fs.defaultFS","hdfs://116.63.158.113/")
      .config("hive.metastore.uris","thrift://139.9.228.88:9083")
      .config("hive.exec.scratchdir", "hdfs://116.63.158.113:8020/user/hive/tmp")
      .config("spark.sql.broadcastTimeout", "36000")
      .config("spark.debug.maxToStringFields", "100")
      .config("spark.sql.autoBroadcastJoinThreshold", "104857600")  //广播表的上限:单位为B,现设置最大广播300M的表;
      .config("spark.sql.broadcastTimeout", "-1")  //广播超时时间: 单位为ms, -1为永不超时;
      .enableHiveSupport()
      .getOrCreate()
    spark.sparkContext.setLogLevel("WARN")


    val hiveResult: DataFrame = spark.sql("select * from default.indicator_error_report_day")
    hiveResult.createTempView("indicator_error_report_day")
    hiveResult.show(20, true)

    spark.stop()
  }

}

第二步: 本地window 环境配置

window 电脑上本地联调spark任务 , 需要 Hadoop :https://github.com/cdarlint/winutils

在这里插入图片描述

下载hadoop文件到window电脑
在这里插入图片描述

配置变量添加
在这里插入图片描述
在这里插入图片描述
本地电脑配置远程的hosts, 需要把远程集群的服务器hostname在本地添加

修改C:\Windows\System32\drivers\etc\hosts 文件
在这里插入图片描述
需要使用管理员权限执行
在这里插入图片描述
执行notepad hosts
在这里插入图片描述

第三步:执行spark任务调试

在这里插入图片描述

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-09-30 00:59:31  更:2022-09-30 00:59:51 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年5日历 -2025/5/2 13:43:54-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码