上云无忧 > 文档中心 > 天翼云数据湖探索使用教程 - 创建Spark作业
数据湖探索
天翼云数据湖探索使用教程 - 创建Spark作业

文档简介:
本章节主要介绍创建Spark作业。 Spark作业编辑页面支持执行Spark作业,为用户提供全托管式的Spark计算服务。 在总览页面,单击Spark作业右上角的“创建作业”,或在Spark作业管理页面,单击右上角的“创建作业”,均可进入Spark作业编辑页面。
*产品来源:中国电信天翼云。免费试用 咨询热线:400-826-7010,为您提供专业的售前咨询,让您快速了解云产品,助您轻松上云! 微信咨询
  免费试用、价格特惠

Spark作业编辑页面支持执行Spark作业,为用户提供全托管式的Spark计算服务。

在总览页面,单击Spark作业右上角的“创建作业”,或在Spark作业管理页面,单击右上角的“创建作业”,均可进入Spark作业编辑页面。

进入Spark作业编辑页面,页面会提示系统将创建DLI临时数据桶。该桶用于存储使用DLI服务产生的临时数据,例如:作业日志、作业结果等。如果不创建该桶,将无法查看作业日志。桶名称为系统默认。

如果不需要创建DLI临时数据桶,并且希望不再收到该提示,可以勾选“下次不再提示”并单击“取消”。

前提条件

1.请先将所要依赖的程序包通过“数据管理>程序包管理”页面上传至对应的OBS桶中。具体操作请参考创建程序包。

2.创建Spark作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS Mongo等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。

  • 当前Spark作业支持访问的外部数据源详情请参见跨源连接和跨源分析概述。
  • 创建跨源连接操作请参见增强型跨源连接。

界面说明

左侧导航栏

在创建Spark作业页面,左侧导航栏包括“队列”页签和“程序包”页签。

详见下表:左侧导航栏说明

序号 页签/按键 页签/按键名称 描述
1 队列.png 队列 显示已有的队列。
2 程序包.png 程序包 显示已有的程序包。
3 模板 模板 Spark作业模板。
4 创建.png 创建 创建队列/程序包。
5 刷新.png 刷新 包括刷新已有的队列和程序包列表。
6 搜索.png 搜索 在程序包页签,可以输入程序包名称进行搜索。

作业编辑窗口

在作业编辑窗口,可以选择使用“表单模式”或者“API模式”进行参数设置。

以下以“表单模式”页面进行说明,“API模式”即采用API接口模式设置参数及参数值,具体请参考《数据湖探索API参考》。

详见下表:运行队列参数说明

参数名称 参数描述
队列 下拉选择要使用的队列。

作业配置:具体参数请参考下表

参数名称 参数描述
作业名称 设置作业名称。
应用程序 选择需要执行的程序包。包括“.jar”和“.py”两种类型。
主类 输入主类名称。当应用程序类型为“.jar”时,主类名称不能为空。
应用程序参数 用户自定义参数,多个参数请以Enter键分隔。应用程序参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量key为batch_num,可以使用{{batch_num}},在提交作业之后进行变量替换。
Spark参数 以“key=value”的形式设置提交Spark作业的属性,多个参数以Enter键分隔。Spark参数value支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量key为custom_class,可以使用 "spark.sql.catalog"={{custom_class}},在提交作业之后进行变量替换。
说明
Spark作业不支持自定义设置jvm垃圾回收算法。
依赖jar包 运行spark作业依赖的jars。可以输入jar包名称,也可以输入对应jar包文件的的OBS路径,格式为:obs://桶名/文件夹路径名/包名。
依赖python文件 运行spark作业依赖的py-files。可以输入Python文件名称,也可以输入Python文件对应的OBS路径,格式为:obs://桶名/文件夹路径名/文件名。
其他依赖文件 运行spark作业依赖的其他files。可以输入依赖文件名称,也可以输入对应的OBS路径,格式为:obs://桶名/文件夹路径名/文件名。
依赖分组 在创建程序包时,如果选择了分组,在此处选择对应的分组,则可以同时选中该分组中的所有程序包和文件。创建程序包操作请参考创建程序包。
访问元数据 是否通过Spark作业访问元数据。
是否重试 作业失败后是否进行重试。 选择“是”需要配置以下参数: “最大重试次数”:设置作业失败重试次数,最大值为“100”。
高级配置 暂不配置现在配置:包括以下两项参数− 选择依赖资源:具体参数请参考下表。− 计算资源规格:具体参数请参考下表。

详见下表:选择依赖资源参数说明

参数名称 参数描述
Module名称 DLI系统提供的用于执行跨源作业的依赖模块访问各个不同的服务,选择不同的模块:MRS HBase: sys.datasource.hbaseDDS:sys.datasource.mongoMRS OpenTSDB: sys.datasource.opentsdbDWS: sys.datasource.dwsRDS MySQL: sys.datasource.rdsRDS PostGre: sys.datasource.rdsDCS: sys.datasource.redisCSS: sys.datasource.css
资源包 运行spark作业依赖的jar包。

详见下表:计算资源规格参数说明

参数名称 参数描述
资源规格 下拉选择所需的资源规格。系统提供3种资源规格供您选择。资源规格中如下配置项支持修改:Executor内存Executor CPU核数Executor个数driver CPU核数driver内存 最终配置结果以修改后数据为准。
Executor内存 在所选资源规格基础上自定义Executor内存规格。
Executor CPU核数 在所选资源规格基础上自定义Executor CPU核数。
Executor个数 在所选资源规格基础上自定义Executor个数。
driver CPU核数 在所选资源规格基础上自定义Driver CPU核数。
driver内存 在所选资源规格基础上自定义Driver内存规格。
说明

Spark作业参数计算:

  • CU数=driver CPU核数+Executor个数 x Executor CPU核

注意

因为本身DLI集群管理面和driver都会占用一部分CU资源,“Executor个数 x Executor CPU核数”实际要小于队列的计算资源CU数。

  • 内存数=driver内存+(Executor个数 x Executor内存)

创建Spark作业步骤

  1. 在Spark作业编辑页面中,输入相关参数,具体请参考上方关于Spark作业编辑窗口的说明。
  2. 单击Spark作业编辑页面右上方“执行”,提交作业,页面显示“批处理作业提交成功”。
  3. (可选)可在“Spark作业”管理页面查看提交作业的状态及日志。
相似文档
  • 本章节主要介绍队列管理概述。 队列: DLI服务中的队列即为计算资源,计算资源是使用DLI服务的基础,用户执行的一切作业都需要使用计算资源。 当前DLI服务包括“SQL队列”和“通用队列”两种队列类型。
  • 本章节主要介绍队列权限管理。 队列权限管理操作场景: 针对不同用户,可以通过权限设置分配不同的队列,不同用户之间的作业效率互不影响,保障作业性能。 管理员用户和队列的所有者拥有所有权限,不需要进行权限设置且其他用户无法修改其队列权限。
  • 本章节主要介绍创建队列。 执行作业前需要先创建队列。 说明: 用户首次使用子帐号创建队列时,需要先使用用主帐号登录控制台,在DLI的数据库中保持记录,才能创建队列。
  • 本章节主要介绍删除队列。 根据实际使用情况,您可以通过删除操作释放队列。 说明: 如果待删除的队列中有正在提交或正在运行的作业,将不支持删除操作。 删除队列不会导致您数据库中的表数据丢失。
  • 本章节主要介绍修改队列网段。 使用增强型跨源时,如果DLI队列的网段和用户数据源的网段发生冲突,您可以通过修改网段操作更改队列的网段。
官方微信
联系客服
400-826-7010
7x24小时客服热线
分享
  • QQ好友
  • QQ空间
  • 微信
  • 微博
返回顶部