赞
踩
目录
sparkctl
是 Spark Operator 的一个命令行工具,用于创建、列出、检查状态、获取日志和删除SparkApplication
。它还可以进行从本地端口到 Spark Web UI 端口的端口转发,以访问驱动程序上的 Spark Web UI。每个功能都是作为子命令实现的sparkctl
。
以下全局标志可用于所有子命令:
--namespace
:(s) 的 Kubernetes 命名空间SparkApplication
。默认为default
.--kubeconfig
:访问 Kubernetes API 服务器的配置文件的路径。默认为 $HOME/.kube/config
create
sparkctl
是用于创建对象的子命令SparkApplication
。创建对象有两种方法SparkApplication
。一种是在给定 YAML 文件SparkApplication
指定的命名空间中解析并创建对象。--namespace
这样就create
解析了YAML文件,并将解析后的SparkApplication
对象发送到Kubernetes API服务器。这种方式的用法如下所示:
用法:
$ sparkctl create <path to YAML file>
另一种方法是SparkApplication
从命名创建对象ScheduledSparkApplication
以手动强制运行ScheduledSparkApplication
.这种方式的用法如下所示:
用法:
$ sparkctl create <name of the SparkApplication> --from <name of the ScheduledSparkApplication>
该create
命令还支持将本地 Hadoop 配置文件传送到驱动程序和执行程序 Pod 中。具体来说,它会检测位于环境变量指定的路径中的本地 Hadoop 配置文件HADOOP_CONF_DIR
,从这些文件创建 Kubernetes ConfigMap
,并将其添加到ConfigMap
对象中SparkApplication
,以便操作员将其安装到驱动程序和执行程序 Pod 中。环境变量HADOOP_CONF_DIR
也在驱动程序和执行程序容器中设置。
该create
命令还支持暂存本地应用程序依赖项,但目前仅支持上传到 Google Cloud Storage (GCS) 存储桶。其工作方式如下。它检查解析对象中的spec.mainApplicationFile
、spec.deps.jars
、spec.deps.files
等是否存在任何本地依赖关系SparkApplication
。如果是这样,它会尝试将本地依赖项上传到 指定的远程位置--upload-to
。如果使用本地依赖项但未--upload-to
指定,该命令将失败。默认情况下
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。