当前位置:   article > 正文

Flink命令行 - 1.10

flink 命令行

本篇文章大概3155字,阅读时间大约8分钟

结合Flink官方文档,整理关于Flink命令行的操作参数,包含命令行接口和Scala Shell

1

文档编写目的

  • 整理Flink官方文档中命令行接口和scala-shell的内容

  • 在Flink1.10.1集群上进行实操

Flink命令行

  • Command-Line Interface

  • Scala Shell

2

Command-Line Interface

Flink的命令行接口主要用来运行达成jar包的Flink应用程序,具体功能如下:

  • 提交Flink应用

  • 取消运行的Flink应用

  • 获取Flink应用的信息

  • 查看Flink集群上的应用(包含运行中和等待的应用)

  • 触发或释放savepoint

Flink命令行详细解释

flink run (这里略过了部分python的参数)

  1. -c,--class <classname> Flink应用程序的入口
  2. -C,--classpath <url> 指定所有节点都可以访问到的url,可用于多个应用程序都需要的工具类加载
  3. -d,--detached 是否使用分离模式,就是提交任务,cli是否退出,加了-d参数,cli会退出
  4. -n,--allowNonRestoredState 允许跳过无法还原的savepoint。比如删除了代码中的部分operator
  5. -p,--parallelism <parallelism> 执行并行度
  6. -s,--fromSavepoint <savepointPath> 从savepoint恢复任务
  7. -sae,--shutdownOnAttachedExit 以attached模式提交,客户端退出的时候关闭集群

flink yarn-cluster 模式

  1. -d,--detached 是否使用分离模式
  2. -m,--jobmanager <arg> 指定提交的jobmanager
  3. -yat,--yarnapplicationType <arg> 设置yarn应用的类型
  4. -yD <property=value> 使用给定属性的值
  5. -yd,--yarndetached 使用yarn分离模式
  6. -yh,--yarnhelp yarn session的帮助
  7. -yid,--yarnapplicationId <arg> 挂到正在运行的yarnsession上
  8. -yj,--yarnjar <arg> Flink jar文件的路径
  9. -yjm,--yarnjobManagerMemory <arg> jobmanager的内存(单位M)
  10. -ynl,--yarnnodeLabel <arg> 指定 YARN 应用程序 YARN 节点标签
  11. -ynm,--yarnname <arg> 自定义yarn应用名称
  12. -yq,--yarnquery 显示yarn的可用资源
  13. -yqu,--yarnqueue <arg> 指定yarn队列
  14. -ys,--yarnslots <arg> 指定每个taskmanager的slots数
  15. -yt,--yarnship <arg> 在指定目录中传输文件
  16. -ytm,--yarntaskManagerMemory <arg> 每个taskmanager的内存
  17. -yz,--yarnzookeeperNamespace <arg> 用来创建ha的zk子路径的命名空间
  18. -z,--zookeeperNamespace <arg> 用来创建ha的zk子路径的命名空间

flink info 语法:info [OPTIONS] <jar-file> <arguments>

-c,--class <classname> 应用程序入口

flink list 显示正在运行或调度的程序

  1. -a,--all 显示所有应用和对应的job id
  2. -r,--running 显示正在运行的应用和job id
  3. -s,--scheduled 显示调度的应用和job id
  4. #yarn-cluster模式
  5. -m,--jobmanager <arg> 指定连接的jobmanager
  6. -yid,--yarnapplicationId <arg> 挂到指定的yarn id对应的yarn session上
  7. -z,--zookeeperNamespace <arg> 用来创建ha的zk子路径的命名空间

flink stop:停止一个正在运行的应用

  1. -d,--drain 在获取savepoint,停止pipeline之前发送MAX_WATERMARK
  2. -p,--savepointPath <savepointPath> 指定savepoint的path,如果不指定会使用默认值("state.savepoints.dir")

savepoint - 触发一个正在运行的应用生成savepoint

  1. 语法:savepoint [OPTIONS] <Job ID> [<target directory>]
  2. -d,--dispose <arg> savepoint的路径
  3. -j,--jarfile <jarfile> Flink的jar包

Scala Shell

Flink可以使用交互式的scala shell环境,可以使用本地模式和集群模式。

local启动方式

./bin/start-scala-shell.sh local
使用

scala shell支持batch和stream,对应到benv和senv上。benv通过print()将结果输出到控制台,senv通过senv.execute("job name")进行任务提交。

scala shell local
./bin/start-scala-shell.sh local

batch - DataSet API测试

  1. val text = benv.fromElements(
  2.   "To be, or not to be,--that is the question:--",
  3.   "Whether 'tis nobler in the mind to suffer",
  4.   "The slings and arrows of outrageous fortune",
  5.   "Or to take arms against a sea of troubles,")
  6. val counts = text.flatMap(_.toLowerCase.split("\\W+")).map((_,1)).groupBy(0).sum(1)
  7. counts.print()

stream - DataStream API测试

  1. val textStreaming = senv.fromElements(
  2.   "To be, or not to be,--that is the question:--",
  3.   "Whether 'tis nobler in the mind to suffer",
  4.   "The slings and arrows of outrageous fortune",
  5.   "Or to take arms against a sea of troubles,")
  6. val countsStreaming = textStreaming.flatMap(_.toLowerCase.split("\\W+")).map((_,1)).keyBy(0).sum(1)
  7. countsStreaming.print()
  8. senv.execute("Streaming Wordcount")


scala shell启动方式

  • local

./bin/start-scala-shell.sh local
  • remote 远程

通过jobmanager连接启动了的flink集群

./bin/start-scala-shell.sh remote <hostname> <portnumber>
  • yarn scala shell cluster

./bin/start-scala-shell.sh yarn -n 2
  • yarn session

./bin/start-scala-shell.sh yarn

点个“在看”表示朕

已阅

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/584177
推荐阅读
相关标签
  

闽ICP备14008679号