当前位置:   article > 正文

Flink运行wordcount——读写hdfs_flink word hdfs

flink word hdfs

hadoop配置了kerberos时,提交命令要修改一下:

1.kerberos切换为yarn用户

kinit -kt /opt/TDP/keytab/yarn.keytab yarn/node170@HADOOP.CHINATELECOM.CN

2.命令行导入环境变量

export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/opt/TDP/hadoop/lib

3.提交flink任务到yarn集群

  1. flink run -m yarn-cluster \
  2. -yd \
  3. -yjm 1024m \
  4. -ytm 1024m \
  5. -ynm UserVisitCount \
  6. -p 10 \
  7. -ys 4 \
  8. -yD security.kerberos.login.keytab=/opt/TDP/keytab/yarn.keytab \
  9. -yD security.kerberos.login.principal=yarn/node170@HADOOP.CHINATELECOM.CN \
  10. /opt/TDP/flink/examples/streaming/WordCount.jar \
  11. --input "hdfs:///testdir/abc.txt" \
  12. --output "hdfs:///result"

注意:

--input目录文件要提前上传

--output目录不要创建,否则任务会失败!

如果hadoop没有配置kerberos,删除这两条命令提交试试

  1. -yD security.kerberos.login.keytab=/opt/TDP/keytab/yarn.keytab \
  2. -yD security.kerberos.login.principal=yarn/node170@HADOOP.CHINATELECOM.CN \
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/683316
推荐阅读
相关标签
  

闽ICP备14008679号