赞
踩
解决方案:
首先先到hadoop102 开启 start-cluster.sh
全类名 / Entrt Class
com.atguigu.tms.realtime.app.ods.OdsApp
参数 / Program Arguments
--HADOOP_USER_NAME atguigu --mock_date 模拟日期(按需填写)
./bin/flink run -c com.atguigu.tms.realtime.app.ods.OdsApp ./job/tms-realtime-1.0-SNAPSHOT-jar-with-dependencies.jar -p 2 --HADOOP_USER_NAME atguigu --mock_date 模拟日期(按需填写)
可以使用 nohup 挂后台运行
nohup ./bin/flink run -c com.atguigu.tms.realtime.app.ods.OdsApp ./job/tms-realtime-1.0-SNAPSHOT-jar-with-dependencies.jar -p 2 --HADOOP_USER_NAME atguigu --mock_date 模拟日期(按需填写) > /dev/null(按需填写) 2>&1 &
添加
a1.sources.r1.useFlumeEventFormat = false
检查下面全类名路径是否有问题
a1.sources.r1.interceptors.i1.type = com.atguigu.tms.flume.interceptors.TimestampAndTableNameInterceptor$Builder
cd /opt/module/flume/conf
vim flume-env.sh
添加下列内容
export JAVA_OPTS="-Xms200m -Xmx400m -Dcom.sun.management.jmxremote"
修改下列内容
cd /opt/module/flume/
vim bin/flume-ng
JAVA_OPTS="-Xmx240m"
2023/07/04
下图中的volume 都改成 volumn
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。