赞
踩
1、从github (GitHub - apache/flink: Apache Flink)或者官网(Apache Download Mirrors)下载flink源码;
2、根据实际情况,将JDK版本设置成自己本机的版本(源码默认是jdk11),修改最外面一层pom.xml文件如下代码:
3、如果maven配置了阿里或者华为的镜像,会导致源码不能运行,报如下错误:
原因是:阿里或镜像库中缺一些包。解决办法是:在settings.xml文件中,将镜像地址都注释掉,让maven去从官方库中下载依赖包即可。
4、依赖包下载耗时10分钟左右。下载完成,根据自己本机的实际情况,如果本机的JDK是1.8,则点击右侧maven-->Profiles,取消勾选java11,否则运行单元测试会报错: 无效的标记: --add-exports=java.base/sun.net.util=ALL-UNNAMED。取消勾选后,可能依然还会报这个错误,file-->invalid cache重新打开。
5、若如下包不能下载,提示报错,可从如下地址下载(Index of maven/io/confluent/kafka-schema-registry-parent/5.5.2Index of maven/io/confluent/kafka-avro-serializer/5.5.2),然后手工粘贴到本地的maven仓库里面去;
6、进入源码根目录:
可能会缺hadoop的依赖,进入根目录的pom.xml,添加:
<repositories>
<repository>
<id>cloudera</id>
<url>https://repository.cloudera.com/artifactory/cloudera-repos</url>
</repository>
</repositories>
以管理员权限打开cmd,进入源码根目录,然后执行:
mvn clean package -DskipTests
编译成功后,目标文件生成在根目录的:flink-dist\target目录下
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。