赞
踩
因现场项目临近上线,在现场测试环境部署后台程序时候出现各种奇怪的问题,这些都是在公司内部测试环境都没有遇到过的,很有记录下来的必要。
Spark应用程序的主要业务逻辑是将MySQL中表数据全量同步到Spark中,以yarn-client模式提交执行报错:
Exception in thread "main" java.sql.SQLException: No suitable driver
看到这个报错的第一反应就是环境问题,ClassPath路径下没有mysql驱动包。
由于笔者当时认为原因就是ClassPath路径下没有mysql驱动包,进行了以下操作步骤:
- # 查看用户环境变量
- cat ~/.bash_profile
- # 找到export classpath的路径
- # 逐个cd进去,发现没有mysql驱动包
重新spark-submit提交应用还是报同样的错误。
INFO ZooKeeper: Client environment:java.class.path= ......
里面看到了Spark安装目录下的lib文件夹下的相关jar包,想到把mysql-connector-java-5.1.39-bin.jar包复制到这个目录下,但是还是报同样的错误。
因此,就想到把驱动包放到Spark集群的所有节点上。考虑到工作量的问题,想起可以在命令行中增加--jars的参数。
--jars ./mysql-connector-java-5.1.39-bin.jar
很不幸还是报错。
通过第二部分的错误尝试和搜索网上同样问题的解决方案,发现只增加--jars参数确实不可行。于是尝试再增加--driver-class-path参数。
- --jars ./mysql-connector-java-5.1.39-bin.jar \
- --driver-class-path ./mysql-connector-java-5.1.39-bin.jar \
执行并没有报错,成功!
经过一番折腾,笔者脑海中突然闪过之前好像也遇到Spark从MySQL中读取数据时报找不到XXX类的情况,于是翻出之前整理的笔记,下面这句话让我突然意识到了可能是代码的问题。
- //注意:集群上运行时,一定要添加下句话,否则会报找不到mysql驱动的错误
- prop.put("driver","com.mysql.jdbc.Driver")
查看读取MySQL的工具类代码,发现确实少了“driver”参数,正确的读取MySQL数据的代码如下:
- def readMySqlTable(hiveContext:HiveContext, dbTable:String):DataFrame = {
- val jdbcDF = hiveContext.read.format( "jdbc" ).options(
- Map( "url" -> this.url,
- "driver" -> "com.mysql.jdbc.Driver",
- "user" -> this.user,
- "password" -> this.pwd,
- "dbtable" -> dbTable )).load()
-
- jdbcDF
- }
重新打包测试,执行命令中不加--jars和--driver-class-path参数,运行没有报错,成功!
遇到找不到XXXX类、XXXX方法的报错,先排查是不是依赖冲突的问题,大部分情况都是因为依赖冲突,版本不兼容导致找不到类或方法的情况。
本文算是一种特殊情况,用压缩工具打开程序jar包,pom文件中加入的mysql-connect-java驱动确实打入的jar包中,而且工具类中也加入了Class.forName(“com.mysql.jdbc.Driver”)命令,所以发现问题还是比较困难,记录下以后就会避免类似的问题。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。