当前位置:   article > 正文

sqoop增量导入oracle,关于sqoop增量导入oracle的数据到HDFS的出现的错误总结

--incremental lastmodified option for hive imports is not supported. please

下面的代码是增量导入的操作shell脚本

#!/bin/bash

datenow=$(date -d 'last day' -I)

databases=("FRONTBANK")

sqoop import \--connect jdbc:oracle:thin:自己的数据库ip:1521:zdxdb \--username frontbank \--password sdff23s \--table FRONTBANK.INCREAT_TABLE \--fields-terminated-by "\t"\--incremental lastmodified \ #这个配置项是对导入的数据做插入和更新操作--check-column MODIFY_TIME \ #这个配置项是按照数据表中的某个字段定位要读取的数据的位置--last-value ${datenow} \ #这个配置项是加载最后一个导入数据到现在这段时间新增的数据,然后进行导入操作--merge-key ID \ #这个配置项是对导入进来的数据进行合并的操作,这里是采用唯一主键的方式对数据进行合并操作--hive-drop-import-delims \-m 1\--target-dir /user/gxg/increment

在导入数据的过程中遇到的问题如下:

第一次在shell脚本当中执行的时候,出现了下面的问题

ERROR tool.ImportTool: Import failed: java.io.IOException: Could not load jar /tmp/sqoop-root/compile/42f2af520ed13e2dc948a98222d69466/FRONTBANK.INCREAT_TABLE.jar into JVM. (Could not find class FRONTBANK.INCREAT_TABLE.)

at org.apache.sqoop.util.ClassLoaderStack.addJarFile(ClassLoaderStack.java:92)

at com.cloudera.sqoop.util.ClassLoaderStack.addJarFile(ClassLoaderStack.java:36)

at org.apache.sqoop.tool.ImportTool.loadJars(ImportTool.java:120)

at org.apache.sqoop.tool.ImportTool.lastModifiedMerge(ImportTool.java:456)

at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:522)

at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:621)

at org.apache.sqoop.Sqoop.run(Sqoop.java:147)

at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)

at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:183)

at org.apache.sqoop.Sqoop.runTool(Sqoop.java:234)

at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243)

at org.apache.sqoop.Sqoop.main(Sqoop.java:252)

Caused by: java.lang.ClassNotFoundException: FRONTBANK.INCREAT_TABLE

at java.net.URLClassLoader$1.run(URLClassLoader.java:366)

at java.net.URLClassLoader$1.run(URLClassLoader.java:355)

at java.security.AccessController.doPrivileged(Native Method)

at java.net.URLClassLoader.findClass(URLClassLoader.java:354)

at java.lang.ClassLoader.loadClass(ClassLoader.java:425)

at java.net.FactoryURLClassLoader.loadClass(URLClassLoader.java:789)

at java.lang.ClassLoader.loadClass(ClassLoader.java:358)

at java.lang.Class.forName0(Native Method)

at java.lang.Class.forName(Class.java:270)

at org.apache.sqoop.util.ClassLoaderStack.addJarFile(ClassLoaderStack.java:88)

这里显示在merger的时候找不到类,而且没这个jar包,但是在启动日志中明明有加载这个包和这个类的操作。然后找资料说采用codegen的方式。但是各种报错。

然后在想是不是数据包不共享造成的,于是我将脚本部署在oozie的工作流调度当中。居然可以可以运行,这个问题的原因应该是上传的包在本地,然而其他的机器加载不到这个包所以类不存在了。

说到这里多提一句,在我们提交sqooop脚本的时候,会在本地产生一个jar包

3751a6a6c2fb60dd47fecf6321d2b0f9.png

当我们在集群上执行sqoop脚本的的时候,相当于数据目录共享。所以不存在数据加载不到的问题。

第二个问题:

2019-01-08 17:03:35,929 INFO [IPC Server handler 2 on 37215] org.apache.hadoop.mapred.TaskAttemptListenerImpl: Diagnostics report from attempt_1546053074766_0184_m_000001_0:

Error: java.io.IOException:Cannot join values on null key. Did you specify a key column that exists?

at org.apache.sqoop.mapreduce.MergeMapperBase.processRecord(MergeMapperBase.java:79)

at org.apache.sqoop.mapreduce.MergeTextMapper.map(MergeTextMapper.java:58)

at org.apache.sqoop.mapreduce.MergeTextMapper.map(MergeTextMapper.java:34)

at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:145)

at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:793)

at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341)

at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:164)

at java.security.AccessController.doPrivileged(Native Method)

at javax.security.auth.Subject.doAs(Subject.java:415)

at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1917)

at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)

出现这个问题的主要原因有两点

(1)你设置合并的字段不是主键的形式,一定要设置成为主键

(2)第二点注意大小写的问题。我的问题就是我的主键的字段是大写的ID,我写成了这样 --merge-key id \

下面总结一下对于sqoop增量导入的总结:

在整个的sqooop导入操作中需要注意两个东西,第一个就是我们的需要准备一个更新的字段(时间日期字段),第二个就是合并的字段负责更新数据的更新操作。其他的应该就没有问题了

这里补充一点,我们只能定义数据目录,不能直接将数据导入到hive当中否则会报下面的错:

--incremental lastmodified option for hive imports is not supported. Please remove the parameter --incremental lastmodified.

这里需要补充另外一点,在我们增量导入的时候是分两步走的

(1)将新增的数据导入进来 (这里可以指定导入的map数,也就是指定的并行读)

(2)合并新导入的数据和之前的数据,这个过程有一点需要注意,我们在第一次全量导入数据的时候,指定的map数也就是最终形成的文件数。在合并的时候,他启动的map的数量是文件数目的n+1个

2038042bb9706362628fc880cbb5f077.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/黑客灵魂/article/detail/745639
推荐阅读
相关标签
  

闽ICP备14008679号