sqoop从mysql导入hive的一些问题
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了sqoop从mysql导入hive的一些问题,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含1648字,纯文字阅读大概需要3分钟。
内容图文
![sqoop从mysql导入hive的一些问题](/upload/InfoBanner/zyjiaocheng/501/3ed50b86f06448869a468430c6504dbb.jpg)
解决方法1:
将mysql中的数据导入到hive中报错:
ERROR tool.ImportTool:Import failed: java.io.IOException: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf这是因为sqoop需要一个hive的包,将hive/lib中的hive-common-2.3.3.jar拷贝到sqoop的lib目录中,重新执行试试。
解决方法2:
在/etc/profile中添加下面一行
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/*
2.错误:main ERROR Could not register mbeans java.security.AccessControlException: access denied ("javax.management.MBeanTrustPermission" "register")
解决方法:
Just add the following lines to your java.policy file unter <JRE_HOME>/lib/security.
grant {
permission javax.management.MBeanTrustPermission "register";
};
3.错误:ERROR exec.DDLTask: java.lang.NoSuchMethodError: com.fasterxml.jackson.databind.ObjectMapper.readerFor(Ljava/lang/Class;)Lcom/fasterxml/jackson/databind/ObjectReader;
解决犯法:jackson jar包版本冲突,将sqoop/lib下的jackson*.jar备份,将hive/lib包下的jackson*.jar包拷贝过来
4.错误:Required table missing : "DBS" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.schema.autoCreateTables"
解决方法:
到hive-site.xml中找到datanucleus.schema.autoCreateAll 把value改成true
参考:http://blog.itpub.net/31506529/viewspace-2213877/
sqoop从mysql导入hive的一些问题
标签:jre_home you reader mon lin OWIN nes operation path
本文系统来源:https://www.cnblogs.com/lullaby/p/9691772.html
内容总结
以上是互联网集市为您收集整理的sqoop从mysql导入hive的一些问题全部内容,希望文章能够帮你解决sqoop从mysql导入hive的一些问题所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。