从Hadoop Reducer向MySQL写入数据
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了从Hadoop Reducer向MySQL写入数据,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含1254字,纯文字阅读大概需要2分钟。
内容图文
我正在尝试使用Hadoop Map-Reduce,在我的测试中,我能够将reducer的输出存储到HBase中.但是,我想将数据写入mysql数据库而不是HBase. Mappers仍然会从HBase读取他们的输入数据.我已经找到了这个,但它需要在输入和输出都使用MySQL,而我只在输出时需要它.此外,link以上使用org.apache.hadoop.mapred包中的一些不推荐使用的类,现在可以使用新的包org.apache.hadoop.mapreduce,但是到目前为止我无法找到使用这个新包的任何教程.
解决方法:
I have found this but it requires to use MySQL at both input and output while I need it at only output.
InputFormat(DBInputFormat)独立于OutputFormat(DBOutputFormat).应该可以从Mapper中的HBase读取并写入Reducer中的DB.
使用新的MR API设置Job#setInputFormat和Job#setOutputFormat,旧的MR API将JobConf#setInputFormat和JobConf #setOutputFormat设置为适当的输入/输出格式.这两种格式都不一样.如果需要,应该可以从映射器中的XML读取并写入Reducer中的Queue.
Also, above link uses some deprecated classes from org.apache.hadoop.mapred package for which a new package org.apache.hadoop.mapreduce is available now, however I am not able to find any tutorial using this new package till now.
如果您对旧API感到满意,请继续使用它.新API和旧API之间的功能有not much difference.旧API和新API有两个DBInputFormat.确保不要将旧/新的InputFormats与旧的/新的MR API混合使用.
这是新API上的tutorial.
内容总结
以上是互联网集市为您收集整理的从Hadoop Reducer向MySQL写入数据全部内容,希望文章能够帮你解决从Hadoop Reducer向MySQL写入数据所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。