在python中使用Hadoop处理大型csv文件
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了在python中使用Hadoop处理大型csv文件,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含1645字,纯文字阅读大概需要3分钟。
内容图文
![在python中使用Hadoop处理大型csv文件](/upload/InfoBanner/zyjiaocheng/655/4aed89b202384f7381b6a157e41ef280.jpg)
我有一个巨大的CSV文件,我想在Amazon EMR(python)上使用Hadoop MapReduce处理.
该文件有7个字段,但是,我只查看日期和数量字段.
"date" "receiptId" "productId" "quantity" "price" "posId" "cashierId"
首先,我的mapper.py
import sys
def main(argv):
line = sys.stdin.readline()
try:
while line:
list = line.split('\t')
#If date meets criteria, add quantity to express key
if int(list[0][11:13])>=17 and int(list[0][11:13])<=19:
print '%s\t%s' % ("Express", int(list[3]))
#Else, add quantity to non-express key
else:
print '%s\t%s' % ("Non-express", int(list[3]))
line = sys.stdin.readline()
except "end of file":
return None
if __name__ == "__main__":
main(sys.argv)
对于reducer,我将使用streaming命令:aggregate.
题:
>我的代码正确吗?我在Amazon EMR中运行它,但输出为空.
>因此,我的最终结果应该是:express,XXX,非express,YYY.我可以在返回结果之前进行除法运算吗?只是XXX / YYY的结果.我该把代码放在哪里?减速器?
>而且,这是一个巨大的CSV文件,因此映射会将其分解为几个分区吗?还是我需要显式调用FileSplit?如果是这样,我该怎么做?
解决方法:
在这里回答我自己的问题!
>代码错误.如果您使用聚合库来简化操作,那么您的输出将不遵循通常的键值对.它需要一个“前缀”.
if int(list[0][11:13])>=17 and int(list[0][11:13])<=19:
#This is the correct way of printing for aggregate library
#Print all as a string.
print "LongValueSum:" + "Express" + "\t" + list[3]
可用的其他“前缀”是:DoubleValueSum,LongValueMax,LongValueMin,StringValueMax,StringValueMin,UniqValueCount,ValueHistogram.有关更多信息,请参见此处http://hadoop.apache.org/common/docs/r0.15.2/api/org/apache/hadoop/mapred/lib/aggregate/package-summary.html.
>是的,如果您想做的不仅仅是基本的总和,最小值,最大值或计数,则需要编写自己的减速器.
>我还没有答案.
内容总结
以上是互联网集市为您收集整理的在python中使用Hadoop处理大型csv文件全部内容,希望文章能够帮你解决在python中使用Hadoop处理大型csv文件所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。