Hadoop学习笔记(5):HDFS的Java API
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了Hadoop学习笔记(5):HDFS的Java API,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含2420字,纯文字阅读大概需要4分钟。
内容图文
Windows配置Hadoop调试环境
- 将Hadoop的压缩包解压到Windows目录中(路径中不要有中文)
- 配置Hadoop的环境变量:HADOOP_HOME和对应的bin
- 下载对应版本的winutils,放到Hadoop的bin路径下和Windows\System32下面
创建Maven工程
添加依赖
创建一个Maven工程,并添加以下依赖:(注意要和自己的版本对应)
<dependencies>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>RELEASE</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-core</artifactId>
<version>2.8.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.7.2</version>
</dependency>
</dependencies>
添加日志配置
log4j.properties
log4j.rootLogger=info, stdout, R
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
# Pattern to output the caller's file name and line number.
#log4j.appender.stdout.layout.ConversionPattern=%5p [%t] (%F:%L) - %m%n
# Print the date in ISO 8601 format
log4j.appender.stdout.layout.ConversionPattern=%d [%t] %-5p %c - %m%n
log4j.appender.R=org.apache.log4j.RollingFileAppender
log4j.appender.R.File=example.log
log4j.appender.R.MaxFileSize=100KB
# Keep one backup file
log4j.appender.R.MaxBackupIndex=1
log4j.appender.R.layout=org.apache.log4j.PatternLayout
log4j.appender.R.layout.ConversionPattern=%p %t %c - %m%n
# Print only messages of level WARN or above in the package com.foo.
log4j.logger.com.foo=WARN
HDFS的API使用方法
官方文档:http://hadoop.apache.org/docs/r2.6.5/api/org/apache/hadoop/fs/FileSystem.html
基本结构:
public static void main(String[] args) throws IOException {
//新建配置对象
Configuration conf = new Configuration();
//添加配置项
conf.set("hadoop.security.authentication", "kerberos");
conf.set("fs.defaultFS", "hdfs://192.168.124.124:9000");
//创建hdfs客户端对象
FileSystem fs = FileSystem.get(conf);
//调用hdfs的api,创建一个文件夹
fs.mkdirs(new Path("/test1"));
//关闭资源文件
fs.close();
System.out.println("over");
}
常用代码
创建文件、文件夹
文件上传
文件下载
删除
移动
列出路径下文件(递归)
列出路径下文件(非递归)
判断为某文件是否存在
判断是文件还是文件夹
查看文件详情
读取文件内容
定位读取文件
封装HDFS工具类
内容总结
以上是互联网集市为您收集整理的Hadoop学习笔记(5):HDFS的Java API全部内容,希望文章能够帮你解决Hadoop学习笔记(5):HDFS的Java API所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。