当前位置:   article > 正文

java操作hdfs,实现文件上传、下载以及查看当前文件夹下所有文件_java实现文件夹查看上传

java实现文件夹查看上传

Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。它和现有的分布式文件系统有很多共同点。但同时,它和其他的分布式文件系统的区别也是很明显的。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。HDFS放宽了一部分POSIX约束,来实现流式读取文件系统数据的目的。HDFS在最开始是作为Apache Nutch搜索引擎项目的基础架构而开发的。HDFS是Apache Hadoop Core项目的一部分。下面我简单说说用Java实现对HDFS文件进行上传、下载以及查看当前文件夹下所有文件:

开始前准备工作:

搭建一个分布式或者伪分布式的Hadoop集群,这个有问题的请看我以前写的文章,传送阵

eclipse,建议使用eclipse4.4以上版本;

第一步:

配置Hadoop主目录:

解压Hadoop-2.6.0文件到D盘根目录下,然后配置eclipse的Hadoop主目录;


第二步:配置插件:

打开Windows->Open Perspective中的Map/Reduce,在此perspective下进行hadoop程序开发。


打开Windows->Show View中的Map/Reduce Locations,如下图右键选择New Hadoop location…新建hadoop连接。



确认完成以后如下,eclipse会连接hadoop集群。


第三步:创建maven项目

new一个项目,选择other,然后找到maven project,单击下一步:


默认,单击next:


默认,单击nest:


按照下图填写内容,完成后单击Finish:


第四步:配置pom.xml文件:


    <dependency>
	    <groupId>org.apache.hadoop</groupId>
	    <artifactId>hadoop-client</artifactId>
	    <version>2.5.0</version>
	</dependency>
第五步:创建一个class文件,命名为MyHdfs,代码如下:

package archy.com;

import java.io.InputStream;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

public class MyHdfs {
	// hadoop fs的配置文件
	static Configuration conf = new Configuration(true);
	static {
		// 指定hadoop fs的地址
		conf.set("fs.default.name", "hdfs://bigdata01.com:8020");
	}

	/**
	 * 将本地文件(filePath)上传到HDFS服务器的指定路径(dst)
	 * 
	 * @author 冯琪
	 */
	public static void uploadFileToHDFS(String filePath, String dst)
			throws Exception {
		// 创建一个文件系统
		FileSystem fs = FileSystem.get(conf);
		Path srcPath = new Path(filePath);
		Path dstPath = new Path(dst);
		Long start = System.currentTimeMillis();
		fs.copyFromLocalFile(false, srcPath, dstPath);
		System.out.println("Time:" + (System.currentTimeMillis() - start));
		System.out.println("________准备上传文件" + conf.get("fs.default.name")
				+ "____________");
		fs.close();
		getDirectoryFromHdfs(dst);
	}

	/**
	 * 下载文件
	 * 
	 * @author 冯琪
	 */
	public static void downLoadFileFromHDFS(String src) throws Exception {
		FileSystem fs = FileSystem.get(conf);
		Path srcPath = new Path(src);
		InputStream in = fs.open(srcPath);
		try {
			// 将文件COPY到标准输出(即控制台输出)
			IOUtils.copyBytes(in, System.out, 4096, false);
		} finally {
			IOUtils.closeStream(in);
			fs.close();
		}
	}

	/**
	 * 遍历指定目录(direPath)下的所有文件
	 * 
	 * @author 冯琪
	 */
	public static void getDirectoryFromHdfs(String direPath) throws Exception {

		FileSystem fs = FileSystem.get(URI.create(direPath), conf);
		FileStatus[] filelist = fs.listStatus(new Path(direPath));
		for (int i = 0; i < filelist.length; i++) {
			System.out.println("_________________第" + i + "个文件"
					+ "____________________");
			FileStatus fileStatus = filelist[i];
			System.out.println("Name:" + fileStatus.getPath().getName());
			System.out.println("size:" + fileStatus.getLen());
			System.out.println("_________________第" + i + "个文件"
					+ "____________________");
		}
		fs.close();
	}

	/**
	 * 测试方法
	 * 
	 * @author 冯琪
	 */
	public static void main(String[] args) {
		try {
			// 获取目录下的所有文件,hdfs服务器文件夹路径
			getDirectoryFromHdfs("/fengqi/1104/");
			// 上传文件,第一个参数为本地要上传的文件路径,第二个参数为HDFS的路径。
			// uploadFileToHDFS("D:/456.txt", "/fengqi/1104/");
			// 下载文件,第一个参数为HDFS上要下载的文件路径
			// downLoadFileFromHDFS("/fengqi/1104/456.txt");
		} catch (Exception e) {
			// TODO 自动生成的 catch 块
			e.printStackTrace();
		}
	}
}



第六步:测试结果






如果有什么疑问或者见解,欢迎在下方留言,谢谢。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/721818
推荐阅读
相关标签
  

闽ICP备14008679号