IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Java操作Hdfs(分布式文件系统)完成文件上传、下载和删除 -> 正文阅读

[大数据]Java操作Hdfs(分布式文件系统)完成文件上传、下载和删除

Java操作Hdfs(分布式文件系统)

文件上传实现

  • 创建Maven项目,项目命名Hadoop_hdfs
  • 导入pom.xml依赖
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
  <modelVersion>4.0.0</modelVersion>
  <groupId>hadoop</groupId>
  <artifactId>hadoop</artifactId>
  <version>0.0.1-SNAPSHOT</version>
  <name>hadoop_learn</name>
  
  <dependencies>
  		<!- hadoop配置jar包-->
		<dependency>
		    <groupId>org.apache.hadoop</groupId>
		    <artifactId>hadoop-client</artifactId>
		    <version>3.2.0</version>
		</dependency>
  </dependencies>
  
</project>
  • 创建HDFS操作类
package com.learn_hdfs;


import java.io.FileInputStream;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

//操作HDFS实现上传hdfs文件
public class HdfsOp {

	//上传文件实现
	public static void main(String[] args) throws Exception{
		//创建一个操作HDFS配置对象
		Configuration config = new Configuration();
		//设置Java代码连接哪个集群的hdfs
		config.set("fs.defaultFS", "hdfs://192.168.72.100:9000");
		//获取操作HDFS的对象
		FileSystem fileSystem = FileSystem.get(config);
		
		//进行上传文件操作
		//获取文件输入流
		FileInputStream fileInputStream =  new FileInputStream("C:\\Users\\Documents\\learn.txt");
		//获取hdfs中的输出流
		FSDataOutputStream fsDataOutputStream =  fileSystem.create(new Path("/learn.txt"));
		
		//第一个参数是一个输入流、第二个参数是输出流,第三个是缓存区大小,第四个参数是设置否关闭流
		IOUtils.copyBytes(fileInputStream, fsDataOutputStream, 1024, true);
		
		
	}
	
}

  • 配置好上述功能代码后,通过Linux服务器搭建分布式集群,并修改好集群中的hdfs的访问权限配置。
    通过对hdfs-site.xml进行配置,完成对hdfs的配置在这里插入图片描述

  • 启动集群
    在这里插入图片描述
    在本地运行代码后,通过hdfs中的shell命令进行查看。
    在这里插入图片描述

完成上传!

文件下载操作

  • 编写下载文件操作类FileHdfsDownLoad类进行实现
package com.learn_hdfs;


import java.io.FileInputStream;
import java.io.FileOutputStream;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

//操作HDFS
public class FileHdfsDownLoad{

	//下载
	public static void main(String[] args) throws Exception{
		//创建一个操作HDFS的对象
		Configuration config = new Configuration();
		//设置java代码连接哪个hdfs
		config.set("fs.defaultFS", "hdfs://192.168.72.100:9000");
		//获取操作HDFS的对象
		FileSystem fileSystem = FileSystem.get(config);
		
		
		//下载文件
		downloadFile(fileSystem);
		
		
	}
	//下载hdfs文件
	private static void downloadFile(FileSystem fileSystem) throws Exception{
		//获取hdfs分布式文件系统中的输入流
		FSDataInputStream fsDataInputStream =  fileSystem.open(new Path("/learn.txt"));
		//获取本地文件输出流
		FileOutputStream foFileOutputStream = new FileOutputStream("C:\\Users\\Documents\\learn.txt");
		//下载文件
		IOUtils.copyBytes(fsDataInputStream, foFileOutputStream, 1024, true);
	}
}

  • 在启动集群后进行执行程序进行验证是否下载了learn.txt文件
    在这里插入图片描述
    下载成功!

删除文件操作

  • 编写删除hdfs文件的函数deleteFile
package com.learn_hdfs;


import java.io.FileInputStream;
import java.io.FileOutputStream;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

//操作HDFS
public class HdfsOp {

	//删除
	public static void main(String[] args) throws Exception{
		//创建一个操作HDFS的对象
		Configuration config = new Configuration();
		//设置java代码连接哪个hdfs
		config.set("fs.defaultFS", "hdfs://192.168.72.100:9000");
		//获取操作HDFS的对象
		FileSystem fileSystem = FileSystem.get(config);
		
		
		//删除文件操作
		deleteFile(fileSystem);
		
	}

	
	//删除文件操作
	private static void deleteFile(FileSystem fileSystem) throws Exception{
		boolean result =  fileSystem.delete(new Path("/learn.txt"));
		if(result) {
			System.out.print("删除成功");
		}else {
			System.out.print("删除失败");
		}
	}
	
	
}

  • 确保hdfs中存在要删除的文件learn.txt
    在这里插入图片描述
    执行代码
    在这里插入图片描述
  • 检查hdfs中是否还存在该文件
    在这里插入图片描述
    不存在该文件,因此删除完毕。

完整代码如下:

import java.io.FileInputStream;
import java.io.FileOutputStream;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

//操作HDFS
public class HdfsOp {

	//上传、下载、删除
	public static void main(String[] args) throws Exception{
		//创建一个操作HDFS的对象
		Configuration config = new Configuration();
		//设置java代码连接哪个hdfs
		config.set("fs.defaultFS", "hdfs://192.168.72.100:9000");
		//获取操作HDFS的对象
		FileSystem fileSystem = FileSystem.get(config);
		
		//上传hdfs文件
		putFile(fileSystem);
		
		//下载文件
		downloadFile(fileSystem);
		
		//删除文件操作
		deleteFile(fileSystem);
		
	}
	
	//上传文件函数
	private static void putFile(FileSystem fileSystem) throws Exception{
		//进行上传文件操作
		//获取输入流
		FileInputStream fileInputStream =  new FileInputStream("C:\\Users\\dang\\Documents\\learn.txt");
		//获取hdfs中的输出流
		FSDataOutputStream fsDataOutputStream =  fileSystem.create(new Path("/learn.txt"));
				
		//第一个参数是一个输入流、第二个参数是输出流,第三个是缓存区大小,第四个参数是是否关闭
		IOUtils.copyBytes(fileInputStream, fsDataOutputStream, 1024, true);
	}
	
	//下载hdfs文件
	private static void downloadFile(FileSystem fileSystem) throws Exception{
		//获取hdfs中的输入流
		FSDataInputStream fsDataInputStream =  fileSystem.open(new Path("/learn.txt"));
		//获取本地文件输出流
		FileOutputStream foFileOutputStream = new FileOutputStream("C:\\Users\\dang\\Documents\\learn.txt");
		//下载文件
		IOUtils.copyBytes(fsDataInputStream, foFileOutputStream, 1024, true);
	}
	
	//删除文件操作
	private static void deleteFile(FileSystem fileSystem) throws Exception{
		boolean result =  fileSystem.delete(new Path("/learn.txt"));
		if(result) {
			System.out.print("删除成功");
		}else {
			System.out.print("删除失败");
		}
	}
	
	
}

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-05-09 12:46:24  更:2022-05-09 12:46:31 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 21:55:31-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码