IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> HDFS的Shell操作与API操作 -> 正文阅读

[大数据]HDFS的Shell操作与API操作

1、HDFS的Shell操作

1.1、基本语法

  • hadoop fs 具体命令
  • hdfs dfs 具体命令
    具体命令
    [-appendToFile … ]
    [-cat [-ignoreCrc] …]
    [-chgrp [-R] GROUP PATH…]
    [-chmod [-R] <MODE[,MODE]… | OCTALMODE> PATH…]
    [-chown [-R] [OWNER][:[GROUP]] PATH…]
    [-copyFromLocal [-f] [-p] … ]
    [-copyToLocal [-p] [-ignoreCrc] [-crc] … ]
    [-count [-q] …]
    [-cp [-f] [-p] … ]
    [-df [-h] [ …]]
    [-du [-s] [-h] …]
    [-get [-p] [-ignoreCrc] [-crc] … ]
    [-getmerge [-nl] ]
    [-help [cmd …]]
    [-ls [-d] [-h] [-R] [ …]]
    [-mkdir [-p] …]
    [-moveFromLocal … ]
    [-moveToLocal ]
    [-mv … ]
    [-put [-f] [-p] … ]
    [-rm [-f] [-r|-R] [-skipTrash] …]
    [-setrep [-R] [-w] …]
    [-stat [format] …]
    [-tail [-f] ]
    [-test -[defsz] ]
    [-text [-ignoreCrc] …]

1.2、上传

-moveFromLocal:从本地剪切粘贴到 HDFS
-copyFromLocal:从本地文件系统中拷贝文件到 HDFS 路径去
-put:等同于 copyFromLocal,生产环境更习惯用 put
-appendToFile:追加一个文件到已经存在的文件末尾

1.3、下载

-copyToLocal:从 HDFS 拷贝到本地
-get:等同于 copyToLocal,生产环境更习惯用 get

1.4、HDFS 直接操作

-ls: 显示目录信息
-cat:显示文件内容
-chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限
-mkdir:创建路径
-cp:从 HDFS 的一个路径拷贝到 HDFS 的另一个路径
-mv:在 HDFS 目录中移动文件
-tail:显示一个文件的末尾 1kb 的数据
-rm:删除文件或文件夹
-rm -r:递归删除目录及目录里面内容
-du 统计文件夹的大小信息
-setrep:设置 HDFS 中文件的副本数量

2、HDFS的API操作

2.1、获取文件系统

		Configuration conf = new Configuration();
        conf.set("dfs.replication", "1");
        URI uri = new URI("hdfs://master:9000");
        FileSystem fs = FileSystem.get(uri, conf);

2.2、javaAPI操作HDFS

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.junit.Before;
import org.junit.Test;

import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.InputStreamReader;
import java.io.OutputStreamWriter;
import java.net.URI;


public class HadoopAPI {
    FileSystem fs;
    @Before
    public void init() throws Exception{
        //hadoop配置文件 自动获取haddop-hdfs的配置文件
        Configuration conf = new Configuration();
        conf.set("dfs.replication", "1");
        URI uri = new URI("hdfs://master:9000");
        fs = FileSystem.get(uri, conf);
    }
    //创建目录
    @Test
    public void mkdir() throws Exception{
        fs.mkdirs(new Path("/mk"));
    }
    //删除目录
    @Test
    public void delete()throws Exception{
        // true:迭代删除
        fs.delete(new Path("/data"),true);
    }
    //获取当前目录下的所有对象
    @Test
    public void listStatus()throws Exception{
        // 获取当前目录下 所有文件的对象
        FileStatus[] fileStatuses = fs.listStatus(new Path("/"));
        for (FileStatus fileStatus : fileStatuses) {
            System.out.println(fileStatus.getLen());
            System.out.println(fileStatus.getBlockSize());
            System.out.println(fileStatus.getPath());
            System.out.println(fileStatus.getReplication());
        }
    }
    //获取当前文件的状态
    @Test
    public void getFileStatus()throws Exception{
        FileStatus fileStatus = fs.getFileStatus(new Path("/student.txt"));
        System.out.println(fileStatus);
    }

    //查看
    @Test
    public void load()throws Exception{
        FSDataInputStream open = fs.open(new Path("/student.txt"));
        BufferedReader br = new BufferedReader(new InputStreamReader(open));
        String line;
        while ((line=br.readLine())!=null){
            System.out.println(line);
        }
        br.close();
        open.close();
    }
    //创建文件并写入数据
    @Test
    public void create()throws Exception{
        FSDataOutputStream fsDataOutputStream = fs.create(new Path("/test.txt"));
        BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(fsDataOutputStream));
        bw.write("你好!");
        bw.newLine();
        bw.write("世界!");
        bw.newLine();
        bw.close();
        fsDataOutputStream.close();
    }

    //通过代码复制 实现上传和下载
    //上传
    @Test
    public void copyFromLocalFile() throws Exception{
        Path hdfs = new Path("/");
        Path local = new Path("E:\\ideaFile\\shujia\\bd13\\data\\students.txt");
        fs.copyFromLocalFile(local,hdfs);
    }
    //下载
    @Test
    public void copyToLocalFile()throws Exception{
        Path path = new Path("/students.txt");
        Path local = new Path("E:\\ideaFile\\shujia\\bd13\\data");
        fs.copyToLocalFile(false,path,local,true);
    }
}
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-11-25 08:11:03  更:2021-11-25 08:11:32 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/24 7:57:56-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码