首先启动Hadoop
start-all.sh
如果出现
Starting namenodes on [localhost] localhost: hadoop@localhost: Permission denied (publickey,password). Starting datanodes localhost: hadoop@localhost: Permission denied (publickey,password). Starting secondary namenodes [z-virtual-machine] z-virtual-machine: hadoop@z-virtual-machine: Permission denied (publickey,password).
这里提供一种解决方法
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
start-dfs.sh
下面命令的前提:
先在HDFS中创建名为hadoop的用户目录
cd /usr/local/hadoop
./bin/hdfs dfs -mkdir -p /user/hadoop
然后在他下面创建一个input目录
./bin/hdfs dfs -mkdir input
(1)向HDFS 中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件
./bin/hdfs dfs -put /home/hadoop/zhang.txt input
(2)从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名
./bin/hdfs dfs -get input/zhang.txt /home/hadoop/下载
(3)将HDFS中指定文件的内容输出到终端中
hadoop fs -cat /user/hadoop/input/zhang.txt
(4)显示 HDFS中指定的文件的读写权限、大小、创建时间、路径等信息
hdfs dfs -ls -h /user/hadoop/input/zhang.txt
(5)给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;
hdfs dfs -ls -R -h /user/hadoop/input
(6)提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录
if $(hadoop dfs -test -d /user/hadoop/zjb);
then $(hadoop dfs -touch /user/hadoop/zjb/zhangjiabo.txt);
else $(hadoop dfs -mkdir -p /user/hadoop/zjb && hadoop dfs -touch
user/hadoop/zjb/zhangjiabo.txt);
fi
(7)提供一个 HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录
hdfs dfs -rm -r /user/hadoop/zjb
(8)向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;(以结尾举例)
hdfs dfs -appendToFile /home/hadoop/appent.txt input/zhang.txt
(9)删除HDFS中指定的文件
hdfs dfs -rm input/myLocalFile.txt
(10)删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录
hdfs dfs -rm -r new
(11)在 HDFS 中,将文件从源路径移动到目的路径
hdfs dfs -mv /user/hadoop/input/zhang.txt /user/hadoop/new/zhang.txt
|