1. 配置 workers
[zs@hadoop102 hadoop]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/workers
在该文件中增加如下内容:
hadoop102
hadoop103
hadoop104
添加集群的主机名称
注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。
同步所有节点配置文件:
[zs@hadoop102 hadoop]$ xsync /opt/module/hadoop-3.1.3/etc
2. 启动集群
(1)如果集群是第一次启动,需要在 hadoop102 节点格式化 NameNode。 (注意:格式化 NameNode,会产生新的集群 id,导致 NameNode 和 DataNode 的集群 id 不一致,集群找不到已往数据。如果集群在运行过程中报错,需要重新格式化 NameNode 的话,一定要先停止 namenode 和 datanode 进程,并且要删除所有机器的 data 和 logs 目录,然后再进行格式化。)
[zs@hadoop102 hadoop-3.1.3]$ hdfs namenode -format
(2)启动 HDFS
[zs@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
(3)在配置了 ResourceManager 的节点(hadoop103)启动 YARN
[zs@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh
(4)Web 端查看 HDFS 的 NameNode
(5)Web 端查看 YARN 的 ResourceManager
- (a)浏览器中输入:
http://hadoop103:8088 - (b)查看 YARN 上运行的 Job 信息
3. 集群基本测试
(1)上传文件到集群
[zs@hadoop102 ~]$ hadoop fs -mkdir /input
[zs@hadoop102 ~]$ hadoop fs -put $HADOOP_HOME/wcinput/word.txt /input
[zs@hadoop102 ~]$ hadoop fs -put /opt/software/jdk-8u212-linux-x64.tar.gz /
(2)上传文件后查看文件存放在什么位置
[zs@hadoop102 subdir0]$ pwd
/opt/module/hadoop-3.1.3/data/dfs/data/current/BP-1436128598-192.168.10.1021610603650062/current/finalized/subdir0/subdir0
[zs@hadoop102 subdir0]$ cat blk_1073741825
hadoop yarn
hadoop mapreduce
(3)拼接
-rw-rw-r--. 1 atguigu atguigu 134217728 5 月 23 16:01 blk_1073741836
-rw-rw-r--. 1 atguigu atguigu 1048583 5 月 23 16:01 blk_1073741836_1012.meta
-rw-rw-r--. 1 atguigu atguigu 63439959 5 月 23 16:01 blk_1073741837
-rw-rw-r--. 1 atguigu atguigu 495635 5 月 23 16:01 blk_1073741837_1013.meta
[zs@hadoop102 subdir0]$ cat blk_1073741836>>tmp.tar.gz
[zs@hadoop102 subdir0]$ cat blk_1073741837>>tmp.tar.gz
[zs@hadoop102 subdir0]$ tar -zxvf tmp.tar.gz
把HDFS本次磁盘存储的文件拼接一起,后解压缩,即是源文件
(4)下载
[zs@hadoop104 software]$ hadoop fs -get /jdk-8u212-linux-x64.tar.gz ./
(5)执行 wordcount 程序
[zs@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output
加油!
感谢!
努力!
|