(二)、安装Hadoop
1、安装JDK
-
下载 -
建议下载以==-linux-x64.tar.gz==结尾的 -
先创建两个文件夹==/opt/software和/opt/modules==
mkdir -p /opt/sodtware /opt/modules
-
解压 tar -zxvf jdk-8u291-linux-x64.tar.gz -C /opt/modules
-
配置环境变量 cd /etc/profile.d/
vim my_env.sh
export JAVA_HOME=/opt/modules/jdk1.8.0_291
export PATH=$JAVA_HOME/bin
-
使配置文件生效 source /etc/profile
-
测试是否安装成功,出现版本号即为成功 java -version
2、安装hadoop
3、配置hadoop(主要讲解集群模式)
3.1、修改host文件
3.1.1、给虚拟机分配一个公网ip

3.1.2、修改hosts文件
vim /etc/hosts
192.168.0.111 hadoop101
192.168.0.112 hadoop102
192.168.0.113 hadoop103
3.2、编写分发脚本
3.3、设置免密登录
ssh-keygen -t rsa
ssh-copy-id hadoop101
ssh-copy-id hadoop102
ssh-copy-id hadoop103
4、修改配置文件
4.1、修改core-site.xml文件
vim /opt/modules/hadoop-3.1.3/etc/hadoop/core-site.xml
<!-- 指定 NameNode 的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop101:8020</value>
</property>
<!-- 指定 hadoop 数据的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/modules/hadoop-3.1.3/data</value>
</property>
<!-- 配置 HDFS 网页登录使用的静态用户为 atguigu -->
<property>
<name>hadoop.http.staticuser.user</name>
<value>root</value>
</property>
4.2、修改hdfs-site.xml文件
vim /opt/modules/hadoop-3.1.3/etc/hadoop/hdfs-site.xml
<!-- nn web 端访问地址-->
<property>
<name>dfs.namenode.http-address</name>
<value>hadoop101:9870</value>
</property>
<!-- 2nn web 端访问地址-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop103:9868</value>
</property>
4.3、修改yarn-site.xml文件
vim /opt/modules/hadoop-3.1.3/etc/hadoop/yarn-site.xml
<!-- 指定 MR 走 shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定 ResourceManager 的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop102</value>
</property>
<!-- 环境变量的继承 -->
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CO
NF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAP
RED_HOME</value>
</property>
<!-- 开启日志聚集功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 设置日志聚集服务器地址 -->
<property>
<name>yarn.log.server.url</name>
<value>http://hadoop101:19888/jobhistory/logs</value>
</property>
<!-- 设置日志保留时间为 7 天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
4.4、修改mapred-site.xml文件
vim /opt/modules/hadoop-3.1.3/etc/hadoop/mapred-site.xml
<!-- 指定 MapReduce 程序运行在 Yarn 上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!-- 历史服务器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop101:10020</value>
</property>
<!-- 历史服务器 web 端地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop101:19888</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>
<property>
<name>mapreduce.reduce.env</name>
<value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value>
</property>
<property>
<name>mapreduce.application.classpath</name>
<value>/opt/modules/hadoop-3.1.3/share/hadoop/mapreduce/*, /opt/modules/hadoop-3.1.3/share/hadoop/mapreduce/lib/*</value>
</property>
4.5、修改works
vim /opt/modules/hadoop-3.1.3/etc/hadoop/works
hadoop101
hadoop102
hadoop103
5、启动以及测试
5.1、启动
hdfs namenode -format
start-dfs.sh
start-yarn.sh
mapred --daemon start historyserver
DataNode
JobHistoryServer
NameNode
Jps
NodeManager
NodeManager
DataNode
ResourceManager
Jps
DataNode
NodeManager
SecondaryNameNode
Jps
5.2、测试
hadoop fs -mkdir /input
vim word.txt
aa bb
cc aa
e
dd
hadoop fs -put ./word.txt /input
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output
|