IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> HDFS的搭建 -> 正文阅读

[大数据]HDFS的搭建

网络和主机名配置

IP,HostName,/etc/hosts ip hostname

  • 网络配置和hostname的配置(使用nmtui 命令)
# 配置完成后需要重启网卡
systemctl restart network

在这里插入图片描述

  • ip 与 hostname的映射配置 (vim /etc/hosts)
192.168.232.101 master
192.168.232.102 slave1
192.168.232.103 slave2
192.168.232.104 slave3
192.168.232.105 slave4

建立主机互信(互相免密访问)

以下操作需在每台主机上执行

  • 在本机生成密钥和公钥对
ssh-keygen -t rsa
  • 将公钥交给可以免密访问本机的主机 (给访问者授权,注意:本机也要授权给自己,否则启动hadoop时自我访问会失败)
hosts="master slave1 slave2 slave3 slave4"
for host in $hosts
do
  ssh-copy-id $host
done

配置jdk环境变量

echo '
export JAVA_HOME=/usr/local/jdk1.8.0_131
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar  
export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile
source /etc/profile
检查配置是否成功:java -version

安装hadoop

  • 配置hadoop环境变量
echo 'export PATH=$PATH:/usr/local/hadoop-2.7.3/bin:/usr/local/hadoop-2.7.3/sbin' >> /etc/profile
source /etc/profile
输入命令:hadoop
验证环境变量是否配置成功
  • 配置hadoop的java运行环境(必须配置,否则hadoop找不到JAVA_HOME的环境变量)
vim /usr/local/hadoop-2.7.3/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_131

配置HDFS

  • 创建存放hadoop数据的文件夹
mkdir /home/hadoopData
  • 修改core-site.xml,在configuration标签内加入以下配置
<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:9000</value>
</property>

<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/hadoopData</value>
</property>

<property>
    <name>fs.trash.interval</name>
    <value>4320</value>
</property>
</configuration>
  • 修改hdfs-site.xml,在configuration标签内加入以下配置
<configuration>
<property>
   <name>dfs.namenode.name.dir</name>
   <value>/home/hadoopData/dfs/name</value>
 </property>
 
 <property>
   <name>dfs.datanode.data.dir</name>
   <value>/home/hadoopData/dfs/data</value>
 </property>
 
 <property>
   <name>dfs.replication</name>
   <value>3</value>
 </property>
 
 <property>
   <name>dfs.webhdfs.enabled</name>
   <value>true</value>
 </property>
 
 <property>
   <name>dfs.permissions.superusergroup</name>
   <value>staff</value>
 </property>
 
 <property>
   <name>dfs.permissions.enabled</name>
   <value>false</value>
 </property>
</configuration>

配置NameNode节点

  • 将master配置为NameNode,其他主机配置为DataNode

slave1、slave2、slave3、slave4都是DataNode的节点我把它们加入到我的NanmeNode节点中这样我就可以一个命令启动整个集群。

在master主机的Hadoop目录下修改slaves文件,加入DataNode的节点
echo 'slave1
slave2
slave3
slave4' >> /usr/local/hadoop-2.7.3/etc/hadoop/slaves

格式化NameNode、启动HDFS系统

#在master主机上 执行HDFS格式化命令
hdfs namenode -format

#启动HDFS系统命令
start-dfs.sh

关闭防火墙

systemctl stop firewalld
systemctl status firewalld
systemctl disable firewalld
systemctl enable firewalld
systemctl start firewalld
systemctl restart firewalld

http://192.168.232.101:50070/

在这里插入图片描述

参考:HDFS系统的搭建(整理详细版) - 简书 (jianshu.com)

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-14 14:08:30  更:2021-08-14 14:08:51 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 8:46:23-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码