| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 大数据 -> hadoop集群搭建 -> 正文阅读 |
|
[大数据]hadoop集群搭建 |
第一步:安装JDK8 第二步:修改服务器名称,我搭建的是三个结点:一个主节点master两个从节点?? 内存2GB 磁盘20GB
#vim /etc/sysconfig/network 一主: 两从: 第三步:设置网络IP与服务器名映射 查询IP #ifconfig -a 映射地址,三台服务器都要设置 #vim /etc/hosts 如果虚拟机没有关闭防火墙,需关闭防火墙,ping域名能成功 第四步:免密登录(在master节点启动hadoop集群时可以同时启动slave1、slave2节点) #ssh-keygen -t rsa 执行后一路回车 进入.ssh文件,有两个文件id_rsa(私钥)和id_rsa.pub(公钥),将公钥复制到authorized_keys并赋予authorized_keys600权限 #cd ~/.ssh/ #cat id_rsa.pub >> authorized_keys #chmod 600 authorized_key ?把公钥同步到slave1和slave2节点上 ? 第四步 搭建Hadoop环境(master) 1、创建服务器用户及用户组(三台服务器均设置) 添加用户 #adduser hadoop 为用户设置密码 #passwd hadoop 创建hadoop用户组(前面hadoop是用户组名,后一个hadoop是用户名) #usermod -a -G hadoop hadoop 赋予hadoop用户root权限 ----经测试-这样修改不行--- #vim /etc/sudoers 强制保存(wq!) ---------------end--------- -----使用这种方式---------- #sudo visudo --------end--------------- 2、安装hadoop并配置环境变量(由于Hadoop集群的每一个节点上有相同配置,因此先在master上设置,后同步到其他节点上) 上传Hadoop压缩包(hadoop-2.7.7.tar.gz),我的解压路径是:/opt/hadoop/hadoop-2.7.7 配置环境变量(根据自己的解压路径设置): #vim /etc/profile export HADOOP_HOME=/opt/hadoop/hadoop-2.7.7 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop 3、搭建集群环境准备 切换hadoop用户 #su hadoop 在master节点上创建以下文件夹 /opt/hadoop/hadoop-2.7.7/hdfs /opt/hadoop/hadoop-2.7.7/hdfs/name /opt/hadoop/hadoop-2.7.7/hdfs/data /opt/hadoop/hadoop-2.7.7/hdfs/temp 4、配置hadoop相关配置文件(/opt/hadoop/hadoop-2.7.7/etc/hadoop/) 配置hadoop-env.sh 配置yarn-env.sh 配置slaves,删除localhost,配置从服务器主机 配置core-site.xml <configuration> <property> ? <name>hadoop.proxyuser.hduser.groups</name> ? <value>*</value> </property> <property> ? <name>hadoop.proxyuser.hduser.hosts</name> ? <value>*</value> </property> <property> ?? <name>hadoop.tmp.dir</name> ?? <value>file:/opt/hadoop/hadoop-2.7.7/hdfs/temp</value> ?? <description>A base for other temporary directories.</description> ?</property> ?<property> ? <name>io.file.buffer.size</name> ?? <value>131072</value> ?</property> ?<property> ?? <name>fs.defaultFS</name> ?? <value>hdfs://master:9000</value> ?</property> </configuration> 配置hdfs-size.xml <configuration> <property> ?<name>dfs.replication</name> ?? <value>3</value> ?</property> ?<property> ?? <name>dfs.namenode.name.dir</name> ?? <value>file:/opt/hadoop/hadoop-2.7.7/hdfs/name</value> ?? <final>true</final> </property> ?<property> ?? <name>dfs.datanode.data.dir</name> ?? <value>file:/opt/hadoop/hadoop-2.7.7/hdfs/data</value> ?? <final>true</final> ?</property> ?<property> ? <name>dfs.namenode.secondary.http-address</name> ?? <value>master:9001</value> ?</property> ?<property> ?? <name>dfs.webhdfs.enabled</name> ?? <value>true</value> ?</property> </configuration> 配置mapred-site.xml(如果该文件后面有.template,要删掉后缀:mv mapred-site.xml.template mapred-site.xml) <configuration> <property> ?? <name>mapreduce.framework.name</name> ?? <value>yarn</value> ?</property> <property> ?? <name>mapreduce.jobhistory.address</name> ?? <value>master:10020</value> ?</property> <property> ?? <name>mapreduce.jobhistory.webapp.address</name> ?? <value>master:19888</value> ?</property> </configuration> 配置yarn-size.xml <configuration> <!-- Site specific YARN configuration properties --> <property> ?<name>yarn.resourcemanager.address</name> ?? <value>master:8040</value> ?</property> ?<property> ?? <name>yarn.resourcemanager.scheduler.address</name> ?? <value>master:8030</value> ?</property> ?<property> ?? <name>yarn.resourcemanager.webapp.address</name> ?? <value>master:8088</value> ?</property> ?<property> ?? <name>yarn.resourcemanager.resource-tracker.address</name> ?? <value>master:8025</value> ?</property> ?<property> ?? <name>yarn.resourcemanager.admin.address</name> ?? <value>master:8141</value> ?</property> ?<property> ??? <name>yarn.nodemanager.aux-services</name> ??? <value>mapreduce_shuffle</value> ?</property> ?<property> ???? <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> ???? <value>org.apache.hadoop.mapred.ShuffleHandler</value> ?</property> </configuration> 5、将已配置的Hadoop分发到slave1、slave2虚拟机 #scp -r hadoop-2.7.7 hadoop@slave1:/opt/hadoop #scp -r hadoop-2.7.7 hadoop@slave2:/opt/hadoop 如果权限不足有两种解决方案: 1、目标文件/opt 赋权? chmod /opt 777 2、使用root用户 #scp -r hadoop-2.7.7 root@slave2:/opt/hadoop 注意:slave1、slave2虚拟机Hadoop环境变量不要忘记配置 6、运行hadoop,格式化Namenode source /etc/profile 7、启动集群 #./sbin/start-all.sh ?测试运行Hadoop自带的例子 #hadoop jar /opt/hadoop/hadoop-2.7.7/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar? pi 10 10 出现如下提示,恭喜你安装成功 本机访问hadoop管理页面 注意:修改本机hosts(C:\Windows\System32\drivers\etc\hosts) |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/24 8:56:12- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |