IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Hadoop基础 -> 正文阅读

[大数据]Hadoop基础

一、从Hadoop框架讨论大数据生态

大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

1.1 Hadoop是什么

(1)Hadoop是一个由Apache基金会所开发的分布式系统基础架构
(2)主要解决,海量数据的存储和海量数据的分析计算问题。
(3)广义上来说,HADOOP通常是指一个更广泛的概念——HADOOP生态圈
在这里插入图片描述

1.2 Hadoop发展历史

(1)Lucene–Doug Cutting开创的开源软件,用java书写代码,实现与Google类似的全文搜索功能,它提供了全文检索引擎的架构,包括完整的查询引擎和索引引擎
(2)2001年年底成为apache基金会的一个子项目
(3)对于大数量的场景,Lucene面对与Google同样的困难
(4)学习和模仿Google解决这些问题的办法 :微型版Nutch
(5)可以说Google是hadoop的思想之源(Google在大数据方面的三篇论文)
GFS —>HDFS
Map-Reduce —>MR
BigTable —>Hbase
(6)2003-2004年,Google公开了部分GFS和Mapreduce思想的细节,以此为基础Doug Cutting等人用了2年业余时间实现了DFS和Mapreduce机制,使Nutch性能飙升
(7)2005 年Hadoop 作为 Lucene的子项目 Nutch的一部分正式引入Apache基金会。2006 年 3 月份,Map-Reduce和Nutch Distributed File System (NDFS) 分别被纳入称为 Hadoop 的项目中
(8)名字来源于Doug Cutting儿子的玩具大象
在这里插入图片描述

(9)Hadoop就此诞生并迅速发展,标志这云计算时代来临

1.3 Hadoop三大发行版本

Hadoop 三大发行版本: Apache、Cloudera、Hortonworks
Apache版本最原始(最基础)的版本,对于入门学习最好。
Cloudera在大型互联网企业中用的较多。
Hortonworks文档较好。

Cloudera Hadoop

(1)2008年成立的Cloudera是最早将Hadoop商用的公司,为合作伙伴提供Hadoop的商用解决方案,主要是包括支持、咨询服务、培训。
(2)2009年Hadoop的创始人Doug Cutting也加盟Cloudera公司。Cloudera产品主要为CDH,Cloudera Manager,Cloudera Support
(3)CDH是Cloudera的Hadoop发行版,完全开源,比Apache Hadoop在兼容性,安全性,稳定性上有所增强。
(4)Cloudera Manager是集群的软件分发及管理监控平台,可以在几个小时内部署好一个Hadoop集群,并对集群的节点及服务进行实时监控。Cloudera Support即是对Hadoop的技术支持。
(5)Cloudera的标价为每年每个节点4000美元。Cloudera开发并贡献了可实时处理大数据的Impala项目。

Hortonworks Hadoop

(1)2011年成立的Hortonworks是雅虎与硅谷风投公司Benchmark Capital合资组建。
(2)公司成立之初就吸纳了大约25名至30名专门研究Hadoop的雅虎工程师,上述工程师均在2005年开始协助雅虎开发Hadoop,贡献了Hadoop80%的代码。
(3)雅虎工程副总裁、雅虎Hadoop开发团队负责人Eric Baldeschwieler出任Hortonworks的首席执行官。
(4)Hortonworks的主打产品是Hortonworks Data Platform(HDP),也同样是100%开源的产品,HDP除常见的项目外还包括了Ambari,一款开源的安装和管理系统。
(5)HCatalog,一个元数据管理系统,HCatalog现已集成到Facebook开源的Hive中。Hortonworks的Stinger开创性的极大的优化了Hive项目。Hortonworks为入门提供了一个非常好的,易于使用的沙盒。
(6)Hortonworks开发了很多增强特性并提交至核心主干,这使得Apache Hadoop能够在包括Window Server和Windows Azure在内的microsoft Windows平台上本地运行。定价以集群为基础,每10个节点每年为12500美元。

1.4 Hadoop的优势

(1)高可靠性:因为Hadoop假设计算元素和存储会出现故障,因为它维护多个工作数据副本,在出现故障时可以对失败的节点重新分布处理。
(2)高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。
(3)高效性:在MapReduce的思想下,Hadoop是并行工作的,以加快任务处理速度。
(4)高容错性:自动保存多份副本数据,并且能够自动将失败的任务重新分配。

1.5 Hadoop组成

(1)Hadoop HDFS:一个高可靠、高吞吐量的分布式文件系统。
(2)Hadoop MapReduce:一个分布式的离线并行计算框架。
(3)Hadoop YARN:作业调度与集群资源管理的框架。
(4)Hadoop Common:支持其他模块的工具模块。
在这里插入图片描述

HDFS架构概述
(1)NameNode(nn):存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间、副本数、文件权限),以及每个文件的块列表和块所在的DataNode等。
(2)DataNode(dn):在本地文件系统存储文件块数据,以及块数据的校验和。
(3)Secondary NameNode(2nn):用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据的快照。
YARN架构概述
(1)ResourceManager(rm):处理客户端请求、启动/监控ApplicationMaster、监控NodeManager、资源分配与调度;
(2)NodeManager(nm):单个节点上的资源管理、处理来自ResourceManager的命令、处理来自ApplicationMaster的命令;
(3)ApplicationMaster:数据切分、为应用程序申请资源,并分配给内部任务、任务监控与容错。
(4)Container:对任务运行环境的抽象,封装了CPU、内存等多维资源以及环境变量、启动命令等任务运行相关的信息。
MapReduce架构概述
MapReduce将计算过程分为两个阶段:Map和Reduce
(1)Map阶段并行处理输入数据
(2)Reduce阶段对Map结果进行汇总

1.6 大数据生态体系

(1)Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
(2)Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
(3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:
通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。
支持通过Kafka服务器和消费机集群来分区消息。
支持Hadoop并行数据加载。
(4)Storm:Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。
(5)Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
(6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。
(7)Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
(8)Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
(9)R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。
(10)Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库。
(11)ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。
在这里插入图片描述

二、Hadoop环境配置

2.1 虚拟机网络模式设置为NAT(静态模式)

设置虚拟机网卡,请参考以下博客

这里是引用

安装虚拟机,请参考以下博客

这里是引用

点击新建好的虚拟机右键:
在这里插入图片描述
在这里插入图片描述

2.2 修改静态IP

(1)查看网关地址
在这里插入图片描述
(2)修改ip地址
登录到Linux,执行命令(ifcfg-eno16777736是当前虚拟机的网卡名称)

vi /etc/sysconfig/network-scripts/ifcfg-eno16777736

添加以下5项内容:

IPADDR=192.168.181.150
NETMASK=255.255.255.0
GATEWAY=192.168.181.2
ONBOOT=yes
BOOTPROTO=static
DNS1=192.168.181.2

根据自己的网关进行添加
没有修改前:
在这里插入图片描述
修改后:
在这里插入图片描述
按Ees键退出编辑模式,按 :wq 保存退出
(3)重启网卡服务
执行命令

service network restart

2.3 修改映射名和配置host文件

我们可以进行修改。通过编辑/etc/hosts文件
执行命令

vi  /etc/hosts

在这里插入图片描述

2.4 关闭防火墙

关闭防火墙(CentOS7下)
执行命令关闭防火墙

systemctl 	stop  firewalld.service

执行命令禁止开机启用防火墙

systemctl  disable  firewalld.service

2.5 上传文件需要文件

进入到/目录下,创建两个目录
执行命令创建上传安装的文件的目录

mkdir  /tools 

执行命令创建解压环境目录

mkdir  /training

点击MobaXterm工具的左边菜单,像操作Windows一样,点击上传的按钮
MobaXterm远程登录工具参考以下博客

这里是引用

将需要的工具进行上传到tools目录下
在这里插入图片描述

2.6 安装JDK

把上传到tools目录下的JDK进行解压
执行命令解压

tar  -zvxf  /tools/jdk-8u171-linux-x64.tar.gz  -C  /training/

配置环境变量:
执行命令

vi   ~/.bash_profile

添加JDK的环境变量,添加如下信息

export JAVA_HOME=/training/jdk1.8.0_171
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

在这里插入图片描述
执行命令让环境变量生效

source  ~/.bash_profile

执行命令验证jdk是否安装成功

java  -version

在这里插入图片描述

2.7 安装Hadoop

把上传到tools目录下的Hadoop进行解压
执行命令解压Hadoop

tar  -zvxf  /tools/hadoop-2.7.3.tar.gz  -C  /training

配置环境变量:
执行命令

vi  ~/.bash_profile

添加Hadoop环境变量,添加如下信息

export HADOOP_HOME=/training/hadoop-2.7.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

在这里插入图片描述
执行命令让环境变量生效

source  ~/.bash_profile

三、Hadoop运行模式

(1)官方网址

  • 官方网站
    http://hadoop.apache.org/
  • 各个版本归档库地址
    https://archive.apache.org/dist/hadoop/common/hadoop-2.7.3/
  • hadoop2.7.2版本详情介绍
    http://hadoop.apache.org/docs/r2.7.3/
    (2)Hadoop运行模式
  • 本地模式(默认模式)
    不需要启用单独进程,直接可以运行,测试和开发时使用
  • 伪分布式模式
    等同于完全分布式,只有一个节点
  • 完全分布式模式
    多个节点一起运行

3.1 本地模式案例测试

特点:没有HDFS,只能进行MapReduce计算,而且只操作Linux上的文件
进入到hadoop安装的目录下/training/hadoop-2.7.3/etc/hadoop
执行命令

vi  hadoop-env.sh

修改Java环境变量(这里是修改原文件中的位置中有该配置)

export JAVA_HOME=/training/jdk1.8.0_171

在这里插入图片描述
保存并退出

3.1.1 官方Grep案例

在/下面创建一个/demo/input目录,执行命令

mkdir /demo/input

将Hadoop的xml配置文件复制到input,执行命令

cp /training/hadoop-2.7.3/etc/hadoop/*.xml /demo/input

进入到:cd /training/hadoop-2.7.3/share/hadoop/mapreduce/目录下
执行命令

hadoop jar hadoop-mapreduce-examples-2.7.3.jar grep /demo/input /demo/output 'dfs[a-z.]+'

在这里插入图片描述

注意:~/demo/output 不需要事先存在,存在会报错

进入到/demo/output下查看结果,执行命令

cat /demo/output

在这里插入图片描述

3.1.2 官方wordcount案例

测试前需要创建测试目录和测试文件

vi  /demo/input/test.txt

输入如下内容:

I love Guiyang
I love Guizhou
Guiyang is the capital of Guizhou

进入到:cd /training/hadoop-2.7.3/share/hadoop/mapreduce/目录下
执行命令

hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /demo/input/test.txt /demo/output

在这里插入图片描述

注意:~/demo/output 不需要事先存在,存在会报错

查看结果:
MapReduce程序的执行结果会默认按照英文单词的字典顺序进行了排序
在这里插入图片描述

3.2 伪分布模式

特点:具备HDFS全部功能
HDFS:NameNode + DataNode
Yarn:ReourceManager + NodeManager
1)分析
(1)准备1台客户机
(2)安装jdk
(3)配置环境变量
(4)安装hadoop
(5)配置环境变量
(6)配置集群
(7)启动、测试集群增、删、查
(8)在HDFS上执行wordcount案例
2)执行步骤
需要配置hadoop文件如下
(a)配置:hadoop-env.sh
进入到hadoop目录下/training/hadoop-2.7.3/etc/hadoop
执行命令:vi hadoop-env.sh
配置Java环境变量:
export JAVA_HOME=/training/jdk1.8.0_171

注:此处在本地模式案例已经进行配置

进入到:cd /training/hadoop-2.7.3/etc/hadoop目录下
(b)配置:hdfs-site.xml
执行命令

vi  hdfs-site.xml

添加以下内容,原则是:一般有几个数据节点就配置几个,但是最多不能超多3

<!--表示数据块的冗余度 默认为3-->
<property>
	<name>dfs.replication</name>
	<value>1</value>
</property>

在这里插入图片描述
(c)配置:core-site.xml
执行命令

vi  core-site.xml

添加以下内容

<!--配置NameNode的通讯地址 9000 是RPC默认的通信端口-->
<!— bigdata是你的Linux映射的名字(填ip地址或映射名) -->
<property>
		<name>fs.defaultFS</name>
		<value>hdfs://bigdata:9000</value>
</property>			
<!--HDFS数据保存在Linux的哪个目录,默认值是Linux的tmp目录必须配置-->
<property>
		<name>hadoop.tmp.dir</name>
		<value>/training/hadoop-2.7.3/tmp</value>
</property>

在这里插入图片描述

注意: /training/hadoop-2.7.3/tmp 必须事先存在,否则会报错

执行命令创建目录

mkdir  /training/hadoop-2.7.3/tmp

(d)配置:mapred-site.xml
这个文件事先是不存在的,需要复制一份
执行命令复制

cp  mapred-site.xml.template  mapred-site.xml

执行命令

vi  mapper-site.xml

添加以下内容

<!--配置MR的运行框架-->
<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
</property>

在这里插入图片描述
(e)配置:yarn-site.xml
执行命令

vi  yarn-site.xml

添加以下内容

<!--Yarn的主节点RM的位置,bigdata是你ip地址的映射名-->
<property>
		<name>yarn.resourcemanager.hostname</name>
		<value>bigdata</value>
</property>
<!--MapReduce运行方式:shuffle洗牌-->
<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
</property>	

在这里插入图片描述

(f) 先配置免密码登录
执行命令生成公钥和私钥:
执行命令

ssh-keygen -t rsa

然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
在这里插入图片描述

将公钥拷贝到要免密登录的目标机器上(192.168.181.150,bigdata)
执行命令

ssh-copy-id bigdata

在这里插入图片描述

(g)格式化:HDFS(NameNode)
执行命令

	hdfs  namenode  -format

在这里插入图片描述

格式化没有任何错误,说明配置成功。
启动hadoop集群命令

start-all.sh

如果Hadoop集群启动没有任何错误,输入jps会有以下内容
在这里插入图片描述
访问:打开浏览器,在浏览器输入以下地址就可以访问web界面(bigdata是Linux的ip地址)
HDFS

http://bigdata:50070

在这里插入图片描述
Yarn

http:// bigdata:8088

在这里插入图片描述

停止hadoop集群命令

stop-all.sh

3.3 Hadoop伪分布wordcount例子
在Linux本地下,编辑demo.txt文件,写入单词。
首先查看Linux目录下是否有/demo/input目录,如果没有执行以下命令创建目录
执行命令创建目录:mkdir -p /demo/input
执行命令创建文件:vi /demo/input/demo.txt
将以下英文复制到demo.txt文本中(这里英文要求大家不能相同,到网上随便找一篇)
I have a dream that one day this nation will rise up and live out the true meaning of its creed: “We hold these truths to be self-evident, that all men are created equal.”
I have a dream that one day on the red hills of Georgia, the sons of former slaves and the sons of former slave owners will be able to sit down together at the table of brotherhood.
I have a dream that one day even the state of Mississippi, a state sweltering with the heat of injustice, sweltering with the heat of oppression, will be transformed into an oasis of freedom and justice.
I have a dream that my four little children will one day live in a nation where they will not be judged by the color of their skin but by the content of their character.
I have a dream today!
I have a dream that one day, down in Alabama, with its vicious racists, with its governor having his lips dripping with the words of “interposition” and “nullification” – one day right there in Alabama little black boys and black girls will be able to join hands with little white boys and white girls as sisters and brothers.
I have a dream today!
I have a dream that one day every valley shall be exalted, and every hill and mountain shall be made low, the rough places will be made plain, and the crooked places will be made straight; “and the glory of the Lord shall be revealed and all flesh shall see it together.”
测试需要把文件上传到HDFS上,在HDFS上创建一个目录
执行命令创建目录:hadoop fs -mkdir /input

将本地的文本上传到HDFS上创建的目录
执行命令上传文件:hadoop fs -put /demo/input/demo.txt /input

进入到:cd /training/hadoop-2.7.3/share/hadoop/mapreduce/目录下
执行命令分析文件:
hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /input/demo.txt /output

查看结果
执行命令查看分析结果:hadoop fs -cat /output/part-r-0000

或者到HDFS中下载到本地,如果要下载到本地,需要进行Windows的配置,配置如下图

将hosts文件复制到桌面,使用记事本打开,添加Linux的ip地址及映射名,保存之后复制到原来复制出来的文件,替换掉原来的文件。

打开HDFS的管理界面,就是配置好之后HDFS:http://bigdata:50070这个界面,点击下图就可以下载

3.4 Hadoop全分布模式
分析:
1)准备3台客户机(关闭防火墙、静态ip、主机名称)
2)安装jdk
3)配置环境变量
4)安装hadoop
5)配置环境变量
6)安装ssh
7)配置集群
8)启动测试集群
1)准备工作
1、所有主机安装jdk
2、所有主机都需要关闭防火墙
3、所有主机都需要配置主机名 vi /etc/hosts
4、配置免密码登录(配置两两之间的免密码登录)
所有的机器都需要产生一对密钥:公钥和私钥
ssh-keygen -t rsa

			所有主机需要执行
			ssh-copy-id -i .ssh/id_rsa.pub root@hadoop01
			ssh-copy-id -i .ssh/id_rsa.pub root@hadoop02
			ssh-copy-id -i .ssh/id_rsa.pub root@hadoop03

5、保证每台机器的时间是一样的
如果不一样的话,我们在执行MapReduce程序的时候可能会存在问题
解决方案:
1)搭建一个时间同步的服务器,网上很多教程可以使用
2)使用putty工具,可以简单实现这个功能:
date -s 2020-09-01 后面必须敲一个回车
2)在主节点上进行安装配置(hadoop01)
)上传hadoop安装包,解决配置环境变量
tar -zvxf hadoop-2.7.3.tar.gz -C /training/
同时设置:hadoop01 hadoop02 hadoop03
HADOOP_HOME=/training/hadoop-2.7.3
export HADOOP_HOME
PATH= H A D O O P H O M E / b i n : HADOOP_HOME/bin: HADOOPH?OME/bin:HADOOP_HOME/sbin:$PATH
epxort PATH
)修改配置文件
vi hadoop-env.sh 设置JDK的路径
hdfs-site.xml:


dfs.replication
2

core-site.xml:


fs.defaultFS
hdfs://hadoop01:9000



hadoop.tmp.dir
/training/hadoop-2.7.3/tmp

mapper-site.xml:


mapreduce.framework.name
yarn

yarn-site.xml:


yarn.resourcemanager.hostname
niit01



yarn.nodemanager.aux-services
mapreduce_shuffle

savles:
hadoop02
hadoop03
)格式化nameNode
hdfs namenode -format
日志:
common.Storage: Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted.
)将hadoop01上的hadoop环境复制到hadoop02 hadoop03
scp -r hadoop-2.7.3/ root@hadoop02:/training/
scp -r hadoop-2.7.3/ root@hadoop03:/training/
(*)在主节点(niit01)上启动hdfs
start-all.sh
3.5 Hadoop启动停止方式
1)各个服务组件逐一启动
(1)分别启动hdfs组件
hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode
(2)启动yarn
yarn-daemon.sh start|stop resourcemanager|nodemanager
2)各个模块分开启动(配置ssh是前提)常用
(1)整体启动/停止hdfs
start-dfs.sh
stop-dfs.sh
(2)整体启动/停止yarn
start-yarn.sh
stop-yarn.sh
3)全部启动(不建议使用)
start-all.sh
stop-all.sh
3.6 配置集群常见问题
1)防火墙没关闭、或者没有启动yarn
INFO client.RMProxy: Connecting to ResourceManager at hadoop/192.168.181.100:8032
2)主机名称配置错误
3)ip地址配置错误
4)ssh没有配置好
5)root用户启动集群不统一
6)配置文件修改不细心
7)未编译源码
Unable to load native-hadoop library for your platform… using builtin-java classes where applicable
17/05/22 15:38:58 INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032
8)datanode不被namenode识别问题
Namenode在format初始化的时候会形成两个标识,blockPoolId和clusterId。新的datanode加入时,会获取这两个标识作为自己工作目录中的标识。
一旦namenode重新format后,namenode的身份标识已变,而datanode如果依然持有原来的id,就不会被namenode识别。
解决办法,删除datanode节点中的数据后,再次重新格式化namenode。
9)不识别主机名称
java.net.UnknownHostException: hadoop: hadoop
at java.net.InetAddress.getLocalHost(InetAddress.java:1475)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:146)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
解决办法:
(1)在/etc/hosts文件中添加192.168.181.100 hadoop
(2)主机名称不要起hadoop hadoop000等特殊名称
10)datanode和namenode进程同时只能工作一个。
11)执行命令 不生效,粘贴word中命令时,遇到-和长–没区分开。导致命令失效
解决办法:尽量不要粘贴word中代码。
12)jps发现进程已经没有,但是重新启动集群,提示进程已经开启。原因是在linux的根目录下/tmp目录中存在启动的进程临时文件,将集群相关进程删除掉,再重新启动集群。

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-09-24 10:37:42  更:2021-09-24 10:39:08 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 22:54:03-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码