本篇文章有些部分与前一篇文章有关,如有不清楚的地方,可在以往文章中寻找,或给我留言哈,我一定会及时回复的。
(1)在官网下载Hadoop对应的Hbase的版本,下载完成之后,进行解压,并将其解压之后的结果传输到虚拟机内/opt/modules文件夹下。 其中,把hbase-重命名为hbase,方便后续操作(2)修改配置文件:在/hbase/conf文件下,编辑hbase-env.sh文件。
[root@localhost conf] # vim hbase-env.sh
#插入以下语句:
export JAVA_HOME=/opt/modules/jdk1.8.0_112
export HBASE_MANAGES_ZK=true
export HBASE_CLASSPATH=/opt/modules/hadoop/etc/hadoop
export HBASE_HOME=/opt/modules/hbase
export PATH=$HBASE_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$JAVA_HOME/bin:$PATH
(3)修改配置文件:在/hbase/conf文件下,编辑hbase-site.xml文件。
[root@localhost conf] # vim hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>./tmp</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<property>
<name>zookeeper.znode.parent</name>
<value>/opt/modules/hbase/master</value>
</property>
</configuration>
(4)启动hadoop
[hadoop@localhost hadoop] $ ./sbin/start-dfs.sh
(5)启动hbase
[hadoop@localhost hbase] $ bin/start-hbase.sh
(6)关闭habse
[hadoop@localhost hbase] $ bin/stop-hbase.sh
好了,本期分享到此处就结束了,下期再见。欢迎大家一键三连,更多精彩好文还在赶来的路上。
|