您好,登录后才能下订单哦!
密码登录
登录注册
点击 登录注册 即表示同意《亿速云用户服务条款》
# Hadoop+HBase伪分布式环境搭建指南
## 一、环境准备
### 1. 系统要求
- Linux系统(推荐Ubuntu/CentOS)
- Java 8或11(需配置JAVA_HOME)
- SSH无密码登录配置
- 至少4GB内存,20GB磁盘空间
### 2. 软件版本
- Hadoop 3.3.6
- HBase 2.5.7
- 需保持版本兼容性(参考官方兼容矩阵)
## 二、Hadoop伪分布式安装
### 1. 下载与解压
```bash
wget https://archive.apache.org/dist/hadoop/core/hadoop-3.3.6/hadoop-3.3.6.tar.gz
tar -xzvf hadoop-3.3.6.tar.gz -C /opt/
在~/.bashrc
中添加:
export HADOOP_HOME=/opt/hadoop-3.3.6
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
hdfs namenode -format # 首次需格式化
start-dfs.sh
jps # 验证NameNode/DataNode进程
wget https://archive.apache.org/dist/hbase/2.5.7/hbase-2.5.7-bin.tar.gz
tar -xzvf hbase-2.5.7-bin.tar.gz -C /opt/
在~/.bashrc
中添加:
export HBASE_HOME=/opt/hbase-2.5.7
export PATH=$PATH:$HBASE_HOME/bin
<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
</property>
</configuration>
在conf/hbase-env.sh
中添加:
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
export HADOOP_HOME=/opt/hadoop-3.3.6
start-hbase.sh
jps # 确认HMaster/HRegionServer进程
hbase shell
> create 'test', 'cf'
> put 'test', 'row1', 'cf:a', 'value1'
> scan 'test'
ssh localhost
无需密码chown
修改数据目录权限stop-hbase.sh
stop-dfs.sh
rm -rf /tmp/hadoop* /tmp/hbase*
提示:生产环境需修改配置文件中的
localhost
为实际主机名,并配置完全分布式模式。建议通过Ambari或Cloudera Manager管理集群。 “`
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。