一、下载hadoop安装包
hadoop安装包分为apache官方以及CDH,具体区别在此不做介绍,本次搭建选择的是hadoop-2.6.0-cdh5.7.0
版本
下载路径http://archive.cloudera.com/cdh5/
二、配置hadoop
hadoop相关配置文件在/etc
目录下
我们需要修改的文件有core-site.xml
,hadoop-env.sh
,hdfs-site.xml
- 对
hadoop-env.sh
文件中的JAVA_HOME
进行一下配置 在
hdfs-site.xml
文件中添加配置1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17<configuration>
<property>
<!-- 存储副本的数量,因为我们是伪分布式,所以副本数量为1 -->
<name>dfs.replication</name>
<value>1</value>
</property>
<!-- namenode相关信息存储路径 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/XXX/Hadoop/dfs/name</value>
</property>
<!-- datanode相关信息存储路径 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/XXX/Hadoop/dfs/data</value>
</property>
</configuration>配置好之后我们需要创建
/XXX/Hadoop/dfs/name
和/XXX/Hadoop/dfs/data
这两个文件配置
core-site.xml
1
2
3
4
5
6
7
8
9
10
11
12<configuration>
<!-- 表明我们hdfs的默认ip -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<!-- 表明我们tmp文件的路径 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/XXX/Hadoop/tmp</value>
</property>
</configuration>之后我们需要进到/bin目录下面执行
./hdfs namenode -format
对namenode进行格式化
如果看到下面这段话则说明格式化成功1
19/12/07 15:04:31 INFO util.ExitUtil: Exiting with status 0
三、启动
- /sbin目录下面使用
./start-dfs.sh
启动hdfs集群 - 使用
./hdfs dfs -ls /
查看hdfs根目录为空 - 然后我们在执行
./hdfs dfs -mkdir /test
之后再查询会发现根目录已经存在/test文件