一、下载hadoop安装包
hadoop安装包分为apache官方以及CDH,具体区别在此不做介绍,本次搭建选择的是hadoop-2.6.0-cdh5.7.0版本
下载路径http://archive.cloudera.com/cdh5/
二、配置hadoop
hadoop相关配置文件在/etc目录下
我们需要修改的文件有core-site.xml,hadoop-env.sh,hdfs-site.xml
- 对hadoop-env.sh文件中的JAVA_HOME进行一下配置
- 在 - hdfs-site.xml文件中添加配置- 1 
 2
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17- <configuration> 
 <property>
 <!-- 存储副本的数量,因为我们是伪分布式,所以副本数量为1 -->
 <name>dfs.replication</name>
 <value>1</value>
 </property>
 <!-- namenode相关信息存储路径 -->
 <property>
 <name>dfs.namenode.name.dir</name>
 <value>file:/XXX/Hadoop/dfs/name</value>
 </property>
 <!-- datanode相关信息存储路径 -->
 <property>
 <name>dfs.datanode.data.dir</name>
 <value>file:/XXX/Hadoop/dfs/data</value>
 </property>
 </configuration>- 配置好之后我们需要创建 - /XXX/Hadoop/dfs/name和- /XXX/Hadoop/dfs/data这两个文件
- 配置 - core-site.xml- 1 
 2
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12- <configuration> 
 <!-- 表明我们hdfs的默认ip -->
 <property>
 <name>fs.defaultFS</name>
 <value>hdfs://localhost:9000</value>
 </property>
 <!-- 表明我们tmp文件的路径 -->
 <property>
 <name>hadoop.tmp.dir</name>
 <value>/XXX/Hadoop/tmp</value>
 </property>
 </configuration>- 之后我们需要进到/bin目录下面执行 - ./hdfs namenode -format对namenode进行格式化
 如果看到下面这段话则说明格式化成功- 1 - 19/12/07 15:04:31 INFO util.ExitUtil: Exiting with status 0 
三、启动
- /sbin目录下面使用./start-dfs.sh启动hdfs集群
- 使用./hdfs dfs -ls /查看hdfs根目录为空
- 然后我们在执行./hdfs dfs -mkdir /test之后再查询会发现根目录已经存在/test文件