0%

hadoop伪分布式集群安装

一、下载hadoop安装包

hadoop安装包分为apache官方以及CDH,具体区别在此不做介绍,本次搭建选择的是hadoop-2.6.0-cdh5.7.0版本
下载路径http://archive.cloudera.com/cdh5/


二、配置hadoop

hadoop相关配置文件在/etc目录下
我们需要修改的文件有
core-site.xmlhadoop-env.shhdfs-site.xml

  1. hadoop-env.sh文件中的JAVA_HOME进行一下配置
  2. hdfs-site.xml文件中添加配置

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    <configuration>
    <property>
    <!-- 存储副本的数量,因为我们是伪分布式,所以副本数量为1 -->
    <name>dfs.replication</name>
    <value>1</value>
    </property>
    <!-- namenode相关信息存储路径 -->
    <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/XXX/Hadoop/dfs/name</value>
    </property>
    <!-- datanode相关信息存储路径 -->
    <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/XXX/Hadoop/dfs/data</value>
    </property>
    </configuration>

    配置好之后我们需要创建/XXX/Hadoop/dfs/name/XXX/Hadoop/dfs/data这两个文件

  3. 配置core-site.xml

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    <configuration>
    <!-- 表明我们hdfs的默认ip -->
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
    </property>
    <!-- 表明我们tmp文件的路径 -->
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/XXX/Hadoop/tmp</value>
    </property>
    </configuration>

    之后我们需要进到/bin目录下面执行./hdfs namenode -format对namenode进行格式化
    如果看到下面这段话则说明格式化成功

    1
    19/12/07 15:04:31 INFO util.ExitUtil: Exiting with status 0

三、启动

  1. /sbin目录下面使用./start-dfs.sh启动hdfs集群
  2. 使用./hdfs dfs -ls /查看hdfs根目录为空
  3. 然后我们在执行./hdfs dfs -mkdir /test之后再查询会发现根目录已经存在/test文件