Centos 7安装配置Hadoop 2.7.7

wylc123 11月前 ⋅ 604 阅读

1. 下载安装包

华为镜像下载

2. 解压

cd /usr/local/softs
tar -zxvf hadoop-2.7.7.tar.gz

3. 修改host映射

vi /etc/hosts

192.168.209.129 node1

4. 修改配置

配置文件在目录/usr/local/softs/hadoop-2.7.7/etc/hadoop/

<!-- 文件名 core-site.xml -->
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node1:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/softs/hadoop-${user.name}</value>
    </property>
</configuration>
<!-- 文件名 hdfs-site.xml -->
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
</configuration>
<!-- 文件名 mapred-site.xml 拷贝自mapred-site.xml.template -->
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
<!-- 文件名 yarn-site.xml -->
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>node1</value>
        </property>
</configuration>
<!-- 文件名 core-site.xml -->
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node1:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/softs/hadoop-${user.name}</value>
    </property>
</configuration>
vi slaves
node 1

5. 配置环境变量(默认java环境已安装,配置)

vi /etc/profile

export HADOOP_HOME=/usr/local/softs/hadoop-2.7.7
export PATH=${PATH}:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
export HADOOP_CLASSPATH=`hadoop classpath`
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

6. ssh免密登录配置

如果没有配置免密登录的话每次登录到这台服务器都要输入密码

[root@localhost spark2.4.8]# ssh 192.168.209.129


在本地机器(192.168.209.129)生成私钥和公钥

[root@localhost ~]# cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
[root@localhost .ssh]# ssh-keygen -t rsa # 会有提示,都按回车就可以
[root@localhost .ssh]# cat id_rsa.pub >> authorized_keys # 加入授权
[root@localhost .ssh]# chmod 600 ./authorized_keys # 修改文件权限


将公钥上传到远端机器(在此为本机)

[root@localhost .ssh]# ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.209.129

7. 格式化namenode

hdfs namenode -format

看到 Storage directory /mydata/data/hadoop-root/dfs/name has been successfully formatted. 则表示成功。

8. 启动 

sbin目录下:

./start-all.sh

如果报错:

需要配置:

vi hadoop-env.sh

将JAVA_HOME路径改为自己的jdk路径

9. 测试

通过浏览器可以访问以下地址:

namenode的后台 http://node1:50070
yarn资源管理的后台 http://node1:8088

集群配置参考:

https://www.cnblogs.com/zhanglianghhh/p/9169263.html

https://www.cnblogs.com/toSeek/p/11981809.html

 


相关文章推荐

全部评论: 0

    我有话说: