首页 > 技术文章 > Ubuntu下hadoop集群搭建

huxinga 2017-05-26 22:05 原文

 

--修改IP地址(克隆镜像后可修改可不修改)

http://jingyan.baidu.com/article/e5c39bf5bbe0e739d7603396.html 

-----------------------------

--修改主机名:

--修改主机名和IP的映射关系:

--检查是否ping得通主机名:

--检查ssh是否可以免密登录:

 如果不可以免密登录,则:

sudo apt-get update
sudo apt-get install openssh-server
sudo ps -e |grep ssh
ssh-keygen -t rsa
ssh-copy-id -i  ***主机名

  可以免密登录,就不用再输入密码

--检查防火墙:  该命令仅限于Ubuntu使用

--查看java情况:

java -version

 --将主节点的profile文件拷贝到另外两个从节点上(这样可以节约许多配置的时间):

scp /etc/profile/ 192.168.22.132:/etc/profile
scp /etc/profile/ 192.168.22.135:/etc/profile

--将主节点上的jdk拷贝到另外两个从节点上:

/usr/local# scp -r jdk1.7.0_79/ 192.168.22.132:/usr/local
/usr/local# scp -r jdk1.7.0_79/ 192.168.22.135:/usr/local

--在两个从节点中source一下配置文件才能生效:

source /etc/profile

--在主节点上修改/etc/hosts文件

在内容中有如下
192.168.2.xxx node1

192.168.2.xxx node2

192.168.2.xxx node3

在主节点上执行ping node2或者ping node3不报错

--在主节点上执行,将主节点的秘钥拷贝到另外两个从节点上:

ssh-copy-id -i Ubuntu-2
ssh-copy-id -i Ubuntu-135

在另外两个节点上也要执行,这样集群之间就能互相免密登录了

--在主节点上执行:

scp /etc/hosts Ubuntu-2:/etc
scp /etc/hosts Ubuntu-135:/etc

--这里需要在主节点上把单节点的伪分布安装成功,详细步骤之前的博客中有,如果在之前部署单节点的伪分布安装时,进行了格式化,则需要将tmp文件删除

root@Ubuntu-1:/usr/local/hadoop-2.6.0# ls
bin  etc  include  lib  libexec  LICENSE.txt  logs  NOTICE.txt  README.txt  sbin  share  tmp
root@Ubuntu-1:/usr/local/hadoop-2.6.0# rm -r tmp/
root@Ubuntu-1:/usr/local/hadoop-2.6.0# ls
bin  etc  include  lib  libexec  LICENSE.txt  logs  NOTICE.txt  README.txt  sbin  share

--在主节点上执行:

root@Ubuntu-1:/usr/local/hadoop-2.6.0/etc/hadoop# vi slaves

把文件中的所有信息都删了,在slaves文件中加入如下信息:Ubuntu-1

                           Ubuntu-2

                           Ubuntu-135

--将主节点中的Hadoop文件拷到另外两个从节点中:

root@Ubuntu-1:/usr/local# scp -r hadoop-2.6.0 Ubuntu-2:/usr/local
root@Ubuntu-1:/usr/local# scp -r hadoop-2.6.0 Ubuntu135:/usr/local

--在node1中执行格式化命令       bin/hdfs namenode -format 

--在node1中执行启动命令          sbin/start-all.sh 

 

推荐阅读