• 欢迎访问搞代码网站,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站!
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏搞代码吧

Hadoop集群中引入新DataNode节点

mysql 搞代码 4年前 (2022-01-09) 56次浏览 已收录 0个评论

例如新增的节点ip为192.168.1.xxx 在所有nn和dn节点上增加192.168.1.xxx datanode-xxx的hosts 在xxx上新建用户 useradd hadoop -s /bin/bash -m 并将其他dn上的.ssh中的所有文件拷贝到xxx上的/home/ hadoop /.ssh路径下 安装jdk apt-get install sun-java6-j

例如新增的节点ip为192.168.1.xxx
在所有nn和dn节点上增加192.168.1.xxx datanode-xxx的hosts

在xxx上新建用户
useradd hadoop本文来源gao@daima#com搞(%代@#码网@s /bin/bash -m
并将其他dn上的.ssh中的所有文件拷贝到xxx上的/home/hadoop/.ssh路径下

安装jdk
apt-get install sun-java6-jdk
hadoop文件拷贝到/home/hadoop下

修改slaves文件
增加 datanode-xxx
并同步到各个集群节点中

切换到hadoop用户下
启动数据节点
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start tasktracker

完成以后,进行数据同步
bin/start-balancer.sh -threshold 3

对于新增的节点:
需要重新设置hostname,hostname设置为与slaves配置文件中相同的内容。
hostname datanode-xxx(重启后失效)
修改/etc/hostname,然后执行/etc/init.d/hostname.sh start(重启后不失效)

然后就可以通过
http://namenodeip:50070 来查看新增节点是否可以正常引入到集群。


搞代码网(gaodaima.com)提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发送到邮箱[email protected],我们会在看到邮件的第一时间内为您处理,或直接联系QQ:872152909。本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:Hadoop集群中引入新DataNode节点

喜欢 (0)
[搞代码]
分享 (0)
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址