说来也是一件很难受的事情,本来搭建好好的集群,由于IP突然的自动变换而导致集群不能正常启动,说来也是运气不好,按理来说,如果不发生变化的话各机器的IP不会发生变化,但偏偏让我遇上了,所以说有点难受。最后,为了保险起见,还是配置了静态IP以放万一。下面就来说一下如何在CentOS7中配置静态IP。
一、配置步骤
1.首先在VMWare上获取网关:
编辑–>虚拟网络编辑器–>选中NAT模式–>选择NAT设置
这里记下网关
2.获取机器当前IP
打开终端–>输入ifconfig命令–>查看esn33的inet
记下IP
3.编辑配置文件
vim /etc/sysconfig/network-scripts/ifcfg-ens33
按照下图去改,如果没有就添加上去
4.重启网络服务
systemctl restart network.service
5.测试
可以ping一下看一看是否ping成功。
6.附:在centos中搭建hadoop集群步骤
搭建集群步骤:
1.准备完全独立的三台机器,配置jdk环境。保证三台机器全部有Java 环境
vim /etc/profile 增加1
2
3JAVA_HOME=/usr/jdk1.8.0
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME PATH2.修改主机名IP地址映射,如果不修改,后面涉及到IP地址的配置比较麻烦,而且当集群节点数量增加时,你不知道那台节点是代表那台机器。
配置/etc/hosts 增加IP地址与主机名映射关系,后面直接使用主机名- 3.配置免密登陆,三台机器相互独立,不存在机器之间无缝传输数据,机器之间传输文件必须登陆(要拥有对方机器权限才能操作),但是整个集群中的节点一定会有相互之间数据传输(数据备份),还有当启动集群使用命令在一台机器上执行,这个节点会根据配置文件的配置项分别发送启动命令到各个节点。集群中各个节点要做到相互免密登陆,包括自己
先在各个机器上执行:ssh-keygen 生成密钥
使用ssh-copy-id将密钥拷贝到指定机器。 4.下载hadoop压缩包上传某一台机器,解压
配置hadoop环境变量(保证三台机器profile配置一致)
vim /etc/profile1
2
3HADOOP_HOME=/usr/hadoop-2.7.5
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:PATH
export HADOOP_HOME PATH修改hadoop-env.sh 增加java环境变量,hadoop底层源码是java所以需要配置
jdk环境。修改core-site.xml 配置主节点地址
修改hdfs-site.xml 配置主节点web访问地址、数据存放目录、备份数等
修改slaves 配置从节点分发hadoop目录到各个节点
scp -r /usr/hadoop-2.7.5 root@master2:/usr/5.在主节点格式化 hdfs namenode -format 格式化的主要目的,初始化主节点
相关文件6.启动集群:start-dfs.sh 当执行该命令后,该节点会根据配置文件将各个
节点应该执行的命令发送到各个节点执行,启动相关节点该有的进程
主节点:namenode +/datanode
从节点: datanode +/secondarynamenode7.首先检查各个节点上的进程是否正常,使用jps查看java进程,各个节点都应该
与之前配置配件相符的进程存在
如各个节点进程正常存在,关闭防火墙,第二部检查web监控界面各个
节点是否正常,namenode应该是active 从节点个数应该相符。
注:
- 如有不正确还请见谅。
- 另外,我做了一些关于Spring、Struts、Hibernate的小应用可以帮助理解这些框架,如需代码请访问我的Github:https://github.com/Zxnaruto