Hadoop2.7.4完全分布式集群如何构建


这篇文章给大家分享的是有关Hadoop2.7.4完全分布式集群如何构建的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。配置Linux环境
配置好各虚拟机的网络(采用NAT联网模式)
通过Linux图形界面进行修改(桌面版本Centos):进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections-> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual ->点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
修改配置文件方式
vi /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE=”eth0″ BOOTPROTO=”static” ### HWADDR=”00:0C:29:3C:BF:E7″ IPV6INIT=”yes” NM_CONTROLLED=”yes” ONBOOT=”yes” TYPE=”Ethernet” UUID=”ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c” IPADDR=”192.168.1.101″ ### NETMASK=”255.255.255.0″ ### GATEWAY=”192.168.1.1″ ###修改各个虚拟机主机名
vi /etc/sysconfig/network NETWORKING=yes HOSTNAME=node-1修改主机名和IP的映射关系
vi /etc/hosts 192.168.1.101 node-1 192.168.1.102 node-2 192.168.1.103 node-3关闭防火墙
#查看防火墙状态 service iptables status #关闭防火墙 service iptables stop #查看防火墙开机启动状态 chkconfig iptables –list #关闭防火墙开机启动 chkconfig iptables off配置ssh免登陆
#生成ssh免登陆密钥 ssh-keygen -t rsa (四个回车) 执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥) 将公钥拷贝到要免密登陆的目标机器上 ssh-copy-id node-2 ssh-copy-id node-3同步集群时间
常用的手动进行时间的同步 date -s “2018-03-03 03:03:03” 或者网络同步: yum install ntpdate ntpdate cn.pool.ntp.org安装JDK并配置环境变量
上传jdk
rz jdk-8u65-linux-x64.tar.gz解压jdk
tar -zxvf jdk-8u65-linux-x64.tar.gz -C /root/apps将java添加到环境变量中
vim /etc/profile #在文件最后添加 export JAVA_HOME=/root/apps/jdk1.8.0_65 export PATH=$PATH:$JAVA_HOME/bin export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar #刷新配置 source /etc/profile安装hadoop2.7.4
上传hadoop的安装包到服务器
hadoop-2.7.4-with-centos-6.7.tar.gz解压安装包
tar zxvf hadoop-2.7.4-with-centos-6.7.tar.gz 注意:hadoop2.x的配置文件目录:$HADOOP_HOME/etc/hadoop配置hadoop的核心配置文件
配置文件hadoop-env.sh
vi hadoop-env.shexport JAVA_HOME=/root/apps/jdk1.8.0_65配置文件core-site.xml
说明:指定HADOOP所使用的文件系统schema(URI),HDFS的主节点(NameNode)地址 fs.defaultFS hdfs://node-1:9000说明:指定hadoop运行时产生文件的存储目录,默认/tmp/hadoop-${user.name} –> hadoop.tmp.dir /home/hadoop/hadoop-2.4.1/tmp配置文件hdfs-site.xml dfs.replication 2 dfs.namenode.secondary.http-address node-2:50090配置文件mapred-site.xml
mv mapred-site.xml.template mapred-site.xmlvi mapred-site.xml mapreduce.framework.name yarn配置文件yarn-site.xml yarn.resourcemanager.hostname node-1 yarn.nodemanager.aux-services mapreduce_shuffle配置文件slaves,里面写上从节点所在的主机名字
vi slavesnode-1node-2node-3将hadoop添加到环境变量
vim /etc/proflieexport JAVA_HOME=/root/apps/jdk1.8.0_65export HADOOP_HOME=/root/apps/hadoop-2.7.4 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source /etc/pro 香港云主机file格式化namenode(本质是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format)启动hadoop,验证是否启动成功
先启动HDFS sbin/start-dfs.sh 再启动YARN sbin/start-yarn.sh 使用jps命令验证 27408 NameNode 28218 Jps 27643 SecondaryNameNode (secondarynamenode) 28066 NodeManager 27803 ResourceManager 27512 DataNode http://192.168.1.101:50070 (HDFS管理界面) http://192.168.1.101:8088 (MR管理界面)感谢各位的阅读!关于“Hadoop2.7.4完全分布式集群如何构建”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

相关推荐: 怎么使用supervisor管理nginx和tomcat容器

这篇文章主要介绍“怎么使用supervi 香港云主机sor管理nginx和tomcat容器”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“怎么使用supervisor管理nginx和tomcat容器”文章能帮助大家解决问…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 08/25 16:12
下一篇 08/25 16:12

相关推荐