这篇文章主要讲解了“怎么安装hdfs、hbase和opentsdb”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么安装hdfs、hbase和opentsdb”吧!配置静态IP,修改hostname使用ifconfig
查看当前网卡MAC地址与名称。假定网卡名称为eth0
,MAC地址为33:44:55:66:77:88
编辑/etc/sysconfig/network-scripts/ifcfg-eth0
:重启network服务:service network restart
修改hostname:编辑/etc/sysconfig/network
文件,将hostname
一项修改为自己的hostname,需重启生效时间同步。使用ntp同步时间后,可以使用如下命令写入硬件时间:hwclock --systohc -u
关闭防火墙,并禁止防火墙开机启动:创建hadoop用户和组调整hadoop用户的系统limits开发云主机域名限制:编辑/etc/security/limits.conf
文件,在后面添加:在hadoop
用户下,使用命令ulimit -a
查看改动情况。修改机器的/etc/hosts
文件。在其中列出所有机器的IP地址与机器hostname
,以及127.0.0.1 localhost
,然后同步到所有机器上。配置机器相互间hadoop
用户的无密码访问切换至hadoop
用户,进入该用户主文件夹下的.ssh
文件夹下(没有则创建) 运行命令ssh-keygen -t dsa -P ''
,确认,生成id_dsa
与id_dsa.pub
文件 将id_dsa.pub
文件改名,以便所有机器之间相互区别 将所有机器上的.pub
文件使用cat
追加到文件authorized_keys
文件中,并修改该文件权限:chmod 600 authorized_keys
将authorized_keys
同步至所有机器上hadoop
用户主目录下的.ssh
文件夹下所有机器安装jdk
,使用yum
安装,注意相同版本下载hadoop 2.2.0
版本,解压至目录/usr/local/hadoop
,该目录即为HADOOP_HOME
修改HADOOP_HOME
下的etc/hadoop/hadoop-env.sh
,修改其中的变量JAVA_HOME
到正确位置修改HADOOP_HOME
下的etc/hadoop/core-site.xml
文件,在
之间加入配置。核心配置如下:修改HADOOP_HOME
下的etc/hadoop/hdfs-site.xml
文件,在
之间加入配置。核心配置如下:修改HADOOP_HOME
下的masters
文件夹,写入master
主机名,每个一行修改HADOOP_HOME
下的slaves
文件夹,写入slaves
主机名,每个一行将/usr/local/hadoop/bin
,/usr/local/hadoop/sbin
加入系统路径使用scp
将/usr/local/hadoop
文件夹所有内容同步至所有机器中,并注意所有机器中临时文件夹的可访问性初始化namenode
:hadoop namenode -format
启动hdfs
:start-dfs.sh
,访问http://namenode节点主机名:50070
查看结果下载hbase 0.98.5
,解压至目录/usr/local/hbase
下修改hbase
目录下conf/hbase-env.sh
文件,修改变量JAVA_HOME
,将变量HBASE_MANAGES_ZK
修改为true
修改conf/core-site.xml
文件,核心配置如下:修改conf/regionservers
文件,其中列出要启动regionserver
的主机名将hbase
目录下bin
目录加入系统路径中使用scp
将hbase
目录同步至所有机器中,确保临时文件夹的可访问性启动hbase
:在主节点上start-hbase.sh
,访问http://master节点主机名:60010
查看结果确保机器中安装了gnuplot
下载openTSDB
的rpm安装包,直接装入机器中修改/etc/opentsdb/opentsdb.conf
文件,修改如下三项:在hbase
正常运行下,运行脚本env COMPRESSION=NONE HBASE_HOME=path/to/hbase /usr/share/opentsdb/tools/create_table.sh
创建表启动tsdb:tsdb tsd
,浏览器访问当前主机的4242端口,查看结果运行命令tsdb mkmetric proc.loadavg.1m proc.loadavg.5m
创建两个metric
,用来测试运行如下脚本持续向数据库中写入数据,在4242监控窗口上找到相应metric,查看测试结果感谢各位的阅读,以上就是“怎么安装hdfs、hbase和opentsdb”的内容了,经过本文的学习后,相信大家对怎么安装hdfs、hbase和opentsdb这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是开发云,小编将为大家推送更多相关知识点的文章,欢迎关注!
本篇内容介绍了“Ignite和Hazelcast有哪些区别”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!Apache Ignite 内存数据组织框架是一个高性能…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。