2020年企业培训尚学堂大数据培训安装配置每小步都写得

上传人:精****库 文档编号:136114091 上传时间:2020-06-24 格式:DOC 页数:53 大小:4.67MB
返回 下载 相关 举报
2020年企业培训尚学堂大数据培训安装配置每小步都写得_第1页
第1页 / 共53页
2020年企业培训尚学堂大数据培训安装配置每小步都写得_第2页
第2页 / 共53页
2020年企业培训尚学堂大数据培训安装配置每小步都写得_第3页
第3页 / 共53页
2020年企业培训尚学堂大数据培训安装配置每小步都写得_第4页
第4页 / 共53页
2020年企业培训尚学堂大数据培训安装配置每小步都写得_第5页
第5页 / 共53页
点击查看更多>>
资源描述

《2020年企业培训尚学堂大数据培训安装配置每小步都写得》由会员分享,可在线阅读,更多相关《2020年企业培训尚学堂大数据培训安装配置每小步都写得(53页珍藏版)》请在金锄头文库上搜索。

1、北京尚学堂提供1、集群部署介绍 1.1 Hadoop简介Hadoop是Apache软件基金会旗下的一个开源分布式计算平台。以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesystem)和MapReduce(Google MapReduce的开源实现)为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构。对于Hadoop的集群来讲,可以分成两大类角色:Master和Salve。一个HDFS集群是由一个NameNode和若干个DataNode组成的。其中NameNode作为主服务器,管理文件系统的命名空间和客户端对文件系统的访问操作;集群中的Dat

2、aNode管理存储的数据。MapReduce框架是由一个单独运行在主节点上的JobTracker和运行在每个集群从节点的TaskTracker共同组成的。主节点负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上。主节点监控它们的执行情况,并且重新执行之前的失败任务;从节点仅负责由主节点指派的任务。当一个Job被提交时,JobTracker接收到提交作业和配置信息之后,就会将配置信息等分发给从节点,同时调度任务并监控TaskTracker的执行。从上面的介绍可以看出,HDFS和MapReduce共同组成了Hadoop分布式系统体系结构的核心。HDFS在集群上实现分布式文件系统,MapR

3、educe在集群上实现了分布式计算和任务处理。HDFS在MapReduce任务处理过程中提供了文件操作和存储等支持,MapReduce在HDFS的基础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成了Hadoop分布式集群的主要任务。1.2 环境说明集群中包括4个节点:1个Master,3个Salve,节点之间局域网连接,可以相互ping通,具体集群信息可以查看Hadoop集群(第2期)。节点IP地址分布如下:机器名称IP地址Master.Hadoop192http:/ 网络配置Hadoop集群要按照1.2小节表格所示进行配置,我们在Hadoop集群(第1期)的CentOS

4、6.0安装过程就按照提前规划好的主机名进行安装和配置。如果实验室后来人在安装系统时,没有配置好,不要紧,没有必要重新安装,在安装完系统之后仍然可以根据后来的规划对机器的主机名进行修改。下面的例子我们将以Master机器为例,即主机名为Master.Hadoop,IP为192.168.1.2进行一些主机名配置的相关操作。其他的Slave机器以此为依据进行修改。1)查看当前机器名称用下面命令进行显示机器名称,如果跟规划的不一致,要按照下面进行修改。hostname上图中,用hostname查Master机器的名字为Master.Hadoop,与我们预先规划的一致。2)修改当前机器名称假定我们发现我

5、们的机器的主机名不是我们想要的,通过对/etc/sysconfig/network文件修改其中HOSTNAME后面的值,改成我们规划的名称。这个/etc/sysconfig/network文件是定义hostname和是否利用网络的不接触网络设备的对系统全体定义的文件。设定形式:设定值=值/etc/sysconfig/network的设定项目如下:NETWORKING 是否利用网络GATEWAY 默认网关IPGATEWAYDEV 默认网关的接口名HOSTNAME 主机名DOMAIN 域名用下面命令进行修改当前机器的主机名(备注:修改系统文件一般用root用户)vim /etc/sysconfig

6、/network通过上面的命令我们从/etc/sysconfig/network中找到HOSTNAME进行修改,查看内容如下:3)修改当前机器IP假定我们的机器连IP在当时安装机器时都没有配置好,那此时我们需要对ifcfg-eth0文件进行配置,该文件位于/etc/sysconfig/network-scripts文件夹下。在这个目录下面,存放的是网络接口(网卡)的制御脚本文件(控制文件),ifcfg- eth0是默认的第一个网络接口,如果机器中有多个网络接口,那么名字就将依此类推ifcfg-eth1,ifcfg-eth2,ifcfg- eth3,。这里面的文件是相当重要的,涉及到网络能否正常

7、工作。设定形式:设定值=值设定项目项目如下:DEVICE 接口名(设备,网卡)BOOTPROTO IP的配置方法(static:固定IP, dhcpHCP, none:手动)HWADDR MAC地址ONBOOT 系统启动的时候网络接口是否有效(yes/no)TYPE 网络类型(通常是Ethemet)NETMASK 网络掩码IPADDRIP地址IPV6INIT IPV6是否有效(yes/no)GATEWAY 默认网关IP地址查看/etc/sysconfig/network-scripts/ifcfg-eth0内容,如果IP不复核,就行修改。如果上图中IP与规划不相符,用下面命令进行修改:vim

8、/etc/sysconfig/network-scripts/ifcgf-eth0修改完之后可以用ifconfig进行查看。4)配置hosts文件(必须)/etc/hosts这个文件是用来配置主机将用的DNS服务器信息,是记载LAN内接续的各主机的对应HostName和IP用的。当用户在进行网络连接时,首先查找该文件,寻找对应主机名(或域名)对应的IP地址。我们要测试两台机器之间知否连通,一般用ping 机器的IP,如果想用ping 机器的主机名发现找不见该名称的机器,解决的办法就是修改/etc/hosts这个文件,通过把LAN内的各主机的IP地址和HostName的一一对应写入这个文件的时候

9、,就可以解决问题。例如:机器为Master.Hadoop:192.168.1.2对机器为Salve1.Hadoop:192.168.1.3用命令ping记性连接测试。测试结果如下: 从上图中的值,直接对IP地址进行测试,能够ping通,但是对主机名进行测试,发现没有ping通,提示unknown host未知主机,这时查看Master.Hadoop的/etc/hosts文件内容。发现里面没有192.168.1.3 Slave1.Hadoop内容,故而本机器是无法对机器的主机名为Slave1.Hadoop 解析。在进行Hadoop集群配置中,需要在/etc/hosts文件中添加集群中所有机器的I

10、P与主机名,这样Master与所有的Slave机器之间不仅可以通过IP进行通信,而且还可以通过主机名进行通信。所以在所有的机器上的/etc/hosts文件末尾中都要添加如下内容:192.168.1.2 Master.Hadoop192.168.1.3 Slave1.Hadoop192.168.1.4 Slave2.Hadoop192.168.1.5 Slave3.Hadoop用以下命令进行添加:vim /etc/hosts添加结果如下:现在我们在进行对机器为Slave1.Hadoop的主机名进行ping通测试,看是否能测试成功。从上图中我们已经能用主机名进行ping通了,说明我们刚才添加的内容

11、,在局域网内能进行DNS解析了,那么现在剩下的事儿就是在其余的Slave机器上进行相同的配置。然后进行测试。(备注:当设置SSH无密码验证后,可以scp进行复制,然后把原来的hosts文件执行覆盖即可。)1.4 所需软件1)JDK软件 下载地址:http:/ JDK版本:jdk-6u31-linux-i586.bin2)Hadoop软件 下载地址:http:/hadoop.apache.org/common/releases.html Hadoop版本:hadoop-1.0.0.tar.gz1.5 VSFTP上传在Hadoop集群(第3期)讲了VSFTP的安装及配置,如果没有安装VSFTP可以

12、按照该文档进行安装。如果安装好了,就可以通过FlashFXP.exe软件把我们下载的JDK6.0和Hadoop1.0软件上传到Master.Hadoop:192.168.1.2服务器上。刚才我们用一般用户(hadoop)通过FlashFXP软件把所需的两个软件上传了跟目下,我们通过命令查看下一下是否已经上传了。 从图中,我们的所需软件已经准备好了。2、SSH无密码验证配置Hadoop运行过程中需要管理远端Hadoop守护进程,在Hadoop启动以后,NameNode是通过SSH(Secure Shell)来启动和停止各个DataNode上的各种守护进程的。这就必须在节点之间执行指令的时候是不需

13、要输入密码的形式,故我们需要配置SSH运用无密码公钥认证的形式,这样NameNode使用SSH无密码登录并启动DataName进程,同样原理,DataNode上也能使用SSH无密码登录到NameNode。2.1 安装和启动SSH协议在Hadoop集群(第1期)安装CentOS6.0时,我们选择了一些基本安装包,所以我们需要两个服务:ssh和rsync已经安装了。可以通过下面命令查看结果显示如下:rpm qa | grep opensshrpm qa | grep rsync假设没有安装ssh和rsync,可以通过下面命令进行安装。yum install ssh 安装SSH协议yum install rsync (rsync是一个远程数据同步工具,可通过LAN/WAN快速同步多台主机间的文件)service sshd restart 启动服务确保所有的服务器都安装,上面命令执行完毕,各台机器之间可以通过密码验证相互登。2.2 配置Master无密码登录所有Salve1)SSH无密码原理Master(NameNode | JobTracker)作为客户端,要实现无密码公钥认证,连接到服务器Salve(DataNode | Tasktracker)上时,需要在Master上生成一个密钥对,包括一个公钥和一个私钥,而后将公钥复制到所有的Sla

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 商业/管理/HR > 企业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号