Hadoop是由Apache基金会使用Java语言开发的分布式开源软件框架,用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的能力进行高速运算和存储。本文介绍如何在Linux操作系统的ECS实例上快速搭建Hadoop分布式环境。
前提条件
搭建Hadoop环境时,已有的ECS实例必须满足以下条件:
公网IP:实例已分配公网IP地址或绑定弹性公网IP(EIP)。
操作系统:Linux操作系统。
实例安全组的入方向规则已放行22、443、8088(Hadoop YARN默认的Web UI端口)、9870(Hadoop NameNode默认的Web UI端口)端口。具体操作,请参见添加安全组规则。
背景信息
Apache Hadoop软件库是一个框架,它允许通过简单的编程模型在由多台计算机组成的集群上对大规模数据集进行分布式处理。该框架设计能够从单个服务器扩展到数千台机器,每台机器都提供本地计算和存储能力。Hadoop并不依赖硬件来实现高可用性,而是将其自身设计为能够在应用层检测并处理故障,因此能在可能各自存在故障风险的计算机集群之上,提供高度可用的服务。
Hadoop的核心部件是HDFS(Hadoop Distributed File System)和MapReduce:
HDFS:是一个分布式文件系统,可用于应用程序数据的分布式存储和读取。
MapReduce:是一个分布式计算框架,MapReduce的核心思想是把计算任务分配给集群内的服务器执行。通过对计算任务的拆分(Map计算和Reduce计算),再根据任务调度器(JobTracker)对任务进行分布式计算。
更多信息,请参见Hadoop官网。
Hadoop与Java开发工具包(JDK)紧密集成,不同版本的Hadoop对JDK的要求也有所不同。
Hadoop 3.3:Java 8和Java 11
Hadoop 3.0.x~3.2.x:Java 8
Hadoop 2.7.x~2.10.x:Java 7和Java 8
本文使用的版本为Hadoop 3.2.4和Java 8,如您使用其他版本,请参考Hadoop官网指南。更多信息,请参见Hadoop Java Versions。
步骤一:安装JDK
远程连接已创建的ECS实例。
具体操作,请参见通过密码或密钥认证登录Linux实例。
执行以下命令,下载JDK 1.8安装包。
wget https://download.java.net/openjdk/jdk8u41/ri/openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
执行以下命令,解压下载的JDK 1.8安装包。
tar -zxvf openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
执行以下命令,移动并重命名JDK安装包。
本示例中将JDK安装包重命名为
java8
,您可以根据需要使用其他名称。sudo mv java-se-8u41-ri/ /usr/java8
执行以下命令,配置Java环境变量。
如果您将JDK安装包重命名为其他名称,需将以下命令中的
java8
替换为实际的名称。sudo sh -c "echo 'export JAVA_HOME=/usr/java8' >> /etc/profile" sudo sh -c 'echo "export PATH=\$PATH:\$JAVA_HOME/bin" >> /etc/profile' source /etc/profile
执行以下命令,查看JDK是否成功安装。
java -version
返回类似如下信息,表示JDK已安装成功。
步骤二:安装Hadoop
执行以下命令,下载Hadoop安装包。
wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.2.4/hadoop-3.2.4.tar.gz
执行以下命令,将Hadoop安装包解压至
/opt/hadoop
。sudo tar -zxvf hadoop-3.2.4.tar.gz -C /opt/ sudo mv /opt/hadoop-3.2.4 /opt/hadoop
执行以下命令,配置Hadoop环境变量。
sudo sh -c "echo 'export HADOOP_HOME=/opt/hadoop' >> /etc/profile" sudo sh -c "echo 'export PATH=\$PATH:/opt/hadoop/bin' >> /etc/profile" sudo sh -c "echo 'export PATH=\$PATH:/opt/hadoop/sbin' >> /etc/profile" source /etc/profile
执行以下命令,修改配置文件
yarn-env.sh
和hadoop-env.sh
。sudo sh -c 'echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/yarn-env.sh' sudo sh -c 'echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/hadoop-env.sh'
执行以下命令,测试Hadoop是否安装成功。
hadoop version
返回类似如下信息,表示Hadoop已安装成功。
步骤三:配置Hadoop
修改Hadoop配置文件
core-site.xml
。执行以下命令,进入编辑页面。
sudo vim /opt/hadoop/etc/hadoop/core-site.xml
输入
i
,进入编辑模式。在
<configuration></configuration>
节点内,插入如下内容。<property> <name>hadoop.tmp.dir</name> <value>file:/opt/hadoop/tmp</value> <description>location to store temporary files</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property>
按
Esc
,退出编辑模式,并输入:wq
保存并退出。
修改Hadoop配置文件
hdfs-site.xml
。执行以下命令,进入编辑页面。
sudo vim /opt/hadoop/etc/hadoop/hdfs-site.xml
输入
i
,进入编辑模式。在
<configuration></configuration>
节点内,插入如下内容。<property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/opt/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/opt/hadoop/tmp/dfs/data</value> </property>
按
Esc
,退出编辑模式,并输入:wq
后保存并退出。
步骤四:配置SSH免密登录
执行以下命令,创建公钥和私钥。
ssh-keygen -t rsa
回显信息如下所示,表示创建公钥和私钥成功。
执行以下命令,将公钥添加到
authorized_keys
文件中。cd .ssh cat id_rsa.pub >> authorized_keys
步骤五:启动Hadoop
执行以下命令,初始化
namenode
。hadoop namenode -format
启动Hadoop。
重要出于系统安全和稳定性考虑,Hadoop官方不推荐使用root用户来启动Hadoop服务,直接使用root用户会因为权限问题无法启动Hadoop。您可以通过非root用户身份启动Hadoop服务,例如
ecs-user
用户等。如果您一定要使用root用户启动Hadoop服务,请在了解Hadoop权限控制及相应风险之后,修改以下配置文件。
请注意:使用root用户启动Hadoop服务会带来严重的安全风险,包括但不限于数据泄露、恶意软件更容易获得系统最高权限、意料之外的权限问题或行为。更多权限说明,请参见Hadoop官方文档。
执行以下命令,启动HDFS服务。
这个脚本会启动NameNode、SecondaryNameNode和DataNode等组件,从而启动HDFS服务。
start-dfs.sh
回显信息如下所示时,表示HDFS服务已启动。
执行以下命令,启动YARN服务。
这个脚本会启动ResourceManager、NodeManager和ApplicationHistoryServer等组件,从而启动YARN服务。
start-yarn.sh
回显信息如下所示时,表示YARN服务已启动。
执行以下命令,可以查看成功启动的进程。
jps
成功启动的进程如下所示。
在本地浏览器地址栏输入
http://<ECS公网IP>:8088
,访问YARN的Web UI界面。通过该界面可以查看整个集群的资源使用情况、应用程序状态(比如MapReduce作业)、队列信息等。
重要需确保在ECS实例所在安全组的入方向中放行Hadoop YARN所需的8088端口,否则无法访问。具体操作,请参见添加安全组规则。
在本地浏览器地址栏输入
http://<ECS公网IP>:9870
,访问NameNode的Web UI界面。该界面提供了有关HDFS文件系统状态、集群健康状况、活动节点列表、NameNode日志等信息。
显示如下界面,则表示Hadoop分布式环境已搭建完成。
重要需确保在ECS实例所在安全组的入方向中放行Hadoop NameNode所需9870端口,否则无法访问。具体操作,请参见添加安全组规则。