廣告
请使用 http://www.luhui.net 網址高速訪問本站,歡迎關注微信公衆賬号:guanfu8 平台長期發布海量社科數據, 本站QQ交流群:84142868 探讨人文理想,共謀和諧世界!
黄金广告位招租,投放热线15900718107,13386070835 详情查看=》   鲁之虺:“  上网就是搜索,生活就是分类,科技服务大众,信息引领生活,地方分类站长,开启您的事业之旅。生活分类信息整体提供商:http://huike.luhui.net”。
×

鲁虺繁体中文社区

 找回密碼
 立即註冊
廣告

 

查看: 50|回復: 0

[大数据原型] 在Ubuntu 18.04.1上安装Hadoop集群

[複製鏈接]
發表於 2018-11-7 01:55:40 | 顯示全部樓層 |閱讀模式
廣告
搜索看看︰在Ubuntu 18.04.1上安装Hadoop集群
廣告
本文将介绍如何在基于Ubuntu的系统上安装多节点Hadoop 3.1.1集群,作者将在Ubuntu 18.04.1上安装一个包含HDFS的三节点Hadoop集群。
首先,我们需要为集群创建三个虚拟机,创建一个具有4个vCPU,4 GB内存和40 GB硬盘空间的Hadoop Master服务器;为每个节点创建两个带有4个vCPU,8 GB内存和40 GB硬盘空间的Hadoop节点。
本文的三台服务器安装了Ubuntu Server 18.04.1,安装了所有更新并重新启动,一定要确保使用静态IP地址和内部DNS解析配置每个服务器,或将每个服务器添加到/ etc / hosts文件。
准备运行Hadoop服务器
首先,我们需要安装Oracle Java 8,因为从Ubuntu 18.04.1开始,Java 8不再可用。
  1. # add-apt-repository ppa:webupd8team/java# apt update# apt install -y oracle-java8-set-default
複製代碼
接受许可条款,并下载Hadoop二进制文件
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz
複製代碼
解压缩归档并将其移至/ usr / local /
  1. # tar -xzvf hadoop-3.1.1.tar.gz# mv hadoop-3.1.1 /usr/local/hadoop
複製代碼
更新默认环境变量以包含JAVA_HOME和Hadoop二进制目录。
首先,我们需要知道Java的安装位置,运行以下命令查找。
  1. # update-alternatives --display javajava - manual mode  link best version is /usr/lib/jvm/java-8-oracle/jre/bin/java  link currently points to /usr/lib/jvm/java-8-oracle/jre/bin/java  link java is /usr/bin/java  slave java.1.gz is /usr/share/man/man1/java.1.gz/usr/lib/jvm/java-8-oracle/jre/bin/java - priority 1081  slave java.1.gz: /usr/lib/jvm/java-8-oracle/man/man1/java.1.gz
複製代碼
如上所示,JAVA_HOME应设置为/ usr / lib / jvm / java-8-oracle / jre。
打开/etc/environment并更新PATH行以包含Hadoop二进制目录。
  1. PATH="/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/local/hadoop/bin:/usr/local/hadoop/sbin"
複製代碼
为JAVA_HOME变量和YARN_RESOURCEMANAGER_OPTS变量添加一行。
  1. vim YARN_RESOURCEMANAGER_OPTS="--add-modules=ALL-SYSTEM"
複製代碼
确保该目录与上面的update-alternatives选项减去bin/java部分的输出相匹配。
接下来,我们将添加一个hadoop用户并为他们提供正确的权限。
  1. # adduser hadoop# usermod -aG hadoop hadoop# chown hadoop:root -R /usr/local/hadoop# chmod g+rwx -R /usr/local/hadoop
複製代碼
以hadoop用户身份登录并生成SSH密钥,只需要在Hadoop Master上完成此步骤。
  1. # su - hadoop# ssh-keygen -t rsa
複製代碼
接受ssh-keygen的所有默认值。
现在以hadoop用户身份登录并将SSH密钥复制到所有Hadoop节点。 同样,只需要在Hadoop Master上完成此步骤。
  1. # su - hadoop$ ssh-copy-id hadoop@hadoop1.admintome.lab$ ssh-copy-id hadoop@hadoop2.admintome.lab$ ssh-copy-id hadoop@hadoop3.admintome.lab
複製代碼
配置Hadoop主服务器
打开/usr/local/hadoop/etc/hadoop/core-site.xml文件并输入以下内容:
  1. <configuration>  <property>    <name>fs.default.name</name>    <value>hdfs://hadoop1.admintome.lab:9000</value>  </property></configuration>
複製代碼
保存并退出。
接下来,打开/usr/local/hadoop/etc/hadoop/hdfs-site.xml文件并添加以下内容:
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz0
複製代碼
保存并退出。
打开/usr/local/hadoop/etc/hadoop/workers文件并添加以下两行(每个Hadoop节点一行)
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz1
複製代碼
保存并退出。
将配置文件从Hadoop Master复制到每个Hadoop节点。
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz2
複製代碼
格式化HDFS文件系统
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz3
複製代碼
现在可以启动HDFS:
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz4
複製代碼
通过在所有Hadoop服务器上以Hadoop用户身份运行jps命令来验证所有内容是否正确启动。
在Hadoop Master上你应该可以看到如下结果:
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz5
複製代碼
在每个Hadoop节点上,你应该可以看到:
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz6
複製代碼
HDFS Web UI
现在,我们可以通过浏览到Hadoop主服务器端口9870来访问HDFS Web UI。
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz7
複製代碼
可以看到如下UI:

在Ubuntu 18.04.1上安装Hadoop集群

在Ubuntu 18.04.1上安装Hadoop集群

如上所示,我们的HDFS文件系统上有近60 GB的空闲空间。

开始运行Yarn
现在HDFS正在运行,我们已准备好启动Yarn调度程序。
Hadoop本身需要运行任务,因此我们需要Yarn以在Hadoop集群上合理安排任务。
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz8
複製代碼
运行以下命令以启动Yarn:
  1. # wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz9
複製代碼
我们可以通过以下命令来验证是否可以正确启动:
  1. # tar -xzvf hadoop-3.1.1.tar.gz# mv hadoop-3.1.1 /usr/local/hadoop0
複製代碼
没有任何正在运行的容器,因为我们还没有开始任何工作。
Hadoop Web UI
我们可以通过以下URL来查看Hadoop Web UI:
  1. # tar -xzvf hadoop-3.1.1.tar.gz# mv hadoop-3.1.1 /usr/local/hadoop1
複製代碼
替换Hadoop Master主机名:

在Ubuntu 18.04.1上安装Hadoop集群

在Ubuntu 18.04.1上安装Hadoop集群

运行Hadoop任务示例

我们现在可以运行Hadoop任务示例并在集群上安排它,我们将运行的示例是使用MapReduce来计算PI。
运行以下命令来运行作业:
  1. # tar -xzvf hadoop-3.1.1.tar.gz# mv hadoop-3.1.1 /usr/local/hadoop2
複製代碼
完成整个过程将需要几分钟的时间。完成后,应该可以看到它已经开始计算PI:
  1. # tar -xzvf hadoop-3.1.1.tar.gz# mv hadoop-3.1.1 /usr/local/hadoop3
複製代碼
来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31077337/viewspace-2200305/,如需转载,请注明出处,否则将追究法律责任。
廣告
您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

广告

廣告
操作系统 Fuchsia OS  |Microsoft Windows  |Android  |Chrome OS  |Novell  |Linux  |Mac OS X  |Unix  |FreeBSD  | Ubuntu
廣告

QQ|關于我們|聯繫我們|合作共赢|免責聲明|隐私条款|Archiver|手機版|拘留所|申請友鏈|付款方式|鲁虺繁体中文社区 |贊助我們 -

GMT+8, 2026-5-14 10:14 , Processed in 0.150000 second(s), 13 queries , WinCache On.

Powered by HCMS 1.0

© 2004-01-11 鲁虺文化网 版权所有

快速回復 返回頂部 返回列表