博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop完全分布式部署
阅读量:5891 次
发布时间:2019-06-19

本文共 4264 字,大约阅读时间需要 14 分钟。

一、概述

概念:

是一个可靠的、可伸缩的、分布式计算的开源软件。

是一个框架,允许跨越计算机集群的大数据及分布式处理,使用简单的编程模型(mapreduce)
可从单台服务器扩展至几千台主机,每个节点提供了计算和存储功能。
不依赖于硬件处理HA,在应用层面实现

特性4V:

volumn 体量大

velocity 速度快
variaty 样式多
value 价值密度低

模块:

hadoop common 公共类库,支持其他模块

HDFS hadoop distributed file system,hadoop分布式文件系统
Hadoop yarn 作业调度和资源管理框架
hadoop mapreduce 基于yarn系统的大数据集并行处理技术。

二、安装部署

2.1 主机规划

主机名称 IP地址 安装节点应用
hadoop-1 172.20.2.203 namenode/datanode/nodemanager
hadoop-2 172.20.2.204 secondarynode/datanode/nodemanager
hadoop-3 172.20.2.205 resourcemanager/datanode/nodemanager

2.2 部署

2.2.1 基础环境配置

a.配置java环境

yum install java-1.8.0-openjdk.x86_64 java-1.8.0-openjdk-devel -ycat >/etc/profile.d/java.sh<

b.修改主机名添加hosts

hostname hadoop-1cat >>/etc/hosts<

c.创建用户及目录

useradd hadoopecho "hadoopwd" |passwd hadoop --stdinmkdir -pv /data/hadoop/hdfs/{nn,snn,dn}chown -R hadoop:hadoop /data/hadoop/hdfs/mkdir -p /var/log/hadoop/yarnmkdir -p /dbapps/hadoop/logschmod g+w /dbapps/hadoop/logs/chown -R hadoop.hadoop /dbapps/hadoop/

d.配置hadoop环境变量

cat>/etc/profile.d/hadoop.sh<

e.下载并解压软件包

mkdir /software cd /software wget -c http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.7.5/hadoop-2.7.5.tar.gztar -zxf hadoop-2.6.5.tar.gz -C /usr/localln -sv /usr/local/hadoop-2.6.5/ /usr/local/hadoopchown hadoop.hadoop /usr/local/hadoop-2.6.5/ -R

f.hadoop用户免密钥配置

su - hadoopssh-keygen -t rsafor num in `seq 1 3`;do ssh-copy-id -i /home/hadoop/.ssh/id_rsa.pub hadoop@hadoop-$num;done

Hadoop完全分布式部署

2.3 配置hadoop

2.3.1 配置各节点

配置master节点

hadoop-1节点运行namenode/datanode/nodemanager,修改hadoop-1的hadoop配置文件

core-site.xml(定义namenode节点)

cat>/usr/local/hadoop/etc/hadoop/core-site.xml <
fs.defaultFS
hdfs://hadoop-1:8020
true
EOF

hdfs-site.xml修改replication为data节点数目 (定义secondary节点)

cat >/usr/local/hadoop/etc/hadoop/hdfs-site.xml <
dfs.namenode.secondary.http-address
hadoop-2:50090
dfs.replication
2
dfs.namenode.name.dir
file:///data/hadoop/hdfs/nn
dfs.datanode.data.dir
file:///data/hadoop/hdfs/dn
fs.checkpoint.dir
file:///data/hadoop/hdfs/snn
fs.checkpoint.edits.dir
file:///data/hadoop/hdfs/snn
EOF

添加mapred-site.xml

cat >/usr/local/hadoop/etc/hadoop/mapred-site.xml <
mapreduce.framework.name
yarn
EOF

yarn-site.xml修改对应values为master的主机名(定义resourcemanager节点)

cat >/usr/local/hadoop/etc/hadoop/yarn-site.xml<
yarn.resourcemanager.address
hadoop-3:8032
yarn.resourcemanager.scheduler.address
hadoop-3:8030
yarn.resourcemanager.resource-tracker.address
hadoop-3:8031
yarn.resourcemanager.admin.address
hadoop-3:8033
yarn.resourcemanager.webapp.address
hadoop-3:8088
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.auxservices.mapreduce_shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.scheduler.class
org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler
EOF

slaves(定义数据节点)

cat >/usr/local/hadoop/etc/hadoop/slaves<

同样的步骤操作hadoop-2/3,建议将hadoop-1的文件直接分发至hadoop-2/3

2.3.2 格式化namenode

在NameNode机器上(hadoop-1)执行格式化:

hdfs namenode -format

Hadoop完全分布式部署

Hadoop完全分布式部署
Hadoop完全分布式部署

2.3.3 启动服务

在namenode hadoop-1执行start-all.sh启动服务

在hadoop-3启动resourcemanager服务``

Hadoop完全分布式部署

hadoop-2服务查看
Hadoop完全分布式部署
hadoop-3服务查看
Hadoop完全分布式部署

2.3.4 运行测试程序

yarn jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar pi 2 10

Hadoop完全分布式部署
Hadoop完全分布式部署

2.3.5 查看web界面

HDFS-NameNode

url:

Hadoop完全分布式部署
Hadoop完全分布式部署

YARN-ResourceManager

url:

Hadoop完全分布式部署

转载于:https://blog.51cto.com/kaliarch/2119093

你可能感兴趣的文章
Centos7搭建Django环境
查看>>
序列化一个Intent
查看>>
JavaScript数据类型及语言基础--ife
查看>>
进阶 Nginx 高手必须跨越的 5 座大山
查看>>
国内首例:飞步无人卡车携手中国邮政、德邦投入日常运营
查看>>
“迁移策略+新容器运行时”应对有状态应用的冷热迁移挑战
查看>>
2019数据库趋势报告,最受欢迎的是MySQL
查看>>
敏捷的忠实拥护者David Hussman于8月18日去世
查看>>
PHP仿微信多图片预览上传功能
查看>>
Swift论坛正式启用
查看>>
性能优化:一个全栈问题
查看>>
腾讯云工业互联网助力平台发布 推动制造业“数字化”蝶变
查看>>
live555编译
查看>>
部署P2P升级的脚本
查看>>
jenkins--ant持续集成测试build文件脚本 测试报告
查看>>
ubuntu下安装libxml2
查看>>
nginx_lua_waf安装测试
查看>>
easyui 只刷新当前页面的数据 datagrid reload 方法
查看>>
58到家完成3亿美金A轮融资 阿里平安等投资
查看>>
Mysql-mmm高可用方案安装及配置
查看>>