打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
干货-零基础安装Hadoop开发环境

当接触大数据时,首先碰到的就是hadoop的学习,安装 Hadoop 往往会成为新手的一道门槛。尽管安装其实很简单,书上有写到,官方网站也有 Hadoop 安装配置教程,但由于刚接触对 Linux 环境不熟悉。加上网上不少教程比较乱,导致新手折腾老几天愣是没装好,很是打击学习热情。本文主要介绍hadoop2.6版本的安装,步骤详细,辅以适当说明,相信按照步骤来,都能顺利安装并运行Hadoop环境。


一、下载安装

(1).到hadoop下载相应的版本

本文下载的是hadoop-2.6.0.tar.gz

(2).解压

tar –zxvf hadoop-2.6.0.tar.gz

(3).创建目录

#mkdir /opt/media/hadoop-2.6.0/tmp

#mkdir/opt/media/hadoop-2.6.0/dfs

#mkdir /opt/media/hadoop-2.6.0/dfs/name

#mkdir /opt/media/hadoop-2.6.0/dfs/data

(4).配置环境变量

vi /etc/profile

export HADOOP_HOME=/opt/media/hadoop-2.6.0/hadoop-2.6.0

export PATH=$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

source /etc/profile

二、配置文件

(1).配置 hadoop-env.sh文件

PS:配置jdk路径

# The java implementation to use.

export JAVA_HOME=/home/bigdata/media/jdk1.7.0_79

(2).配置 core-site.xml文件

PS:增加hadoop核心配置(hdfs文件端口是9000)core-site.xml文件中包含的信息,如使用Hadoop实例分配给文件系统的存储器,用于存储数据的内存限制的端口号,以及读/写缓冲器的大小

fs.defaultFS

hdfs://bigdata:9000

io.file.buffer.size

131072

hadoop.tmp.dir

file:/opt/media/hadoop-2.6.0/tmp

Abasefor other temporary directories.

hadoop.proxyuser.spark.hosts

*

hadoop.proxyuser.spark.groups

*

(3).配置 hdfs-site.xml 文件

PS:增加hdfs配置信息(namenode、datanode端口和目录位置)hdfs-site.xml 文件中包含的信息,如复制数据的值,名称节点的路径,本地文件系统的数据节点的路径。

dfs.namenode.secondary.http-address

bigdata:9001

dfs.namenode.name.dir

file:/opt/media/hadoop-2.6.0/dfs/name

dfs.datanode.data.dir

file:/opt/media/hadoop-2.6.0/dfs/data

dfs.replication

3

dfs.webhdfs.enabled

true

dfs.permissions

false

If 'true', enable permission checking in HDFS.

If 'false', permission checking is turned off,

but all other behavior is unchanged.

Switching from one parameter value to the other does not change the mode,

owner or group of files or directories.

(4).配置mapred-site.xml 文件

PS:增加mapreduce配置(使用yarn框架、jobhistory使用地址以及web地址)

mapreduce.framework.name

yarn

mapreduce.jobhistory.address

bigdata:10020

mapreduce.jobhistory.webapp.address

bigdata:19888

(5).配置yarn-site.xml 文件

PS:增加yarn功能

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.nodemanager.aux-services.mapreduce.shuffle.class

org.apache.hadoop.mapred.ShuffleHandler

yarn.resourcemanager.address

bigdata:8032

yarn.resourcemanager.scheduler.address

bigdata:8030

yarn.resourcemanager.resource-tracker.address

bigdata:8035

yarn.resourcemanager.admin.address

bigdata:8033

yarn.resourcemanager.webapp.address

bigdata:8088

三、格式化

(1).格式化namenode

$ ./bin/hdfs namenode -format

四、免密码登录

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cd .ssh/

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

五、启动hadoop

(1).启动

./start-all.sh

(2).验证是否启动成功

(3)浏览

http://192.168.101.109:50070/dfshealth.html#tab-overview

六、总结

如果大家有大数据技术类的问题,欢迎在评论里面留言,我会一一回复,希望跟大家共同努力,共同进步

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
Windows下安装Hadoop(转)
GitChat·大数据 | 史上最详细的Hadoop环境搭建
大数据专栏 - 基础1 Hadoop安装配置
1、腾讯云搭建Hadoop3集群
Hadoop单机以及伪分布式和完全分布式的环境搭建详细步骤
Hadoop2.5 HA搭建
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服