打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
hadoop 2.7.3安装和配置

一、安装环境 
硬件:虚拟机 
操作系统:Centos 6.4 64位 
IP:192.168.241.128
主机名:admin
安装用户:root

二、安装JDK 
安装JDK1.8或者以上版本。这里安装jdk1.8.0_121。 
下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html 
1,下载jdk-8u121-linux-x64.tar.gz,解压到/usr/Java/jdk1.8。 
2,在/root/.bash_profile中添加如下配置:

export JAVA_HOME=/usr/java/jdk1.8export PATH=$JAVA_HOME/bin:$PATH

3,使环境变量生效,#source ~/.bash_profile 
4,安装验证# java -version 
Java version "1.8.0_121"
Java(TM) SE Runtime Environment (build 1.8.0_121-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)

查看启动端口:netstat -ntpl   查看防火墙:iptables -L  /-F关闭

三,配置SSH无密码登陆    

ssh-keygen -t rsa
ssh-keygen -t dsacat ~/.ssh/id_rsa.pub > ~/.ssh/authorized_keys  注:> :重定向
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 注:>>:追加
chmod 700 ~/.ssh/    注:~/.ssh 目录的权限必须是700
chmod 600 ~/.ssh/authorized_keys 注:~/.ssh/authorized_keys 文件权限必须是600
#服务器配置
1.修改sshd配置文件(su root -->>  vi /etc/ssh/sshd_config)
找到以下内容,并去掉注释符号"#"
================================
RSAAuthentication yesPubkeyAuthentication yesAuthorizedKeysFile      .ssh/authorized_keys
================================
重启sshd:
$ /etc/init.d/sshd restart

验证ssh,# ssh localhost 
不需要输入密码即可登录。

如果你是集群的形式,那么可以参考http://blog.csdn.NET/se7en_q/article/details/47671425

把一个文件夹下的所有文件夹及文件的拥有者变更为另一个用户:

su root   -->>hadoop

chown -R hadoop:hadoop /usr/local/hadoop/

四,安装Hadoop-2.7.3
1,下载Hadoop2.7.3
下载地址:http://mirrors.hust.edu.cn/apache/hadoop/common/stable2/hadoop-2.7.3.tar.gz

2,解压安装 
1),复制 Hadoop-2.7.3.tar.gz 到/usr/hadoop目录下, 
然后#tar -xzvf hadoop-2.7.3.tar.gz 解压,解压后目录为:/usr/hadoop/hadoop-2.7.3
2),在/usr/hadoop/目录下,建立tmp、hdfs/name、hdfs/data目录,执行如下命令 
#mkdir /usr/hadoop/tmp 
#mkdir /usr/hadoop/hdfs 
#mkdir /usr/hadoop/hdfs/data 
#mkdir /usr/hadoop/hdfs/name

3),设置环境变量,#vi ~/.bash_profile

# set hadoop pathexport HADOOP_HOME=/usr/hadoop/hadoop-2.7.3export PATH=$PATH:$HADOOP_HOME/bin

4),使环境变量生效,$source ~/.bash_profile

3,Hadoop配置 
进入$HADOOP_HOME/etc/hadoop目录,配置 hadoop-env.sh等。涉及的配置文件如下: 
hadoop-2.7.3/etc/hadoop/hadoop-env.sh 

hadoop-2.7.3/etc/hadoop/yarn-env.sh 

hadoop-2.7.3/etc/hadoop/core-site.xml 

hadoop-2.7.3/etc/hadoop/hdfs-site.xml 

hadoop-2.7.3/etc/hadoop/mapred-site.xml 

hadoop-2.7.3/etc/hadoop/yarn-site.xml

1)配置hadoop-env.sh

# The java implementation to use.#export JAVA_HOME=${JAVA_HOME}export JAVA_HOME=/usr/java/jdk1.7.0_79

2)配置yarn-env.sh

#export JAVA_HOME=/home/y/libexec/jdk1.7.0/export JAVA_HOME=/usr/java/jdk1.7.0_79

3)配置core-site.xml 
添加如下配置:

<configuration> <property>    <name>fs.default.name</name>    <value>hdfs://localhost:9000</value>    <description>HDFS的URI,文件系统://namenode标识:端口号</description></property><property>    <name>hadoop.tmp.dir</name>    <value>/usr/hadoop/tmp</value>    <description>namenode上本地的hadoop临时文件夹</description></property></configuration>

4),配置hdfs-site.xml 
添加如下配置

<configuration><!—hdfs-site.xml--><property>    <name>dfs.name.dir</name>    <value>/usr/hadoop/hdfs/name</value>    <description>namenode上存储hdfs名字空间元数据 </description> </property><property>    <name>dfs.data.dir</name>    <value>/usr/hadoop/hdfs/data</value>    <description>datanode上数据块的物理存储位置</description></property><property>    <name>dfs.replication</name>    <value>1</value>    <description>副本个数,配置默认是3,应小于datanode机器数量</description></property></configuration>

5),配置mapred-site.xml 
添加如下配置:

<configuration><property>        <name>mapreduce.framework.name</name>        <value>yarn</value></property></configuration>

6),配置yarn-site.xml 
添加如下配置:

<configuration><property>        <name>yarn.nodemanager.aux-services</name>        <value>mapreduce_shuffle</value></property><property>        <name>yarn.resourcemanager.webapp.address</name>        <value>192.168.241.128:8099</value></property></configuration>

4,Hadoop启动 
1)格式化namenode

$ bin/hdfs namenode –format

2)启动NameNode 和 DataNode 守护进程

$ sbin/start-dfs.sh

3)启动ResourceManager 和 NodeManager 守护进程

$ sbin/start-yarn.sh

5,启动验证 
1)执行jps命令,有如下进程,说明Hadoop正常启动

# jps6097 NodeManager11044 Jps7497 -- process information unavailable8256 Worker5999 ResourceManager5122 SecondaryNameNode8106 Master4836 NameNode4957 DataNode

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
CentOS 6.5上搭建Hadoop环境详解
HBase ZooKeeper Hadoop2.6.0的ResourceManager HA集群高可...
Installing Hadoop on Mac OSX Yosemite Tutorial
Hadoop集群搭建过程
大数据环境搭建之Hadooop伪分布搭建(2)
第九章 搭建Hadoop 2.2.0版本HDFS的HA配置
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服