欢迎来到天天文库
浏览记录
ID:35200540
大小:290.21 KB
页数:18页
时间:2019-03-21
《hadoop2.2.0hbase0.98.1sqoop1.4.4hive0.13完全安装手册》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库。
1、Hadoop2.2.0+Hbase0.98.1+Sqoop1.4.4+Hive0.13完全安装手册文档时间2014/7/04各软件版本Hadoop2.2.0Hbase0.98.1Sqoop1.4.4Hive0.13前言:3一.Hadoop安装(伪分布式)41.操作系统42.安装JDK41>下载并解压JDK42>配置环境变量43>检测JDK环境43.安装SSH51>检验ssh是否已经安装52>安装ssh53>配置ssh免密码登录54.安装Hadoop61>下载并解压62>配置环境变量63>配置Hadoop64>
2、启动并验证8前言:网络上充斥着大量Hadoop1的教程,版本老旧,Hadoop2的中文资料相对较少,本教程的宗旨在于从Hadoop2出发,结合作者在实际工作中的经验,提供一套最新版本的Hadoop2相关教程。为什么是Hadoop2.2.0,而不是Hadoop2.4.0本文写作时,Hadoop的最新版本已经是2.4.0,但是最新版本的Hbase0.98.1仅支持到Hadoop2.2.0,且Hadoop2.2.0已经相对稳定,所以我们依然采用2.2.0版本。一.Hadoop安装(伪分布式)1.操作系统Hadoop
3、一定要运行在Linux系统环境下,网上有windows下模拟linux环境部署的教程,放弃这个吧,莫名其妙的问题多如牛毛。2.安装JDK1>下载并解压JDK我的目录为:/home/apple/jdk1.82>配置环境变量打开/etc/profile,添加以下内容:exportJAVA_HOME=/home/apple/jdk1.8exportPATH=$PATH:$JAVA_HOME/binexportCLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt
4、.jar执行source/etc/profile,使更改后的profile生效。执行以下命令,赋予JDK运行的权限:chmod777/home/apple/jdk1.8/bin/*chmod777/home/apple/jdk1.8/lib/*3>检测JDK环境执行java–version,查看结果,如出现如下提示,则说明JDK已成功配置:3.安装SSH1>检验ssh是否已经安装Ubuntu系统可以通过如下命令来查看ssh是否已经安装:netstat-an
5、grep22如果已安装,可跳过第二步。2>安装ssh
6、Ubuntu系统可以通过如下命令来安装ssh:sudo apt-get install ssh3>配置ssh免密码登录通过如下命令来配置ssh免密码登录:ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsacat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys输入如下命令验证免密码登录是否成功:sshlocalhost如出现如下界面,则表示登录成功:4.安装Hadoop1>下载并解压我的目录为:/home/apple/hadoop-2.2.0
7、2>配置环境变量打开/etc/profile,添加以下内容:exportHADOOP_HOME=/home/apple/hadoop-2.2.0exportHADOOP_MAPRED_HOME=$HADOOP_HOMEexportHADOOP_COMMON_HOME=$HADOOP_HOMEexportHADOOP_HDFS_HOME=$HADOOP_HOMEexportHADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexportHADOOP_OPTS=
8、"-Djava.library.path=$HADOOP_HOME/lib/native"exportYARN_HOME=$HADOOP_HOMEexportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin执行source/etc/profile,使更改后的profile生效。执行以下命令,赋予Hadoop运行的权限:chmod777/home/apple/hadoop-2.2.0/bin/*chmod777/home/apple/had
9、oop-2.2.0/sbin/*3>配置Hadoop修改$HADOOP_HOME/etc/hadoop目录下的配置文件。core-site.xml添加以下内容:fs.default.namehdfs://localhost:9000hadoop.native.lib
此文档下载收益归作者所有