欢迎来到天天文库
浏览记录
ID:56825689
大小:1.67 MB
页数:6页
时间:2020-07-15
《hadoop及spark搭建实验报告.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、1、创建hadoop用户。(见图1-1)图1-1创建hadoop2、用hadoop用户登录后,我们先更新一下apt,后续我们使用apt安装软件,如果没更新可能有一些软件安装不了。(见图1-2)图1-2更新apt3、集群、单节点模式都需要用到SSH登陆(类似于远程登陆,你可以登录某台Linux主机,并且在上面运行命令),Ubuntu默认已安装了SSHclient,此外还需要安装SSHserver。(见图1-3)图1-3安装SSH图1-4ssh登陆成功4、为了方便后续操作,我们需要配置成SSH无密码登陆比较方便,首先退出
2、刚才的ssh,就回到了我们原先的终端窗口,然后利用ssh-keygen生成密钥,并将密钥加入到授权中。(见图1-5)图1-5设置ssh免密登陆图1-6ssh免密登陆成功5、联网安装java环境图1-7联网安装jdk,jre图1-8配置jdk路径图1-9java环境成功配置6、安装hadoop2图1-10hadoop2.7.1安装成功图1-11hadoop的伪分布配置图1-12NameNode的格式化成功图1-13hadoop启动成功图1-14web页面管理7、spark平台安装与配置图1-15spark的安装图1-1
3、6spark环境配置图1-17验证spark安装成功
此文档下载收益归作者所有