ubantu 16.4 Hadoop 完全分布式搭建
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了ubantu 16.4 Hadoop 完全分布式搭建,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含3835字,纯文字阅读大概需要6分钟。
内容图文
![ubantu 16.4 Hadoop 完全分布式搭建](/upload/InfoBanner/zyjiaocheng/1157/2cc32e26ef4c4cda829d16256828b278.jpg)
一个虚拟机
- 1.以 NAT网卡模式 装载虚拟机
- 2.最好将几个用到的虚拟机修改主机名,静态IP /etc/network/interface,这里 是 s101 s102 s103 三台主机 ubantu,改/etc/hostname文件
- 3.安装ssh
- 在第一台主机那里s101 创建公私密匙
- ssh-keygen -t rsa -P ‘‘ -f ~/.ssh/id_rsa
- >cd .ssh
- >cp id_rsa.pub >authorized_keys 创建密匙库
- 将id_rsa.pub传到其他主机上,到.ssh目录下
- 通过 服务端 nc -l 8888 >~/.ssh/authorized_keys
- 客户端 nc s102 8888 <id_rsa.pub
- 在第一台主机那里s101 创建公私密匙
开始安装Hadoop/jdk
- 安装VM-tools 方便从win 10 拖拉文件到ubantu
- 创建目录 /soft
- 改变组 chown ubantu:ubantu /soft 方便传输文件有权限
- 将文件放入到/soft (可以从桌面cp/mv src dst)
- tar -zxvf jdk或hadoop 自动创建解压目录
- 配置安装环境 (/etc/environment)
- 添加 JAVA_HOME=/soft/jdk-...jdk目录
- 添加 HADOOP_HOME=/soft/hadoop(Hadoop目录)
- 在path里面加/soft/jdk-...jdk/bin:/soft/hadoop/bin/:/soft/hadoop/sbin
- 通过 java -version 查看有版本号 成功
- hadoop version 有版本号 成功
开始配置HDFS四大文件 core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml
- core-site.xml
< configuration > < property > < name >fs.defaultFS</name><value>hdfs://s101:9000</value></property></configuration>
2.hdfs-site.xml
< configuration > <!-- Configurations for NameNode: --> < property > < name >dfs.replication</name><value>2</value></property><property><name>dfs.namenode.name.dir</name><value>file:/data/hdfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/data/hdfs/data</value></property><property><name>dfs.namenode.secondary.http-address</name><value>s101:50090</value></property><property><name>dfs.namenode.http-address</name><value>s101:50070</value><description> The address and the base port where the dfs namenode web ui will listen on. If the port is 0 then the server will start on a free port. </description></property><property><name>dfs.namenode.checkpoint.dir</name><value>file:/data/hdfs/checkpoint</value></property><property><name>dfs.namenode.checkpoint.edits.dir</name><value>file:/data/hdfs/edits</value></property></configuration>
3. mapred-site.xml
< configuration > < property > < name >mapreduce.framework.name</name><value>yarn</value></property></configuration>
4.yarn-site.xml
< configuration > <!-- Site specific YARN configuration properties --> < property > < name >yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.hostname</name><value>s101</value></property></configuration>
到此成功一半。。。。。。。。。。。。。。
创建文件夹
mkdir /data/hdfs/tmp
mkdir /data/hdfs/var
mkdir /data/hdfs/logs
mkdir /data/hdfs/dfs
mkdir /data/hdfs/data
mkdir /data/hdfs/name
mkdir /data/hdfs/checkpoint
mkdir /data/hdfs/edits
记得将目录权限修改
- sudo chown ubantu:ubantu /data
接下来传输 /soft文件夹到其他主机
创建 xsync可执行文件
- sudo touch xsync
- sudo chmod 777 xsync 权限变成可执行文件
- sudo nano xsync
-
#!/bin/bash pcount=$# if((pcount<1));thenecho no args; exit; fi p1=$1; fname=`basename $p1` pdir=`cd -P $(dirname $p1);pwd` cuser=`whoami` for((host=102 ; host<105 ;host=host+1));doecho --------s$host-------- rsync -rvl $pdir/$fname $cuser@s$host:$pdir done
- xsync /soft-------->就会传文件夹到其他主机
- xsync /data
创建 xcall 向其他主机传命令
#!/bin/bash pcount=$# if((pcount<1));thenecho no args; exit; fiecho --------localhost-------- $@ for ((host=102;host<105;host=host+1));doecho --------$shost-------- ssh s$host $@ done
别着急 快结束了 哈
还得配置 workers问价
- 将需要配置成数据节点(DataNode)的主机名放入其中,一行一个
注意重点来了
- 先格式化 hadoop -namenode -format
- 再 启动 start-all.sh
- 查看进程 xcall jps
-
-
进入网页
-
是不是很想牛泪,成功了耶!!!
中间出现了很多问题
1, rsync 权限不够 :删除文件夹 更改文件夹权限chown
2.学会看日志 log
原文:https://www.cnblogs.com/wbdream/p/9824229.html
内容总结
以上是互联网集市为您收集整理的ubantu 16.4 Hadoop 完全分布式搭建全部内容,希望文章能够帮你解决ubantu 16.4 Hadoop 完全分布式搭建所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。