UBUNTU环境
ubuntu-16.10-desktop-amd64.iso


虚拟机使用VMWare 12.5.2,可以把窗口关闭后台运行,VirturelBox每一个虚拟机启动后都弹出来一个新窗口,有窗口干净强迫症的我实在受不了。
网络NAT模式,共享网络,处于独立网段,可以固定IP,不影响对外连接


下载最新的安装程序,我当前版本
jdk-8u121-linux-x64.tar.gz
hadoop-2.7.3.tar.gz


1.定义主机,修改HOST文件
#为了防止主机名识别错误导致的问题,建议把默认的内容全部删除
$ sudo vi /etc/hosts
192.168.254.130 master
192.168.254.131 slave1
192.168.254.132 slave2
192.168.254.133 slave3




2、修改操作系统限制
#为了防止大并发的时候导致进程和打开文件数超出而出的问题,建议值改大一点,最大65536
$vi /etc/security/limits.conf
hadoop soft nofile 65536
hadoop hard nofile 65536
hadoop soft nproc 16384
hadoop hard nproc 16384


2.创建用户
$ sudo mkdir -p /data/hadoop
$ sudo groupadd hadoop
$ sudo useradd hadoop -d /data/hadoop -g hadoop
$ sudo chown -R hadoop:hadoop /data/hadoop/
$ sudo passwd hadoop


3安装SSH(默认不安装)
$ sudo apt-get install openssh-server
$ ps -ef|grep sshd
配置无密码登陆
$ ssh-keygen -t rsa #遇到提示一路回车,四台机器都做
①在master上将公钥放到authorized_keys里。命令:
$ cat id_rsa.pub >authorized_keys
②将master上的authorized_keys放到其他linux的~/.ssh目录下。(只需要把master的公钥分发出去即可)
命令: scp authorized_keys 远程主机用户名@远程主机名或ip:存放路径。
$ scp authorized_keys hadoop@slave1:~/.ssh
$ scp authorized_keys hadoop@slave2:~/.ssh
$ scp authorized_keys hadoop@slave3:~/.ssh


③修改authorized_keys权限,命令:
$chmod 644 authorized_keys


④测试是否成功
#没有提示密码,而直接进入,说明成功,每个都试一下,第一次会反一个确认信息,如果不确认,后后面启动的时候也会提示某个host认证失败
$ ssh hadoop@localhost
$ ssh hadoop@master
$ ssh hadoop@slave1
$ ssh hadoop@slave2
$ ssh hadoop@slave3


4配置环境
安装JDK
$ scp jdk-8u121-linux-x64.tar.gz hadoop@slave1:/data/hadoop/
$ scp jdk-8u121-linux-x64.tar.gz hadoop@slave2:/data/hadoop/
$ scp jdk-8u121-linux-x64.tar.gz hadoop@slave3:/data/hadoop/
$ tar -zxvf jdk-8u121-linux-x64.tar.gz


$ scp hadoop-2.7.3.tar.gz hadoop@slave1:/data/hadoop/
$ scp hadoop-2.7.3.tar.gz hadoop@slave2:/data/hadoop/
$ scp hadoop-2.7.3.tar.gz hadoop@slave3:/data/hadoop/
配置环境变量
$ vi .profile
# ~/.profile: executed by the command interpreter for login shells.
# This file is not read by bash(1),if ~/.bash_profile or ~/.bash_login
# exists.
# see /usr/share/doc/bash/examples/startup-files for examples.
# the files are located in the bash-doc package.


# the default umask is set in /etc/profile; for setting the umask
# for ssh logins,install and configure the libpam-umask package.
#umask 022


# if running bash
if [ -n "$BASH_VERSION" ]; then
# include .bashrc if it exists
if [ -f "$HOME/.bashrc" ]; then
. "$HOME/.bashrc"
fi
fi


# set PATH so it includes user's private bin directories
JAVA_HOME=/data/hadoop/jdk1.8.0_121
export JAVA_HOME
HADOOP_HOME=/data/hadoop/hadoop-2.7.3
export HADOOP_HOME
PATH="$HADOOP_HOME/bin:$JAVA_HOME/bin:$HOME/bin:$HOME/.local/bin:$PATH"
export PATH


$ chmod 644 .profile
$source ./.profile
$ java -version
5修改hadoop配置
配置文件基本都在~/hadoop-2.7.2/etc/hadoop
hadoop-env.sh
export JAVA_HOME=${JAVA_HOME} #环境变量如果有配置JAVA_HOME,省略此过程,建议再配置一下


core-site.xml
<configuration>
<!-- 指定HDFS老大(namenode)的通信地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储路径 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop/hadoop-2.7.3/tmp</value>
</property>
</configuration>


hdfs-site.xml
<!-- 设置namenode的http通讯地址 -->
<property>
<name>dfs.namenode.http-address</name>
<value>master:50070</value>
</property>
<!-- 设置secondarynamenode的http通讯地址,只需要配置一个,当主节点死了,自动转到从节点上,如果不配置就只有一个节点(可以不配置) -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>slave1:50090</value>
</property>
<!-- 设置hdfs副本数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!-- 设置namenode存放的路径 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///data/hadoop/hadoop-2.7.3/name</value>
</property>
<!-- 设置datanode存放的路径 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///data/hadoop/hadoop-2.7.3/data</value>
</property>
</configuration>


mapred-site.xml
必须先
$mv mapred-site.xml.template mapred-site.xml


<configuration>
<!-- 通知框架MR使用YARN -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>


yarn-site.xml


<configuration>
<!-- 设置 resourcemanager 在哪个节点-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<!-- reducer取数据的方式是mapreduce_shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>

配置第二主节点(默认没有)
新建一个masters的文件,这里指定的是secondary namenode 的主机
#vi masters

slave1

配置从节点(仅master节点) #vi slaves slave1 slave2 slave3 分发配置文件 $scp core-site.xml hadoop@slave1:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp core-site.xml hadoop@slave2:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp core-site.xml hadoop@slave3:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp hdfs-site.xml hadoop@slave1:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp hdfs-site.xml hadoop@slave2:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp hdfs-site.xml hadoop@slave3:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp mapred-site.xml hadoop@slave1:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp mapred-site.xml hadoop@slave2:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp mapred-site.xml hadoop@slave3:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp yarn-site.xml hadoop@slave1:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp yarn-site.xml hadoop@slave2:/data/hadoop/hadoop-2.7.3/etc/hadoop/ $scp yarn-site.xml hadoop@slave3:/data/hadoop/hadoop-2.7.3/etc/hadoop/ 启动(只需要操作主节点) $ cd $HADOOP_HOME $ mkdir name data tmp #创建必要的数据目录 $./bin/hdfs namenode -format #格式化namenode $./sbin/start-dfs.sh #启动DFS $./sbin/start-yarn.sh #启动yarn 查看服务状态 $jps 通过浏览器测试hdfs: http://192.168.254.130:50070 http://192.168.254.131:50090

UBUNTU环境安装hadoop集群的更多相关文章

  1. canvas中普通动效与粒子动效的实现代码示例

    canvas用于在网页上绘制图像、动画,可以将其理解为画布,在这个画布上构建想要的效果。本文详细的介绍了粒子特效,和普通动效进行对比,非常具有实用价值,需要的朋友可以参考下

  2. H5混合开发app如何升级的方法

    本篇文章主要介绍了H5混合开发app如何升级的方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

  3. canvas学习和滤镜实现代码

    这篇文章主要介绍了canvas学习和滤镜实现代码,利用 canvas,前端人员可以很轻松地、进行图像处理,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

  4. localStorage的过期时间设置的方法详解

    这篇文章主要介绍了localStorage的过期时间设置的方法详解的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

  5. 详解HTML5 data-* 自定义属性

    这篇文章主要介绍了详解HTML5 data-* 自定义属性的相关资料,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

  6. HTML5的postMessage的使用手册

    HTML5提出了一个新的用来跨域传值的方法,即postMessage,这篇文章主要介绍了HTML5的postMessage的使用手册的相关资料,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

  7. 教你使用Canvas处理图片的方法

    本篇文章主要介绍了教你使用Canvas处理图片的方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

  8. ios – Swift语言:如何调用SecRandomCopyBytes

    从Objective-C,我可以这样做:在Swift中尝试这个时,我有以下内容:但我得到这个编译器错误:data.mutableBytes参数被拒绝,因为类型不匹配,但我无法弄清楚如何强制参数.解决方法这似乎有效:

  9. 使用Firebase iOS Swift将特定设备的通知推送到特定设备

    我非常感谢PushNotifications的帮助.我的应用聊天,用户可以直接向对方发送短信.但是如果没有PushNotifications,它就没有多大意义.它全部设置在Firebase上.如何将推送通知从特定设备发送到特定设备?

  10. ios – NSData to Data swift 3

    如何将此代码转换为使用Swift3数据?

随机推荐

  1. crontab发送一个月份的电子邮件

    ubuntu14.04邮件服务器:Postfixroot收到来自crontab的十几封电子邮件.这些邮件包含PHP警告.>我已经解决了这些警告的原因.>我已修复每个cronjobs不发送电子邮件(输出发送到>/dev/null2>&1)>我删除了之前的所有电子邮件/var/mail/root/var/spool/mail/root但我仍然每小时收到十几封电子邮件.这些电子邮件来自cronjobs,

  2. 模拟两个ubuntu服务器计算机之间的慢速连接

    我想模拟以下场景:假设我有4台ubuntu服务器机器A,B,C和D.我想在机器A和机器C之间减少20%的网络带宽,在A和B之间减少10%.使用网络模拟/限制工具来做到这一点?

  3. ubuntu-12.04 – 如何在ubuntu 12.04中卸载从源安装的redis?

    我从源代码在Ubuntu12.04上安装了redis-server.但在某些时候它无法完全安装,最后一次makeinstallcmd失败.然后我刚刚通过apt包安装.现在我很困惑哪个安装正在运行哪个conf文件?实际上我想卸载/删除通过源安装的所有内容,只是想安装一个包.转到源代码树并尝试以下命令:如果这不起作用,您可以列出软件自行安装所需的步骤:

  4. ubuntu – “apt-get source”无法找到包但“apt-get install”和“apt-get cache”可以找到它

    我正在尝试下载软件包的源代码,但是当我运行时它无法找到.但是当我运行apt-cache搜索squid3时,它会找到它.它也适用于apt-getinstallsquid3.我使用的是Ubuntu11.04服务器,这是我的/etc/apt/sources.list我已经多次更新了.我尝试了很多不同的debs,并没有发现任何其他地方的错误.这里的问题是你的二进制包(deb)与你的源包(deb-src)不

  5. ubuntu – 有没有办法检测nginx何时完成正常关闭?

    &&touchrestarted),因为即使Nginx没有完成其关闭,touch命令也会立即执行.有没有好办法呢?这样的事情怎么样?因此,pgrep将查找任何Nginx进程,而while循环将让它坐在那里直到它们全部消失.你可以改变一些有用的东西,比如睡1;/etc/init.d/Nginx停止,以便它会休眠一秒钟,然后尝试使用init.d脚本停止Nginx.你也可以在某处放置一个计数器,这样你就可以在需要太长时间时发出轰击信号.

  6. ubuntu – 如何将所有外发电子邮件从postfix重定向到单个地址进行测试

    我正在为基于Web的应用程序设置测试服务器,该应用程序发送一些电子邮件通知.有时候测试是使用真实的客户数据进行的,因此我需要保证服务器在我们测试时无法向真实客户发送电子邮件.我想要的是配置postfix,以便它接收任何外发电子邮件并将其重定向到一个电子邮件地址,而不是传递到真正的目的地.我正在运行ubuntu服务器9.10.先感谢您设置本地用户以接收所有被困邮件:你需要在main.cf中添加:然后

  7. ubuntu – vagrant无法连接到虚拟框

    当我使用基本的Vagrantfile,只配置了两条线:我看到我的虚拟框打开,但是我的流氓日志多次显示此行直到超时:然后,超时后的一段时间,虚拟框框终于要求我登录,但是太久了!所以我用流氓/流氓记录.然后在我的物理机器上,如果我“流氓ssh”.没有事情发生,直到:怎么了?

  8. ubuntu – Nginx – 转发HTTP AUTH – 用户?

    我和Nginx和Jenkins有些麻烦.我尝试使用Nginx作为Jenkins实例的反向代理,使用HTTP基本身份验证.它到目前为止工作,但我不知道如何传递带有AUTH用户名的标头?}尝试将此指令添加到您的位置块

  9. Debian / Ubuntu – 删除后如何恢复/ var / cache / apt结构?

    我在ubuntu服务器上的空间不足,所以我做了这个命令以节省空间但是现在在尝试使用apt时,我会收到以下错误:等等显然我删除了一些目录结构.有没有办法做apt-getrebuild-var-tree或类似的?

  10. 检查ubuntu上安装的rubygems版本?

    如何查看我的ubuntu盒子上安装的rubygems版本?只是一个想法,列出已安装的软件包和grep为ruby或宝石或其他:)dpkg–get-selections

返回
顶部