Hadoop环境搭建——伪分布式环境搭建

2019-03-28 13:07|来源: 网络

本文大部分借鉴了http://www.linuxidc.com/Linux/2012-03/56691.htm 中的安装过程,在此向原作者表示感谢,同时本文的原创性是更改了Hadoop文件配置部分,以及对按装过程中遇到的问题做了说明

工具:

jdk-6u38-linux-i586.bin

hadoop-1.1.2.tar.gz

Ubuntu-12.04.1-desktop-i386.iso

安装

1、安装Ubuntu 10.10

参见:http://www.linuxidc.com/Linux/2010-10/29472.htm

2、安装jdk1.6.0_38

在usr下面新建一个文件夹Java,然后将jdk复制过来

sudo mkdir /usr/Java

sudo cp jdk的路径 /usr/Java

进入到Java目录下,改变文件权限为可执行

cd /usr/Java

sudo chmod u+x jdk-6u38-linux-i586.bin

执行安装

sudo ./ jdk-6u38-linux-i586.bin

3、安装hadoop0.21.0

将hadoop-1.1.2.tar.gz复制到usr下面的local文件夹内

sudo cp hadoop的路径 /usr/local

进入到local目录下,解压hadoop-1.1.2.tar.gz

cd /usr/local

sudo tar -xzf hadoop-1.1.2.tar.gz

为了方便管理,将解压后的文件夹名改为hadoop

sudo mv hadoop-1.1.2.tar.gz

4、创建一个名为hadoop的用户和用户组

创建一个名为hadoop的用户组

sudo addgroup hadoop

创建一个名为hadoop的用户,归到hadoop用户组下

sudo adduser --ingroup hadoop hadoop

用gedit打开etc下的sudoers文件

sudo gedit /etc/sudoers

在 root  ALL=(ALL)  ALL 下面添加如下一行,然后保存关闭gedit

hadoop  ALL=(ALL)  ALL

5、配置相关文件

用gedit打开etc下的profile文件

sudo gedit /etc/profile

在文件最后加入如下几行

export CLASSPATH=.:/usr/Java/jdk1.6.0_38/lib:/usr/Java/jdk1.6.0_38/jre/lib:$CLASSPATH

export PATH=.:/usr/Java/jdk1.6.0_38/bin:/usr/Java/jdk1.6.0_38/jre/bin:/usr/local/hadoop/bin:$PATH

保存后关闭gedit,并重启机器

sudo reboot

重启后用hadoop用户登录,验证配置是否成功

java -version

PS:我刚开始装jdk时,一切都妥妥的装好以后,发现这个命令一直无法运行成功,经过多方查证,发现时jdk版本有问题,前面装的jdk是从Unix社区下载的jdk-6u3-dlj-linux-i586.bin,安装好后,会有许多没有加压完全的后缀名为.pack的文件,这些文件需要解压成后缀名为.jar的文件才可以,可以用/usr/Java/jdk1.6.0_38/bin下的Unpack200来做,命令类似与:

sudo ./unpack200 tools.pack tools.jar

如果选用jdk-6u38-linux-i586.bin这个jdk则不会出现上述问题

相关问答

更多
  • 1.关闭hdfs权限:hdfs-site.xml中 dfs.permissions false 2.检查eclipse插件是否设置了hadoop安装目录:将与linux下安装的hadoop相同版本的hadoop解压到windows下一个文件夹,然后指定hadoop插件目录,插件目录在preferences的map/reduce的hadoop installation location 3.在windows的hosts文件中添加hadoop所有节点的ip和主机名 4.关闭linux系统防火墙 5.把hadoo ...
  • 1、能搭好环境说明水平还不错。 2、下边应该分以下几步走: 一,依据示例程序,自己手写wordcount之类的示例程序,以此充分了解m/r和hdfs的简单原理。 二,针对某些知识点,如hadoop应用场景、hadoop的简单应用等,去百度一下搞定,这样的问题最关键、最需要做的。 三,深入阅读hadoop的源码,把框架的数据流或说工作流搞个大致清楚。 四,试着用hadoop解决一些实际问题和项目应用。 参考下吧。
  • 第一步: 安装JDK 因为 Hadoop 运行必须安装 JDK 环境,因此在安装好 Linux 后进入系统的第一步 便是安装 JDK ,安装过程和在 Windows 环境中的安装步骤很类似,首先去Oracle 官网 去下载安装包,然后直接进行解压。我自己解压在路径 /usr/jvm 下面,假如你的安装包现在已经下载在 jvm 文件夹下面,然后 按 Ctrl+Alt+t 进去命令行,然后输入 cd /usr/jvm 进入到jvm文件夹下面,然后再输入如下命令进行解压: sudo tar -zxvf jdk-7 ...
  • 若在windows的Eclipse工程中直接启动mapreduc程序,需要先把hadoop集群的配置目录下的xml都拷贝到src目录下,让程序自动读取集群的地址后去进行分布式运行(您也可以自己写java代码去设置job的configuration属性)。   若不拷贝,工程中bin目录没有完整的xml配置文件,则windows执行的mapreduce程序全部通过本机的jvm执行,作业名也是带有“local"字眼的作业,如 job_local2062122004_0001。 这不是真正的分布式运行mapred ...
  • 搭建的文本,很久了,现在更新的最新版本搭建更加简单,建议你去看看黑马里边的教程,免费的
  • Spark和Hadoop是完全两种集群。Spark是分布式计算框架,Hadoop是分布式计算/存储/调度框架。Spark可以无缝访问存在HDFS上的数据。   所以两个集群如何搭建是没有关系的。Spark只关心如何访问HDFS,就是  hdfs://namenode:port/能访问就行。   当然Spark作业提交到YARN那是另外一回事了。
  • 可以的 但是网络状况要好 伪分布式你在阿里云买一台就可已搭集群呢
  • 第一步: 安装JDK 因为 Hadoop 运行必须安装 JDK 环境,因此在安装好 Linux 后进入系统的第一步 便是安装 JDK ,安装过程和在 Windows 环境中的安装步骤很类似,首先去Oracle 官网 去下载安装包,然后直接进行解压。我自己解压在路径 /usr/jvm ...
  • 1.jpg 127.0.1.1是否注释掉 检查进程是否都起来了。
  • Phonegap 环境搭建[2023-04-02]

    使用PhoneGap搭建Android开发的项目整体步骤如下: 安装android的开发环境并配置环境变量。 安装Node.js环境并配置环境变量。 使用npm安装PhoneGap全局环境。 使用PhoneGap命令创建PhoneGap项目。 将PhoneGap编译为android项目。 将上述项目导入ADT进行后续开发。 具体步骤如下: 一、安装并配置android开发环境: 去下载最新版的ADT到本机,将其解压到相应的目录。 接下来需要配置环境变量,将如下两个路径配置到系统PATH中: A、{ADT_H ...