知识点
相关文章
更多最近更新
更多Hadoop环境搭建——伪分布式环境搭建
2019-03-28 13:07|来源: 网络
本文大部分借鉴了http://www.linuxidc.com/Linux/2012-03/56691.htm 中的安装过程,在此向原作者表示感谢,同时本文的原创性是更改了Hadoop文件配置部分,以及对按装过程中遇到的问题做了说明
工具:
jdk-6u38-linux-i586.bin
hadoop-1.1.2.tar.gz
Ubuntu-12.04.1-desktop-i386.iso
安装
1、安装Ubuntu 10.10
参见:http://www.linuxidc.com/Linux/2010-10/29472.htm
2、安装jdk1.6.0_38
在usr下面新建一个文件夹Java,然后将jdk复制过来
sudo mkdir /usr/Java
sudo cp jdk的路径 /usr/Java
进入到Java目录下,改变文件权限为可执行
cd /usr/Java
sudo chmod u+x jdk-6u38-linux-i586.bin
执行安装
sudo ./ jdk-6u38-linux-i586.bin
3、安装hadoop0.21.0
将hadoop-1.1.2.tar.gz复制到usr下面的local文件夹内
sudo cp hadoop的路径 /usr/local
进入到local目录下,解压hadoop-1.1.2.tar.gz
cd /usr/local
sudo tar -xzf hadoop-1.1.2.tar.gz
为了方便管理,将解压后的文件夹名改为hadoop
sudo mv hadoop-1.1.2.tar.gz
4、创建一个名为hadoop的用户和用户组
创建一个名为hadoop的用户组
sudo addgroup hadoop
创建一个名为hadoop的用户,归到hadoop用户组下
sudo adduser --ingroup hadoop hadoop
用gedit打开etc下的sudoers文件
sudo gedit /etc/sudoers
在 root ALL=(ALL) ALL 下面添加如下一行,然后保存关闭gedit
hadoop ALL=(ALL) ALL
5、配置相关文件
用gedit打开etc下的profile文件
sudo gedit /etc/profile
在文件最后加入如下几行
export CLASSPATH=.:/usr/Java/jdk1.6.0_38/lib:/usr/Java/jdk1.6.0_38/jre/lib:$CLASSPATH
export PATH=.:/usr/Java/jdk1.6.0_38/bin:/usr/Java/jdk1.6.0_38/jre/bin:/usr/local/hadoop/bin:$PATH
保存后关闭gedit,并重启机器
sudo reboot
重启后用hadoop用户登录,验证配置是否成功
java -version
PS:我刚开始装jdk时,一切都妥妥的装好以后,发现这个命令一直无法运行成功,经过多方查证,发现时jdk版本有问题,前面装的jdk是从Unix社区下载的jdk-6u3-dlj-linux-i586.bin,安装好后,会有许多没有加压完全的后缀名为.pack的文件,这些文件需要解压成后缀名为.jar的文件才可以,可以用/usr/Java/jdk1.6.0_38/bin下的Unpack200来做,命令类似与:
sudo ./unpack200 tools.pack tools.jar
如果选用jdk-6u38-linux-i586.bin这个jdk则不会出现上述问题
相关问答
更多-
在线等!!关于hadoop环境搭建问题[2023-10-24]
1.关闭hdfs权限:hdfs-site.xml中 dfs.permissions false 2.检查eclipse插件是否设置了hadoop安装目录:将与linux下安装的hadoop相同版本的hadoop解压到windows下一个文件夹,然后指定hadoop插件目录,插件目录在preferences的map/reduce的hadoop installation location 3.在windows的hosts文件中添加hadoop所有节点的ip和主机名 4.关闭linux系统防火墙 5.把hadoo ... -
hadoop搭建完全分布式完成,可是不会用[2023-08-27]
1、能搭好环境说明水平还不错。 2、下边应该分以下几步走: 一,依据示例程序,自己手写wordcount之类的示例程序,以此充分了解m/r和hdfs的简单原理。 二,针对某些知识点,如hadoop应用场景、hadoop的简单应用等,去百度一下搞定,这样的问题最关键、最需要做的。 三,深入阅读hadoop的源码,把框架的数据流或说工作流搞个大致清楚。 四,试着用hadoop解决一些实际问题和项目应用。 参考下吧。 -
hadoop伪分布式搭建用什么linuix[2024-02-21]
第一步: 安装JDK 因为 Hadoop 运行必须安装 JDK 环境,因此在安装好 Linux 后进入系统的第一步 便是安装 JDK ,安装过程和在 Windows 环境中的安装步骤很类似,首先去Oracle 官网 去下载安装包,然后直接进行解压。我自己解压在路径 /usr/jvm 下面,假如你的安装包现在已经下载在 jvm 文件夹下面,然后 按 Ctrl+Alt+t 进去命令行,然后输入 cd /usr/jvm 进入到jvm文件夹下面,然后再输入如下命令进行解压: sudo tar -zxvf jdk-7 ... -
关于分布式Hadoop在WINDOWS上操作问题[2023-11-29]
若在windows的Eclipse工程中直接启动mapreduc程序,需要先把hadoop集群的配置目录下的xml都拷贝到src目录下,让程序自动读取集群的地址后去进行分布式运行(您也可以自己写java代码去设置job的configuration属性)。 若不拷贝,工程中bin目录没有完整的xml配置文件,则windows执行的mapreduce程序全部通过本机的jvm执行,作业名也是带有“local"字眼的作业,如 job_local2062122004_0001。 这不是真正的分布式运行mapred ... -
hadoop搭建完全分布式完成,可是不会用[2022-04-01]
搭建的文本,很久了,现在更新的最新版本搭建更加简单,建议你去看看黑马里边的教程,免费的 -
搭建spark伪分布式需要先搭建hadoop吗[2021-12-14]
Spark和Hadoop是完全两种集群。Spark是分布式计算框架,Hadoop是分布式计算/存储/调度框架。Spark可以无缝访问存在HDFS上的数据。 所以两个集群如何搭建是没有关系的。Spark只关心如何访问HDFS,就是 hdfs://namenode:port/能访问就行。 当然Spark作业提交到YARN那是另外一回事了。 -
利用阿里云可以搭建伪分布式的hadoop的环境吗?[2021-07-25]
可以的 但是网络状况要好 伪分布式你在阿里云买一台就可已搭集群呢 -
hadoop在进行伪分布式搭建时ssh必须配置成无密码登录吗[2023-09-29]
第一步: 安装JDK 因为 Hadoop 运行必须安装 JDK 环境,因此在安装好 Linux 后进入系统的第一步 便是安装 JDK ,安装过程和在 Windows 环境中的安装步骤很类似,首先去Oracle 官网 去下载安装包,然后直接进行解压。我自己解压在路径 /usr/jvm ... -
菜鸟求助hadoop2.5.1 使用put命令提示连接失败[2022-04-17]
1.jpg 127.0.1.1是否注释掉 检查进程是否都起来了。 -
Phonegap 环境搭建[2023-04-02]
使用PhoneGap搭建Android开发的项目整体步骤如下: 安装android的开发环境并配置环境变量。 安装Node.js环境并配置环境变量。 使用npm安装PhoneGap全局环境。 使用PhoneGap命令创建PhoneGap项目。 将PhoneGap编译为android项目。 将上述项目导入ADT进行后续开发。 具体步骤如下: 一、安装并配置android开发环境: 去下载最新版的ADT到本机,将其解压到相应的目录。 接下来需要配置环境变量,将如下两个路径配置到系统PATH中: A、{ADT_H ...