快速搭建Hadoop环境并测试mapreduce

2019-03-28 13:40|来源: 网络

目标
安装测试本地单机 Hadoop
花费时间:10分钟
前提
java环境已经准备好

hadoop有三种运行方式,单机版包括直接本地运行,假多点环境,多点集群环境。本文测试第一种方法,快速部署hadoop应用。

开始:
下载
wget http://labs.renren.com/apache-mirror/hadoop/common/hadoop-1.0.3/hadoop-1.0.3.tar.gz
60MB大小
解压
tar -zxvf hadoop-1.0.3.tar.gz

配置
[www.linuxidc.com@Hadoop48 ~]$ echo $JAVA_HOME
/usr/java/jdk1.7.0

cd hadoop-1.0.3
[www.linuxidc.com@Hadoop48 hadoop-1.0.3]$ vi conf/hadoop-env.sh
#将注释去掉,设置JAVA_HOME环境变量
export JAVA_HOME=/usr/java/jdk1.7.0

测试:
[www.linuxidc.com@Hadoop46 hadoop-1.0.3]$ ./bin/hadoop
Usage: hadoop [--config confdir] COMMAND

执行例子程序中的grep

[www.linuxidc.com@Hadoop48 hadoop-1.0.3]$ mkdir input
[www.linuxidc.com@Hadoop48 hadoop-1.0.3]$ cp conf/* input
[www.linuxidc.com@Hadoop48 hadoop-1.0.3]$ ./bin/hadoop jar hadoop-examples-1.0.3.jar grep input output ‘[a-z.]+’
12/05/22 18:03:32 INFO util.NativeCodeLoader: Loaded the native-hadoop library
12/05/22 18:03:32 WARN snappy.LoadSnappy: Snappy native library not loaded

[www.linuxidc.com@Hadoop46 hadoop-1.0.3]$ cat output/*
117 value
99 property
91 name
88 description
85 the
77 of

测试mapreduce 例子wordcount,单词计数:

[www.linuxidc.com@Hadoop46 hadoop-1.0.3]$ rm -r output
[www.linuxidc.com@Hadoop46 hadoop-1.0.3]$ ./bin/hadoop jar hadoop-examples-1.0.3.jar wordcount input output
12/05/22 18:32:54 INFO util.NativeCodeLoader: Loaded the native-hadoop library
12/05/22 18:32:55 INFO input.FileInputFormat: Total input paths to process : 16

12/05/22 18:33:47 INFO mapred.JobClient: Map output records=2587
[www.linuxidc.com@Hadoop46 hadoop-1.0.3]$

可以看到花费将近1分钟计算单词数

[www.linuxidc.com@Hadoop46 hadoop-1.0.3]$ ls output/
part-r-00000 _SUCCESS

[www.linuxidc.com@Hadoop46 hadoop-1.0.3]$ cat output/*
“”. 4
“*” 10
“alice,bob 10
“console” 1
“hadoop.root.logger”. 1
“jks”. 4

which 17
who 3
will 8
with 5
worker 1
would 7
xmlns:xsl=”http://www.w3.org/1999/XSL/Transform” 1
you 1

10分钟内完成。

相关问答

更多
  • path变量配置成功的话,运行java和javac命令会显示这两个命令的帮助信息要测试classpath是否配置成功的话,就需要写一个简单的Java程序,编译执行了
  • 游戏测试的话。客户端环境搭建一般不会再linux下面, 我不知道你面试的职位是什么,主要测功能还是压力还是其他的,每个要求不同。 客户端方面: 比如现在比较主流的移动端游戏, ios,andirod, 基本不需要搭什么测试环境,直接把设备拿过来就可以, 如果想在模拟器上运行,那么andirod 的在windows的模拟器 比如 bluestacks直接安装即可。客户端测试环境是一个相对比较简单的,如果用到sql和linux的话,那我估计是测试服务器的搭建了。 服务器的搭建: 这块就比较复杂了,不是三言两语可 ...
  • 1.关闭hdfs权限:hdfs-site.xml中 dfs.permissions false 2.检查eclipse插件是否设置了hadoop安装目录:将与linux下安装的hadoop相同版本的hadoop解压到windows下一个文件夹,然后指定hadoop插件目录,插件目录在preferences的map/reduce的hadoop installation location 3.在windows的hosts文件中添加hadoop所有节点的ip和主机名 4.关闭linux系统防火墙 5.把hadoo ...
  • 1、下载安装JDK,以及Eclipse 具体看此链接:http://blog.csdn.net/weixuehao/article/details/17715793 2、新建JAVA Project 3、去cloudera网站下载hadoop的CDH3u6版本。将起解压到win7的某个目录 4、选中OperateHDFS,右击,选择“property”,弹出右侧的窗口; 选择“Java Build Path” —— “Libraries” —— Add External Jars 5、到上面的画面后,下面就 ...
  • 1分钟内就能快速搭建本地php环境。
  • part-r-0000这个文件时存放在hdfs上的,并非本地文件系统,所以你当然找不到了,你只能通过hdfs的命令查看,或者使用插件。 hdfs的文件虽然底层也是存放在本地文件系统的,但是你是没法显式查看的,跟数据库一样的。
  • namenode节点配置 conf/core-site.xml: fs.default.name hdfs:// localhost:9000 hdfs测试环境配置 conf/hdfs-site.xml: 数据块不需要冗余 dfs.replication 1 job-tracker配置 conf/mapred-site.xml: mapred.job.tracker localhost:9001 免密码ssh登录配置 $ ssh localhost # 若不行, 则进行以下配置 $ ssh-keygen - ...
  • 没有内部命令 chomod 你取保是在Linux环境下开发的吗
  • map的JVM内存溢出,这个值默认是200M,有些小,你需要设置的大点,设置mapred.child.java.opts为512M试试
  • MapReduce的作用可以称为“执行引擎”。 Pig作为一个系统正在将Pig Latin命令转换为一个或多个MR Jobs。 Pig本身没有能力运行它 - 它将这项工作委托给Hadoop。 我会在编译器和操作系统之间建立类比。 OS执行时编译器创建程序。 在这个比喻中,Pig是编译器,Hadoop是OS。 猪做的更多 - 它运行作业,监视它们等等。所以除了编译器之外,它可以被视为“shell”。 在我的理解中,从以下角度看,Pig不是100%编译器 - 它不会根据命令编译MR作业。 它传递有关应该对已存在 ...