知识点
相关文章
更多最近更新
更多分析Hadoop自带WordCount例子的执行过程
2019-03-28 14:10|来源: 网络
public static void main(String[] args) throws Exception { } |
我们先从主函数入手吧,一点点地按照“深度遍历”的思想,分解掉这个WordCount字频统计工具,让我们更清晰地看到到底在Hadoop中是如何进行工作的。
首先从ToolRunner的run方法开始,run方法需要三个参数,第一个是一个Configuration类的实例。第二个是WorCount类的实例,args就是从控制台接收到的命令行数组。可见,估计分析到我们的WordCount还非常非常的远,因为Configuration类与args数组就够追踪一会了。
下面是ToolRunner的run方法的实现:
public static int run(Configuration conf, Tool tool, String[] args) // 因为Tool接口实现了Configurable接口,在Configurable接口中可以为一个Tool设置初始化配置,即使用setConf()方法 |
上面的run方法应该是执行WordCount例子的最高层的方法,最抽象了。
程序一开始,首先要解析Hadoop配置文件,对应于Hadoop根目录下的conf目录下。其中的配置类为Configuration,构造一个Configuration对象,使用如下所示构造方法:
public Configuration() { if (LOG.isDebugEnabled()) { LOG.debug(StringUtils.stringifyException(new IOException("config()"))); } resources.add("hadoop-default.xml"); resources.add("hadoop-site.xml"); } |
实例化一个Configuration对象,就是将conf目录中的hadoop-default.xml和hadoop-site.xml配置文件加入到private ArrayList<Object> resources中,以便再进一步解析。
真正解析Hadoop的配置文件的是一个GenericOptionsParser通用选项解析器类,需要提供一个Configuration对象的,同时指定一个命令行参数数组。
如下是GenericOptionsParser类的构造方法:
public GenericOptionsParser(Configuration conf, String[] args) { this(conf, new Options(), args); // 这里额外又多增加了一个Options对象作为参数 } |
Options类是一个选项对象的集合,用于描述在应用中可能使用到的命令行参数。可以通过查看Options类的构造方法:
public Options() { // nothing to do } |
其实,什么也没有做。然而,可以动态为一个Options对象添加指定的选项的。
又调用了GenericOptionsParser类的另一个构造方法,如下所示:
public GenericOptionsParser(Configuration conf, Options options, String[] args) { parseGeneralOptions(options, conf, args); } |
继续调用GenericOptionsParser类的成员方法parseGeneralOptions()来进一步解析配置选项:
/** HelpFormatter formatter = new HelpFormatter(); |
其中,commandLine是GenericOptionsParser类的一个私有成员变量。
上面GenericOptionsParser类的成员方法parseGeneralOptions()可以作为解析Hadoop配置选项的一个高层的抽象方法了。
其中的buildGeneralOptions()接收Options opts然后又返回了opts,如下所示:
/** opts.addOption(fs); |
返回的Options opts已经被赋予了丰富的内容。
相关问答
更多-
运行Hadoop2.6自带wordcount,报错[2021-07-04]
从容器启动:ExitCodeException EXITCODE = 1:/ bin中/ MV:目标`/nm-local-dir/nmPrivate/container_1414477505079_0003_01_000002.pid'不是一个目录 ExitCodeException EXITCODE = 1:/ bin中/ MV:目标`/nm-local-dir/nmPrivate/container_1414477505079_0003_01_000002.pid'不是一个目录 ,在org.apache ... -
怎样将hadoop自带的wordcount发布到集群上运行[2023-05-22]
运行自带wordcount-Hadoop2的方法 1、在linux系统中,所在目录“/home/kcm”下创建一个文件input [ubuntu@701~]$ mkdir input 2.在文件夹input中创建两个文本文件file1.txt和file2.txt,file1.txt中内容是“hello word”,file2.txt中内容是“hello hadoop”、“hello mapreduce”(分两行)。 [ubuntu@701~]$ cd input [ubuntu@701~ ... -
如何运行自带wordcount-Hadoop2[2022-04-05]
1、在linux系统中,所在目录“/home/kcm”下创建一个文件input [ubuntu@701~]$ mkdir input 2.在文件夹input中创建两个文本文件file1.txt和file2.txt,file1.txt中内容是“hello word”,file2.txt中内容是“hello hadoop”、“hello mapreduce”(分两行)。 [ubuntu@701~]$ cd input [ubuntu@701~]$ vi file1.txt(编辑文件并保存) [ubuntu@70 ... -
Hadoop运行自带的WordCount 出错[2023-07-25]
MapReduce不支持多线程导入。用自带的工具importtsv+completebulkload批量导入支持多个文件并发导入。 -
hadoop 2.6.0 wordcount 例子在哪[2023-12-15]
1,在hadoop包中的hadoop-2.6.0->share->hadoop->mapreduce中的hadoop-mapreduce-examples 2.6.0.jar 2,运行命令hadoop jar share/mapreduce/hadoop-mapreduce-examples-2.6.0.jar wordcount /input/ /output/wordcount就可以了,其中的input和output是存放计算文件的文件夹 -
HADOOP 不能运行在WINDOWS上。 图片只是Eclipse在WINDOWS上的开发客户端 你说的情况有很多种可能。 首先是配置,单机、伪集群,集群的配置各不相同。 从图上看,你的HDFS配置应该是成功了 请仔细检查MAP-RED的配置,或者贴出来。 检查HOSTS、PROFILE、*ENV等配置。 如果还是不能解决问题,请到HADOOP目录/logs 中查看各个组件的LOG记录,看看有没有异常信息。
-
hadoop在运行wordcount例子测试时,输入指令后没反应,求解!!!![2021-12-03]
注意流程: ./hadoop namnode -format ./start-all.sh 然后是将文件上传 ./hadoop dfs -put input in 最后才是运行例子,祝你好运 -
hadoop2.2.0自带wordcount实例[2022-05-24]
检查yarn-site.XML -
hadoop运行wordcount例子第一次运行无误,第二次还是同样路径报错[2024-01-17]
这个输出目录已存在是不行的,这是hadoop设定的,任务输出路径如果存在则报错,删掉或者换个目录就好了 -
假设您还按照指示启动了本地群集或伪分布式群集,那么这是最简单的方法。 转到hadoop目录,该目录应该是从apache下载hadoop库时解压缩的目录。 从那里你可以运行这些命令来运行hadoop 对于Hadoop版本0.23。* cd $ HOME / path / to / hadoop-0.23。* ./bin/hadoop jar share / hadoop / mapreduce / hadoop-mapreduce-examples-0.23.5.jar wordcount myinput o ...