分析Hadoop自带WordCount例子的执行过程

2019-03-28 14:10|来源: 网络

Hadoop的发行包中也附带了例子的源代码,WordCount.java类的主函数实现如下所示:

public static void main(String[] args) throws Exception {
    int res = ToolRunner.run(new Configuration(), new WordCount(), args);
    System.exit(res);
}

}

我们先从主函数入手吧,一点点地按照“深度遍历”的思想,分解掉这个WordCount字频统计工具,让我们更清晰地看到到底在Hadoop中是如何进行工作的。

首先从ToolRunner的run方法开始,run方法需要三个参数,第一个是一个Configuration类的实例。第二个是WorCount类的实例,args就是从控制台接收到的命令行数组。可见,估计分析到我们的WordCount还非常非常的远,因为Configuration类与args数组就够追踪一会了。

下面是ToolRunner的run方法的实现:

   public static int run(Configuration conf, Tool tool, String[] args)
    throws Exception{
    if(conf == null) { // 即使传入的conf为null,仍然会在这里实例化一个配置类Configuration的对象
      conf = new Configuration();
    }
    GenericOptionsParser parser = new GenericOptionsParser(conf, args); // 根据指定的conf和args数组实例化一个GenericOptionsParser类的对象,构造GenericOptionsParser类对象能实现对Hadoop通用的配置信息进行解析
    // Tool类是一个接口,WordCount工具就是实现了Tool接口,Tool接口中只是定义了一个run方法,即实现一个Tool必须要知道这个Tool的实现类的对象怎样run。

    // 因为Tool接口实现了Configurable接口,在Configurable接口中可以为一个Tool设置初始化配置,即使用setConf()方法
    tool.setConf(conf);
   
    //get the args w/o generic hadoop args
    String[] toolArgs = parser.getRemainingArgs(); // 返回从控制台输入的命令行参数的数组
    return tool.run(toolArgs); // 根据toolArgs数组指定的命令启动WordCount实例运行,返回实现Tool接口的实现类的对象的执行状态码
}

上面的run方法应该是执行WordCount例子的最高层的方法,最抽象了。

程序一开始,首先要解析Hadoop配置文件,对应于Hadoop根目录下的conf目录下。其中的配置类为Configuration,构造一个Configuration对象,使用如下所示构造方法:

   public Configuration() {
    if (LOG.isDebugEnabled()) {
      LOG.debug(StringUtils.stringifyException(new IOException("config()")));
    }
    resources.add("hadoop-default.xml");
    resources.add("hadoop-site.xml");
}

实例化一个Configuration对象,就是将conf目录中的hadoop-default.xml和hadoop-site.xml配置文件加入到private ArrayList<Object> resources中,以便再进一步解析。

真正解析Hadoop的配置文件的是一个GenericOptionsParser通用选项解析器类,需要提供一个Configuration对象的,同时指定一个命令行参数数组。

如下是GenericOptionsParser类的构造方法:

   public GenericOptionsParser(Configuration conf, String[] args) {
    this(conf, new Options(), args); // 这里额外又多增加了一个Options对象作为参数
}

Options类是一个选项对象的集合,用于描述在应用中可能使用到的命令行参数。可以通过查看Options类的构造方法:

     public Options()
    {
        // nothing to do
    }

其实,什么也没有做。然而,可以动态为一个Options对象添加指定的选项的。

又调用了GenericOptionsParser类的另一个构造方法,如下所示:

   public GenericOptionsParser(Configuration conf, Options options, String[] args) {
    parseGeneralOptions(options, conf, args);
}

继续调用GenericOptionsParser类的成员方法parseGeneralOptions()来进一步解析配置选项:

   /**
   * Parse the user-specified options, get the generic options, and modify
   * configuration accordingly
   * @param conf Configuration to be modified
   * @param args User-specified arguments
   * @return Command-specific arguments
   */

private String[] parseGeneralOptions(Options opts, Configuration conf,
      String[] args) {
    opts = buildGeneralOptions(opts);
    CommandLineParser parser = new GnuParser();
    try {
      commandLine = parser.parse(opts, args, true);
      processGeneralOptions(conf, commandLine);
      return commandLine.getArgs();
    } catch(ParseException e) {
      LOG.warn("options parsing failed: "+e.getMessage());

      HelpFormatter formatter = new HelpFormatter();
      formatter.printHelp("general options are: ", opts);
    }
    return args;
}

其中,commandLine是GenericOptionsParser类的一个私有成员变量。

上面GenericOptionsParser类的成员方法parseGeneralOptions()可以作为解析Hadoop配置选项的一个高层的抽象方法了。

其中的buildGeneralOptions()接收Options opts然后又返回了opts,如下所示:

   /**
   * Specify properties of each generic option
   */

@SuppressWarnings("static-access")
private Options buildGeneralOptions(Options opts) {
    Option fs = OptionBuilder.withArgName("local|namenode:port")
    .hasArg()
    .withDescription("specify a namenode")
    .create("fs");
    Option jt = OptionBuilder.withArgName("local|jobtracker:port")
    .hasArg()
    .withDescription("specify a job tracker")
    .create("jt");
    Option oconf = OptionBuilder.withArgName("configuration file")
    .hasArg()
    .withDescription("specify an application configuration file")
    .create("conf");
    Option property = OptionBuilder.withArgName("property=value")
    .hasArgs()
    .withArgPattern("=", 1)
    .withDescription("use value for given property")
    .create('D');

    opts.addOption(fs);
    opts.addOption(jt);
    opts.addOption(oconf);
    opts.addOption(property);
   
    return opts;
}

返回的Options opts已经被赋予了丰富的内容。

相关问答

更多
  • 从容器启动:ExitCodeException EXITCODE = 1:/ bin中/ MV:目标`/nm-local-dir/nmPrivate/container_1414477505079_0003_01_000002.pid'不是一个目录 ExitCodeException EXITCODE = 1:/ bin中/ MV:目标`/nm-local-dir/nmPrivate/container_1414477505079_0003_01_000002.pid'不是一个目录 ,在org.apache ...
  • 运行自带wordcount-Hadoop2的方法   1、在linux系统中,所在目录“/home/kcm”下创建一个文件input   [ubuntu@701~]$ mkdir input   2.在文件夹input中创建两个文本文件file1.txt和file2.txt,file1.txt中内容是“hello word”,file2.txt中内容是“hello hadoop”、“hello mapreduce”(分两行)。   [ubuntu@701~]$ cd input   [ubuntu@701~ ...
  • 1、在linux系统中,所在目录“/home/kcm”下创建一个文件input [ubuntu@701~]$ mkdir input 2.在文件夹input中创建两个文本文件file1.txt和file2.txt,file1.txt中内容是“hello word”,file2.txt中内容是“hello hadoop”、“hello mapreduce”(分两行)。 [ubuntu@701~]$ cd input [ubuntu@701~]$ vi file1.txt(编辑文件并保存) [ubuntu@70 ...
  • MapReduce不支持多线程导入。用自带的工具importtsv+completebulkload批量导入支持多个文件并发导入。
  • 1,在hadoop包中的hadoop-2.6.0->share->hadoop->mapreduce中的hadoop-mapreduce-examples 2.6.0.jar 2,运行命令hadoop jar share/mapreduce/hadoop-mapreduce-examples-2.6.0.jar wordcount /input/ /output/wordcount就可以了,其中的input和output是存放计算文件的文件夹
  • HADOOP 不能运行在WINDOWS上。 图片只是Eclipse在WINDOWS上的开发客户端 你说的情况有很多种可能。 首先是配置,单机、伪集群,集群的配置各不相同。 从图上看,你的HDFS配置应该是成功了 请仔细检查MAP-RED的配置,或者贴出来。 检查HOSTS、PROFILE、*ENV等配置。 如果还是不能解决问题,请到HADOOP目录/logs 中查看各个组件的LOG记录,看看有没有异常信息。
  • 注意流程: ./hadoop namnode -format ./start-all.sh 然后是将文件上传 ./hadoop dfs -put input in 最后才是运行例子,祝你好运
  • 检查yarn-site.XML
  • 这个输出目录已存在是不行的,这是hadoop设定的,任务输出路径如果存在则报错,删掉或者换个目录就好了
  • 假设您还按照指示启动了本地群集或伪分布式群集,那么这是最简单的方法。 转到hadoop目录,该目录应该是从apache下载hadoop库时解压缩的目录。 从那里你可以运行这些命令来运行hadoop 对于Hadoop版本0.23。* cd $ HOME / path / to / hadoop-0.23。* ./bin/hadoop jar share / hadoop / mapreduce / hadoop-mapreduce-examples-0.23.5.jar wordcount myinput o ...