Hadoop伪分布式部署

2019-03-28 13:18|来源: 网络

Hadoop的配置

Hadoop的各个组件均可以利用xml文件进行配置。core-site.xml文件用户配置Common组件的属性,hdfs-site.xml文件用于配置HDFS的属性,而mapred-site.xml文件则用于配置MapReduce属性。这些配置文件都放在conf子目录中。

而在docs子目录中还存放有三个HTML文件,core-default.html, hdfs-default.html, mapred-default.html, 它们分别保存各组件的默认属性设置。

Hadoop的运行 模式

应该了解,Hadoop的运行模式包括三种:

  • 独立模式(standalone或local model),
  • 伪分布式模式(pseudo-distributed model),
  • 全分布式模式(full-distributed model),

在特定的模式下运行Hadoop需要关注两个因素:正确设置属性和启动Hadoop守护进程。下表中列举了配置各种模式所需要的最小属性集合。在本机模式下,将使用本地文件系统和本地MapReduce作业运行器;在分布式模式下,将启动HDFS和MapReduce守护进程。www.linuxidc.com

组件名称 属性名称 独立模式 伪分布式模式 全分布式模式
Common fs.default.name file:///
(默认)
hdfs://localhost/ hdfs://namenode
HDFS dfs.replication N/A 1 3(默认)
MapReduce mapred.job.tracker
local
(默认)
localhost://8021 jobtracker:8021

下面讨论伪分布式部署的配置,分别在配置文件中设置这三个属性。

<!-- core-site.xml --> 
<configuration> 
    <property> 
        <name>fs.default.name</name> 
        <value>hdfs://localhost</value> 
    </property> 
</configuration> 

 

<!-- hdfs.xml --> 
<configuration> 
    <property> 
        <name>dfs.replication</name> 
        <value>1</value> 
    </property> 
</configuration> 

<!-- mapred-sit.xml --> 
<configuration> 
    <property> 
        <name>mapred.jab.tracker</name> 
        <value>localhost:8021</value> 
    </property> 
</configuration> 

相关问答

更多
  • 1、能搭好环境说明水平还不错。 2、下边应该分以下几步走: 一,依据示例程序,自己手写wordcount之类的示例程序,以此充分了解m/r和hdfs的简单原理。 二,针对某些知识点,如hadoop应用场景、hadoop的简单应用等,去百度一下搞定,这样的问题最关键、最需要做的。 三,深入阅读hadoop的源码,把框架的数据流或说工作流搞个大致清楚。 四,试着用hadoop解决一些实际问题和项目应用。 参考下吧。
  • 0.关闭防火墙 service iptables start;#立即开启防火墙,但是重启后失效。 service iptables stop;#立即关闭防火墙,但是重启后失效。 重启后生效 chkconfig iptables on;#开启防火墙,重启后生效 chkconfig iptables off;#关闭防火墙,重启后生效 1.配置主机名 !!!!!注意安装hadoop的集群主机名不能有下划线!!不然会找不到主机!无法启动! 配置主机名 $vi /etc/sysconfig/network $sour ...
  • 先回答你标题的提问:hadoop完全分布式:3个及以上的实体机或者虚拟机组件的机群。hadoop伪分布式:一个节点看了以上两点相信你已经明白了,“用vm多装几个unbuntu配置完全分布式,然后做实验”这是完全可行的。实际上我们通常也是这么做的,当然可能要求你的电脑cpu和内存足够支撑你这一计划。一点建议:如果你要开发基于Hadoop的分布式程序,伪分布式足够你实验了。如果你要做很多其他事情,比如玩玩cm,玩玩oozie,玩玩hbase,建议装多个虚拟机。
  • 第一步: 安装JDK 因为 Hadoop 运行必须安装 JDK 环境,因此在安装好 Linux 后进入系统的第一步 便是安装 JDK ,安装过程和在 Windows 环境中的安装步骤很类似,首先去Oracle 官网 去下载安装包,然后直接进行解压。我自己解压在路径 /usr/jvm 下面,假如你的安装包现在已经下载在 jvm 文件夹下面,然后 按 Ctrl+Alt+t 进去命令行,然后输入 cd /usr/jvm 进入到jvm文件夹下面,然后再输入如下命令进行解压: sudo tar -zxvf jdk-7 ...
  • Hadoop 有两个主要版本,Hadoop 1.x.y 和 Hadoop 2.x.y 系列,比较老的教材上用的可能是 0.20 这样的版本。Hadoop 2.x 版本在不断更新,本教程均可适用 如果需安装 0.20,1.2.1这样的版本,本教程也可以作为参考,主要差别在于配置项,配置请参考官网教程或其他教程。
  • hadoop分为单机模式,伪分布式,和完全分布式。 你说的伪分布式是指:一个机器上,即当namenode,又当datanode,或者说即是jobtracker,又是tasktracker。没有所谓的在多台机器上进行真正的分布式计算,故称为"伪分布式"。
  • 在 /usr/local/hadoop/ 下面启动,找到是/opt/Hadoop/下面的hadoop安装包,是不是HADOOP_HOME环境变量配置的有问题。 可以到海牛部落交流,那里有好多学习hadoop的朋友
  • mahout 和 hadoop没有啥关系,非得说关系的话,你得弄清二者是干啥的 mahout是一个机器学习算法库,人家是做一些经典的机器学习的算法实现的; hadoop是一个开源的分布式的数据处理引擎(HadoopV1来说,是MapReduce),人家很多时候是做大规模数据处理的; 所以,Mahout上的一些算法支持用mapreduce的编程模型实现,所以就可以运行在Hadoop平台上; 这样说你就可以明白了吧,二者不是一个层级上的东西,所发挥的作用也是不一样的,而且你运行的实例的确也没有用到Hadoop。 ...
  • hadoop集群指的是一群机器在一起提供一个hadoop的集群的服务。 hadoop分布式指的是hadoop支持任务分布式运行,因为有hadoop集群提供服务,所以hadoop将任务分发到集群的多台机器运行,所以叫做分布式。 一个是服务器架构,一个是任务运行架构。
  • 要知道您是以独立还是伪分布模式运行hadoop,请验证您的配置文件。 以下信息可能有帮助。 To know if you are running hadoop in Standalone or Pseudo distributed mode, verify your configuration files. Below information might help.