Hadoop实战之分布式模式

2019-03-28 14:05|来源: 网络

1. 首先为Hadoop的集群准备几台机器,这里机器名如下:

[plain]
  1. fkongnix0 (master)  
  2. fkongnix1 (slave1)  
  3. fkongnix2 (slave2)  
2. 修改每个机器的/etc/hosts文件,确保每个机器都可以通过机器m名互相访问;

3. 在上面每个机器上的相同位置分别安装hadoop,这里安装的都是hadoop-0.20.203.0rc1.tar.gz包,并且假定安装路径都是/data/fkong/hadoop-0.20.203.0;

4. 修改所有机器上的${HADOOP_HOME}/conf/hadoop-env.sh文件,将JAVA_HOME指定到正确的jdk路径上;

5. 修改master机器上的${HADOOP_HOME}/conf/slaves文件,修改后文件内容如下:

[plain]
  1. fkongnix1  
  2. fkongnix2  
6. 修改和部署配置文件

6.1 编辑${HADOOP_HOME}/conf/core-site.xml文件,内容修改如下:

[plain]
  1. <configuration>  
  2.   <property>  
  3.     <name>fs.default.name</name>  
  4.     <value>hdfs://fkongnix0:9000</value>  
  5.   </property>  
  6.   <property>  
  7.     <name>hadoop.tmp.dir</name>  
  8.     <value>/data/fkong/hadoop-0.20.203.0/hadoop-${user.name}</value>  
  9.   </property>  
  10. </configuration>  
6.2 编辑${HADOOP_HOME}/conf/hdfs-site.xml文件,内如修改如下:

[plain]
  1. <configuration>  
  2.   <property>  
  3.       <name>dfs.replication</name>  
  4.       <value>1</value>  
  5.   </property>  
  6. </configuration>  
6.3 编辑${HADOOP_HOME}/conf/mapred-site.xml文件,内如修改如下:

[plain]
  1. <configuration>  
  2.   <property>  
  3.       <name>mapred.job.tracker</name>  
  4.       <value>fkongnix0:9001</value>  
  5.   </property>  
  6. </configuration>  
6.4 将以上三个配置文件分别部署的每个slave节点上;

7. 格式化一个新的分布式文件系统:

[plain]
  1. $ bin/hadoop namenode -format  

相关问答

更多
  • 1、能搭好环境说明水平还不错。 2、下边应该分以下几步走: 一,依据示例程序,自己手写wordcount之类的示例程序,以此充分了解m/r和hdfs的简单原理。 二,针对某些知识点,如hadoop应用场景、hadoop的简单应用等,去百度一下搞定,这样的问题最关键、最需要做的。 三,深入阅读hadoop的源码,把框架的数据流或说工作流搞个大致清楚。 四,试着用hadoop解决一些实际问题和项目应用。 参考下吧。
  • 若在windows的Eclipse工程中直接启动mapreduc程序,需要先把hadoop集群的配置目录下的xml都拷贝到src目录下,让程序自动读取集群的地址后去进行分布式运行(您也可以自己写java代码去设置job的configuration属性)。   若不拷贝,工程中bin目录没有完整的xml配置文件,则windows执行的mapreduce程序全部通过本机的jvm执行,作业名也是带有“local"字眼的作业,如 job_local2062122004_0001。 这不是真正的分布式运行mapred ...
  • 搭建的文本,很久了,现在更新的最新版本搭建更加简单,建议你去看看黑马里边的教程,免费的
  • 可以,hadoop安装分为单机模式,伪分布式模式,完全分布式模式。你装成单机模式或者伪分布式模式就可以了。 单机模式:Hadoop会完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程
  • hadoop集群指的是一群机器在一起提供一个hadoop的集群的服务。 hadoop分布式指的是hadoop支持任务分布式运行,因为有hadoop集群提供服务,所以hadoop将任务分发到集群的多台机器运行,所以叫做分布式。 一个是服务器架构,一个是任务运行架构。
  • 一、DFS为何物? DFS 即微软分布式文件系统的简称,系统管理员可以利用它来有效的整合网络资源,并把这些资源以单一的层次结构呈现给网络用户。管理员利用它可以把资源发布成一 个树形结构,这样大大简化了为用户进行资源配置和对资源管理的工作量。我们可以在不同的机器上调整和移动文件,这不会影响到用户的访问。 二、为什么要使用DES? 1、DFS使用了现有网络中的Share权限,管理员不必进行新的配置 2、通过一个DFS树形结构用户就可以访问多个网络资源,而不用再把远程驱动器映射到本地共享资源中。 3、DFS可以配 ...
  • 分布式系统(distributed system)是建立在网络之上的软件系统。正是因为软件的特性,所以分布式系统具有高度的内聚性和透明性。因此,网络和分布式系统之间的区别更多的在于高层软件(特别是操作系统),而不是硬件。内聚性是指每一个数据库分布节点高度自治,有本地的数据库管理系统。透明性是指每一个数据库分布节点对用户的应用来说都是透明的,看不出是本地还是远程。在分布式数据库系统中,用户感觉不到数据是分布的,即用户不须知道关系是否分割、有无复本、数据存于哪个站点以及事务在哪个站点上执行等。 故名思义,分布式 ...
  • 在hadoop的不同节点上的安装应该几乎相同,因此,您必须在群集的每个节点中指定HADOOP_HOME(我还指定HADOOP_PREFIX到同一位置)指向您的hadoop安装。 您的每个节点都应该能够通过ssh“无密码”模式相互连接,所以我相信你问题的最后一部分没有多大意义;) The installation on your different nodes of hadoop should be almost identical, and for that reason, you must specify ...
  • 要知道您是以独立还是伪分布模式运行hadoop,请验证您的配置文件。 以下信息可能有帮助。 To know if you are running hadoop in Standalone or Pseudo distributed mode, verify your configuration files. Below information might help.
  • 修改/etc/hosts以包含主机名环回映射: 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 127.0.1.1 is-joshbloom-hadoop ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 您的问题是您的机器不知道如何解析主机名is-joshbloom-hadoop到特定 ...