Hadoop HDFS安装和管理 PDF

2019-03-28 14:14|来源: 网络

由于相对hdfs的客户端存在相对路径问题,参见《Hadoop HDFS开发参考》 见 http://www.linuxidc.com/Linux/2012-01/50713.htm ,我们修改了hadoop-0.18.1的源码并进行了重新编译,代码为forlink-hadoop.tar.gz。

HDFS中,节点分为Namenode 和Datanode,其中Namenode只有一个(可以通过《Hadoop HDFS系统双机热备方案》 (见 http://www.linuxidc.com/Linux/2012-01/50714.htm) 配置两台,但同时只能有一台提供服务),Datanode可以有多台。

2、创建hdfs用户
Hadoop要求所有机器上hadoop的部署目录结构要相同,并且都有一个相同的用户名的帐户。在所有节点上创建hdfs用户:
用户名 hdfs,口令hdfs,主目录是/home/hdfs。

3、添加节点到/etc/hosts(在所有节点上执行此操作,其中192.168.188.201是虚拟IP)
127.0.0.1       localhost.localdomain   localhost
192.168.188.201         ostvip
192.168.188.203         ost3
192.168.188.202         ost2
192.168.188.204         ost4
10.0.0.202              ost2
10.0.0.203              ost3
可以在ost2修改,然后拷贝到其他节点(需root权限)
scp /etc/hosts ost3:/etc/hosts
scp /etc/hosts ost4:/etc/hosts

Hadoop HDFS安装和管理 PDF 下载地址:

免费下载地址在 http://linux.linuxidc.com/

用户名与密码都是www.linuxidc.com

具体下载目录在 /2012年资料/1月/1日/Hadoop HDFS安装和管理/

相关问答

更多
  • 现在hadoop1.0都出了 简单说一下吧 你的java jdk的环境变量没有设置吧? 最好按以下步骤再做一遍: 1 用root用户安装jdk1.6以上 2 用root用户 创建hadoop用户 3 在hadoop用户下安装hadoop(你上面说的1到4) 4 修改/home/hadoop/.bash_profile将JDK和hadoop的环境变量设置好 5 安装ssh(伪集群也需要ssh)
  • hadoop hdfs目录[2022-03-28]

    移动目录的命令很简单啊,跟Linux shell的命令差不多: hdfs dfs -mv 被移动的目录A 目标目录B 直接移动就行,不知道能否解决你的问题。
  • 1、找不到hadoop命令,是因为你没有将hadoop的bin目录加入PATH(只有加入PATH环境变量中的程序才可以直接访问)。 你可以 a)cd $HADOOP_HOME(如果进行了配置)然后执行bin/hadoop。 b)干脆使用全路径 c)将hadoop的bin目录加入PATH中。 2、jps是java的工具。输入 jps显示8813 Jps,表示现在没有正在运行的java程序。 hadoop的安装,只需要解压即可。至少需要在conf目录中的hadoop-env.xml文件中,配置JAVA_HOME ...
  • hadoop hdfs的问题[2021-10-30]

    最下面那张图里环境变量设置的那一行多了一个$符号 export JAVA_HOME=/usr/java/jdk1.6.0_35
  • export HADOOP_CLASSPATH=$(cygpath -pw $(hadoop classpath)):$HADOOP_CLASSPATH
  • 默认情况下,Hadoop将使用本地模式。 您可能需要在$HADOOP_HOME/conf/core-site.xml中将fs.default.name设置为hdfs://localhost.localdomain:8020/ 。 为此,请将其添加到core-site.xml : fs.default.name hdfs://localhost.localdomain:8020/ Accumulo ...
  • 实现自己的DFS接口并使其与hadoop一起使用相对简单。 您所需要的只是文件和目录的文件系统概念与您的存储之间的某种逻辑映射。 在NoSQL的情况下(如果我假设KeyValue),您应该决定如何表示目录。 您可以执行一些特殊节点,也可以将路径放入密钥。 另一个决策点 - 决定您是否关心数据位置 关于文档,我认为s3n DFS实现的来源最好从一开始。 我认为关闭的例子是由DataStax完成的Cassandra上的Hadoop http://www.datastax.com/ 另一个例子(我们稍后做的事情) ...
  • Apache Spark独立于Hadoop。 Spark允许您使用不同的数据源(包括HDFS),并且能够在独立群集中运行,或者使用现有的资源管理框架(例如,YARN,Mesos)。 因此,如果您只对Spark感兴趣,则无需安装Hadoop。 Apache Spark is independent from Hadoop. Spark allows you to use different sources of data (incl. HDFS) and is capable of running eithe ...
  • 绝对可能。 不要认为Hadoop是一个可安装的程序,它只是由一群在集群内不同节点上运行的java进程组成。 如果你使用hadoop tar ball,你可以只运行NameNode和DataNodes进程,如果你只想要HDFS。 如果您使用其他hadoop发行版(例如HDP),我认为HDFS和mapreduce来自不同的rpm软件包,但安装两个rpm软件包都有害。 如果您只需要HDFS,请再次运行NameNode和DataNodes。 Absolutely possible. Don't think Hado ...
  • Mappers从InputFormat的实现中读取输入数据。 大多数实现都来自FileInputFormat ,后者从本地计算机或HDFS读取数据。 (默认情况下,数据从HDFS读取,mapreduce作业的结果也存储在HDFS中。)当您希望从备用数据源读取数据而不是HDFS时,可以编写自定义InputFormat 。 TableInputFormat将直接从HBase读取数据记录, DBInputFormat将访问关系数据库中的数据。 您还可以想象一个系统,在特定端口上通过网络将数据流式传输到每台计算机; ...