Hadoop安装以及配置

2019-03-28 13:03|来源: 网络

Hadoop:
单机模式
伪分布模式
集群模式


==========================================================================
单机模式(开发测试模式,hadoop将以java进程形式运行)
==========================================================================
1、去官网下载最新的hadoop:
http://hadoop.apache.org/common/
http://labs.mop.com/apache-mirror/hadoop/common/hadoop-1.0.4/hadoop-1.0.4.tar.gz

2、安装JDK,配置好JDK环境变量
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_17
export CLASSPATH=.:$JAVA_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$PATH

source /etc/profile

3、解压hadoop:
---------------------------------------
hadoop0.23.6版本配置

sudo tar -xzf hadoop0.23.6.tar.gz
cd /opt/apps/
ln -s /opt/app_install/hadoop0.23.6 hadoop
---------------------------------------
hadoop1.0.4版本配置

tar -zxvf hadoop-1.0.4.tar.gz
cd /opt/apps/
ln -s /opt/apps_install/hadoop-1.0.4 hadoop
---------------------------------------

4、创建hadoop的用户和用户组
(1)创建一个名为hadoop的用户组:
sudo addgroup hadoop
RedHat下面 groupadd hadoop
(2)创建一个名为hadoop的用户,归到hadoop用户组下
sudo adduser --ingroup hadoop hadoop
或redhat下面 useradd -ghadoop hadoop
(3)用gedit打开etc下的sudoers文件
sudo gedit /etc/sudoers
在 root ALL=(ALL) ALL 下面添加如下一行
hadoop ALL=(ALL) ALL

切换用户
su hadoop


5、创建ssh-key
(1)装载ssh服务
sudo apt-get install openssh-server
(2)创建ssh-key,为rsa
ssh-keygen -t rsa -P ""
(3)将此ssh-key添加到信任列表中,并启用此ssh-key
cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys
sudo /etc/init.d/ssh reload


6、配置系统环境变量
---------------------------------------
hadoop0.23.6版本配置

export HADOOP_HOME=/opt/apps/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
生效source /etc/profile
---------------------------------------
hadoop1.0.4版本配置

export HADOOP_INSTALL=/opt/apps/hadoop
export PATH=$PATH:$HADOOP_INSTALL/bin
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
生效source /etc/profile
---------------------------------------

(已经可以运行开发测试模式,hadoop将以java进程形式运行)
测试:
hadoop jar hadoop-mapreduce-examples-0.23.6.jar wordcount firstTest result

相关问答

更多
  • 一、安装hadoop 1 因为hadoop是基于java的,所以要保证hadoop能找到在本地系统中大路径,即正确设置java的环境变量。 详细请看:linux 安装配置jdk 2 到官网:http://www.apache.org/dyn/closer.cgi/hadoop/common/ 下载hadoop, 这里我选择hadoop1.0.4 3 解压到 /usr/local tar -xvf hadoop-1.0.4.tar.gz 4 设置hadoop环境变量,为了使环境变量永久有效并对所有用户有效,我 ...
  • 在Linux上安装Hadoop之前,需要先安装两个程序: 1. JDK 1.6或更高版本; 2. SSH(安全外壳协议),推荐安装OpenSSH。 下面简述一下安装这两个程序的原因: 1. Hadoop是用Java开发的,Hadoop的编译及MapReduce的运行都需要使用JDK。
  • hadoop配置[2022-10-16]

    不是你的环境变量的问题。不知道楼主有没有看Hadoop官网上的介绍。Hadoop所使用的jdk需要修改 conf/hadoop-env.sh 文件,在其中设置 JAVA_HOME 环境变量: export JAVA_HOME="C:\Program Files\Java\jdk1.5.0_01” (因为路径中 Program Files 中间有空格,一定要用双引号将路径引起来) 这里必须是修改Hadoop的conf/hadoop-env.sh 文件,和机器的环境变量没有关系。 有中文文档的。在Hadoop目 ...
  • 现在hadoop1.0都出了 简单说一下吧 你的java jdk的环境变量没有设置吧? 最好按以下步骤再做一遍: 1 用root用户安装jdk1.6以上 2 用root用户 创建hadoop用户 3 在hadoop用户下安装hadoop(你上面说的1到4) 4 修改/home/hadoop/.bash_profile将JDK和hadoop的环境变量设置好 5 安装ssh(伪集群也需要ssh)
  • export PATH=$PATH:$HADOOPHOME/bin $HADOOPHOME就是你的hadoop安装目录。这个是只作用于一次session的。要是永久的话就把这句话加到/etc/profile目录下。
  • 两个问题,16行提示命令不存在,你看看你写的是什么 第二个,找不到java文件夹,你看下是不是路径写错了
  • hadoop安装问题[2023-11-22]

    你看的教程是旧的,新版的hadoop启动脚本放在sbin下。start-all.sh已经逐渐被废弃,采用新的启动脚本: sbin/hadoop-daemon.sh --script hdfs start datanodesbin/hadoop-daemon.sh --script hdfs start namenodesbin/yarn-daemon.sh start resourcemanagersbin/yarn-daemon.sh start proxyserversbin/mr-jobhistory ...
  • 你试试 sudo update-alternatives --config java 能看看你的jdk到底是什么版本 比如我的是/usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java 那么我的JAVA_HOME就是”/usr/lib/jvm/java-7-openjdk-amd64". 你的也可能是java-7-openjdk-i386也说不定 所以我怀疑你直接写java-6-oepnjdk会有问题
  • 原始IOException中似乎存在拼写错误' utbuntu '。 你能检查一下这是正确的主机名还是复制粘贴错误? etc / hosts配置需要一些试验和错误才能找到Hadoop 2.2.0群集设置,但我所做的是删除主机名的所有127.0.1.1分配并将实际IP分配给机器名称并且它可以工作。 例如 192.168.1.101 ubuntu 我有一个2节点集群,所以我的/ etc / hosts for master(NameNode)看起来像: 127.0.0.1 localhost #127.0. ...
  • 这是一个不耐烦的快速入门: 下载Hive并将其安装到已安装Hadoop的同一目录中(例如,如果Hadoop位于/ opt / hadoop,则Hive应位于/ opt / hive中): wget http://apache.rediris.es/hive/hive-2.1.0/apache-hive-2.1.0-bin.tar.gz tar -xvf apache-hive-2.1.0-bin.tar.gz mv apache-hive-2.1.0-bin hive cd hive 生成德比Metas ...