Hadoop Hive入门学习笔记

2019-03-28 13:57|来源: 网络

1. 需要环境:
Jdk 1.6
Hadoop 0.20.X

2. 安装步骤:
tar zxvf  hive-0.8.1-bin.tar.gz
sudo mkdir /home/hive
cd  /home/hive
sudo mv /mnt/hgfs/sharedir/hive-0.8.1-bin ./

3. 配置环境变量
执行:vi ~/.bashrc,在结尾处添加:
export HIVE_HOME=hive的安装目录
export PATH=${HIVE_HOME}/bin:${PATH}
应用设置执行:source ~/.bashrc
执行hive进入hive shell界面,如下图所示:

Hadoop Hive入门学习笔记

免费下载地址在 http://linux.linuxidc.com/

用户名与密码都是www.linuxidc.com

具体下载目录在 /2012年资料/3月/6日/Hadoop Hive入门学习笔记/

相关问答

更多
  • 要有java语言基础,和 linux系统命令基础。 hadoop是运行的系统要求是 linux。 hadoop 用 java写的分布式 ,处理大数据的框架。 只要思想是 分组合并 思想 分组:比如 有一个大型数据,那么他就会将这个数据按照算法分成多份,每份存储在 奴隶主机上,并且在奴隶主机上进行计算。 合并:将每个机器上的计算结果合并起来 再在一台机器上计算,得到最终结果。 就是mapreduce 算法。
  • 一楼很给力啊 关于看英文文档四级就够了 不过也不是说英语不好就不能学 只要有毅力就OK 。 最好是有Java基础,因为hadoop是用java编写的,所以懂java能够帮助理解hadoop原理,当然Hadoop也提供了其他语言的api。 不过看楼主是从事javaee的,所以完全没问题,至于Linux只要会基本的cd,ll就差不多了,会安装文件,也就是解压软件,不过不会也没关系,网上多了去了。 其实最主要就是能够坚持学下去,因为这东西不是很简单,资料也不是太多,学起来有一定难度。
  • riak 华师大的吧- - 下面来简单介绍各个组件的作用: HDFS(Hadoop distribute file system)——Hadoop生态系统的基础组件Hadoop分布式文件系统。它是其他一些工具的基础HDFS的机制是将大量数据分布到计算机集群上,数据一次写入,但可以多次读取用于分析。HDFS让Hadoop可以最大化利用磁盘。 HBase—— 一个构建在HDFS之上的面向列的NoSql数据库,HBase用于对打量数据进行快速读取/写入。HBase将Zookeeper用于自身的管理,以保证其所有组 ...
  • 深入浅出Hive企业级架构优化、Hive Sql优化、压缩和分布式缓存(企业Hadoop应用核心产品) LS的Q
  • order by nulls last 不是标准sql,oracle设计的 可以这么写,再指定一个虚拟列来辅助排序 order by case when col is null then 0 else 1 end , col desc
  • 不一定,如果你不用Hadoop的HDFS和YARN,完全可以在学习Spark的时候从本地载入数据,部署用standlone模式。Spark替代的是Hadoop中的MapReduce编程范式,不包括存储和资源管理模块。 Spark的算子很多,写程序来看比HadoopMapReduce要灵活很多
  • 1.jpg 云技术、大数据(hadoop)入门常见问题回答http://www.aboutyun.com/thread-7826-1-1.html零基础学习hadoop到上手工作线路指导(初级篇)http://www.aboutyun.com/thread-6780-1-1.html书籍推荐:让你了解hadoop生态系统的一本书 http://www.aboutyun.com/thread-7453-1-1.htmlHadoop权威指南(第2版)http://www.aboutyun.com/thread- ...
  • 英语要好 只要有毅力就OK 。最好是有Java基础,因为hadoop是用java编写的,所以懂java能够帮助理解hadoop原理,当然Hadoop也提供了其他语言的api。不过看楼主是从事javaee的,所以完全没问题,至于Linux只要会基本的cd,ll就差不多了,会安装文件,也就是解压软件,不过不会也没关系,网上多了去了。其实最主要就是能够坚持
  • 我认为这会帮助你更好地理解Spark和Haddop之间的关系: Hadoop本质上是一个分布式数据基础架构:它在大量商品服务器中的多个节点上分发海量数据集合,这意味着您不需要购买和维护昂贵的定制硬件。 它还对这些数据进行索引和跟踪,使大数据处理和分析能够比以前更有效。 另一方面,Spark是一种数据处理工具,可以对这些分布式数据集进行操作; 它不会做分布式存储。 欲了解更多信息,请阅读。 I think this will help you understand better the relation be ...
  • 因为它可以在Hive入门维基页面上阅读,所以必需条件是: Java 1.7+ Hadoop 2.x 所以我担心你不能独立运行Hive,你为什么要这样做呢? As it can be read on Hive getting started wiki page, the requisites are: Java 1.7+ Hadoop 2.x So I am afraid you can't run Hive standalone, why would you do that?