Hadoop命令笔记

2019-03-28 14:00|来源: 网络

查看文件内容(dfs 用fs替换可以)
  • Hadoop dfs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
  • hadoop dfs -cat file:///file3 /user/hadoop/file4
分组
 hadoop dfs -chgrp [-R] GROUP URI [URI …]
授权
 hadoop  dfs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]
改变文件/文件夹拥有者
hadoop dfs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
上传文件到hdfs 
  • hadoop dfs -put localfile /user/hadoop/hadoopfile
  • hadoop dfs -put localfile1 localfile2 /user/hadoop/hadoopdir
  • hadoop dfs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
  • hadoop dfs -put - hdfs://nn.example.com/hadoop/hadoopfile
获取文件列表
 hadoop dfs -ls /user/hadoop/file1
 hadoop dfs -lsr <args> 
创建文件夹
hdfs dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
获取文件并合并
hdfs dfs -getmerge <src> <localdst> [addnl]
显示文件大小
hdfs dfs -du [-s] [-h] URI [URI …]

查看名称节点是否处于安全模式

hadoop dfsadmin -safemode get

进入安全模式

hadoop dfsadmin -safemode enter

退出安全模式

hadoop dfsadmin -safemode leave

显示文件系统统计数据以及节点信息

hadoop dfsadmin -report  

更新节点
hadoop  dfsadmin -refreshNodes

相关问答

更多
  • path里没配hadoop的bin的路径
  • Hadoop自身是否有记录不清楚,但Hadoop是部署在linux上的,可以通过linux的历史命令查看。 1、history 2、fc -l 可以用grep过滤,例如: history | grep 'hadoop' 或history | grep 'hdfs'
  • 如果你已经进入hadoop/bin目录下,应该是 ./hadoop fs -mkdir /input 如果你没有进入hadoop/bin目录,你应该打全路径或相对路径 假设你的hadoop安装在/home/hadoop下,你可以打 /home/hadoop/bin/hadoop fs -mkdir /input 一般情况下你都在/home/hadoop默认目录下,你可以打 bin/hadoop fs -mkdir /input
  • $Hadoop=`which hadoop`; #这里加上一句 print "$Hadoop fs -get .....\n"; `$Hadoop fs -get ......`; 看看打印出来的命令是不是你想要的,如果是你想要的,就手动执行一遍。 有问题继续追问。
  • mkdir Usage: hadoop fs -mkdir [-p] Takes path uri’s as argument and creates directories. Options: The -p option behavior is much like Unix mkdir -p, creating parent directories along the path. Example: hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2 h ...
  • 全部订单分区将按键排列所有减速器中的输出。 这允许您合并多个减速器的输出并仍然获得排序的输出。 简单的例子如下: 没有全部的命令分区 reducer 1's output: (a,val_a) (m,val_m) (x,val_x) reducer 2's output: (b,val_b) (c,val_c) 如果合并,输出不会按键排序。 (a,val_a) (m,val_m) (x,val_x) (b,val_b) (c,val_c) 随着总订单分割 reducer 1's output: ...
  • Javac用于编译java代码。 如果您注意到WordCount示例,则有许多import语句要求您在类路径中添加相应的jar。 当你运行hadoop com.sun.tools.javac.Main WordCount.java ,hadoop已经加载了所有这些依赖的jar来编译你的程序。 您可以通过运行javac WordCount.java来测试它,如果您的类路径中还没有这些必需的jar,编译器会抛出cannot find symbol错误 Javac is used for compiling yo ...
  • “hadoop jar”命令通过提供jarfile,输入路径,输出路径告诉hadoop在集群中执行作业。 jar文件包含Job配置,以及所有Map和Reduce代码。 脚步: 作业客户端向JobTracker(JT)提交作业。 在后台,它将包含Config,Mapper和Reducer代码,输入和输出路径信息的二进制文件复制到靠近任务跟踪器(TT)的集中区域中的HDFS。 一旦TT需要使用该代码,他们只需在datanode上本地下载它,这样当Map和Reduce任务站起来时,他们就会使用该代码在本地数据上运 ...
  • 是。 如果传递了适当的参数,它将运行。 Yes. it will run if proper arguments are passed.
  • 有关您的选项,请参阅https://docs.python.org/2/library/commands.html ,包括如何获取返回状态(如果出现错误)。 你缺少的基本代码是 import commands hdir_list = commands.getoutput('hadoop fs -ls hdfs://mydirectory') 是:在2.6中弃用,在2.7中仍然有用,但从Python 3中删除。如果这困扰你,请切换到 os.command () ...或者更好的 ...