namenode-Oceanus配置说明

2019-03-10 13:09|来源: 网路

作用:

   同一类型数据源的簇,可配置多个datanode,便于扩展读写分离等功能

属性:

   id – 唯一标识

   loadbalance – 负载方式,可选值:POLL 表示轮询,POLL-WEIGHT 表示有权重的轮询,RANDOM 表示随机,RANDOM-WEIGHT 表示有权重的随机,HA-RANDOM 表示支持高可用的随机,HA-RANDOM-WEIGHT 表示支持高可用的有权重随机。默认是 HA-RANDOM-WEIGHT

子节点:

   datanodes – 该节点下面可配置多个datanode子节点,并声明每个datanode的读写模式和负载权重


示例:

<namenode id="safe_source1" loadbalance="HA-RANDOM-WEIGHT">

   <datanodes>

       <datanode ref="safe_db1" access-mode="READ-WRITE" weight="10" />

   </datanodes>

</namenode>


本文来源:58同城Oceanus使用文档


相关问答

更多
  • 没看到,并不代表没启动,首先看下你在输入jps的时候,用户是否是启动hadoop的用户,或者使用ps 或者netstat查看是否有该进程,如果都没有,这才能确定是namenode启动失败了。这时候才应该去看启动日志是否有报错。
  • 在 /usr/local/hadoop/ 下面启动,找到是/opt/Hadoop/下面的hadoop安装包,是不是HADOOP_HOME环境变量配置的有问题。 可以到海牛部落交流,那里有好多学习hadoop的朋友
  • 这很简单 - 格式化你的名字节点 mcbatyuk:hadoop bam$ bin/hadoop namenode -format Warning: $HADOOP_HOME is deprecated. 12/04/11 21:04:55 INFO namenode.NameNode: STARTUP_MSG: /************************************************************ STARTUP_MSG: Starting NameNode STA ...
  • HADOOP_SECONDARYNAMENODE_OPTS用于为辅助namenode java进程设置命令行属性。 如下 HADOOP_SECONDARYNAMENODE_OPTS="-Dcom.sun.management.jmxremote $HADOOP_SECONDARYNAMENODE_OPTS" 要启动辅助名称节点,您需要使用namenode详细信息维护core-site.xml,然后启动辅助名称节点。 如果您仍然遇到问题,请更新日志和配置文件夹 HADOOP_SECONDARYNAMENOD ...
  • 值HADOOP_NAMENODE_OPTS是否覆盖值HADOOP_HEAPSIZE 是的,它确实。 https://www.cloudera.com/documentation/enterprise/latest/topics/admin_nn_memory_config.html does the value HADOOP_NAMENODE_OPTS overrides the value HADOOP_HEAPSIZE Yes, it does. https://www.cloudera.com/doc ...
  • 下载osquery https://code.facebook.com/projects/658950180885092 并安装 发出这个命令osqueryi 当出现提示时,使用此sql命令查看所有正在运行的java进程并找到pids SELECT名称,路径,pid FROM进程,其中name =“java”; 你会在Mac上看到这样的东西 +------+-------------------------------------------------------------------------- ...
  • 1)用hdfs://192.168.100.101:9001替换fs.default.name的值 2)检查你的site.xml文件,无论你是否在其中错误地添加了空间 1) Replace value of fs.default.name with hdfs://192.168.100.101:9001 2) Check your site.xml files, whether in value you have mistakenly added space in between
  • 这里有两件事要考虑, 1- Recovery through SecondaryNameNode 2- Recovery through redundant NameNode 在hadoop-1.x我们在SecondaryNameNode上有一个概念,它包含NameNode元数据的副本。 如果您的NameNode出现故障,您可以使用SecondaryNameNode存储的元数据副本,并在NameNode再次启动后使用它来恢复您的工作。 使用hadoop-2.x(HA)您可以拥有多个NameNode。 如果 ...
  • 因为我在这里解决了它是如何做到的。 只需输入以下内容然后输入数据节点即可运行(用您自己的替换hadoop_install) $ HADOOP_INSTALL / bin / hdfs dfsadmin -refreshNodes since I fixed it here is how I did it. just typed the following and then data nodes where up and running (replace hadoop_install with your ow ...
  • 我假设您已屏蔽并共享您的网址 hdfs://vikasXXX.XX.XX.XX:X000 我认为它无法通过名称识别您的机器。 尝试使用localhost并检查它是否有效。 hdfs://localhost:8020 I assume that you have masked and shared your URL hdfs://vikasXXX.XX.XX.XX:X000 I think it is not recognizing your machine by name. Try using localh ...