运行start-dfs.sh时出现错误(I'm getting error while running start-dfs.sh)
我在运行start-dfs.sh时遇到错误
start-dfs.sh 16/10/02 23:10:54 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Starting namenodes on [localhost] localhost: starting namenode, logging to /opt/hadoop/logs/hadoop-root-namenode-Web.out localhost: nice: /home/hadoop/hadoop/bin/hdfs: No such file or directory localhost: starting datanode, logging to /opt/hadoop/logs/hadoop-root-datanode-Web.out localhost: nice: /home/hadoop/hadoop/bin/hdfs: No such file or directory Starting secondary namenodes [0.0.0.0] 0.0.0.0: starting secondarynamenode, logging to /opt/hadoop/logs/hadoop-root-secondarynamenode-Web.out 0.0.0.0: nice: /home/hadoop/hadoop/bin/hdfs: No such file or directory 16/10/02 23:11:12 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
I'm getting error while running start-dfs.sh
start-dfs.sh 16/10/02 23:10:54 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Starting namenodes on [localhost] localhost: starting namenode, logging to /opt/hadoop/logs/hadoop-root-namenode-Web.out localhost: nice: /home/hadoop/hadoop/bin/hdfs: No such file or directory localhost: starting datanode, logging to /opt/hadoop/logs/hadoop-root-datanode-Web.out localhost: nice: /home/hadoop/hadoop/bin/hdfs: No such file or directory Starting secondary namenodes [0.0.0.0] 0.0.0.0: starting secondarynamenode, logging to /opt/hadoop/logs/hadoop-root-secondarynamenode-Web.out 0.0.0.0: nice: /home/hadoop/hadoop/bin/hdfs: No such file or directory 16/10/02 23:11:12 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
原文:https://stackoverflow.com/questions/39825266
更新时间:2022-12-18 11:12
最满意答案
您可以使用nsq_to_file实用程序,然后使用logstash发布文件。 对于任何进一步的事情,您需要查看代码以使其适应您想要的。
You could use the nsq_to_file utility and then use logstash to post the files. For anything further you would need to look at the code to adapt it to what you want.
相关问答
更多-
您必须更改Kibana中的@timestamp过滤器。 默认情况下,它只显示最近15分钟内加载的数据。 You have to change the @timestamp filter in Kibana. By default it only shows the data loaded during the last 15 minutes.
-
您可以为每个输入设置一个类型,并使用该类型生成索引名称: input { http { host => "0.0.0.0" port => "5000" type => "A" } http { host => "0.0.0.0" port => "5001" type => "B" } } 使用该类型可能就足够了,因为您可以使用它来过滤记录。 但是您可能还需要将每种类型的记录存储在不同的索引中,因为每种类型可能对同一字段使用不同的类型。 ...
-
没有Logstash的Kibana + Elasticsearch可能吗?(Kibana + Elasticsearch without Logstash possible?)[2023-04-15]
是的,Kibana可以显示存储在ElasticSearch索引中的任何信息。 您需要一种自动将项目从Redis索引到ElasticSearch的方法。 您可以编写自己的脚本(在您的情况下应该非常简单)或使用现有软件,如LogStash的Redis插件或ElasticSearch的 Redis河插件 (不建议使用) Yes, Kibana can display any information stored in ElasticSearch indexes. You'll need a way of auto ... -
我的建议 您最好的选择是使用Redis作为Logstash和Elasticsearch之间的中断: 这在一些旧的Logstash文档中有所描述,但仍然非常相关。 是的,您将看到正在生成的日志与最终登陆Elasticsearch之间的最小延迟,但它应该是最小的,因为Redis和Logstash之间的延迟相对较小。 根据我的经验,Logstash很快就可以通过Redis的积压工作。 这种设置还为您提供了更强大的设置,即使Logstash发生故障,您仍然可以通过Redis接受这些事件。 只是缩放Elasticse ...
-
是的你可以。 看看这个存储库: https : //github.com/jhipster/jhipster-console/tree/master/jhipster-console 存储在存储库中的load.sh存在导出(采用JSON格式)以及load.sh 脚本通过API添加配置来添加配置。 您可以暗示,任何最新的仪表板都不受此影响,因此您可以使用现有配置。 Yes you can. Take a look at this repository: https://github.com/jhipster/ ...
-
这取决于。 您有两个选择,但最终您必须在运行服务的每台服务器上安装日志转发器。 Logstash 仅使用logstash,您需要为每个服务器安装logstash。 logstash的目的是获取日志文件并在elasticsearch中创建条目。 因此,您需要在要获取日志文件的任何位置安装logstash。 Logstash + Filebeat Filebeat是一个小得多的程序,其唯一目的是将日志条目转发到logstash。 与logstash相比,它使用更少的RAM和更少的CPU负载。 在此配置中,您需要 ...
-
您尝试在localhost上访问elasticsearch,但这是不可能的,在这种情况下,localhost是包含logstash的docker容器。 您必须通过链接访问它: output { elasticsearch { hosts => "elasticsearch:9200" manage_template => false index => "%{[@metadata][beat]}-%{+YYYY.MM.dd}" document_type => "%{[@metadata][ ...
-
您可以使用nsq_to_file实用程序,然后使用logstash发布文件。 对于任何进一步的事情,您需要查看代码以使其适应您想要的。 You could use the nsq_to_file utility and then use logstash to post the files. For anything further you would need to look at the code to adapt it to what you want.
-
kibana服务没有运行(kibana service not running)[2022-04-20]
使用curl localhost:5601测试kibana是否真的有效。 如果不工作,请转到etc / kibana /来修改配置以检查主机是否为0.0.0.0且端口是5601而另一个问题是您的服务器内存不足以启动kibana。 希望你能提供kibana日志。 尝试使用: journalctl -u kibana.service来显示日志。 Use curl localhost:5601 to test if kibana is really working. If not working , go to ... -
Kibana是否直接从ElasticSearch或LogStash获取数据?(Does Kibana take data from ElasticSearch or LogStash directly?)[2022-05-26]
Kibana从ElasticSearch获取数据。 Kibana takes data from ElasticSearch.