使用Java中嵌入的Neo4j作为远程数据库(Using Neo4j embedded in Java for a remote DB)
想知道我是否可以使用Neo4j Java API连接到远程数据库,或者REST是我访问远程数据库的唯一方法吗? 期待使用类似的东西
GraphDatabaseService graphDb = new GraphDatabaseFactory().newEmbeddedDatabase(NEO_4J_REMOTE_DB_ENDPOINT);
如果我可以使用,我的端点会是什么样子? '/ db / data?
或者是我必须使用REST的情况?
我让我的服务器在GAE中运行,并在Heroku中有一个Neo4j实例。
多谢你们。
was wondering if I can use the Neo4j Java API for connecting to remote DBs or is REST the only way for me to access a remote DB ? Was looking to use something like
GraphDatabaseService graphDb = new GraphDatabaseFactory().newEmbeddedDatabase(NEO_4J_REMOTE_DB_ENDPOINT);
If I can use, what would my endpoint look like ? '/db/data ?
Or is it the case where I have to use REST ?
I have my server running in GAE and have a Neo4j instance in Heroku.
Thanks guys.
原文:https://stackoverflow.com/questions/17461574
最满意答案
使用gradle构建。 Gradle是现在构建它的官方方式。 我正在等待删除sbt的东西,直到doc更改被推送到该url。 github页面包含最新的说明。
Use gradle to build. Gradle is the official way to build it now. I'm waiting to remove the sbt stuff until the doc changes get pushed to that url. The github page has the up to date instructions.
相关问答
更多-
适用于Hadoop的Google Cloud连接器不适用于Pig(Google Cloud connector for Hadoop doesn't work with Pig)[2022-08-20]
TL; DR在启动pig作业时显式设置workmapreduce.job.working.dir = / user / root / 如果在作业提交期间未显式设置工作目录,则Hadoop会将工作目录设置为默认文件系统的工作目录。 使用HDFS作为默认FS时,工作目录通常类似于“hdfs:// namenode:port / user /”。 当调用PigInputFormat #getSplits时,它将获取与其正在操作的输入的路径相关联的FileSystem。 在这种情况下 ... -
如果我使用在不同版本的Scala中编译的代码,我看起来似乎是一个错误。 您是否尝试使用--packages org.mongodb.spark:mongo-spark-connector_2.10:1.1.0运行它? 默认情况下,Spark 1.6.x是针对Scala 2.10编译的,你必须手动为Scala 2.11构建它,如下所示: ./dev/change-scala-version.sh 2.11 mvn -Pyarn -Phadoop-2.4 -Dscala-2.11 -DskipTests cle ...
-
那么,我终于找到了我的问题。 jars bson- $ MongoVersion .jar和mongodb-driver-core- $ MongoVersion .jar丢失。 即使连接器文档指定我们需要在hadoop类路径中包含mongo-hadoop-core- $ connectorVersion .jar,mongo-hadoop-hive- $ connectorVersion .jar和mongodb- driver- $ mongoJavaDriver .jar,它似乎需要它bson和mon ...
-
我想知道为什么我不首先尝试这个: OUTPUT_PATH=`mktemp -d` yarn jar /usr/hdp/2.4.0.0-169/hadoop-mapreduce/hadoop-streaming.jar \ -D mapred.job.name="${BUILD_TAG}" \ -D mapred.job.queue.name="sr" \ -input "${INPUT_PATH}" \ -output "${OUTPUT_PATH}" \ -map ...
-
根据你所说的话,这听起来像你手动导入的JAR由于某种原因没有导入。 maven导入很成功,一切都点击了。 另一件可能的事情是您正在使用不同版本的MySQL JDBC驱动程序。 Based on what you've said, it sounds like your manually imported JAR didn't import for one reason or another. The maven import was successful and everything clicked. Th ...
-
MySQL连接器问题(MySQL connector issues)[2022-02-18]
注意:有几种方法可以告诉驱动程序返回生成的密钥 Connection.prepareStatement(String sql,int autoGeneratedKeys) Connection.prepareStatement(String sql,int [] columnIndexes) Connection.prepareStatement(String sql,String [] columnNames) Statement.executeUpdate(String sql,int autoGene ... -
使用gradle构建。 Gradle是现在构建它的官方方式。 我正在等待删除sbt的东西,直到doc更改被推送到该url。 github页面包含最新的说明。 Use gradle to build. Gradle is the official way to build it now. I'm waiting to remove the sbt stuff until the doc changes get pushed to that url. The github page has the up to ...
-
Alfresco连接器错误(Alfresco connector error)[2022-01-31]
对于可能有同样问题的未来用户,我的问题是args发送路径""喜欢"http://something" ,如果我们把get("/slingshot/node/content/workspace/SpacesStore/f32afa20-4c73-4e6c-84e4-1c12d5964a95/txt.txt")没有"" 。 因此,我们可以将args放在字符串上,并使string.substring(1,string.length-1)删除"" 。 For future users that which may ... -
hadoop mongodb连接器 - 输出数据不是mongodb而是hdfs(hadoop mongodb connector - output data not as mongodb but hdfs)[2022-12-28]
我认为之前关于SO的回答可以回答你的问题,只需稍加改动: 是否可以读取MongoDB数据,使用Hadoop处理它,并将其输出到RDBS(MySQL)? 主要区别在于您将OutputFormatClass设置为: job.setOutputFormatClass( SequenceFileOutputFormat.class ); 您还需要在要保存数据的HDFS上设置输出路径。 请参阅他们的WordCount示例以获取完整的代码示例,但使用上面的输出格式而不是MongoOutputFormat。 I thi ... -
这意味着您尝试访问的连接器(earthquakeMultitable)正在尝试使用与Tableau Desktop版本不兼容的WDC API版本。 在这种情况下,您使用的是WDC 2.1 API和Tableau Desktop 10.0。 Tableau 10.0只能使用版本1.1和2.0。 这里有一个查找表: http : //tableau.github.io/webdataconnector/docs/wdc_library_versions 为了解决此错误,您可以: 升级到Tableau 10.1。 ...