请问spark怎么用unwind往neo4j批量写入
我用的是Scala语言,neo4j-spark-connector连接,然后rdd中每一条都merge一次,这样的性能比较糟糕,查询unwind发现基本都是通过neo4j Browser插入数据,或者直接match之后unwind,spark连接器的方法中也没有找到unwind,请问我如果想要将rdd直接使用unwind批量插入neo4j应该如何操作?
1 回复
我用的是Scala语言,neo4j-spark-connector连接,然后rdd中每一条都merge一次,这样的性能比较糟糕,查询unwind发现基本都是通过neo4j Browser插入数据,或者直接match之后unwind,spark连接器的方法中也没有找到unwind,请问我如果想要将rdd直接使用unwind批量插入neo4j应该如何操作?