用create更新峰值300/s,稳定100w+更新1小时左右,但是load csv更新100w数据就要两个小时,很奇怪
发布于 4 个月前 作者 shuangyu 429 次浏览 来自 问答

create 语句 val cql =“merge (n:Person{id:{id}}) \n” + “merge (p:Phone{phone:{phone}})\n” + “merge (n)-[r:HAS]->( p ) \n” + “set r.name={name},r.update_time={update_time}\n” + "return r.update_time" result = tx.run(cql,parameters(“id”,id,“phone”,phone,“name”,name,“update_time”,update_time))

load csv val cql = “USING PERIODIC COMMIT 300\n” + “load csv from {url} as line\n” + "merge (n:Person{id:line[0]}) " + “merge(p:Phone{phone:line[5]})\n” + “merge (n)-[r:HAS]->§ set r.name=line[1],r.update_time=line[3]\n” + "return count® as cnt" val result = session.run(cql, parameters(“url”, url))

	USING PERIODIC COMMIT 300 这个值调到500会更慢
4 回复

:Person(id)和:Phone(line)有没有建索引?是机械硬盘?

@graphway 都建索引了 不知道是不是机械硬盘。。

节点关系同时merge有性能问题,数据量大的话可以考虑分开操作,提升性能。具体参考:Neo4j: Cypher - Avoiding the Eager

@crazyyanchao 感谢 我试试他的方式

回到顶部