千万级增量数据load时OOM问题求解
发布于 4 年前 作者 zq_juzi 1010 次浏览 来自 问答

大家好,现在搭建了neo4j系统,社区版初始化数据3亿节点,2亿边,索引和唯一约束已经创建,没有数据预热。由于每日有千万级增量数据需要入库,但是不能停服,只能使用load csv方式。服务器4u16G,使用了USING PERIODIC COMMIT 1000提交事务,但是查看日志和内存使用,发现OOM问题,想咨询下这个问题怎么解决? neo4j已经按系统推介配置设置过内存和缓存了。

1 回复

截图1.png 这个是import_csv.cypher部分内容 截图2.png 这个是debug.Log部分日志

回到顶部