千万级增量数据load时OOM问题求解
大家好,现在搭建了neo4j系统,社区版初始化数据3亿节点,2亿边,索引和唯一约束已经创建,没有数据预热。由于每日有千万级增量数据需要入库,但是不能停服,只能使用load csv方式。服务器4u16G,使用了USING PERIODIC COMMIT 1000提交事务,但是查看日志和内存使用,发现OOM问题,想咨询下这个问题怎么解决? neo4j已经按系统推介配置设置过内存和缓存了。
大家好,现在搭建了neo4j系统,社区版初始化数据3亿节点,2亿边,索引和唯一约束已经创建,没有数据预热。由于每日有千万级增量数据需要入库,但是不能停服,只能使用load csv方式。服务器4u16G,使用了USING PERIODIC COMMIT 1000提交事务,但是查看日志和内存使用,发现OOM问题,想咨询下这个问题怎么解决? neo4j已经按系统推介配置设置过内存和缓存了。