neo4j一直占用内存
程序结束之后 除非kill掉这个进程 否则会一直占用 请问是什么原因呢?
4 回复
@graphway 第一 我在我的linux服务器上搭了好几个neo4j ,我这台服务器的配置是 64G内存 32核 硬盘1.5T centos 第二 我用Java 开发 spark程序, 向neo4j 执行的操作有插入 也有更新 也有删除 ,每个neo4j数据库大小都不一样,最小的是3个多GB 最大的是50多GB 第三 debug.log内容 没看到有错误 说明一点:我用spark udf函数开发程序的时候,在udf函数中,由于无法关闭Driver.close() ,所以我就没有关闭,因为关闭就会报错了,不知道是不是这一点导致这个内存一直占用,但是和其他人交流了一下,别人不用spark udf开发 ,也会一直占用。所以我不知道是不是neo4j.conf中 哪里没有配置好 还是怎么回事 , 其中dbms.memory.pagecache.size=10g 这个参数我配置10g或者不配置都会出现内存占用无法释放这样的问题 麻烦指点一下 谢谢