neo4j一直占用内存
发布于 6 年前 作者 wangbo710609147 3910 次浏览 来自 问答

微信图片_20181222163640.png 程序结束之后 除非kill掉这个进程 否则会一直占用 请问是什么原因呢?

4 回复

什么客户端,浏览器、Cypher-shell、应用程序?执行的什么操作?数据库大小?系统配置?debug.log内容?

@graphway 第一 我在我的linux服务器上搭了好几个neo4j ,我这台服务器的配置是 64G内存 32核 硬盘1.5T centos 第二 我用Java 开发 spark程序, 向neo4j 执行的操作有插入 也有更新 也有删除 ,每个neo4j数据库大小都不一样,最小的是3个多GB 最大的是50多GB 第三 debug.log内容 没看到有错误 说明一点:我用spark udf函数开发程序的时候,在udf函数中,由于无法关闭Driver.close() ,所以我就没有关闭,因为关闭就会报错了,不知道是不是这一点导致这个内存一直占用,但是和其他人交流了一下,别人不用spark udf开发 ,也会一直占用。所以我不知道是不是neo4j.conf中 哪里没有配置好 还是怎么回事 , 其中dbms.memory.pagecache.size=10g 这个参数我配置10g或者不配置都会出现内存占用无法释放这样的问题 麻烦指点一下 谢谢

@graphway 这个问题 已经自己解决了 dbms.memory.heap.initial_size dbms.memory.heap.max_size 这两个参数需要配置

@你好,你的dbms.memory.heap.initial_size dbms.memory.heap.max_size 这个两个值,是参考https://neo4j.com/docs/operations-manual/current/performance/memory-configuration/这里面的建议吗,还是大佬有别的方法去配置的

回到顶部