I ve seen a lot of similar questions to this, but nothing that really matched. Most other questions seemed to relate to speed. What I m experiencing is a single json dictionary that sits in a 1.1gig file on my local box taking up all of my 16 gigabytes of memory when I try to load it using anything along the lines of:
f = open(some_file, "rb")
new_dictionary = json.load(f)
不管图书馆一的使用是什么(我曾尝试过ujson、json、 yajl),不管我是否作为一流阅读东西。 这对我来说是绝对的。 cra记忆的使用是什么,我是如何接手?
In case it helps, the dictionary is just a bunch of nested dictionaries all having ints point to other ints. A sample looks like:
{"0":{"3":82,"4":503,"15":456},"956":{"56":823,"678":50673,"35":1232}...}
<><>UPDATE: 当我用简单的json来做这件事时,实际上只有8克。 没有人想到,为什么这个人比所有其他人少得多。
<><>>> 因此,我做了更多的调查。 我用简单的json装上了字典,试图把所有钥匙变成ts(根据利里的建议,扼杀可能占用更多的空间)。 空间保持在8克格。 然后,我尝试了温斯顿·埃沃特建议,即管理一组。 空间仍然保持在8克。 最后,我听到了我新的数据结构,撤出了沙里,并重新上载。 排位和持位数仍为8克。 我猜测斯·沙尔只是想说,大的2名独裁者拥有很大的空间。 我相信,如果我用简单的json装上它,那么我至少知道它不是一个“智者”问题。