i 操作我的手法,这是一个很长的 lo。 每一 lo,一些随机的html文档都通过Nokogiri进行。
顶端显示,记忆消耗量百分比与每几秒钟的 c用量相比,正在增加0.1。
最终,由于“记忆不足”而使废墟碎打。
附文:
def extract(newdoc, newarray)
doc = Nokogiri::HTML(newdoc)
collection =
collection = newarray.map {|s| doc.xpath(s)}
dd = "";
(0...collection.first.length).each do |i|
(0...collection.length).each do |j|
dd += collection[j][i].to_s
end
end
collection =
newarray =
doc =
puts dd.chop + "
"
end
for 1..100000
extract("somerandomHTMLfile", ["/html/body/p", "/html/body/h1"])
end