<div class="gmail_quote">On Fri, Oct 21, 2011 at 1:07 PM, radoslav hodnicak <span dir="ltr">&lt;<a href="mailto:rh@4096.sk">rh@4096.sk</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im">On Fri, Oct 21, 2011 at 12:14 PM, Igor Stasenko &lt;<a href="mailto:siguctua@gmail.com">siguctua@gmail.com</a>&gt; wrote:<br>
&gt; when i worked on it, there was no Zinc yet, so i had to implement a<br>
&gt; bit simplified HTTP protocol<br>
&gt; (enough for using with CouchDB) by own over plain socket connection.<br>
<br>
</div>Does the json parser support streaming? I have some big couchdb<br>
results to work with and so far they fit into the memory, but they<br>
might not always do that.<br>
<br></blockquote><div><br>How would you interface to such json parser? I mean how would it partition result into smaller chunks that it can return to you? Probably it would fire event for each subnode parsed, but I doubt current parsers are equiped with that.<br>
<br>Maybe refined map-reduce functions on the couchdb server could help avoid such large jsons?<br><br>Davorin Rusevljan<br><a href="http://www.cloud208.com/">http://www.cloud208.com/</a><br></div></div><br>