<div dir="ltr"><div><div><div><div>Thank you very much for the response Matthew!<br></div>I'll try the stasis configuration change first.</div><div>I can't say if a malformed RTCP packet triggered the issue, but I did actually checked a tcpdump while problem was happening and the amount of RTCP packets and AMI events were reasonably normal.... Apparently it is an internal only problem, not actually outputting abnormal traffic in the network....<br></div><br></div>Best regards!<br></div>Patrick Wakano<br></div><div class="gmail_extra"><br><div class="gmail_quote">On 16 November 2017 at 02:34, Matthew Jordan <span dir="ltr"><<a href="mailto:mjordan@digium.com" target="_blank">mjordan@digium.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><div><div class="h5">On Mon, Nov 13, 2017 at 11:42 PM, Patrick Wakano <span dir="ltr"><<a href="mailto:pwakano@gmail.com" target="_blank">pwakano@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hello Asterisk list,<br><br>I've facing a memory allocation issue that happens occasionally but on a consistent basis.<br>The problem happens as follow, suddenly Asterisk starts consuming a lot of memory, in a rate of more than 1GB per hour. Kernel will eventually kill it via the OOM killer when memory is really exausted... This situation does not generate backtrace because Asterisk is responsive during the whole time and can be stopped/started.<br>After compiling Asterisk with the MALLOC_DEBUG flag, when the problem happened we could see this output with the most consuming files, using "memory show summary" command:<br># cat memory_show_summary_2017111011<wbr>44.log | sort -nr | head<br>3060904798 bytes allocated (431496 in caches) in 16185877 allocations<br>1467180225 bytes in    1647238 allocations in file stasis_channels.c<br>1217035109 bytes in   10229320 allocations in file json.c<br> 240064732 bytes in    1765287 allocations in file stasis_message.c<br>  56402000 bytes in    1762250 allocations in file taskprocessor.c<br>  26125344 bytes in     203171 allocations in file rtp_engine.c<br>  17308827 bytes in     307848 allocations in file stasis_cache.c<br>   9548128 bytes in      35482 allocations in file stasis_bridges.c<br>   3923172 bytes in      92169 allocations in file res_rtp_asterisk.c<br>   3099771 bytes in      29185 allocations in file strings.c<br><br>Next minute it was already like this:<br># cat memory_show_summary_2017111011<wbr>45.log | sort -nr | head<br>3091009032 bytes allocated (375561 in caches) in 16345842 allocations<br>1482476997 bytes in    1663899 allocations in file stasis_channels.c<br>1228978956 bytes in   10329516 allocations in file json.c<br> 242483220 bytes in    1783070 allocations in file stasis_message.c<br>  57063120 bytes in    1782910 allocations in file taskprocessor.c<br>  26354360 bytes in     205090 allocations in file rtp_engine.c<br>  17481272 bytes in     310935 allocations in file stasis_cache.c<br>   9628576 bytes in      35782 allocations in file stasis_bridges.c<br>   3828232 bytes in      93040 allocations in file res_rtp_asterisk.c<br>   3125118 bytes in      29427 allocations in file strings.c<br><br>So as we can see, total allocations increased 159965 or 30MB in one minute......<br>A regular "memory show summary" during the day would be like this:<br># cat memory_show_summary_2017111404<wbr>00.log | sort -nr | head<br>30595537 bytes allocated (406915 in caches) in 77906 allocations<br>11021007 bytes in       5081 allocations in file stasis_channels.c<br> 3825007 bytes in      12643 allocations in file cdr.c<br> 1855344 bytes in      15837 allocations in file pbx.c<br> 1766744 bytes in        183 allocations in file translate.c<br> 1467681 bytes in       1451 allocations in file chan_sip.c<br> 1400000 bytes in        280 allocations in file res_rtp_asterisk.c<br>  980474 bytes in       4740 allocations in file xmldoc.c<br>  895369 bytes in        167 allocations in file file.c<br>  800900 bytes in       2397 allocations in file channel.c<br>  280728 bytes in        613 allocations in file rtp_engine.c<br>  243147 bytes in       2556 allocations in file stasis.c<br>  130066 bytes in       1082 allocations in file stasis_cache.c<br>   24928 bytes in         82 allocations in file stasis_bridges.c<br>   51796 bytes in        486 allocations in file stasis_message.c<br><br>We also tried to get a "memory show allocations" when the problem was happening. Unsurprisingly it halted Asterisk and after we cancelled it, it had generated a 1GB file. Both memory logs hinted us to some problem in the RTP module, specifically in the RTCP handling. After investigating the code, looks like for some reason, the res_rtp_asterisk.c (line 4116) when doing the ast_rtcp_read() ended up entering in a loop, causing lots of allocations in the rtp_engine.c (line 2047 - ast_rtp_publish_rtcp_message). Also apparently, another loop (or maybe the same, not sure...) happened calling ast_channel_publish_blob() because we got lots of create_channel_blob_message and ast_channel_snapshot_create allocations too.<br>Json, taskprocessor, stasis_message and stasis_cache allocations seems to be side effect of so many stasis messages being created and published.<br>We could check memory logs 3 times for this problem and they are similar so it seems that a bug exists somewhere leading to this problem.<br>So anyone has any idea of what could be happening or if it may be related to some known bug?<br>We are running Asterisk 13.6.0 in CentOS 6.6.<br><br></div></blockquote><div><br></div></div></div><div>There have been a lot of bug fixes in this area since Asterisk 13.6.0. I'd highly recommend upgrading your version of Asterisk to the latest 13.x to see if it resolves the issue.</div><div><br></div><div>If not, and you don't need the RTCP related events in either AMI or ARI, you can permanently disable them in stasis.conf:</div><div><br></div><div>[declined_message_types]</div><div>decline=ast_rtp_rtcp_sent_<wbr>type                                                                                                                   </div><div>decline=ast_rtp_rtcp_received_<wbr>type </div></div><div><br></div><div>While that won't completely remove all processing of RTCP related information, it will dramatically reduce the amount of work Asterisk does when those messages are generated.</div><div><br></div><div>If that doesn't fix it, then you may have some form of malformed RTCP packet that is causing Asterisk to think that it has a slew of SR/RR reports to generate. You may want to look at the RTCP information in wireshark to determine how many RR/SR reports are being generated in the packets.</div><span class="HOEnZb"><font color="#888888"><div><br></div>-- <br><div class="m_5503253777835993706gmail_signature">Matthew Jordan<br>Digium, Inc. | CTO<br>445 Jan Davis Drive NW - Huntsville, AL 35806 - USA<br>Check us out at: <a href="http://digium.com" target="_blank">http://digium.com</a> & <a href="http://asterisk.org" target="_blank">http://asterisk.org</a></div>
</font></span></div></div>
<br>--<br>
______________________________<wbr>______________________________<wbr>_________<br>
-- Bandwidth and Colocation Provided by <a href="http://www.api-digital.com" rel="noreferrer" target="_blank">http://www.api-digital.com</a> --<br>
<br>
Check out the new Asterisk community forum at: <a href="https://community.asterisk.org/" rel="noreferrer" target="_blank">https://community.asterisk.<wbr>org/</a><br>
<br>
New to Asterisk? Start here:<br>
      <a href="https://wiki.asterisk.org/wiki/display/AST/Getting+Started" rel="noreferrer" target="_blank">https://wiki.asterisk.org/<wbr>wiki/display/AST/Getting+<wbr>Started</a><br>
<br>
asterisk-users mailing list<br>
To UNSUBSCRIBE or update options visit:<br>
   <a href="http://lists.digium.com/mailman/listinfo/asterisk-users" rel="noreferrer" target="_blank">http://lists.digium.com/<wbr>mailman/listinfo/asterisk-<wbr>users</a><br></blockquote></div><br></div>