<div>We have seen this happen over an IB analyzer. Recompiling the mthca
driver with a high value like 64 or 128 works around this problem.<br>
When the condition hits, the HCA receiving the 4+ RDMAs generates an invalid request error.<br>
<br>
Any ideas as to when this patch might enter the mainline sources?<br>
<br>
Thanks,<br></div>
<div><span class="sg">
Manpreet.</span></div>
<br><br><div><span class="gmail_quote">On 6/2/06, <b class="gmail_sendername">Roland Dreier</b> <<a href="mailto:rdreier@cisco.com">rdreier@cisco.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
    Manpreet> Mellanox HCA can handle has been configured at 4<br>    Manpreet> (mthca_main.c: default_profile: rdb_per_qp). And the<br>    Manpreet> HCAs can support a much higher value (128 I think).<br><br>    Manpreet> Could we move this value higher or atleast make it
<br>    Manpreet> configurable?<br><br>Leonid Arsh has a patch that I will integrate soon that makes this<br>configurable.<br><br>However, I'm curious.  Do you have a workload where this actually<br>makes a measurable difference?  It seems that having 4 RDMA requests
<br>outstanding on the wire should be enough to get things to pipeline<br>pretty well.<br><br>If you haven't tested this, right now you can of course edit<br>mthca_main.c to change the default value and recompile.<br><br>
 - R.<br></blockquote></div><br>