<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-1" http-equiv="Content-Type">
</head>
<body bgcolor="#ffffff" text="#000000">
My apologies to everyone who replied, I am indeed using OFED 1.1 and
the included OSU MVAPICH. I will try your patch on Monday Boris and
reply to the list about how I made out.<br>
<br>
Best Regards,<br>
<br>
Dave Costa<br>
<br>
Boris Shpolyansky wrote:
<blockquote
 cite="mid1E3DCD1C63492545881FACB6063A57C16E40C9@mtiexch01.mti.com"
 type="cite">
  <meta http-equiv="Content-Type" content="text/html; ">
  <meta content="MSHTML 6.00.5730.11" name="GENERATOR">
  <div><span class="721402422-01122006"><font color="#0000ff"
 face="Arial" size="2">Hi David,</font></span></div>
  <div><span class="721402422-01122006"></span> </div>
  <div><span class="721402422-01122006"><font color="#0000ff"
 face="Arial" size="2">If you are using OFED-1.1 stack and OSU MVAPICH
provided with the OFED-1.1 package as your MPI layer,</font></span></div>
  <div><span class="721402422-01122006"><font color="#0000ff"
 face="Arial" size="2">the attached patch should solve your problem.</font></span></div>
  <div><span class="721402422-01122006"></span> </div>
  <div><span class="721402422-01122006"><font color="#0000ff"
 face="Arial" size="2">Please, let me know if that helped.</font></span></div>
  <div><span class="721402422-01122006"></span> </div>
  <div><span class="721402422-01122006"><font color="#0000ff"
 face="Arial" size="2">Regards,</font></span></div>
  <div><span class="721402422-01122006"></span> </div>
  <div dir="ltr" align="left"><font face="Arial" size="2">Boris
Shpolyansky</font></div>
  <div dir="ltr" align="left"><font face="Arial" size="2">Application
Engineer</font></div>
  <div dir="ltr" align="left"><font face="Arial" size="2">Mellanox
Technologies Inc.</font></div>
  <div dir="ltr" align="left"><font face="Arial" size="2">2900 Stender
Way</font></div>
  <div dir="ltr" align="left"><font face="Arial" size="2">Santa Clara,
CA 95054</font></div>
  <div dir="ltr" align="left"><font face="Arial" size="2">Tel.: (408)
916 0014</font></div>
  <div dir="ltr" align="left"><font face="Arial" size="2">Fax: (408)
970 3403</font></div>
  <div dir="ltr" align="left"><font face="Arial" size="2">Cell: (408)
834 9365</font></div>
  <div dir="ltr" align="left"><font face="Arial" size="2"><a class="moz-txt-link-abbreviated" href="http://www.mellanox.com">www.mellanox.com</a></font></div>
  <br>
  <div class="OutlookMessageHeader" dir="ltr" align="left" lang="en-us">
  <hr tabindex="-1"><font face="Tahoma" size="2"><b>From:</b>
<a class="moz-txt-link-abbreviated" href="mailto:openib-general-bounces@openib.org">openib-general-bounces@openib.org</a>
[<a class="moz-txt-link-freetext" href="mailto:openib-general-bounces@openib.org">mailto:openib-general-bounces@openib.org</a>] <b>On Behalf Of </b>David
Costa<br>
  <b>Sent:</b> Friday, December 01, 2006 2:21 PM<br>
  <b>To:</b> <a class="moz-txt-link-abbreviated" href="mailto:openib-general@openib.org">openib-general@openib.org</a>; <a class="moz-txt-link-abbreviated" href="mailto:David.Costa@Sun.COM">David.Costa@Sun.COM</a>; Robert
Houk; Anthony Vinciguerra; Thomas Babbit<br>
  <b>Subject:</b> [openib-general] HPCC benchmark aborts at
MPIRandomAccess test<br>
  </font><br>
  </div>
Hello all,<br>
  <br>
I am running the HPCC benchmark on a Sun Blade 8000 blade server. I
have two blades running RHEL4U3 and SLESSP3 respectively with 32 GBytes
of memory each. The HPCC benchmark is running on a sun developed IB
module that uses the Mellanox 25204 chips. When it gets to the
MPIRandomAccess test, it immediately fails and I see the following
messages listed below.<br>
  <br>
Does anyone know what the messages mean, and a possible  underlying
cause?  Please reply to me directly as I am not subscribed to this list.<br>
  <br>
Thank you,<br>
  <br>
Dave Costa<br>
  <a class="moz-txt-link-abbreviated" href="mailto:david.costa@sun.com">david.costa@sun.com</a><br>
  <font face="Courier New, Courier, monospace"><br>
  <br>
[root@an1-bl0 ~]# mpirun_rsh -rsh -np 32 -hostfile /root/hostfile
/usr/local/bin/hpcc<br>
24 - MPI_CANCEL : Internal MPI error!<br>
[24] [] Aborting Program!<br>
mpirun_rsh: Abort signaled from [24]<br>
26 - MPI_CANCEL : Internal MPI error!<br>
[26] [] Aborting Program!<br>
15 - MPI_CANCEL : Internal MPI error!<br>
[15] [] Aborting Program!<br>
18 - MPI_CANCEL : Internal MPI error!<br>
[18] [] Aborting Program!<br>
22 - MPI_CANCEL : Internal MPI error!<br>
[22] [] Aborting Program!<br>
4 - MPI_CANCEL : Internal MPI error!<br>
[4] [] Aborting Program!<br>
13 - MPI_CANCEL : Internal MPI error!<br>
[13] [] Aborting Program!<br>
11 - MPI_CANCEL : Internal MPI error!<br>
16 - MPI_CANCEL : Internal MPI error!<br>
[16] [] Aborting Program!<br>
[11] [] Aborting Program!<br>
28 - MPI_CANCEL : Internal MPI error!<br>
[28] [] Aborting Program!<br>
[19] Abort: [an1-bl1:19] Got completion with error, code=12<br>
 at line 2365 in file viacheck.c<br>
[23] Abort: [an1-bl1:23] Got completion with error, code=12<br>
 at line 2365 in file viacheck.c<br>
[17] Abort: [an1-bl1:17] Got completion with error, code=12<br>
 at line 2365 in file viacheck.c<br>
done.</font> </blockquote>
<br>
</body>
</html>