<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: arial,helvetica,sans-serif; font-size: 10pt; color: #000000'>Marko,<br><br>I am experiencing similar issues, but with HP (QLogic) blade switch and HP (Qlogic) mezzanine hca cards. The maximum time I had to wait for the link to become Active is about 20 hours, but on average it's about 15 hours to get the link. I've got guys at Intel and HP trying to help the issue, but so far there has not been any solution.<br><br>Please let me know if you manage to find the cause of the problem. Perhaps my problem is related?<br><br>thanks<br><br>Andrei<br><hr id="zwchr"><div style="color: rgb(0, 0, 0); font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica,Arial,sans-serif; font-size: 12pt;"><b>From: </b>"Marko Kobal" <marko.kobal@arctur.si><br><b>To: </b>users@lists.openfabrics.org<br><b>Sent: </b>Thursday, 13 June, 2013 2:46:09 PM<br><b>Subject: </b>Re: [Users] connect Mellanox IB FDR adapter to QLogic IB QDR switch?<br><br>Hi,<br><br>Well, I noticed that the links did eventually came up at the second node <br>as well ... however it took several hours to do the link initialization:<br><br>cat /var/log/messages | grep mlx4_core<br><br>node_1:<br>Jun  6 17:42:08 node_1 kernel: mlx4_core 0000:10:00.0: PCI INT A -> GSI <br>30 (level, low) -> IRQ 30<br>Jun  7 04:35:33 node_1 kernel: mlx4_core 0000:10:00.0: mlx4_ib: Port 1 <br>logical link is up<br><br>node_2:<br>Jun 12 16:05:12 node_2 kernel: mlx4_core 0000:10:00.0: PCI INT A -> GSI <br>30 (level, low) -> IRQ 30<br>Jun 12 20:50:24 node_2 kernel: mlx4_core 0000:10:00.0: mlx4_ib: Port 1 <br>logical link is up<br><br>The connection is now actually working, however the extremely long time <br>to make the link initialization is really weird (and annoying when doing <br>server or openibd restart) ... Anyone seen this kind of behaviour on <br>Mellanox adapters?<br><br><br>Kind regards, Marko Kobal<br><br><br>On 12. 06. 2013 17:12, Marko Kobal wrote:<br>> Hi,<br>><br>> I have a IBM iDataPlex cluster with QLogic IB QDR switches (QLogic 12200<br>> (iDPx) 36-port QDR InfiniBand Switch), currently there are servers with<br>> QLogic QME7342 QDR HCA adapters connected to those IB switches ... all<br>> is playing nice.<br>><br>> Recently I've got a couple of Mellanox IB FDR adapters (MT27500 Family<br>> [ConnectX-3]) and I would like them play nicely with existing IB network<br>> since I would like to do some research with Mellanox adapters.<br>><br>> On last Thursday (5 days ago) I've installed one FDR Mellanox adapter in<br>> one of the servers (replaced QLogic QDR adapter) and connected it to the<br>> QDR QLogic IB switch. Other servers with QDR QLogic adapters are also<br>> connected to the switch and are playing nicely. Mellanox FDR Adapter was<br>> detected by the server and OS (centos6), latest ofed installed. After<br>> reboot IB diag tools showed link is down, adapter's leds were off ... I<br>> didn't have time to play with it so I left it as it was. Yesterday I<br>> checked the status once again and I found out that the link is now<br>> (State: Active; Physical state: LinkUp; Rate: 40) ... so this looks<br>> fine. Today I went ahead and installed adapters in additional two<br>> servers and I see the same situation - link is down, adapter's leds were<br>> off ...<br>><br>> Is it possible that link initialization is taking sooo long (it is now<br>> more then one hour since I connected the adapters with the switch)? Is<br>> there any "magic" to force the initialization/connection or to persuade<br>> Mellanox FDR adapter to go directly to QDR speed?<br>><br>> Has anybody got any experiences in mixing QDR and FDR IB, especially<br>> connecting Mellanox FDR adapters to QLogic QDR IB switches? Thanks for help!<br>><br>><br>_______________________________________________<br>Users mailing list<br>Users@lists.openfabrics.org<br>http://lists.openfabrics.org/cgi-bin/mailman/listinfo/users<br></div><br></div></body></html>