<div>Hi Vu,</div>
<div> </div>
<div>i have 2 more questions,</div>
<div>now i have 3 srp targets and use LVM to form a GFS system.</div>
<div> </div>
<div>after setting SRPHA_ENABLE=yes, i found that sometimes (~30%) it will miss a target during reboot.</div>
<div>i need to manually type "srp_daemon -e -o" to discover the missing target.</div>
<div>is there any method such that the srp_daemon will repeat to try to ensure all targets were found?</div>
<div> </div>
<div>also, currently there is only 1 cable connect to each dual ports client.</div>
<div>is it normal to have the following messages? </div>
<div>Dec 12 10:18:10 storage02 run_srp_daemon[5471]: starting srp_daemon: [HCA=mthca0] [port=2]<br>Dec 12 10:18:13 storage02 run_srp_daemon[5483]: failed srp_daemon: [HCA=mthca0] [port=2] [exit status=0]<br>Dec 12 10:18:43 storage02 run_srp_daemon[5489]: starting srp_daemon: [HCA=mthca0] [port=2]
<br>Dec 12 10:18:46 storage02 run_srp_daemon[5501]: failed srp_daemon: [HCA=mthca0] [port=2] [exit status=0]<br>.....[repeat infinitely]<br><br> </div>
<div>Thanks a lot,</div>
<div>PN</div>
<div> </div>
<div><br>Below is the log:</div>
<div> </div>
<div>Dec 12 10:17:18 storage02 network: Setting network parameters:  succeeded<br>Dec 12 10:17:18 storage02 network: Bringing up loopback interface:  succeeded<br>Dec 12 10:17:23 storage02 network: Bringing up interface eth0:  succeeded
<br>Dec 12 10:17:23 storage02 network: Bringing up interface ib0:  succeeded<br>Dec 12 10:17:26 storage02 kernel:   REJ reason 0xa<br>Dec 12 10:17:26 storage02 kernel: ib_srp: Connection failed<br>Dec 12 10:17:26 storage02 kernel: scsi3 : 
SRP.T10:00D0680000000578<br>Dec 12 10:17:26 storage02 kernel:   Vendor: Mellanox  Model: IBSRP10-TGT       Rev: 1.46<br>Dec 12 10:17:26 storage02 kernel:   Type:   Direct-Access                      ANSI SCSI revision: 03
<br>Dec 12 10:17:26 storage02 kernel: SCSI device sdb: 160086528 512-byte hdwr sectors (81964 MB)<br>Dec 12 10:17:26 storage02 kernel: SCSI device sdb: drive cache: write back<br>Dec 12 10:17:26 storage02 kernel: SCSI device sdb: 160086528 512-byte hdwr sectors (81964 MB)
<br>Dec 12 10:17:26 storage02 kernel: SCSI device sdb: drive cache: write back<br>Dec 12 10:17:26 storage02 rpcidmapd: rpc.idmapd startup succeeded<br>Dec 12 10:17:26 storage02 kernel:  sdb: sdb1 sdb2 sdb3 sdb4 < sdb5 sdb6 sdb7 >
<br>Dec 12 10:17:26 storage02 kernel: Attached scsi disk sdb at scsi3, channel 0, id 0, lun 0<br>Dec 12 10:17:26 storage02 kernel: scsi4 : SRP.T10:00D06800000007B2<br>Dec 12 10:17:26 storage02 kernel:   Vendor: Mellanox  Model: IBSRP10-TGT hy-b  Rev: 
1.46<br>Dec 12 10:17:26 storage02 kernel:   Type:   Direct-Access                      ANSI SCSI revision: 03<br>Dec 12 10:17:26 storage02 kernel: SCSI device sdc: 160086528 512-byte hdwr sectors (81964 MB)<br>Dec 12 10:17:26 storage02 kernel: SCSI device sdc: drive cache: write back
<br>Dec 12 10:17:26 storage02 kernel: SCSI device sdc: 160086528 512-byte hdwr sectors (81964 MB)<br>Dec 12 10:17:26 storage02 kernel: SCSI device sdc: drive cache: write back<br>Dec 12 10:17:26 storage02 kernel:  sdc: sdc1 sdc2 sdc3 sdc4 < sdc5 sdc6 >
<br>Dec 12 10:17:26 storage02 kernel: Attached scsi disk sdc at scsi4, channel 0, id 0, lun 0<br>Dec 12 10:17:26 storage02 scsi.agent[3668]: disk at /devices/pci0000:00/0000:00:02.0/0000:01:00.0/host3/target3:0:0/3:0:0:0<br>
Dec 12 10:17:26 storage02 scsi.agent[3705]: disk at /devices/pci0000:00/0000:00:02.0/0000:01:00.0/host4/target4:0:0/4:0:0:0<br>Dec 12 10:17:26 storage02 ccsd[3769]: Starting ccsd 1.0.7:<br>Dec 12 10:17:26 storage02 ccsd[3769]:  Built: Aug 26 2006 15:01:49
<br>Dec 12 10:17:26 storage02 ccsd[3769]:  Copyright (C) Red Hat, Inc.  2004  All rights reserved.<br>Dec 12 10:17:26 storage02 kernel: NET: Registered protocol family 10<br>Dec 12 10:17:26 storage02 kernel: Disabled Privacy Extensions on device ffffffff80405540(lo)
<br>Dec 12 10:17:26 storage02 kernel: IPv6 over IPv4 tunneling driver<br>Dec 12 10:17:26 storage02 ccsd:  succeeded<br>Dec 12 10:17:26 storage02 kernel: CMAN 2.6.9-45.4.centos4 (built Aug 26 2006 14:55:55) installed<br>Dec 12 10:17:26 storage02 kernel: NET: Registered protocol family 30
<br>Dec 12 10:17:26 storage02 kernel: DLM 2.6.9-42.12.centos4 (built Aug 27 2006 05:25:40) installed<br>Dec 12 10:17:27 storage02 ccsd[3769]: cluster.conf (cluster name = GFS_Cluster, version = 21) found.<br>Dec 12 10:17:27 storage02 ccsd[3769]: Unable to perform sendto: Cannot assign requested address
<br>Dec 12 10:17:27 storage02 run_srp_daemon[3845]: failed srp_daemon: [HCA=mthca0] [port=2] [exit status=0]<br>Dec 12 10:17:28 storage02 run_srp_daemon[3851]: starting srp_daemon: [HCA=mthca0] [port=2]<br>Dec 12 10:17:29 storage02 ccsd[3769]: Remote copy of 
cluster.conf is from quorate node.<br>Dec 12 10:17:29 storage02 ccsd[3769]:  Local version # : 21<br>Dec 12 10:17:29 storage02 ccsd[3769]:  Remote version #: 21<br>Dec 12 10:17:29 storage02 kernel: CMAN: Waiting to join or form a Linux-cluster
<br>Dec 12 10:17:29 storage02 kernel: CMAN: sending membership request<br>Dec 12 10:17:29 storage02 ccsd[3769]: Connected to cluster infrastruture via: CMAN/SM Plugin v1.1.7.1<br>Dec 12 10:17:29 storage02 ccsd[3769]: Initial status:: Inquorate
<br>Dec 12 10:17:30 storage02 kernel: CMAN: got node storage01<br>Dec 12 10:17:30 storage02 kernel: CMAN: got node storage03<br>Dec 12 10:17:30 storage02 kernel: CMAN: quorum regained, resuming activity<br>Dec 12 10:17:30 storage02 ccsd[3769]: Cluster is quorate.  Allowing connections.
<br>Dec 12 10:17:30 storage02 cman: startup succeeded<br>Dec 12 10:17:30 storage02 lock_gulmd: no <gulm> section detected in /etc/cluster/cluster.conf succeeded<br>Dec 12 10:17:31 storage02 fenced: startup succeeded
<br>Dec 12 10:17:31 storage02 run_srp_daemon[4196]: failed srp_daemon: [HCA=mthca0] [port=2] [exit status=0]<br>Dec 12 10:17:33 storage02 run_srp_daemon[4224]: starting srp_daemon: [HCA=mthca0] [port=2]<br>Dec 12 10:17:36 storage02 run_srp_daemon[4236]: failed srp_daemon: [HCA=mthca0] [port=2] [exit status=0]
<br>Dec 12 10:17:40 storage02 run_srp_daemon[4242]: starting srp_daemon: [HCA=mthca0] [port=2]<br>Dec 12 10:17:42 storage02 clvmd: Cluster LVM daemon started - connected to CMAN<br>Dec 12 10:17:42 storage02 kernel: CMAN: WARNING no listener for port 11 on node storage01
<br>Dec 12 10:17:42 storage02 kernel: CMAN: WARNING no listener for port 11 on node storage03<br>Dec 12 10:17:42 storage02 clvmd: clvmd startup succeeded<br>Dec 12 10:17:42 storage02 vgchange:   Couldn't find device with uuid 'U8viRP-K6Ev-0HlZ-5pwK-09co-tXgh-sJJKXT'.
<br>Dec 12 10:17:42 storage02 vgchange:   Couldn't find all physical volumes for volume group gfsvg.<br>Dec 12 10:17:42 storage02 vgchange:<br>Dec 12 10:17:42 storage02 vgchange: Couldn't find device with uuid 'U8viRP-K6Ev-0HlZ-5pwK-09co-tXgh-sJJKXT'.
<br>Dec 12 10:17:42 storage02 vgchange:   Couldn't find all physical volumes for volume group gfsvg.<br>Dec 12 10:17:42 storage02 vgchange:   Couldn't find device with uuid 'U8viRP-K6Ev-0HlZ-5pwK-09co-tXgh-sJJKXT'.<br>Dec 12 10:17:42 storage02 vgchange:   Couldn't find all physical volumes for volume group gfsvg.
<br>Dec 12 10:17:42 storage02 vgchange:   Couldn't find device with uuid 'U8viRP-K6Ev-0HlZ-5pwK-09co-tXgh-sJJKXT'.<br>Dec 12 10:17:42 storage02 vgchange:   Couldn't find all physical volumes for volume group gfsvg.<br>Dec 12 10:17:42 storage02 vgchange:   Volume group "gfsvg" not found
<br>Dec 12 10:17:42 storage02 clvmd: Activating VGs: failed<br>Dec 12 10:17:42 storage02 netfs: Mounting other filesystems:  succeeded<br>Dec 12 10:17:42 storage02 kernel: Lock_Harness 2.6.9-58.2.centos4 (built Aug 27 2006 05:27:43) installed
<br>Dec 12 10:17:42 storage02 kernel: GFS 2.6.9-58.2.centos4 (built Aug 27 2006 05:28:00) installed<br>Dec 12 10:17:42 storage02 mount: mount: special device /dev/gfsvg/gfslv does not exist<br>Dec 12 10:17:42 storage02 gfs: Mounting GFS filesystems:  failed
<br>Dec 12 10:17:42 storage02 kernel: i2c /dev entries driver</div>
<div>.....<br> </div>
<div> </div>
<div> </div>
<div> </div>
<div> </div>
<div> </div>
<div><span class="gmail_quote">2006/12/12, Vu Pham <<a href="mailto:vuhuong@mellanox.com">vuhuong@mellanox.com</a>>:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">PN,<br>  Edit file /etc/infiniband/openib.conf and set<br><br>SRPHA_ENABLE=yes<br><br>this will start srp_daemon by default
<br><br>-vu<br><br>> No one can help me? :(<br>><br>> PN<br>><br>><br>> 2006/12/7, Lai Dragonfly <<a href="mailto:poknam@gmail.com">poknam@gmail.com</a> <mailto:<a href="mailto:poknam@gmail.com">poknam@gmail.com
</a>>>:<br>><br>>     Hi all,<br>><br>>     i'm using CentOS 4.4 (kernel 2.6.9-42.ELsmp) with OFED-1.1 in<br>>     clients and<br>>     IBGD-1.8.2-srpt in targets.<br>>     i found that even i use "modprobe ib_srp" or set SRP_LOAD=yes in
<br>>     openib.conf,<br>>     i could not found the SRP target.<br>>     until i execute "srp_daemon -e -o", i can see all the targets appear<br>>     in /dev/sdX.<br>><br>>     since i want to export the targets to other nodes,
<br>>     any idea so that i can connect to the targets automatically in each<br>>     reboot.<br>>     without typing "srp_daemon -e -o" each time?<br>><br>>     thanks in advance.<br>><br>>     PN
<br>><br>><br>><br>> ------------------------------------------------------------------------<br>><br>> _______________________________________________<br>> openib-general mailing list<br>> <a href="mailto:openib-general@openib.org">
openib-general@openib.org</a><br>> <a href="http://openib.org/mailman/listinfo/openib-general">http://openib.org/mailman/listinfo/openib-general</a><br>><br>> To unsubscribe, please visit <a href="http://openib.org/mailman/listinfo/openib-general">
http://openib.org/mailman/listinfo/openib-general</a><br><br></blockquote></div><br>