I my case it looks the same, except for the cmd=finalize  stuff:

-pmi-> 1: cmd=get_appnum
<-pmi- 1: cmd=appnum rc=0 appnum=0
-pmi-> 0: cmd=get_my_kvsname
<-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
-pmi-> 1: cmd=get_my_kvsname
<-pmi- 1: cmd=my_kvsname rc=0 kvsname=kvs_0
-pmi-> 0: cmd=put kvsname=kvs_0 key=P0-businesscard
value=port#50475$description#n0000$ifname#10.10.0.10$
<-pmi- 0: cmd=put_result rc=0
-pmi-> 1: cmd=get_my_kvsname
<-pmi- 1: cmd=my_kvsname rc=0 kvsname=kvs_0
-pmi-> 0: cmd=barrier_in
-pmi-> 1: cmd=put kvsname=kvs_0 key=P1-businesscard
value=port#44398$description#n0000$ifname#10.10.0.10$
<-pmi- 1: cmd=put_result rc=0
-pmi-> 1: cmd=barrier_in
<-pmi- 0: cmd=barrier_out rc=0
<-pmi- 1: cmd=barrier_out rc=0
-pmi-> 0: cmd=get kvsname=kvs_0 key=P1-businesscard
<-pmi- 0: cmd=get_result rc=0
value=port#44398$description#n0000$ifname#10.10.0.10$
-pmi-> 1: cmd=get kvsname=kvs_0 key=P0-businesscard
<-pmi- 1: cmd=get_result rc=0
value=port#50475$description#n0000$ifname#10.10.0.10$
Hello world from process 1 of 2
Hello world from process 0 of 2
[EMAIL PROTECTED] examples]#

and here it hangs...  Actually, there are two extra cmd=get_result
rc=0 lines... ???



On 11/5/08, Latchesar Ionkov <[EMAIL PROTECTED]> wrote:
>
>  Strange. This is what I see from cmd=barrier_out to the end of execution:
>
>  <-pmi- 0: cmd=barrier_out rc=0
>  <-pmi- 1: cmd=barrier_out rc=0
>  -pmi-> 1: cmd=get kvsname=kvs_0 key=P0-businesscard
>  <-pmi- 1: cmd=get_result rc=0
> value=port#58977$description#m10$ifname#192.168.1.110$
>  -pmi-> 0: cmd=get kvsname=kvs_0 key=P1-businesscard
>  <-pmi- 0: cmd=get_result rc=0
> value=port#53028$description#m10$ifname#192.168.1.110$
>  -pmi-> 1: cmd=finalize
>  <-pmi- 1: cmd=finalize_ack rc=0
>  -pmi-> 0: cmd=finalize
>  <-pmi- 0: cmd=finalize_ack rc=0
>  Hello world from process 1 of 2
>  Hello world from process 0 of 2
>
>
>  On Nov 5, 2008, at 12:17 PM, Daniel Gruner wrote:
>
>
> >
> > Ok, some progress.  I am now able to run things like:
> >
> > [EMAIL PROTECTED] examples]# xmvapich n0000,n0001 ./cpi
> > Process 0 of 2 is on n0000
> > pi is approximately 3.1415926544231318, Error is 0.0000000008333387
> > wall clock time = 0.000757
> > Process 1 of 2 is on n0001
> >
> > as long as the two nodes specified are different.  If, however, I want
> > to run two processes on the same node, e.g.:
> >
> > [EMAIL PROTECTED] examples]# xmvapich n0000,n0000 ./cpi
> > Process 1 of 2 is on n0000
> > Process 0 of 2 is on n0000
> >
> > It hangs as before.  Here is the debugging trace:
> >
> > [EMAIL PROTECTED] examples]# xmvapich -D n0000,n0000 ./cpi
> > -pmi-> 0: cmd=initack pmiid=1
> > <-pmi- 0: cmd=initack rc=0
> > <-pmi- 0: cmd=set rc=0 size=2
> > <-pmi- 0: cmd=set rc=0 rank=0
> > <-pmi- 0: cmd=set rc=0 debug=0
> > -pmi-> 1: cmd=initack pmiid=1
> > <-pmi- 1: cmd=initack rc=0
> > <-pmi- 1: cmd=set rc=0 size=2
> > <-pmi- 1: cmd=set rc=0 rank=1
> > <-pmi- 1: cmd=set rc=0 debug=0
> > -pmi-> 0: cmd=init pmi_version=1 pmi_subversion=1
> > <-pmi- 0: cmd=response_to_init rc=0
> > -pmi-> 0: cmd=get_maxes
> > <-pmi- 0: cmd=maxes rc=0 kvsname_max=64 keylen_max=64 vallen_max=64
> > -pmi-> 1: cmd=init pmi_version=1 pmi_subversion=1
> > <-pmi- 1: cmd=response_to_init rc=0
> > -pmi-> 1: cmd=get_maxes
> > <-pmi- 1: cmd=maxes rc=0 kvsname_max=64 keylen_max=64 vallen_max=64
> > -pmi-> 0: cmd=get_appnum
> > <-pmi- 0: cmd=appnum rc=0 appnum=0
> > -pmi-> 0: cmd=get_my_kvsname
> > <-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
> > -pmi-> 1: cmd=get_appnum
> > <-pmi- 1: cmd=appnum rc=0 appnum=0
> > -pmi-> 1: cmd=get_my_kvsname
> > <-pmi- 1: cmd=my_kvsname rc=0 kvsname=kvs_0
> > -pmi-> 0: cmd=get_my_kvsname
> > <-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
> > -pmi-> 1: cmd=get_my_kvsname
> > <-pmi- 1: cmd=my_kvsname rc=0 kvsname=kvs_0
> > -pmi-> 0: cmd=put kvsname=kvs_0 key=P0-businesscard
> > value=port#45956$description#n0000$ifname#10.10.0.10$
> > <-pmi- 0: cmd=put_result rc=0
> > -pmi-> 1: cmd=put kvsname=kvs_0 key=P1-businesscard
> > value=port#38363$description#n0000$ifname#10.10.0.10$
> > <-pmi- 1: cmd=put_result rc=0
> > -pmi-> 0: cmd=barrier_in
> > -pmi-> 1: cmd=barrier_in
> > <-pmi- 0: cmd=barrier_out rc=0
> > <-pmi- 1: cmd=barrier_out rc=0
> > -pmi-> 0: cmd=get kvsname=kvs_0 key=P1-businesscard
> > <-pmi- 0: cmd=get_result rc=0
> > value=port#38363$description#n0000$ifname#10.10.0.10$
> > Process 1 of 2 is on n0000
> > Process 0 of 2 is on n0000
> > [EMAIL PROTECTED] examples]#
> >
> >
> >
> > On 11/5/08, Daniel Gruner <[EMAIL PROTECTED]> wrote:
> >
> > > That is what I was going for...  It returns (none).
> > >
> > > I am about to run the test after explicitly setting up the hostnames
> > > of the nodes.
> > > Does xmvapich probe the nodes for their names?  How does it resolve
> > > their addresses?
> > >
> > >
> > > Daniel
> > >
> > > On 11/5/08, Latchesar Ionkov <[EMAIL PROTECTED]> wrote:
> > >
> > > >
> > > > I guess that is the problem. What do you see if you do:
> > > >
> > > >       xrx n0000 hostname
> > > >
> > > > Thanks,
> > > >       Lucho
> > > >
> > > >
> > > > On Nov 5, 2008, at 12:02 PM, Daniel Gruner wrote:
> > > >
> > > >
> > > >
> > > > >
> > > > > Hi Lucho,
> > > > >
> > > > > I am provisioning with perceus, and in order to get static node
> > > > > addresses I have entries in /etc/hosts that define them, e.g.:
> > > > >
> > > > > 10.10.0.10      n0000
> > > > > 10.10.0.11      n0001
> > > > > 10.10.0.12      n0002
> > > > >
> > > > > My /etc/nsswitch.conf is set to resolv hosts like:
> > > > >
> > > > > hosts:      files dns
> > > > >
> > > > > One thing I have noticed is that the nodes do not have their own
> > > > > hostname defined after provisioning.  Could this be the problem?
> > > > >
> > > > > Thanks,
> > > > > Daniel
> > > > > On 11/5/08, Latchesar Ionkov <[EMAIL PROTECTED]> wrote:
> > > > >
> > > > >
> > > > > >
> > > > > > Hi,
> > > > > >
> > > > > > It looks like the MPI processes on the nodes don't send a correct
> IP
> > > > > > address to connect to. In your case, they send:
> > > > > >
> > > > > >
> > > > > >
> > > > > >
> > > > > > >    -pmi-> 0: cmd=put kvsname=kvs_0 key=P0-businesscard
> > > > > > >
> > > > > > >
> > > > > > value=port#38675$description#(none)$
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > >
> > > > > >
> > > > > >
> > > > > > And when I run it, I see:
> > > > > >
> > > > > >     -pmi-> 0: cmd=put kvsname=kvs_0 key=P0-businesscard
> > > > > >
> value=port#34283$description#m10$ifname#192.168.1.110$
> > > > > >
> > > > > > I tried to figure out how does mpich pick the IP address, and it
> looks
> > > > > >
> > > > >
> > > > like
> > > >
> > > > >
> > > > > > it uses the hostname on the node for that. Do you have the node
> names
> > > > > >
> > > > >
> > > > setup
> > > >
> > > > >
> > > > > > correctly?
> > > > > >
> > > > > > Thanks,
> > > > > >     Lucho
> > > > > >
> > > > > > On Nov 4, 2008, at 1:31 PM, Daniel Gruner wrote:
> > > > > >
> > > > > >
> > > > > >
> > > > > >
> > > > > > >
> > > > > > > Hi Lucho,
> > > > > > >
> > > > > > > Did you have a chance to look at this?  Needless to say it has
> been
> > > > > > > quite frustrating, and perhaps it has to do with the particular
> Linux
> > > > > > > distribution you run.  I am running on a RHEL5.2 system with
> kernel
> > > > > > > 2.6.26, and the compilation of mpich2 or mvapich2 is totally
> vanilla.
> > > > > > > My network is just GigE.  xmvapich works for a single process,
> but it
> > > > > > > always hangs for more than one, regardless of whether they are
> on the
> > > > > > > same node or separate nodes, and independently of the example
> program
> > > > > > > (hellow, cpi, etc).  Other than some administration issues (like
> the
> > > > > > > authentication stuff I have been exchanging with Abhishek
> about), this
> > > > > > > is the only real obstacle to making my clusters suitable for
> > > > > > > production...
> > > > > > >
> > > > > > > Thanks,
> > > > > > > Daniel
> > > > > > >
> > > > > > > ---------- Forwarded message ----------
> > > > > > > From: Daniel Gruner <[EMAIL PROTECTED]>
> > > > > > > Date: Oct 8, 2008 2:49 PM
> > > > > > > Subject: Re: [xcpu] Re: (s)xcpu and MPI
> > > > > > > To: [email protected]
> > > > > > >
> > > > > > >
> > > > > > > Hi Lucho,
> > > > > > >
> > > > > > > Here is the output (two nodes in the cluster):
> > > > > > >
> > > > > > > [EMAIL PROTECTED] examples]# xmvapich -D -a ./hellow
> > > > > > > -pmi-> 0: cmd=initack pmiid=1
> > > > > > > <-pmi- 0: cmd=initack rc=0
> > > > > > > <-pmi- 0: cmd=set rc=0 size=2
> > > > > > > <-pmi- 0: cmd=set rc=0 rank=0
> > > > > > > <-pmi- 0: cmd=set rc=0 debug=0
> > > > > > > -pmi-> 0: cmd=init pmi_version=1 pmi_subversion=1
> > > > > > > <-pmi- 0: cmd=response_to_init rc=0
> > > > > > > -pmi-> 0: cmd=get_maxes
> > > > > > > <-pmi- 0: cmd=maxes rc=0 kvsname_max=64 keylen_max=64
> vallen_max=64
> > > > > > > -pmi-> 0: cmd=get_appnum
> > > > > > > <-pmi- 0: cmd=appnum rc=0 appnum=0
> > > > > > > -pmi-> 1: cmd=initack pmiid=1
> > > > > > > <-pmi- 1: cmd=initack rc=0
> > > > > > > <-pmi- 1: cmd=set rc=0 size=2
> > > > > > > <-pmi- 1: cmd=set rc=0 rank=1
> > > > > > > <-pmi- 1: cmd=set rc=0 debug=0
> > > > > > > -pmi-> 0: cmd=get_my_kvsname
> > > > > > > <-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 0: cmd=get_my_kvsname
> > > > > > > <-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 1: cmd=init pmi_version=1 pmi_subversion=1
> > > > > > > <-pmi- 1: cmd=response_to_init rc=0
> > > > > > > -pmi-> 1: cmd=get_maxes
> > > > > > > <-pmi- 1: cmd=maxes rc=0 kvsname_max=64 keylen_max=64
> vallen_max=64
> > > > > > > -pmi-> 1: cmd=get_appnum
> > > > > > > <-pmi- 1: cmd=appnum rc=0 appnum=0
> > > > > > > -pmi-> 0: cmd=put kvsname=kvs_0 key=P0-businesscard
> > > > > > > value=port#38675$description#(none)$
> > > > > > > <-pmi- 0: cmd=put_result rc=0
> > > > > > > -pmi-> 1: cmd=get_my_kvsname
> > > > > > > <-pmi- 1: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 0: cmd=barrier_in
> > > > > > > -pmi-> 1: cmd=get_my_kvsname
> > > > > > > <-pmi- 1: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 1: cmd=put kvsname=kvs_0 key=P1-businesscard
> > > > > > > value=port#38697$description#(none)$
> > > > > > > <-pmi- 1: cmd=put_result rc=0
> > > > > > > -pmi-> 1: cmd=barrier_in
> > > > > > > <-pmi- 0: cmd=barrier_out rc=0
> > > > > > > <-pmi- 1: cmd=barrier_out rc=0
> > > > > > > -pmi-> 0: cmd=get kvsname=kvs_0 key=P1-businesscard
> > > > > > > <-pmi- 0: cmd=get_result rc=0
> > > > > > >
> > > > > > >
> > > > > > value=port#38697$description#(none)$
> > > > > >
> > > > > >
> > > > > > > -pmi-> 1: cmd=get kvsname=kvs_0 key=P0-businesscard
> > > > > > > <-pmi- 1: cmd=get_result rc=0
> > > > > > >
> > > > > > >
> > > > > > value=port#38675$description#(none)$
> > > > > >
> > > > > >
> > > > > > >
> > > > > > > Hello world from process 1 of 2
> > > > > > > Hello world from process 0 of 2
> > > > > > >
> > > > > > >
> > > > > > > It looks like it ran, but then it hangs and never returns.
> > > > > > >
> > > > > > > If I try to run another example (cpi), here is the output from
> the run
> > > > > > > with a single process, and then with two:
> > > > > > >
> > > > > > > [EMAIL PROTECTED] examples]# xmvapich n0001 ./cpi
> > > > > > > Process 0 of 1 is on (none)
> > > > > > > pi is approximately 3.1415926544231341, Error is
> 0.0000000008333410
> > > > > > > wall clock time = 0.000313
> > > > > > > [EMAIL PROTECTED] examples]# xmvapich -D n0001 ./cpi
> > > > > > > -pmi-> 0: cmd=initack pmiid=1
> > > > > > > <-pmi- 0: cmd=initack rc=0
> > > > > > > <-pmi- 0: cmd=set rc=0 size=1
> > > > > > > <-pmi- 0: cmd=set rc=0 rank=0
> > > > > > > <-pmi- 0: cmd=set rc=0 debug=0
> > > > > > > -pmi-> 0: cmd=init pmi_version=1 pmi_subversion=1
> > > > > > > <-pmi- 0: cmd=response_to_init rc=0
> > > > > > > -pmi-> 0: cmd=get_maxes
> > > > > > > <-pmi- 0: cmd=maxes rc=0 kvsname_max=64 keylen_max=64
> vallen_max=64
> > > > > > > -pmi-> 0: cmd=get_appnum
> > > > > > > <-pmi- 0: cmd=appnum rc=0 appnum=0
> > > > > > > -pmi-> 0: cmd=get_my_kvsname
> > > > > > > <-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 0: cmd=get_my_kvsname
> > > > > > > <-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 0: cmd=put kvsname=kvs_0 key=P0-businesscard
> > > > > > > value=port#48513$description#(none)$
> > > > > > > <-pmi- 0: cmd=put_result rc=0
> > > > > > > -pmi-> 0: cmd=barrier_in
> > > > > > > <-pmi- 0: cmd=barrier_out rc=0
> > > > > > > -pmi-> 0: cmd=finalize
> > > > > > > <-pmi- 0: cmd=finalize_ack rc=0
> > > > > > > Process 0 of 1 is on (none)
> > > > > > > pi is approximately 3.1415926544231341, Error is
> 0.0000000008333410
> > > > > > > wall clock time = 0.000332
> > > > > > > [EMAIL PROTECTED] examples]
> > > > > > >
> > > > > > > normal termination.
> > > > > > >
> > > > > > > [EMAIL PROTECTED] examples]# xmvapich -D n0000,n0001 ./cpi
> > > > > > > -pmi-> 0: cmd=initack pmiid=1
> > > > > > > <-pmi- 0: cmd=initack rc=0
> > > > > > > <-pmi- 0: cmd=set rc=0 size=2
> > > > > > > <-pmi- 0: cmd=set rc=0 rank=0
> > > > > > > <-pmi- 0: cmd=set rc=0 debug=0
> > > > > > > -pmi-> 0: cmd=init pmi_version=1 pmi_subversion=1
> > > > > > > <-pmi- 0: cmd=response_to_init rc=0
> > > > > > > -pmi-> 0: cmd=get_maxes
> > > > > > > <-pmi- 0: cmd=maxes rc=0 kvsname_max=64 keylen_max=64
> vallen_max=64
> > > > > > > -pmi-> 0: cmd=get_appnum
> > > > > > > <-pmi- 0: cmd=appnum rc=0 appnum=0
> > > > > > > -pmi-> 0: cmd=get_my_kvsname
> > > > > > > <-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 1: cmd=initack pmiid=1
> > > > > > > <-pmi- 1: cmd=initack rc=0
> > > > > > > <-pmi- 1: cmd=set rc=0 size=2
> > > > > > > <-pmi- 1: cmd=set rc=0 rank=1
> > > > > > > <-pmi- 1: cmd=set rc=0 debug=0
> > > > > > > -pmi-> 0: cmd=get_my_kvsname
> > > > > > > <-pmi- 0: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 1: cmd=init pmi_version=1 pmi_subversion=1
> > > > > > > <-pmi- 1: cmd=response_to_init rc=0
> > > > > > > -pmi-> 1: cmd=get_maxes
> > > > > > > <-pmi- 1: cmd=maxes rc=0 kvsname_max=64 keylen_max=64
> vallen_max=64
> > > > > > > -pmi-> 0: cmd=put kvsname=kvs_0 key=P0-businesscard
> > > > > > > value=port#45645$description#(none)$
> > > > > > > <-pmi- 0: cmd=put_result rc=0
> > > > > > > -pmi-> 1: cmd=get_appnum
> > > > > > > <-pmi- 1: cmd=appnum rc=0 appnum=0
> > > > > > > -pmi-> 0: cmd=barrier_in
> > > > > > > -pmi-> 1: cmd=get_my_kvsname
> > > > > > > <-pmi- 1: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 1: cmd=get_my_kvsname
> > > > > > > <-pmi- 1: cmd=my_kvsname rc=0 kvsname=kvs_0
> > > > > > > -pmi-> 1: cmd=put kvsname=kvs_0 key=P1-businesscard
> > > > > > > value=port#53467$description#(none)$
> > > > > > > <-pmi- 1: cmd=put_result rc=0
> > > > > > > -pmi-> 1: cmd=barrier_in
> > > > > > > <-pmi- 0: cmd=barrier_out rc=0
> > > > > > > <-pmi- 1: cmd=barrier_out rc=0
> > > > > > > -pmi-> 0: cmd=get kvsname=kvs_0 key=P1-businesscard
> > > > > > > <-pmi- 0: cmd=get_result rc=0
> > > > > > >
> > > > > > >
> > > > > > value=port#53467$description#(none)$
> > > > > >
> > > > > >
> > > > > > > Process 0 of 2 is on (none)
> > > > > > > Process 1 of 2 is on (none)
> > > > > > >
> > > > > > > hung processes....
> > > > > > >
> > > > > > >
> > > > > > > Daniel
> > > > > > >
> > > > > > >
> > > > > > > On Wed, Oct 8, 2008 at 3:23 PM, Latchesar Ionkov
> <[EMAIL PROTECTED]>
> > > > > > >
> > > > > >
> > > > >
> > > > wrote:
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > I can't replicate it, it is working fine here :(
> > > > > > > > Can you please try xmvapich again with -D option and cut&paste
> the
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > output?
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > Thanks,
> > > > > > > >  Lucho
> > > > > > > >
> > > > > > > > On Oct 6, 2008, at 2:51 PM, Daniel Gruner wrote:
> > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > I just compiled mpich2-1.1.0a1, and tested it, with the same
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > result as
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > > with mvapich.  Again I had to do the configure with
> > > > > > > > > --with-device=ch3:sock, since otherwise the runtime
> complains that
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > it
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > > can't allocate shared memory or some such thing.  When I run
> a
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > single
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > > process using xmvapich it completes fine.  However when
> running
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > two or
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > > more it hangs.  This is not surprising as it should be the
> same as
> > > > > > > > > mvapich when running over regular TCP/IP on GigE rather than
> a
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > special
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > > interconnect.
> > > > > > > > >
> > > > > > > > > [EMAIL PROTECTED] examples]# ./hellow
> > > > > > > > > Hello world from process 0 of 1
> > > > > > > > > [EMAIL PROTECTED] examples]# xmvapich -a ./hellow
> > > > > > > > > Hello world from process 1 of 2
> > > > > > > > > Hello world from process 0 of 2
> > > > > > > > > ^C
> > > > > > > > > [EMAIL PROTECTED] examples]# xmvapich n0000 ./hellow
> > > > > > > > > Hello world from process 0 of 1
> > > > > > > > > [EMAIL PROTECTED] examples]# xmvapich n0001 ./hellow
> > > > > > > > > Hello world from process 0 of 1
> > > > > > > > > [EMAIL PROTECTED] examples]# xmvapich n0000,n0001 ./hellow
> > > > > > > > > Hello world from process 1 of 2
> > > > > > > > > Hello world from process 0 of 2
> > > > > > > > > ^C
> > > > > > > > >
> > > > > > > > > Daniel
> > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > On 10/6/08, Latchesar Ionkov <[EMAIL PROTECTED]> wrote:
> > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > I just compiled mpich2-1.1.0a1 and tried running hellow,
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > everything
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > looks
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > > fine:
> > > > > > > > > >
> > > > > > > > > > $ xmvapich m1,m2
> > > > > > > > > >
> ~/work/mpich2-1.1.0a1/build/examples/hellow
> > > > > > > > > > Hello world from process 0 of 2
> > > > > > > > > > Hello world from process 1 of 2
> > > > > > > > > > $
> > > > > > > > > >
> > > > > > > > > > I didn't set any special parameters when compiling, just
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > ./configure.
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > Thanks,
> > > > > > > > > >  Lucho
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > On Oct 3, 2008, at 9:05 AM, Daniel Gruner wrote:
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > Well, I just did the same, but with NO success...  The
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > processes
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > are
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > > apparently started, run at the beginning, but then they
> hang
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > and
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > do
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > > not finalize.  For example, running the "hellow" example
> from
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > the
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > > mvapich2 distribution:
> > > > > > > > > > >
> > > > > > > > > > > [EMAIL PROTECTED] examples]# cat hellow.c
> > > > > > > > > > > /* -*- Mode: C; c-basic-offset:4 ; -*- */
> > > > > > > > > > > /*
> > > > > > > > > > > *  (C) 2001 by Argonne National Laboratory.
> > > > > > > > > > > *      See COPYRIGHT in top-level directory.
> > > > > > > > > > > */
> > > > > > > > > > >
> > > > > > > > > > > #include <stdio.h>
> > > > > > > > > > > #include "mpi.h"
> > > > > > > > > > >
> > > > > > > > > > > int main( int argc, char *argv[] )
> > > > > > > > > > > {
> > > > > > > > > > > int rank;
> > > > > > > > > > > int size;
> > > > > > > > > > >
> > > > > > > > > > > MPI_Init( 0, 0 );
> > > > > > > > > > > MPI_Comm_rank(MPI_COMM_WORLD, &rank);
> > > > > > > > > > > MPI_Comm_size(MPI_COMM_WORLD, &size);
> > > > > > > > > > > printf( "Hello world from process %d of %d\n", rank,
> size );
> > > > > > > > > > > MPI_Finalize();
> > > > > > > > > > > return 0;
> > > > > > > > > > > }
> > > > > > > > > > >
> > > > > > > > > > > [EMAIL PROTECTED] examples]# make hellow
> > > > > > > > > > > ../bin/mpicc  -I../src/include -I../src/include   -c
> hellow.c
> > > > > > > > > > > ../bin/mpicc   -o hellow hellow.o
> > > > > > > > > > > [EMAIL PROTECTED] examples]# ./hellow
> > > > > > > > > > > Hello world from process 0 of 1
> > > > > > > > > > >
> > > > > > > > > > > (this was fine, just running on the master).  Running on
> the
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > two
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > nodes
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > > requires that the xmvapich process be killed (ctrl-C):
> > > > > > > > > > >
> > > > > > > > > > > [EMAIL PROTECTED] examples]# xmvapich -ap ./hellow
> > > > > > > > > > > n0000: Hello world from process 0 of 2
> > > > > > > > > > > n0001: Hello world from process 1 of 2
> > > > > > > > > > > [EMAIL PROTECTED] examples]#
> > > > > > > > > > >
> > > > > > > > > > > I have tried other codes, both in C and Fortran, with
> the same
> > > > > > > > > > > behaviour.  I don't know if the issue is with xmvapich
> or with
> > > > > > > > > > > mvapich2.  Communication is just GigE.
> > > > > > > > > > >
> > > > > > > > > > > Daniel
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > On 9/30/08, Abhishek Kulkarni <[EMAIL PROTECTED]> wrote:
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > Just gave this a quick try, and xmvapich seems to run
> MPI
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > apps
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > compiled
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > > with mpich2 without any issues.
> > > > > > > > > > > >
> > > > > > > > > > > > $ xmvapich -a ./mpihello
> > > > > > > > > > > > blender: Hello World from process 0 of 1
> > > > > > > > > > > > eregion: Hello World from process 0 of 1
> > > > > > > > > > > >
> > > > > > > > > > > > Hope that helps,
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > -- Abhishek
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > On Tue, 2008-09-30 at 17:02 +0200, Stefan Boresch
> wrote:
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > > Thanks for the quick reply!
> > > > > > > > > > > > >
> > > > > > > > > > > > > On Tue, Sep 30, 2008 at 07:34:37AM -0700, ron
> minnich
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > wrote:
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > > On Tue, Sep 30, 2008 at 1:57 AM, stefan
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > <[EMAIL PROTECTED]>
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > wrote:
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > > the state of xcpu support with MPI libraries --
> either
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > of
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > the
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > common
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > > free ones
> > > > > > > > > > > > > > > is fine (e.g., openmpi, mpich2)
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > > there is now support for mpich2. openmpi is not
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > supported as
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > openmpi
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > > is (once again) in flux. it has been supported
> numerous
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > times and
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > has
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > > changed out from under us numerous times. I no
> longer
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > use
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > openmpi if
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > I
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > > have a working mvapich or mpich available.
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > I am slightly confused. I guess I had inferred the
> openmpi
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > issues from
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > > the various mailing lists. But I just looked at the
> latest
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > mpich2
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > > prerelease and found no mentioning of (s)xcpu(2). I
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > thought
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > that some
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > > patches/support on the side of the mpi library are
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > necessary
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > (as,
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > e.g.,
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > > openmpi provides for bproc ...)  Or am I completely
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > misunderstanding
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > > something here, and this is somehow handled by xcpu
> itself
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > ...
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > > I guess there is some difference between
> > > > > > > > > > > > >
> > > > > > > > > > > > > xrx 192.168.19.2 /bin/date
> > > > > > > > > > > > >
> > > > > > > > > > > > > and
> > > > > > > > > > > > >
> > > > > > > > > > > > > xrx 192.168.19.2 <pathto>/mpiexec ...
> > > > > > > > > > > > >
> > > > > > > > > > > > > and the latter seems too magic to me to run out of
> the box
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > >
> > > > >
> > > > (it
> > > >
> > > > >
> > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > sure
> > > > > >
> > > > > >
> > > > > > >
> > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > > > would be nice though ...)
> > > > > > > > > > > > >
> > > > > > > > > > > > > Sorry for making myself a nuisance -- thanks,
> > > > > > > > > > > > >
> > > > > > > > > > > > > Stefan Boresch
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > > >
> > > > > > >
> > > > > > >
> > > > > > >
> > > > > >
> > > > > >
> > > > > >
> > > > > >
> > > > >
> > > > >
> > > >
> > > >
> > > >
> > >
> > >
> >
>
>

Reply via email to