<div>Previously I used also 16 nodes, when I calculate with ABINIT and there is no problem for its running.</div><div>I asked my administrator about it, he said that anything alright with policy.<br></div><br><div class="gmail_quote">
On 8 March 2011 07:48, Huiqun Zhou <span dir="ltr">&lt;<a href="mailto:hqzhou@nju.edu.cn">hqzhou@nju.edu.cn</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">






<div bgcolor="#ffffff">
<div><font size="2" face="Arial">Alexander,</font></div>
<div><br></div>
<div><font size="2" face="Arial">According to your reply to my message, you actually 
applied 64 CPU cores </font></div>
<div><font size="2" face="Arial">(16 nodes, 4 cores per node), this should have no 
problem unless the policy</font></div>
<div><font size="2" face="Arial">of using your cluster prohibited it. Once upon a 
time, we had such a policy</font></div>
<div><font size="2" face="Arial">on our cluster: an job occupies at most 32 CPU 
cores, otherwise put it into</font></div>
<div><font size="2" face="Arial">sequential queue.</font></div>
<div> </div>
<div><font size="2" face="Arial">Maybe, you should ask your administrator whether 
there is such a policy ...</font></div><div class="im">
<div> </div>
<div><font size="2" face="Arial">zhou huiqun</font></div>
<div><font size="2" face="Arial">@earth sciences, nanjing university, 
china</font></div>
<div> </div>
</div><blockquote style="border-left:#000000 2px solid;padding-left:5px;padding-right:0px;margin-left:5px;margin-right:0px"><div class="im">
  <div style="font:10pt arial">----- Original Message ----- </div>
  <div style="font:10pt arial;background:#e4e4e4"><b>From:</b> 
  <a title="agkvashnin@gmail.com" href="mailto:agkvashnin@gmail.com" target="_blank">Alexander G. 
  Kvashnin</a> </div>
  <div style="font:10pt arial"><b>To:</b> <a title="pw_forum@pwscf.org" href="mailto:pw_forum@pwscf.org" target="_blank">PWSCF Forum</a> </div>
  </div><div><div class="h5"><div style="font:10pt arial"><b>Sent:</b> Tuesday, March 08, 2011 12:24 
  AM</div>
  <div style="font:10pt arial"><b>Subject:</b> Re: [Pw_forum] НА: Re: problem 
  in MPI running of QE (16 processors)</div>
  <div><br></div>
  <div>Dear all<br></div>
  <div><br></div>
  <div>I tried to use full paths, but it didn&#39;t give positive results. It wrote 
  an error message  </div>
  <div><br></div>
  <div>application called MPI_Abort(MPI_COMM_WORLD, 0) - process 0</div>
  <div><br></div><br>
  <div class="gmail_quote">On 7 March 2011 10:30, Alexander Kvashnin <span dir="ltr">&lt;<a href="mailto:agkvashnin@gmail.com" target="_blank">agkvashnin@gmail.com</a>&gt;</span> 
  wrote:<br>
  <blockquote style="border-left:#ccc 1px solid;margin:0px 0px 0px 0.8ex;padding-left:1ex" class="gmail_quote">
    <div>
    <div>Thanks, I tried to use &quot;&lt;&quot; instead of &quot;-in&quot; it also didn&#39;t 
    work.<br>OK,I will try to use full paths for input and output, and answer 
    about result.<br><br>----- Исходное сообщение -----<br>От: Omololu Akin-Ojo 
    &lt;<a href="mailto:prayerz.omo@gmail.com" target="_blank">prayerz.omo@gmail.com</a>&gt;<br>Отправлено: 
    7 марта 2011 г. 9:56<br>Кому: PWSCF Forum &lt;<a href="mailto:pw_forum@pwscf.org" target="_blank">pw_forum@pwscf.org</a>&gt;<br>Тема: Re: 
    [Pw_forum] НА: Re: problem in MPI running of QE (16 processors)<br><br>Try 
    to see if specifying the full paths help.<br>E.g., try something 
    like:<br><br>mpiexec /home/MyDir/bin/pw.x -in  /scratch/MyDir/graph.inp 
    &gt;<br>/scratch/MyDir/graph.out<br><br>(where /home/MyDir/bin is the full 
    path to your pw.x and<br>/scratch/MyDir/graph.inp is the full path to your 
    output ....)<br><br>( I see you use &quot;-in&quot; instead of &quot;&lt;&quot; to indicate the 
    input. I don&#39;t<br>know too much but _perhaps_ you could also _try_ using 
    &quot;&lt;&quot; instead of<br>&quot;-in&quot;) .<br><br>o.<br><br>On Mon, Mar 7, 2011 at 7:31 
    AM, Alexander Kvashnin &lt;<a href="mailto:agkvashnin@gmail.com" target="_blank">agkvashnin@gmail.com</a>&gt; 
    wrote:<br>&gt; Yes, I wrote<br>&gt;<br>&gt; #PBS -l 
    nodes=16:ppn=4<br>&gt;<br>&gt; And in userguide of MIPT-60 wrote,that 
    mpiexec must choose number of<br>&gt; processors automatically, that&#39;s why I 
    didn&#39;t write anything else<br>&gt;<br>&gt;<br>&gt; 
    ________________________________<br>&gt; ÐžÑ‚: Huiqun Zhou &lt;<a href="mailto:hqzhou@nju.edu.cn" target="_blank">hqzhou@nju.edu.cn</a>&gt;<br>&gt; 
    ÐžÑ‚правлено: 7 Ð¼Ð°Ñ€Ñ‚а 2011 Ð³. 7:52<br>&gt; ÐšÐ¾Ð¼Ñƒ: PWSCF 
    Forum &lt;<a href="mailto:pw_forum@pwscf.org" target="_blank">pw_forum@pwscf.org</a>&gt;<br>&gt; 
    Ð¢ÐµÐ¼Ð°: Re: [Pw_forum] problem in MPI running of QE (16 
    processors)<br>&gt;<br>&gt; How did you apply number of node, procs per node 
    in your job<br>&gt; script?<br>&gt;<br>&gt; #PBS -l 
    nodes=?:ppn=?<br>&gt;<br>&gt; zhou huiqun<br>&gt; @earth sciences, nanjing 
    university, china<br>&gt;<br>&gt;<br>&gt; ----- Original Message 
    -----<br>&gt; From: Alexander G. Kvashnin<br>&gt; To: PWSCF Forum<br>&gt; 
    Sent: Saturday, March 05, 2011 2:53 AM<br>&gt; Subject: Re: [Pw_forum] 
    problem in MPI running of QE (16 processors)<br>&gt; I create PBS task on 
    supercomputer MIPT-60 where I write<br>&gt;<br>&gt; mpiexec 
    ../../espresso-4.2.1/bin/pw.x -in graph.inp &gt; output.opt<br>&gt; all 
    other<br><br>[Включен не весь текст исходного 
  сообщения]</div></div></blockquote></div><br><br clear="all"><br>-- <br>
  <div>Sincerely yours</div>
  <div>Alexander G. Kvashnin</div>
  <div>--------------------------------------------------------------------------------------------------------------------------------</div>
  <div>Student</div>
  <div>Moscow Institute of Physics and Technology         
   <a href="http://mipt.ru/" target="_blank">http://mipt.ru/</a></div>
  <div>141700, Institutsky lane 9, Dolgoprudny, Moscow Region, Russia<br></div>
  <div><br></div>
  <div>Junior research scientist<br></div>
  <div>Technological Institute for Superhard </div>
  <div>and Novel Carbon Materials             
                        
  <a href="http://www.ntcstm.troitsk.ru/" target="_blank">http://www.ntcstm.troitsk.ru/</a></div>
  <div>142190, Central&#39;naya St. 7a, Troitsk, Moscow Region, Russia</div>
  <div>================================================================</div><br>
  </div></div><p>
  <hr><div class="im">

  _______________________________________________<br>Pw_forum mailing 
  list<br><a href="mailto:Pw_forum@pwscf.org" target="_blank">Pw_forum@pwscf.org</a><br><a href="http://www.democritos.it/mailman/listinfo/pw_forum" target="_blank">http://www.democritos.it/mailman/listinfo/pw_forum</a><br>
</div></p></blockquote></div>
<br>_______________________________________________<br>
Pw_forum mailing list<br>
<a href="mailto:Pw_forum@pwscf.org">Pw_forum@pwscf.org</a><br>
<a href="http://www.democritos.it/mailman/listinfo/pw_forum" target="_blank">http://www.democritos.it/mailman/listinfo/pw_forum</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br><div>Sincerely yours</div><div>Alexander G. Kvashnin</div><div>--------------------------------------------------------------------------------------------------------------------------------</div>
<div>Student</div><div>Moscow Institute of Physics and Technology          <a href="http://mipt.ru/" target="_blank">http://mipt.ru/</a></div><div>141700, Institutsky lane 9, Dolgoprudny, Moscow Region, Russia<br></div><div>
<br></div><div>Junior research scientist<br></div><div>Technological Institute for Superhard </div><div>and Novel Carbon Materials                                   <a href="http://www.ntcstm.troitsk.ru/" target="_blank">http://www.ntcstm.troitsk.ru/</a></div>
<div>142190, Central&#39;naya St. 7a, Troitsk, Moscow Region, Russia</div><div>================================================================</div><br>