<div>Dear all<br></div><div><br></div><div>I tried to use full paths, but it didn&#39;t give positive results. It wrote an error message  </div><div><br></div><div>application called MPI_Abort(MPI_COMM_WORLD, 0) - process 0</div>
<div><br></div><br><div class="gmail_quote">On 7 March 2011 10:30, Alexander Kvashnin <span dir="ltr">&lt;<a href="mailto:agkvashnin@gmail.com">agkvashnin@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div><div class="h5">Thanks, I tried to use &quot;&lt;&quot; instead of &quot;-in&quot; it also didn&#39;t work.<br>
OK,I will try to use full paths for input and output, and answer about result.<br>
<br>
----- Исходное сообщение -----<br>
От: Omololu Akin-Ojo &lt;<a href="mailto:prayerz.omo@gmail.com">prayerz.omo@gmail.com</a>&gt;<br>
Отправлено: 7 марта 2011 г. 9:56<br>
Кому: PWSCF Forum &lt;<a href="mailto:pw_forum@pwscf.org">pw_forum@pwscf.org</a>&gt;<br>
Тема: Re: [Pw_forum] НА: Re: problem in MPI running of QE (16 processors)<br>
<br>
Try to see if specifying the full paths help.<br>
E.g., try something like:<br>
<br>
mpiexec /home/MyDir/bin/pw.x -in  /scratch/MyDir/graph.inp &gt;<br>
/scratch/MyDir/graph.out<br>
<br>
(where /home/MyDir/bin is the full path to your pw.x and<br>
/scratch/MyDir/graph.inp is the full path to your output ....)<br>
<br>
( I see you use &quot;-in&quot; instead of &quot;&lt;&quot; to indicate the input. I don&#39;t<br>
know too much but _perhaps_ you could also _try_ using &quot;&lt;&quot; instead of<br>
&quot;-in&quot;) .<br>
<br>
o.<br>
<br>
On Mon, Mar 7, 2011 at 7:31 AM, Alexander Kvashnin &lt;<a href="mailto:agkvashnin@gmail.com">agkvashnin@gmail.com</a>&gt; wrote:<br>
&gt; Yes, I wrote<br>
&gt;<br>
&gt; #PBS -l nodes=16:ppn=4<br>
&gt;<br>
&gt; And in userguide of MIPT-60 wrote,that mpiexec must choose number of<br>
&gt; processors automatically, that&#39;s why I didn&#39;t write anything else<br>
&gt;<br>
&gt;<br>
&gt; ________________________________<br>
&gt; ÐžÑ‚: Huiqun Zhou &lt;<a href="mailto:hqzhou@nju.edu.cn">hqzhou@nju.edu.cn</a>&gt;<br>
&gt; ÐžÑ‚правлено: 7 Ð¼Ð°Ñ€Ñ‚а 2011 Ð³. 7:52<br>
&gt; ÐšÐ¾Ð¼Ñƒ: PWSCF Forum &lt;<a href="mailto:pw_forum@pwscf.org">pw_forum@pwscf.org</a>&gt;<br>
&gt; Ð¢ÐµÐ¼Ð°: Re: [Pw_forum] problem in MPI running of QE (16 processors)<br>
&gt;<br>
&gt; How did you apply number of node, procs per node in your job<br>
&gt; script?<br>
&gt;<br>
&gt; #PBS -l nodes=?:ppn=?<br>
&gt;<br>
&gt; zhou huiqun<br>
&gt; @earth sciences, nanjing university, china<br>
&gt;<br>
&gt;<br>
&gt; ----- Original Message -----<br>
&gt; From: Alexander G. Kvashnin<br>
&gt; To: PWSCF Forum<br>
&gt; Sent: Saturday, March 05, 2011 2:53 AM<br>
&gt; Subject: Re: [Pw_forum] problem in MPI running of QE (16 processors)<br>
&gt; I create PBS task on supercomputer MIPT-60 where I write<br>
&gt;<br>
&gt; mpiexec ../../espresso-4.2.1/bin/pw.x -in graph.inp &gt; output.opt<br>
&gt; all other<br>
<br>
[Включен не весь текст исходного сообщения]</div></div></blockquote></div><br><br clear="all"><br>-- <br><div>Sincerely yours</div><div>Alexander G. Kvashnin</div><div>--------------------------------------------------------------------------------------------------------------------------------</div>
<div>Student</div><div>Moscow Institute of Physics and Technology          <a href="http://mipt.ru/" target="_blank">http://mipt.ru/</a></div><div>141700, Institutsky lane 9, Dolgoprudny, Moscow Region, Russia<br></div><div>
<br></div><div>Junior research scientist<br></div><div>Technological Institute for Superhard </div><div>and Novel Carbon Materials                                   <a href="http://www.ntcstm.troitsk.ru/" target="_blank">http://www.ntcstm.troitsk.ru/</a></div>
<div>142190, Central&#39;naya St. 7a, Troitsk, Moscow Region, Russia</div><div>================================================================</div><br>