[openMosix-it] OpenMosix + MPI + Applicazioni commerciali

Moshe Bar openmosix@democritos.it
Thu, 20 Mar 2003 22:57:29 +0200


Ci sono problemi se un programma apre un file con mmap() sharato=20
(soltanto private funziona) perche' non abbiamo ancora la distributes=20
shared memory (patch di prova rilasciata la settimana scorsa).

Secondo un strace fluent 6.0 invece cerca proprio di aprire un file con=20=

mmap() shared (pessimo stile di programmazione, perche' in realta' non=20=

hanno bisogno di shared, ma forse il programmatore non sa bene come=20
usare mmap).

Appena integriamo la patch DSM dovrebbe funzionare.

Secondo alcune analisi dell'INFN di Bari ci sono dei fortissimi=20
vantaggi a usare MPI con openMosix. Stiamo scrivendo un articolo di=20
ricerca sull'argomento che rilasceremo fra qualche settimana.

Moshe


On Friday, Mar 14, 2003, at 14:29 Asia/Jerusalem, Marco Manzan wrote:

> On Friday 14 March 2003 09:56, Gabriele Paciucci wrote:
>> Carissimi,
>> 	(ciao Moshe!) stavo provando delle applicazioni commerciali come=20=

>> Fluent e
>> Ansys su un cluster con openMosix e MPI entusiasmato dalle=20
>> performance che
>> l'accoppiata dovrebbe avere, ma tali applicazioni vanno in seg.=20
>> fault...
>> avete qualche esperienza in merito? possono coesistere i due sistemi=20=

>> senza
>> fare a cazzotti?
>>
>> Cordiali Saluti
>
> sto usando da un po fluent 6.0 su un cluster con due biprocessori=20
> athlon 1.9
> MP collegati con schede a 1000. Il sistema =E8 Mandrake 8.2, a dire il=20=

> vero ho
> provato a fare l'upgrade con il Mandrake 9.0 ma l'accoppiata con=20
> openmosix
> non ha dato buoni frutti in particolare ho notato dei momenti in cui =
il
> carico macchina saliva a dismisura (load 45) per poi prendere il =
valore
> normale, inoltre l'mfs non riusciva a funzionare, in particolare se=20
> cercavo
> di copiare un file (ad esempio ,bashrc) si generava l'errore:
>
> cp: salto il file `.bashrc' perch=E9 =E8 stato rimpiazzato mentre =
veniva=20
> copiato
>
> come detto sopra tutto funziona se lavoro con l' 8.2.
> Tornando a fluent, non ho alcun tipo di problema, attualmente non sto=20=

> usando
> il programma in parallelo e quindi i processi vengono migrati=20
> magnificamente,
> ho comunque provato a migrare processi MPI in parallelo  (con =
l'opzione
> -pnmpi ) e i processi migrano correttamente, purtroppo non ho avuto=20
> tempo per
> fare delle statistiche sui tempi di calcolo, ma vorrei farlo a breve
>
> spero che cio' sia utile
> --=20
>  _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
> |Marco Manzan               Email: manzan@univ.trieste.it     |
> |Tel:   (+39) 040 5583506   Fax  : (+39) 040  572033          |
> |Dipartimento di Ingegneria Navale, del Mare e per l'Ambiente |
> |Universita' degli Studi di Trieste                           |
> |piazzale Europa 1, 34127 TRIESTE                             |
> |_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _|
>
> _______________________________________________
> openMosix mailing list
> openMosix@democritos.it
> http://www.democritos.it/mailman/listinfo/openmosix
>