Здравствуйте Sasparella, вы писали:
S>Кто-нибудь занимался распределенными паралельными вычислениями?
-Я занимался!
S>Насколько эффективна MPI и нет ли в настоящее время более оптимизированой системы?
MPI достаточно эффективна (эффективен, эффективно — как правильно?), чтобы служить основным средством в этой области.
Технологий много, но в случае отсутствия общей (разделяемой) памяти в системе логика их работы примерно такая же, как и у MPI, а эффективность зависит от конкретной реализации. А еще более оптимизированной, возможно, будет MPI-2.
Поэтому берите MPI. Есть до дюжины некоммерческих реализаций, так что будет из чего выбирать, благо тесты производительности MPI в сети найти весьма просто.
Тот, кто желает, но не делает, распространяет чуму.
Здравствуйте volk, вы писали:
V> MPI достаточно эффективна (эффективен, эффективно — как правильно?), чтобы служить основным средством в этой области. V> Технологий много, но в случае отсутствия общей (разделяемой) памяти в системе логика их работы примерно такая же, как и у MPI, а эффективность зависит от конкретной реализации. А еще более оптимизированной, возможно, будет MPI-2. V> Поэтому берите MPI. Есть до дюжины некоммерческих реализаций, так что будет из чего выбирать, благо тесты производительности MPI в сети найти весьма просто.
Спасибо большое за ответ,
Эта ситуация напоминает состояние дел с кодом Spice. Их тоже куча, однако можно выделить лидера — Spice Opus.
А какую именно из этой дюжины MPI-ек вы бы рекомендовали? (этим делом я вот только только начинаю заниматься),
2 Sasparella
Передо мной проблемы выбора не стояло, а нужно было работать на том, что есть. Поэтому подсказать конкретную реализацию не могу. Да и вряд ли Вы найдете кого-нибудь, кто имел дело хотя бы с тремя реализациями. Так что ищите в сети результаты тестов производительности и т.д. Начинать лучше всего с parallel.ru, если Вы там еще не были.
В качестве совета могу сказать следущее. Раз Вы не знакомы с MPI, то, наверное, будет важно не столько быстродействие, сколько наличие описаний, руководств и распространенность пакета. Поэтому обратите внимание на MPICH. Он наиболее распространен и написан чуть ли не авторами стандарта. Найти можно опять же на parallel.ru. А что касается производительности различных реализаций, то не в 10 же раз она отличается! А даже если и в 10, то все равно хорошим распараллеливанием алгоритма можно добиться того, что скорость работы программы будет меньше не в 10 раз, а только на 10 процентов. Цифры взяты с потолка, да и вообще это не более чем совет.
2 Аноним:
MPI — message passing interface, стандарт обмена данными между процессами без использования разделяемой (общей) памяти.
Тот, кто желает, но не делает, распространяет чуму.
Здравствуйте volk, вы писали:
V>2 Sasparella V> Передо мной проблемы выбора не стояло, а нужно было работать на том, что есть. Поэтому подсказать конкретную реализацию не могу. Да и вряд ли Вы найдете кого-нибудь, кто имел дело хотя бы с тремя реализациями. Так что ищите в сети результаты тестов производительности и т.д. Начинать лучше всего с parallel.ru, если Вы там еще не были. V> В качестве совета могу сказать следущее. Раз Вы не знакомы с MPI, то, наверное, будет важно не столько быстродействие, сколько наличие описаний, руководств и распространенность пакета. Поэтому обратите внимание на MPICH. Он наиболее распространен и написан чуть ли не авторами стандарта. Найти можно опять же на parallel.ru. А что касается производительности различных реализаций, то не в 10 же раз она отличается! А даже если и в 10, то все равно хорошим распараллеливанием алгоритма можно добиться того, что скорость работы программы будет меньше не в 10 раз, а только на 10 процентов. Цифры взяты с потолка, да и вообще это не более чем совет.
Спасибо за ссылку, и совет, правда, очень помогли. Вроде ясно, как говорится, лопату в руки- и вперед — в принципе вся инфа на parallel.ru вроде есть. Особенно в смысле руководств ;)