Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Message Passing Interface
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Message_Passing_Interface
http://dbpedia.org/ontology/abstract 메시지 전달 인터페이스(Message Passing Interface, MP메시지 전달 인터페이스(Message Passing Interface, MPI)는 분산 및 병렬 처리에서 정보의 교환에 대해 기술하는 표준이다.병렬 처리에서 정보를 교환할 때 필요한 기본적인 기능들과 문법, 그리고 프로그래밍 API에 대해 기술하고 있지만 구체적인 프로토콜이나 각각의 구현에 대한 것에 대해서는 기술하지 않는, 하나의 거시적인 테두리를 정해주는 표준으로 이해할 수 있다. 실제적인 MPI 애플리케이션은 서로 정보를 주고받는 여러개의 프로세스들로 이루어져 있는데, 이 각각의 프로세스들은 MPI 애플리케이션이 구동될 때에 모두 병렬적으로 시작된다. 이 각각의 프로세스들은 모두 하나의 문제를 풀기위해 한 프로세스에서 다른 프로세스로 데이터와 정보들을 필요에 따라 서로 주고 받게 된다. 이러한 원리의 장점은 하드웨어적으로 분산되어있는 컴퓨터들 간에도 이런 데이터와 정보들을 주고 받을 수 있다는 점이다. 그래서 특별히 병렬처리를 위해 만들어진 병렬 컴퓨터(공유 메모리를 지녔다거나, 인피니밴드 혹은 Myrinet 등을 통해 고속으로 정보를 주고받는 것이 가능하게 만들어진) 뿐만 아니라, (TCP를 통해 정보들이 교환되는) PC 들로 이루어진 PC 클러스터(PC-Cluster) 에서도 이런 병렬 MPI 프로그램들은 잘 돌아간다.터(PC-Cluster) 에서도 이런 병렬 MPI 프로그램들은 잘 돌아간다. , MPI (англ. Message Passing Interface, ІнтеMPI (англ. Message Passing Interface, Інтерфейс передачі повідомлень) — це специфікація, що була розроблена в 1993–1994 роках групою MPI Forum,і забезпечує реалізацію моделі обміну повідомленнями між процесами. Остання версія цієї специфікації: MPI-2. У моделі програмування MPI програма породжує кілька процесів, що взаємодіють між собою за допомогою виклику підпрограм прийому й передачі повідомлень. Зазвичай, при ініціалізації MPI-програми створюється фіксований набір процесів, причому (що, утім, необов'язково) кожний з них виконується на своєму процесорі. У цих процесах можуть виконуватися різні програми, тому MPI-модель іноді називають MIMD-моделлю (Multiple Instruction, Multiple Data), на відміну від SIMD моделі, де на кожному процесорі виконуються тільки однакові задачі. MPI підтримує двохточкові й глобальні, синхронні й асинхронні, блокуючі й неблокуючі типи комунікацій. Спеціальний механізм — комунікатор — ховає від програміста внутрішні комунікаційні структури. Структура комунікацій може змінюватися протягом часу життя процесу, але кількість задач має залишатися постійною (MPI-2 підтримує динамічну зміну кількості задач). Специфікація MPI забезпечує переносимість програм на рівні вихідних кодів. Підтримується робота на гетерогенних кластерах і симетричних мультипроцесорних системах. Не підтримується запуск процесів під час виконання MPI-програми. У специфікації відсутні опис паралельного вводу-виводу й налагодження програм — ці можливості можуть бути включені до складу конкретної реалізації MPI у вигляді додаткових пакетів чи утиліт. Сумісність різних реалізацій не гарантується. Важливою властивістю паралельної програми є детермінізм — програма має завжди давати однаковий результат для однакових наборів вхідних даних. Модель передачі повідомлень загалом такої властивості не має, оскільки не визначено порядок одержання повідомлень від двох процесів третім. Якщо ж один процес послідовно надсилає кілька повідомлень іншому процесу, MPI гарантує, що одержувач отримає їх саме в тому порядку, у якому вони були надіслані. Відповідальність за забезпечення детермінованого виконання програми покладається на програміста.ання програми покладається на програміста. , MPI (Message-Passing Interface, interfícieMPI (Message-Passing Interface, interfície de pas de missatges) és una especificació d'interfície de biblioteca en el que totes les operacions són expressades com a funcions, subrutines o mètodes enllaçats normalment als llenguatges C i Fortran. Cal destacar que aquesta especificació és la més utilitzada actualment per a la programació concurrent en entorns en la que la comunicació es fa a través de missatges i se la considera l'estàndard de referència. L'objectiu principal de l'MPI és formar un estàndard que sigui àmpliament utilitzat en programes que requereixin utilitzar missatges per comunicar-se, per això, la interfície intenta ser pràctica, portable, eficient i flexible per tal d'incrementar la productivitat a l'hora de fer aquest tipus d'algoritmes. Els altres objectius de l'MPI es poden trobar en la següent llista: 1. * Dissenyar una interfície de programació d'aplicacions 2. * Permetre una comunicació eficient: això s'assoleix evitant les còpies de memòria a memòria, permetent solapar la comunicació amb la computació i afegir sobrecarrega per permetre la comunicació dels co-processadors quan sigui possible 3. * Permetre que les implementacions es puguin utilitzar en entorns heterogenis 4. * Permetre dotar als llenguatges C i Fortran de directives convenients 5. * Assolir una interfície de comunicació fiable: l'usuari no necessita bregar amb els errors de les comunicacions, ja que aquestes comunicacions es fan en un subsistema de comunicació intern 6. * Definir una interfície que pugui ser implementada en qualsevol plataforma dels venedors sense haver de modificar les comunicacions internes i el software del sistema 7. * La semàntica de la interfície hauria de ser independent del llenguatge 8. * La interfície hauria de ser dissenyada per assegurar la seguretat dels threadsda per assegurar la seguretat dels threads , La interfaz de paso de mensajes o MPI (sigLa interfaz de paso de mensajes o MPI (sigla del inglés message passing interface) es un estándar que define la sintaxis y la semántica de las funciones contenidas en una biblioteca de paso de mensajes diseñada para ser usada en programas que exploten la existencia de múltiples procesadores, escritas generalmente en C, C++, Fortran y Ada. La ventaja de MPI sobre otras bibliotecas de paso de mensajes, es que los programas que utilizan la biblioteca son portables (dado que MPI ha sido implementado para casi toda arquitectura de memoria distribuida), y rápidos, (porque cada implementación de la biblioteca ha sido optimizada para el hardware en la cual se ejecuta).a para el hardware en la cual se ejecuta). , De Message Passing Interface (MPI) is een De Message Passing Interface (MPI) is een standaard voor een softwarebibliotheek die communicatie tussen processen vereenvoudigt en zo helpt bij het programmeren van (grootschalige) parallelle computers. Er bestaan MPI-interfaces voor de programmeertalen Fortran 77 en C, de meestgebruikte talen voor het programmeren van supercomputers. voor het programmeren van supercomputers. , 訊息傳遞介面(英語:Message Passing Interface,縮寫MPI)是一個平行計算的應用程式接口(API),常在超級電腦、電腦叢集等非共享內存環境程序設計。 , Message Passing Interface (MPI, z ang., inMessage Passing Interface (MPI, z ang., interfejs transmisji wiadomości) – protokół komunikacyjny będący standardem przesyłania komunikatów pomiędzy procesami działających na jednym lub więcej komputerach. Interfejs ten wraz z protokołem oraz semantyką specyfikuje, jak jego elementy winny się zachowywać w dowolnej implementacji. Celami MPI są wysoka jakość, skalowalność oraz przenośność. MPI jest dominującym modelem wykorzystywanym obecnie w klastrach komputerów oraz superkomputerach. Pierwsza wersja standardu ukazała się w maju 1994 r. Standard MPI implementowany jest najczęściej w postaci bibliotek, z których można korzystać w programach tworzonych w różnych językach programowania, np. C, C++, Ada, Fortran.h programowania, np. C, C++, Ada, Fortran. , Message Passing Interface (MPI) é um padrãMessage Passing Interface (MPI) é um padrão para comunicação de dados em computação paralela. Existem várias modalidades de computação paralela, e dependendo do problema que se está tentando resolver, pode ser necessário passar informações entre os vários processadores ou nodos de um cluster, e o MPI oferece uma infraestrutura para essa tarefa. No padrão MPI, uma aplicação é constituída por uma ou mais tarefas (as quais podem ser processos, ou threads, dependendo da implementação) que se comunicam, acionando-se funções para o envio e recebimento de mensagens entre os processos. Inicialmente, na maioria das implementações, um conjunto fixo de processos é criado. Porém, esses processos podem executar diferentes programas. Por isso, o padrão MPI é algumas vezes referido como MPMD (multiple program multiple data).Elementos importantes em implementações paralelas são a comunicação de dados entre processos paralelos e o balanceamento da carga. Dado o fato do número de processos no MPI ser normalmente fixo, neste texto é enfocado o mecanismo usado para comunicação de dados entre processos. Os processos podem usar mecanismos de comunicação ponto a ponto (operações para enviar mensagens de um determinado processo a outro). Um grupo de processos pode invocar operações coletivas (collective) de comunicação para executar operações globais. O MPI é capaz de suportar comunicação assíncrona e programação modular, através de mecanismos de comunicadores (communicator) que permitem ao usuário MPI definir módulos que encapsulem estruturas de comunicação interna. O objetivo de MPI é prover um amplo padrão para escrever programas com passagem de mensagens de forma prática, portátil, eficiente e flexível. MPI não é um IEEE ou um padrão ISO, mas chega a ser um padrão industrial para o desenvolvimento de programas com troca de mensagens.mento de programas com troca de mensagens. , Message Passing Interface (dále jen MPI) jMessage Passing Interface (dále jen MPI) je knihovna implementující stejnojmennou specifikaci (protokol) pro podporu paralelního řešení výpočetních problémů v počítačových clusterech. Konkrétně se jedná o rozhraní pro vývoj aplikací (API) založené na zasílání zpráv mezi jednotlivými uzly. Jedná se jak o zprávy typu point-to-point, tak o globální operace. Knihovna podporuje jak architektury se sdílenou pamětí, tak s pamětí distribuovanou (dnes častější). Z pohledu referenčního modelu ISO/OSI je protokol posazen do páté, tedy relační vrstvy, přičemž většina implementací používá jako transportní protokol TCP. Toto API je nezávislé na programovacím jazyce, neboť se jedná především o síťový protokol. Nejčastěji se však setkáme s implementací v C, C++, Javě, Pythonu, Fortranu a výjimkou není ani podpora přímo na úrovni hardwaru. Při návrhu celého rozhraní i při jeho implementaci byl vždy kladen důraz především na výkon, škálovatelnost a přenositelnost. K nevýhodám, ale zároveň také výhodám této knihovny patří její nízkoúrovňový přístup. Nehodí se tedy pro rychlý vývoj aplikací (RAD), ale spíše pro aplikace, kde je rozhodující rychlost běhu aplikace, což je ale pro paralelní systémy typické. To je i možná důvodem, proč se stala v této oblasti de-facto standardem. Ke standardizačnímu řízení u některé ze známých organizací zabývajících se standardy, jako např. ISO, IEEE apod., však zatím nedošlo.např. ISO, IEEE apod., však zatím nedošlo. , Message Passing Interface(メッセージ パッシング インターMessage Passing Interface(メッセージ パッシング インターフェース、MPI)とは、並列コンピューティングを利用するための標準化された規格である。実装自体を指すこともある。 複数のCPUが情報をバイト列からなるメッセージとして送受信することで協調動作を行えるようにする。自由に使用できる実装としてはMPICHが有名である。他にも商用ベンダなどによる独自の実装が存在する。 ライブラリレベルでの並列化であるため、言語を問わず利用でき、プログラマが細密なチューニングを行えるというメリットがある一方、利用にあたっては明示的に手続きを記述する必要があり、ロックの対処などもプログラマ側が大きな責任をもたなければならない。 業界団体や研究者らのメンバからなる MPI Forum によって規格が明確に定義されているため、ある環境で作成したプログラムが他の環境でも動作することが期待できる。されているため、ある環境で作成したプログラムが他の環境でも動作することが期待できる。 , Message Passing Interface (MPI) ist ein StMessage Passing Interface (MPI) ist ein Standard, der den Nachrichtenaustausch bei parallelen Berechnungen auf verteilten Computersystemen beschreibt. Er legt dabei eine Sammlung von Operationen und ihre Semantik, also eine Programmierschnittstelle fest, aber keine Implementierung. Eine MPI-Applikation besteht in der Regel aus mehreren miteinander kommunizierenden Prozessen, die alle zu Beginn der Programmausführung parallel gestartet werden. Alle diese Prozesse arbeiten dann gemeinsam an einem Problem und nutzen zum Datenaustausch Nachrichten, welche explizit von einem zum anderen Prozess geschickt werden. Ein Vorteil dieses Prinzips ist es, dass der Nachrichtenaustausch auch über Rechnergrenzen hinweg funktioniert. Parallele MPI-Programme sind somit sowohl auf PC-Clustern (hier funktioniert der Austausch der Nachrichten z. B. über TCP), als auch auf dedizierten Parallelrechnern ausführbar (hier läuft der Nachrichtenaustausch über ein Hochgeschwindigkeitsnetz wie InfiniBand oder Myrinet oder über den gemeinsamen Hauptspeicher). oder über den gemeinsamen Hauptspeicher). , Message Passing Interface (MPI, интерфейс Message Passing Interface (MPI, интерфейс передачи сообщений) — программный интерфейс (API) для передачи информации, который позволяет обмениваться сообщениями между процессами, выполняющими одну задачу. Разработан Уильямом Гроуппом, и другими. MPI является наиболее распространённым стандартом интерфейса обмена данными впараллельном программировании, существуют его реализации для большого числа компьютерных платформ. Используется при разработке программ для кластеров и суперкомпьютеров. Основным средством коммуникации между процессами в MPI является передача сообщений друг другу. Стандартизацией MPI занимается . В стандарте MPI описан интерфейс передачи сообщений, который должен поддерживаться как на платформе, так и в приложениях пользователя. В настоящее время существует большое количество бесплатных и коммерческих реализаций MPI. Существуют реализации для языков Фортран 77/90, Java, Си и C++. В первую очередь MPI ориентирован на системы с распределенной памятью, то есть когда затраты на передачу данных велики, в то время как OpenMP ориентирован на системы с общей памятью (многоядерные с общим кэшем). Обе технологии могут использоваться совместно, чтобы оптимально использовать в кластере многоядерные системы.ользовать в кластере многоядерные системы. , Message Passing Interface (MPI) is a standMessage Passing Interface (MPI) is a standardized and portable message-passing standard designed to function on parallel computing architectures. The MPI standard defines the syntax and semantics of library routines that are useful to a wide range of users writing portable message-passing programs in C, C++, and Fortran. There are several open-source MPI implementations, which fostered the development of a parallel software industry, and encouraged development of portable and scalable large-scale parallel applications.calable large-scale parallel applications. , Il Message Passing Interface (MPI) è un prIl Message Passing Interface (MPI) è un protocollo di comunicazione per computer. È di fatto lo standard per la comunicazione tra nodi appartenenti a un cluster di computer che eseguono un programma parallelo multi-nodo. MPI rispetto alle precedenti librerie utilizzate per il passaggio di parametri tra nodi, ha il vantaggio di essere molto portabile (MPI è stata implementata per moltissime architetture parallele) e veloce (MPI viene ottimizzato per ogni architettura).Lo standard, alla versione 3.1, definisce la sintassi delle chiamate MPI per i linguaggi C e Fortran. chiamate MPI per i linguaggi C e Fortran. , Message Passing Interface (MPI) est un outMessage Passing Interface (MPI) est un outil pour le calcul scientifique à haute performance qui permet d'utiliser plusieurs ordinateurs. C'est une norme conçue en 1993-94 pour le passage de messages entre ordinateurs distants ou dans un ordinateur multiprocesseur. Elle est devenue de facto un standard de communication pour des nœuds exécutant des programmes parallèles sur des systèmes à mémoire distribuée. Elle définit une bibliothèque de fonctions, utilisable avec les langages C, C++ et Fortran. MPI a été écrite pour obtenir de bonnes performances aussi bien sur des machines massivement parallèles à mémoire partagée que sur des clusters d'ordinateurs hétérogènes à mémoire distribuée. Elle est disponible sur de très nombreux matériels et systèmes d'exploitation. Ainsi, MPI possède l'avantage par rapport aux plus vieilles bibliothèques de passage de messages d'être grandement portable (car MPI a été implémentée sur presque toutes les architectures de mémoires) et rapide (car chaque implémentation a été optimisée pour le matériel sur lequel il s'exécute). Depuis 1997, une nouvelle version de MPI est disponible, MPI-2, qui apporte quelques puissantes[évasif] fonctionnalités supplémentaires[Lesquels ?]. Depuis 2015, une nouvelle version de MPI est disponible, MPI-3, qui apporte des écritures parallèles dans les fichiers. Depuis 2020, une nouvelle version de MPI est disponible, MPI-4, qui apporte le RDMA et la prévision de détection automatique en cas de panne. (MPI Forum)n automatique en cas de panne. (MPI Forum) , واجهة تمرير الرسائل (بالإنجليزية: Message واجهة تمرير الرسائل (بالإنجليزية: Message Passing Interface MPI)‏ هي واجهة برمجة التطبيقات التي تسمح للأعمال (processes) بالتواصل فيما بينها من خلال تبادل رسائل. الطريقة مستعملة أيضا بين البرمجيات المتوازية مشغلة على حاسوب عملاق أو حيث الوصول لذاكرة غير محلية مكلف للغاية. يرجع الفضل في تطوير الواجهة إلى ويليام جروب وإروين لوسك وغيرهما. قد يحتاج المبرمج لحل مشاكل ضخمة، والتعامل مع مجال ذاكري أكبر، أو ربما قد يحتاج ببساطة لحل مشاكل بسرعة أكبر من الممكن تحقيقها على حواسيب تسلسلية. بالإمكان عندها الانتقال إلى البرمجة التفرعية والحواسيب التفرعية للتعامل مع هذه الاحتياجات. إن استخدام أساليب البرمجة التفرعية على حواسيب تفرعية يمنحك الوصول لموارد ذاكرية أكبر وموارد وحدة المعالجة المركزية CPU غير متاحة على حواسيب تسلسلية. أحد الأساليب الأساسية في البرمجة التفرعية هو استخدام مكتبات تمرير الرسائل. تؤمن هذه المكتبات إدارة نقل المعطيات بين مقاطع من برامج تفرعية تعمل (عادةً) على معالجات متعددة في بنية حوسبة تفرعيةً) على معالجات متعددة في بنية حوسبة تفرعية
http://dbpedia.org/ontology/wikiPageExternalLink http://polaris.cs.uiuc.edu/~padua/cs320/mpi/tutorial.pdf + , http://www-unix.mcs.anl.gov/dbpp/text/node94.html%23SECTION03500000000000000000 + , http://www.daniweb.com/forums/post1428830.html%23post1428830 + , http://www.netlib.org/utk/papers/mpi-book/mpi-book.html + , https://www.mpi-forum.org/docs/mpi-3.1/mpi31-report/mpi31-report.htm + , http://www.cs.usfca.edu/mpi/ + , https://web.archive.org/web/20080119023608/http:/www.redbooks.ibm.com/abstracts/sg245380.html + , http://moss.csc.ncsu.edu/~mueller/cluster/mpi.guide.pdf + , https://www.mpi-forum.org/ + , https://archive.org/details/usingmpiportable00grop + , https://www.mpi-forum.org/docs/mpi-3.1/mpi31-report.pdf + , https://www.citutor.org/bounce.php%3Fcourse=21 + , https://ieeexplore.ieee.org/abstract/document/342126/ + , https://web.archive.org/web/20010803093058/http:/mitpress.mit.edu/book-home.tcl%3Fisbn=0262571234 + , https://books.google.com/books%3F&id=tCVkM1z2aOoC + , https://books.google.com/books%3F&id=zMqVdFgVnrgC + , http://mitpress.mit.edu/books/using-mpi-2 + , http://mitpress.mit.edu/books/using-mpi-second-edition + , http://mitpress.mit.edu/books/using-mpi-third-edition +
http://dbpedia.org/ontology/wikiPageID 221466
http://dbpedia.org/ontology/wikiPageLength 50915
http://dbpedia.org/ontology/wikiPageRevisionID 1112449606
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Flat_memory_model + , http://dbpedia.org/resource/University_of_Tennessee + , http://dbpedia.org/resource/MPICH + , http://dbpedia.org/resource/MVAPICH + , http://dbpedia.org/resource/Parallel_computing + , http://dbpedia.org/resource/Record_locking + , http://dbpedia.org/resource/Fortran + , http://dbpedia.org/resource/Indiana_University + , http://dbpedia.org/resource/Programming_language_implementation + , http://dbpedia.org/resource/MIT_Press + , http://dbpedia.org/resource/Process_%28computing%29 + , http://dbpedia.org/resource/Open_MPI + , http://dbpedia.org/resource/Low-level_programming_language + , http://dbpedia.org/resource/High-level_programming_language + , http://dbpedia.org/resource/C_%28programming_language%29 + , http://dbpedia.org/resource/French_Alternative_Energies_and_Atomic_Energy_Commission + , http://dbpedia.org/resource/MATLAB + , http://dbpedia.org/resource/NetCDF + , http://dbpedia.org/resource/National_Science_Foundation + , http://dbpedia.org/resource/Microsoft_Messaging_Passing_Interface + , http://dbpedia.org/resource/Tony_Hey + , http://dbpedia.org/resource/Julia_%28programming_language%29 + , http://dbpedia.org/resource/Peer-to-peer + , http://dbpedia.org/resource/Endianness + , http://dbpedia.org/resource/Shared_memory_%28interprocess_communication%29 + , http://dbpedia.org/resource/Network_interface_controller + , http://dbpedia.org/resource/OpenMP + , http://dbpedia.org/resource/Common_Language_Infrastructure + , http://dbpedia.org/resource/Java_Native_Interface + , http://dbpedia.org/resource/Data_pointer + , http://dbpedia.org/resource/Communication_protocol + , http://dbpedia.org/resource/CPU + , http://dbpedia.org/resource/Co-array_Fortran + , http://dbpedia.org/resource/Concurrent_computer + , http://dbpedia.org/resource/P2P-MPI + , http://dbpedia.org/resource/Language_Independent_Specification + , http://dbpedia.org/resource/Thread_safe + , http://dbpedia.org/resource/Actor_model + , http://dbpedia.org/resource/TOP-500 + , http://dbpedia.org/resource/Memory_segmentation + , http://dbpedia.org/resource/MPICH2 + , http://dbpedia.org/resource/Library_routine + , http://dbpedia.org/resource/Processor-in-memory + , http://dbpedia.org/resource/Rmpi + , http://dbpedia.org/resource/Memory_hierarchy + , http://dbpedia.org/resource/Ohio_Supercomputer_Center + , http://dbpedia.org/resource/Programming_with_Big_Data_in_R + , http://dbpedia.org/resource/Transmission_Control_Protocol + , http://dbpedia.org/resource/NCUBE + , http://dbpedia.org/resource/De_facto + , http://dbpedia.org/resource/Parallel_Virtual_Machine + , http://dbpedia.org/resource/Blocking_%28computing%29 + , http://dbpedia.org/resource/Hewlett-Packard + , http://dbpedia.org/resource/Fortran_90 + , http://dbpedia.org/resource/Charm%2B%2B + , http://dbpedia.org/resource/PARI/GP + , http://dbpedia.org/resource/API + , http://dbpedia.org/resource/Distributed_memory + , http://dbpedia.org/resource/Multi-core_%28computing%29 + , http://dbpedia.org/resource/Caltech_Cosmic_Cube + , http://dbpedia.org/resource/Master-slave_%28technology%29 + , http://dbpedia.org/resource/MPI_Forum + , http://dbpedia.org/resource/Broadcasting_%28computing%29 + , http://dbpedia.org/resource/Asynchronous_i/o + , http://dbpedia.org/resource/OSI_Reference_Model + , http://dbpedia.org/resource/Matrix_multiplication + , http://dbpedia.org/resource/Myrinet + , http://dbpedia.org/resource/Category:Application_programming_interfaces + , http://dbpedia.org/resource/Application_binary_interface + , http://dbpedia.org/resource/Python_%28programming_language%29 + , http://dbpedia.org/resource/Synchronization_%28computer_science%29 + , http://dbpedia.org/resource/Semantics + , http://dbpedia.org/resource/De_facto_standard + , http://dbpedia.org/resource/Object-oriented_programming + , http://dbpedia.org/resource/Random-access_memory + , http://dbpedia.org/resource/Serialization + , http://dbpedia.org/resource/Synchronization + , http://dbpedia.org/resource/Bulk_synchronous_parallel + , http://dbpedia.org/resource/DARPA + , http://dbpedia.org/resource/Apache_Flink + , http://dbpedia.org/resource/Bilateral_synchronization + , http://dbpedia.org/resource/Microsoft + , http://dbpedia.org/resource/Cast_%28computer_science%29 + , http://dbpedia.org/resource/OCaml + , http://dbpedia.org/resource/Computer_architecture + , http://dbpedia.org/resource/Runtime_system + , http://dbpedia.org/resource/NEC + , http://dbpedia.org/resource/CentOS + , http://dbpedia.org/resource/Graph_%28data_structure%29 + , http://dbpedia.org/resource/Open-source + , http://dbpedia.org/resource/Syntax_%28programming_languages%29 + , http://dbpedia.org/resource/Software_portability + , http://dbpedia.org/resource/Category:Articles_with_example_C_code + , http://dbpedia.org/resource/Sun_Microsystems + , http://dbpedia.org/resource/Jack_Dongarra + , http://dbpedia.org/resource/Mississippi_State_University + , http://dbpedia.org/resource/Data_parallelism + , http://dbpedia.org/resource/Distributed_shared_memory + , http://dbpedia.org/resource/Collective_operation + , http://dbpedia.org/resource/Supercomputer + , http://dbpedia.org/resource/Pthreads + , http://dbpedia.org/resource/%22Hello%2C_World%21%22_program + , http://dbpedia.org/resource/Topology_%28disambiguation%29 + , http://dbpedia.org/resource/Apache_Spark + , http://dbpedia.org/resource/Cartesian_tree + , http://dbpedia.org/resource/Boost_C%2B%2B_Libraries + , http://dbpedia.org/resource/BSD + , http://dbpedia.org/resource/C%2B%2B + , http://dbpedia.org/resource/Java_%28programming_language%29 + , http://dbpedia.org/resource/Multi-core_processor + , http://dbpedia.org/resource/Master/slave_%28technology%29 + , http://dbpedia.org/resource/OpenHMPP + , http://dbpedia.org/resource/Multithreading_%28computer_architecture%29 + , http://dbpedia.org/resource/PyMPI + , http://dbpedia.org/resource/Language_binding + , http://dbpedia.org/resource/Remote_direct_memory_access + , http://dbpedia.org/resource/Williamsburg%2C_Virginia + , http://dbpedia.org/resource/Intel + , http://dbpedia.org/resource/Symmetric_multiprocessing + , http://dbpedia.org/resource/Software_industry + , http://dbpedia.org/resource/Exascale_computing + , http://dbpedia.org/resource/Unified_Parallel_C + , http://dbpedia.org/resource/Chapel_%28programming_language%29 + , http://dbpedia.org/resource/.NET_Framework + , http://dbpedia.org/resource/Mono_%28software%29 + , http://dbpedia.org/resource/Message-passing + , http://dbpedia.org/resource/X10_%28programming_language%29 + , http://dbpedia.org/resource/Data_structure_alignment + , http://dbpedia.org/resource/LAM/MPI + , http://dbpedia.org/resource/Shared_memory + , http://dbpedia.org/resource/C_Sharp_%28programming_language%29 + , http://dbpedia.org/resource/Non-Uniform_Memory_Access + , http://dbpedia.org/resource/SPMD + , http://dbpedia.org/resource/Parallel_machine + , http://dbpedia.org/resource/Control_Language + , http://dbpedia.org/resource/Parallel_computers + , http://dbpedia.org/resource/Cohesion_%28computer_science%29 + , http://dbpedia.org/resource/Argonne_National_Laboratory + , http://dbpedia.org/resource/High-performance_computing + , http://dbpedia.org/resource/Partitioned_global_address_space + , http://dbpedia.org/resource/Private_industry + , http://dbpedia.org/resource/HDF5 + , http://dbpedia.org/resource/Category:Parallel_computing + , http://dbpedia.org/resource/ScientificPython + , http://dbpedia.org/resource/Apache_Hadoop + , http://dbpedia.org/resource/Coupling_%28computer_science%29 + , http://dbpedia.org/resource/IBM + , http://dbpedia.org/resource/R_%28programming_language%29 + , http://dbpedia.org/resource/ANSI_C + , http://dbpedia.org/resource/European_Commission + , http://dbpedia.org/resource/Locality_of_reference + , http://dbpedia.org/resource/Global_Arrays + , http://dbpedia.org/resource/Communication + , http://dbpedia.org/resource/Parallel_programming + , http://dbpedia.org/resource/Internet_socket +
http://dbpedia.org/property/date April 2015 , October 2021 , August 2022
http://dbpedia.org/property/part section
http://dbpedia.org/property/reason The new features of the MPI-3 are not wellThe new features of the MPI-3 are not well described. According to the specification: "MPI-3 standard contains significant extensions to MPI functionality, including nonblocking collectives, new one-sided communication operations, and Fortran 2008 bindings."on operations, and Fortran 2008 bindings." , What is an "outstanding" operation? , MPI-4.0 was approved by the MPI Forum in June 2021
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Dmoz + , http://dbpedia.org/resource/Template:Unreferenced_section + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:FOLDOC + , http://dbpedia.org/resource/Template:Anchor + , http://dbpedia.org/resource/Template:ISBN + , http://dbpedia.org/resource/Template:Wikibooks + , http://dbpedia.org/resource/Template:Clarify + , http://dbpedia.org/resource/Template:Parallel_computing + , http://dbpedia.org/resource/Template:As_of + , http://dbpedia.org/resource/Template:Update + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Citation_needed + , http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Expand_section + , http://dbpedia.org/resource/Template:Div_col + , http://dbpedia.org/resource/Template:Div_col_end +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Parallel_computing + , http://dbpedia.org/resource/Category:Articles_with_example_C_code + , http://dbpedia.org/resource/Category:Application_programming_interfaces +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/System +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Message_Passing_Interface?oldid=1112449606&ns=0 +
http://xmlns.com/foaf/0.1/homepage https://www.mpi-forum.org/docs/mpi-3.1/mpi31-report.pdf +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Message_Passing_Interface +
owl:sameAs http://lt.dbpedia.org/resource/Message_Passing_Interface + , http://es.dbpedia.org/resource/Interfaz_de_Paso_de_Mensajes + , http://ko.dbpedia.org/resource/%EB%A9%94%EC%8B%9C%EC%A7%80_%EC%A0%84%EB%8B%AC_%EC%9D%B8%ED%84%B0%ED%8E%98%EC%9D%B4%EC%8A%A4 + , http://cs.dbpedia.org/resource/Message_Passing_Interface + , http://uk.dbpedia.org/resource/Message_Passing_Interface + , http://no.dbpedia.org/resource/Meldingsoverf%C3%B8ringsgrensesnitt + , http://pt.dbpedia.org/resource/Message_Passing_Interface + , http://yago-knowledge.org/resource/Message_Passing_Interface + , https://global.dbpedia.org/id/JyJD + , http://zh.dbpedia.org/resource/%E8%A8%8A%E6%81%AF%E5%82%B3%E9%81%9E%E4%BB%8B%E9%9D%A2 + , http://dbpedia.org/resource/Message_Passing_Interface + , http://ca.dbpedia.org/resource/Message_Passing_Interface + , http://nl.dbpedia.org/resource/Message_Passing_Interface + , http://ar.dbpedia.org/resource/%D9%88%D8%A7%D8%AC%D9%87%D8%A9_%D8%AA%D9%85%D8%B1%D9%8A%D8%B1_%D8%A7%D9%84%D8%B1%D8%B3%D8%A7%D8%A6%D9%84 + , http://www.wikidata.org/entity/Q127879 + , http://de.dbpedia.org/resource/Message_Passing_Interface + , http://fa.dbpedia.org/resource/%D8%B1%D8%A7%D8%A8%D8%B7_%D9%81%D8%B1%D8%B3%D8%AA%D8%A7%D8%AF%D9%86_%D9%BE%DB%8C%D8%A7%D9%85 + , http://tr.dbpedia.org/resource/MPI + , http://ru.dbpedia.org/resource/Message_Passing_Interface + , http://pl.dbpedia.org/resource/Message_Passing_Interface + , http://fr.dbpedia.org/resource/Message_Passing_Interface + , http://ja.dbpedia.org/resource/Message_Passing_Interface + , http://sk.dbpedia.org/resource/Message_Passing_Interface + , http://vi.dbpedia.org/resource/Giao_th%E1%BB%A9c_truy%E1%BB%81n_th%C3%B4ng_%C4%91i%E1%BB%87p + , http://it.dbpedia.org/resource/Message_Passing_Interface + , http://rdf.freebase.com/ns/m.01gb80 +
rdf:type http://dbpedia.org/class/yago/Protocol106665108 + , http://dbpedia.org/class/yago/WikicatNetworkProtocols + , http://dbpedia.org/class/yago/Direction106786629 + , http://dbpedia.org/class/yago/Rule106652242 + , http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/WrittenCommunication106349220 + , http://dbpedia.org/class/yago/CodingSystem106353757 + , http://dbpedia.org/class/yago/Writing106359877 + , http://dbpedia.org/class/yago/Software106566077 + , http://dbpedia.org/class/yago/Code106355894 + , http://dbpedia.org/class/yago/Communication100033020 +
rdfs:comment Message Passing Interface (MPI) ist ein StMessage Passing Interface (MPI) ist ein Standard, der den Nachrichtenaustausch bei parallelen Berechnungen auf verteilten Computersystemen beschreibt. Er legt dabei eine Sammlung von Operationen und ihre Semantik, also eine Programmierschnittstelle fest, aber keine Implementierung.ttstelle fest, aber keine Implementierung. , Message Passing Interface(メッセージ パッシング インターMessage Passing Interface(メッセージ パッシング インターフェース、MPI)とは、並列コンピューティングを利用するための標準化された規格である。実装自体を指すこともある。 複数のCPUが情報をバイト列からなるメッセージとして送受信することで協調動作を行えるようにする。自由に使用できる実装としてはMPICHが有名である。他にも商用ベンダなどによる独自の実装が存在する。 ライブラリレベルでの並列化であるため、言語を問わず利用でき、プログラマが細密なチューニングを行えるというメリットがある一方、利用にあたっては明示的に手続きを記述する必要があり、ロックの対処などもプログラマ側が大きな責任をもたなければならない。 業界団体や研究者らのメンバからなる MPI Forum によって規格が明確に定義されているため、ある環境で作成したプログラムが他の環境でも動作することが期待できる。されているため、ある環境で作成したプログラムが他の環境でも動作することが期待できる。 , Message Passing Interface (MPI) é um padrãMessage Passing Interface (MPI) é um padrão para comunicação de dados em computação paralela. Existem várias modalidades de computação paralela, e dependendo do problema que se está tentando resolver, pode ser necessário passar informações entre os vários processadores ou nodos de um cluster, e o MPI oferece uma infraestrutura para essa tarefa.erece uma infraestrutura para essa tarefa. , De Message Passing Interface (MPI) is een De Message Passing Interface (MPI) is een standaard voor een softwarebibliotheek die communicatie tussen processen vereenvoudigt en zo helpt bij het programmeren van (grootschalige) parallelle computers. Er bestaan MPI-interfaces voor de programmeertalen Fortran 77 en C, de meestgebruikte talen voor het programmeren van supercomputers. voor het programmeren van supercomputers. , Message Passing Interface (MPI, z ang., inMessage Passing Interface (MPI, z ang., interfejs transmisji wiadomości) – protokół komunikacyjny będący standardem przesyłania komunikatów pomiędzy procesami działających na jednym lub więcej komputerach. Interfejs ten wraz z protokołem oraz semantyką specyfikuje, jak jego elementy winny się zachowywać w dowolnej implementacji. Celami MPI są wysoka jakość, skalowalność oraz przenośność. MPI jest dominującym modelem wykorzystywanym obecnie w klastrach komputerów oraz superkomputerach. Pierwsza wersja standardu ukazała się w maju 1994 r. Standard MPI implementowany jest najczęściej w postaci bibliotek, z których można korzystać w programach tworzonych w różnych językach programowania, np. C, C++, Ada, Fortran.h programowania, np. C, C++, Ada, Fortran. , 訊息傳遞介面(英語:Message Passing Interface,縮寫MPI)是一個平行計算的應用程式接口(API),常在超級電腦、電腦叢集等非共享內存環境程序設計。 , MPI (Message-Passing Interface, interfícieMPI (Message-Passing Interface, interfície de pas de missatges) és una especificació d'interfície de biblioteca en el que totes les operacions són expressades com a funcions, subrutines o mètodes enllaçats normalment als llenguatges C i Fortran. Cal destacar que aquesta especificació és la més utilitzada actualment per a la programació concurrent en entorns en la que la comunicació es fa a través de missatges i se la considera l'estàndard de referència. Els altres objectius de l'MPI es poden trobar en la següent llista:'MPI es poden trobar en la següent llista: , واجهة تمرير الرسائل (بالإنجليزية: Message واجهة تمرير الرسائل (بالإنجليزية: Message Passing Interface MPI)‏ هي واجهة برمجة التطبيقات التي تسمح للأعمال (processes) بالتواصل فيما بينها من خلال تبادل رسائل. الطريقة مستعملة أيضا بين البرمجيات المتوازية مشغلة على حاسوب عملاق أو حيث الوصول لذاكرة غير محلية مكلف للغاية. يرجع الفضل في تطوير الواجهة إلى ويليام جروب وإروين لوسك وغيرهما.واجهة إلى ويليام جروب وإروين لوسك وغيرهما. , 메시지 전달 인터페이스(Message Passing Interface, MPI)는 분산 및 병렬 처리에서 정보의 교환에 대해 기술하는 표준이다.병렬 처리에서 정보를 교환할 때 필요한 기본적인 기능들과 문법, 그리고 프로그래밍 API에 대해 기술하고 있지만 구체적인 프로토콜이나 각각의 구현에 대한 것에 대해서는 기술하지 않는, 하나의 거시적인 테두리를 정해주는 표준으로 이해할 수 있다. , Message Passing Interface (MPI) est un outMessage Passing Interface (MPI) est un outil pour le calcul scientifique à haute performance qui permet d'utiliser plusieurs ordinateurs. C'est une norme conçue en 1993-94 pour le passage de messages entre ordinateurs distants ou dans un ordinateur multiprocesseur. Elle est devenue de facto un standard de communication pour des nœuds exécutant des programmes parallèles sur des systèmes à mémoire distribuée. Elle définit une bibliothèque de fonctions, utilisable avec les langages C, C++ et Fortran.sable avec les langages C, C++ et Fortran. , Message Passing Interface (MPI, интерфейс Message Passing Interface (MPI, интерфейс передачи сообщений) — программный интерфейс (API) для передачи информации, который позволяет обмениваться сообщениями между процессами, выполняющими одну задачу. Разработан Уильямом Гроуппом, и другими. MPI является наиболее распространённым стандартом интерфейса обмена данными впараллельном программировании, существуют его реализации для большого числа компьютерных платформ. Используется при разработке программ для кластеров и суперкомпьютеров. Основным средством коммуникации между процессами в MPI является передача сообщений друг другу.PI является передача сообщений друг другу. , La interfaz de paso de mensajes o MPI (sigLa interfaz de paso de mensajes o MPI (sigla del inglés message passing interface) es un estándar que define la sintaxis y la semántica de las funciones contenidas en una biblioteca de paso de mensajes diseñada para ser usada en programas que exploten la existencia de múltiples procesadores, escritas generalmente en C, C++, Fortran y Ada. La ventaja de MPI sobre otras bibliotecas de paso de mensajes, es que los programas que utilizan la biblioteca son portables (dado que MPI ha sido implementado para casi toda arquitectura de memoria distribuida), y rápidos, (porque cada implementación de la biblioteca ha sido optimizada para el hardware en la cual se ejecuta).a para el hardware en la cual se ejecuta). , Message Passing Interface (dále jen MPI) jMessage Passing Interface (dále jen MPI) je knihovna implementující stejnojmennou specifikaci (protokol) pro podporu paralelního řešení výpočetních problémů v počítačových clusterech. Konkrétně se jedná o rozhraní pro vývoj aplikací (API) založené na zasílání zpráv mezi jednotlivými uzly. Jedná se jak o zprávy typu point-to-point, tak o globální operace. Knihovna podporuje jak architektury se sdílenou pamětí, tak s pamětí distribuovanou (dnes častější). Z pohledu referenčního modelu ISO/OSI je protokol posazen do páté, tedy relační vrstvy, přičemž většina implementací používá jako transportní protokol TCP.ací používá jako transportní protokol TCP. , Il Message Passing Interface (MPI) è un prIl Message Passing Interface (MPI) è un protocollo di comunicazione per computer. È di fatto lo standard per la comunicazione tra nodi appartenenti a un cluster di computer che eseguono un programma parallelo multi-nodo. MPI rispetto alle precedenti librerie utilizzate per il passaggio di parametri tra nodi, ha il vantaggio di essere molto portabile (MPI è stata implementata per moltissime architetture parallele) e veloce (MPI viene ottimizzato per ogni architettura).Lo standard, alla versione 3.1, definisce la sintassi delle chiamate MPI per i linguaggi C e Fortran. chiamate MPI per i linguaggi C e Fortran. , MPI (англ. Message Passing Interface, ІнтеMPI (англ. Message Passing Interface, Інтерфейс передачі повідомлень) — це специфікація, що була розроблена в 1993–1994 роках групою MPI Forum,і забезпечує реалізацію моделі обміну повідомленнями між процесами. Остання версія цієї специфікації: MPI-2. У моделі програмування MPI програма породжує кілька процесів, що взаємодіють між собою за допомогою виклику підпрограм прийому й передачі повідомлень.підпрограм прийому й передачі повідомлень. , Message Passing Interface (MPI) is a standMessage Passing Interface (MPI) is a standardized and portable message-passing standard designed to function on parallel computing architectures. The MPI standard defines the syntax and semantics of library routines that are useful to a wide range of users writing portable message-passing programs in C, C++, and Fortran. There are several open-source MPI implementations, which fostered the development of a parallel software industry, and encouraged development of portable and scalable large-scale parallel applications.calable large-scale parallel applications.
rdfs:label Message Passing Interface , Interfaz de Paso de Mensajes , 訊息傳遞介面 , 메시지 전달 인터페이스 , واجهة تمرير الرسائل
hide properties that link here 
http://dbpedia.org/resource/Programming_with_Big_Data_in_R + http://dbpedia.org/ontology/influencedBy
http://dbpedia.org/resource/Jack_Dongarra + http://dbpedia.org/ontology/knownFor
http://dbpedia.org/resource/FHI-aims + , http://dbpedia.org/resource/Tinker_%28software%29 + http://dbpedia.org/ontology/programmingLanguage
http://dbpedia.org/resource/MPI + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/MPI-IO + , http://dbpedia.org/resource/Mpicc + , http://dbpedia.org/resource/Message_passing_interface + , http://dbpedia.org/resource/MPI-1 + , http://dbpedia.org/resource/MPI-3 + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Julia_%28programming_language%29 + , http://dbpedia.org/resource/NetCDF + , http://dbpedia.org/resource/MapReduce + , http://dbpedia.org/resource/Neuron_%28software%29 + , http://dbpedia.org/resource/IBM_Blue_Gene + , http://dbpedia.org/resource/LAM/MPI + , http://dbpedia.org/resource/ScaLAPACK + , http://dbpedia.org/resource/HBJ_model + , http://dbpedia.org/resource/Model_checking + , http://dbpedia.org/resource/FHI-aims + , http://dbpedia.org/resource/Folding@home + , http://dbpedia.org/resource/Marc_Snir + , http://dbpedia.org/resource/Microsoft_Message_Passing_Interface + , http://dbpedia.org/resource/Windows_HPC_Server_2008 + , http://dbpedia.org/resource/MPI-IO + , http://dbpedia.org/resource/Partitioned_global_address_space + , http://dbpedia.org/resource/Coarray_Fortran + , http://dbpedia.org/resource/Message_passing + , http://dbpedia.org/resource/SHMEM + , http://dbpedia.org/resource/Global_Arrays + , http://dbpedia.org/resource/Message_passing_in_computer_clusters + , http://dbpedia.org/resource/UPCRC_Illinois + , http://dbpedia.org/resource/HPC_Challenge_Benchmark + , http://dbpedia.org/resource/POWER7 + , http://dbpedia.org/resource/RMG_%28program%29 + , http://dbpedia.org/resource/Sun_Visualization_System + , http://dbpedia.org/resource/ScientificPython + , http://dbpedia.org/resource/NVLink + , http://dbpedia.org/resource/UsNIC + , http://dbpedia.org/resource/Virtual_machine + , http://dbpedia.org/resource/Sandia_National_Laboratories + , http://dbpedia.org/resource/Multi-core_processor + , http://dbpedia.org/resource/Inter-process_communication + , http://dbpedia.org/resource/Graph_%28abstract_data_type%29 + , http://dbpedia.org/resource/FFTW + , http://dbpedia.org/resource/MDynaMix + , http://dbpedia.org/resource/Orac_%28MD_program%29 + , http://dbpedia.org/resource/Gerris_%28software%29 + , http://dbpedia.org/resource/Multi-simulation_coordinator + , http://dbpedia.org/resource/Global_Environmental_Multiscale_Model + , http://dbpedia.org/resource/Computational_magnetohydrodynamics + , http://dbpedia.org/resource/Thread_%28computing%29 + , http://dbpedia.org/resource/OpenMP + , http://dbpedia.org/resource/History_of_supercomputing + , http://dbpedia.org/resource/Quadrics_%28company%29 + , http://dbpedia.org/resource/Platform_Computing + , http://dbpedia.org/resource/Parsytec + , http://dbpedia.org/resource/MD5 + , http://dbpedia.org/resource/Fast_multipole_method + , http://dbpedia.org/resource/In-situ_processing + , http://dbpedia.org/resource/SiCortex + , http://dbpedia.org/resource/LAMMPS + , http://dbpedia.org/resource/Bulk_synchronous_parallel + , http://dbpedia.org/resource/Automatic_parallelization_tool + , http://dbpedia.org/resource/Absoft_Fortran_Compilers + , http://dbpedia.org/resource/Deal.II + , http://dbpedia.org/resource/Globus_Toolkit + , http://dbpedia.org/resource/Cray_X1 + , http://dbpedia.org/resource/Lightweight_Kernel_Operating_System + , http://dbpedia.org/resource/Gang_scheduling + , http://dbpedia.org/resource/Cray_XD1 + , http://dbpedia.org/resource/Apache_Hama + , http://dbpedia.org/resource/MCSim + , http://dbpedia.org/resource/MUMPS_%28software%29 + , http://dbpedia.org/resource/Swift_%28parallel_scripting_language%29 + , http://dbpedia.org/resource/TITAN2D + , http://dbpedia.org/resource/Portable%2C_Extensible_Toolkit_for_Scientific_Computation + , http://dbpedia.org/resource/Portals_network_programming_application_programming_interface + , http://dbpedia.org/resource/Sun_Microsystems + , http://dbpedia.org/resource/BLAST_%28biotechnology%29 + , http://dbpedia.org/resource/Illustris_project + , http://dbpedia.org/resource/Event_loop + , http://dbpedia.org/resource/List_of_computer_standards + , http://dbpedia.org/resource/Beowulf_cluster + , http://dbpedia.org/resource/Bill_Gropp + , http://dbpedia.org/resource/LINPACK_benchmarks + , http://dbpedia.org/resource/Single_system_image + , http://dbpedia.org/resource/NUPACK + , http://dbpedia.org/resource/Charm%2B%2B + , http://dbpedia.org/resource/Mpicc + , http://dbpedia.org/resource/CFD-DEM + , http://dbpedia.org/resource/Prefix_sum + , http://dbpedia.org/resource/Hyper-threading + , http://dbpedia.org/resource/ROCm + , http://dbpedia.org/resource/Roadrunner_%28supercomputer%29 + , http://dbpedia.org/resource/List_of_Folding@home_cores + , http://dbpedia.org/resource/Intel_Cluster_Ready + , http://dbpedia.org/resource/Rocks_Cluster_Distribution + , http://dbpedia.org/resource/List_of_finite_element_software_packages + , http://dbpedia.org/resource/NAS_Parallel_Benchmarks + , http://dbpedia.org/resource/Stone_Soupercomputer + , http://dbpedia.org/resource/CFD-DEM_model + , http://dbpedia.org/resource/Message_passing_interface + , http://dbpedia.org/resource/Pencil_Code + , http://dbpedia.org/resource/Elmer_FEM_solver + , http://dbpedia.org/resource/Tony_Hey + , http://dbpedia.org/resource/Superlubricity + , http://dbpedia.org/resource/SU2_code + , http://dbpedia.org/resource/MPI + , http://dbpedia.org/resource/Performance_Analyzer + , http://dbpedia.org/resource/Simple_API_for_Grid_Applications + , http://dbpedia.org/resource/Parallel_Virtual_Machine + , http://dbpedia.org/resource/CS-ROSETTA + , http://dbpedia.org/resource/Supercomputer + , http://dbpedia.org/resource/Distributed_shared_memory + , http://dbpedia.org/resource/Computer_cluster + , http://dbpedia.org/resource/Prolog + , http://dbpedia.org/resource/Programming_with_Big_Data_in_R + , http://dbpedia.org/resource/GROMACS + , http://dbpedia.org/resource/Linda_%28coordination_language%29 + , http://dbpedia.org/resource/Magerit + , http://dbpedia.org/resource/Active_message + , http://dbpedia.org/resource/MPICH + , http://dbpedia.org/resource/MVAPICH + , http://dbpedia.org/resource/FEniCS_Project + , http://dbpedia.org/resource/University_of_Illinois_Department_of_Computer_Science + , http://dbpedia.org/resource/ADCIRC + , http://dbpedia.org/resource/Directory-based_coherence + , http://dbpedia.org/resource/Octeract_Engine + , http://dbpedia.org/resource/Algorithmic_efficiency + , http://dbpedia.org/resource/Data_parallelism + , http://dbpedia.org/resource/Intel_Advisor + , http://dbpedia.org/resource/Intel_Parallel_Studio + , http://dbpedia.org/resource/Quantum_ESPRESSO + , http://dbpedia.org/resource/List_of_concurrent_and_parallel_programming_languages + , http://dbpedia.org/resource/OpenWebGlobe + , http://dbpedia.org/resource/Algorithmic_skeleton + , http://dbpedia.org/resource/EFDC_Explorer + , http://dbpedia.org/resource/List_of_performance_analysis_tools + , http://dbpedia.org/resource/List_of_quantum_chemistry_and_solid-state_physics_software + , http://dbpedia.org/resource/Octopus_%28software%29 + , http://dbpedia.org/resource/NEST_%28software%29 + , http://dbpedia.org/resource/Lis_%28linear_algebra_library%29 + , http://dbpedia.org/resource/Kerrighed + , http://dbpedia.org/resource/Tinker_%28software%29 + , http://dbpedia.org/resource/Trilinos + , http://dbpedia.org/resource/Mira_%28supercomputer%29 + , http://dbpedia.org/resource/PFUnit + , http://dbpedia.org/resource/Discrete_dipole_approximation + , http://dbpedia.org/resource/Arm_DDT + , http://dbpedia.org/resource/Arm_MAP + , http://dbpedia.org/resource/Intel_Debugger + , http://dbpedia.org/resource/Brutus_cluster + , http://dbpedia.org/resource/FLEXPART + , http://dbpedia.org/resource/Scalasca + , http://dbpedia.org/resource/Single_program%2C_multiple_data + , http://dbpedia.org/resource/Parareal + , http://dbpedia.org/resource/Broadcast_%28parallel_pattern%29 + , http://dbpedia.org/resource/Two-tree_broadcast + , http://dbpedia.org/resource/Bitpit + , http://dbpedia.org/resource/Collective_operation + , http://dbpedia.org/resource/Reduction_operator + , http://dbpedia.org/resource/Parallel_breadth-first_search + , http://dbpedia.org/resource/HP-UX + , http://dbpedia.org/resource/Windows_Server_2003 + , http://dbpedia.org/resource/Loop-level_parallelism + , http://dbpedia.org/resource/MCAPI + , http://dbpedia.org/resource/Parallel_computing + , http://dbpedia.org/resource/Cell-based_models + , http://dbpedia.org/resource/Computational_science + , http://dbpedia.org/resource/MPI-1 + , http://dbpedia.org/resource/MPI-3 + , http://dbpedia.org/resource/IPython + , http://dbpedia.org/resource/FreeFem%2B%2B + , http://dbpedia.org/resource/FreeMat + , http://dbpedia.org/resource/ISP_Formal_Verification_Tool + , http://dbpedia.org/resource/Explicit_parallelism + , http://dbpedia.org/resource/MADNESS + , http://dbpedia.org/resource/VSim + , http://dbpedia.org/resource/Process_%28computing%29 + , http://dbpedia.org/resource/List_of_computer_scientists + , http://dbpedia.org/resource/Summit_%28supercomputer%29 + , http://dbpedia.org/resource/Open_MPI + , http://dbpedia.org/resource/Center_for_the_Simulation_of_Advanced_Rockets + , http://dbpedia.org/resource/Graph500 + , http://dbpedia.org/resource/PyMPI + , http://dbpedia.org/resource/GPU_cluster + , http://dbpedia.org/resource/Slurm_Workload_Manager + , http://dbpedia.org/resource/HTCondor + , http://dbpedia.org/resource/Transmission-line_matrix_method + , http://dbpedia.org/resource/Global_Address_Space_Programming_Interface + , http://dbpedia.org/resource/HPX + , http://dbpedia.org/resource/SLEPc + , http://dbpedia.org/resource/Hypre + , http://dbpedia.org/resource/Torus_fusion + , http://dbpedia.org/resource/Broadcasting_%28networking%29 + , http://dbpedia.org/resource/Intel_Fortran_Compiler + , http://dbpedia.org/resource/GridRPC + , http://dbpedia.org/resource/OnlineHPC + , http://dbpedia.org/resource/Scatternet + , http://dbpedia.org/resource/Python_SCOOP_%28software%29 + , http://dbpedia.org/resource/Transcriptomics_technologies + , http://dbpedia.org/resource/MFEM + , http://dbpedia.org/resource/Paradiseo + , http://dbpedia.org/resource/Jack_Dongarra + , http://dbpedia.org/resource/MPI-2 + http://dbpedia.org/ontology/wikiPageWikiLink
http://dbpedia.org/resource/Charm%2B%2B + http://dbpedia.org/property/platform
http://dbpedia.org/resource/FHI-aims + http://dbpedia.org/property/programmingLanguage
http://dbpedia.org/resource/MPICH + http://dbpedia.org/property/standard
http://en.wikipedia.org/wiki/Message_Passing_Interface + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Message_Passing_Interface + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.