Programmation parallèle : NVidia lance la version 5 de CUDA
CUDA est aujourd'hui l'un des modèles de programmation les plus utilisés dans l'environnement GPU NVidia.
NVIDIA a dévoilé aujourd’hui la version finale de CUDA 5, la dernière version de sa plate-forme de programmation parallèle pour ses accélérateurs GPU Tesla et cartes graphiques GeForce. CUDA s'est imposé au cours des dernières années comme le modèle de programmation le plus populaire pour les accélérateurs graphiques de la firme même si NVidia soutient aussi d'autres modèles de programmation comme la programmation par directive (qui est par exemple une spécialité du français CAPS) Dans sa version actuelle, CUDA est utilisé dans plus de 180 applications d'ingénierie, scientifiques et commerciales, selon Nvidia. L’un des travaux du constructeur pour cette nouvelle mouture a été d’adapter la plate-forme aux évolutions de sa dernière génération d’accélérateurs graphiques. CUDA 5 tire ainsi parti des capacités de parallélisme dynamique des derniers accélérateurs de la génération « Kepler » et prend en charge la technologie NVIDIA GPUDirect™ qui permet à deux accélérateurs d’échanger via RDMA. Le support de CUDA 5 est aussi intégré à l’environnement de développement NVIDIA Nsight édition Eclipse pour Linux et Mac OS X (ce qui permet notamment de bénéficier d’une mise en évidence de la syntaxe CUDA dans le code d’un programme). Dévoilées lors de la Conférence technologique de Nvidia en mai dernier, les capacités de parallélisme dynamique des accélérateurs Kepler permettent à un GPU d’instancier de son propre chef de nouveaux threads en fonction des données à traiter, sans avoir à reboucler avec le processeur central. Cette capacité permet au GPU de prendre en charge un plus large jeu d’algorithmes de calcul notamment dans le domaine de la mécanique des fluides. Une autre avancée est la prise en charge de GPUDirect, qui permet à plusieurs accélérateurs de communiquer entre eux via RDMA via un lien Ethernet rapide. La technologie conçue par Nvidia permet notamment de réduire la latence des messages MPI entre nœuds GPU d’un cluster. L’inscription au programme développeur CUDA est gratuite et permet d’accéder aux outils, librairies et tutoriels proposés par le constructeur