Dans le contexte actuel, le parallélisme prend des formes très différentes, du multi-cœur d’un ordinateur personnel, aux milliers (voire bientôt millions) de processeurs d’un calculateur à haute performance. Dans une machine massivement parallèle, le parallélisme doit de plus être abordé de façon hiérarchique pour prendre en compte les différents modes de communication (mémoire partagée, passage de messages) utilisés selon la position réciproque des différents cœurs de calcul : entre deux cœurs sur une même puce, deux puces sur une même carte, deux cartes distantes, etc., le mode et la vitesse de communication peuvent alors changer d’ordre de grandeur.
Aux niveaux les plus élevés, le mode de communication entre processeurs, la possible hétérogénéité de leurs architectures, amènent à une convergence entre systèmes parallèles et distribués. Le plein usage de ces nouvelles possibilités ne peut être permis que par le recours à de nouvelles techniques, pour lesquelles les membres du laboratoire présentent une expertise reconnue.