DREBES Andi
Direction de recherche : Nathalie DRACH-TEMAM
Co-encadrement : HEYDEMANN Karine
Parallélisation adaptative pour les applications embarquées haute-performance
Au milieu des années deux mille, le développement de microprocesseurs a atteint un point à partir duquel l'augmentation de la fréquence de fonctionnement et la complexification des micro-architectures devenaient moins efficaces en termes de consommation d'énergie, poussant ainsi la densité d'énergie au delà du raisonnable. Par conséquent, l'industrie a opté pour des architectures multi-cœurs intégrant plusieurs unités de calcul sur une même puce. Les sytèmes hautes performances d'aujourd'hui sont composés de centaines de cœurs et les systèmes futurs intègreront des milliers d'unités de calcul. Afin de fournir une bande passante mémoire suffisante dans ces systèmes, la mémoire vive est distribuée physiquement sur plusieurs contrôleurs mémoire avec un accès non-uniforme à la mémoire (NUMA).
Des travaux de recherche récents ont identifié les modèles de programmation à base de tâches dépendantes à granularité fine comme une approche clé pour exploiter la puissance de calcul des architectures généralistes massivement parallèles. Toutefois, peu de recherches ont été conduites sur l'optimisation dynamique des programmes parallèles à base de tâches afin de réduire l'impact négatif sur les performances résultant de la non-uniformité des accès à la mémoire. L'objectif de cette thèse est de déterminer les enjeux et les opportunités concernant l'exploitation efficace de machines many-core NUMA par des applications à base de tâches et de proposer des mécanismes efficaces, portables et entièrement automatiques pour le placement de tâches et de données, améliorant la localité des accès à la mémoire ainsi que les performances. Les décisions de placement sont basées sur l'exploitation des informations sur les dépendances entre tâches disponibles dans les run-times de langages de programmation à base de tâches modernes. Les évaluations expérimentales réalisées reposent sur notre implémentation dans le run-time du langage OpenStream et un ensemble de benchmarks scientifiques hautes performances. Enfin, nous avons développé et implémenté Aftermath, un outil d'analyse et de débogage de performances pour des applications à base de tâches et leurs run-times.
Soutenance : 25/06/2015
Membres du jury :
M. Jean-François MÉHAUT, Professeur, Université Joseph Fourier / CEA, [Rapporteur]
M. Nacho NAVARRO, Associate Professor, Universitat Politècnica de Catalunya / Barcelona Supercomputing Center, [Rapporteur]
M. Albert COHEN, Directeur de Recherche, INRIA
M. Benoît DUPONT DE DINECHIN, CTO Kalray S.A.
Mme. Nathalie DRACH-TÉMAM, Professeur, Université Pierre et Marie Curie
Mme. Karine HEYDEMANN, Maître de Conférences, Université Pierre et Marie Curie
M. Raymond NAMYST, Professeur, Université de Bordeaux
M. Antoniu POP, Lecturer, The University of Manchester
M. Pierre SENS, Professeur, Université Pierre et Marie Curie
M. Marc SHAPIRO, Directeur de Recherche, INRIA / LIP6
Publications 2014-2016
-
2016
- A. Drebes, J.‑B. Bréjon, A. Pop, K. Heydemann, A. Cohen : “Language-Centric Performance Analysis of OpenMP Programs with Aftermath”, IWOMP 2016 - 12th International Workshop on OpenMP, vol. 9903, Lecture Notes in Computer Science, Nara, Japan, pp. 237-250, (Springer) (2016)
- A. Drebes, A. Pop, K. Heydemann, A. Cohen, N. Drach : “Scalable Task Parallelism for NUMA: A Uniform Abstraction for Coordinated Scheduling and Memory Management”, PACT'16 - ACM/IEEE Conference on Parallel Architectures and Compilation Techniques, Haifa, Israel, pp. 125-137 (2016)
- A. Drebes, A. Pop, K. Heydemann, N. Drach, A. Cohen : “NUMA-aware scheduling and memory allocation for data-flow task-parallel applications”, ACM SIGPLAN Symposium on Principles and Practice of Parallel Programming, Barcelona, Spain, pp. 44:1-44:2, (ACM New York, NY, USA) (2016)
- A. Drebes, A. Pop, K. Heydemann, A. Cohen : “Interactive visualization of cross-layer performance anomalies in dynamic task-parallel applications and systems”, IEEE International Symposium on Performance Analysis of Systems and Software (ISPASS), Uppsala, Sweden, pp. 274-283 (2016)
-
2015
- A. Drebes : “Parallélisation adaptative pour les applications embarquées haute-performance”, soutenance de thèse, soutenance 25/06/2015, direction de recherche Drach-temam, Nathalie, co-encadrement : Heydemann, Karine (2015)
- A. Drebes, K. Heydemann, A. Pop, A. Cohen, N. Drach : “Automatic Detection of Performance Anomalies in Task-Parallel Programs”, 1st Workshop on Resource Awareness and Adaptivity in Multi-Core Computing (Racing 2014), Paderborn, Germany (2015)
-
2014
- A. Drebes, K. Heydemann, N. Drach, A. Pop, A. Cohen : “Topology-Aware and Dependence-Aware Scheduling and Memory Allocation for Task-Parallel Languages”, ACM Transactions on Architecture and Code Optimization, vol. 11 (3), pp. 30, (Association for Computing Machinery) (2014)
- A. Drebes, K. Heydemann, N. Drach, P. Antoniu, A. Cohen : “Aftermath: Performance analysis of task-parallel applications on many-core NUMA systems”, Tenth International Summer School on Advanced Computer Architecture and Compilation for High-Performance and Embedded Systems, Fiuggi, Italy (2014)
- A. Drebes, A. Pop, K. Heydemann, A. Cohen, N. Drach : “Aftermath: A graphical tool for performance analysis and debugging of fine-grained task-parallel programs and run-time systems”, Seventh Workshop on Programmability Issues for Heterogeneous Multicores (MULTIPROG-2014), Vienna, Austria (2014)