Faculté informatique et communications IC, Section d'informatique, Institut des systèmes informatiques et multimédias ISIM (Laboratoire de systèmes périphériques LSP)

Three topics in parallel communications

Gabrielyan, Emin ; Hersch, Roger-David (Dir.)

Thèse sciences Ecole polytechnique fédérale de Lausanne EPFL : 2006 ; no 3660.

Ajouter à la liste personnelle
    Summary
    The main objectives pursued by parallelism in communications are network capacity enhancement and fault-tolerance. Efficiently enhancing the capacity of a network by parallel communications is a non-trivial task. Some applications may also allow one to split the sources and destinations into multiple sources and destinations. An example is parallel Input/Output (I/O). Parallel I/O requires scalability, high throughput and good load balance. Low granularity enables good load balance but tends to reduce throughput. In this thesis we combine fine granularity with scalable high throughput. The network overhead can be reduced and the network throughput can be increased by aggregation of data into large messages. Parallel transmissions from multiple sources to multiple destinations traverse the network through many different paths which have numerous intersections in the network. In low latency high performance networks, serious congestions occur due to large indivisible messages competing for shared resources. We propose to optimally schedule parallel communications by taking into account the network topology. The developed liquid scheduling method optimally uses the potential transmission capacity of a network. Fault-tolerance is typically achieved by maintaining backup communication resources, which are kept idle as long as the primary resource is operational. A challenging idea, inspired by nature, is to simultaneously use all parallel resources. This idea is applied to fine-grained packetized communications. It also relies on erasure resilient codes for combating network failures.
    Résumé
    Les communications parallèles ont pour objectif d'augmenter la capacité ainsi que la tolérance aux pannes des réseaux de transmission de données. Augmenter efficacement la capacité d'un réseau par des communications parallèles est une tâche non triviale, car les liens de communication parallèles peuvent être disposés selon une topologie arbitraire et peuvent partager certaines ressources. Certaines applications permettent aussi de séparer des sources et destinations uniques en multiples sources et destinations. Les entrées/sorties (E/S) parallèles constituent un tel exemple. Les E/S parallèles doivent permettre la croissance du système, un débit élevé, et un bon équilibrage des charges. Une granularité faible permet un bon équilibrage des charges, mais tend à réduire le débit. Dans cette thèse, nous combinons une granularité fine avec un débit élevé tout en permettant la croissance du système. L'agrégation des données dans des messages de grande taille permet d'augmenter le débit tout en réduisant les surcoûts sur le réseau. Des transmissions parallèles de sources multiples vers des destinations multiples traversent le réseau par de nombreux chemins s'intersectant en de nombreux points. Dans des réseaux haute-performance à faible latence, des congestions importantes sont causées par de gros messages indivisibles en compétition pour des ressources partagées. Nous proposons d'ordonnancer les communications parallèles de manière optimale en prenant en considération la topologie du réseau. La méthode d'ordonnancement liquide (liquid scheduling) développée utilise au maximum les capacités de transmission potentielles du réseau. La tolérance aux pannes est généralement obtenue en maintenant des ressources de communication supplémentaires qui ne sont pas utilisées tant que la ressource principale est opérationnelle. Une idée stimulante, inspirée par la nature, est d'utiliser simultanément toutes les ressources disponibles. Cette idée est appliquée à des communications par paquets à granularité fine. Elle s'appuie aussi sur des codages permettant de compenser les pertes d'informations lors des pannes du réseau.