Le terme « superordinateur » renvoie à un ordinateur dont les performances sont supérieures à celles d’un ordinateur standard. Cela signifie souvent que les superordinateurs ont une architecture, des ressources et des composants qui les rendent extrêmement puissants et leur permettent de fonctionner à des vitesses opérationnelles égales ou presque aux vitesses maximales.
Les superordinateurs incluent la plupart des composants clés d’un ordinateur classique, dont au moins un processeur, des périphériques, des connecteurs, un système d’exploitation et différentes applications. La principale différence entre un superordinateur et un ordinateur standard est sa puissance de traitement.
Historiquement, les superordinateurs étaient des machines individuelles ultrarapides, utilisées essentiellement par de grandes entreprises et des organismes scientifiques nécessitant une puissance de traitement gigantesque pour des calculs à très grande vitesse. Aujourd’hui en revanche, les superordinateurs peuvent se composer de dizaines de milliers de processeurs capables d’effectuer des milliards, voire des billions de calculs par seconde.
Actuellement, les superordinateurs sont couramment utilisés pour les prévisions météorologiques, le contrôle des opérations des réacteurs nucléaires et la cryptologie. Leur coût ayant baissé, les superordinateurs modernes sont également utilisés pour les études de marché, les jeux en ligne et les applications de réalité virtuelle et augmentée.
En 1964, Seymour Cray et son équipe d’ingénieurs de Control Data Corporation (CDC) créaient le premier superordinateur, le CDC 6600. À cette époque, le CDC 6600 était dix fois plus rapide que les ordinateurs ordinaires et trois fois plus rapide que son plus proche concurrent, l’IBM 7030 Stretch : sa vitesse de calcul pouvait atteindre trois millions d'opérations en virgule flottante par seconde (flops). Aujourd’hui, cela peut sembler lent, mais à l’époque, la machine était suffisamment rapide pour être qualifiée de « superordinateur ».
Connu comme le « père du superordinateur », Seymour Cray et son équipe sont restés en pointe dans ce secteur, avec le CDC 7600 commercialisé en 1969 (160 mégaFLOPS), le Cray X-MP en 1982 (800 mégaFLOPS) et le Cray 2 en 1985 (1,9 gigaFLOPS).
Par la suite, afin de rendre les superordinateurs plus abordables, d’autres sociétés ont mis au point la technologie de traitement massivement parallèle (MPP, Massively Parallel Processing). En 1992, Don Becker et Thomas Sterling, qui travaillaient pour la NASA, ont construit un superordinateur composé d’une grappe d’ordinateurs fonctionnant ensemble et baptisé le Beowulf. Le Beowulf était le premier superordinateur à utiliser un modèle en grappe.
Aujourd’hui, les superordinateurs utilisent à la fois des unités centrales (CPU) et des processeurs graphiques (GPU) qui s’associent pour réaliser des calculs. Dans le TOP500 des superordinateurs, le Fugaku, installé à Kobe, au Japon, au RIKEN Center for Computational Science, est classé comme le superordinateur le plus rapide du monde, avec une vitesse de traitement de 442 petaFLOPS.
Avec les superordinateurs actuels, la puissance de calcul est agrégée de façon à offrir des performances nettement supérieures à celles d’un poste de travail ou d’un serveur individuel, ce qui permet de résoudre des problèmes complexes dans le domaine technique, scientifique ou commercial.
Contrairement aux PC ordinaires, les superordinateurs modernes se composent d’énormes grappes de serveurs, avec un ou plusieurs CPU regroupés en nœuds de calcul. Ces nœuds de calcul forment un processeur (ou un groupe de processeurs) et un bloc mémoire peut contenir des dizaines de milliers de nœuds. Les nœuds sont connectés entre eux, ce qui leur permet de communiquer et de travailler ensemble sur des tâches spécifiques, tandis que les processus sont répartis ou exécutés simultanément sur des milliers de processeurs.
La performance d’un superordinateur se mesure en FLOPS, tout comme les opérations scientifiques qui utilisent des calculs en virgule flottante, autrement dit des nombres si élevés qu’ils doivent être exprimés à l’aide d’exposants.
Le FLOPS est une unité de mesure plus précise que le million d’instructions par seconde (MIPS). Comme indiqué plus haut, les superordinateurs actuels les plus rapides atteignent des débits supérieurs à cent quadrillions de FLOPS (petaFLOPS).
Zéro matériel, zéro configuration, zéro frais = zéro problème. Essayez une instance de Pure1® en libre-service pour gérer Pure FlashBlade™, la solution native scale-out la plus avancée du secteur pour le stockage de fichiers et d’objets.
Un superordinateur peut contenir des milliers de nœuds qui communiquent entre eux et résolvent les problèmes grâce au traitement parallèle. Mais il existe en fait deux formes de traitement parallèle : le multitraitement symétrique (SMP) et le traitement massivement parallèle (MPP).
Dans l’approche SMP, les processeurs partagent la mémoire et le bus E/S ou le chemin d’accès aux données. Pour le SMP, on parle également de système multiprocesseur étroitement couplé ou de système « shared-everything ».
L’approche MPP, elle, consiste à coordonner le traitement d’un programme entre plusieurs processeurs travaillant simultanément sur différentes parties de ce programme. Chaque processeur utilise son propre système d’exploitation et sa propre mémoire. Les processeurs MPP communiquent à l’aide d’une interface de messagerie qui leur permet d’échanger des messages. Un système MPP peut être complexe et nécessiter de bonnes connaissances sur le partitionnement d’une base de données commune et la répartition des tâches entre les différents processeurs. Pour les systèmes MPP, on parle de systèmes « faiblement couplés » ou « shared nothing ».
Le système SMP a pour avantage de permettre aux organisations de desservir plus rapidement un plus grand nombre d’utilisateurs grâce à l’équilibrage dynamique de la charge de travail entre les différents ordinateurs. Les SMP sont jugés plus adaptés que les systèmes MPP au traitement transactionnel en ligne (OLTP), où un grand nombre d’utilisateurs accèdent à la même base de données (par ex., traitement de transactions simples). Les systèmes MPP, eux, sont préférables aux SMP pour les applications nécessitant des recherches parallèles dans plusieurs bases de données (par exemple, systèmes d’aide à la décision et applications de data warehouse).
Les superordinateurs se divisent en deux catégories : superordinateurs d’usage général ou spécialisés. La catégorie des superordinateurs d’usage général se divise elle-même en trois sous-groupes :
les superordinateurs spécialisés sont des superordinateurs construits pour réaliser une tâche ou atteindre un objectif précis. En général, ils utilisent des circuits intégrés de type ASIC pour assurer de meilleures performances (par exemple, Deep Blue et Hydra ont tous deux été créés pour jouer, notamment aux échecs).
Du fait de leurs avantages évidents, les superordinateurs sont largement utilisés dans le domaine de l’ingénierie ou de la recherche scientifique, entre autres. Voici quelques cas d’utilisation :
La science des superordinateurs est parfois utilisée comme synonyme de calcul haute performance (HPC). Mais il serait plus juste de dire qu’un superordinateur est une solution de HPC, la notion de HPC renvoyant au traitement des calculs complexes et massifs utilisés par les superordinateurs.
Le HPC permet de synchroniser des calculs utilisant de gros volumes de données entre plusieurs superordinateurs reliés en réseau. De cette façon, les calculs complexes utilisant des jeux de données volumineux peuvent être traités beaucoup plus rapidement qu’avec des ordinateurs classiques.
Les superordinateurs actuels sont utilisés dans des domaines et pour des tâches très variés. Pour tirer leur épingle de l’expansion rapide du métavers, certains géants technologiques mondiaux développent des superordinateurs spécialisés dans l’IA.
Les solutions de stockage doivent donc non seulement permettre une récupération rapide des données pour garantir des vitesses de calcul extrêmement élevées, mais également être suffisamment évolutives pour gérer des charges de travail d’IA à grande échelle exigeant de hautes performances.
Les technologies de réalité virtuelle et de réalité augmentée nécessitent d’importants volumes de données. De même pour les technologies d’appui, comme la 5G, l’apprentissage machine (ML), l’Internet des objets (Iot) et les réseaux neuronaux.
La baie Pure Storage® FlashArray//XL offre des performances et une efficacité supérieures pour les charges de travail des grandes entreprises, tandis que FlashBlade® est la solution de stockage 100 % flash la plus avancée du secteur. Toutes deux offrent une solution de stockage robuste et évolutive capable d’alimenter les superordinateurs les plus rapides du moment.
Les deux plateformes sont disponibles dans le cadre de la solution gérée de stockage à la demande Pure as-a-Service™, basée sur un modèle d’abonnement simple qui permet d’ajouter de la capacité de stockage en fonction des besoins.
Vous ne payez que pour la capacité consommée, vous obtenez la capacité souhaitée au moment voulu, et vous disposez d’un système qui reste à la pointe sans la moindre interruption. Contactez-nous sans attendre pour en savoir plus.
Vous avez des questions ou des commentaires concernant des produits ou certifications Pure ? Nous sommes là pour vous aider.
Planifiez une démo en direct et découvrez comment Pure peut vous aider à transformer vos données.
Tél. : +33 1 89 96 04 00
Services Médias : pr@purestorage.com
Pure Storage France
32 rue Guersant
75017 Paris