Zo ziet een supercomputer eruit: bezoek aan het Barcelona Supercomputer Center met Lenovo

Door


Inleiding

Van een 'supercomputer' is het lastig een beeld te krijgen als je er niet mee te maken hebt, en de mensen die dat doen vormen een vrij select gezelschap van vooral wetenschappers en medewerkers van (hele) grote bedrijven. Toch spreken deze machines, waarvan de rekenkracht wordt uitgedrukt in petaflops, tot de verbeelding: supercomputers vertegenwoordigen de state of the art. Toen Lenovo ons vroeg eens een kijkje te komen nemen bij het Barcelona Supercomputer Center, gingen we daar dan ook graag op in.


Wellicht denk je bij een supercomputer aan een mainframe, een soort monolithische, kolossale computer die een complete verdieping van een gebouw in beslag neemt. Dan zit je aardig in de buurt, maar tegenwoordig zijn supercomputers vrijwel zonder uitzondering zogenaamde clusters van 'gewone' computers, die middens zeer snelle interfaces met elkaar verbonden zijn en als één geheel functioneren, met dien verstande dat de werking gedistribueerd is. Dat wil zeggen dat een complex vraagstuk wordt opgedeeld in een groot aantal deelproblemen, die worden berekend door afzonderlijke nodes binnen de supercomputer; de antwoorden worden samengevoegd om uiteindelijk tot één resultaat te komen. 


MareNostrum IV

Vraag je het aan een organisatie als Intersect360, een onderzoeksbureau gespecialiseerd in High Performance Computing, dan zijn supercomputers het topje van een ijsberg van buitengewoon krachtige clustersystemen, die het definieert als de HPC-markt. Daarbinnen zijn supercomputers de machines die meer dan 1,5 miljoen dollar kosten. Ook met die definitie zijn supercomputers nog een zeer gevarieerd segment, want bij 1,5 miljoen dollar begint het pas. De hierboven getoonde MareNostrum IV, die we konden bezichtigen in het Barcelona Supercomputer Center, kostte bijvoorbeeld meer dan 40 miljoen dollar.

Prijs lijkt een wat arbitraire manier om een productcategorie die zo uiteen kan lopen te definiëren, maar het is wel een overzichtelijke methode. De Top500-organisatie bijvoorbeeld vereist alleen dat machines een voldoende hoge score in de Linpack-benchmark kunnen neerzetten, en publiceert een regelmatig bijgewerkt overzicht van de snelste 500. Waar het daarbij echter geen onderscheid maakt, is of de machines in kwestie daadwerkelijk in de praktijk functioneren als supercomputer of alleen voor het behalen van een score tijdelijk samenwerken in een cluster, en evenmin wordt er gekeken naar de dichtheid (ruwweg te omschrijven als het aantal rekenkernen per vierkante meter) en zelfs niet of het gaat om een vaste of tijdelijke installatie.

Het aantal 'nodes' oftewel eenheden (= computers) binnen een supercomputer is ook niet indicatief, want het zegt op zichzelf weinig over de rekenkracht, die eerder wordt bepaald door het aantal cores in de betreffende computers. Een systeem met een kleiner aantal nodes kan met voldoende krachtige processors met een groot aantal cores alsnog sneller zijn dan een systeem met meer nodes (maar minder of minder krachtige cores). 

Datacenter, HPC en hyperscale

In de basis zien supercomputers eruit als een datacenter: ruimtes met racks, gevuld met rekeneenheden, opslag en netwerkswitches. Het ene datacenter is echter het andere niet. Wat supercomputers onderscheidt, is dat alle onderdelen ervan samenwerken. Een ander verschil is dat het voor HPC een vereiste is dat de opslag zo dicht mogelijk bij de rekeneenheden (compute units) is geplaatst - vrijwel zonder uitzondering werken supercomputers aan workloads waarbij enorme hoeveelheden data moeten worden verwerkt, en die moeten zo snel mogelijk kunnen worden benaderd.

Zodoende onderscheidt het genoemde Intersect360 binnen de datacentermarkt enerzijds de HPC-markt (goed voor 35,5 miljard dollar in 2017) en anderzijds wat het de hyperscale markt noemt: (hele grote) datacenters voor andere toepassingen, die in 2017 goed was voor 44 miljard dollar omzet. Bij hyperscale toepassingen gaat het niet per se louter om gebundelde rekenkracht, maar om het zo snel en goed mogelijk leveren van een dienst, waarbij data gedupliceerd en gesynchroniseerd wordt over meerdere locaties teneinde wachttijden voor gebruikers te minimaliseren. Voorbeelden van hyperscale toepassingen zijn bijvoorbeeld te vinden bij Google en Facebook, cloudnetwerken als Amazon AWS en Microsoft Azure waarop weer een keur aan toepassingen kan draaien, en grote content delivery netwerken waar Netflix een mooi voorbeeld is van een partij die grote hoeveelheden met elkaar verbonden servers wereldwijd inzet voor zijn dienstverlening. 

Waar er een flink aantal leveranciers is van rackservers, zijn er maar een paar grote spelers in de HPC-markt, waarvan IBM, HPE, Fujitsu, Cray, Dell EMC, Atos/Bull en dus Lenovo de voornaamste zijn. Daarnaast bouwen sommige organisaties, zoals universiteiten, een aantal supercomputers in eigen beheer, en zien we in de top-500 ook de nodige keren fabrikanten als Quanta en Wywinn terugkomen, die binnen de gehele datacentermark groter zijn dan in het HPC-segment. Een aardige noot is dat supercomputing in de cloud, dus het inzetten van grote hoeveelheden nodes binnen bijvoorbeeld Amazon Web Services om te rekenen aan één specifieke taak, de afgelopen jaren een flinke vlucht heeft genomen - maar binnen de hele markt blijft het een klein onderdeel in vergelijking met dedicated HPC-installaties zoals die in het Barcelona Supercomputer Center. Het is vooral een mooie manier om een eenmalige, korte workload uit te voeren - bijvoorbeeld voor eindscripties van studenten in allerlei disciplines, die zo een alternatief hebben voor lang wachten op tijd op een supercomputer van het eigen instituut.


Lees ook deze systeem artikelen op Hardware.Info

Vond je deze review nuttig?

Lees dan voortaan onze uitgebreidste reviews als eerste én steun deze site, met een abonnement op Hardware.Info Magazine - nu ook alleen digitaal beschikbaar!

Hardware.Info maakt gebruik van cookies.
*