Zo ziet een supercomputer eruit: bezoek aan het Barcelona Supercomputer Center met Lenovo

Inhoudsopgave
  1. 1. Inleiding
  2. 2. Opbouw van een supercomputer
  3. 3. BSC MareNostrum IV
  4. 4. Toepassingen
  5. 5. De toekomst: exascale
  6. 6. Foto's
  7. 7. Reacties

Inleiding

Van een 'supercomputer' is het lastig een beeld te krijgen als je er niet mee te maken hebt, en de mensen die dat doen vormen een vrij select gezelschap van vooral wetenschappers en medewerkers van (hele) grote bedrijven. Toch spreken deze machines, waarvan de rekenkracht wordt uitgedrukt in petaflops, tot de verbeelding: supercomputers vertegenwoordigen de state of the art. Toen Lenovo ons vroeg eens een kijkje te komen nemen bij het Barcelona Supercomputer Center, gingen we daar dan ook graag op in.

Wellicht denk je bij een supercomputer aan een mainframe, een soort monolithische, kolossale computer die een complete verdieping van een gebouw in beslag neemt. Dan zit je aardig in de buurt, maar tegenwoordig zijn supercomputers vrijwel zonder uitzondering zogenaamde clusters van 'gewone' computers, die middens zeer snelle interfaces met elkaar verbonden zijn en als één geheel functioneren, met dien verstande dat de werking gedistribueerd is. Dat wil zeggen dat een complex vraagstuk wordt opgedeeld in een groot aantal deelproblemen, die worden berekend door afzonderlijke nodes binnen de supercomputer; de antwoorden worden samengevoegd om uiteindelijk tot één resultaat te komen. 


MareNostrum IV

Vraag je het aan een organisatie als Intersect360, een onderzoeksbureau gespecialiseerd in High Performance Computing, dan zijn supercomputers het topje van een ijsberg van buitengewoon krachtige clustersystemen, die het definieert als de HPC-markt. Daarbinnen zijn supercomputers de machines die meer dan 1,5 miljoen dollar kosten. Ook met die definitie zijn supercomputers nog een zeer gevarieerd segment, want bij 1,5 miljoen dollar begint het pas. De hierboven getoonde MareNostrum IV, die we konden bezichtigen in het Barcelona Supercomputer Center, kostte bijvoorbeeld meer dan 40 miljoen dollar.

Prijs lijkt een wat arbitraire manier om een productcategorie die zo uiteen kan lopen te definiëren, maar het is wel een overzichtelijke methode. De Top500-organisatie bijvoorbeeld vereist alleen dat machines een voldoende hoge score in de Linpack-benchmark kunnen neerzetten, en publiceert een regelmatig bijgewerkt overzicht van de snelste 500. Waar het daarbij echter geen onderscheid maakt, is of de machines in kwestie daadwerkelijk in de praktijk functioneren als supercomputer of alleen voor het behalen van een score tijdelijk samenwerken in een cluster, en evenmin wordt er gekeken naar de dichtheid (ruwweg te omschrijven als het aantal rekenkernen per vierkante meter) en zelfs niet of het gaat om een vaste of tijdelijke installatie.

Het aantal 'nodes' oftewel eenheden (= computers) binnen een supercomputer is ook niet indicatief, want het zegt op zichzelf weinig over de rekenkracht, die eerder wordt bepaald door het aantal cores in de betreffende computers. Een systeem met een kleiner aantal nodes kan met voldoende krachtige processors met een groot aantal cores alsnog sneller zijn dan een systeem met meer nodes (maar minder of minder krachtige cores). 

Datacenter, HPC en hyperscale

In de basis zien supercomputers eruit als een datacenter: ruimtes met racks, gevuld met rekeneenheden, opslag en netwerkswitches. Het ene datacenter is echter het andere niet. Wat supercomputers onderscheidt, is dat alle onderdelen ervan samenwerken. Een ander verschil is dat het voor HPC een vereiste is dat de opslag zo dicht mogelijk bij de rekeneenheden (compute units) is geplaatst - vrijwel zonder uitzondering werken supercomputers aan workloads waarbij enorme hoeveelheden data moeten worden verwerkt, en die moeten zo snel mogelijk kunnen worden benaderd.

Zodoende onderscheidt het genoemde Intersect360 binnen de datacentermarkt enerzijds de HPC-markt (goed voor 35,5 miljard dollar in 2017) en anderzijds wat het de hyperscale markt noemt: (hele grote) datacenters voor andere toepassingen, die in 2017 goed was voor 44 miljard dollar omzet. Bij hyperscale toepassingen gaat het niet per se louter om gebundelde rekenkracht, maar om het zo snel en goed mogelijk leveren van een dienst, waarbij data gedupliceerd en gesynchroniseerd wordt over meerdere locaties teneinde wachttijden voor gebruikers te minimaliseren. Voorbeelden van hyperscale toepassingen zijn bijvoorbeeld te vinden bij Google en Facebook, cloudnetwerken als Amazon AWS en Microsoft Azure waarop weer een keur aan toepassingen kan draaien, en grote content delivery netwerken waar Netflix een mooi voorbeeld is van een partij die grote hoeveelheden met elkaar verbonden servers wereldwijd inzet voor zijn dienstverlening. 

Waar er een flink aantal leveranciers is van rackservers, zijn er maar een paar grote spelers in de HPC-markt, waarvan IBM, HPE, Fujitsu, Cray, Dell EMC, Atos/Bull en dus Lenovo de voornaamste zijn. Daarnaast bouwen sommige organisaties, zoals universiteiten, een aantal supercomputers in eigen beheer, en zien we in de top-500 ook de nodige keren fabrikanten als Quanta en Wywinn terugkomen, die binnen de gehele datacentermark groter zijn dan in het HPC-segment. Een aardige noot is dat supercomputing in de cloud, dus het inzetten van grote hoeveelheden nodes binnen bijvoorbeeld Amazon Web Services om te rekenen aan één specifieke taak, de afgelopen jaren een flinke vlucht heeft genomen - maar binnen de hele markt blijft het een klein onderdeel in vergelijking met dedicated HPC-installaties zoals die in het Barcelona Supercomputer Center. Het is vooral een mooie manier om een eenmalige, korte workload uit te voeren - bijvoorbeeld voor eindscripties van studenten in allerlei disciplines, die zo een alternatief hebben voor lang wachten op tijd op een supercomputer van het eigen instituut.

Opbouw van een supercomputer

Een supercomputer bouwen is dan ook geen sinecure, het is aanzienlijk complexer dan pizzadozen in racks blijven schuiven en die met netwerkbekabeling aan elkaar knopen tot een soort kritische massa is bereikt. Supercomputers worden zonder uitzondering ontworpen voor een taak of set taken die vooraf is gedefinieerd. Sommige workloads hebben baat bij een zo hoog mogelijk aantal rekeneenheden, andere vereisen hoge klokfrequenties of juist veel of snelle geheugentoegang, en bij weer andere is de onderlinge communicatie tussen de nodes belangrijker dan de snelheid waarop die werken. Het is dus zaak de juiste balans te treffen en daarvoor beschikken de bedrijven die deze supercomputers bouwen over simulatieomgevingen waarbinnen de vereisten van een taak in kaart worden gebracht. Zo heeft Lenovo in Stuttgart een voor derden gratis te gebruiken supercomputer staan, waarop potentiële klanten workloads kunnen draaien om een beeld te krijgen van wat voor soort eisen deze stelt aan een systeem. 


Timelapse van de installatie van MareNostrum IV 

Uiteindelijk rolt daar een formule uit voor een optimaal gebalanceerd systeem, waarbij de fysieke omvang een aspect is dat zeker niet vergeten moet worden. Het is technisch mogelijk om hele grote hoeveelheden rekenkernen in een klein oppervlak te plaatsen, maar niet alleen creëert dat uitdagingen qua koeling - en dan moeten bij luchtkoeling racks verder uit elkaar worden geplaatst, wat weer meer ruimte eist - maar ook qua stroomverbruik (één MareNostrum IV rack heeft een piekverbruik van iets minder dan 34 kW) en zelfs gewicht. Het draagvermogen van servervloeren, waaronder een dicht netwerk van bekabeling en koeling loopt, is niet oneindig. Een geheel gevuld serverrack weegt (ruim) meer dan een ton (1,3 ton voor de racks in Barcelona). Voor HPC is een hoge dichtheid bijna een vereiste: hoe dichter systemen en racks op elkaar staan, hoe sneller de communicatiemogelijkheden. Deze in jargon high density brengt dus weer een extra set eisen met zich mee.

Er is dus een groot aantal variabelen, dat mede bepaalt hoe groot de rack trays zijn die worden toegepast - 1U of 2U doorgaans - en hoeveel servers er in een tray zitten, hoeveel processors er in een server zitten en op wat voor kloksnelheid die draaien. Die laatste factor is bij de recente Lenovo installaties dynamisch: afhankelijk van de workload en de belasting van de cores kan de kloksnelheid variëren om de balans te vinden tussen optimale benutting en de grenzen van koeling en energieverbruik. Met duizenden nodes is dat een indrukwekkende functionaliteit.

Koeling - zonder en met water

De meeste supercomputers zijn nog altijd luchtgekoeld, maar naarmate de dichtheid - het aantal cores per systeem/node, het aantal nodes per rack - toeneemt, loopt luchtkoeling tegen zijn grenzen aan. De kosten voor alternatieve oplossingen zijn hoger, maar op gegeven moment onvermijdelijk. Lenovo claimt voorop te lopen met de toepassing van waterkoeling. Waar je als consument die weet dat waterkoeling flinke voordelen heeft wellicht de wenkbrauwen even optrekt over deze trots op een weinig nieuwe techniek, is waterkoeling bij een supercomputer wel van een iets ander kaliber dan in de doorsnee desktop.

In het Barcelona Supercomputer Center kon men ondanks de zeer hoge dichtheid van het systeem nog volstaan met luchtkoeling - die is overigens bijzonder vernuftig uitgevoerd: de temperatuur rond de racks viel bijzonder mee, terwijl ook de geluidsproductie niet extreem hoog was. In het nog recenter geopende SuperMUC-NG in het Leibniz Rechenzentrum oftewel LRZ, momenteel goed voor de achtste plaats op de Top-500 van supercomputers, was waterkoeling de enige manier om de ruim 300.000 cores op voldoende hoge snelheid te laten draaien. Hier zitten in 1U trays steeds twee systemen, elk met een 24-core/48-thread Intel Xeon processor, waarbij elk systeem gekoeld wordt met gedemineraliseerd water dat door koperen leidingen langs processors, geheugen, interconnects en vrm's stroomt - alleen de voeding is nog niet watergekoeld. 

Het bijzondere aan de waterkoeling van Lenovo is de temperatuur waarmee deze werkt: binnenkomend 'koud' water is 45-50 graden, wanneer het het systeem verlaat is het tot 62 graden warm. Daarmee is het voldoende warm om te benutten voor bijvoorbeeld verwarming. Zo wordt de energie waarmee de supercomputer wordt gevoed nog efficiënter benut. Deze vorm van koeling vereist speciaal geconstrueerde centrale regeleenheden met daarin onder meer krachtige pompen, en continue monitoren van de flow rate en temperatuur van het water - maar desondanks is dit een energiezuiniger vorm van koeling dan de klassieke aanpak met gekoelde lucht.

Nog iets bijzonders: de ThinkSystem SD650 eenheden waarin deze vorm van koeling is geïntegreerd worden geleverd met een gevulde waterkoeling, en ze zijn hot pluggable in het rack - inclusief de aansluiting op de waterstroom. De hiervoor gebruikte koppelstukken zijn 'zero drip', met een ontwerp dat afkomstig is van brandstofleidingen.

Overigens past Lenovo binnen de set waterkoelingstechnieken die het 'Neptune' noemt ook heatpipe koelers toe; in de consumentenmarkt heel gangbaar, maar minder gebruikelijk in HPC-omgevingen. Ook de genoemde dynamische kloksnelheid maakt onderdeel van 'Neptune'.

Flash en Optane

De opkomst van flashopslag heeft een grote invloed gehad op de ontwikkeling van supercomputers. Waar voor hyperscale toepassingen opslag zich niet per se dichtbij de rekeneenheden hoeft te bevinden en bijvoorbeeld met behulp van snelle fiberverbindingen ook op afstand kan staan, is dat voor HPC-toepassingen niet wenseijk. De opkomst van flash maakt het niet alleen mogelijk om storage dichter bij compute te brengen, maar heeft ook door zijn snelheid een forse sprong betekent in hoe snel rekeneenheden over opgevraagde data kunnen beschikken.

In een gesprek met Rick Koopman, Technical Lead bij Lenovo HPC voor EMEA, kregen we te horen dat Optane hier voor nog meer winst zal gaan zorgen, maar in huidige installaties is daar nog niet veel mee gedaan. Pas het komende Cascade Lake platform van Intel zal hier direct gereed voor zijn (bestaande installaties zijn dat alleen na een firmware en hardware upgrade, wat bij duizenden nodes in een installatie niet haalbaar is), en die systemen worden later dit jaar uitgeleverd. 3D Xpoint zorgt ervoor dat flashopslag nog dichter op de processor zit en bovendien met een veel hogere bandbreedte benaderbaar is, wat een duidelijk voordeel moet gaan opleveren.

BSC MareNostrum IV

Voor de MareNostrum IV in het Barcelona Supercomputer Center golden nog de nodige extra eisen. In de eerste plaats is er een harde beperking aan de beschikbare oppervlakte, want het BSC is gevestigd in de Torre Girona kapel uit de jaren '50. Deze maakte ooit deel uit van een meisjesinternaat, maar is alweer heel wat jaren onderdeel van de nabijgelegen universiteitscampus. Destijds werd deze locatie gekozen omdat het de enige op korte termijn beschikbare plek binnen het universiteitsgebied was met voldoende oppervlakte en het vereiste hoge plafond. Een opeenvolgende reeks steeds krachtiger supercomputers, die (deels) te zien zijn in een gang naast de ruimte waar zich de operationele supercomputer bevindt, werd er sindsdien geïnstalleerd.

Daarnaast hadden de opdrachtgevers specifieke eisen aan de vormgeving van de installatie. Hoewel deze zich bevindt op het terrein van de Catalaanse technische universiteit, is het BSC een samenwerkingsverband tussen de Spaanse regering, de Catalaanse regering en de universiteit. Vanuit de opdrachtgevers was er een duidelijke wens dat het eindresultaat er fraai uit moest zien, en dat ging tamelijk ver - zo diende een deel van de netwerkbekabeling in het zicht en in een specifieke kleur rood uitgevoerd te worden. Dat vergde niet alleen een onconventionele oriëntatie van de switches in de racks, maar ook het late vervaardigen van een partij netwerkkabels in de juiste ral-kleur.

Het eindresultaat mag er echter zijn, want dit is 's werelds enige supercomputer waar het daglicht op valt via glas-in-lood ramen, en ook de enige met een akoestisch plafond (ooit geplaatst in de tijd dat de ruimte als concertzaal fungeerde). MareNostrum IV is 10x sneller dan zijn voorganger, terwijl het energieverbruik slechts 30% hoger ligt. 

Onderdelen

De MareNostrum IV is zoals zijn naam al zegt de vierde in een reeks waarvan de eerste werd geplaatst in 2004, toen ook de infrastructuur onder de grond werd gecreëerd. Deze vierde iteratie is 260 keer sneller dan de eerste MareNostrum. Waar die bestond uit 2406 nodes met 4812 IBM Power PC 970FX processors draaiend op 2,1 GHz (single core, dus 4812 cores), 9,6 terabyte werkgeheugen en 200 terabyte aan opslag en een Linpack score van 42,3 teraflops, is versie IV opgebouwd uit twee delen. In de eerste plaats een 'general purpose cluster' op basis van Intel x86-processors en een maximale rekenkracht van 11,15 petaflops; daarnaast een drietal clusters met respectievelijk IBM Power9 processors en Nvidia Volta gpu's (1,5 petaflops), een cluster Intel Knight's Hill processors (goed voor 0,5 petaflops) en een prototype cluster gebaseerd op 64-bits ARMv8 cores (0,5 petaflops)

Het Intel x86-cluster bestaat uit 3456 nodes, elk met twee Intel Xeon Platinum 8160 24-core processors uit de Skylake-X generatie, met een kloksnelheid van maximaal 2,1 GHz. Deze nodes zijn opgesteld in twee keer 24 racks, met dus 72 nodes per rack. In totaal bevat deze cluster 165 888 cores (en in theorie kan aan twee keer zoveel threads worden gewerkt, want deze processors ondersteunen HyperThreading - niet elke HPC workload kan daarvan profiteren, per workload wordt geanalyseerd wat beter werkt). Interessant detail: Lenovo kon de MareNostrum IV al de nodige maanden vóór de officiële aankondiging van Skylake-X in 2017 installeren. 

Elk van de 48 Lenovo SD530 compute racks bestaat uit 72 Lenovo Stark compute nodes, 2 Lenovo G8272 switches, 3 Intel OPA 48 port edge switches en 4 32A 3 fase pdu's. 

Het merendeel van deze nodes, 3240 stuks, is in jargon 'thin', voorzien van 2 GB werkgeheugen per core (en dus 48 GB per processor) - een minderheid van 216 nodes is voorzien van 8 GB per core (192 GB/cpu). In totaal beschikt MareNostrum IV dus over 394 TB werkgeheugen. Er is snelle opslag in de vorm van 830 TB aan ssd-ruimte, en het systeem beschikt over 14 petabyte aan eigen diskopslag, met daarnaast toegang tot de 24,6 petabyte aan opslag van het BSC.

De nodes zijn onderling verbonden met een 100 Gb Intel Omni-Path netwerk, en daarnaast ook nog met een 10 Gb netwerk. De netwerkswitches alleen nemen zes racks in beslag. Het besturingssysteem is SUSE Linux Enterprise Server 12 SP2. Het maximale stroomverbruik van de hele supercomputer is 1,5 megawatt.

Toepassingen

Wellicht vraag je je af waarvoor je zoveel rekenkracht nodig hebt, maar de vraag zou eerder moeten zijn: waarvoor niet. Het aantal toepassingsgebieden is duizelingwekkend. De MareNostrum IV van het BSC wordt ingezet voor een zeer divers aantal toepassingen, die gemeen hebben dat ze draaien om een enorme hoeveelheid data en om complexe berekeningen op die data.

Zo analyseert het systeem de data die binnenkomt van de Gaia missie van Europees ruimteagentschap ESA. Hierbij wordt een poging gedaan een groot deel van het universum in kaart te brengen, waarbij data van 1,7 miljard sterren wordt geregistreerd. Dat resulteert in een databerg van 3 petabyte die moet worden geanalyseerd.

Een andere toepassing in Barcelona is het EGA, het European Genome-Phenome Archive. Zoals wellicht bekend is alweer enige tijd geleden het menselijk genoom, waarin vier basisbouwstenen in 6 miljard verschillende combinaties voorkomen, in kaart gebracht, maar dat was niet zozeer het einde als wel van het begin van een ontwikkeling. In het kader van onderzoek naar ziektes, voorop kanker, maar ook hart- en vaatziekten, ontstekingsziekten, neurologische en andere aandoeningen vergelijkt het EGA project 20.000 verschillende genomen met elkaar, oftewel 20 duizend maal 6 miljard verschillende baseparen. Dankzij het rekenwerk van de MareNostrum IV konden zo 4 verschillende mutaties herkend worden die structureel voorkomen bij bepaalde aandoeningen, wat een belangrijke stap is naar het vinden van een behandelmethode. De EGA dataset is inmiddels al 4,5 petabytes groot.

Binnen het Calliope project wordt analyse gedaan naar luchtkwaliteit op basis van een groot aantal sensoren en informatie over weer en windrichting, om zo te voorspellen hoe de luchtkwaliteit op een willekeurige plaats op een dag in de nabije toekomst zal zijn. Op basis daarvan kunnen overheden besluiten om bijvoorbeeld wegen af te sluiten of maximumsnelheden te verlagen. Ook hiervoor wordt een zeer grote hoeveelheid data geanalyseerd, en zijn complexe berekeningen nodig voor het in kaart brengen van het effect van weer op de luchtkwaliteit bij een gegeven hoeveelheid verontreiniging.

Alya Red is een simulatie die alleen op een supercomputer tot stand kan komen, waarbij het menselijk hart volledig accuraat wordt gemodelleerd. Daarbij komen berekeningen uit drie disciplines bij elkaar (biomechanica, vloeistofdynamica en neurologie). Met behulp van MRI kunnen afmetingen en vorm van een willekeurig hart worden vastgelegd, waarna hiermee en met de Alya simulatie het effect van diverse behandelingen en ingrepen kan worden gesimuleerd, zoals de werking en aansturing door een pacemaker. Dit zorgt ervoor dat operaties beter kunnen worden voorbereid en daardoor succesvoller zijn.

Andere BSC toepassingen betreffen bijvoorbeeld simulaties van de menselijke luchtwegen, van de windturbines (om de ideale hoogte, vorm en plaatsing voor optimaal rendement te kunnen berekenen). 

Machine learning

Naast simulaties vormt kunstmatige intelligentie en dan met name machine learning in toenemende mate een belangrijke toepassing voor supercomputers. Bij de BSC is een mooi voorbeeld beeldanalyse, een discipline waarin ML nu al zeer succesvol is. In dit specifieke geval betreft het analyse van afbeelding van de menselijk netvlies. Vroege detectie van afwijkingen hierin kan voorkomen dat mensen hun zicht verliezen, en zorgen voor een optimale behandelmethode. Het bekijken en analyseren van retinafoto's is tijdrovend en lastig voor menselijke artsen, maar het zelflerende Tiramisu-systeem van een onderzoeksgroep die bij het BSC met dit vraagstuk aan de slag ging, geeft binnen een fractie van een seconde aan of en waar de afwijkingen zichtbaar zijn. Het bijzondere aan dit systeem is dat het niet alleen afwijkingen kan herkennen op basis van voorbeelden waarmee het 'gevoerd' wordt, maar ook zelfstandig nieuwe, of minder bekende afwijkingen waarvan niet voldoende beeldmateriaal bestaat vaststellen.

Op basis van onderzoek van Intersect360 is zo'n 90% van academische, commerciële en gouvernementele organisaties met HPC-systemen bezig met de toepassing van machine learning dan wel het onderzoek naar hoe dit in te zetten voor de eigen doeleinden. Het ziet er dan ook niet naar uit dat de vraag naar HPC-systemen binnenkort zal afnemen.

De toekomst: exascale

In 1997 werd het eerste systeem gebouwd dat in staat was om een teraflop te behalen, oftewel 1012 drijvende komma (floating point) berekeningen per seconde. Zo'n 11 jaar later, in 2008, werd voor het eerst de petaflop-grens doorbroken, oftewel 1015 flops. Inmiddels weer tien jaar later zijn we nog niet bepaald in de buurt van weer een verduizendvoudiging: de nummer 1 van de Top-500 van november 2018 (de meest recente update) komt iets boven de 145 petaflops uit. Zoals vaste lezers van deze site weten zijn er tal van uitdagingen die de jarenlang zeer snelle toename aan rekenkracht hebben vertraagd. Lenovo claimt voorzichtig dat het in 2021 wel eens zover zou kunnen zijn, dat de exaflop wordt behaald - maar geeft bij monde van Rick Koopman direct toe dat dit met louter traditionele x86-processors niet mogelijk is. De winst moet in elk geval ten dele komen uit wat men accelerators noemt, oftewel gpgpu's als de Nvidia Volta V100 en opvolgers daarvan. 

Wel zijn de verwachtingen hooggespannen over de komende driedimensionale processors zoals het Foveros prototype dat Intel niet lang geleden liet zien op zijn Architecture Days. Koopman impliceerde dat het nog wel even zou duren eer die technologie zijn weg zou vinden naar de praktijk - eerst moeten Cascade Lake en kort erop Cooper Lake naar deze markt komen. 

Om de weg naar exascale, zoals supercomputers in deze klasse omschreven worden, in te zetten heeft Lenovo in elk geval een strategie gedefinieerd waarbij meerdere technologieën gecombineerd worden binnen hetzelfde platform. 

Dat het bedrijf, dat in 2014 de x86-servertak van IBM overnam en sindsdien met 140 systemen in de top-500 van supercomputers wist te belanden, deze tak van de markt serieus neemt moge duidelijk zijn. High performance computing maakt grote veranderingen in tal van gebieden mogelijk, van gezondheidszorg tot klimaatwetenschap (een onderwerp dat bovengemiddelde belangstelling heeft). Lenovo claimt dat met HPC-toepassingen grote vraagstukken zullen worden opgelost, zoals de optimale inzet van een eindige hoeveelheid drinkwater door een continu groeiende wereldbevolking, of het vroegtijdig detecteren en voorspellen van gewasziektes. De zichtbaar gepassioneerde vertegenwoordigers van het bedrijf maakten geen melding van minder nobele toepassingen - de grootste supercomputers op de top-500 zijn niet voor niets eigendom van de Amerikaanse, respectief Chinese regering. Deze worden onder andere ingezet voor simulaties van kernwapens, wat natuurlijk minder tot optimisme stemt - totdat je weet dat dankzij deze simulaties daadwerkelijke kernproeven grotendeels tot het verleden behoren.

In het Barcelona Supercomputer Center werken ondertussen ruim 600 wetenschappers uit 48 verschillende landen aan meer constructieve toepassingen, waarbij ze gebruik kunnen maken van wat officieel is uitgeroepen tot 'de mooiste supercomputer ter wereld'. Nu hebben we weinig vergelijkingsmateriaal, maar de MareNostrum IV is inderdaad een schoonheid. Op de volgende pagina vind je nog een flinke hoeveelheid foto's, waarmee ook jij een zeldzaam kijkje dichtbij deze bijzondere computer krijgt - bij wijze van uitzondering mochten we ook de ruimte tussen de racks achter de security door betreden. 

Wij hebben de smaak in elk geval te pakken, en al een lijntje uitgezet om ook eens in Leibniz een kijkje te gaan nemen - want waterkoeling voor een supercomputer willen we wel eens van dichtbij bekijken.

Foto's

Hier vind je een flink aantal foto's van de MareNostrum IV in het Barcelona Supercomputing Center.

0