[Pro] AMD Radeon Instinct MI100 heeft mogelijk nóg meer cores dan Nvidia A100

4 reacties

Het is al een tijdje officieel bekend dat AMD werkt aan een Radeon Instinct MI100, een videokaart voor datacentra die de Instinct MI60 op moet volgen. Het was nog niet duidelijk welke specificaties de kaart zou hebben, maar AdoredTV zegt zijn handen te hebben gelegd op nieuwe informatie waar een hoop uit duidelijk wordt.

AMD's nieuwe kaart zou gebruikmaken van een chip met 120 compute units. Als elke cu nog steeds gebruikmaakt van 64 cores per cluster, dan zou de chip in totaal 7680 compute-cores hebben. Dat is meer dan Nvidia's nieuwe A100-topmodel, die het met 'slechts' 6912 stuks moet doen. Het is echter erg opmerkelijk dat hij maar liefst 42 teraflops aan single precision-prestaties (fp32) moet bieden, de A100 doet namelijk maximaal 19,5 tflops. Dat suggereert dat de MI100 op een enorme 2,75 GHz draait bij 7680 cores. Het lijkt waarschijnlijker dat het aantal cores per compute unit is verdubbeld naar 128 stuks ten opzichte van de Vega 20-chip, voor 15.360 rekenkernen in totaal. Dat aantal is al helemaal absurd, in ieder geval suggereert een andere slide met marketinginformatie dat AMD minder hoog inzet op deep learning.


Let op: alle afbeeldingen lijken van AMD zelf te komen, als dit gerucht klopt. De uitzonderingen hierop zijn echter bovenstaande afbeelding, die met de Nvidia A100 en de afbeelding met de MI100-features. Deze zijn vermoedelijk door AdoredTV zelf gemaakt.

De MI100 zou wederom de nadruk leggen op prestaties per dollar en met name geschikt zijn voor simulaties in de olie- en gas-industrie en voor bepaalde academische berekeningen. High performance computing en het trainen van machine learning-algoritmen zijn ook doelgroepen. Nvidia's A100-gpu's bieden naast aan cuda-cores ook plaats aan tensor-cores, waardoor deze waarschijnlijk sterker zullen zijn op het vlak van deep learning. AMD lijkt de MI100 niet van dergelijke kernen te voorzien, waardoor het vermoedelijk zo'n groot aantal compute-cores heeft kunnen integreren. Er blijkt geen graphics pipeline te zijn, wat betekent dat er geen extra product voor gamers à la Radeon VII zal verschijnen. Klaarblijkelijk zet AMD de scheiding tussen producten voor datacentra en producten voor gamers dus direct door.

Verder moet elke kaart nog steeds 32 GB hbm2-geheugen met ecc-ondersteuning huisvesten, met 1,2 TB/s aan bandbreedte. Via infinity fabric zijn tot acht gpu's met pcie 4.0 met elkaar te verbinden, voor een bandbreedte van 600 GB/s in totaal. Verbinden met de processor is ook mogelijk voor Rome- en Milan-chips en gpu's onderling laten communiceren met infinity fabric is ook mogelijk bij het gebruik van Xeons. Bij het grootschalig inzetten van de chips blijken de prestaties volgens AMD's vermeende eigen cijfers lineair schalen.

De rode chipontwerper zou al slides hebben over twee serverproducten. Eén daarvan heeft twee Epyc-chips uit de Rome- of de komende Milan-productlijn met elk vier MI100's, voor acht gpu's in totaal. Dit 3U-model moet 256 GB aan hbm2-geheugen hebben met 9,8 TB/s aan bandbreedte en een totaal stroomverbruik van 3 kilowatt. Dat moet tot 272 teraflops kunnen leveren in sgemm-toepassingen. De server wordt gericht op klanten die machine learning-modellen willen trainen. Hij moet in maart 2021 op de markt verschijnen, als we deze informatie mogen geloven.

Een tweede product heeft twee Epyc-chips in combinatie met in totaal vier MI100-gpu's, dit product heeft praktisch de helft van de prestaties. Deze 1U-variant met Epyc-chips moet volgens AdoredTV al in december komen, en een tweede versie met Xeons komt in februari van 2021. We weten al dat de eerste CDNA-producten gebruik moeten maken van TSMC's 7nm-node, de genoemde aantal cores met bijbehorende kloksnelheden zijn dus in beide gevallen wel erg hooggegrepen. Het valt nog te bezien of deze specificaties waar zullen zijn.

Bron: AdoredTV

« Vorig bericht Volgend bericht »
0
*