Nvidia GeForce GTX 1080 review: de nieuwe koning?

299 reacties
Inhoudsopgave
  1. 1. Inleiding
  2. 2. Modellen: GTX 1080 en GTX 1070
  3. 3. Founders Edition kaarten in detail
  4. 4. GP104: de eerste 16nm GPU
  5. 5. Sneller geheugen dankzij GDDR5X en betere compressie
  6. 6. Sneller in VR dankzij Simultaneous Multi-Projection
  7. 7. Nieuwe overklokmogelijkheden: GPU Boost 3.0
  8. 8. SLI versneld, maar beperkt tot twee kaarten
  9. 9. Andere nieuwe mogelijkheden: HDR, Fast Sync
  10. 10. Andere nieuwe mogelijkheden: Ansel en VR Audio
  11. 11. Specificaties
  12. 12. Hoe test Hardware.Info videokaarten
  13. 13. Benchmarks: 3DMark Fire Strike / Extreme / Ultra
  14. 14. Benchmarks: Anno 2205
  15. 15. Benchmarks: Battlefield 4
  16. 16. Benchmarks: Dirt Rally
  17. 17. Benchmarks: F1 2015
  18. 18. Benchmarks: Far Cry Primal
  19. 19. Benchmarks: GTA V
  20. 20. Benchmarks: Metro Last Light
  21. 21. Benchmarks: Project Cars
  22. 22. Benchmarks: Rainbow Six Siege
  23. 23. Benchmarks: The Division
  24. 24. Benchmarks: Hardware.Info GPU Prestatiescore 2016
  25. 25. Benchmarks: GTX 1080 versus voorgangers
  26. 26. Testresultaten: Stroomverbruik
  27. 27. Testresultaten: Geluidsproductie en temperatuur
  28. 28. Overkloktest
  29. 29. Conclusie
  30. 30. Besproken producten
  31. 31. Reacties

Inleiding

Op 6 mei kondigde Nvidia tijdens een live gestreamd evenement vanuit Austin de GeForce GTX 1080 en 1070 aan. Het nieuwe topmodel moet volgens de beloftes zo’n 60% sneller zijn dan zijn voorloper, de GTX 980. In VR-applicaties zou hij zelfs drie keer zo snel moeten zijn. Inmiddels hebben wij de GTX 1080 uitvoerig getest; in deze review vind je niet alleen alles over de eigenschappen van de nieuwe kaart, maar vooral ook veel benchmarks.

Met de laatste generatie had Nvidia duidelijk een succesnummer. De GeForce GTX 980 en vooral de GTX 970 bleken enorme verkoopkanonnen, waarmee Nvidia haar marktaandeel voor los verkochte videokaarten kon vergroten tot meer dan 80%. Zelfs de controverse rond de geheugengrootte van de GTX 970 – slechts 3,5 GB van de aanwezige 4 GB bleek op optimale snelheid te werken – kon niets veranderen aan het feit dat de 970’s als warme broodjes over de toonbank gingen.

De 900-serie kaarten, codenaam Maxwell, maakten gebruik van hetzelfde 28nm-productieprocedé als de voorlopers uit de 600- en 700-serie, codenaam Kepler. Het maakte dat Nvidia de prestaties bij de laatste generatie enkel en alleen door optimalisaties aan de architectuur en hogere klokfrequenties kon verbeteren, wat het bedrijf zeer goed lukte. Voor de nieuwe generatie met codenaam Pascal, waarvan de GTX 1080 en 1070 de eerste kaarten zijn, is er voor het eerst sinds jaren weer een nieuw productieprocedé beschikbaar. De onderliggende GP104 GPU wordt namelijk geproduceerd bij TSMC, door middel van hun nieuwe 16nm-proces. Het moge bekend zijn: met kleinere transistors kunnen er meer transistors op hetzelfde chipoppervlak geplaatst worden (lees: meer mogelijkheden en/of prestaties tegen dezelfde productiekosten). Daarnaast staan nieuwe productieprocedé’s in de regel ook garant voor hogere klokfrequenties en/of een veel lager stroomverbruik op vergelijkbare klokfrequenties. Dat lijkt deze keer zéker het geval; in navolging van Intel enkele jaren geleden is TSMC nu ook overgestapt op zogenaamde FinFET-transistors. Bij FinFET staat de transistorgate rechtop en heeft hij dus een groter oppervlak. De nieuwe technologie beperkt hierdoor de stroomlekkage en maakt hogere klokfrequenties mogelijk.

Maar goed, het nieuwe productieprocedé is zeker niet de enige grote verandering bij de nieuwe kaarten. De Pascal-generatie GPU’s heeft een aantal interessante nieuwe technologieën aan boord. Eén daarvan, simultaneous multi-projection, zorgt ervoor dat de nieuwe GPU’s juist wanneer gebruikt in combinatie van VR-headsets veel sneller zijn dan hun voorlopers. Nvidia doet dan ook geen misselijke beloftes: de GTX 1080 zou in VR tot bijna 3x sneller moeten zijn dan de GTX 980. Maar ook voor wie nog niet in de rij staat voor een Oculus Rift of HTC Vive bieden de kaarten voldoende interessante nieuwe mogelijkheden.

Wij hebben de GeForce GTX 1080 uitvoerig getest en verderop in deze review vind je vele grafieken. Maar eerst nemen we een frisse duik in de techniek…

Modellen: GTX 1080 en GTX 1070

Nvidia heeft zoals geschreven twee nieuwe kaarten aangekondigd, de GeForce GTX 1080 en de GeForce GTX 1070. Deze kaarten zijn gebaseerd op dezelfde GP104 GPU (waarover meer op de volgende pagina) en moeten de bestaande GTX 980 en GTX 970 opvolgen.

Bij de GTX 1080 zijn alle 2560 zogenaamde Cuda cores van de GPU ingeschakeld. De chip werkt op een standaard klokfrequentie van 1607 MHz met een 1733 MHz Boost klokfrequentie. De GPU wordt gecombineerd met 8 GB geheugen van het nieuwe GDDR5X-type, werkend op 2500 MHz. Omdat bij GDDR-geheugen er per klokslag vier keer data kan worden overgebracht, spreek men van 10 GHz. Het geheugen is verbonden via een 256-bit bus, waarmee het een bandbreedte van 320 GB/s heeft. De TDP van de kaart is 180W, waarmee de enkele PEG8-connector voldoende is om hem van stroom te voorzien.

De GTX 1070 is een betaalbaardere uitvoering met minder ingeschakelde cores en lagere klokfrequenties. Bij de GTX 1070 zullen in totaal 1920 cores zijn ingeschakeld (25% minder) en werkt de GPU werkt op een 1600 MHz Boost-klokfrequentie (8% lager). De standaardklok is nog niet bekend. Net als z’n grotere broer heeft ook de GTX 1070 in totaal 8 GB geheugen, maar nu van het conventionele GDDR5-type, werkend op 1753 MHz. Nvidia geeft aan dat nu de volledige hoeveelheid geheugen op maximale snelheid werkt, in tegenstelling tot bij de GTX 970.

De videokaarten zijn volledig geschikt voor DirectX 12 met feature level 12_1 (waarover later meer) en kunnen uiteraard in een SLI-configuratie gebruikt worden. Op dit vlak zijn er echter ook wat veranderingen, waar we verderop in dit artikel op terugkomen.

De kaarten bieden ondersteuning voor HDMI 2.0b en DisplayPort 1.4. De huidige generatie GPU's van AMD en Nvidia bieden alleen ondersteuning voor DisplayPort 1.2, dus dit is een grote stap. Dankzij DisplayPort 1.4 zijn de nieuwe GeForce-kaarten voorbereid op toekomstige monitoren met Ultra HD-resolutie en 120 Hz of 144 Hz verversingsfrequentie. Zowel HDMI 2.0b als de nieuwe DisplayPort-standaard zijn verder geschikt voor HDR (High Dynamic Range), hoewel dit uiteraard wel meer bandbreedte kost en daarom bij gelijkblijvende resolutie een lagere verversingsfrequentie aankan.

Algemeen
 
MerkNvidiaNvidiaNvidia
ProductnaamGeForce GTX 1070GeForce GTX 1080GeForce GTX 980
ProductcodeGEFORCE GTX 1070GEFORCE GTX 1080GEFORCE GTX 980
DetailsProductinfoProductinfoProductinfo
Chip
CodenaamGP104GP104GM204
ArchitectuurPascalPascalMaxwell 2
Rekenkernen1920 cores2560 cores2048 cores
Kloksnelheid1506 MHz1607 MHz1127 MHz
Kloksnelheid boost1683 MHz1734 MHz1216 MHz
Transistors7200 mln7200 mln5200 mln
Die-grootte314 mm²314 mm²398 mm²
Productieprocedé16 nm16 nm28 nm
Geheugen
Geheugengrootte8192 MB8192 MB4096 MB
Type geheugenGDDR5GDDR5XGDDR5
Geheugensnelheid2002 MHz1250 MHz1750 MHz
Geheugencontroller256 bit256 bit256 bit
Bandbreedte256 GB/s320 GB/s224 GB/s
Functionaliteit
DirectX versieDirectX 12 fl 12_1DirectX 12 fl 12_1DirectX 12 fl 12_1
SLI compatible
Crossfire compatible
HDMI versie2.0b2.0b
DisplayPort versie1.41.4
Geïntegreerde H.264 videodecoder
Geïntegreerde H.265 videodecoder
Geïntegreerde VC-1 videodecoder
Kaartontwerp
InterfacePCI-Express 3.0 x16PCI-Express 3.0 x16PCI-Express 3.0 x16
Extra power-connector
Type power connector(s)PEG8PEG82x PEG6
Total board power150 W180 W165 W
Lengte27 cm27 cm26.5 cm

Geen referentiekaarten, maar een Founders Edition

Zowel van GTX 1080 als GTX 1070 heeft Nvidia een referentie-exemplaar gemaakt, maar daaraan geeft men tegenwoordig een nieuwe naam: de Founders Edition (Nvidia gebruikt de naam zonder apostrof). Nvidia wil deze eigen uitvoeringen promoten als premium producten en geeft ze daarom een hogere adviesprijs dan de standaardkaarten. Het is dus aan partners zoals ASUS, MSI en Gigabyte om met goedkopere versies op de markt te komen. Dat is een duidelijke verandering van strategie, want voorheen waren de custom kaarten van de partners in de regel juist wat duurder.

Ook de Founders Edition kaarten zullen trouwens gewoon weer verkocht worden dor de partners. Nvidia is van plan om de referentiekaarten langer beschikbaar te houden. Of de partners dat ook zien zitten en of er ondanks de hogere prijzen op termijn überhaupt vraag naar is, blijft maar de vraag. Voor de duidelijkheid: de Founders Edition is niks meer en niks minder dan wat we vroeger een referentiekaart zouden noemen. In tegenstelling tot wat sommige andere sites rapporteren hebben de kaarten geen geoptimaliseerde of gebinde chips en draaien ze gewoon op standaard klokfrequenties.

Nvidia GeForce GTX 1080
Geen referentiekaart, maar een 'Founders Edition'.

Prijzen en beschikbaarheid

De GeForce GTX 1080 moet vanaf 27 mei beschikbaar komen en heeft een Amerikaanse adviesprijs van $599. De Founders Edition moet 100 dollar meer kosten, $699 dus. In Nederland zou je voor de Founders Edition volgens Nvidia moeten uitgaan van een brutoprijs van 657 euro, waarmee we met BTW erbij uitkomen op een prijs van 795 euro.

De GeForce GTX 1070 komt vanaf 10 juni op de markt en heeft een Amerikaanse adviesprijs van $379 en $449 voor de Founders Edition. Omgerekend en inclusief BTW rond de € 395 en € 470 - maar in de praktijk zal die prijs wel wat hoger komen te liggen.

Let wel: op 27 mei zullen vermoedelijk enkel de Founders Edition kaarten beschikbaar zijn en nog geen goedkopere custom-kaarten. Dat betekent dus dat wie direct bij uitkomst een GTX 1080 wil kopen, het hogere bedrag mag neertellen. Er zijn wel indicaties dat partners spoedig met custom kaarten zullen komen. EVGA liet ons weten vermoedelijk rond de tweede week van juni goedkopere GTX 1080’s met de eigen ACX 2.0 koeler te kunnen leveren. Voor de GTX 1070 zal vermoedelijk hetzelfde gelden: de eerste weken zal alleen de duurdere referentiekaart te koop zijn.

Founders Edition kaarten in detail

Dat voor de referentiekaarten, ehrm, Founders Editions meer geld wordt gevraagd zal voor menigeen even slikken zijn, maar Nvidia heeft er wel weer netjes werk van gemaakt. De GTX 1080 en GTX 1070 maken gebruik van een nieuw ontworpen koeler die duidelijk past in de stijl van de laatste paar generaties, maar met een interessante nieuwe twist: de nieuwe koeler is qua vormgeving een stuk hoekiger. Wij vinden het ontwerp in ieder geval zeer geslaagd.

Nog altijd hebben we van doen met kaarten die lucht door de kaart direct naar buiten blaast met een radiale ventilator. Bij de vorige generaties boden custom koelers met top-down ventilators betere koelefficiëntie, maar de keerzijde hiervan is dat de warmte dan wel binnen de kast blijft. Een goede outtake fan is dan van belang.

De Founders Edition-kaarten bieden als monitor-uitgangen eenmaal dual-link DVI, aangevuld met HDMI 2.0 en drie keer DisplayPort 1.4. De sneller DisplayPort-aansluitingen zijn geschikt voor het aansluiten van meerdere schermen en de 1.4 standaard biedt zoals geschreven voldoende bandbreedte voor 4K of 5K schermen met 120 of zelfs 144 Hz frequentie. Uiteraard kunnen de DisplayPort aansluitingen ook gebruikt worden voor het aansluiten van VR-headsets.

Hieronder vind je extra foto’s van de Founders Edition-kaart:

GP104: de eerste 16nm GPU

De GTX 1080 en 1070 maken dus gebruik de GP104 GPU. Zoals de laatste jaren gebruikelijk bij Nvidia verraadt de tweede letter de familie: de P staat voor Pascal. De GP104 is een kleinere uitvoering van de eerder aangekondigde GP100. Waar die GP100 primair gericht is op compute workloads, is de GP104 specifiek gericht op gamers. Dat maakt bijvoorbeeld dat de GP104 ondersteuning voor fullspeed double-precision floating-point berekeningen moet missen. Overigens hoef je geen glazen bol te hebben om te voorspellen dat er vermoedelijk nog wel een keer een GeForce GTX 1080 Ti op basis van de GP100 uitkomt.

De GP104 wordt geproduceerd bij TSMC op hun 16nm FinFET procedé. De GPU heeft 7,2 miljard transistors en meet 314 mm². Ter vergelijking: de GM204 GPU van de GTX 980 en 970 had 5,2 miljard transistors en mat 398 mm². De nieuwe chip is dus behoorlijk kleiner, maar heeft tegelijkertijd ook aanzienlijk meer transistors.

De chip heeft 2560 Cuda-cores aan boord, verdeeld over 20 zogenaamde shading multiprocessors (SM’s) die elk 128 cores bevatten. De cores an sich verschillen vrijwel niet van die uit de Maxwell-generatie en ook opdeling van 128 cores per SM is niet veranderd. Per SM bevat de GPU een geometry unit en 8 texture units, waarbij de verhouding tussen texture units en shader units ook niet veranderd is ten opzichte van de vorige generatie. Volgens Nvidia was dit ook niet nodig, want dit zou het ideale evenwicht voor games zijn. Bij de GP100 GPU, die we voorlopig enkel terugvinden in de Tesla P100, zijn er juist wel veranderingen in de opbouw van een SM doorgevoerd.

Met het extra aantal cores (2560 in plaats van 2048, 25% meer) en de hogere klokfrequentie (1733 MHz in plaats van 1217 MHz, 42% meer) heeft de GTX 1080 een theoretische maximum rekensnelheid die 78% hoger ligt dan bij voorloper GTX 980. Op basis hiervan beweert Nvidia dan ook dat de nieuwe kaart in bestaande games tot ruim 60 à 70 procent sneller kan zijn.

De GP104 biedt ondersteuning voor dezelfde API’s als de Maxwell chips. Specifiek hebben we het dan over DirectX 12 feature level 12_1 en Vulkan (de benaming voor de nieuwste versie van OpenGL). 

Qua opbouw lijkt de GP104 GPU dus erg op z’n voorloper, alleen dan geproduceerd op 16nm en met meer cores per chip. Toch zijn er een viertal duidelijke verschillen die uitgelicht moeten worden. De belangrijkste vernieuwing is ondersteuning voor wat Nvidia simultaneous multi-projection noemt, hier gaan we op de volgende pagina uitgebreider op in. Ook de ondersteuning voor GDDR5X geheugen en verbetere compressiemethodes dragen bij aan betere prestaties. Verder is de GPU ook meer geschikt gemaakt voor asynchronous compute, iets waar juist AMD tot nu toe in uitblonk.

Multi-tasken

De Pascal GPU's zijn dus beter geschikt gemaakt voor aynchronous compute, ofwel het verwerken van meerdere taken, multi-tasking dus. In moderne games wordt de GPU meer en meer ingezet voor andere zaken als puur het berekenen van de 3D-beelden. Denk aan physics berekeningen, audio berekeningen, maar ook steeds vaker ondersteuning bij AI-algoritmes. Wanneer er bij bestaande Nvidia-architecturen meerdere taken door dezelfde GPU moest worden uitgevoerd, was de applicatie (de game dus bijvoorbeeld) verantwoordelijk voor het opdelen van beschikbare rekenkracht. Zo zou de game dus kunnen bepalen dat 80% van de rekenkracht zou worden ingezet voor graphics en 20% voor compute. Bij Pascal GPU's is dat tot op zekere hoogte nog steeds het geval, maar dankzij dynamic load balacing kan de GPU zodra één van de threads klaar is direct de beschikbare GPU-rekenkracht toebedelen aan andere threads, waardoor er minder rekenkracht verloren gaat.

 

Een belangrijke extra reden waarom de nieuwe GPU beter geschikt is voor dergelijke gemixte workloads is de ondersteuning voor pre-emption, ofwel het voorrang geven van bepaalde threads die per se op een bepaald tijdstip voltooid moeten zijn. Dat kon bij de vorige generatie al voor compute workloads, maar is nu ook voor graphics workloads mogelijk. Wanneer nodig kan een GPU binnen 100 microseconden (0,1 ms) zijn huidige werkzaamheden tijdelijk wegschrijven naar het geheugen en overstappen naar een andere taak.

Een voorbeeld van hoe dit handig zou zijn voor games, is de door de GPU berekende zogenaamde asynchronous warp bij VR-applicaties. Wanneer je bij een Oculus Rift of een HTC Vive met je hoofd beweegt en er voor de volgende verversing van het geïntegreerde beeldscherm nog geen nieuwe berekend frame beschikbaar is, wordt het bestaande frame gepakt en een beetje verschoven, zodat er toch een effect is van het het bewegen van je hoofd. Dit om eventuele misselijkheid als gevolg van vertraging tegen te gaan. Die verschuiven, ofwel 'warpen' van het bestaande frame, moet door de GPU vlak voordat het beeld op het scherm opnieuw wordt opgebouwd toegepast worden. Het is een mooi voorbeeld van een snelle tussentaak waar de GPU in feite even kort alles waar hij mee bezig is uit handen moet laten vallen, de warp moet uitvoeren en daarna weer door kan gaan. Omdat deze pre-emption vroeger niet aanwezig was, moest bij Maxwell kaarten de normale werkzaamheden al eerder op een veilig tijdstip gestopt worden, om zo zeker te zijn dat de warp op tijd kon worden voltooid. Omdat bij Pacal de omschakeling precies op het juiste moment kan gebeuren, kunnen de normale berekeningen langer doorgaan, wat prestatiewinst oplevert.

Sneller geheugen dankzij GDDR5X en betere compressie

De GP104 heeft een 256-bit geheugencontroller, die opgedeeld is in 8 segmenten van 32-bit. De controller ondersteunt naast het conventionele GDDR5 ook het nieuwe GDDR5X-geheugen. GDDR5X is een doorontwikkeling van GDDR5 waarbij veel hogere snelheden mogelijk zijn: de GDDR5X geheugenchips op de GTX 1080 werken op 2500 MHz. Omdat er bij GDDR-geheugen iedere klokslag vier bits worden getransporteerd, spreekt men over 10 GHz geheugen. Het maakt dat over elk van de 256 geheugenkanalen iedere 100 picoseconden een bit wordt getransporteerd. Om je een idee te geven hoe snel dat is; in 100 picoseconden reist licht slechts zo'n 2,5 centimeter. De hogere kloksnelheid heeft volgens Nvidia echter geen hoger stroomverbruik tot gevolg, omdat het voltage is teruggebracht van 1,5V naar 1,35V. GDDR5X is ontwikkeld door Micron en zij zijn (op dit moment) de enige leverancier van dit type geheugen.

De GP104 is dus uitdrukkelijk niet geschikt voor HBM of HBM2 (High Bandwidth Memory) geheugen, zoals we dat kennen van de AMD Fury-kaarten. Volgens Nvidia heeft een combinatie van prijs en beschikbaarheid de keuze op GDDR5X laten vallen. Overigens geeft Nvidia aan voor de toekomst absoluut geloof te hebben in HBM; de high-end GP100 chip zal dan ook voorzien worden van een HBM2 geheugencontroller.

Om de prestatie binnen de hele GPU verder te verbeteren heeft Nvidia de interne lossless datacompressie algoritmes verder verbeterd, waardoor het binnen de chip of tussen de GPU en het geheugen transporteren van pixel- en/of texture-data verder geoptimaliseerd is. Maxwell ondersteunde al een 2:1 compressietechniek, maar deze is verder verbeterd en aangevuld met 4:1 en 8:1 methodes. De Pascal GPU probeert steeds voor alle nieuwe data te bepalen wat de optimale compressietechniek is die toegepast kan worden. Hoe de compressie exact werkt laat Nvidia niet los, maar wel is duidelijk dat men gebruikmaakt van verschilwaardes. Wanneer opeenvolgende pixels in een texture bijvoorbeeld allebei rood zijn met een klein verschil wordt voor de eerste pixels de volledige 32-bit kleurcode opgeslagen en voor de tweede pixel puur het verschil met de kleur van de eerste, wat dan wellicht in 8 of zelfs 4 bits past.

Onderstaande screenshots tonen een scene uit Project Cars waarbij inzichtelijk wordt gemaakt voor welke pixels men eerder al bij Maxwell en nu bij Pascal compressie kon toepassen. De pixels waarvoor data gecomprimeerd kon worden zijn paars gemaakt. Het verschil is aanzienlijk.

Dankzij de hogere klokfrequenties van GDDR5X heeft de GeForce GTX 1080 een geheugenbandbreedte die zo'n 40% hoger ligt dan die van de GTX 980. Volgens Nvidia zorgen de verbeterde compressiemethodes daarnaast nog voor 20% extra winst, waardoor de geheugenbandbreedte in de praktijk zo’n 70% hoger zou liggen dan bij de GTX 980. In een wereld van steeds hogere resoluties en steeds scherpere textures is dat natuurlijk geen overbodige luxe.

Sneller in VR dankzij Simultaneous Multi-Projection

Met afstand de belangrijkste nieuwe functionaliteit van de Pascal-generatie GPU’s is een technologie getiteld Simultaneous Multi-Projection. Het maakt dat dezelfde 3D-scene gelijktijdig berekend kan worden vanuit verschillende gezichtspunten. Het biedt een gigantische prestatiewinst voor gebruikers van een VR-headset en kan ook gebruikt worden voor het verbeteren van de weergave van 3D-games in multi-monitor setups.

Om precies te begrijpen wat SMP doet, moeten we even terug naar de basale werking van een GPU. Voor ieder te berekenen beeld krijgt de GPU allereerst vanuit de processor alle data aangeleverd over wat er precies gebeurt in de game. Daarna gaat de zogenaamde front-end van de GPU aan de slag en draaien algoritmes die de opbouw van objecten de virtuele 3D-wereld regelen. Alle 3D-objecten worden zoals bekend opgebouwd uit driehoeken, triangles in jargon. Vertex shader algoritmes kunnen de exacte plaatsing en opbouw van de triangles aanpassen, tesselation kan een object opbouwen uit meer segmenten door triangles op te delen in meerdere kleinere driehoeken en geometry shader algoritmes kunnen daarna meer detail toevoegen door bijvoorbeeld op basis van die extra driehoeken reliefwerking e.d. toe te voegen. Na deze stap is de virtuele 3D wereld opgebouwd en vindt zogenaamde rasterization plaatsen. Hierbij de 3D-wereld vanuit een specifiek camera standpunt geprojecteerd tot een 2D-beeld en omgezet in daadwerkelijke pixels zoals die uiteindelijk op het scherm verschijnen. Zodra dat gebeurd is zorgen pixel shader algoritmes samen met zaken als texturing (het plaatsen van afbeeldingen op driehoeken) voor de daadwerkelijke inkleuring voor de textures.

Tijdens de rasterization komt SMP om de hoek kijken. Traditionele GPU’s doen hun berekeningen op basis van één camerastandpunt, namelijk het standpunt van het huidige beeld op je monitor. Dankzij SMP kunnen Pascal GPU’s gelijktijdig tot 16 projecties berekenen. Zelfs wanneer van dezelfde scene meerdere projecties worden gemaakt, worden alle eerste stappen van de GPU-pipeline (alles tot en met de geometry shader) maar één keer uitgevoerd. Omdat traditionele GPU’s dit niet kunnen, moet wanneer er twee of meer projecties nodig zijn alles meerdere keren gebeuren. En juist bij VR, waar er voor elke beeld twee ietwat afwijkende camerastandpunten nodig zijn voor het linker en het rechter oog, scheelt dat flink. Maar VR is niet de enige toepassing waar SMP profijt brengt…

Multi-monitor

Misschien de belangrijkste verbetering die SMP brengt, is de betere ondersteuning voor gamen op meerdere schermen. Wanneer je bijvoorbeeld speelt op drie schermen wordt er een projectie gemaakt als één breed 2D-vlak en is het beeld enkel kloppend wanneer je de monitoren recht naast elkaar ziet. Wie drie schermen in een hoek plaatst om zo 'midden in de actie' te zitten, kijkt vanuit een andere hoek naar scherm 1 en 3 dan waarvoor de beelden berekend zijn, wat een vertekening tot gevolg heeft. Een klein aantal games biedt de mogelijkheid om dit te verhelpen, maar daarvoor had je tot nu toe drie losse videokaarten nodig. Dat is bij Pascal voorbij! Dankzij SMP kan je in de drivers aangeven onder welke hoek je schermen ten opzichte van elkaar geplaatst zijn. De 3D-beelden worden voor elk van de schermen door één en dezelfde GPU vervolgens vanuit een kloppend camerastandpunt gerenderd. Wie dus bijvoorbeeld drie schermen als het ware om zich heen zet, zal daardoor ook meer van de zijkant kunnen zien dan puur een breder gezichtsveld naar voren.


Een surround opstelling met drie schermen, links met perspectief correctie, rechts zonder. In de oude situatie (rechts) is het beeld op de buitenste schermen vertekend. Links klopt het beeld en heb je daardoor een breder blikveld.

Onderstaande afbeeldingen, waarbij je ingezoomd naast elkaar de middelste en de rechter monitor van een 3-weg opstelling onder een hoek ziet, tonen het effect nog veel duidelijker.

Het mooie van SMP is niet alleen dat deze correctie überhaupt met een enkele videokaart mogelijk is, maar ook dat het zonder enig prestatieverlies kan, aldus Nvidia.

VR versneld

SMP is echter primair ontwikkeld ten behoeve van virtual reality. Bij VR-headsets moeten 3D-beelden zoals gezegd vanuit twee licht verschillende camerastandpunten (voor je linker- en rechteroog) worden berekend, waarna die camerastandpunten worden samengevoegd in één beeld, dat naar de VR-headset wordt gestuurd. Om dat met traditionele GPU's te doen zijn er de nodige software trucs nodig om beide beelden los van elkaar te berekenen en vervolgens samen te voegen. SMP maakt het mogelijk om dit één keer te doen, zonder tussenstappen die ten koste van de prestaties gaan.

Maar Nvidia gaat nog een stap verder. Wie zich heeft verdiept in VR weet dat GPU’s beelden voor headsets als de Oculus Rift en de HTC Vive met een soort van conische vervorming moeten berekenen om te compenseren voor het effect van de lenzen in de headsets. Vierkanten 2D-beelden moeten na het renderen worden omgezet in VR-vriendelijke beelden (zoals te zien op de onderstaande screenshots), om daarna achter de lenzen te worden geprojecteerd. Bij die omzetting gaan veel berekende pixels verloren, vooral uit de hoeken. Verspilling van rekenkracht dus!


Links een 3D-beeld zoals berekend door een GPU, rechts de aangepaste variant zoals die wordt gestuurd naar een VR-headset waarbij rekening wordt gehouden met de vertekening van de lenzen. Bij deze aanpassing worden veel pixels uit de randen weggegooid.

Dankzij multi-projection maakt men voor beide ogen vier verschillende projecties (acht in totaal) die aantal elkaar geplakt dicht in de buurt komen van de projectie zoals nodig voor de lenzen. Op die manier is er minder nabewerking nodig en is de beeldkwaliteit beter, maar het belangrijkste voordeel is nog wel dat er veel minder overbodige pixels worden berekend.

Om even het voordeel van SMP te illustreren: traditionele GPU’s moeten per frame voor de Oculus Rift zo’n 4,2 miljoen pixels berekenen. Pascal videokaarten kunnen echter dankzij SMP echt optimale projecties berekenen en deze vervolgens samenvoegen, waardoor ze met een stuk minder pixels (2,8 miljoen) zelfs betere beeldkwaliteit bereiken.

Het maakt dus dat voor VR bij de eerste stappen van de 3D-pipeline er 50% van het GPU-rekenkracht wordt bespaard en in de laatste stappen 33%. We schreven op de voorgaande pagina al dat de GTX 1080 dankzij de extra shader units en de hogere klokfrequenties in theorie tot 1,7x de prestaties van voorloper GTX 980 moet kunnen bieden. Dankzij de SMP-trukendoos moet de nieuwe kaart in VR-applicaties dus zelfs tot 2,7x zo snel zijn dan de GTX 980.

Voor SMP is volgens Nvidia uitdrukkelijk hardwarematige ondersteuning nodig. Het is dus niet mogelijk de technologie via een driver-update ook voor bestaande kaarten beschikbaar te maken.

Nieuwe overklokmogelijkheden: GPU Boost 3.0

De Pascal GPU's hebben een nieuwe versie van de GPU Boost-functionaliteit, die overklokkers meer mogelijkheden moet geven om hun kaart op optimale snelheid te laten werken. Zoals bekend variëren moderne Nvidia GPU’s constant qua spanning en klokfrequentie, afhankelijk van de beschikbare workload, de GPU-temperatuur en het stroomverbruik. De GPU kan op verschillende voltages werken, waarbij elk voltage correspondeert met een bijbehorende klokfrequentie.

Gebruikers die hun kaart willen overklokken, hebben met de huidige generatie videokaarten maar twee opties. Allereerst kan je door de stroomlimiet te verhogen de kaarten vaker en langer richting hogere voltage/frequentie-niveaus forceren. Ten tweede kan je bij bestaande Nvidia kaarten de frequentie procentueel verhogen, waarbij bij elk van de voltage/frequentie-stappen de klokfrequentie hoger uitvalt.

Bij GPU Boost 3.0 gaat men nu een stap verder voor wie graag tijd wil investeren om z’n kaart echt op zo hoog mogelijke prestaties te laten werken. Met een nieuwe versie van EVGA’s Precision-tool als ook met een toekomstige versie van MSI Afterburner, kun je een zogenaamde 'OC Scan' uitvoeren, waarbij exact inzichtelijk wordt gemaakt welke voltage/frequentie-punten jouw specifieke kaart heeft. Overklokken kan daarna ofwel op de snelle, oude manier door bij alle stappen er simpelweg eenzelfde aantal MHz’en bovenop te zetten, maar je kunt nu ook ieder voltagepunt afzonderlijk qua frequentie aanpassen. Het zal een hele puzzel zijn om voor elk van de punten de optimale waarde te vinden, maar het zal er wel voor zorgen dat juist overklokkers die bereid zijn voldoende tijd te spenderen betere resultaten kunnen bereiken.

Zoals altijd raadt Nvidia normale gebruikers af om de overkloktools überhaupt te gebruiken, omdat de GPU Boost technologie sowieso al binnen bepaalde marges voor zo hoog mogelijke klokfrequenties zorgt. Verder overklokken heeft volgens Nvidia onherroepelijk een gevolg voor de levensduur van de kaart. Dat een Nvidia medewerker zich tijdens de presentatie liet ontglippen dat dit “voor iemand die z’n videokaart na anderhalf jaar weer verkoopt wellicht toch niet zo’n issue is”, is misschien nog wel eerder een waarschuwing voor kopers van tweedehands videokaarten dan voor overklokkers zelf.

SLI versneld, maar beperkt tot twee kaarten

En dan SLI, want ook op dit vlak zijn er vernieuwingen. Samen met de GTX 1070 en 1080 introduceert Nvidia een nieuwe type SLI-brug, die luistert naar de naam SLI HB, waarbij HB staat voor high-bandwidth. Met de nieuwe brug, die overigens in drie formaten wordt uitgebracht voor 0, 1 en 2 slots tussenruimte, worden twee kaarten verbonden via twee SLI-connectors en werkt de interne verbinding op een hogere klokfrequentie. Volgens Nvidia is de opkomst van steeds hogere resoluties en multi-monitor opstellingen een reden om verbinding tussen twee kaarten in SLI te versnellen. Oude, bestaande SLI-bruggen zijn nog wel te gebruiken maar zijn volgens Nvidia enkel geschikt voor resoluties tot aan 2560x1440 bij 60 Hz. Zodra je oude bruggen gebruikt met hogere resoluties geven de drivers een waarschuwing. In de hogere resoluties werken de oude bruggen wel, maar dus met lagere prestaties tot gevolg.

De overstap naar dit nieuw type SLI maakt ook dat Nvidia bij de GTX 1080 en GTX 1070 in principe enkel nog configuraties met twee kaarten mogelijk maakt. 3-way en 4-way SLI is standaard niet mogelijk, al is het ook niet helemaal van tafel geveegd. Speciaal voor overklokkers komt Nvidia met een speciale driver unlocker om 3-way en 4-way toch mogelijk te maken, al moet je dan wel gebruik maken van oudere (en dus langzamere) SLI-bruggen. Nvidia geeft wel duidelijk aan dat 3-way en 4-way SLI met de GTX 1070 en GTX 1080 echt puur is voor mensen die 3DMark records willen vestigen; in games hoeven geen betere prestaties te worden verwacht en kan het toevoegen van een derde of vierde kaart zelfs een nadelig effect hebben.

Let wel, we hebben het hier concreet over de bestaande vorm van SLI, die Nvidia inmiddels om onduidelijkheid te voorkomen 'implicit SLI' noemt. Hierbij werken twee (of meer) videokaarten samen en berekenen ze om-en-om beelden (AFR ofwel Alternate Frame Rendering), terwijl de combinatie zich richting een game-engine presenteert als één kaart.

Nieuw bij DirectX 12 is natuurlijk dat games ook zelf direct meerdere kaarten kunnen aansturen en hun workload op slimmere manieren kunnen verdelen. Hierbij is het wel mogelijk om meer dan twee kaarten te combineren, zonder dat het dezelfde kaarten hoeven te zijn of je een SLI-brug nodig hebt. De game engine moet het echter wel ondersteunen. Een variant die er een beetje tussenin zit is Explicit SLI, waarbij de game engine op de hoogte is van de aanwezigheid van meerdere kaarten en de werkdruk verdeelt, maar er wel gebruik wordt gemaakt van identieke kaarten. Ook hier moet de game dus specifiek ondersteuning voor bieden.

Op basis van een gesprek met Nvidia engineers mogen we trouwens wel concluderen dat de dagen van traditionele SLI (en Crossfire) technologieën geteld zijn. In moderne game-engines bestaan er steeds vaker afhankelijkheden tussen opeenvolgende frames, bijvoorbeeld omdat de GPU wordt ingezet voor meer dan enkel het berekenen van beeld. Dat maakt dat de AFR-techniek steeds minder goed kan worden ingezet. DirectX 12 multi display adapter is duidelijk de weg voorwaarts voor systemen met meer dan één videokaart, maar het zal nog wel even duren eer dat in de meerderheid van de nieuwe games ondersteund wordt.

SLI in VR

Een belangrijk punt wat in deze nog even aangesneden moet worden is VR. De traditionele SLI-techniek waarbij videokaarten om-en-om frames berekenen (AFR) is bij VR niet toe te passen, aangezien er teveel variatie in frame rendertijden kan ontstaan, wat weer tot ongewenste effecten kan leiden (denk aan duizeligheid). De enige juiste manier waarop twee videokaarten binnen VR kunnen samenwerken is wanneer ze gelijktijdig werken aan hetzelfde frame voor het linker en rechter oog. Dat is bij games die daar specifiek geschikt voor zijn gemaakt mogelijk via explicit SLI en/of via DirectX 12 MDA. Maar let wel; dankzij SMP hoeft de helft van het werk niet dubbel gedaan te worden als één GPU het beeld voor beide ogen doet, bij SLI is er dus wel dubbel werk, wat betekent dat de prestatiewinst nooit in de buurt kan komen van een verdubbeling.

We staan aan de vooravond van de opkomst van VR en ook aan de vooravond van nieuwe vormen van SLI en Crossfire dus het is nog wat te vroeg om conclusies te trekken. Maar is het veilig te stellen dat SLI en Crossfire in de wereld van DirectX 12 en VR veel minder voor de hand liggend zullen zijn dan nu en dat grote prestatiewinsten steeds minder vaak te verwachten mogen zijn.

Andere nieuwe mogelijkheden: HDR, Fast Sync

Voordat we over gaan naar onze testresultaten, zijn er nog een aantal andere zaken die de GTX 1080 en 1070 bijzonder maken: betere ondersteuning voor HDR, een nieuwe technologie die het V-Sync dilemma moet oplossen, speciale software om betere screenshots te maken en een nieuwe audio technologie.

HDR

In de wereld van TV’s is HDR ofwel High Dynamic Range tegenwoordig een hot-topic. HDR TV’s kunnen beelden met een hogere helderheid weergeven en kunnen een grotere kleurruimte verwerken. Wie een HDR-televisie met specifieke HDR content heeft gezien, zal moeite hebben weer naar een conventioneel toestel te moeten kijken. Een goede introductie over HDR vind je in deze aflevering van Hardware.Info TV en in dit artikel.

Dankzij ondersteuning voor HDMI 2.0b en DisplayPort 1.4 hebben de GTX 1080 en 1070 alles om aangesloten te worden op moderne HDR-televisies en toekomstige HDR PC-beeldschermen. Hoewel we dat nog niet 100% bevestigd hebben gekregen, lijkt het erop dat de kaarten voldoen aan alle vereisten voor de Ultra HD Premium standaard.

Maar niet alleen de monitoruitgangen van de nieuwe kaarten zijn geschikt voor HDR, de video engines in de kaarten hebben ook een upgrade gekregen. Zo kan de geïntegreerde video-decoder H.264 (AVC) en H.265 (HEVC) video met 10-bit en zelfs 12-bit kleur decoderen in resoluties tot Ultra HD met 60 fps. En dat is niet alles, want ook de geïntegreerde video-encoder heeft een upgrade gekregen en ondersteunt nu hardwarematig HEVC met 10-bit kleur in resoluties tot Ultra HD tot 60fps.

Dankzij dat laatste biedt Nvidia een interessante optie. Aangezien er nog geen HDR-monitoren zijn, is het gebruiken van een HDR-televisie op dit moment de enige manier om games in HDR te spelen. Maar niet iedereen wil z’n dikke game-PC met GTX 1080 in de woonkamer zetten. Dankzij een upgrade van de GameStream software hoeven bezitters van een Nvidia Shield TV console dat ook niet te doen. De GTX 1080 kan game-beelden realtime coderen naar Ultra HD HEVC met 10-bit HDR en dan streamen naar de Shield TV, die de beelden vervolgens op een geschikte TV toont.

Volgens Nvidia zullen de nodige games de komende periode specifieke ondersteuning bieden voor HDR. Genoemde titels zijn Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle en Shadow Warrior 2.

Fast Sync; oplossing voor het wel of geen V-Sync dilemma?

Met Fast Sync introduceert Nvidia bij de GeForce GTX 1080 en GTX 1070 een oplossing voor het aloude “wel of geen V-Sync” dilemma. De nieuwe technologie moet ervoor zorgen dat spelers van snelle, competitieve games (denk bijvoorbeeld aan MOBA’s) kunnen blijven gamen met zo laag mogelijke latency, zonder compromissen qua beeldkwaliteit.

Wat is er aan de hand? LCD-monitoren werken traditioneel met een verversingsfrequentie van 60 Hz, oftewel, ze kunnen 60 keer per seconde een nieuw beeld tonen. Overigens kunnen duurdere, moderne schermen vaak ook 120 of 144 beelden per seconde weergeven. .

Games stemmen in de regel het berekenen van frames af op deze verversingsfrequentie. Met V-Sync (ofwel Vertical Sync) ingeschakeld – de standaard instelling bij de meeste games – zal getracht worden om 60 beelden er seconde te berekenen en om iedere keer wanneer de monitor een nieuw frame kan weergeven een volledig nieuwe beeld klaar te hebben.

Zeker MOBA-gamers spelen in de regel met V-Sync uitgeschakeld. De videokaart krijgt dan vrij spel en mag zo veel mogelijk beelden per seconde berekenen; en met rappe kaarten als de GTX 1080 in games als League of Legends of DOTA 2 wordt dat al snel 200 fps of meer. Zodra een nieuw frame klaar is, wordt het direct in de zogenaamde framebuffer geplaatst van waaruit de monitor wordt aangestuurd. Die monitor op zijn beurt doet er in het geval van een 60 Hz exemplaar zo’n 16,7 milliseconde om lijn-voor-lijn van boven naar onder nieuwe beelden te verwerken. Wanneer de game engine met zo’n 200 fps beelden kan berekenen, komt er binnen die tijd informatie van drie tot vier nieuwe frames beschikbaar. Het resultaat is tearing; halverwege het beeld is er een horizontale “knip” omdat vanaf daar beeldlijnen van een volgend frame worden getoond dat dankzij de snelle actie duidelijk verschoven is. Die tearing is een aanzienlijke verslechtering van de beeldkwaliteit, maar dat nemen zeker MOBA-gamers op de koop toe; met V-Sync uit komen eigen en vooral ook andermans acties zo snel mogelijk in beeld. Wie competitief MOBA’s speelt in de topklasse kan met V-Sync ingeschakeld feitelijk niet winnen.

Fast Sync wordt door Nvidia aangekondigd als een oplossing “waarvan je je afvraagt waarom het niet eerder is bedacht”, en dat klopt. In feite biedt het het beste van twee werelden. Met Fast Sync ingeschakeld blijft de GPU nog altijd zoveel mogelijk beelden per seconde berekenen. In tegenstelling tot bij V-Sync wordt de game engine dus niet afgeremd. Maar er zijn bij Fast Sync twee zogenaamde back buffers waarin beelden worden berekend en pas telkens wanneer de monitor begint met de opbouw van een nieuw beeld wordt het laatst berekende complete frame naar de front frame buffer gekopieerd. Doordat de game engine niet wordt afgeremd is de gemiddelde "leeftijd" van het laatste berekende complete frame op het moment dat de monitor een nieuw beeld gaat opbouwen een stuk kleiner dan bij V-Sync waar de engine op veel langzamere snelheid nieuwe frames aflevert. Maar juist doordat net als bij V-Sync aan alleen complete beelden getoond worden en dat er niet halverwege de beeldopbouw wordt overgeschakeld naar data van een opvolgend frame: geen tearing dus.

Het resulteert in wat Nvidia zelf het beste van twee werelden noemt. Fast Sync doet net als V-Sync ingeschakeld geen compromissen qua beeldkwaliteit en de gemiddelde latency is slechts beperkt hoger dan met V-Sync uitgeschakeld. Het zal moeten blijken of de gemiddelde latency inderdaad laag genoeg is voor competitieve MOBA-gamers om over te stappen.

Een voor de hand liggende vraag is of Fast Sync gezien kan worden als opvolger van G-Sync, maar dat is geenszins het geval. Sterker nog; beide technologieën zijn complementair in de zin dat ze goed werk kunnen verrichten in juist tegenovergestelde situaties. Fast Sync is interessant wanneer de GPU binnen een game veel méér beelden per seconde kan berekenen dan de monitor kan weergeven. G-Sync, de technologie waarbij de verversingsfrequentie van de monitor wordt gesynchroniseerd met de GPU, is juist primair geschikt om een betere spelervaring te bieden wanneer een kaart minder beelden per seconde dan de eigenlijk verversingfrequentie van de monitor kan berekenen.

Fast Sync kan via het Nvidia control panel worden afgedwongen, maar zal bij toekomstige games ook direct binnen de game ingesteld kunnen worden. Het is ons op dit moment niet helemaal duidelijk of Fast Sync ook beschikbaar komt voor bestaande kaarten.

Nvidia GeForce GTX 1080

Nvidia GeForce GTX 1080

Andere nieuwe mogelijkheden: Ansel en VR Audio

Nog twee andere nieuwe technologieën mogen benoemd worden; Ansel is een nieuwe technologie om in-game screenshots te maken en VR Audio moet de GPU laten meewerken aan betere audio in games.

Ansel: in-game screenshots als kunstvorm

Toegegeven, het is niet iets waar we bij Hardware.Info dagelijks mee bezig zijn, maar er is een trend ontstaan om zo mooi en artistiek mogelijke in-game screenshots te maken. Tijdens de presentatie ging Nvidia zelfs zo ver om dit een nieuwe kunstvorm te noemen. Wie met deze hobby aan de slag gaat, was tot nu toe beperkt tot camerastandpunten die binnen de game mogelijk zijn, maar een nieuwe Nvidia technologie gaat dat veranderen. Dankzij Nvidia Ansel kun je bij games die daar specifiek geschikt voor gemaakt zijn het spel pauzeren en daarna een screenshot maken vanuit ieder gewenst camerastandpunt. 

En dat is niet het enige. Zo biedt Ansel ook de mogelijkheid om screenshots in veel hogere resolutie op te slaan, tot 61.440 x 34.560 pixels aan toe. Verder zijn er mogelijkheden om diverse filters op de screenshot los te laten, zoals vignettering, aanpassing van de helderheid en diverse andere opties. Let wel; dit is geen "Photoshop", maar de aanpassingen worden door de GPU native gerenderd. Misschien wel de meest unieke feature van Ansel is de mogelijkheid om een 360 graden screenshot te maken. Die kun je daarna bekijken door middel van een VR-headset als de Oculus Rift of HTC Vive, maar middels een speciale app ook op een Android smartphone, al dan niet met behulp van Google Cardboard.

Games moeten Ansel zoals gezegd wel expliciet ondersteunen. De games Tom Clancy's The Division,The WitnessLaw BreakersThe Witcher Wild HuntParagonNo Man's Sky en Unreal Tournament werden genoemd als de eerste titels die Ansel functionaliteit zullen bieden.

VR Audio

Tijdens de presentatie van de GeForce GTX 1080 en 1070 kondigde Nvidia aan haar VRWorks software flink te hebben uitgebreid, een set technologieën waar game developers gebruik van kunnen maken om hun games (beter) geschikt te maken voor VR. Eén van de belangrijkste vernieuwingen is VRWorks Audio, dat het mogelijk maakt om de GPU reflecties en absorptie van geluidsgolven binnen een virtuele 3D-ruimte te laten berekenen om op die manier een realistischer geluidsbeeld te creëren. 

De laatste keer dat een GPU-fabrikant hardwarematige ondersteuning bood voor het berekenen van 3D geluid - AMD's TrueAudio in de Hawaii GPU en diens opvolgers - werd het een grote flop, hoe interessant de technologie ook was. Het is dus maar de vraag of VRWorks Audio wél voldoende enthousiasme bij game-developers kan genereren, aangezien ook dit een propriëtaire (lees: Nvidia-only) technologie is.

En om meteen nog een extra dosis gezonde scepsis toe te voegen; de demo die Nvidia tijdens de presentatie van de GTX 1080 en GTX 1070 gaf over VRWorks Audio draaide op drie GTX 1080 kaarten, waarvan één volledig belast was met audio. “Er zijn nog wel wat optimalisaties nodig ja” was het nuchtere antwoord van Nvidia op onze vraag of het inzetten van een complete 600 dollar kostende videokaart voor audio niet wat gortig was. We zullen zien!

Om alle mogelijkheden van VRWorks te demonstreren brengt Nvidia een nieuwe demo-applicatie uit, getiteld Nvidia VR Funhouse. In deze demo kan niet alleen VRWorks Audio worden uitgeprobeerd, maar worden ook vele physics effecten binnen VR gedemonstreerd.

Overigens is VRWorks Audio nog niet af. Het is maar de vraag wanneer ontwikkelaars er exact mee aan de slag kunnen – als ze dat al willen.

Specificaties

Hier zie je de specificaties van de GTX 1080.

Algemeen
 
MerkNvidia
ProductnaamGeForce GTX 1080
ProductcodeGEFORCE GTX 1080
DetailsProductinfo
Chip
CodenaamGP104
ArchitectuurPascal
Rekenkernen2560 cores
Kloksnelheid1607 MHz
Kloksnelheid boost1734 MHz
Transistors7200 mln
Die-grootte314 mm²
Productieprocedé16 nm
Geheugen
Geheugengrootte8192 MB
Type geheugenGDDR5X
Geheugensnelheid1250 MHz
Geheugencontroller256 bit
Bandbreedte320 GB/s
Functionaliteit
DirectX versieDirectX 12 fl 12_1
SLI compatible
Crossfire compatible
HDMI versie2.0b
DisplayPort versie1.4
Geïntegreerde H.264 videodecoder
Geïntegreerde H.265 videodecoder
Geïntegreerde VC-1 videodecoder
Kaartontwerp
InterfacePCI-Express 3.0 x16
Extra power-connector
Type power connector(s)PEG8
Total board power180 W
Lengte27 cm

Hoe test Hardware.Info videokaarten

Wij testen videokaarten op een op Intel Haswell-E processor gebaseerd testplatform. De exacte specificaties van het testplatform zijn als volgt: 

Op dit moment testen we 3DMark Fire Strike, aangevuld met tien games uit onze kernselectie.

  • 3DMark Fire Strike
  • Anno 2205
  • Battlefield 4
  • Dirt Rally
  • F1 2015
  • Far Cry Primal
  • GTA V
  • Metro Last Light
  • Project Cars
  • Rainbow Siege Six
  • The Division

Al deze games draaien we in een viertal of zestal resoluties / instellingen:

  • 1920x1080 (Full HD) Medium / Normal
  • 1920x1080 (Full HD) Highest / Ultra + 4x MSAA
  • 2560x1440 (WQHD) Medium / Normal
  • 2560x1440 (WQHD) Highest / Ultra
  • 3840x2160 (Ultra HD) Medium / Normal
  • 3840x2160 (Ultra HD) Highest / Ultra + 4x MSAA

Naast de gemiddelde framerate (fps) meten we voor een aantal games ook de frametimes en tonen we het 99ste percentiel daarvan. Klik hier voor ons artikel over deze methodiek waarin we uitleggen waarom deze getallen nog veel belangrijker zijn dan de fps-waardes. 

Op basis van de scores van de tien belangrijkste games berekenen we de Hardware.Info GPU-prestatiescore, die in feite voor elk van de resoluties/settings het gemiddelde van de gemeten framerates is. Deze GPU-prestatiescore geeft met één blik de beste indruk van de prestaties van videokaarten.

Voor de Nvidia GeForce GTX 1080 hebben we driverversie 368.13 gebruikt.

 


Ons nieuwe testsysteem gebaseerd op Intel Core i7 5960X en MSI X99S Gaming 9 AC.

In de grafieken is de GTX 1080 blauw, terwijl de voorgangers zwart zijn.

Benchmarks: 3DMark Fire Strike / Extreme / Ultra

3DMark is uiteraard geen game, maar geeft vaak wel een goede indicatie van de prestaties. De GTX 1080 blijkt hier aanzienlijk sneller te zijn dan de GTX 980 Ti en hij nadert zelfs de score van twee GTX 980 kaarten.

Benchmarks: Anno 2205

De RTS game Anno 2205 is een van de zwaardere spellen, vooral op hogere resoluties en kwaliteitsinstellingen. Hier zien we dat de GTX 1080 aanzienlijk beter presteert dan de GTX 980 Ti, terwijl hij in de zwaardere benchmarks soms twee keer zo snel is als de GTX 980.

Benchmarks: Battlefield 4

Battlefield 4 staat bekend als een van de games die goed geoptimaliseerd is en daarom het uiterste kan halen uit zowel de GPU als de CPU. Op Full HD Medium zien we echter geen verschil met de vorige generatie videokaarten, door de 200 fps framelock van de Frostbite Engine. Op hogere resoluties en kwaliteitsinstellingen is de GTX 1080 sneller dan de GTX 980 Ti en bijna even snel als de GTX 980 in SLI.

Benchmarks: Dirt Rally

Ook het racespel Dirt Rally komt met de snellere in Full HD Medium al snel aan zijn maximum. In WQHD Medium zien we dat de GTX 1080 aan de maximale framerate komt, waardoor het verschil met de GTX 980 Ti kleiner lijkt dan het daadwerkelijk is. Bij hogere resoluties en instellingen zien we echter weer een significante verbetering van ruim 30% boven de GTX 980 Ti.

Benchmarks: F1 2015

Ook bij F1 2015 zien we weer hetzelfde patroon: pas bij hogere resoluties en instellingen komt de GTX 1080 tot zijn recht.

Benchmarks: Far Cry Primal

Ook in Far Cry Primal is de GTX 1080 in Ultra HD ruim 30% sneller dan de GTX 980 Ti.

Benchmarks: GTA V

In GTA V kwamen we wat rare resultaten tegen. De GTX 1080 blijkt bijvoorbeeld in Full HD en WQHD op Medium settings iets langzamer te zijn, maar dit komt waarschijnlijk meer door een (CPU-)bottleneck en betekent niet dat de kaart langzamer is in deze test. De Very High test, die veel zwaarder leunt op pure GPU-prestaties, laat daarom ook grote verbeteringen zien van tot wel 50% boven de GTX 980 Ti.

Benchmarks: Metro Last Light

In Metro Last Light zien we weer hetzelfde: de GTX 1080 is stukken sneller dan de GTX 980 Ti, hoewel de prestatiewinst in dit spel iets minder groot is dan gemiddeld.

Benchmarks: Project Cars

In Project Cars presteert de GTX 1080 bijzonder goed, ook in Full HD Medium, omdat je bij dit spel een hogere framerate dan 200 fps kan halen. Ook op andere resoluties zijn de prestaties indrukwekkend, met soms een verbetering van wel 70% boven de GTX 980 Ti.

Benchmarks: Rainbow Six Siege

Ook in Rainbow Six Siege haalt de GTX 1080 behoorlijk betere prestaties dan de GTX 980 Ti. In WQHD en Ultra HD ligt de verbetering rond de 50%.

Benchmarks: The Division

In The Division leek er in eerste instantie sprake van een nog grotere prestatieverbetering ten opzichte van de GTX 980 Ti, maar hier lijkt de oorzaak te zijn dat het spel sinds onze eerdere test geoptimaliseerd is en stukken daarom beter presteert. We hebben de test daarom opnieuw gedaan met de belangrijkste videokaarten.

Benchmarks: Hardware.Info GPU Prestatiescore 2016

Dan de Prestatiescore, die is gebaseerd op de gemiddelde framerate die de kaart haalt in de tien DX11 games die we testen. Op Full HD Medium is de winst uiteraard beperkt, vanwege verschillende bottlenecks and framelocks. Waar de kaart echt in uitblinkt, is het gamen op Ultra HD. Daar is er sprake van een gemiddelde prestatieverbetering van ruim 40% ten opzichte van de GTX 980 Ti, en bijna een verdubbeling ten opzichte van de GTX 980.

Met de GTX 1080 is gamen in Ultra HD op de hoogste instellingen binnen handbereik. Je zal sommige instellingen wel wat lager moeten instellen als je 60 fps wilt halen, maar je hoeft veel minder beeldkwaliteit op te offeren dan voorheen. 

 

Benchmarks: GTX 1080 versus voorgangers

Op basis van de Hardware.Info Prestatiescore (de gemiddelde framerate in de tien games) kunnen we berekenen hoeveel de prestaties van de GTX 1080 zijn verbeterd ten opzichte van de topkaarten van de huidige generatie. Vooral op hogere resoluties en kwaliteitsinstellingen is het verschil groot. 

  t.o.v. GTX 980 Ti t.o.v. GTX 980 t.o.v. Fury X
Full HD Medium 20,2% 33,8% 39,2%
Full HD Ultra 42,5% 75,1% 62,7%
WQHD Medium 26,1% 50,6% 41,1%
WQHD Ultra 40,6% 75,0% 54,3%
Ultra HD Medium 40,1% 76,3% 51,6%
Ultra HD Ultra 43,9% 90,0% 56,7%
Gemiddeld 35,6% 66,8% 50,9%

Als we hem vergelijken met de kaarten van de vorige generatie, zijn de prestatieverbeteringen echt gigantisch. Gemiddeld is de GTX 1080 meer dan twee keer zo snel als de GTX 770, GTX 780 en de R9 290.

  t.o.v. GTX 780 t.o.v. GTX 770 t.o.v. R9 290
Full HD Medium 73,1% 95,8% 79,1%
Full HD Ultra 134,1% 180,3% 127,3%
WQHD Medium 105,8% 139,4% 91,9%
WQHD Ultra 134,0% 191,6% 119,8%
Ultra HD Medium 138,6% 184,7% 108,1%
Ultra HD Ultra 156,2% - 122,9%
Gemiddeld 123,6% 158,4% 108,2%

Testresultaten: Stroomverbruik

Het idle stroomverbruik is bij de GTX 1080 nog verder teruggedrongen. Hij is vier watt zuiniger dan zijn voorganger en komt in de buurt van het bijzonder lage stroomverbruik van de GTX 750 Ti. Onder load verbruikt hij iets meer dan we eigenlijk hadden verwacht van een videokaart op het nieuwe 16nm procedé, maar dit komt waarschijnlijk doordat hij veel hoger is geklokt. Dit geeft wel weer aan dat je je niet moet doodstaren op de door de fabrikanten opgegeven TDP-waardes.

Wel is hij een stuk zuiniger dan de GTX 980 Ti, terwijl hij wel veel beter presteert - dus met de performance per watt zit het wel goed.

Testresultaten: Geluidsproductie en temperatuur

De geluidsproductie van videokaarten meten we op een afstand van 10 centimeter binnen een geluidsdichte box, waarbij we de meter schuin op de videokaart richten. De load-test is een gemiddelde van 1 minuut gemeten tijdens een verlengde 3DMark Fire Strike Extreme run, nadat de kaart daarvoor een kleine 10 minuten in dezelfde benchmark is opgewarmd.

Hoewel Nvidia de Founders Edition probeert te positioneren als premium product, weet de referentiekoeler nog altijd weinig indruk te wekken. De referentiekoeler presteert niet beter dan die van de vorige generatie, wat betekent dat custom koelers hoogstwaarschijnlijk weer veel betere koelprestaties en -efficiëntie zullen leveren.

Overkloktest

Uiteraard hebben we ook een overkloktest uitgevoerd met de GTX 1080. Hiervoor hebben we het fanprofiel op 100% gezet en probeerden we de kaart zo ver mogelijk over te klokken. Nvidia liet tijdens de aankondiging in Austin zien dat de kaart met de referentiekoeler over te klokken was tot 2,1 GHz. De temperatuur van 62 graden klinkt indrukwekkend, maar dat is natuurlijk ook met het fanprofiel op 100%.

We halen relatief makkelijk de 2100 MHz, maar daarboven crasht het systeem helaas. 'Officieel' is dit een overklok van 350 MHz, maar net zoals de vorige generatie ligt de daadwerkelijke boostsnelheid iets hoger. In vrijwel alle spellen blijkt deze hoger te zijn dan 1800 MHz. Ook 250 MHz is een aardige overklok, maar wel iets minder vergeleken met het overklokpotentieel van de GTX 980 Ti.

De overklokbaarheid van het geheugen is ongeveer vergelijkbaar met die van het gewone GDDR5. Als we de geheugensnelheid met 800 MHz opschroeven, beginnen we echter al artifacts te zien.

Uiteindelijk komen we uit op een 3DMark Fire Strike Extreme score van 10994, een score die 13,3% hoger ligt dan wat we halen op de stocksnelheid.

Conclusie

De nieuwe Pascal architectuur presteert zeer goed. Nvidia zet met de GeForce GTX 1080 de snelste videokaart van dit moment in de markt. Op hogere resoluties en kwaliteitsinstellingen presteert hij voor hetzelfde geld 40% beter dan de GTX 980 Ti. Voor wie soepel op Ultra HD resolutie wil gamen, is dit een flinke stap in de juiste richting - hoewel je nog altijd anti-aliasing uit of lager moet zetten als je 60 fps wilt halen. Zeker gezien het feit dat de onderliggende GP104 een mid-range GPU is, zijn dit indrukwekkende resultaten.

Naast de prestatieverbeteringen zitten er in Pascal de nodige technische verbeteringen. Met Simultaneous Multi-Projection kan de GTX 1080 Virtual Reality veel efficiënter renderen, wat tot drie keer zo goede prestaties zou opleveren. Dit zullen we binnenkort ook gaan testen. Daarnaast is Nvidia in een keer overgestapt naar DisplayPort 1.4, waarmee Ultra HD gamen op 120 Hz en met HDR mogelijk wordt (mits de monitor deze standaard uiteraard ondersteunt). Voor FPS- en MOBA-gamers is FastSync een leuk extraatje waarmee tearing kan worden voorkomen met minder toegevoegde latency dan V-Sync.

Nvidia heeft aardig wat aandacht besteed aan het design van de referentiekaart, maar daar mag je wel fors extra voor betalen: met een adviesprijs van 795 euro zal de Founders Edition ruim 100 euro duurder zijn dan kaarten met koelers ontwikkeld door partners zoals ASUS en MSI. Tegelijkertijd is er niets speciaals aan de Founders Edition (hij is bijvoorbeeld niet gebinned om betere overklokprestaties mogelijk te maken) en zijn de koelprestaties ook niet echt om over naar huis te schrijven. Tenzij je het design die meerprijs en minder goede koelprestaties waard vindt, is het dus een beter idee om eventjes te wachten op kaarten met aftermarket koelers. Het zal niet al te lang duren voordat er custom kaarten op de markt komen: sommige fabrikanten zullen binnen enkele weken al hun versies uitbrengen. 

We zijn in ieder geval heel erg benieuwd naar de prestaties van de GTX 1070, de betaalbare variant van de GP104. Ook deze kaart zou volgens Nvidia sneller moeten zijn dan de GTX 980 Ti. Het is te hopen dat hij een even goede prijs/kwaliteitverhouding zal bieden als de GTX 970. Eventuele videokaarten op basis van high-end Pascal GPU's zijn ook interessant, maar daarvoor zullen we minstens tot het einde van het jaar moeten wachten.


Besproken producten

Vergelijk  

Product

Prijs

Asus GeForce GTX 1080 Founders Edition 8GB

Asus GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
EVGA GeForce GTX 1080 Founders Edition 8GB

EVGA GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
Gainward GeForce GTX 1080 Founders Edition 8GB

Gainward GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
Gigabyte GeForce GTX 1080 Founders Edition 8GB

Gigabyte GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
Inno3D GeForce GTX 1080 Founders Edition 8GB

Inno3D GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
KFA2 GeForce GTX 1080 Founders Edition 8GB

KFA2 GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
MSI GeForce GTX 1080 Founders Edition 8GB

MSI GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
Nvidia GeForce GTX 1070

Nvidia GeForce GTX 1070

  • GP104
  • 1920 cores
  • 1506 MHz
  • 8192 MB
  • 256 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
Nvidia GeForce GTX 1080

Nvidia GeForce GTX 1080

  • GP104
  • 2560 cores
  • 1607 MHz
  • 8192 MB
  • 256 bit
  • DirectX 12 fl 12_1
  • PCI-Express 3.0 x16
Niet verkrijgbaar
Palit GeForce GTX 1080 Founders Edition 8GB

Palit GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
PNY GeForce GTX 1080 Founders Edition 8GB

PNY GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
Zotac GeForce GTX 1080 Founders Edition 8GB

Zotac GeForce GTX 1080 Founders Edition 8GB

  • Nvidia GeForce GTX 1080
  • 1733 MHz
  • 8192 MB
Niet verkrijgbaar
0
*