nVidia GeForce GTX 680 review

Inhoudsopgave
  1. 1. Inleiding
  2. 2. GK104 chip
  3. 3. SMX
  4. 4. GeForce GTX 680
  5. 5. Vergelijking
  6. 6. GPU Boost
  7. 7. TXAA / Adaptive Vsync
  8. 8. 3D Vision Surround / NVENC
  9. 9. Techdemo's
  10. 10. Benchmarks
  11. 11. 3DMark Vantage
  12. 12. 3DMark11
  13. 13. Aliens versus Predator
  14. 14. Batman: Arkham City
  15. 15. Battlefield 3
  16. 16. Crysis 2
  17. 17. Dirt 3
  18. 18. Hard Reset
  19. 19. Heaven 2.5
  20. 20. Metro 2033
  21. 21. The Elder Scrolls V Skyrim
  22. 22. Total War Shogun 2
  23. 23. Prestaties GTX 680 vs. HD 7970
  24. 24. Stroomverbruik
  25. 25. Geluidsproductie
  26. 26. Overklokken
  27. 27. Hardware.Info TV
  28. 28. Conclusie
  29. 29. Besproken producten
  30. 30. Reacties

Inleiding

Eind december introduceerde AMD de Radeon HD 7970, waarmee men het stokje van nVidia overnam als leverancier van de snelste single-GPU videokaart. Niet alleen wat betreft prestaties ging AMD haar concurrent nVidia voorbij: de Radeon HD 7970 was de eerste videokaart met een 28 nm GPU, de eerste met een PCI-Express 3.0 interface en de eerste met ondersteuning voor DirectX 11.1. Het was dus wachten op een antwoord van nVidia op de Radeon HD 7970 en dat is er nu in de vorm van de GeForce GTX 680, een nieuwe videokaart gebaseerd op nVidia's nieuwe 28nm GK104 GPU. Uiteraard hebben wij de nieuwe kaart uitgebreid getest.

Die nieuwe GTX 680 is bijna on-nVidiaans: waar de GPU-leverancier zich in het high-end segment altijd op het punt stelde dat alles draait om pure prestaties en dat stroomverbruik en geluidsproductie daaraan ondergeschikt zijn, moet de nieuwe generatie het volgens nVidia voornamelijk van zijn efficiëntie hebben. Vooruitlopend op onze testresultaten: ja, de GeForce GTX 680 is over het algemeen sneller dan de Radeon HD 7970 en weet inderdaad die prestaties met een lager verbruik te bewerkstelligen. De keuze om de focus op efficiëntie te leggen is aan de andere kant ook wel een beetje uit nood geboren, waarover op de volgende pagina meer.

Naast betere prestaties dan zijn voorloper, heeft de GTX 680 de nodige andere vernieuwingen ten opzichte van de GTX 580: een innovatieve turbo-functionaliteit, een nieuwe anti-aliasing systeem en eindelijk de mogelijkheid om meer dan twee monitoren op één videokaart aan te sluiten.

Met een adviesprijs van € 419 excl. BTW, ofwel € 498 incl. BTW wordt de GeForce GTX 680 recht tegenover de Radeon HD 7970 gepositioneerd. De vraag welk van beide kaarten de beste keuze is, zullen we aan het eind van dit artikel proberen te beantwoorden. Eerst een duik in de techniek...

GK104 chip

De nVidia GeForce GTX 680 is gebaseerd op de GK104 GPU uit de Kepler generatie. Deze GPU is, net als AMD's nieuwste generatie GPU's, geproduceerd op basis van 28nm transistors. Wie de geruchten over nVidia's toekomstige videokaarten de afgelopen maanden op de voet gevolgd heeft, zal weten dat de GK104 eigenlijk was bedoeld voor nieuwe mid-range videokaarten. Een chip met codenaam GK110 stond op de planning als nieuwe high-end chip en als directe opvolger van de GF110 van de GeForce GTX 580. Wat er exact met die GK110 aan de hand is, is onduidelijk, maar één ding is zeker: het is nVidia niet gelukt om de chip goed werkend geproduceerd te krijgen en dus is de GK110 tot nader order uitgesteld. Misschien dat we een doorontwikkelde variant ervan ooit nog gaan tegenkomen als GeForce GTX 780, wie zal het zeggen.

Een geluk bij een ongeluk: de mid-range GK104, die oorspronkelijk dus voor een 'GeForce GTX 660 Ti'-achtige videokaart bestemd was, bleek veel beter te presteren dan vermoedelijk oorspronkelijk bedoeld. Zo goed zelfs dat nVidia zelfs met deze minder complexe GPU de prestaties van AMD's Radeon HD 7970 kan evenaren.

De GK104 is een 28 nm chip met 3,54 miljard transistors. Ter vergelijking: de 40nm GPU van de GPU van de GeForce GTX 580 had er circa 3 miljard. AMD's Tahiti GPU van de Radeon HD 7970 heeft nog meer transistors: 4,3 miljard. Hoewel nVidia de chip-grootte van de GK104 niet officieel bekend heeft gemaakt, mogen we op basis van het aantal transistors concluderen dat de chip minder groot en dus goedkoper te produceren is dan die van AMD.

De GK104 bestaat uit 1536 rekeneenheden, ofwel Cuda Cores zoals nVidia het noemt. Dat zijn er drie keer meer dan in de GF110, maar de architectuur is duidelijk anders, zoals we op de volgende pagina zullen zien, zodat die vergelijking niet één op één te maken is. De GK104 heeft een 256-bit geheugenbus: een stapje terug ten opzichte van de GF110, maar begrijpelijk als je bedenkt dat de chip als mid-range ontwikkeld is. De interface van de chip is PCI-Express 3.0.

Nvidia GeForce GTX 680
Een die-shot van de GK104 chip

SMX

De GF110 chip van de GeForce GTX 580, die weer gebaseerd was op de GF100 van de GTX 480, bestond uit een 16-tal Streaming Multiprocessors, elk bestaande uit 32 Cuda cores. Alle cores in één zo'n SM voeren op iedere moment in tijd een zelfde instructie uit op andere data. De cores binnen de GF110 waren flink opgevoerd en draaide altijd op de dubbele snelheid van de standaard klokfrequentie van de GPU. Zo was de standaard frequentie van de GTX 580 772 MHz en werkten de Cuda cores ofwel shader units dus op 1544 MHz.

Bij de nieuwe Kepler generatie heeft nVidia haar architectuur omgegooid. De streaming multiprocessors bestaan voortaan uit 192 cores, waarbij nVidia nu over SMX i.p.v. SM praat. Opnieuw is het zo dat elk van de cores binnen zo'n SMX op elk moment in tijd dezelfde instructie uitvoeren. Met blokken van 192 cores is nVidia misschien dan wel wat minder flexibel, de aansturing van de chip kan wel een stuk simpeler, wat een belangrijke reden is voor de efficiëntere werking. De cores binnen zo'n SMX werken voortaan op de standaard klokfrequentie van de GPU.

De GK104 GPU heeft 8 van deze SMX-units. Dat betekent dat het totaal aantal cores neerkomt op 8 x 192 = 1536. Als we meerekenen dat de cores niet langer op dubbele klokfrequentie werken, heeft de GK104 op gelijke klokfrequentie in theorie dus 50% meer rekenkracht dan de GF110. Het feit dat je met 8 x 192 cores echter wat minder flexibel bent met instructies verdelen dan met 16 x 32 cores, aangevuld met het stapje terug qua geheugenbandbreedte, maakt dat het gemiddelde prestatieverschil tussen de GTX 680 en de GTX 580 in de praktijk wel wat lager is.

Nvidia GeForce GTX 680
De GK104 chip heeft 8 SMX-units met elk 192 Cuda cores. In totaal 1536 stuks dus!

Naast de 192 Cuda cores bevat elke SMX-unit ook nog eens onder meer een tesselation unit en 16 texture units. In elke SMX is 64 kB cache-geheugen aanwezig, waarmee de verschillende cores data kunnen uitwisselen. In het midden van de chip vinden we juist weer een groot stuk L2-cache, wat als toegangspoort tot het geheugen fungeert. De geheugencontroller aan de randen van de GPU (4 x 64-bit) is uiteraard geschikt voor GDDR5 chips.

Nvidia GeForce GTX 680
Een enkele SMX-unit

GeForce GTX 680

De besproken GK104 chip vormt dus de basis van de GeForce GTX 680 videokaart. De GPU werkt standaard op 1006 MHz op de kaart, maar daar is het verhaal niet mee af: dankzij de GPU Boost functionaliteit, waarover op de volgende pagina meer, zal de GPU in vrijwel alle gevallen sneller werken.

Nvidia GeForce GTX 680

De GeForce GTX 680 is standaard voorzien van 2 GB GDDR5-geheugen, werkend op 1502 MHz. Dat is echt extreem snel. Als je bedenkt dat het geheugen bij de GTX 580 op 1002 MHz werkte, mogen we eigenlijk al concluderen dat de stap terug van 384-bit naar 256-bit geheugen compleet wordt gecompenseerd door de toegenomen klokfrequentie.

De kaart heeft een maximaal stroomverbruik (TDP) van 195 watt. Dát is echt een trendbreuk: de TDP van de GTX 580 bedroeg namelijk 244 watt. Zodoende heeft de GTX 680 ook voldoende aan twee 6-pin PEG-connectors. Die connectors zitten trouwens boven en dus niet naast elkaar op de kaart. Doordat de ene connector net wat dieper zit dan de andere, kun je erg eenvoudig twee kabels aansluiten.

Nvidia GeForce GTX 680

nVidia's referentiekaart biedt twee maal DVI, één maal HDMI en één maal DisplayPort 1.2. Belangrijk om daar direct bij te vermelden: het is eindelijk mogelijk om daadwerkelijk alle aansluitingen tegelijkertijd te gebruiken, waarover verderop meer. De HDMI-uitgang is geschikt voor wat AMD Fast HDMI noemt, waardoor er dus 4K-resoluties uitgestuurd kunnen worden. nVidia weigert echter de term Fast HDMI over te nemen.

Uiteraard heeft de GTX 680 twee SLI-connectors. SLI, Triple SLI en Quad SLI zijn zodoende allemaal mogelijk.

De koeler is opnieuw ontworpen door nVidia en is zoals we verderop zullen zien erg stil. Hieronder vind je wat extra foto's van de GeForce GTX 680 referentiekaart.

  • Nvidia GeForce GTX 680
  • Nvidia GeForce GTX 680
  • Nvidia GeForce GTX 680
  • Nvidia GeForce GTX 680
  • Nvidia GeForce GTX 680
  • Nvidia GeForce GTX 680
  • Nvidia GeForce GTX 680
  • Nvidia GeForce GTX 680

Vergelijking

In onderstaande tabel kun je de eigenschappen van de GeForce GTX 680 referentiekaart eenvoudig vergelijken met die van de GeForce GTX 580 (de voorloper) en de Radeon HD 7970 (de voornaamste concurrent).

Algemeen
 
MerkAMDNvidiaNvidia
ProductnaamRadeon HD 7970GeForce GTX 580GeForce GTX 680
ProductcodeRadeon HD 7970GeForce GTX 580GeForce GTX 680
DetailsProductinfoProductinfoProductinfo
Chip
CodenaamTahitiGF110GK104
ArchitectuurGCN 1.0FermiKepler
Rekenkernen2048 cores512 cores1536 cores
Kloksnelheid925 MHz772 MHz1006 MHz
Kloksnelheid boost1058 MHz
Transistors4300 mln3000 mln3540 mln
Die-grootte294 mm²
Productieprocedé28 nm40 nm28 nm
Kloksnelheid shaders1544 MHz
Vertex Shader versie5.15.05.0
Pixel Shader versie5.15.05.0
Geheugen
Geheugengrootte3072 MB1536 MB2048 MB
Type geheugenGDDR5GDDR5GDDR5
Geheugensnelheid1375 MHz1002 MHz1502 MHz
Geheugencontroller384 bit384 bit256 bit
Functionaliteit
DirectX versieDirectX 12 fl 11_1DirectX 12 fl 11_0DirectX 12 fl 11_0
SLI compatible
Crossfire compatible
Geïntegreerde H.264 videodecoder
Geïntegreerde VC-1 videodecoder
Kaartontwerp
InterfacePCI-Express 3.0 x16PCI-Express 2.0 x16PCI-Express 3.0 x16
Extra power-connector
Type power connector(s)PEG6+PEG8PEG6+PEG82x PEG6
Thermal design power300 W244 W195 W
Lengte26.7 cm

GPU Boost

We schreven al dat de standaard klokfrequentie van de GeForce GTX 680 1006 MHz bedraagt. Maar... in de praktijk zal de GeForce GTX 680 maar zelden op exact die klokfrequentie z'n werk doen. Een nieuwe technologie getiteld GPU Boost zorgt ervoordat de GPU sneller gaat werken als dat gewenst is en juist langzamer wanneer dat mogelijk is.

In de basis is GPU Boost een functionaliteit vergelijkbaar met bijvoorbeeld Intels Turbo Boost. De GPU meet constant het stroomverbruik en de temperatuur van de GPU. Mochten beide waardes het toelaten, dan wordt de klokfrequentie in kleine stapjes verhoogd. nVidia doet geen officiële uitspraken over de maximale klokfrequentie die dankzij GPU Boost behaald wordt. Wel praat men over een Boost Clock, wat we min-of-meer mogen opvatten als de klokfrequentie die in de meeste gevallen (lees: bij de meeste games) minimaal behaald zal worden. Die Boost Clock bedraagt bij de GeForce GTX 680 1058 MHz. In de praktijk hebben we dankzij GPU Boost klokfrequenties tot 1110 MHz gezien. De facto zorgt GPU-boost ervoor dat de videokaart bijna altijd tegen z'n TDP-waarde aanzit.

GPU Boost werkt echter ook de andere kant op. Als er slechts een beperkte hoeveelheid rekenkracht van de GPU gevraagd wordt en de GPU de benodigde prestaties ook kan behalen met een lagere klokfrequentie, dan schakelt deze zichzelf terug om energie te besparen. Dat zien we vooral gebeuren wanneer je gebruik maakt van de nieuwe mogelijkheid Frame Rate Target optie, die je onder andere via de EVGA Precision overkloksoftware kunt instellen. Je kunt dan bijvoorbeeld aangeven dat de GPU moet proberen om 60 beelden per seconde te berekenen en niet meer (omdat je monitor toch niet meer dan 60 fps laat zien). Er wordt dan niet langer energie verkwist aan frames die je toch niet zult zien.

In onderstaande grafiek zie je de klokfrequentie van de GeForce GTX 680 telkens tijdens 30 seconden van onze benchmarks van Battlefield 3, Aliens vs. Predator en Crysis 2. In Battlefield 3 werkt de kaart op gemiddeld 1104 MHz, in Aliens vs. Predator op gemiddeld 1089 MHz en in Crysis 2 op gemiddeld 1086 MHz.

GPU Boost kun je overigens niet uitschakelen. Wanneer je een GeForce GTX 680 kaart gaat overklokken, overklok je alle Turbo-waardes in feite mee. Wanneer je de klokfrequentie bijvoorbeeld 100 MHz opschroeft, wordt de standaard frequentie 1106 MHz, de Boost Clock wordt 1158 MHz en de te verwachten klokfrequentie in games een kleine 1200 MHz.

TXAA / Adaptive Vsync

Eén van de nieuwe eigenschappen van de GeForce GTX 680 videokaart is een nieuwe anti-aliasing methode die nVidia TXAA noemt. TXAA is een combinatie van hardwarematige anti-aliasing en een speciale filtermethode van verschillende sample-posities voor achtereenvolgende frames. Het resultaat is dat met een gelijke impact op de prestaties veel mooiere anti-aliasing resultaten behaalf kunnen worden.

TXAA 1 heeft ruwweg dezelfde performance hit als 2x full screen anti-aliasing volgens de standaard multisampling methode (MSAA). Volgens nVidia biedt TXAA1 een kwaliteit vergelijkbaar met 8x MSAA, iets waar we het grotendeels mee eens zijn. TXAA 2 heeft een prestatiedaling tot gevolg vergelijkbaar met 4x MSAA, maar biedt nóg wat betere beeldkwaliteit.

Helaas is TXAA vooralsnog iets wat door games specifiek ondersteund moet worden. Game developers Epic en Crytek zijn twee belangrijke namen uit een lijstje ontwikkelaars die support voor toekomstige games hebben toegezegd. Hoewel TXAA voornamelijk een software truc is, komt de technologie vooralsnog niet beschikbaar voor de vorige generatie nVidia-kaarten.

Een andere nieuwe technologie die zeker niet onbesproken mag blijven is Adaptive Vsync. Even het geheugen opfrissen: Vsync is een technologie die ervoor zorgt dat berekende frames binnen games gesynchroniseerd worden met de verversingsfrequentie van je monitor. Dat betekent concreet dat ieder beeld dat het scherm toont compleet is en dat je dus niet geregeld de bovenste helft van het ene frame en de onderste helft van het volgende frame ziet. Vsync zet je tijdens benchmarken altijd uit om de ware prestaties van een GPU inzichtelijk te kunnen maken, maar tijdens het gamen moet je Vsync absoluut aanzetten voor de beste beeldkwaliteit.

Vsync had tot nu toe echter een nadeel. Als je Vsync bij een normale TFT-monitor inschakelt, worden de berekende beelden gesynchroniseerd op 60 fps. Mocht de rekenkracht van de GPU op een bepaald moment niet toereikend zijn om 60 beelden per seconde te berekenen, dan schakelen (nVidia) GPU's tot dusver terug naar 30 fps. Die omschakeling tussen 60 en 30 fps zie je in games als een lichte stottering.

Adaptive Vsync, dat in te schakelen is via de drivers, biedt het beste van twee werelden: als er voldoende rekenkracht is om 60 fps of meer te berekenen, blijft de synchronisatie in stand. Vallen de prestaties onder de fps-grens, dan wordt Vsync automatisch snel uitgeschakeld, zodat je wel alle gerenderde frames ziet en dus niet direct terugvalt naar 30 fps.

3D Vision Surround / NVENC

Ein-de-lijk... dat was onze reactie toen we van nVidia hoorden dat de GeForce GTX 680 het mogelijk maakt om meer dan twee schermen met één videokaart aan te sturen. Onder de naam EyeFinity biedt AMD al sinds de RadeonHD 5870 (geïntroduceerd in september 2009!) de mogelijkheid om zes schermen aan te sturen. Het heeft dus tweeëneenhalf jaar geduurd eer nVidia hetzelfde kon.

Wel is er een verschil: waar AMD tot zes schermen ondersteunt, gaat nVidia tot vier schermen. Voor gamers is dat trouwens prima: we hebben al meermaals besproken dat gamen op drie schermen érg prettig is, maar gamen op zes juist niet, aangezien je dan een rand in het midden hebt. Vier in plaats van zes: vanuit gamer-perspectief is het lood om oud ijzer.

Een voordeel van nVidia's implementatie: je hoeft niet per se DisplayPort te gebruiken bij drie of meer schermen. Ofwel: je kunt op een GeForce GTX 680 zonder extra investering in verloopkabels drie standaard DVI-monitoren aansluiten: twee via DVI en één via de HDMI-uitgang.

De nieuwe Surround mogelijkheid is ook direct geschikt voor het aansluiten van drie nVidia 3D Vision schermen. Ook 3D-beelden met drie schermen behoren dus tot de mogelijkheden.

Nvidia GeForce GTX 680
Eindelijk ook bij nVidia drie schermen vanaf één videokaart. Ook in 3D!

Een laatste nieuwtje dat niet onvermeld mag blijven is dat nVidia net als AMD een hardwarematige H.264 encoder in haar GPU heeft ingebakken, die men NVENC noemt. Deze moet volgens de fabrikant 1080p HD-video tot 8x sneller dan real-time kunnen coderen: een film van twee uur in 15 minuten dus. De encoder is geschikt voor H.264 Base, Main en High Profile en kan ook MVC (Multiview Video Coding) 3D-videos coderen.

nVidia gaat samenwerken met ontwikkelaars van video software om de encoder daarin beschikbaar te maken. Onder andere de volgende versie van Cyberlink MediaShow Espresso zal ondersteuning bieden voor NVENC.

Techdemo's

nVidia heeft een tweetal interessante techdemo's gemaakt voor de GeForce GTX 680. In onderstaande video kun je die demo's in HD bekijken, met commentaar van nVidia zelf.

Benchmarks

We hebben de GeForce GTX 680 getest op ons nieuwe testsysteem, bestaand uit een Intel Core i7 3960X (Sandy Bridge-E) processor, een ASUS P7X79 Pro moederbord, 16 GB Corsair DDR3-1600 geheugen, een Samsung Spinpoint F1 harde schijf en een Cooler Master Silent Pro Gold 1200Watt voeding. Alle benchmarks zijn uitgevoerd onder Windows 7 x64.

Op ons vorige testplatform testten we games altijd in vier instellingen: 1680x1050, 1680x1050 met 4x AA, 1920x1080 en 1920x1080 met 4x AA, telkens gebruikmakend van de hoogste kwaliteitsinstellingen. Nu je al voor zo'n 100 euro een Full HD monitor kunt kopen, is het wat ons betreft niet langer zinnig op lagere resoluties te testen. Wel testen we tegenwoordig hogere resoluties testen: voor zo'n 500 euro kun je immers al een prima setup van drie Full HD schermen met dunne rand kopen. Vandaar dat 5760x1080 (drie Full HD schermen naast elkaar) tegenwoordig ook standaardonderdeel van onze tests is. Goed nieuws dus dat nVidia dit tegenwoordig ook met één videokaart ondersteunt.

In beide resoluties testen we games zowel met 'normale' instellingen als met de beste instelingen (highest/extreme/ultra), waarbij we in dat laatste geval waar mogelijk ook 4x AA inschakelen.

Op de volgende pagina's zijn alle AMD kaarten rood, alle oudere nVidia kaarten groen en de GeForce GTX 680 blauw.

3DMark Vantage

In 3DMark Vantage scoort de GTX 680 35519 punten, zo'n 1400 punten meer dan een Radeon HD 7970.

3DMark11

In 3DMark11 Performance is het prestatieverschil tussen de HD 7970 en de GTX 680 wat groter. In Extreme is het verschil zeer beperkt, maar is nVidia wel sneller.

Aliens versus Predator

Aliens versus Predator is één van de weinige benchmarks waar de GeForce GTX 680 de prestaties van de Radeon HD 7970 niet kan evenaren. Het verschil is echter klein.

Batman: Arkham City

In Batman: Arkham City pakt nVidia de winst weer terug, maar ook hier is het prestatieverschil tussen de Radeon HD 7970 en de GeForce GTX 680 slechts zeer beperkt.

Battlefield 3

In Battlefield 3 zien we voor het eerst een duidelijke voorsprong van nVidia met de GTX 680, in Full HD resolutie althans. Met drie schermen is het verschil opnieuw beperkt.

Crysis 2

In Crysis 2 is het verschil tussen de Radeon HD 7970 en de GeForce GTX 680 wat groter dan gebruikelijk. Met drie schermen is nVidia's kaart ruim 25% sneller.

Dirt 3

Ook in Dirt 3 zeer mooie scores voor de nVidia GTX 680. Zeker het prestatieverschil tussen de GTX 680 en de GTX 580 is hier relatief fors.

Hard Reset

In Full HD resolutie is Hard Reset weinig spannend: opnieuw is de GTX 680 een fractie sneller dan de HD 7970. Met drie schermen loopt het verschil echter flink op.

Heaven 2.5

De synthetische Heaven benchmark wijst nVidia aan als de winnaar in 1920x1080. De resultaten in 5760x1080 zijn echter opvallend: in Extreme is zelfs een Radeon HD 7870 nog sneller dan een GTX 680. Hebben we hier te maken met een driver issue of is de combinatie hoge resolutie met extreme tesselation niet gelukkig bij de GTX 680? We gaan proberen het uit te zoeken, maar moeten vooralsnog het antwoord schuldig blijven.

Metro 2033

Metro 2033 is de tweede game waar nVidia's GTX 680 de scores van AMD's Radeon HD 7970 niet kan evenaren.

The Elder Scrolls V Skyrim

Ook in Skyrim is nVidia de snelste, maar opnieuw met slechts een beperkte winst ten opzichte van AMD.

Total War Shogun 2

In Total War Shogun 2 is het stuivertje wisselen tussen AMD en nVidia.

Prestaties GTX 680 vs. HD 7970

Nu we alle benchmarks hebben gehad, is het interessant om de resultaten van beide kemphanen eens overzichtelijk naast elkaar te zetten. In onderstaande tabel zie je alle scores van de Radeon HD 7970 en de GeForce GTX 680 met in de laatste kolom het procentuele verschil.

Gemiddeld komen we uit op een verschil van 10,3% in het voordeel van de GeForce GTX 680. Een duidelijk verschil, maar wat ons betreft niet significant genoeg om op basis van de prestaties alleen direct een keuze te maken.

Productcode Radeon HD 7970 GeForce GTX 680 Verschil
3DMark Vantage Performance 34179 35519 3,9%
3DMark11 Performance 8087 9747 20,5%
3DMark11 Extreme 2745 2803 2,1%
Heaven 2.5 - 16x AF - 1920x1080 - Normal 67,9 83,1 22,4%
Heaven 2.5 - 16x AF - 1920x1080 - Extreme 51,1 64,6 26,4%
Heaven 2.5 - 16x AF - 5760x1080 - Normal 24,1 23,6 -2,1%
Heaven 2.5 - 16x AF - 5760x1080 - Extreme 21,2 13,7 -35,4%
Metro 2033 - Medium - 1920x1080 64 57 -10,9%
Metro 2033 - Very High - 1920x1080 33 30 -9,1%
Metro 2033 - Medium - 5760x1080 24 22 -8,3%
Metro 2033 - Very High - 5760x1080 13 12 -7,7%
Aliens vs Predator - Normal - 1920x1080 99,5 99,7 0,2%
Aliens vs Predator - High 4x AA - 1920x1080 61,9 58,2 -6,0%
Aliens vs Predator - Normal - 5760x1080 47,7 45,4 -4,8%
Aliens vs Predator - High 4x AA - 5760x1080 30,3 26,7 -11,9%
Dirt 3 - Medium - 1920x1080 182,5 233,5 27,9%
Dirt 3 - Ultra 4x AA - 1920x1080 91,6 119,8 30,8%
Dirt 3 - Medium - 5760x1080 100,2 119,2 19,0%
Dirt 3 - Ultra 4x AA - 5760x1080 42,4 49,8 17,5%
Hard Reset - Normal - 1920x1080 144,7 148 2,3%
Hard Reset - Ultra 4x AA - 1920x1080 78,2 96,3 23,1%
Hard Reset - Normal - 5760x1080 86,5 107,4 24,2%
Hard Reset - Ultra 4x AA - 5760x1080 29,8 47,9 60,7%
The Elder Scrolls V Skyrim - Normal - 1920x1080 213 227,97 7,0%
The Elder Scrolls V Skyrim - High 4x AA - 1920x1080 109 120,08 10,2%
The Elder Scrolls V Skyrim - Normal - 5760x1080 88 95,65 8,7%
The Elder Scrolls V Skyrim - High 4x AA - 5760x1080 48 50,47 5,1%
Batman Arkham City - Medium - 1920x1080 116 123 6,0%
Batman Arkham City - Very High 4x AA - 1920x1080 70 79 12,9%
Batman Arkham City - Medium - 5760x1080 50 51 2,0%
Batman Arkham City - Very High 4x AA - 5760x1080 29 29 0,0%
Total War Shogun 2 DX11 - Medium - 1920x1080 136 135,9 -0,1%
Total War Shogun 2 DX11 - Ultra 4x AA - 1920x1080 58 59 1,7%
Total War Shogun 2 DX11 - Medium - 5760x1080 50 44 -12,0%
Total War Shogun 2 DX11 - Ultra 4x AA - 5760x1080 20 22,7 13,5%
Battlefield 3 - Medium - DoF 90 - 1920x1080 90 121,5 35,0%
Battlefield 3 - Ultra 4x AA - DoF 90 - 1920x1080 52 66,7 28,3%
Battlefield 3 - Medium - DoF 90 - 5760x1080 44 49,9 13,4%
Battlefield 3 - Ultra 4x AA - DoF 90 - 5760x1080 24 25,4 5,8%
Crysis 2 DX11 - Very high - Hi-res Edge AA - 1920x1080 60 77,4 29,0%
Crysis 2 DX11 - Ultra - Hi-res Edge AA - 1920x1080 58 72,2 24,5%
Crysis 2 DX11 - Very high - Hi-res-Edge AA - 5760x1080 21 27,3 30,0%
Crysis 2 DX11 - Extreme - Hi-res-Edge AA - 5760x1080 20 27,3 36,5%
Gemiddeld   10,3%

Stroomverbruik

Idle is de GeForce GTX 680 duidelijk zuiniger dan zijn voorloper, maar zit nVidia wel een paar watts boven het niveau van AMD. Onder load is nVidia echter wat zuiniger: in Metro 2033 meten we maximaal 317 watt, waar bij AMD de teller uitsloeg tot 322 watt. Geen schokkend verschil, maar toch.

Geluidsproductie

De geluidsproductie van de GeForce GTX 680 is opvallend laag. Tijdens het draaien van een zware game-benchmark meten we 40,5 dB(A) op 10 centimeter afstand. Flink minder dan de 57,7 dB(A) die we bij de AMD Radeon HD 7970 maten.

Overklokken

Om de GeForce GTX 680 te overklokken, maakten we gebruik van een nieuwe versie van EVGA Precision. Bij het overklokken van de GeForce GTX 680 moet je wat anders te werk dan bij conventionele videokaarten. Allereerst dien je in te stellen dat de videokaart meer stroom mag verbruiken dan zijn TDP, anders gaat de videokaart tijdens je overklokpogingen zichzelf terugklokken. In Precision kan dat met de Power Target slider. Overklokken gaat dan verder met de GPU Clock Offset. Deze maakt alle GPU-klokfrequenties hoger: de base clock, de boost clock én alle turbo waardes. Als je de CPU Clock Offset bijvoorbeeld op 100 MHz zet, wordt de standaard klokfrequentie 1106 MHz, de boost clock 1158 MHz en zal de videokaart in de praktijk geregeld de 1200 MHz aantikken. Het overklokken van het geheugen gaat met de Mem Clock Offset. Je moet er hier even rekening mee houden dat de Precision software met DDR-waardes rekent. Als je de offset op 100 MHz instelt, komt er in feite 50 MHz bij.

Tijdens onze overklokpogingen voerden we het GPU-voltage op tot 1,075 volt. 3DMark Vantage konden we stabiel draaien met een GPU clock offset van 110 MHz, waarmee de basis klokfrequentie op 1116 MHz uitkomt. Het geheugen, dat standaard al op een astronomische 1502 MHz werkt, bleek nog veel meer overklokpotentieel te bieden en konden we opvoeren tot 1852 MHz! Gecombineerd met een tot 5 GHz overgeklokte Core i7 3930K resulteerde dit in een 3DMark Vantage score van 41574 punten.

Interessant: met de Radeon HD 7970 kwamen we een stuk verder, namelijk tot 43058 punten met de referentiekaart en zelfs nog iets hoger met een exemplaar van XFX.

3DMark 11 konden we succesvol afronden met een 120 MHz hogere GPU-klokfrequentie. Voor het geheugen moesten we juist een stapje terug doen naar 1827 MHz. Dit alles resulteerde in 11304 punten. Ook hier een fractie minder dan de maximale score van 11685 punten die we uit een niet-gemodificeerde RadeonHD 7970 konden persen.

Hardware.Info TV

We hebben de GeForce GTX 680 ook besproken in een speciale aflevering van Hardware.Info TV. Die kun je hieronder bekijken.

Conclusie

Een mid-range GPU die eenmaal geproduceerd zo goed blijkt te presteren dat deze zelfs in het high-end segment kan schitteren. De uitdrukking 'wolf in schaapskleren' was nooit eerder zo toepasselijk voor een videokaart. Het mocht niet zo zijn, maar op basis van onze resultaten zijn we echt zeer benieuwd wat er was gebeurd als nVidia op dit moment een videokaart met GK110 GPU had kunnen introduceren.

Dat is echter simpelweg niet het geval. Kijken we naar de prestaties van de GeForce GTX 680, dan mogen we concluderen dat nVidia gemiddeld zo'n 10% sneller is dan de Radeon HD 7970. Wie gaat overklokken kan echter juist uit de AMD kaart net wat meer prestaties halen. Nooit eerder lagen de prestaties van de high-end videokaarten van beide fabrikanten zó dicht bij elkaar. Kijken we naar het stroomverbruik dan is nVidia tijdens het gamen wat zuiniger. Idle is AMD juist zuiniger.

Ook op andere vlakken is er een gelijkspel. PCI-Express 3.0? Hebben ze allebei. Drie schermen met één kaart? Allebei. Een geïntegreerde video encoder? Allebei. Compromisloze video decoder? Allebei. DirectX 11.1? Allebei.

Op softwarevlak - en dan hebben we het zowel over drivers als over het 3D Vision ecosysteem - hebben we nVidia nét wat hoger zitten dan AMD. Ook voor wie met GPGPU-applicaties aan de slag wil, zal onder meer dankzij Cuda eerder voor een nVidia-kaart kiezen (al moeten we nog uitzoeken hoe goed Cuda werkt op een GTX 680).

Vanuit gamersperspectief kunnen we deze keer echt bijna over een gelijkspel spreken. Bij gelijke prijs valt het kwartje wat ons betreft net richting de GeForce GTX 680. Maar... als één van beide zijn prijs uiteindelijk duidelijk onder die van de ander krijgt, is de goedkopere optie degene waar je voor moet gaan!

Nvidia GeForce GTX 680


Besproken producten

Vergelijk  

Product

Prijs

Asus GTX680-2GD5

Asus GTX680-2GD5

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
Zotac GeForce GTX 680 2GB

Zotac GeForce GTX 680 2GB

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
Point of View GeForce GTX 680 2GB

Point of View GeForce GTX 680 2GB

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
Nvidia GeForce GTX 680

Nvidia GeForce GTX 680

  • GK104
  • 1536 cores
  • 1006 MHz
  • 2048 MB
  • 256 bit
  • DirectX 12 fl 11_0
  • PCI-Express 3.0 x16
Niet verkrijgbaar
PNY GeForce GTX 680 2GB

PNY GeForce GTX 680 2GB

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
MSI N680GTX-PM2D2GD5

MSI N680GTX-PM2D2GD5

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
EVGA GeForce GTX 680 2GB

EVGA GeForce GTX 680 2GB

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
Palit GeForce GTX 680 2GB

Palit GeForce GTX 680 2GB

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
Gainward GeForce GTX 680 2GB

Gainward GeForce GTX 680 2GB

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
Gigabyte GV-N680D5-2GD-B

Gigabyte GV-N680D5-2GD-B

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
Club 3D GeForce GTX 680 2GB

Club 3D GeForce GTX 680 2GB

  • Nvidia GeForce GTX 680
  • 1006 MHz
  • 2048 MB
Niet verkrijgbaar
0