Laatste reacties

Beste mensen ik heb jaren lang met Acer gewerkt en moet zeggen zijn wel goede model erbij maar ook slechte ik heb in de 20 jaar dat ik in computer winkel staad wel regel matig wat problemen gezien er mee maar waren meestal hdd die stuk ging, of mensen die er slecht mee om gingen en ik heb ook met Toshiba gewerkt daar zag ik meer problemen mee en zelf keer mee gemaakt bij msi 2 doa laptop en die hebben 6 weken geduurt voor dat terug waren Acer max 2 weken en Toshiba 1 week dus ligt maar net welk merk je fijn vind allemaal hebben wel wat

Ik.zou niet eens een normale gpu willen hebben die daar voor gebruikt is. Non stop vol op de kloten krijgen jaren lang. Echt niet geef nog liever meer uit voor een nieuwe kaart.

Nee dat is het dus niet. Dat is net als je een Golf R en een Golf GTI aan een onwetend iemand voor zou leggen. Welke is sneller?
Als je vraagt: welke is sneller; een Golf TD of een Golf TDI, snapt iedereen dat de TDI sneller is, want meer toevoegingen.

Vroeger had je ook nog eens die Geforce 6800 LE enzo, dat was dan wél onduidelijk: want die was gewoon langzamer dan de gewone 6800 (zonder shader unlock toegepast te hebben uiteraard).

Navi XXX Big T H I C C 69XTX, daarmee kan je porno games en films in 8K VR @ 69FPS bekijken :P

Dat van gelimiteerde bios, oh nee :'(

Het verschil is dat het geen kwestie van geld maar van capaciteit was. NVIDIA wilde prima betalen, ze zijn zo'n beetje de oudste klant bij TSMC, maar TSMC heeft simpelweg momenteel niet de capaciteit om de volumes die NVIDIA wil te bakken, dat hebben ze pas in maart 2021. Omdat NVIDIA niet wil/kan wachten tot maart (dat zou AMD 5 maanden vrij spel geven op de markt en RDNA2 maakt gehakt van Turing), is NVIDIA naar Samsung gestapt om de 3080 en 3090 te laten bakken.

Dit gebeurde 1:1 ook in 2016 waarbij TSMC niet genoeg Pascal 16nm chips kon leveren en NVIDIA naar Samsung stapte om ze daar ook op 14nm te laten bakken. Daarom heb je 14m Samsung GTX10's en 16nm TSMC GTX10's.

Verder nog een tip: dat gerucht komt van MLID, die zo'n beetje elk gerucht en specificatie van Ampere mis had. Ik zou sowieso geen geruchten geloven, maar het is niet voor niets dat MLID bij heel veel fora en tech websites op de zwarte lijst staat.

Hoezo? Ben je een miner dan? Er waren/zijn fabrikanten die gpu's trachten te verkopen speciaal voor mining en die waren oninteressant omdat ze die niet door kunnen verkopen aan gamers.

Ja want contracten met AIB partners kunnen zomaar even veranderd worden, dus kan Nvidia nu veel meer vragen voor de GPUs. En de FE kaarten zijn nu veel duurder. En GPUs worden veel meer waard, en worden beter verkocht, als de concurrentie gelijkwaardige producten heeft uitgebracht. Dus beter om daar op te wachten.

Lekker genuanceerd en onderbouwd. Werken ze aan crypto kaarten is het ook niet goed, zijn straks de gaming kaarten uitverkocht omdat AMD geen aparte mining kaarten maakt is het huis ook al te klein.

Wat is dat toch met gpu berichten en hoe mensen zo ontzettend veranderen in gefrustreerde pubers.

Als AMD werkelijk aan videokaart werkt speciaal voor crypto-mining, mogen ze van mij opflikkeren. De hele crypto-gekte heeft de hele gamingmarkt verziekt.

Als je serieus gelooft dat NVIDIA 1 maand voor de lancering van de concurrent expres schaarste creëert voor 'waardecreatie' dan ben ik héél blij dat jij niet bij ons onze marketing strategie bepaalt. Je hebt waarschijnlijk dat inmiddels debunkte item ergens van MLID gehoord/gelezen. Je weet wel, diezelfde MLID die nagenoeg alle 'geruchten' van Ampere fout had en ongelofelijk verliefd is op zijn eigen stem.

Helderheid dit, helderheid dat...

Dat komt allemaal wel goed als microLED er eenmaal is! ;)

Kijk eens naar deze foto : https://content.hwigroup.net/images...s-ag9_0000_layer-5.jpg
Drie keer raden welk scherm de OLED is... ;)

De Review die je noemt laat ook mooi zien waarom ik nooit een LCD TV zal kopen net als deze Review : https://nl.hardware.info/artikel/70...aliteit-in-de-praktijk

CRT, Plasma, OLED, microLED = Allemaal prima!
Maar LCD zal ik hooguit kopen omdat ik simpelweg geen keuze meer heb als het om monitoren voor de PC gaat ;)

windows powertools lost dat al aardig op en er zijn diverse langer bestaande opties

werk nu zelf met een 2 scherm oplossing maar zit wel een aan uuuuultrawide te denken, het ontbreken van de balken, de kleine verschillen in helderheid, kleur etc zelfs bij 2 identieke schermen.

Schaarste is waardecreatie Meer verdienen met minder product is wat elk bedrijf zou willen.

Waarschijnlijk waren ze bang dat AMD met wat moois komt en wilden ze dat voor zijn.

Ik ben benieuwd wanneer NVidia weer voor de rechtbank staat tegenover beleggers omdat ze weer halve waarheden over hun productie en verkoop hebben lopen vertellen.

Ze leren het ook nooit. Er zijn nog zaken bezig zelfs...

Hoe meer letters erbij, hoe sneller.

Je bent de Gaming addition vergeten.

Kwa game performance is 3090 meer een 3080plus de 3090 prestreerd 10 tot 15% meer wat ook betekend dat de 3090 in vaar water van de 3080 customs komt Dus dat de snelste Customs gelijk waardig kunenn zijn met tamste 3090 .
Er past ook niks tussen de 3080 en 3090 .

Bignavi komt dus met 3 typen en die kunnen dus ook on even spreiding hebben rond en tussen 3070 3080 3090 .
Daarbij volgende probleem games kunnen nogal flink afwijken en bepaalde merk prefereren. Er zal erbij ook apparte DLSS run gedaan worden waar van toepassing voor de game en daar waar mogelijk ook RT on gebenched worden.

Er kunnen dus resultaten komen waar bignavi voorbij 3090 komt en niet zo beetje en ook waar 3090 ver vooruit kan lopen.

En dan kan zijn dat de kroon meer afhangt wat je belangrijk vind. Genoeg gamers die niks met RT hebben en anderen juist veel. Andere staren zicht blind op 4K en DLSS en andere vinden 1080P zat met 144fps. Kan zijn dat de kroon toewijzen iets persoonlijk wordt. tenzij 4 wins vs 1 wins verhouding maar 3:2 verhouding

Ik heb op op 8 oktober bij een grote Nederlandse retailer een Strix 3080 OC besteld. Er waren toen 383 wachtenden voor mij, vandaag 22 oktober waren het er 353. Dus dertig minder, waarbij ook een x aantal die dus gewoon gecanceld kunnen hebben.

Lees eens een review terug op Hardware.info. High-end Oled vs high-end lcd. De lcd variant wist een hogere wow factor te geven volgens de reviewers. Het probleem van oled is dat de helderheid niet zo hoog kan als een lcd paneel. Als je een high-end lcd tv (bv een samsung qled vanaf de 80 series) naast een oled tv zet ongeacht de prijs dan ziet de Samsung er indrukwekkender uit. Een tv is tenslotte om beeld over te brengen en hoe helderder dit kan, hoe beter een beeld de kijker bereikt. Familieleden hebben allen een (high-end) oled van zowel LG als Sony maar die staan toch wel echt achter hun oren te krabben als ze het beeld van mijn Samsung qled zien(weliswaar een 4K HDR demo). Het is niet zo eerlijk want lcd is helemaal door ontwikkeld en oled bestaat nog niet nog heel lang voor consumenten televisies. En aangezien er geen slechte oled tv's zijn maar wel enorm veel slechte lcd tv's, is de gedachte onder de mensen dat oled superieur is.

Als de 3080 geen vlaggenschip is, de 3090 geen titan kaart is, dan is de 3090 toch het vlaggenschip? En daarmee is het VRAM dus wel verhoogd!

Dat klopt!
Echter is het Nvidia zelf die mensen hier een rad voor de ogen draait door te stellen dat de 3080 het vlaggenschip is terwijl de 3090 een "Titan class" kaart zou zijn. Wat is beide gevallen dus eigenlijk niet zo is.

Daarnaast heeft de 3090 een prijs gekregen die veel dichter bij een Titan dan bij een vlaggenschip kaart zit.

Zodat ze meer verdienen door minder GPU's te verkopen? En als AMD straks goed mee kan komen op high-end, veel mensen die nog geen RTX3080 hebben kunnen kopen voor een Navi 21 variant gaan?

Veel dommer dan "Nvidia doet het gewoon expres" wordt het niet.

“Geen oled merk ik?“ Wat bedoel je?

Dag is juist het probleem, het is een open platform wat minder veilig is....
Maar ik snap je ;-)

Welke telefoon ?

Dat bedoel ik, alleen zijn er toch mensen die dat niet snappen haha

Bij Android kun je naar elk apparaat in de wereld overstappen zolang het maar geen Apple is.

Achterkant was na 3 maanden gebroken (glas)

Maar Hopper schijnt ook al in 2021 te verschijnen. Dus dan wordt het wel erg veel allemaal - indien er inderdaad in maart ook nog Ampere refresh versies uitkomen.

Enorm balen! Pre-order?

Haha, niet ik ;) Ik rijd in een klein boodschappenautootje omdat ik vrijwel alles met het ov of fiets doe :)

Het ging over "nodig hebben" maar bij veel mensen is het zelden een kwestie van nodig hebben, maar puur van willen hebben. Dat wilde ik ermee duidelijk maken, mij boeit het niet wat de buurman rijd :D

Ik zit hier nou een maand te wachten op de 3090 en mijn retailer kan nog geen enkele details vrijgeven over de beschikbaarheid dus naar mijn ervaring zijn het leugens...

Als de 3080 geen vlaggenschip is, de 3090 geen titan kaart is, dan is de 3090 toch het vlaggenschip? En daarmee is het VRAM dus wel verhoogd!

Daarnaast is de prijs van de 3090 (1600) vrijwel identiek aan de 2080ti (1450) bij lancering dus ook zeer vergelijkbaar als vlaggenschip in prijs.

Ik snap ook niet wat mensen nog boven de 3090 willen? Nog minder prijs kwaliteit verhouding?
Ik als koper van een 3090 ben al enigzins gek om dit neer te leggen, ik zie geen nut om nog eens 1000 euro meer neer te leggen voor wat, 3 - 5% meer performance? Dat verschil trek je wel recht met goede koeling en overclocken... En meer dan 24GB VRAM heb jij voorlopig nog echt niet nodig al gamer en/of prosumer.

Nou de HD5870 en HD7970 maakte het Nvidia toch wel heel moeilijk, ook in dual GPU uitvoering.
Verder heb ik zelf ook een HD4890 gehad en uit mijn herinnneringen kon deze aardig meedraaien met de GTX275 met alleen daarboven de GTX285. De GTX295 was nl een dual GPU.
AMD was toen trouwens ook meestal goedkoper dan een vergelijkbare GTX model van Nvidia.

Tja, alles wat geen OLED of microLED is zal je nooit de volledige HDR ervaring geven :)

Klopt. WebOS is goed genoeg anyway.

waarom zou je tegen die zwarte randen aan willen kijken?

Weleens 3 hedendaagse schermen naast elkaar gezien ?!

Er is amper sprake van bezels en je hebt veel meer ruimte voor je vensters en je ziet veel meer in games! ;)

Hier een leuk voorbeeld dat ik onlangs kreeg toegestuurd : https://www.skoften.net/skft/104246...weer-in-haar-simulator

Mijn broertje heeft de voorganger van de G9, wat een bout scherm. Die 10 zones bij HDR zijn om te huilen.

Ja, Ti en Super zijn echt duidelijk. ;)

Dat is ook geen naamgeving voor ons als consumenten natuurlijk. Net als jij een Audi A3 1.9 TDI ziet, weet jij niet de motorcode en zullen alleen kenners deze weten (daarbij is het bij een auto belangrijk i.v.m. onderdelen; daar heb je bij een GPU geen last van ;))

(Overigens is de nieuwe Audi motoraanduiding helemaal belachelijk; met aanduidingen als 30 tfsi of 35 tdi :/)

Afgezien van dat, snap ik de meerwaarde niet om de beelden te bekijken op een oled maargoed.

"Everything looks better on a OLED panel Penny!" ;)

/TBBT mode

Mwa, liever wat MKVtjes zodat je het met je favoriete software kan kijken! ;)

Geen oled merk ik. Kan geen tv tegenop. Nog steeds niet....lg 24p is net zo goed als Sony als je het goed insteld. Heb beide namelijk....

O meen je ? Vertel ? Want morgen ga ik 1 van die bovenstaande merken halen...dan laat ik de Otters maar zwemmen.
Heb nu Tech21 en die is fantastisch

Als je dat met een iPhone van plan bent, ben je dat ook met een Android telefoon dus daar zie ik geen meerwaarde in.

Die snap ik niet ?

Precies !

6800 - 6800x - 6800xt - 6800xtx is allemaal VEEL onduidelijker omdat het maar 1 letter verschil is.
RTX 3070 - RTX 3080 - RTX 3090 is veeeeel duidelijker.
GTX heeft geen RT, staat er RTX voor weet je dat er wel RT in zit. TI is ook duidelijk...dus wel verschil

Zeker! Gaat minimaal €100,- kosten. Anders nog wat?

En van Android kun je alleen overstappen naar Android mits je hetzelfde wilt gebruiken. Dus hetzelfde. Andere maker telefoon maar het gaat niet om de kwaliteit van de telefoon hier.
Ik wil de telefoon gewoon niet als er android op zit, de maker heb ik het niet eens over. Ik ben ook helemaal geen apple fan, ik wil gewoon geen android.

0
*