1. Welkom op het Hardware.Info Forum

    Hier kun je terecht met al je vragen over computerhardware en consumentenelektronica. Wil je zelf een vraag stellen of deelnemen aan discussies, dan moet je je registreren of inloggen met je Google of Facebook account. Veel plezier op het Hardware.Info Forum!

    Notificatie sluiten

Discussie omtrent testen Grafische kaarten.

Discussie in 'Videokaarten & 3D-chips' gestart door DatAccountz, 14 nov 2018.

  1. DatAccountz

    DatAccountz Senior Member

    Sinds:
    13 nov 2012
    Berichten:
    9.683
    Hallo HWI'ers,

    Ik maak maar even een topic aan om mijn reactie die ik heb achtergelaten in de review van de RTX 2080 van Gigabyte. Niet om deze specifieke kaart te verdedigen, maar naar mijn mening een foutieve manier om de koeling te testen van deze grafische kaarten. Deze kaart kwam uit de test niet al te best naar voren qua koeling, en er kan natuurlijk een designfout inzitten, maar als ik naar de rest van de resultaten kijk valt me wel iets op.

    Namelijk het stroomverbruik van deze kaarten respectievelijk tot hun klokfrequentie.
    upload_2018-11-14_18-13-22.png

    Zoals je ziet, daar zit niet echt een logica achter. Dat komt omdat absolute klokfrequentie bij Pascal/Maxwell en in het verlengde Turing dus ook, niet veel schaalt ivm het stroomverbruik. Wat beter schaalt is het voltage, vandaar dat bij deze kaarten undervolting zoveel uitmaakte. De delta tussen de hoogste en laagste verbruik is 19%, de kloksnelheid tevens maar 5% in HWI's resultaten. Tevens bestaat ook nog het principe van lekkage bij de transistoren. Een algemene duimregel is 4% stroomverbruik meer bij een toename van 10 graden. Dus als je chip van 50 naar 70 graden toeneemt, zie je over het algemeen een stroomverbruik toename van 8%.

    Ik zal dit met een serie tests even bewijs aanvoeren voor wat ik precies bedoel.

    Testsysteem is mijn eigen systeem, zie mijn profiel. Ik draai de New Dawn nvidia demo omdat deze licht op de CPU is, maar flink stroom verbruikt. Tevens kan ik zo makkelijk screenshots maken. Ik zal de effecten testen van:
    - Temperatuur op verbruik
    - Voltage op verbruik
    - Frequentie op verbruik

    Mijn videokaart heeft een board TDP van 215W. Als mijn power% dus aangeeft 50%, dan gaat er 215*.5 = 107.5W door de 8pins. Dit ter referentie voor de resultaten, omdat mijn Afterburner geen wattage aangeeft.

    Hier start ik te test met de kaart vanuit een koele toestand te belasten. Net als dat je bij HWI ziet zal de kaart in deze toestand de volledige boost gebruiken, in mijn geval 2ghz. Zodra de kaart warmer wordt zal hij in stapjes van 13mhz naar beneden gaan tot 1962mhz @ 1,043V.

    upload_2018-11-14_20-52-45.png

    Temperatuur vs. verbruik

    Hier probeer ik even de proef op de som te stellen door de fans naar 100% te krikken. Het probleem is echter dat hij dan weer aggressiever gaat boosten en het voltage weer omhoog zet. Zoals ik heb aangegven is het voltage het belangrijkst. Om dit te testen zal ik dus het frequentie en voltage moeten vastzetten. Ik heb op LTT een topic geschreven over Pascal undervolting. Volgens die methode stel ik de GPU even af op 1974 @ .912V, een instelling die ik er al toevallig in had staan en mijn dagelijkse instelling. Meteen is al duidelijk dat de absolute waardes veel lager liggen, maar daar komen we straks op. Hier zal ik nogmaals de poging doen om de fan te laten blazen. Helaas kan ik het voltage niet vastgezet krijgen. Zodra de temperatuur schommelt gaat GPU Boost 3.0 weer de boel verschuiven. Dit kan ik dus niet testen helaas. Die vuistregel van 4% elke 10 graden is wel echter een vuistregel om een reden.
    Wat je overigens wel kunt zien is hoe de GPU flink gaat boosten, iets wat je ook ziet bij HWI's resultaten hierboven. De DUAL OC unit heeft een zeer aggressieve fanprofiel en blijft onder de 60 graden. Deze heeft dan ook uiteindelijk de hoogste boost.

    Voltage vs. verbruik.


    Deze is wat makkelijker te testen. Ik laat hem weer stock starten. Daarna zet ik een vaste waarde van 1974 @ .9V aan. Hier laat ik hem op acclimatiseren, om hem daarna weer terug te gooien. De fan reageert wat langzaam met naar beneden komen. Waardoor hij weer onder de 60 tikt en .925V @ 1974+13=1987mhz aanzet.

    upload_2018-11-14_20-53-44.png

    Op zich niet zo erg, zo zie je meteen dat hij van 55-57 naar 60-61 tikt. Dat is dus omgerekend van ~121W naar ~129W, enkel voor maar 25mV. Die 13mhz, zoals je hierna kunt zien, zal het hem niet zijn. Door hem in stapjes terug omhoog naar 1,043V te brengen kwam ik op de volgende schaling uit.

    upload_2018-11-14_20-54-23.png

    De schaling is behoorlijk sterk. Voor een toename van 143mv (of ~13,5%) was er een verbruikstoename van 36,5W. (of ~23%). Of per 10 mV ~2,7watt. De schalingsfactor was ~1,7x

    Frequentie vs. verbruik.

    Hier was de schaling significant minder. Ook hier liet ik hem stock op temperatuur komen, zette hem daarna in stapjes van 200mhz omlaag tot -600.

    upload_2018-11-14_20-55-26.png

    Daaruit kwam de volgende schaling.

    upload_2018-11-14_20-54-52.png

    In absolute termen is het dus een schaling van 28 Watt (17,3%) bij een frequentie schommeling van 600mhz (30,5%). Of 4,7Watt per 100 mhz. Schalingsfactor van ~0.6x

    De schaling is dus maar een derde van het voltage.
    _____________________________________________________

    Een hoop getest, waarom is dit belangrijk? Omdat niet elke chip hetzelfde is. De kwaliteit wordt uitgedrukt in ASIC quality. Hoe hoger dit getal, typischerwijs des te minder voltage hij nodig heeft en dus minder vebruikt. Je kunt je voorstellen dat GPU's die in laptops gestopt worden de hoogste ASIC kwaliteit hebben, en de desktop units waar een enorme koeler opgeplakt wordt lager. Laptop chips lopen gemiddeld op 0.8-0.9V, waar desktop chips 1,031-1,050V gebruiken bij Pascal.

    Terugkomend op de resultaten van HWI, samen met de schalingsgetallen, zien we een absoluut verschil in frequentie van 106mhz. Uitgaande van onze getallen zou dit maar 4,7*1,06=~5watt schelen. We zien 51,01Watt. Te veel om enkel te verklaren met enkel de frequentie. Dat betekend dus dat de ASIC kwaliteit voor 90% bepalend is voor de schommeling in verbruik. En om een beetje aan te tonen hoeveel 50Watt is op zo'n koelertje, kijk naar mijn voltage vs. verbruik resultaten. Daar scheelt het tussen 1,043V en .9V ongeveer 43watt. Hij gaat van 65 graden @ 46% fanspeed naar 60 graden @ 36% fanspeed in een vrij korte tijd.

    Op basis van deze resultaten, en kijkend naar HWI's resultaten, kan ik enkel concluderen dat deze grafische kaarten niet eerlijk worden beoordeeld. Zeker niet wanneer men de efficiëntie van de koeler gaat beoordelen op ASIC's die zover uit elkaar liggen dat er 20% stroomverbruik tussen zit. Een betere methode is het plaatsen van deze koelers op een vast instelbare verwarmingselement zoals jullie CPU's, vastzetten op 40 dB(A) zoals nu, en dan de temperatuur uitlezen.

    Wat denken jullie ervan.
     

    Bijgevoegde bestanden:

  2. DatAccountz

    DatAccountz Senior Member

    Sinds:
    13 nov 2012
    Berichten:
    9.683
  3. Forum m8

    Forum m8 Senior Member

    Sinds:
    30 jan 2006
    Berichten:
    10.785
    Dat lijkt de weerstand van koper dus te matchen. Die is 0,4% per graad hoger.

    Dat daar een meer kwadratisch verband in zit is naar mijn weten niks nieuws.

    Logisch. Laptop chips kun je natuurlijk ook duurder verkopen en een kWh uit een accu kost het tien-twintig voudige dan rechtstreeks uit de muur. Groter factorverschil bij Amerikaanse prijzen.

    Dat bij al die dingen waar er significante variatie per sample is, het testen van een enkel exemplaar weinig zinnig is. Dat geldt ook voor uniformiteitstesten bij monitoren bijvoorbeeld.

    De suggestie om de koelers te testen met een vaste load is goed, maar ook daar zul je blijven zitten met het niet exact kunnen reproduceren van de thermische brug tussen load en koeler. Laat staan dat de heatpipes die in zo'n koeler zitten in elk exemplaar exact gelijkwaardig ingelijmd zitten in het koelblok. En ook al krijg je het bevestigen van de load op de koeler goed reproduceerbaar, zegt dat alsnog weinig over de mate waarin de geleverde kaarten ook gelijkwaardig zijn gemonteerd.

    Maar vooralsnog negeert HWI defacto ook het gezeur met HDD's met een platter meer of minder. Wel wegen ze nu de HDD's, iets waar ze op mijn verzoek mee begonnen zijn. Daar is er sprake van een direct prestatieverschil.

    In de huidige situatie lijkt er ruimte om een 'golden sample' aan te leveren.

    Al met al verdient dit een reactie van HWI, want gewoon weer veel valide punten.

    Je bedoelt de Strix OC volgens mij.
     
  4. division

    division Senior Member

    Sinds:
    22 okt 2017
    Berichten:
    1.430
    Is dit niet iets wat hwi zelf zou moeten testen ipv hwi leden?
     
  5. DatAccountz

    DatAccountz Senior Member

    Sinds:
    13 nov 2012
    Berichten:
    9.683
    Je kunt ook board TDP vastzetten op een bepaalde waarde. Ik wil best overleggen/strategeren over een oplossing. Maar alles is beter dan een GPU met 220W tov eentje met 270W zetten en dan uitspraken doen over de koelers.