Test 11 GeForce GTX 970 im Test

Die Kostet aber auch fast 400€ wenn sie den lieferbar wäre..
Ich frage mich nur wie man mit 87Mv mehr 325Watt verbauchen können soll...oder kann die Zotec mehr Spannung geben?

Zum Takt meiner G1 : Ich erhöhe natürlich den Gundtakt damit der Boost sich auch erhöht...
Die 1560Mhz sind der Max stabil mögliche Boost mit Standart Spannung
 
die Zotac kann gar keine Spannung geben siehe HT4U link ^^
und aus irgendnemgrund throttelt sie sogar bei CB ...

sonst hätte man zumindest immer maximalen takt
 
Zuletzt bearbeitet:
Kurze Frage zum Boostclock.

Habe mich gewundert, warum meine EVGA ACX 1.0 immer ins PowerLimit rennt. Er erhöht den CoreClock einfach soweit, bis es erreicht wird.
Lt. GPU-Z sollte ein Boostclock von 1343 möglich sein (hab Sie auf 1216 / 1800). Tatsächlich läuft Sie aber durchgehend auf 1431.

Ist dieses "Overboost" normal?

Edit: Jetzt habe ich einfach mal bissle rumgespielt. PowerLimit auf 110% (max.) gestellt und rumprobiert. Auch dann hat er 1431 als Boost gefahren. Scheint also uU nur n Auslesefehler bei GPu-Z zu sein.

Habs auch mal bissle mehr Takt gegeben. Bin jetzt bei 1500 im Boost und PowerLimit ist immernoch bei ca 100-103.
 
Zuletzt bearbeitet:
valar dohaeris schrieb:
Außerdem würde mich brennend interessieren, ob ihr MSI darauf aufmerksam gemacht habt und was ggf. als Reaktion zurückkam.
(Hintergrund: ich versuche schon seit Wochen von MSI Germany zu erfahren, warum im Vergleich zu den allermeisten Konkurrenten auf die backplate verzichtet worden ist und ob es nicht möglich, ja sinnvoll wäre, eine Aktion wie EVGA zu starten, um dieses Problem maximal kundenfreundlich und support-orientiert in den Griff zu bekommen.
Wer hier eine ähnliche Meinung vertritt oder aus diversen Gründen Lust hat bei MSI Stress zu machen, dem wäre ich dankbar, wenn eine Email an MSI versendet werden könnte, mit der Bitte, dass der Hersteller sich dieses Problems annehmen möge, indem er ebenfalls eine backplate-Aktion auf die Beine stellt. Vielen Dank für eure Unterstützung!)

Mal im Ernst: welche Backplate hat Kontakt zu den rückwärtigen Bauteilen und ist mit Wärmeleitpads ausgerüstet? Nicht mal NVIDIA macht das bei der GTX 980. Die Backplate hat dann allenfalls noch den Vorteil gegen Verwindungen des PCBs auf Grund des hohen Kühlergewichts entgegenzuwirken. Im Hinblick auf die Temperatur ist es aber kontraproduktiv, denn der Luftzug der Gehäuselüfter erreicht die Bauteile definitiv nicht mehr. Backplates in heutiger Form sind überwiegend Blender optischer Art- Ausnahmen mögen die Regel bestätigen.

Temperaturen bei Karten mit Backplate abzunehmen verfälscht dabei auch das Bild. Selbst mit unserer Thermografiekamera erhalten wir keine korrekten Temperaturen, da die Plate abschirmt!

EDIT: Apropos Temperaturen. Wir haben bei der MSI mit Wärmebildkamera rund 100 °C abgenommen. Das hört sich viel an, ist bei NV-Karten aber nicht ungewöhnlich oder ungewöhnlich im High-End-Sektor. Dafür sind diese Bauteile dann auch für höhere Temperaturen ausgelegt.

EDIT2: Normalerweise nimmt Wolfgang die Temperaturen auf der Grafikkarten-Rückseite in Höhe der GPU ab. Das Messgerät kann also maximal die anliegende GPU-Temperatur erfassen. Bei den Karten mit Backplate geht das sowieso nicht anders, als an dieser Stelle zu messen. Sollte hier versehentlich bei MSI weiter rechts im Wandlerbereich gemessen worden sein, könnte das die höheren Temperaturen erklären. Auch können reflektierende Bauteile und ein nicht passend eingestellter / angepasster Emissionswert solche Messungen verfälschen.

Fakt ist auf jeden Fall, dass sich eine MSI GTX 970 Gaming 4G hier nicht anders verhält, als beispielsweise eine Herculez X2 von Inno3D. http://ht4u.net/reviews/2014/msi_gtx_970_gaming_4g_im_test/index10.php
 
Zuletzt bearbeitet:
@Berserkervmax

Screens sind erwünscht, meine Karte stürtzt bei 1484 MHz in Alien Isolation ab trotz Power % Temp Target etc. !

Würde mich sehr wundern wenn deine mal locker fast 100MHz mehr macht...
 
Nimm mal die Speicherübertaktung Raus !

Aber unter 1500 ist echt mau !

Die G1 hat doch eigentlich selektierte GPUs !

ASIC-Wertes meiner G1 : ASIC 62,3%

With GPU Gauntlet™ Sorting, the Gigabyte SOC graphics card guarantees the higher overclocking capability in terms of excellent power switching.
 
Zuletzt bearbeitet:
frkazid schrieb:

Das, was in GPU-Z steht, ist der Mindestboost. Die wirklichen Boosttaktraten werden anhand des ASIC-Wertes festgelegt. Die Karte wird immer bei entsprechender Auslastung den wirklichen Boost machen, sofern nicht das Temperatur- und/oder Powertarget anliegt.
 
frkazid schrieb:
Kurze Frage zum Boostclock.

Habe mich gewundert, warum meine EVGA ACX 1.0 immer ins PowerLimit rennt. Er erhöht den CoreClock einfach soweit, bis es erreicht wird.
Lt. GPU-Z sollte ein Boostclock von 1343 möglich sein (hab Sie auf 1216 / 1800). Tatsächlich läuft Sie aber durchgehend auf 1431.

Ist dieses "Overboost" normal?

Edit: Jetzt habe ich einfach mal bissle rumgespielt. PowerLimit auf 110% (max.) gestellt und rumprobiert. Auch dann hat er 1431 als Boost gefahren. Scheint also uU nur n Auslesefehler bei GPu-Z zu sein.

Habs auch mal bissle mehr Takt gegeben. Bin jetzt bei 1500 im Boost und PowerLimit ist immernoch bei ca 100-103.

Die dritte Generation an NVIDIA Boost und es gibt noch immer Unklarheiten ^^. Danke NVIDIA.

GPU-Z liest aus dem BIOS den Boost aus. Du erhöhst aber den Basis-Takt. Damit taktet der Boost im Verhältnis natürlich ebenfalls höher und natürlich rennst du damit früher in PT-Limit. Besorg dir den NVIDIA-Inspector. Geh zurück auf Basis-Takt und der Inspektor liest dir den Basis-Takt, den vom Hersteller versprochenen Boost und den tatsächlich bei diesem Muster anliegenden Boost aus. Es gibt eben die drei Werte, da ist kein Auslesefehler.

Dann hast du eine simple Rechenaufgabe. Du siehst deinen Basistakt und den maximalen Boost-Takt und im Resultat geht alles was du mittels Tools erhöhst auf den Basis-Takt und damit natürlich auf den realen Boost-Takt. Und höhere Taktraten bedeuten eben nun einmal dass du auch eine höhere Leistungsaufnahme hast und damit rennst du ins PT.
 
Ah vielen Dank für die Erklärung. Die letzte NVIDIA war ne 4200 Ti ;-)

Bin dann also beim regulärem Boost statt auf 1178Mhz bei 1266Mhz aufgrund des relativ guten ASIC-Wertes.

Dann werd ichs erstmal beim Grundtakt belassen. Aber gut zu wissen, dass noch Platz nach oben wäre ;)
 
Berserkervmax schrieb:
Aber unter 1500 ist echt mau !


Die G1 hat doch eigentlich selektierte GPUs !


Ich ahb fast 100 3D Mark Fire Strike durchlaufen lassen, mehr ging echt nicht.

Ich werde denke ich zur GTX980 ( Inno Ultra oder zur MSI 4G ) greifen...
 
Ich Teste immer mit Heaven !

https://unigine.com/products/heaven/

15min Aufheizen , wenn möglich , die Gehäuse belüftung runterregeln um alles schön warm zu bekommen
Dann F9 für Benchmark.
Wenn der durchläuft (26 Abschnitte) dann läuft alles mit dem Takt mit normaler Gehäusebelüftung !

Wenn ich dann den Max Takt der GPU gefunden habe mach ich das nochmal aber mit 4 von 8 Kernen der CPU belastet mit Core Damage damit ich sicher bin das auch Spiele mit hoher CPU Last ( zb Battlefield 4 ) laufen würden.

http://damage.vigilantesoftware.com/

Der FireStrike ist zwar ganz nett aber erzeugt nicht die GPU Last vom Heaven und zwischen durch kühlt die GPU immer ab !
Außerdem kann der Firestrike auch wegem was anderem abkacken und wir wollen ja GPU Max Takt finden !
 
Zuletzt bearbeitet:
outta schrieb:
@Berserkervmax

Screens sind erwünscht, meine Karte stürtzt bei 1484 MHz in Alien Isolation ab trotz Power % Temp Target etc. !

Würde mich sehr wundern wenn deine mal locker fast 100MHz mehr macht...

Grundtakt

1358Mhz mit +450 auf den RAM

1368MHZ ohne Ram Takt erhöhung ( 1580 Mhz Eff Boost )

Der Boost schwankt etwas +-15Mhz

Aber so betreibe ich die GK nicht !

+122Mhz +450 Ram PL 70% Boost Eff um die 1470Mhz
Dafür aber nur ca 160Watt Verbrauch und nicht 225 Watt für 100Mhz mehr...

Über 1600Mhz geht nur mit alles Vollgas und Viel Viel Lärm ...wozu? Genau..für ein paar Promille Leistung mehr...oh nö...
 

Anhänge

  • heaven 2014-10-19 22-28-54-17.jpg
    heaven 2014-10-19 22-28-54-17.jpg
    383,9 KB · Aufrufe: 544
  • heaven 2014-10-19 22-33-30-71.jpg
    heaven 2014-10-19 22-33-30-71.jpg
    509,9 KB · Aufrufe: 540
Zuletzt bearbeitet:
outta schrieb:
@Berserkervmax

Screens sind erwünscht, meine Karte stürtzt bei 1484 MHz in Alien Isolation ab trotz Power % Temp Target etc. !

Würde mich sehr wundern wenn deine mal locker fast 100MHz mehr macht...

Warum würde dich das wundern? Schau dich mal in den Foren um, unter 1500 ist bei der Gigabyte schon extrem schwach. Seine Karte ist vll. etwas über dem Durchschnitt, aber deine ist definitiv drunter.
 
Bin ich eigentlich der einzige dem die Rohleistung der G1 vollkommen ausreicht? Ich hab zwar oc getestet was möglcih wäre aber nur aus Spaß. Bin die meiste Zeit ohne OC unterwegs. Ich bin aber auch kein hardcoregamer und siele kein BF oder so. Mir reicht eine non oc karte locker aus.
 
Tazmal schrieb:
Bin ich eigentlich der einzige dem die Rohleistung der G1 vollkommen ausreicht?

Grundsätzlich übertakten die Grafikkarten sich heutzutage ja schon standardmäßig selbst. Je nach Temperatur, Leistungsaufnahme und ASIC-Wert takten sie deutlich höher als der eigentliche garantierte Standard-Wert.

Das ist natürlich eine eher konservative Übertaktung aber immerhin wesentlich mehr, als früher, ohne die Boost-Funktionen, als immer nur der kleinste gemeinsame Nenner gefahren wurde, den wirklich jede Karte/GPU unter den schlechtesten Bedingungen (z.B. miese Gehäusebelüftung) durchhalten kann.

Klar kann man immer noch einiges zusätzlich rausquetschen, wenn man an das individuelle Limit seiner Karte heran geht, aber ich denke für die meisten Anwender/Gamer sind die modernen Grafikkarten so schon ganz gut eingestellt. Wenn man nicht vor hat Benchmarkrekorde zu brechen oder einem ausgerechnet 2-3 FPS zum optimalen Spielerlebnis fehlen, dann kann man zusätzliches Overclocking auch sein lassen.
 
Hab mal nen bissle probiert

Meine aktuelle Einstellung
MSI Afterburner.JPG

Ergebnise:

Vorher / Nachher

GPU: 1266mhz (stock) / 1278-1304 mhz
Vram: 3506 / 3600mhz
Powertarget: 100 / -20%
Heaven Benchmark 4.0.JPG80% +175 +94.JPG

2 FPS AVG mehr und 4-5° weniger "Hitze"
 
Zurück
Oben