Mysterium "Boost" - ein Erklärungsversuch

Thanok

Rear Admiral
Dabei seit
Feb. 2009
Beiträge
6.046
Stand: 17.05.2016

Hallo liebe CB-Community,

da es immer wieder diverse Meinungen, Diskussionen aber auch Fehlinformationen zum Thema "GPU-Boost" gibt, habe ich mich nun dazu entschieden einen Versuch zu starten dem ein Ende zu setzen. Sicherlich werde ich nicht alles eindämmen können, aber wenn es dadurch 1 Frage pro Monat weniger gibt hat es sich doch schon gelohnt.

Inhaltsverzeichnis:
1. Vorwort
2. Die Grundidee
3. Die verschiedenen Implementierungen der Hersteller
4. GPU-Boost als Anti-Boost?
5. Anpassungsmöglichkeiten durch den User
6. GPU-Boost und Übertakten
7. Schlussworte


1. Vorwort

Bei allen Informationen die folgen kann ich mich nur auf eigene Erfahrungen und im Internet veröffentliche Erfahrungen anderer sowie Informationen seitens der Hersteller berufen. Ich erhebe keinen Anspruch auf 100%ige Korrektheit, versuche aber möglichst dicht heran zu kommen.
Da ich selbst nur Nvidia-Karten mit Boost besitze/besessen habe, kann ich hier natürlich genauere Informationen aus erster Hand liefern als bei AMD Karten. Wenn sich jemand von euch sich mit Power-Tune mit Boost gut auskennt und Ergänzungen hat, möchte ich darum bitten dies hier zu posten damit ich für beide Hersteller möglichst genaue Daten liefern kann.

Für alle Verbesserungsvorschläge und Korrekturen bin ich stets dankbar solange diese vernünftig an mich herangetragen werden. Sprüche wie "Ey altah, daz is voll Schai**e" sind dies nicht.
Sollten sich Tippfehler eingeschlichen haben möchte ich ebenfalls um einen kurzen Hinweis bitten.

2. Die Grundidee

Es gibt verschiedene Faktoren die die Leistungsaufnahme einer Grafikkarte beeinflussen. In aller erster Linie sind neben Takt und Spannung die jeweilige Anwendung und die Qualität des Grafikchips Variablen bei der Leistungsaufnahme. Da Takt und Spannung ja relativ selbst erklärend sind, gehe ich hier nur auf letztere ein.
Jede Anwendung belastet die GPU anders. Zwar mag die Grafikkarte bei allen Programmen 100% Auslastung melden, doch dies bedeutet nicht dass restlos alle Teile des Chips auch wirklich benutzt werden. Ein gern genommenes Beispiel dafür ist FurMark, welches die Grafikkarte derart stark belastet dass frühere Grafikkarten teilweise dadurch kaputt gegangen sind. Aber auch Spiele können je nach ihrer Optimierung die Hardware besser oder schlechter nutzen.
Je besser der Chip ausgenutzt wird, desto höher ist natürlich auch die Leistungsaufnahme.

Der Chip selbst hat ebenfalls einen beachtlichen Anteil an der Leistungsaufnahme. Es gibt gute und schlechte Chips welche sich durch ihre Taktfreudigkeit, die benötigten Spannungen aber auch durch auftretende Leckströme unterscheiden.

Eine sichere Aussage ob der eigene Chip nun gut oder schlecht ist lässt sich nur durch austesten und vergleichen annähernd herausfinden. Einen groben Hinweis darauf gibt die ASIC-Qualität. Diese könnt ihr Auslesen in dem ihr bei GPU-Z oben links auf das Icon des Programms klickt und dann den Menüpunkt "Read ASIC-Quality" auswählt. Dort steht dann der zu eurer Grafikkarte gehörige Wert. Die zugehörige Erklärung könnt ihr getrost ignorieren.

Eine Hohe ASIC bedeutet prinzipiell dass der Chip weniger Spannung für den gleichen Takt benötigt und geht entsprechend oft mit einem hohen Übertaktungspotenzial einher. Im Gegenzug sind die Leckströme auch vergleichsweise hoch, so dass die Leistungsaufnahme ebenfalls höher ausfällt.
Eine niedrige ASIC bedeutet im Umkehrschluss dass der Chip mehr Spannung für den gleichen Takt braucht und in Folge dessen auch oft weniger Übertaktungspotenzial aufweist. Dafür, und dass ist nicht zu unterschätzen, sind die Leckströme meist geringer was sich positiv auf den Stromverbrauch auswirkt. Diese Chips vertragen dazu noch mehr Spannung so dass diese für Übertakter mit Wasserkühlung auch besser sein können.

Ihr seht also, nur weil der namentlich gleiche Chip auf einer Karte sitzt bedeutet dass nicht dass 2 Karten sich auch gleich verhalten.

Was bedeutet das nun für den Hersteller? Der Hersteller sieht für eine bestimmte Karte eine bestimmte maximale Leistungsaufnahme vor. Die Karte wird so designed dass bei jeder (Realitätsnahen) Anwendung die maximale Leistungsaufnahme nicht überschritten wird. Programm A mag diese trotzdem zu 95% ausnutzen, Programm B aber vielleicht nur zu 70%. Entsprechend defensiv müssen sowohl Takt als auch Spannung gewählt werden.

Die Grundidee des GPU-Boosts ist nun den Verbrauch einer jeden Karte möglichst nahe an die vorgesehene Leistungsaufnahme zu bringen indem Spannung und Takt Stufenweise erhöht werden wenn ausreichend Luft bei der Leistungsaufnahme besteht. Mittlerweile spielt dabei auch noch die Temperatur mit hinein, denn: Eine hohe Temperatur kann ebenso viel Schaden anrichten wie eine hohe Spannung - Beides zusammen kann eine tödliche Mischung für einen jeden Computerchip darstellen. Aber zurück zur Idee.

Der Verbrauch soll also möglichst lang möglichst nahe an der Obergrenze liegen. Dazu muss die Karte natürlich die eigene Obergrenze kennen und den aktuellen Verbrauch bestimmen können. Das können Nvidia Karten seit der 500er Serie und AMD Karten seit der 6900er Serie.
Bei Nvidia wurde diese Möglichkeit vor allem dazu genutzt so genannte "Power-Viren" wie Furmark daran zu hindern die GPU oder deren Spannungsversorgung zu beschädigen. Vorher wurde dies oft durch die Erkennung der "Furmark.exe" (ebenso wie bei AMD) erreicht und konnte ebenso leicht umgangen werden. Durch die Interne Überwachung kann der Verbrauch im Notfall stark reduziert werden - natürlich auf Kosten der Leistung. Die Auslösegrenzen dafür waren allerdings auch entsprechend hoch und in normalen Programmen nicht zu erreichen.

AMD hat diese Möglichkeit für etwas ähnliches genutzt, aber gleichzeitig die Taktraten angehoben. Somit war es durch die Begrenzung des Verbrauchs möglich die Karten höher zu takten ohne dass bei Furmark und Co gleich alles in Flammen aufging. Und im Gegensatz zu Nvidia konnte man dieses Limit (was dafür auch näher am realistischen Verbrauch lag) auch manuell anpassen um beim Übertakten mehr Leistung zu ermöglichen. Mit meinen Beispielprogrammen A und B ausgedrückt würde dies also bedeuten dass Programm A nun zu 100% an der Grenze agiert und die Karte sich herunter taktet, Programm B aber nun schon zu 90% an der geplanten Leistungsaufnahme liegt. Somit laufen die Karten also schon näher am geplanten Limit, wobei die Serienstreuung natürlich auch hier mit hinein spielt.
Interessant dabei ist dass der Takt nur soweit abgesenkt wurde wie nötig und auch schnell wieder hoch getaktet wurde: Ein großer Schritt vom simplen Halbieren des Taktes wie er bei der Nvidia 500er Serie verwendet wurde.
Als kleinen Überblick verweise ich an dieser Stelle auf den ComputerBase-Test der 6900er Karten.


3. Die verschiedenen Implementierungen der Hersteller

Nvidia
GeForce GTX 600 Serie
Mit dieser Generation wurde der Boost offiziell geboren. Die Grundlegende Technik des drosselns aufgrund eines zu hohen Verbrauchs wie AMD es mit der 6900er Serie neu eingeführt hat wurde nun auch nach oben erweitert. Dazu musste aber erst alles dynamischer werden. Bis zu diesem Zeitpunkt kannten Grafikkarten nur Lastzustände mit dazugehörigen Taktraten und Spannungen. So gab es z.B. einen 2D Takt (Leerlauf), einen Low 3D Takt (Ein Zwischenschritt zwischen vollem Takt und voller Spannung und dem 2D Takt) und den 3D Takt (Maximaler Takt, Maximale Spannung) der unter Last anlag.
Diese Zustände gibt es auch noch bei der 600er Reihe (und auch neueren Karten), jedoch liegt zumindest der 3D-Takt vergleichsweise niedrig. Darüber gibt es viele kleine Stufen mit ebenso kleinen Änderungen an Takt und Spannung. Das ganze ist im Grunde nichts weiter als eine Tabelle. Diese kann z.B. so aussehen (Hier am Beispiel einer GTX TITAN):

1,1625V --- 1.0199MHz
1,1500V --- 1.006MHz
1,1375V --- 993MHz
1,1250V --- 980MHz
1,1125V --- 967MHz
1,1000V --- 954MHz
1,0875V --- 941MHz
1,0750V --- 928MHz
1,0625V --- 915MHz
1,0500V --- 902MHz
1,0375V --- 889MHz
1,0375V --- 876MHz --- Von Nvidia angegebener typischer Boost
1,0250V --- 863MHz
1,0125V --- 863MHz
1,0000V --- 850MHz
0,9875V --- 837MHz --- Basistakt
0,9750V --- 823MHz
0,9625V --- 810MHz
0,9500V --- 797MHz
0,9375V --- 784MHz
0,9250V --- 771Mhz

Wie zu erkennen ist gehört zu jedem Eintrag der Spannung ein konkreter Takt. Das ganze ist eine lineare Funktion wobei mit jeder Stufe die Spannung um 12,5mV und der Takt um 13MHz steigt.
Damit dieses Zahlenspiel funktioniert ist es aber auch wichtig dass die Grafikkarte ihren eigenen Verbrauch und auch eine Verbrauchsgrenze (das so genannte "Power-Target", im folgenden PT abgekürzt). Das PT wird offen angegeben und beträgt z.B. bei der GTX 680 190W und bei der GTX TITAN 250W.

Wie kann man sich das nun im Betrieb vorstellen?
Zu allererst gibt es einen Basistakt. In meinem Beispiel beträgt dieser 836Mhz. Diesen Takt versucht die Karte mindestens zu halten, er stellt also gewissermaßen den neuen 3D-Takt dar. Allerdings geht die Boost-Tabelle auch nach unten hin weiter. Sollte es also nötig sein kann die Karte Spannung, Takt und somit den Verbrauch weiter reduzieren. Bei älteren Spielen die die Grafikkarte nur leicht auslasten ist dies gut zu beobachten.
Dann gibt es den typischen Boost. Dieser ist, wie der Name schon sagt, der Takt der laut Nvidia in den meisten Fällen anliegt. Tendenziell wird dieser Wert eher Über- als Unterschritten, aber es gibt auch genug Szenarien in denen die Karte geringer taktet.

Geben wir nun Last auf unsere virtuelle GTX TITAN aus dem Beispiel: Zur Erinnerung sei erwähnt dass das PT 250W beträgt. Thermische Veränderungen lasse ich der Einfachheit halber außen vor.
Unser Programm erzeugt beim Basistakt einen Verbrauch von 200W, also 80% des PTs. Die Karte erkennt dies und bemerkt dass noch Luft nach oben ist: Sie rutscht in der Tabelle eine Zeile nach oben und hebt Spannung wie Takt etwas an. Dadurch liegt der Verbrauch nun bei etwa 84% des PTs. Das ganze wird immer weiter wiederholt bis die Karte sich in diesem Fall bei 902MHz und 1,0625V einpendelt. Dabei nutzt sie ihr PT zu ziemlich genau 100%. Es kann durchaus passieren dass sie stellenweise sogar auf 915Mhz taktet und dabei das PT minimal (im Nachkommabereich) überschreitet, das sind aber Differenzen im Bereich <2W die bei einem derart hohen Verbrauch kaum einen Unterschied machen. Die Karte läuft also nun direkt an ihrem auferlegtem Verbrauchslimit. Dabei ist ihr Takt gegenüber dem Basiswert um (ausgehend von 902MHz) knapp 8% erhöht was im Idealfall 1:1 in Leistung umgemünzt wird.
Da in einem typischen Programm die Intensität der Berechnungen mehrfach pro Sekunde variiert, ändert sich natürlich auch die Nutzung des PTs entsprechend häufig und die Karte taktet in einem gewissen Bereich hin und her. In Menüs z.B. wird ihr Takt aufgrund der geringen Last wahrscheinlich höher liegen als in einer Szene in der gerade die halbe Landschaft explodiert.

Auffällig dabei ist aber auch dass die Leistungssteigerung mehr kosmetischer Natur ausfällt. 8% mehr Bilder pro Sekunde (fps, frames per second) machen keinen Unterschied zwischen spielbar und unspielbar aus. Von 40fps ausgehend sind 8% mehr gerade einmal 3 fps. Das lässt das Bild minimal flüssiger wirken, mehr aber auch nicht. In erster Linie wird so natürlich der Balken in Benchmarks verlängert und man kann sich so vor die Konkurrenz setzen. Die Leistung bekommt der Nutzer aber trotzdem.

Da die Spannung Quadratisch in den Verbrauch einfließt und der Takt linear, die Leistung aber maximal 1:1 mit dem Takt skalieren kann, sinkt dabei natürlich auch die Effizienz. Die Steigerung vom Basis- zum Maximaltakt beträgt z.B. 20,3%, der Unterschied in der Leistungsaufnahme liegt aber bei ansonsten gleichen Umständen bei 66,8% - also mehr als dem Dreifachen!

Es gibt begründete Vermutungen dass die Spannungswandler der Karte einen Einfluss haben. Klare Beweise gibt es derzeit nicht, aber einige Berichte über Karten die sich bei hoher Last scheinbar Grundlos etwas heruntertakten. Dies könnte z.B. an zu heißen Spannungswandlern liegen, ist aber nicht bestätigt. Der Vollständigkeit halber möchte ich diese Möglichkeit aber nicht unerwähnt lassen.

Merke: Im Prinzip wechselt der Chip nur zwischen verschiedenen Betriebsspannungen, der Takt wird dann separat anhand der Tabelle zugewiesen und kann noch beeinflusst werden.

GeForce GTX 700, 900 und TITAN Serie:
Das Grundprinzip ist unverändert zur 600er Serie, solltest du dies also übersprungen haben weil du keine Karte der Serie besitzt kannst du dir dennoch guten Gewissens den obigen Abschnitt durchlesen.

Der Große Unterschied zwischen dem zuvor beschriebenen Boost 1.0 und dem Boost 2.0 ist der Einfluss der Temperatur. Wo Boost 1.0 nur auf den Verbrauch geachtet hat achtet die zweite Implementierung nun auch auf eine angemessene Betriebstemperatur. Das macht diesen Boost stark vom verwendeten Kühler, Gehäuse und dem Airflow durch selbiges abhängig. Ein und die selbe Karte läuft in einem gut Belüfteten Gehäuse meist deutlich schneller als in einem gänzlich abgeschotteten. Auch die TITAN aus meinem Rechenbeispiel der 600er Reihe unterliegt diesem Boost, ich habe ihn allerdings für das Beispiel auf 1.0 "gedowngraded".

Um eine Temperatursteuerung mittels Boost zu erreichen hat Nvidia den Karten neben einem Powertarget (PT) auch noch ein Temperature-Target (im folgenden TT genannt) mitgegeben. Das TT liegt bei der 700er Generation (außer 780Ti) und der GTX TITAN bei 80°C, bei der 900er Serie und den anderen TITAN-Karten bei 83°C. Diese Karten versuchen also nicht nur möglichst nah an das PT heranzukommen, sondern achten dabei auch darauf dass die Temperatur im Grünen Bereich ist. Das klingt erst einmal wie eine reine Drosselung im Vergleich zum Boost 1.0, bietet aber auch Vorzüge. Wie ich Eingangs erwähnt habe ist eine hohe Spannung im Normalbetrieb allein keine Gefahr für den Grafikchip, ebenso wenig eine hohe Temperatur. In Kombination lassen beide den Chip aber deutlich schneller altern was ihn früher oder später zerstört. Dies gilt allerdings nicht für Extrem Hohe Werte für eine dieser Variablen.

Nun ermöglicht die Temperatursteuerung bei geringen Temperaturen also höhere Spannungen und ergo auch Taktraten da sichergestellt ist dass der Chip diese auch gut verkraften kann. Läuft er im Gegenzug im Temperaturlimit wird der Takt zur Schonung des Chips mitsamt der Spannung gesenkt. Dabei unterstützt die Karten noch die übliche Temperatur-geregelte Lüfterkurve.
Als Folge dieser zusätzlichen Schutzfunktion kann der Chip auch mit höheren Spannungen betrieben werden was höhere Taktstufen ermöglicht; bei zu hohen Temperaturen schützt sich der Chip selbst indem er die Betriebsspannung samt Takt leicht senkt.

Zusätzlich dazu hat Nvidia dem Nutzer noch die Option gegeben wahlweise das PT oder das TT zu priorisieren. Priorisiert man das PT so wird die Karte auch bei geringen Temperaturen drosseln sobald das PT erreicht wurde (Standardeinstellung), bei Priorisierung des TT überschreitet die Karte ihr PT in gewissem Maße wenn die Temperatur dies zulässt. Dies hat Nvidia mit einem kleinen Trick z.B. bei der TITAN X abgeschwächt indem die Karte bei erreichen der 70° Marke automatisch eine Zeile nach unten in unserer Boost-Tabelle rutscht, auch wenn weder PT noch TT erreicht wurden. Allen Karten gemein ist immer eine Drosselung um eine Stufe (also einer Zeile der Tabelle) bei 80° und 90°..

Um diese Variante klarer zu Erläutern gehen wir das Beispiel aber noch einmal durch, dieses mal mit dem echten Boost 2.0:
Im Gut belüfteten Gehäuse:
Hier ist kaum ein Unterschied zum oben beschriebenen Boost 1.0 zu erkennen. Der Hauptunterschied ist in der Tabelle selbst zu suchen die in der Theorie etwas aggressiver auslegt ist.
Priorisieren wir das TT anstelle des PT steigt der Takt der Karte stärker an und kann dann trotz überschrittenem PT z.B. bei 928MHz anstelle der im Boost 1.0 erreichten 902 MHz liegen, was dann schon 11% über dem Basistakt sind.

Im Normal belüfteten Gehäuse:
Hier nehmen sich die Boosts unabhängig der Priorisierung nicht viel. Das TT limitiert zumindest beim Referenzdesign oft früher als das PT, der Takt liegt aber dennoch meist um den typischen Boost-Takt.

Im Schlecht belüfteten Gehäuse:
Hierbei wird der Boost schon früh aufhören den Takt zu erhöhen um die Betriebstemperatur nicht zu überschreiten. Die zur erwarteten Taktraten liegen unterhalb des angegebenen Boost-Takts da die Karte sonst ungesunde Spannungen bei der Temperatur ertragen müsste.

GTX 1000 Serie
Hier wurde der Boost nun auf Version 3.0 gehoben. Der Unterschied im Vergleich zur Version 2.0 ist eigentlich klein und dennoch bedeutsam: Takt und Spannung steigen nicht immer um den gleichen Wert an. So ist eine deutlich höhere Effizienz möglich da der Takt nah am Maximum gehalten werden kann. Ob die Spannungsstufen jetzt noch die gleichen sind kann ich derzeit noch nicht sagen.

AMD
Radeon 7970Ghz Edition & 7950V2 (aka Boost)
Bei AMD nennt sich der ganze Spaß Powertune with Boost. Dieser Urvater der AMD Implementierung wurde erstmals in der 7970Ghz Edition verwendet und funktionierte über die Hauseigene Verbrauchsüberwachung Power-Tune.
Zur Erinnerung: Die Karte erkennt dadurch bereits ihren Verbrauch und drosselt bei Bedarf dynamisch um die Leistungsaufnahme zu beschränken. Jetzt wurde das ganze aber um eine Boost-Stufe erweitert: Liegt die Karte ausreichend unter dem PT, so taktet sie in der Referenz von 1.000Mhz auf 1.050Mhz hoch und erhöht im gleichen Atemzug die Betriebsspannung. Wird das PT gerissen, sinkt der Takt zuerst auf 1.000Mhz ab und dann bei Bedarf dynamisch weiter.
Die Grundidee ist dem Ansatz von Nvidia also nicht unähnlich, abseits einer Drossel vom Basistakt (1.000Mhz in der Referenz) gibt es aber nur eine große Booststufe, so dass das ganze doch noch etwas grob agiert. In der Realität lagen übrigens nur in Ausnahmefällen die 1.000Mhz Basistakt an, der Boosttakt konnte fast immer erreicht und gehalten werden.

Radeon HD 7790:
Die Begrenzung ist hier ebenfalls das PT, es gibt nun aber nicht mehr eine sondern 5 Boost-Stufen. Dies ermöglicht höherere Taktraten und einen verringerten Leistungsverlust im Falle einer Drosselung.

Radeon R9 290 Serie
Bei der R9 290er Serie hat AMD nun eine ausgereiftere Version vorgestellt. Hierbei gibt es ebenfalls zahlreiche kleine Takt- und Spannungsstufen, wobei der Takt ebenfalls aufgrund von Temperatur oder Verbrauch gesenkt wird. TT und PT gibt es hier also auch. Aufgrund der großen Ähnlichkeit zum Boost bei Nvidia verweise ich auch an dieser Stelle noch einmal darauf.

Der größte Unterschied zur Grünen Konkurrenz ist in der Art des Bremsens zu suchen. Wie bereits erwähnt wird der Takt bei Nvidia oft bereits vor erreichen des TT etwas gesenkt, bei AMD rennt die Karte mit Vollgas bis sie in eines der beiden Limits kommt. Allerdings liegt das PT bei diesen Karten hoch genug als dass dieses auch beim Maximaltakt nicht limitiert. Unter Last sieht dies bei einer R9 290X z.B. so aus: Ein Programm startet, die Karte taktet auf ihren Maximaltakt (1.000Mhz) hoch. Wird das PT überschritten geht die Karte in ihrer Boost-Tabelle ebenfalls so weit herunter bis es wieder eingehalten wird. Dies passiert aber für gewöhnlich nicht bei normalen Anwendungen. Spannender wird es da beim TT: Diese liegt bei der 290 und 290X bei 94°C, 295X2 hat eines bei 75°C. Erreicht eine Karte dieser Serie das PT taktet sie solange herunter bis die Temperatur gehalten werden kann.

Ein weiterer Unterschied liegt in den offiziellen Angaben: Nvidia gibt den "typischen Boost" als Richtwert für den zu erwartenden Takt an, der Reale Takt kann je nach Anwendung darunter oder auch darüber liegen. Dazu wird ein garantiertet Basistakt genannt. AMD gibt nur den Maximaltakt an und behält den Basistakt für sich.
Tests mit reduzierter Lüfterdrehzahl haben bei der R9 290 einen wahrscheinlichen Basistakt von 662MHz gezeigt.

Welche Variante nun besser oder schlechter ist will ich hier nicht beurteilen. Beim Übertakten ist Nvidias Implementierung sicherlich ein Hindernis da die Rolle der Temperatur vergleichsweise hoch ist, dafür wird der Chip nicht so stark belastet - und das ohne spürbare Performanceeinbußen.

4. GPU-Boost als Anti-Boost?

Viele Leute, auch hier im Forum, proklamieren den Turbo-Boost gern als Drosselfunktion seitens der Hersteller und als Beschönigung einer künstlich eingebauten Bremse. Ist dem wirklich so? Die Antwort hierauf ist wohl ein klares "Jain".
Fakt ist dass die Karten bei zu hohem Verbrauch ausgebremst werden wobei diese Grenze in der Regel nur beim Übertakten erreicht wird. In diesem Bezug ist der Boost aber definitiv eine Bremse. Das TT hingegen ist ein wenig von beidem.

Grundsätzlich ermöglicht es der Karte vergleichsweise hohe Spannungen und somit auch Taktraten zu fahren wenn die Kühlung ausreichend gut ist. Ein Chip der also sonst konservativ mit z.B. 850Mhz betrieben worden wäre lässt sich so auch unter realen Bedingungen vielleicht mit 900 oder 950Mhz fahren was der Performance zu Gute kommt. Das ist ausgehend von normaler Belüftung auch das erklärte Ziel des GPU-Boosts.
Bei schlechter Belüftung (keine Gehäuselüfter, SLI/CF-Konfiguration, usw.) drosseln Karten mit Boost aber auch sehr schnell so dass natürlich Leistung verloren geht. Hier sichern sich die Hersteller etwas gegenüber einer verringerten Lebensdauer ab. Dieses Drosseln fällt bei Nvidia etwas sanfter aus als bei AMD was zum einen am frühen Einsetzen des Drosselns (je nach Karte schon ab 70°C) liegt, aber auch an der Temperaturgesteuerten Lüfterkurve die hohen Temperaturen mit einer höheren Drehzahl entgegnet.
AMD setzt hingegen auf eine limitierte Lüfterdrehzahl, welche bei der 290 bei etwa 47% und bei der 290X je nach BIOS etwa bei 40% oder 55% liegt. "Etwa" deshalb da AMD nach einiger Kritik aufgrund unterschiedlicher Drehzahlen bei eigentlich Baugleichen Karten die Finale Drehzahl als Fixwert hergenommen hat und nicht mehr nach den Prozenten geht. Das mag bei einer Karte 45% Drehzahl entsprechen, bei einer anderen sind es vielleicht 50%.
Diese Lüfterdrehzahl ist wie erwähnt eine fixe Obergrenze die nur im Ausnahmefall überschritten wird. Im Normalfall läuft die Karte mit gebremsten Lüfter daher relativ zeitnah ins TT was zu einer Teils massiven Drosselung des Chiptakts führt. Dadurch fällt der unmittelbare Performancesturz größer als bei der Konkurrenz aus. Bei der 290X im "Uber"-Modus reicht die Lüfterdrehzahl meist aus dass die Karte nicht ins TT rennt.

Bei Karten mit alternativen Kühlern (beider Chiphersteller) ist das TT meist aber ohnehin kein allzu großes Problem mehr.

5. Anpassungsmöglichkeiten durch den User

Endlich mal ein kurzer Abschnitt: Der Boost lässt sich natürlich manipulieren. Zum einen durch Manipulation von TT und PT durch Programme wie Afterburner oder Prescision. Das Maximale PT ist von Serie zu Serie verschieden, beim GK110 liegt es z.B. bei 106% (=265W). Das TT ist hierbei bis 95°C justierbar, so dass es im Normalfall keine Rolle mehr spielt. Bei den Karten der GTX 900 Serie und der GTX TITAN X lieg das Maximum bei 91°C.
Bei AMD lässt sich das TT aufgrund des hohen Wertes nur nach unten korrigieren, das PT ist aber auch nach oben Einstellbar.
Des weiteren lässt sich durch das flashen eines Alternativen BIOS der Boost auch komplett deaktivieren; natürlich auf eigene Gefahr.
Durch eine erhöhte Lüfterdrehzahl kann man das TT ebenfalls indirekt beeinflussen da niedrigere Chiptemperaturen oder einfach nur eine stärkere Kühlung einen höheren Boosttakt begünstigen. Dies lässt sich durch höhere Lüfterdrehzahlen und/oder alternative Kühllosungen bewerkstelligen.

6. GPU-Boost und Übertakten

Es gibt einige Möglichkeiten trotz Boost die GPU effektiv zu übertakten. Manch einer nutzt trotzdem auf eigene Gefahr ein alternatives BIOS ohne Boost um das Overclocking zu vereinfachen. Wer dies nicht machen will sollte in erster Linie eine gute Kühlung sicherstellen, da sonst der Boost schnell jegliche Performancegewinne nichtig macht. Wenn dies nicht möglich ist. lässt sich auch das TT auf Kosten der Lebensdauer erhöhen. Dies führt bei Nvidia trotzdem zu einer leichten Drosselung, welche jedoch nicht weiter tragisch ist - dazu gleich mehr.

Nvidia:
Das Übertakten läuft in erster Linie über einen Offset-Wert ab. D.h. man gibt nicht mehr wie früher eine fixe Taktrate ein, sondern einen Wert der zum normalen Takt hinzu addiert wird.
Bei einigen Karten kann es dazu kommen dass nur in 13MHz Schritten übertaktet werden kann. Neuere Karten zeigen dieses Phänomen allerdings nicht.

Dazu gibt es noch die Option der Spannungserhöhung. Diese ist meist nur sehr geringfügig verfügbar und erhöht automatisch den möglichen Takt. Das ist möglich da die Spannungstabelle auch noch mehrere Werte nach oben hat (+12,5mV, +25mV und +37,5mV beim GK110). Jedem dieser Werte ist natürlich auch eine Taktrate zugeordnet. Erhöht man die Spannung also um 3 Stufen (=37,5mV), steigt der maximale Takt bei der Beispielkarte von oben ebenfalls um 3 Stufen auf nunmehr 1.045Mhz an. Die Spannungsänderung geht auch bei mittleren Temperaturen (zwischen 70°C und TT wo die Karten teilweise bereits leicht drosseln) 1:1 durch, sofern weder TT noch PT gerissen werden. Aus 1,1V werden dann eben 1,1375V mit entsprechendem Takt. Werden PT oder TT gerissen wird der Takt natürlich ungeachtet dessen reduziert um im Rahmen zu bleiben.
Daher ist es elementar wichtig sicherzustellen dass beide Limits eingehalten werden!

Es gibt für einige Karten noch weitere Optionen, insbesondere über BIOS-Flashes. Darauf gehe ich hier aber bewusst nicht ein.

Wichtig ist hierbei zu beachten dass beim OC die Spalte mit dem Takt quasi nach unten verschoben wird, die mit den Spannungen bleibt unberührt. Dies führt dazu dass bei gleichem Takt eine niedrigere Spannung anliegt als zuvor; wenn man Pech hat wird die Karte dann vor erreichen des Maximaltakts instabil was bei der Nutzung von Framelimitern Probleme verursachen KANN. Kleines, fiktives Beispiel:
Bei 1Ghz Takt liegen 1,1V von Haus aus an. Übertaktet man nun um 39Mhz liegen 1,1V erst bei 1.139Mhz an, bei 1Ghz beträgt die Spannung nur noch (1000 - 3x12,5mV), also rund 962mV.

AMD:
Hier wird der Maximaltakt bzw. die dort Anliegende Spannung angepasst. TT und PT dürften nach wie vor nicht gerissen werden, im ganzen ist das Übertakten hier jedoch deutlich näher an dem bekannten dran als bei Nvidia.
Optionen wie das flashen eines neuen BIOS gibt es hier selbstverständlich auch, aber auch darauf möchte ich an dieser Stelle nicht eingehen.
Wenn die eigene Karte bei XX% die Lüfterdrehzahl limitiert, lässt sich dieses Limit mit einem kleinen Trick überlisten: Dazu muss das TT extrem niedrig angesetzt werden. Die Karte wird dann erst stark drosseln, der Lüfter dreht entsprechend hoch auf, woraufhin die Karte den Takt wieder anhebt. So lässt sich auch ohne manuelle Lüftersteuerung eine 100%ige Lüfterdrehzahl bewerkstelligen. Der Lärmpegel steigt allerdings entsprechend an.

7. Schlussworte

So, einmal kurz zusammengefasst: Der Boost ist an für sich eine schöne Sache, behindert allerdings zuweilen beim Overclocken. Er ist gleichsam eine Kontrollfunktion der Hersteller um den Verbrauch zu limitieren wie auch das was sein Name suggeriert: ein automatischer Turbo. Damit letzteres möglichst oft der Fall ist, ist aber für gewöhnlich eine Anpassung des PT und vor allem der Kühlung von Nöten.
 
Zuletzt bearbeitet:

Sweepi

Lt. Commander
Dabei seit
Sep. 2009
Beiträge
1.562
Schöne Übersicht.
Könnte vll. noch ein paar Tabellen / Grafiken vertragen.
AMD gibt immer den Maximaltakt an. Dieser wird bei einem Kalten Chip immer erreicht, wird aber bei Bedarf so lange reduziert bis die Karte bei gleicher Drehzahl das TT halten kann. Der Minimal- bzw. Basistakt wird hingegen nicht offiziell publiziert und muss gemessen werden.
Afaik falsch. Es gibt einfach keinen Basistakt. Die Karte taktet solange runter, bis Temperatur- und Powertarget nicht überschritten werden.
 

promashup

Admiral
Dabei seit
Aug. 2013
Beiträge
7.294
Wie bereits oben erwähnt ist eine hohe Spannung nur in Kombination mit einer hohen Temperatur tödlich (solange man natürlich in normalen Bereichen bleibt). Ist die Temperatur nun niedrig, kann also eine höhere Spannung und in der Folge ein höherer Takt angelegt werden ohne den Chip dadurch stärker zu belasten.
Das ist nicht richtig. Zu hohe Spannung zerstört den Chip auch wenn die Temperatur niedrig ist.
 

Thanok

Rear Admiral
Ersteller dieses Themas
Dabei seit
Feb. 2009
Beiträge
6.046
@Sweepi: Ist mir auch aufgefallen, ich werde mich mal demnächst dran setzen das ganze schöner zu gestalten.
Die AMDs haben laut CB-Test einen Basistakt. Bei der 290 sind es z.B. 667Mhz. Dieser wird eben nur nicht offiziell genannt.

@primashup: Es stimmt schon dass es in normalen Bahnen (wie ich auch geschrieben habe) so ist. Beim extrem OC werden z.B. auch Spannungen verwendet die bei Raumtemperatur sofort zu GPU-Suizid führen würden, dank LN2 es aber nicht tun.
 

SirBerserk

Lt. Junior Grade
Dabei seit
Mai 2014
Beiträge
458
früher gab es einen festen takt vom hersteller, dieser versichert das bei dem takt die GPU sicher arbeitet. wer übertaktete konnte mehr rausholen mit gewissen risiken.

heutzutage taktet die karte selbstständig bis zum limit unter optimalen bedingungen, wenn die rahmenbedingungen überschritten werden, taktet das system runter.

sozusagen hilft der boost mir beim übertakten den chip bestmöglich auszulasten. du kannst mit boost+OC mehr fps rausholen als mit festem OC.

die feinde sind bei extremen OC mit custom kühler nur das powertarget, und beim gk104 dauert das bis du das erreichst. ich kann meine 670 mit 1.3ghz laufen lassen und bin nicht im powertarget limit.

bei der 750ti siehts aber anders aus, da ist man sehr schnell im powertarget.
 

Thanok

Rear Admiral
Ersteller dieses Themas
Dabei seit
Feb. 2009
Beiträge
6.046
In diesem Fall hilft leider nur noch ein BIOS-Flash. Ich habe meine Karte hier auch auf bis zu 135% freigeschaltet, und diese erreicht sie sogar manchmal. Die Norm liegt dann aber doch eher bei 100-110%; Werte die ich auch mit meiner Non-Black hatte.
 

Banger

Fleet Admiral
Dabei seit
Aug. 2010
Beiträge
21.018
NVidia geht dabei erstaunlich bedacht vor und lässt den Chip nicht mit Vollgas in eines der beiden Limits laufen sondern taktet bereits vorher leicht herunter. Die Grenzen hierfür sind 60°C, 70°C, 80°C und 90°C, also ab 60°C immer in 10°C Schritten. Immer wenn eine Grenze überschritten wird geht der Chiptakt um eine Stufe nach unten - wie bereits mehrfach erwähnt natürlich auch die Spannung. Dies resultiert in teilweise deutlich erhöhten Spannungen im Vergleich zur 40nm Vorgängergeneration. Die GTX580 lief z.B. bei 772Mhz bei 1V, die Titan legt da trotz feinerer Fertigung 0,162V von Haus aus drauf.
Das ist mir neu. Meine Karte boostet bei entsprechender Auslastung immer mit 1097MHz. Drosseln tut die nur, wenn die ins Powertarget rennt oder an die 79°C kommt. Für die 79°C muss ich ich schon die Lüfter auf 31% tackern.

Eine andere Beobachtung von mir: Wo es wärmer in der Bude war, habe ich auch mal die Lüfter auf 31% getackert und Temperaturtarget auf 95°C gestellt und das Powertarget auf 106% gestellt. Beides wurde bei den Tests nicht erreicht. Aber die Karte hat trotzdem bei 76-80°C den Takt auf 1071MHz runtergestellt und die wurde da anschließend ca. 86°C warm, bleib aber auf diesem Takt. Das Powertarget ging max. auf ca. 103%, hatte noch klein wenig Luft.

Vor noch längerer Zeit kurz Furmark angeschaltet, da hatte die Karte um die 950MHz und war im Powertarget von 100%.
 
Zuletzt bearbeitet:

Pilstrinker

Lt. Commander
Dabei seit
Juli 2009
Beiträge
1.971
Das ist mir neu. Meine Karte boostet bei entsprechender Auslastung immer mit 1097MHz. Drosseln tut die nur, wenn die ins Powertarget rennt oder an die 79°C kommt.
Mir ebenfalls. Mir ist ein Runtertakten ab 60°C und dann in 10°-Stufen jedenfalls noch nicht aufgefallen.

Und wenn ich "The Witcher II" als Beispeil nehme, taktet da meine Karte (GTX 780 - GK110B A1) , obwohl weit entfernt von den jeweiligen Targets, scheinbar willkürlich mal hoch und mal runter:

witcher2_2014_07_24_08_15_25_921.jpg
(1215 MHz, 75°C)

witcher2_2014_07_24_08_12_11_486.jpg
(1175 MHz, 73°C)

Da müssen noch andere Mechanism wirken, bspw. kann ich mir durchaus vorstellen, dass die Spannungswandlertemperatur eine wichtige Rolle spielt, denen nVidia aber bei zumindest den GTX 780 Karten keine auslesbaren Temperatursensoren mitgegeben hat.

Oder kennt jemand ein Programm, das die VRM-Temps bei der GTX 780 auslesen kann?
 

Thanok

Rear Admiral
Ersteller dieses Themas
Dabei seit
Feb. 2009
Beiträge
6.046
Ich habe gerade mal versucht das ganze nachzustellen, die 60° sind bei mir jedoch nur extrem schwer zu erreichen. Bei meinem Test sind mir allerdings ein paar Eigenheiten aufgefallen:
- Der Takt war immer wieder mal am Springen, obwohl ich eine statische Szene hatte. Laut GPU-Z bin ich ins PT (=140%, die Karte war allerdings <130%) gerannt.
- Ab 50° tauchten Regelmäßig 1,15V auf, bei denen sich die Karte dann bei 53°C eingependelt hat. Davor war sie zwischen 1,6x und 1,8x V

Gut möglich dass die VRMs auch mit da rein spielen, aber die Temp kann die Black auch nicht auslesen. Man sollte aber meinen dass diese, auch bei einer passiven WaKü mit <55°C GPU Temp nicht im kritischen Bereich sind. Wobei natürlich 30% mehr über die SpaWas ging als vorgesehen. Ein Test mit Furmark und sich drehenden Lüftern (115% Verbrauch) lies die Karte ihren Takt samt Spannung eisern behalten.

Es ist also gar nicht mal so abwegig dass die VRMs mit reinspielen, nur ich brauche dafür halbwegs belastbare Daten. Bei meiner 60° Aussage habe ich mich vor allem auf die alte Titan gestützt die beim WaKü Umbau weniger OC für den gleichen Takt benötigt hat - allerdings immer bei 1,2V. Ich formuliere das ganze mal um um Missverständnissen vorzubeugen.

@Pilstrinker: Entweder hast du einen GK110B(1) oder einen GK110A(1) - Einen A B1 gibt es nicht ;)
Wenn deine Karte relativ neu ist stehen die Chancen auf einen B1 Chip allerdings gut.
 
Zuletzt bearbeitet:

Pilstrinker

Lt. Commander
Dabei seit
Juli 2009
Beiträge
1.971
TrueDespair testet AFAIK noch, mal schauen, was er da bzgl. der VRMs herausfindet.

Was die Temps an sich angeht, halte ich persönlich 110-120°C noch für gerade so vertretbar (ob die bei 75°C GPU-Temp auch nur annähernd erreicht werden, glaube ich nicht), aber wer weiss, welchen Grenzwert nVidia festgelegt hat, wohlgemerkt, falls die VRM-Vermutung zutrifft.

Aber schon komisch, dass man sonst jede Menge Werte auslesen kann, aber ausgerechnet die VRM-Temp nicht.

GK110B_A1.jpg

GK110B A1
 

Thanok

Rear Admiral
Ersteller dieses Themas
Dabei seit
Feb. 2009
Beiträge
6.046
Interessante Bezeichnung des Chips^^ Hast also einen A1. Bei mir steht nur GK110 B1, da fehlt das B.

Die VRM-Temperatur hängt nicht unbedingt mit der GPU-Temp zusammen. Viele Karten behandeln die VRMs nämlich Stiefmütterlich und kühlen diese nur wenig. Da kann die Temp der GPU sehr niedrig sein aber die VRMs glühen. Auch das Referenzdesign ist mit den VRMs oberhalb von 110% schnell überfordert. Ich kann (und will) aber nicht wirklich glauben dass diese bei meiner WaKü so schnell so heiß wurden. Die werden immerhin aktiv mitgekühlt. Ausschließen kann ich das aber trotzdem nicht.
 
Zuletzt bearbeitet:

Thanok

Rear Admiral
Ersteller dieses Themas
Dabei seit
Feb. 2009
Beiträge
6.046
Ich muss mich korrigieren, du hast einen B1. NV Inspector zeigt mir auch einen 110B A1 an, und ich weiß dass ich nur einen 'B' haben kann. Glaub mal lieber GPU-Z.

Wie gesagt, mit der Kühlung kommt es immer auf das Kühlerdesign an. Das Referenzdesign hat eine relativ gute SpaWa Kühlung da alle Teile an der Vapor-Chamber anliegen. Viele Alternativdesigns kühlen aber nur die GPU direkt und haben nur kleine Kühler auf den VRMs. Teilweise werden diese sogar nur über den Luftzug gekühlt.
Ein Hinweis für die VRM-Temperatur ist höchstens der Verbrauch da das alles über die SpaWas geht.
 
L

Lahatiel

Gast
Alle 780 mit 6GB haben den 301-B1.
Da es eine neue Rev ist, braucht es ein Update, damit die Software diesen richtig erkennt. GPU-Z auch erst mit dem Update 0.7.8. -> 0.7.9
 

Banger

Fleet Admiral
Dabei seit
Aug. 2010
Beiträge
21.018
Eine andere Beobachtung von mir: Wo es wärmer in der Bude war, habe ich auch mal die Lüfter auf 31% getackert und Temperaturtarget auf 95°C gestellt und das Powertarget auf 106% gestellt. Beides wurde bei den Tests nicht erreicht. Aber die Karte hat trotzdem bei 76-80°C den Takt auf 1071MHz runtergestellt und die wurde da anschließend ca. 86°C warm, bleib aber auf diesem Takt. Das Powertarget ging max. auf ca. 103%, hatte noch klein wenig Luft.
Da habe ich auch schon zu heiße Spannungswandler vermutet! Irgendwas musste die zum Runtertakten gebracht haben. Daher könnten die Spannungswandler schon Sensoren haben, die dann sagen, dass die Karte bei X°C Wandlertemperatur drosseln soll. Sind dann halt so gebaut, dass die Programme die nicht auslesen können.

Die Inno-3D hat nur Platten auf beiden Seiten des PCBs. Der Chip braucht nur mit 60°C lauwarm sein und ich verbrenne mir die Finger, wenn anfasse.

@ Pilstrinker: Deine Karte ist in der Tat komisch. GPU-Limit drin, aber Temperatur- und Powertarget nicht erreicht und trotzdem Drossel. -.- Teste mal mit Standardeinstellungen und anschließend auf Standard und OC ein anderes Spiel, welches limitiert.
 
Zuletzt bearbeitet:

Pilstrinker

Lt. Commander
Dabei seit
Juli 2009
Beiträge
1.971
Ja, ich bin gerade dabei, ein wenig zu testen mit Witcher 2 und Unigine Valley und Heaven.

Die Taktschwankungen treten nicht auf, wenn ich mich beim OC auf +78 MHz auf den Basistakt beschränke und die Spannung nicht erhöhe, d.h., die GPU taktet dann mit konstanten 1150 MHz bei 1,162V.

Höheres OC oder höhere Spannungen haben halt diese Schwankungen zur Folge.

Komischerweise läuft der Heaven-Bench bei +112 MHz und +25mV (1,187V) mit konstanten 1215 MHz durch, keine Schwankungen, gar nichts.

Und diese 1215 MHz sind auch die Grenze, bis zu der Skyrim funktioniert (höheres OC wäre für Benchmarks möglich, aber mich interessiert die Stabilität von Skyrim mehr).

Das Verhalten ist ja insgesamt unproblematisch, solange Skyrim stabil läuft, und keine Bildfehler auftreten. Aber es ist seltsam genug, um der Ursache mal auf den Grund zu gehen.
 
Zuletzt bearbeitet:

Thanok

Rear Admiral
Ersteller dieses Themas
Dabei seit
Feb. 2009
Beiträge
6.046
Die 20, 30 Mhz Unterschied machen bei den fps auch keinen spürbaren Unterschied aus, so dass man für die Stabilität durchaus guten Gewissens ein paar Mhz opfern kann.
Es ist auch möglich dass die Drosselung früher (vielleicht aufgrund der SpaWa Temp) eintritt wenn die Spannung erhöht wurde. Bei 1,21V bin ich kurzzeitig immer auf 1.263Mhz hoch und nach wenigen Sekunden auf 1.250 gefallen. Mit 1,2V bleibt der Takt stabil.
 

Pilstrinker

Lt. Commander
Dabei seit
Juli 2009
Beiträge
1.971
Es geht nicht um die FPS, die paar MHz machen den Kohl nicht fett.

Es geht darum, warum sie bei dem einen Spiel runtertaktet und bei einem anderen nicht, obwohl jeweils Temperaturen und Grenzwerte ansonsten beinahe identisch scheinen.

Warum throttelt sie im Valley und nicht im Heaven? Und warum in Witcher 2? Bei anderen Spielen hält sie den Boost ja auch.

Mich interessiert halt, was dieses Verhalten auslöst. Einfach hinzunehmen, dass der Boost halt so ist, wie er ist, ist mir ein bisschen wenig.
 
Top