News AMD plant angeblich besseren Boost-Modus auf Radeon-Karten

@ ich_nicht: Das dürfte aber daran liegen, dass du den Turbo für alle Kerne auf 4,2 GHz gestellt hast, normal geht er nur auf 3,6 GHz auf allen Kernen.
 
Nicht ich schrieb:
Cool. Aber bei meiner 7950er ist das auch nicht soo schlecht. Bei Skyrim ändert sich der Takt je nach Anfoderung ständig zwischen 2xx MHz und 950 MHz und einigen Stufen dazwischen (3xx, 5xx und 7xx). Ausgelsen mit MSI Afterburner.


tut sie das? Zumindest mit meiner 7850 kann ich das nicht bestätigen. Die hat genau 3 Taktraten Idle, Video, 3d. Meistens schwankt sie nur zwischen Idle und 3d.
 
ich_nicht schrieb:
Das ganze Turbogelaber kapiert doch eh keiner.
Eigentlich schon. ;)

So weit ich mich erinnere, ist der "Turbo" bei CPUs so gedacht, dass wenn

- nicht alle Kerne ausgelastet sind und/oder
- die Temperatur absolut im grünen Bereich bleibt

die geforderten Kerne eben einfach etwas höher Takten und somit mehr Leistung bringen, als eigentlich für die dauerhafte Auslastung aller Kerne spezifiziert ist. Wenn man so will eine automatische anwendungsspezifische Übertaktung.

Wenn bei dir also erkannt wird, dass 4,2GHz kein Problem sind, dann wird er eben auch auf 4,2GHz geschaltet, wieso auch stattdessen auf 3,4GHz gehen? Das heißt aber nicht, dass das bei jedem Max Mustermann mit dem selben Prozessor genauso möglich ist.


Ähnlich eben bei den GPUs; Manch einer hat halt vielleicht ein besonders gut durchlüftetes Gehäuse und/oder einen besseren GPU-Kühler. Dann kann die Karte eben erkennen, dass da "auch mehr drin wäre" und gefahrlos auch noch etwas höher getaktet werden könnte, also wird das gemacht.

Den umgekehrten Fall finde ich glatt noch besser, dass die Karte erkennt, wenn die Leistung nicht voll gebraucht wird, und sich dann einfach heruntertaktet und somit Strom spart. So lange das flüssig bleibt und nicht zu Lags o.Ä. führt ist das doch nicht schlecht.

Ist halt ein automatisches und sichereres Über-/Untertakten, dynamisch angepasst an die aktuellen Anforderungen, und kann somit insbesondere für Leute, die sich nicht selbst mit den Gefahren der Rumtakterei auseinandersetzen wollen, aus der selben Hardware mehr herausholen. Grundsätzlich also keine schlechte Idee, wie ich finde.
 
Ich bin kein Fan von Turbos. Für den Endkunden ist das in den meisten Fällen toll. Allerdings wird es ziemlich nervig wenn man anfängt selber an den Taktraten zu schrauben und kaum noch erkennt, ob das Ding überhupt stabil läuft.
 
Also ich takte meine beiden 7950 manuell, und will dass das auch so bleibt. Wenn ich Path of Exile spiele, dann laufen sie mit 400mhz und 50% gpulast, bei extremen Games mit 1000mhz. Alles einfach mit Keyboard Shortcuts steuerbar dank MSI Afterburner. So ein automatisches rumgetakte ist mal wieder ein schoener Weg neue Bugs einzufuehren. :)
 
Was bringt eigentlich ein Boost der sich immer abschaltet, wenn die Graka zu sehr gefordert wird? In meinen Augen nichts, da der Boost ja eig. genau dann nötig ist, wenn die Graka ans Limit geht.
 
Das hat nichts mit dem Boost, sondern mit der Grenze des Verbrauchs zu tun. Der Boost selbst ist immer aktiv und wird auch immer erreicht, wenn man a)eine bestimmte Temperatur nicht überschreitet und b) nicht in die Verbrauchsgrenze rennt.
 
Smagjus schrieb:
Ich bin kein Fan von Turbos. Für den Endkunden ist das in den meisten Fällen toll. Allerdings wird es ziemlich nervig wenn man anfängt selber an den Taktraten zu schrauben und kaum noch erkennt, ob das Ding überhupt stabil läuft.

Jo, so sehe ich das auch, vorallem bei manchen Games verschätzt sich die Saftware auch mal und dann taktet die GPU so weit runter das es anfängt zu laggen, weil die Szene nicht schnell genug analysiert werden kann.
War z.B. bei "Black Mesa" so. Der Treiber denkt ach 500 MHz reichen doch, dann explodiert mal was im Game und zack schon sind wir unter der V-Sync Grenze von 60.
 
leckerKuchen schrieb:
tut sie das? Zumindest mit meiner 7850 kann ich das nicht bestätigen. Die hat genau 3 Taktraten Idle, Video, 3d. Meistens schwankt sie nur zwischen Idle und 3d.

Die HD7850 gibt es auch nicht mit Boost :rolleyes:
 
Tja, vom großen Chef lässt sich noch so einiges abgucken.
Freue mich, dass AMD einsieht, dass nvidia ein stück besser ist UND daran arbeitet eines Tages auch (was die Features und die Qualität betrifft) mithalten zu können. *Daumendrück*
 
bite, bitte amd lasst die max Vgpu von hand einstellbar, damit man auch unter WaKü noch Spaß hat.
 
Der "Turbo" wurde erfunden, um sich die Klagen vom Halse zu schaffen, daß die CPU / GPU bei zu hoher Last vom Maximaltakt runtertaktet, um nicht den Hitzetod zu sterben.
Das nannte sich dann Power Throttling und es wurde die Maximalfrequenz angegeben.
Jetzt nennt sich das Turbomode und es wird die Minimalfrequenz angegeben.
Man macht dasselbe wie vorher und verkauft es anders...
 
Das hört sich ja immer besser an bin sehr gespannt auf die neue AMD Generation :)
 
Solang sie offene Vcore und 3 Displayports haben und es dafür Full-Cover-Blöcke zu kaufen gibt bin ich dabei. 8970 oder was auch das dann sein wird... Strom sparen ist mir beim single-GPU-Flaggschiff ehrlich gesagt irgendwo latte und die Wasserkühlung hält die Temperatur unter Kontrolle, hauptsache das Ding verbrägt nicht grad 1 kW und ist nur lächerliche 10 % schneller. aber wenn sie was ordentliches raushauen heißts für mich wieder "shut up and take my money".
 
aylano schrieb:
Mich würde es nicht wundern, wenn diese Technik mit der Sea-Island-Verspätung zu tun hat (mit der Berücksichtigung, dass man eben nicht unter Zugzwang ist). Denn Enduro und die SSAA-DX11-Implimentierung wurde ja auch erst (kurz) nach der HD 7970 - Einführung eingeführt, ...
Oder es liegt an der Entwicklung die für Sony und Microsoft nötig war ;)
 
Die sollen das Turbo zeug sein lassen als nächstes unterbinden die noch die Spannungsanhebung wie NV pfui.
 
Zeboo
Tja, vom großen Chef lässt sich noch so einiges abgucken.
Freue mich, dass AMD einsieht, dass nvidia ein stück besser ist UND daran arbeitet eines Tages auch (was die Features und die Qualität betrifft) mithalten zu können. *Daumendrück*
Haha, sehr witzig. AMD dachte sich eben ein simples Konzept für den Turbo aus, was an sich ja auch gut ist. (Die meisten genialen Erfindungen sind genau das, weil sie simpel sind.) Dass dieser sich in der Praxis nicht ganz so gut schlägt, wäre von AMD wahrscheinlich nur in einer breit angelegten Studie entdeckt worden, wofür sie allerdings vor Verkaufsstart schon Exemplare mit Nvidias Turbo hätten besitzen müssen. Wenn du nun auch noch den Artikel liest, in dessen Kommentarthread du dich befindest, wirst du merken, dass es zwar Parallelene zu Nvidias Pendant gibt, doch allein schon aufgrund der automatischen Speicherübertaktung AMD den Sieg davonträgt (allein was das Konzept betrifft; die Praxis muss ja noch warten). Zudem frage ich mich, wie sonst ein Turbo funktionieren soll: Entweder gibt es nur an/aus oder mehrere Stufen, sozusagen digital und analog. Könntest du uns bitte ein Verfahren verraten, welches AMD außer diesen beiden anwenden kann? Falls nicht, sei bitte nicht so überheblich.
Nachtrag: "Auch" mithalten ist sprachlicher und logischer Humbug, vor allem bei nur zwei Wettbewerbern.
Nachtrag 2: Was lässt sich sonst noch von Nvidia abschauen? Wie man Benchmark-Schöpfer besticht und seine Treiber derart "optimiert", dass sie den Gegner im Benchmark schlagen, obwohl man in allen Spielen den Kürzeren zieht (siehe neue 3DMark-Version)? Oder wie man direkt Auswertungen verfälscht, indem man gewisse Anweisungen in die Treiber implementiert (erinnere mich an einen Fall von vor einigen Jahren)? Oder wie man es schafft, selbst mit noch so großen Karten beschämende Ergebnisse im GPGPU-Computing zu erreichen, sodass sogar eine 6770 eine High-End-Karte darin schlägt? Oder wie man professionelle Karten unter neuem Namen herausbringt, allerdings für bald 1000 Euro? Oder wie man seine Fanboys derart abhängig von sich macht, dass sie praktisch im eigenen Rektum stecken, sich darüber sogar noch freuen und die endlose Mythe von der starken High-End-Grafik erzählen, die aufgrund mangelnder Konkurrenz nie herausgebracht wird, sodass man noch einen Grund mehr hat, gegen den Marktmitbewerber zu wettern? Es gibt Dinge, die möchte ich nicht lernen.
 
Zuletzt bearbeitet:
Wie funktioniert das bei CPU unter Linux? haben die wie bei ARM auch verschiedene P-States? mein i7-3930K taktet entweder mit 1200mhz oder mit 4000mhz. Anderes konnte ich im Cpu-Z noch nicht erkennen.
Mein Smartphone hingegen hat ein governor der die gewünschte Taktrate vorschlägt. Wenn ich also über einen bestimmten Zeitraum eine bestimmte auslastung habe ändert sich die Taktrate. Ist sowas bei Desktop Computern schlicht irrelevant? Oder verbraucht das steuern selbst zu viel Leistung?

wär schon Toll für GPU's... je nach auslastung immer den passenden Takt! Und übertakten könnte man ja so trotzdem noch.
Jede frequenz hat ihre eigene VRAM frequenz und Spannung.
 
Noch bessere AMD Karten? Schon jetzt ist die 7800 und 7900 er Serie Preisleistungsmässig unschlagbar und jetzt gibt es auch noch 2 gratis top titel bioshock infinity und crysis 3 dazu,wenn jetzt noch der Boost Modus perfektioniert wird dann gibt es gar keinen Grund mehr Nvidia zu kaufen! ;-)
 
Zurück
Oben