theoretische Leistung Ati vs Nvidia

Piak

Commander
Registriert
Jan. 2010
Beiträge
2.935
Wieso kann Ati für seine grafikkarten weit über 2 Teraflop Leistung angeben und nvidia nur 1,5 Teraflop, vor allem, wieso ist trotzdem die gtx480 schneller ? Woran liegt das?
 
Die theoretische Leistung berechnet sich: Shader x Takt x Rechnungen/Takt. ATi Karten rechnen 5-dimensional, also 5 Rechnungen pro Takt.
 
Die 5D Shader der ATIs können eben in der Theorie wesentlich mehr Operationen pro Zeit ausführen als die 1D Shader der nVidias. Ergo ist bei gleicher Shaderzahl die theoretische Leistung (in Flop) wesentlich höher.

In der Praxis sind die 5D Shader der ATI durch die software (Treiber) aber wesentlich schwieriger auszunutzen, weshalb der Vorteil verloren geht.

MfG Mo
 
In der Praxis sind die 5D Shader der ATI durch die software (Treiber) aber wesentlich schwieriger auszunutzen, weshalb der Vorteil verloren geht.

Liegt das an dem allseits bekannten Problem der
parallelisierung. Ist es so schwer auch auf Grafikebene
die software so zu schreiben dass alles komplett ausgenutzt wird..
Hört man ja sonst nur bei CPUs dass es schwierig ist es komplett auszunutzen


Edit: Anscheinend will sich keiner zu Fachgesprächen hier äußern ;(
 
Zuletzt bearbeitet:
das frag ich mich auch, ati hat ja ein gewisses interesse dass die volle performence genutzt wird, da sollte doch noch was möglich sein.
 
Es gibt zumindest schon Andeutungen/Gerüchte, dass ATI ihre 5D Shader in Zukunft effizienter nutzen will.Wahrscheinlich dann mit Northern Island in 28nm Mitte nächsten Jahres.
 
Meine Vermutung ist, dass Ati beim Sheduler (besonders wichtig bei 5D-Shader) und der Logistik spart, so dass nicht wirklich alles optimal ausgenutzt werden kann.
 
Die 5D-ALUs lassen sich fast komplett auslasten. Dann wird aber aufgrund der SpaWa-Auslegung schlicht gethrottelt - Furmark ahoi.
 
Ergo sind ATi Karten nicht dazu ausgelegt 100%ig ausgelastet zu werden?
 
Darüber könnte man tagelang diskutieren.

Fakt ist, dass alle HD-Radeons [also HD2k bis HD5k] (mittlerweile) im OCCT und Furmark (welche als "power virus" bezeichnet werden) gethrottelt werden.

Für mich heißt das schlicht, die Karten sind für diese extrem hohe Last [ob es 100% sind, kann ich nicht sagen] nicht ausgelegt.
 
Kann man denn die höhere Leistung in Furmark gegenüber nVidia messen?
 
Ja, die HD-Radeons zersägen hier alles.

iirc (!) ist eine HD5770 fast so flott wie eine GTX480. Und eine HD4870 schlägt (mit älteren, nicht bremsenden Treiber) de facto eine GTX 280 um fast 50%. Hier schlagen die GFLOPS ergo voll durch.
 
Wie sieht es denn mit dem Verbrauch der HD4870 mit altem Treiber im vergleich mit neuem Treiber in Furmark aus?
Deutlich zurückgegangen?
Hab mal gehört die ATI Karten throtteln sogar in Vantage, stimmts?
 
Der Verbrauch fällt im Falle einer HD4890 von rund 230W auf (iirc) nur noch 180W - muss aber selbst nachschauen.

Und Vantage? Nein, den Schwan*mark wird keiner drosseln.
 
was heist genau "throtteln", warum tun das ati karten, und welcher treiber hat das nicht/weniger getan ?
 
Throtteln=Begrenzen/Leistung verringern

Wie gesagt throtteln die ATI-Karten nur bei bestimmten Benchmarks wie Furmark. Furmark ist darauf ausgelegt, die Grafikkarten maximal zu erhitzen und lastet die Shader zu 100% aus. Da erreichen Grafikkarten über 100°C. Deswegen taktet der Treiber die Karte automatisch runter, sobald ein Prozess wie furmark.exe erkannt wird, um die Karte zu schützen.

Zumindest früher ging es, die furmark.exe umzubenennen, in office.exe z.B. und damit den Treiberschutz auszuhebeln. Weiß nicht, ob das noch funktioniert.

Was anderes: Die ATI-Karten schneiden in Spielen auch schlechter ab, weil sie nicht die gleichen Füllraten haben, wie die nVidia-Karten. Beispiele:
Geforce GTX 280 hat 933GFLOPS aber dafür 19,3 GPixel/s und 48,2GTexel/s
Radeon HD 4870 hat 1200GFLOPS aber dafür 12,0 GPixel/s und 30,0GTexel/s

Sofern die Engine und der Treiber es schaffen, die ATI-Chips gut bis voll auszulasten, ist der Flaschenhals immer ein anderer gewesen, als die Shaderleistung. Davon haben die ATI-Karten satt.

P.S.: Hier die Furmarkseite: http://www.ozone3d.net/benchmarks/fur/
Da gibt es auch Bilder, wie der Benchmark nVidia-Karten hat wirklich verschmorren lassen.
 
Zuletzt bearbeitet:
Die HD5000er drosseln nun so weit ich weiß per Hardware. D.h. es ist ein Chip verbaut, der das verhindert. Deshalb bringt auch eine .exe Umbenennung nichts mehr.

Gruß
 
Zuletzt bearbeitet:
Das hieße ja, dass Hersteller anstelle neue Karten zu produzieren dessen Hardware sowieso nicht genutzt werden kann, die Millionen lieber in die Treiber investieren sollten.

:stacheln:
 
Zuletzt bearbeitet:
klar kann die Hardware zu 100% genutzt werden, aber eben nicht alles gleichzeitig.
das ist ja ehr von Vorteil, denn:
1. spiele laufen rund.
2. braucht man mal nur Sharder, dann hat man zusätzliche Power...
 
@florian.

klar kann die Hardware zu 100% genutzt werden, aber eben nicht alles gleichzeitig.
das ist ja ehr von Vorteil, denn:
1. spiele laufen rund.
du meinst, wenn die Grafikkarte insgesammt zu 70% ausgelastet wird, rennt das Spiel besser als wenn wirklich alles zu 100% ausgelastet wird?

2. braucht man mal nur Sharder, dann hat man zusätzliche Power...

zusätzliche Power finde ich persönlich die falsche Ausdrucksweise.
Ich würde es eher so ausdrücken:
Braucht man mal nur Shader, dann kann man wenigstens mal endlich auch die volle Shader-Power zurückgreifen.

Ich kaufe schliesslich keine Hardware mit tollen Spezifikationen, wenn die nichtmal voll aufgefahren werden kann.
 
Zurück
Oben