Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
theoretische Leistung Ati vs Nvidia
- Ersteller Piak
- Erstellt am
<<=Mo=>>
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.494
Die 5D Shader der ATIs können eben in der Theorie wesentlich mehr Operationen pro Zeit ausführen als die 1D Shader der nVidias. Ergo ist bei gleicher Shaderzahl die theoretische Leistung (in Flop) wesentlich höher.
In der Praxis sind die 5D Shader der ATI durch die software (Treiber) aber wesentlich schwieriger auszunutzen, weshalb der Vorteil verloren geht.
MfG Mo
In der Praxis sind die 5D Shader der ATI durch die software (Treiber) aber wesentlich schwieriger auszunutzen, weshalb der Vorteil verloren geht.
MfG Mo
In der Praxis sind die 5D Shader der ATI durch die software (Treiber) aber wesentlich schwieriger auszunutzen, weshalb der Vorteil verloren geht.
Liegt das an dem allseits bekannten Problem der
parallelisierung. Ist es so schwer auch auf Grafikebene
die software so zu schreiben dass alles komplett ausgenutzt wird..
Hört man ja sonst nur bei CPUs dass es schwierig ist es komplett auszunutzen
Edit: Anscheinend will sich keiner zu Fachgesprächen hier äußern ;(
Zuletzt bearbeitet:
Fhat the Wuck
Lieutenant
- Registriert
- Feb. 2009
- Beiträge
- 679
Meine Vermutung ist, dass Ati beim Sheduler (besonders wichtig bei 5D-Shader) und der Logistik spart, so dass nicht wirklich alles optimal ausgenutzt werden kann.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.653
Darüber könnte man tagelang diskutieren.
Fakt ist, dass alle HD-Radeons [also HD2k bis HD5k] (mittlerweile) im OCCT und Furmark (welche als "power virus" bezeichnet werden) gethrottelt werden.
Für mich heißt das schlicht, die Karten sind für diese extrem hohe Last [ob es 100% sind, kann ich nicht sagen] nicht ausgelegt.
Fakt ist, dass alle HD-Radeons [also HD2k bis HD5k] (mittlerweile) im OCCT und Furmark (welche als "power virus" bezeichnet werden) gethrottelt werden.
Für mich heißt das schlicht, die Karten sind für diese extrem hohe Last [ob es 100% sind, kann ich nicht sagen] nicht ausgelegt.
Throtteln=Begrenzen/Leistung verringern
Wie gesagt throtteln die ATI-Karten nur bei bestimmten Benchmarks wie Furmark. Furmark ist darauf ausgelegt, die Grafikkarten maximal zu erhitzen und lastet die Shader zu 100% aus. Da erreichen Grafikkarten über 100°C. Deswegen taktet der Treiber die Karte automatisch runter, sobald ein Prozess wie furmark.exe erkannt wird, um die Karte zu schützen.
Zumindest früher ging es, die furmark.exe umzubenennen, in office.exe z.B. und damit den Treiberschutz auszuhebeln. Weiß nicht, ob das noch funktioniert.
Was anderes: Die ATI-Karten schneiden in Spielen auch schlechter ab, weil sie nicht die gleichen Füllraten haben, wie die nVidia-Karten. Beispiele:
Geforce GTX 280 hat 933GFLOPS aber dafür 19,3 GPixel/s und 48,2GTexel/s
Radeon HD 4870 hat 1200GFLOPS aber dafür 12,0 GPixel/s und 30,0GTexel/s
Sofern die Engine und der Treiber es schaffen, die ATI-Chips gut bis voll auszulasten, ist der Flaschenhals immer ein anderer gewesen, als die Shaderleistung. Davon haben die ATI-Karten satt.
P.S.: Hier die Furmarkseite: http://www.ozone3d.net/benchmarks/fur/
Da gibt es auch Bilder, wie der Benchmark nVidia-Karten hat wirklich verschmorren lassen.
Wie gesagt throtteln die ATI-Karten nur bei bestimmten Benchmarks wie Furmark. Furmark ist darauf ausgelegt, die Grafikkarten maximal zu erhitzen und lastet die Shader zu 100% aus. Da erreichen Grafikkarten über 100°C. Deswegen taktet der Treiber die Karte automatisch runter, sobald ein Prozess wie furmark.exe erkannt wird, um die Karte zu schützen.
Zumindest früher ging es, die furmark.exe umzubenennen, in office.exe z.B. und damit den Treiberschutz auszuhebeln. Weiß nicht, ob das noch funktioniert.
Was anderes: Die ATI-Karten schneiden in Spielen auch schlechter ab, weil sie nicht die gleichen Füllraten haben, wie die nVidia-Karten. Beispiele:
Geforce GTX 280 hat 933GFLOPS aber dafür 19,3 GPixel/s und 48,2GTexel/s
Radeon HD 4870 hat 1200GFLOPS aber dafür 12,0 GPixel/s und 30,0GTexel/s
Sofern die Engine und der Treiber es schaffen, die ATI-Chips gut bis voll auszulasten, ist der Flaschenhals immer ein anderer gewesen, als die Shaderleistung. Davon haben die ATI-Karten satt.
P.S.: Hier die Furmarkseite: http://www.ozone3d.net/benchmarks/fur/
Da gibt es auch Bilder, wie der Benchmark nVidia-Karten hat wirklich verschmorren lassen.
Zuletzt bearbeitet:
Fhat the Wuck
Lieutenant
- Registriert
- Feb. 2009
- Beiträge
- 679
@florian.
zusätzliche Power finde ich persönlich die falsche Ausdrucksweise.
Ich würde es eher so ausdrücken:
Ich kaufe schliesslich keine Hardware mit tollen Spezifikationen, wenn die nichtmal voll aufgefahren werden kann.
du meinst, wenn die Grafikkarte insgesammt zu 70% ausgelastet wird, rennt das Spiel besser als wenn wirklich alles zu 100% ausgelastet wird?klar kann die Hardware zu 100% genutzt werden, aber eben nicht alles gleichzeitig.
das ist ja ehr von Vorteil, denn:
1. spiele laufen rund.
2. braucht man mal nur Sharder, dann hat man zusätzliche Power...
zusätzliche Power finde ich persönlich die falsche Ausdrucksweise.
Ich würde es eher so ausdrücken:
Braucht man mal nur Shader, dann kann man wenigstens mal endlich auch die volle Shader-Power zurückgreifen.
Ich kaufe schliesslich keine Hardware mit tollen Spezifikationen, wenn die nichtmal voll aufgefahren werden kann.
Ähnliche Themen
- Antworten
- 15
- Aufrufe
- 772
- Antworten
- 6
- Aufrufe
- 547
- Antworten
- 1
- Aufrufe
- 382
- Antworten
- 9
- Aufrufe
- 861
- Artikel
- Antworten
- 15
- Aufrufe
- 1.286