News Video: Performance-Vorteil durch DX 10.1

Kommt drauf an was man unter Leistung versteht.
 
y33H@ schrieb:
Vollbracht im Sinne von Neuerungen. Selbst der RV790 ist an sich ja auch "nur" ein R600 mit mehr Funktionseinheiten, höherem Takt sowie D3D10.1. Technisch hat sich da nicht wirklich viel getan
Och, ich finde schon. Man hat erstens das Design deutlich optimiert und zudem die Effizienz gesteigert, sowohl was die Logik, siehe AA, als auch die Thermik betrifft. Bei nVidia war dies in der Tat weniger der drastisch. Der G92 wurde eigentlich nur entschlackt (Fertigungsverfahren, Busbreite) und der G200 nur skaliert (plus einige GPGPU Zusätze wie DP FP).

y33H@ schrieb:
Habe ich das mit FP64-DPs falsch im Kopf?
Ja, hast du. Selbst der RV670 konnte schon DP FP.

y33H@ schrieb:
Und noch was kann der GT200 - gescheites AF *g*
Ansichtssache. ;)

Konti schrieb:
Es ist eine wirtschaftliche Entscheidung gewsesen, DX10.1 auszulassen.
Daran glaube ich ehrlich gesagt nicht. Ganz im Gegenteil, ich habe da ganz andere Vermutungen. Wie schon gesagt, wir reden über Standardisierung. Da spielt Wirtschaftlichkeit keine Rolle.

y33H@ schrieb:
Was hat AMD denn im Grafiksektor tolles entwickelt seit dem R600? Nicht viel, sieht man von der D3D10.1-Implementierung ab.
Jetzt lass doch langsam mal deine Unsachlichkeiten stecken. :rolleyes: Die RV7xx Generation ist klasse, daran gibt es nichts zu rütteln. Weitaus smarter und wirtschaftlicher als nVidias Monster G200.
 
ob die entscheidung, dx10.1 nicht zu implementieren, rein wirtschaftlich war, ist nichtmal sicher. schließlich untstützen selbst s3-grafikkarten dx10.1 und s3 (bzw via) haben eindeutig ein kleineres budget ;). ich habe mal gelesen, das nv diesen standart darum nicht unterstützen würde, weil ms den gpu herstellern und spieleprogramieren zu viele vorgaben machen würde und die freiheiten zu stark beschneiden. was da dran ist, weis ich nicht, aber es wäre auch eine erklärung, warum fast kein spielehersteller in den letzten jahren auf diesen standart gesetzt hat.
aus marketing sicht, war der verzicht auf dx10.1 sicher ein nachteil.
 
gruffi schrieb:
Man hat erstens das Design deutlich optimiert und zudem die Effizienz gesteigert
Die verkrüppelten ROPs, ja. Das wars dann aber auch schon. Und von wegen Effizienz - die 5-Vecs sind nach wie vor schwerer auszulasten als die ALUs eine GT200(b) und die geringe Anzahl an TMUs gleicht man durch das qualitativ schlechtere AF aus. Das kann man dann auch "optimieren" nennen.
gruffi schrieb:
Die RV7xx Generation ist klasse, daran gibt es nichts zu rütteln. Weitaus smarter und wirtschaftlicher als nVidias Monster G200.
Der Chip ist kleiner, ergo passen mehr auf einen Wafer und man kann billiger produzieren. ABER:

Man spart an den TMUs und pumpt die Transistoren in die ALUs und bewirbt dann die theoretischen 1,2 GLFOPS die man in der Praxis nicht mal annähernd erreicht. Und wenns dann eine Anwendung gibt, die mit den 5-Vecs sehr gut skaliert - den Furmark - wird die Leistung bewusst gedrosselt, weil viele HD4870 (vor allem Custom-Designs) ansonsten überhitzen. Und ganz nebenbei sprengt man auch noch die PCIe-Spezifikationen.

Klasse und smart? Nun ja.
Lübke schrieb:
aus marketing sicht, war der verzicht auf dx10.1 sicher ein nachteil
Denke ich nicht. AMD hat das ja kaum beworben.
 
Zuletzt bearbeitet:
Jo, hier im Forum ... die meisten Leute "da draußen" sind aber lange nicht so informiert.

@gruffi
Welche Vermutung hast du denn? Daß sie's nicht hinbekommen?
Finde ich persönlich dann doch arg weit hergeholt. Wenn's stimmt, dürften wir das ja bald bemerken, da sich NVidia mit derartiger Inkompetenz wohl in kurzer Zeit auf steilem Abwärtskurs befinden dürfte.

Wird sich zeigen, wie lange die für DX11 benötigen ... wenn die damit nicht aus dem Kram kommen, kann man beginnen, an deren Ingenieuren zu zweifeln. Im Moment finde ich das noch ziemlich voreilig.
 
y33H@ schrieb:
Die verkrüppelten ROPs, ja. Das wars dann aber auch schon. Und von wegen Effizienz - die 5-Vecs sind nach wie vor schwerer auszulasten als die ALUs eine GT200(b) und die geringe Anzahl an TMUs gleicht man durch das qualitativ schlechtere AF aus. Das kann man dann auch "optimieren" nennen.
Ich glaube, du verstehst nicht, was mit Optimierung des Designs gemeint ist. Das hat nichts mit der Implementierung der Logik zu tun, sondern dem Die. Genauso wenig wie ich explizit von der Effizienz der Shader Architektur sprach. Und auf welchen Fakten basiert denn, dass ATI ihre Shader nicht so gut auslasten kann wie nVidia? Wieder nur Tagträume? Oder gibt es zur Abwechslung auch mal Belege von dir? :rolleyes:

y33H@ schrieb:
Man spart an den TMUs und pumpt die Transistoren in die ALUs und bewirbt dann die theoretischen 1,2 GLFOPS die man in der Praxis nicht mal annähernd erreicht.
Doch. Du hast leider das Problem, dass du zu sehr an Spiele denkst.

y33H@ schrieb:
Und wenns dann eine Anwendung gibt, die mit den 5-Vecs sehr gut skaliert - den Furmark - wird die Leistung bewusst gedrosselt, weil viele HD4870 (vor allem Custom-Designs) ansonsten überhitzen. Und ganz nebenbei sprengt man auch noch die PCIe-Spezifikationen.
Mal abgesehen davon, dass das für mich immer noch ein Hoax ist, aber anscheinend kannst du dich ja an nichts anderem hochziehen, was hat das bitteschön mit AMD zu tun? AMD bzw ATI designed und fertigt nur den Chip. Wenn Partner dann minderwertige Komponenten auf der Karte verbauen, ist das nicht deren Schuld.

y33H@ schrieb:
Klasse und smart? Nun ja.
Im Vergleich zu nVidia natürlich. ;)

Konti schrieb:
Welche Vermutung hast du denn? Daß sie's nicht hinbekommen?
Nein. Ich vermute eher, dass ihre Architektur davon weniger profitiert bzw schlechter skaliert als die Konkurrenz.
 
gruffi schrieb:
Wenn Partner dann minderwertige Komponenten auf der Karte verbauen, ist das nicht deren Schuld.
Sie sollten aber ein Auge drauf haben und das Problem nicht einfach "lösen" in dem sie per Treiber die Software limitieren.
gruffi schrieb:
Und auf welchen Fakten basiert denn, dass ATI ihre Shader nicht so gut auslasten kann wie nVidia? Oder gibt es zur Abwechslung auch mal Belege von dir?
Ich belege alles falls gewünscht :rolleyes: Bitte sehr *LINK*
PCGH schrieb:
In der Gesamtübersicht fällt auf, dass die real erreichte Pixel-Shader-Leistung der Geforce-GTX-Karten trotz nominell großen Rückstandes meist höher liegt als die der HD 4800.
gruffi schrieb:
Du hast leider das Problem, dass du zu sehr an Spiele denkst.
Darauf liegt nun mal aktuell noch der Fokus einer solchen Karte für den Heimanwender. Oder willst du ernsthaft behaupten die Mehrheit der HD4870- oder GTX280-Nutzer nutzt die Karte nicht zum zocken, sondern für andere Dinge?
gruffi schrieb:
AMD bzw ATI designed und fertigt nur den Chip
Und zudem das Referenz-PCB und Angaben zur TDP. Und wenn diese mit der Realität bzw. dem Worst-Case wenig zu tuen hat, ist das die Schuld von AMD, weil dieses Werte an die Boardpartner weitergeben.
HT4U schrieb:
AMD hat offenbar ein Problem mit dem Design dieser Boards, denn damit hatte man nicht gerechnet. Die Übergabe der TDPs an den Hersteller des Referenzkonstrukts führte zu dem erwarteten Punkt. Die GPU wurde ausreichend gekühlt, diese kleinen Bauteile aber sind nicht ausreichend durch die Abluft zu kühlen. Und damit haben die Konstrukteure nicht gerechnet.

[...]

Verglichen zu unserem ersten Test änderte sich wirklich nur wenig. Die HD 4890 spielt wieder überhalb ihrer eigenen Nennung zur Maximum Board Power. Es bleibt weiterhin zu rügen, dass AMD hier Kanada nicht auf die Finger klopft. Derartig unnütze Informationen braucht einfach kein Mensch und es ist schon bezeichnend, dass man die Ansicht vertritt die Presse und insbesondere auch den Anwender problemlos belügen zu können.

Man möge uns diese offenen Worte bitte verzeihen, doch müssen sie endlich in aller Offenheit gesprochen werden, sonst ändert sich einfach nichts. Bei Profi-Karten der Fire-Serie verkauft AMD (wollen wir "sie" vielleicht ATI nennen?) den Partnern eben andere Wertigkeiten - ganz ungeachtet unserer Messungen.

[...]

Lustig bei AMD bleibt aber auch, dass man das Profi-Pendant (Fire) im AMD-Lager zur HD 4870 mit einer "typischen Leistungsaufnahme" von 160 Watt auszeichnet und Peaks von bis zu 220 Watt nennt. Die Präsentation führt sich nach Messungen selbst ad absurdum, da man die Idle-Power eine HD 4870 nun mit 90 Watt nennt, obgleich Messungen von 60 Watt sprechen - die HD 4890 nun darum aber energieeffizienter mit 30 Prozent eingestuft wird - und auch dieses Produkt wurde im Idle mit ca. 60 Watt vermessen. Ein Statement von AMD fehlt leider weiterhin.

[...]

Es wäre an diesem Punkt langsam höchste Zeit, dass AMD auch gegenüber der Presse deutlich offener agiert und klare Zahlen und Fakten kommuniziert. Offenbar scheint es ein paar Leute in Kanada zu geben, welche Presse für den Desktop-Bereich weiterhin als dumm einstuft.
 
y33H@ schrieb:
Ich belege alles falls gewünscht :rolleyes: Bitte sehr *LINK*
Und was soll das belegen? Dort geht es erstmal um Pixelfüllraten. Dir ist schon bewusst, dass die Shader hier nur eine untergeordnete Rolle spielen? Und wie im Artikel nachzulesen ist, kann man Effizienz unter mehreren Gesichtspunkten betrachten. Letztendlich hängt dies vom Konzept ab. Und ja, da ist ATI teils deutlich effizienter.
Die Effizienz der Shader Architektur kannst du übrigens nur mittels GPGPU stichhaltig nachweisen.

y33H@ schrieb:
Darauf liegt nun mal aktuell noch der Fokus einer solchen Karte für den Heimanwender. Oder willst du ernsthaft behaupten die Mehrheit der HD4870- oder GTX280-Nutzer nutzt die Karte nicht zum zocken, sondern für andere Dinge?
Es ging um die Architektur und nicht um konkrete Modelle. Welchen Markt man damit letztendlich bedient, war doch überhaupt nicht das Thema. Diese werden ja auch im professionellen Bereich verwendet. Die Bedeutung von Spielen tendiert dort gegen Null.

y33H@ schrieb:
Und zudem das Referenz-PCB
Was noch lange nicht verbindlich ist. Kannst du mir denn nachweisen, dass Furmark nur mit Karten im Referenzdesign getestet wurde?
Mal abgesehen davon schaue ich mir die HT4U Messungen auch nicht mehr an. Ich gehe davon aus, dass sie grundsätzliche Fehler in ihrer Messtechnik haben. Leider auch schon bei CPU Messungen zu beobachten. Insofern kommentiere ich das nicht.
 
gruffi schrieb:
Und was soll das belegen?
AMDs praktisch in Spielen erreichte GFLOPS sind deutlich weiter von der Theorie entfernt als die von Nvidia - um mehr geht es mir nicht. Gerade angesichts der PR hinsichtlich der 1.200 GFLOPS ist das imo ebenso kundenfeindlich wie die MBP-Angabe.
gruffi schrieb:
Ich gehe davon aus, dass sie grundsätzliche Fehler in ihrer Messtechnik haben.
Die im Falle von Grafikkarten welche wären?
gruffi schrieb:
Was noch lange nicht verbindlich ist.
Korrekt. Das das PCB aber nicht verbindlich ist, ergeben sich hier in Kombination mit falsch angegebenen MBP Custom-PCBs, die die SpaWas derart vernachlässigen, dass Abstürze und Defekte auftreten.
gruffi schrieb:
Kannst du mir denn nachweisen, dass Furmark nur mit Karten im Referenzdesign getestet wurde?
Es gibt Furmark-Werte von Referenz- wie Custom-PCBs. Ich verstehe leider den Sinn dieser Frage nicht.
 
gruffi schrieb:
Mal abgesehen davon schaue ich mir die HT4U Messungen auch nicht mehr an. Ich gehe davon aus, dass sie grundsätzliche Fehler in ihrer Messtechnik haben. Leider auch schon bei CPU Messungen zu beobachten. Insofern kommentiere ich das nicht.
lol und ich gehe davon aus, dass du nicht im entferntesten irgendetwas belegen kannst. Was mich zu der Frage bringt, wieso man dich überhaupt ernst nehmen sollte?!

@y33H@
Wenn du klug bist, spar dir weiteres posten und somit vergeudete Zeit. Allein diese Aussage belegt doch deutlich, dass er nur Argumente akzeptiert, die ihm in den Kram passen.
 
y33H@ schrieb:
AMDs praktisch in Spielen erreichte GFLOPS sind deutlich weiter von der Theorie entfernt als die von Nvidia - um mehr geht es mir nicht.
Und wo ist das Problem dabei? Ist doch schon lange bekannt, dass bei Spielen noch viele freie Ressourcen auf Radeons brach liegen. Interessant wird es dann, wenn zusätzliche Berechnungen ins Spiel kommen, wie Physik oder KI. ;)

y33H@ schrieb:
Gerade angesichts der PR hinsichtlich der 1.200 GFLOPS ist das imo ebenso kundenfeindlich wie die MBP-Angabe.
Nein, ist es nicht. Solche Angaben sind vollkommen üblich. Zudem gibt es nicht nur Spiele. Ist das endlich angekommen?

y33H@ schrieb:
Die im Falle von Grafikkarten welche wären?
Ich habe nicht explizit von Grafikkarten gesprochen. Fehler wurden zB beim Nehalem gemacht. Weiterhin gab es sehr viele Ungereimtheiten. So hat man zB mehrfach das gleiche getestet, immer wieder mit anderen Ergebnissen.
Insgesamt hinterlässt das nicht gerade einen seriösen Eindruck. Das ist aber meine Meinung. Die musst du nicht teilen. Ich will damit nur sagen, HT4U ist genauso wenig verbindlich wie andere Printmedien auch.

y33H@ schrieb:
Es gibt Furmark-Werte von Referenz- wie Custom-PCBs.
Dann bitte ich um eine Quelle.
 
Kindergartenniveau....

Warum manche Menschen nicht einfach mal akzeptieren können das es keine Übermarke gibt...vor allem die geradezu fanatische Bindung an eine Marke als würde man damit was verdienen ohne jeglichen sinnvollen Hintergrund finde ich immer wieder putzig.

NVidia und ATI nehmen sich nix beim Marketing aber die Masse der Kunden springt ja auch drauf an und fasselt dann jeden gequirlten Mist nach und verteidigt diesen dann auch noch vehement. Also hats doch funktioniert. Wenn technische Tests kommen werden diese in frage gestellt und fakten solange verwischt bis es wieder alles ins heile, kleine Gesamtbild passt um ja keine ungereimtheiten aufkommen zu lassen die einen dazu bewegen könnten nachzudenken. Menschen sind schon was tolles...solange sie bloss nicht anfangen über einen Tellerrand zu gucken...ab dann wirds nur kompliziert.
 
A.l.e.x schrieb:
Checkt nVidia nicht wie man 10.1 in die Chips einfließen lassen soll, oder warum sträuben die sich seit Jahren DX10.1 zu implementieren o.O

Die Checken es sehr gut sogar. Wozu sinnfreien DX10.1 Chip verbauen, wenn der keinen nutzen hat?

Lieber Geld einsparen und in DX11, auch Sinnfrei, oder anderes investieren.

ATI ist der ganz doofe hier. Die werkeln schon am DX11...das genau für die nächsten Jahren 0 bringt.

Heute gibt's n Handvoll DX10 Spiele....bis DX10 das alte DX9 ersetzt vergehen noch Jahre. Bis dahin hat ATI dann DX200 entwickelt...
 
@XamBonX
Du hast wohl sehr wenig über DX11 usw. gelesen?
Da es auf DX10 basiert wird es sehr wohl viele Spiele dafür geben.
Die werden auch deutlich schneller kommen als DX10 Spiele.

DX10.1 wird gerade dort die Vorteile ausspielen.

Abwarten und Tee trinken.
 
Jo, haben die Leute gesagt, als DX10 kam. Wird ganz, ganz, ganz viele DX10 Spiele geben..

"ganz viele"...
 
@XamBonX
Du checkst es nicht oder?
DX10 war damals was komplett neues.
Bei DX11 gibt es nicht so viele Unterschiede zu DX10, dadurch wird man eine Engine auf DX11 ziemlich einfach konvertieren können.

Das ist praktisch wie DX 9.0 & DX 9.0c
 
Ich weiss nur immernoch nicht was eine GK mit 10.1 bei 11 anrichten soll. Entweder unterstützt sie es oder nicht...
 
Eine DX10.1-Karte kann kein DX11 so wie eine DX9-Karte kein DX10 kann.
 
Zurück
Oben