News ATi entfernt MipMap-Erkennung im Cat. 9.5

Dr. Perry Cox schrieb:
Furmark finde ich nun allerdings auch Praxisfremd, eine derartige Auslastung, wird man in Spielen niemals erhalten.
Und genau aus diesem Grund finde ich es immer wieder lustig wenn Leute damit versuchen die AMD Karten als schlecht darustellen.
Aber ir fällt auf das wir das erste mal der gleichen Meinung sind:p
 
Ich bin einfach nur objektiv, ich habe nichts gegen ATI, meine bisher beste Grafikkarte welche ich auch am Längsten hatte war eine 9800 Pro. Man sollte jedoch auch kritisch sein und zwar zu beiden Herstellern und das bin ich ;)
 
Dr. Perry Cox schrieb:
Ich bin einfach nur objektiv, ich habe nichts gegen ATI, meine bisher beste Grafikkarte welche ich auch am Längsten hatte war eine 9800 Pro. Man sollte jedoch auch kritisch sein und zwar zu beiden Herstellern und das bin ich ;)
Ich habe ja auch nichts gegen Kritik, aber man sollte durch seine Kritik nicht gewissen leuten vorlagen liefern damit sie ihre geliebte Firma in den Himmel loben und deren Konkurrenz absolut schlecht machen können. Man sollte halt immer bedenken das auch mal leute hier lesen die so gut wie garkeine Ahnung haben und vieles für bare Münze nehmen.:rolleyes:

Ich habe ja z.B. auch gesagt das ich durch aus Unterschiede zwischen der aktuellen Nvidia und AMD generation sehe, aber die Bildqualität halt nicht so grottenschlecht ist wie viele hier meinen. Ich nehme Texturflimmern bei den aktuellen AMD karten so gut wie garnicht war, lege aber großen Wert darauf das gräßer und der gleichen kein unruhiges Bild erzeugen und lege deshalb großen wert auf gute Kantenglättung und diese ist nunmal meist besser bei AMD/ATi Karten(abgesehen von dem nicht mehr ganz frei wählbarem Adaptiv AA:( ) und dazu noch oft schneller.

EDIT:
Achja und nochmals, ich hatte schon genügend AMD/ATi und Nvidia karten aus allen Generation ob dies auch beurteilen zu können.
 
Unyu schrieb:
Oder Reviewer können nicht mehr aus Versehen schrecklich lange Lastleistungsbalken erzeugen. :)
Du meinst sicher die Furmarklastleistungsaufnahmebalken. Und hier ist eigentlich das Problem, wenn die Tester den Stromverbrauch der Radeons und Geforces unter Furmarklast zeigen. Das spiegelt nämlich nur die halbe Wahrheit wieder.

Auf meine Anmerkung...
Lonely Shepherd schrieb:
Im Furmark stimmt auch, dass die HD mehr verbraucht. Allerdings muss man das auch im Verhältnis zur Leistung bringen, sonst ist es witzlos. Da hab ich allerdings keine Ahnung, welche Karte mehr FPS macht.
... hab ich von y33H@ diese Antwort bekommen.
y33H@ schrieb:
Von den Fps auf die Auslastung zu schließen, funktioniert (oft) nicht. Im Furmark, also Synthie, geht das. Hier ist die Radeon der Geforce meilenweit voraus.

Tja, wenn man nen Leistungsbalken einführt wäre hier nämlich die Radeon "meilenweit voraus". ATI schluckt mehr, bringt aber auch "meilenweit" mehr Leistung.

Solange die Test also nur die Stromaufnahme zeigen und diese nicht in Relation zur gebotenen Leistung bringen, sind diese Balken also nicht wirklich aussagekräftig.
 
"Meilenweit" mehr Shaderleistung, was ja eben auch unter anderem gerade dadurch erreicht wird, dass der andere Teil des Grafikchips, die TMU, "meilenweit" weniger Leistung bringt.
 
Ich habe lediglich erläutert, dass es Schwachsinn ist über den hohen Verbrauch der Radeon 4K Generation im Gegensatz zur Geforce Gt200(b) Generation im Furmark Lastszenario zu schmunzeln, wenn man gleichzeitig nicht darüber nachdenkt, dass sie dafür im Furmark auch meilenweit mehr Leistung bringt.

ATi hat generell von allen Einheiten weniger verbaut, als Nvidia. Weniger ROP's, weniger TMU's und im Prinzip auch weniger Shader (160). Die vergleichsweise hohe Shaderleistung kommt eben nur durch die 5D-Shader Einheiten. Genau genommen tritt hier ATi mit nem Minichip gegen ein Monster an. Das da die Füllraten niedriger sind, ist auch kein Wunder. Es ist schon ne Leistung, dass sie von den Fps fast gleichauf liegen. Das irgendwo gespart werden muss ist da doch auch nicht verwunderlich oder?

Aber wie extrem manche das etwas schlechtere AF darstellen ist echt übelst übertrieben. Aber um die Diskussion nicht wieder von vorne anzufangen, hab ich mich halt darauf geeinigt, dass es einige anscheinend stört, andere nicht. Wahrscheinlich wurde hier aber auch gegenseitig so hochgeschaukelt, dass die Diskussion schon etwas aus dem Ruder gelaufen ist.
 
Zuletzt bearbeitet:
Lonely Shepherd schrieb:
Solange die Test also nur die Stromaufnahme zeigen und diese nicht in Relation zur gebotenen Leistung bringen, sind diese Balken also nicht wirklich aussagekräftig.
So ganz korrekt ist das auch wieder nicht. Der Furmark zeigt die maximale thermische Auslastung - ob diese mit 4 oder mit 4.000 Fps erreicht wird, ist nicht von Bedeutung. Hier sollte man differenziert an die Sache herangehen.
Lonely Shepherd schrieb:
Es ist schon ne Leistung, dass sie von den Fps fast gleichauf liegen.
Wenn man so will, dann leisten Terrys Jungs eine wirklich verdammt gute Arbeit, wenn man einen solch technisch unterlegenen Chip mit Optimierungen, die die meisten nicht sehen (wollen) auf das nahezu gleiche Niveau wie den GT200 prügelt.
 
y33H@ schrieb:
So ganz korrekt ist das auch wieder nicht. Der Furmark zeigt die maximale thermische Auslastung - ob diese mit 4 oder mit 4.000 Fps erreicht wird, ist nicht von Bedeutung. Hier sollte man differenziert an die Sache herangehen.
Ebenso sollte man aber auch differenziert an die Sache herangehen, wenn man nur die Lastleistungsaufnahmebalken sieht und das macht fast keiner.

Damals hatte ich zwecks besserer Vergleichbarkeit ja auch nach den Fps gefragt. Ich selbst kann es nicht testen. Dann frag ich eben so: Welche Karte bringt den bei maximaler thermischer Auslastung mehr Fps? Wieviele Fps mehr wäre natürlich auch wichtig.

Aber meine Aussage bleibt: Wenn man nur die Stromaufnahmebalken des Furmarks hat, ist ein Vergleich nutzlos. Sonst könnt ich auch darüber lachen, dass meine X1950GT Super weniger Strom als eine GTX260 im Furmark Lasttest braucht. Hinkt genauso.
 
@ Lonely Shepherd

Indem du wieder übertrieben formulierst ("übelst übertrieben") feuerst du doch selbst wieder herum - akzeptiere doch einfach, dass es eine rein subjektive und nicht objektivierbare Angelegenheit ist, wie schlimm ein solcher Bewegtbildmakel gewichtet wird. Wenn jemandem beim Geschmack von Kaviar die Galle hochommt, dann kann ich nicht sagen, der reagiert übest übertrieben, sondern muss erstmal hinnehmen, dass das bei diesem individuellen Menschen so ist. In der europäischen Geschmackserziehungskultur mag das unpopulär sein, wird aber dadurch nicht falsch.

Wie in den letzten Jahren von vielen Leuten immer wieder gesagt worden ist: Nvidia hat die Option für volle trilineare Filterung nicht als höfliche Geste zurück gebracht, sondern auf massiven Druck durch massive Konsumentenproteste. Nennt das von mir aus "Forenbashing", aber ohne das hätte Nvidia die Option nicht zurückgebracht. Und was hat das denn für einen Nachteil wenn eine Protestwelle gegen die gleiche Sache bei ATI in der gleichen Intensität wie damals bei Nvidia auch ATI wieder dazu zwingt die Option auf hohe Filterqualität zu bieten? Keiner von denen, die die Schummeleien nicht stören, würde dadurch gezwungen, auf die Schummeleien, mit denen sich viel Rechenzeit sparen lässt, verzichten zu müssen. Insofern kann ich den Gegenprotest beim besten Willen nicht verstehen, denn diejenigen, die durch die Schummeleien mehr FPS für weniger Geld bekommen, haben absolut nichts zu verlieren.

P.S.
Und mich interessiert im mernoch die Filterqualität von ATI auf Mac OS X. ;)
 
Zuletzt bearbeitet:
Lonely Shepherd schrieb:
Dann frag ich eben so: Welche Karte bringt den bei maximaler thermischer Auslastung mehr Fps?
Es gibt ein Tool [OCCT], welches eine HD4870 RefDesign @ stock reproduzierbar nach wenigen zum Absturz bringt [SpaWas?] - Geforces aber laufen. Also 0 Fps bei über 150 Watt? Zudem sprach ich von der thermischen Auslastung, nicht von der Leistungsaufnahme. Bei letzterer ist Fps/Watt natürlich spannend.

 
mit Optimierungen, die die meisten nicht sehen (wollen) auf das nahezu gleiche Niveau wie den GT200 prügelt.
Hier muss man auch differenzieren.
Wenn man sich deinen post durchlest meint man, dass die gute Leistung der HD´s nur auf die etwas schlechtere Quali zurückzuführen ist. Was nicht korrekt ist.
 
Dadurch, dass TMUs gespart werden, die man durch gesparte Samples ausgleicht, kann man zB mehr ALUs einbauen. Insofern ist die schlechtere AF-Quali schon ein Punkt.
 
Ja da stimme ich voll und ganz zu, ich sagja das kommt oben für jmd. der schnell drüber liest so raus.
Mich erstaunt es aber immerwieder, wie AMD da soviel Leistung mit nem relativ billigen chip rauskratzt.
 
MountWalker schrieb:
@ Lonely Shepherd
Indem du wieder übertrieben formulierst ("übelst übertrieben") feuerst du doch selbst wieder herum - akzeptiere doch einfach, dass es eine rein subjektive und nicht objektivierbare Angelegenheit ist, wie schlimm ein solcher Bewegtbildmakel gewichtet wird.

Lonely Shepherd schrieb:
Aber um die Diskussion nicht wieder von vorne anzufangen, hab ich mich halt darauf geeinigt, dass es einige anscheinend stört, andere nicht.
Wenn ich "übelst übertrieben" schreibe ist das meine persönlich Meinung dazu, wie einige Grüne hier über Radeon-AF herziehen. Und wenn man will, dass ATI wieder besseres AF ermöglicht, dann beschwert man sich im offiziellen ATI-Forum. Hier auf CB werden die wohl nicht so häufig vorbeischauen.


y33H@ schrieb:
Es gibt ein Tool [OCCT], welches eine HD4870 RefDesign @ stock reproduzierbar nach wenigen zum Absturz bringt [SpaWas?] - Geforces aber laufen. Also 0 Fps bei über 150 Watt? Zudem sprach ich von der thermischen Auslastung, nicht von der Leistungsaufnahme. Bei letzterer ist Fps/Watt natürlich spannend.
Okay, dein Vorteil das ich den Furmark nicht persönlich, sondern nur aus Bildern und Berichten kenne. Deswegen lasse ichs mal gut sein.

Deine Überlegung stimmt trotzdem nicht (wahrscheinlich hast du deswegen ein ? dahinter gesetzt), da man immer ein Wert dem anderen zuweist. Ich denke mal du weißt was ein Graph ist.

Ergo: Wenn du genau den Zeitpunkt nimmst, an dem die Graka abstürzt und deswegen 0 Fps liefert musst du auch genau zu dem Zeitpunkt die entsprechende Wattzahl nehmen. Die wird ganz bestimmt nicht bei 150Watt sein.

Aber wenn dieses Tool, die Graka voll ausreizt und die Fps Anzahl anzeigt und du nebenbei den Stromverbrauch bestimmen kannst, dann könntest du doch auch mal ne nicht Ref HD4870 gegen ne GTX 260 antreten lassen und gucken was beiden Karten bei (fast) voller Auslastung schlucken und was sie an Leistung bringen.
 
Lonely Shepherd schrieb:
Hier auf CB werden die wohl nicht so häufig vorbeischauen.
Würde so nicht sagen. Der 3DC-Artikel über das GF7'sche AF hat seinen Weg auch gefunden ...
Lonely Shepherd schrieb:
Ergo: Wenn du genau den Zeitpunkt nimmst, an dem die Graka abstürzt und deswegen 0 Fps liefert musst du auch genau zu dem Zeitpunkt die entsprechende Wattzahl nehmen.
Theoretisch ja. Praktisch ist es aber vollkommener Bullshit, den Fps und die Leistungsaufnahme zu messen, wenn 3sec später der ganze Rechner abschmiert. Wenns ja wenigstens eine Minute wäre ... im Falle eines non-RefDesigns kann man das aber mal prüfen.
=Lonely Shepherd schrieb:
Okay, dein Vorteil das ich den Furmark nicht persönlich, sondern nur aus Bildern und Berichten kenne.
Warum schaust du ihn dir nicht mal an? Verstehe ich nicht. Kostet dich ein paar Klicks und ein paar MiB.
 
y33H@ schrieb:
Theoretisch ja. Praktisch ist es aber vollkommener Bullshit, den Fps und die Leistungsaufnahme zu messen, wenn 3sec später der ganze Rechner abschmiert. Wenns ja wenigstens eine Minute wäre ... im Falle eines non-RefDesigns kann man das aber mal prüfen.
Es geht mir ja nur darum zu schauen, wieviel Leistung die HD 4870 bei voller Auslastung bringt. Dann kann man auch die hohe Lastaufnahme der Radeons unter Volllast abschätzen. Aber nur zu gucken, wieviel die HD4K's unter Volllast schlucken und sich dann darüber auslassen ist von der Logik her nicht nachvollziehbar. Und wenn das die Ref nicht schafft, dann muss man eben gucken welche das schafft. Hauptsache es ist ne HD4870/4890.

y33H@ schrieb:
Warum schaust du ihn dir nicht mal an? Verstehe ich nicht. Kostet dich ein paar Klicks und ein paar MiB.
Die Frage ist nur: Wofür brauche ich Furmark? Besonders bei meiner "alten" X1950GT.:freak:
Ich halte mein Sys gerne sauber. Deswegen vermeide ich Progs, die ich nicht wirklich brauche, auch wenn sie nur sehr klein sind.
 
Lonely Shepherd schrieb:
Aber nur zu gucken, wieviel die HD4K's unter Volllast schlucken und sich dann darüber auslassen ist von der Logik her nicht nachvollziehbar. Und wenn das die Ref nicht schafft, dann muss man eben gucken welche das schafft. Hauptsache es ist ne HD4870/4890.
Das ist aber selektiv. "Upps, die Karte tut nicht, stürzt ab. Nehmen wir halt ne andere ... auch nicht? Hmmm, gut das wir alle Modelle da haben".
=Lonely Shepherd schrieb:
Die Frage ist nur: Wofür brauche ich Furmark?
Wofür brauche ich Fraps? Wofür brauche ich ein Auto? Wofür brauche ich Schuhe? Man kann alles nutzen und für sinnig erklären wenn man nur will - oder eben nicht. Allerdings sollte man nicht bei Furmark und Co mitreden, wenn man nicht selbst die Konstellation aus dem jeweiligen Tool und der jeweiligen Grafikkarte nutzt oder zumindest testen kann. Ich diskutiere ja auch nicht über die spielerischen Bugs von ArmA2, sondern bemängle die Clipping-Fehler ;)
 
y33H@ schrieb:
Das ist aber selektiv. "Upps, die Karte tut nicht, stürzt ab. Nehmen wir halt ne andere ... auch nicht? Hmmm, gut das wir alle Modelle da haben".
Puh, ich bin es wirklich satt nicht verstanden zu werden und alles erklären zu müssen.
Was wollte ich zeigen:
Einige lachen über den hohen Verbrauch der HD4870/4890 im Furmark ergo unter hoher Auslastung. Dabei berücksichtigen sie aber nicht, das die HD's dabei auch gleichzeitig sehr viel leisten. Genug auslastbare Rohpower haben die HD's ja. Allerdings wird der Furmark Stromverbrauchwert der HD's unter normaler Spielelast ohnehin nicht erreicht. Ergo --->theoretischer Wert.
Ich wollte dazu anregen, neben der hohen Stromaufnahme auch die hohe Leistung der HD's im entsprechendem Szenario zu berücksichtigen --->logischerweise auch theoretischer Wert.
Da beides also im Bereich des Theoretischen liegt kann man gut einen Leistung/Stromverbrauch (Fps/Watt) Test vollziehen, auch wenn es keinen praktischen Bezug hat, weil wie bereits beschrieben es ohnehin nur theoretische Werte sind oder eben auch weil einige Karten den Test nicht packen. Deswegen war mein Anreiz doch eine Karte zu nehmen die nicht abstürzt und damit den theoretischen Test durchzuführen. Des Interesse halber. Soweit verstanden?

y33H@ schrieb:
Wofür brauche ich Fraps? Wofür brauche ich ein Auto? Wofür brauche ich Schuhe? Man kann alles nutzen und für sinnig erklären wenn man nur will - oder eben nicht. Allerdings sollte man nicht bei Furmark und Co mitreden, wenn man nicht selbst die Konstellation aus dem jeweiligen Tool und der jeweiligen Grafikkarte nutzt oder zumindest testen kann. Ich diskutiere ja auch nicht über die spielerischen Bugs von ArmA2, sondern bemängle die Clipping-Fehler ;)
Genau. Fraps hab ich auch nicht auf dem Rechner, weil ICH es nicht brauche. Ich nutze schlicht die Bild in Bild Anzeige der ATT so hab ich immer direkt ne Fps Anzeige.

Und was hab ich schon bei Furmark großartig mitgeredet? Ich habe lediglich mehrmals betont, dass man wenn man die Stromaufnahme der HD's beim Furmark betrachtet auch mal auf die entsprechende Leistung gucken soll. Wenn das falsch ist und man nur die Stromaufnahme anschauen soll und somit einfach eine HD4870 mit einer GeForce 6600 vergleichen kann, im Sinne von "Stromaufnahme HD4870">"Stromaufnahme GeForce 6600" --->wähle GeForce 6600, dann schreib das doch einfach das nächste mal so (ich hoffe diesen Vergleich muss ich nicht auch schon wieder erklären).

Btw. JEDER Gamer sollte über spielerische Bugs diskutieren können/dürfen.

Aber mir ist diese AF und generell die NV vs. ATI Diskussion mittlerweile ziemlich Banane. Hauptsache ich weiß was gut/schlecht bzw hinnehmbar/no-go ist.
 
Also ich finde dieses Furmark, und OCCT Dingens völlig fürn hintern....
Im Alltag wird man an diese Grenzen nie kommen, deshalb sind diese "Benchmarks" realitätsfern und vernachlässigbar.
Und wenn OCCT bei ATI Karten abschmiert, würde ich den Fehler bei den Programmierern und nicht bei den ATI Karten suchen.

Bleibt doch bitte beim Thema und weitet das nicht weiter auf Flame/Fanboy und sonstige Wars....
Ansonsten muss ich voll und ganz HappyMutant zustimmen.
Nun ja, halten wir fest, keiner bestreitet offensichtlich irgendwas, alle sind sich eigentlich einig, im Grunde gibt es hier nichts mehr zu diskutieren, außer wie stark man eine Effekt wahrnimmt.
 
Lonely Shepherd schrieb:
Soweit verstanden?
Ja, ich bin der gleichen Meinung.
Lonely Shepherd schrieb:
Btw. JEDER Gamer sollte über spielerische Bugs diskutieren können/dürfen.
Im Sinne von, Bugs sollten nicht sein - ja. Über die Bugs im speziellen, d.h. wie oft sie auftreten, wie sehr sie stören usw. - nein. Letzteres sollten nur die, die das Spiel besitzen oder testen.
 
Zurück
Oben