Test Grafikkarten-Tests 2019: Neue Benchmarks und mehr Transparenz zum Navi-Start

ZeroZerp schrieb:
Was genau wäre so schlimm daran und welchen Nachteil ziehst Du daraus, wenn eine 1060 hier um 0,4% besser abschneidet als in anderen Tests
Ich nicht, sondern die Spieler haben Nachteile. Die kaufen halt die 1060 (ja, auch wg 0,001% "Mehrleistung") und machen den ganzen Wettbewerb kaputt, was man ja auch an dem momentanen GraKa Markt sehen kann
ZeroZerp schrieb:
Du musst die Leistung auch irgendwie durch das Frontend herausdrücken können und da hat AMD einige Besonderheiten bzw. Flaschenhälse, die einer Sonderbehandlung bedürfen.
Kannst du die Besonderheiten konkret benennen? Für mich wirkt es so, als wenn Nvidia die Sonderbehandlung bekommt und alleine dadurch schneller läuft.
ZeroZerp schrieb:
Kommt auf die Architiektur an - Die Turing Architektur zwingt die GCN Architektur in Sachen GPGPU Leistung in die Knie
Nun ja, die erste seit wie vielen Generationen?
 
  • Gefällt mir
Reaktionen: Smartbomb
Alphanerd schrieb:
Kannst du die Besonderheiten konkret benennen? Für mich wirkt es so, als wenn Nvidia die Sonderbehandlung bekommt und alleine dadurch schneller läuft.
Ich habe einen der Beiträge auf einer der ECS verfolgt, bei dem darauf eingegangen wurde, wie man das eigene Produkt auf GCN auslegen bzw. optimieren kann.
Da wurde dann darauf hingewiesen, dass die GCN Architektur manche Instruktionen grundsätzlich einfach anders behandelt und man also das eigene Programm schon mit diesen Specials im Hinterkopf aufbauen muss.
Da geht es um Ansprache von Registern, load und store usw. usf. Ich kanns im Detail nicht mehr genau benennen. Es klang für mich aber alles logisch und nachvollziehbar.

Ich schau mal, ob ich den noch finden kann und verlinke den dann hier. Wenn jemand nur ein wenig Einblick in die Materie hat, dann wird realtiv schnell klar, warum AMD trotz höherer Rechenpower in diversen Rasterszenarien dann ins straucheln gerät.

Was mich in der Beziehung immer wieder wundert ist, dass AMD ja letztenendes um die Ursachen des in Relation zur rohen Rechenkraft schwachen Abschneidens in der Spielepraxis weiss.

Dass sie dann nicht einfach mal den umgekehrten Weg gehen, nämlich die aktuell verfügbare Software zu nehmen und konsequent die Architektur und das Intruction- Set darauf trimmen, dieses mit höchstem Wirkungsgrad umzusetzen, erschliesst sich mir nicht.

Entweder ist der Consumer Markt uninteressant, so dass dieser einfach nur als Nebenprodukt mitgenommen wird, oder es gibt irgendeine andere mir nicht ersichtliche Ursache...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nordbadener, KlaraElfer und Alphanerd
Alphanerd schrieb:
Schau auf die Rohleistung der betreffenden Karten. AMD hat in der Regel immer eine höhere als der Nvidia Gegenpart.
Also laufen die Spiele nicht überproportional gut auf Amd, sondern bilden (eher) die tatsächliche Leistung der Karten ab.

Rohleistung in Form von FLOPS allein ist aber kein Garant für eine gute Gamingperformance.
Vorsicht Autovergleich: Hubraum allein macht ein Auto auch nicht schnell auf der Rennstrecke!
 
  • Gefällt mir
Reaktionen: KlaraElfer
Tolle Arbeit :daumen:

Die Radeon reift mit der Zeit wie ein guter Käse xD.

Ps
Das arme Board, Grafikkarte rein und raus.
 
Achim_Anders schrieb:
Den ganzen Text lesen, verstehen und dann sinnvoll zitieren...

Das hab ich doch, es ergibt keinen Sinn beliebte Spiele aus Rücksicht auf einen IHV rauszunehmen, egal ob der auf AMD oder Nvidia schneller läuft, man will ja die Leistung in aktuellen Spielen zeigen, die verbreitet sind.

[
Achim_Anders schrieb:
Schaffst du nicht, oder?

Nein, ich gehe generell davon aus, dass Webseiten und die Menschen die diese betreiben, Benchmarks nicht zugunsten AMD oder Nvidia auswählen und damit irgendetwas beabsichtigen.
Achim_Anders schrieb:
bist so verbohrt auf den nvidia vs amd Kampf...

Nein.
Ergänzung ()

ZeroZerp schrieb:
Entweder ist der Consumer Markt uninteressant, so dass dieser einfach nur als Nebenprodukt mitgenommen wird, oder es gibt irgendeine andere mir nicht ersichtliche Ursache...

Es gibt da mehrere Ursachen, zum einen war es lange Zeit das Frontend welches bei Tahiti und Hawai gebremst hat, welches durch Polaris entschärft wurde, dann gab es Flaschenhälse in der Geometrieleistung (Tesselation) und das fehlende Multithreading des Treibers unter Directx11.
Nvidia vermag es einfach mit weniger "Hubraum" die gleichen "PS" zu stellen und AMD hat mit Vega stark daran gearbeitet, mit der neuen Geometriepipeline genau das zu erarbeiten, dann aber nicht hinbekommen um eine bessere Auslastung zu erzielen. Eventuell fehlt es einfach auch an Geld und Mitarbeiter Ressourcen.

Es gab ja das Gerücht, dass große Teile der Radeon Group für die CPU Sparte abgezogen wurden.
 
Zuletzt bearbeitet von einem Moderator:
Hmm, seltsam, da hatt die Radeon 7 bei ei eurem neuen Performancerating wohl irgendwie einen ernormen boost bekommen, wenn die auf einmal so schnell wie eine 1080TI ist, Benchmarks sind halt auch wie Hardware, kaum liest man sie, sind sie schon wieder veraltert ^^
 
Taxxor schrieb:
Solange man noch bei GCN ist, wird sich da leider auch nicht allzu viel tun, also mit deutlich besserer Perf/Watt ist erst wieder nach Navi zu rechnen.
Da gibt es im Moment andere Gerüchte...
 
Wolfgang schrieb:
Die Frage ist, was das denn bedeutet (einer der stärksten Abweicher kann ja dennoch nur eine maximale Abweichung sein). Hast du da vielleicht ein paar Mehr Infos bzw. die Quelle zu?

Muss ich selber noch mal nachschauen bei welchem Test es war. Laut @Achim_Anders war der Launch-Test zum Beispiel leicht biased. Den Test den ich meinte ist aber glaube ich schon aelter. Es koennte sogar ein CPU Test gewesen sein, der dann bei irgendwas um die 10% Unterschied raus kam.

KlaraElfer schrieb:
Kenne ich, ist eine Unwahrheit, eher das genaue Gegenteil war der Fall, CB orientiert sich bei dieser Meta Analyse sehr nahe am Durchschnitt und mit diesem Test noch einmal genau am Durchschnitt.

Ach du schon wieder. Mit dir lasse ich mich nicht auf eine deiner Pseudodiskussionen ein...

Destyran schrieb:
was willst du denn jetzt genau sehen? eine repräsentstiven Benchmark für cpu + gpu in einem? wer bestimmt denn dann was repräsentativ ist und was nicht? dann müsste ma ja theoretisch jede halbwegs relevante cpu mit jeder halbwegs relevanten fpu benchen. unstemmbar

Es reicht schon die Last, etwas aufgeschluesselt, der CPU zu zeigen beim GPU Test. Mit dem CPU Test weisst du dann grob wie schnell du ins CPU Limit rennen wuerdest mit einer anderen. Derzeit weisst du nicht ueber die Last und es ist reines raten ob die neue Grafikkarte jetzt voll ausgelastet werden kann oder nicht.

ZeroZerp schrieb:
Ich habe einen der Beiträge auf einer der ECS verfolgt, bei dem darauf eingegangen wurde, wie man das eigene Produkt auf GCN auslegen bzw. optimieren kann.
Da wurde dann darauf hingewiesen, dass die GCN Architektur manche Instruktionen grundsätzlich einfach anders behandelt und man also das eigene Programm schon mit diesen Specials im Hinterkopf aufbauen muss.
Da geht es um Ansprache von Registern, load und store usw. usf. Ich kanns im Detail nicht mehr genau benennen. Es klang für mich aber alles logisch und nachvollziehbar.

Anders als was? Als Nvidia? Aber auf jeden Fall, sonst gaebe es da schon lange Klagen weil der Aufbau gleich ist und Patente verletzt werden. Fuer Nvidia musst du genau das gleiche machen und es gibt genau die gleichen Vortraege dafuer. Das gilt genauso fuer CPUs und ist nichts neues. Die Frage ist, was Entwickler dann machen und wie sie ihre Schwerpunkte legen. Allerdings muss man sagen, dass der Mensch nun mal faul ist und sich nicht so gerne aendert. Wenn Entwickler sich dann erstmal an eine Art gewoehnt haben bleibt man halt dabei und der andere Hersteller ist "anders" und "aufwendiger", obwohl der initiale Aufwand fuer das derzeitige genauso betrieben wurde. Ist genau das gleiche im CPU Bereich.

ZeroZerp schrieb:
Entweder ist der Consumer Markt uninteressant, so dass dieser einfach nur als Nebenprodukt mitgenommen wird, oder es gibt irgendeine andere mir nicht ersichtliche Ursache...

Der Consumer Markt wird uninteressanter. Man kann um einiges mehr Marge in Datenzentren erzielen. Ich wuerde es AMD auch nicht veruebeln, wenn sie den Gamer-Markt immer mehr vernachlaessigen. Mich wuerde es auch nicht wundern wenn es damit anfaengt, dass nichts mehr der xx80Ti entgegengesetzt wird und es dann langsam runter geht. Mainstreammarkt wird noch bedient und die Super-Duper-High-End-Gamer werden Nvidia ueberlassen, da in dem Bereich erst recht viele in Richtung Nvidia tendieren. Das ironische wird halt dann sein, dass Nvidia richtig schoen Geld dafuer verlangen kann und die Super-Duper-High-End-Gamer ihre eigene Suppe dann ausloeffeln muessen. Natuerlich mit meckern ueber den Preis und das AMD doch den Preis druecken soll. Aber das derzeitige Kundenverhalten fuehrt halt genau in die Richtung.

Taxxor schrieb:
Inwiefern? Dass der Nachfolger von Navi immer noch GCN ist?

Dass GCN veraendert wurde und dadurch mehr Performance da sein soll: https://www.tomshw.de/2019/05/23/ne...fbau-der-navi-architektur-an-fesseln-geloest/

Also, es soll genau das angegangen werden ueber das sich alle immer beschweren. Im Hinblick auf Navi in Konsolen sogar moeglich. Wobei es halt auch wieder darauf hindeutet, dass AMD nicht mehr ganz so viel auf den Consumermarkt gibt.
 
Kacha schrieb:
Dass GCN veraendert wurde und dadurch mehr Performance da sein soll:
Was aber noch nicht bedeutet dass die Performance pro Watt dadurch verbessert wurde.
Laut letzten Gerüchten sollen die Navis sehr heiß laufen und viel verbrauchen, wenn sie auf dem Takt der VII laufen sollen
 
Kacha schrieb:
Es reicht schon die Last, etwas aufgeschluesselt, der CPU zu zeigen beim GPU Test. Mit dem CPU Test weisst du dann grob wie schnell du ins CPU Limit rennen wuerdest mit einer anderen. Derzeit weisst du nicht ueber die Last und es ist reines raten ob die neue Grafikkarte jetzt voll ausgelastet werden kann oder nicht.

Die Auslastung einer Cpu sagt absolut 0 aus, ob sie eine Grafikkarte bottlenecked oder nicht. Ein 6600k wird auch immer ausgelasteter sein als ein fx 8350, trotzdem erzielt er eindeutig die bessere framerate. Das liegt einfach daran, dass die Games unterschiedlich viele Threads ansprechen. Da bringt dir die % Angabe 0. Und wenn die Single Core Leistung nicht passt erst recht nicht.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Kacha schrieb:
Muss ich selber noch mal nachschauen bei welchem Test es war. Laut @Achim_Anders war der Launch-Test zum Beispiel leicht biased.

Wie kann ein Test biased sein, wenn es in der Meta-Analyse die ihr immer benutzt mehrere andere Tests gibt, die genau dieselben Werte ermittelt haben?
Ist vielleicht der Ausdruck "biased" hier vollkommen fehl am Platz?

Kacha schrieb:
Es reicht schon die Last, etwas aufgeschluesselt, der CPU zu zeigen beim GPU Test.

Für GPU Tests Bedarf es keiner Aufschlüsselung der CPU Last, dafür gibt es CPU Tests.
So ein Vorhaben ergibt keinerlei Sinn. Von einer gewissen CPU Last/Auslastung kannst du nicht auf eine CPU Begrenzung bei einer bestimmten Wertigkeit der FPS schließen, dazu benötigt es CPU Tests in einer niedrigen Auflösung bzw. der gewünschten Testszene und keine Auslastungsanzeige.

Kacha schrieb:
Aber das derzeitige Kundenverhalten fuehrt halt genau in die Richtung.

Die Schuld beim Kundenverhalten zu suchen ist immer der falsche Ansatz.
Wenn AMD das High End Segment nicht bedient und der Kunde folgerichtig bei Nvidia kauft, ist der Kunde also der Schuldige, dass AMD nicht das High End Segment bedient?

Kacha schrieb:
Ach du schon wieder. Mit dir lasse ich mich nicht auf eine deiner Pseudodiskussionen ein...

Faktenresistent? Dieser Test weicht im Vergleich zum Durchschnitt der Metaanalyse in 4K um 0,4% Punkte ab und der alte Launchtest der Radeon VII um unter 2% Punkte in 4K.
Die Full HD und die WQHD Indexes weisen ebenfalls keinerlei signifikante Abweichung des Durchschnittes auf.
PCGH kommt sogar auf die exakt gleichen Werte, mit einer Abweichung von 0,5% Punkten.
Wie kommt man überhaupt darauf, dass dieser Test in irgendeiner Weise biased ist?

Bias bedeutet "durch falsche Untersuchungsmethoden (z. B. Suggestivfragen) verursachte Verzerrung des Ergebnisses einer Repräsentativerhebung "

Bitte mal die entsprechenden Belege für die Anschuldigungen liefern.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: .Sentinel.
Taxxor schrieb:
Inwiefern? Dass der Nachfolger von Navi immer noch GCN ist?

Nein aber das die interne Struktur verändert wurde und so deutlich mehr geht... Wenn wirklich mehr FPS raus kommen bei gleicher Wattzahl sieht es mit der Effizienz ganz anders aus.... Wobei AMD Karten mit UV sich in Sachen Effizienz nicht verstecken brauchen...
 
Novasun schrieb:
Wobei AMD Karten mit UV sich in Sachen Effizienz nicht verstecken brauchen...
UV ist kein allgemeingültiger Weg und somit für den Normalo uninteressant. Zudem machen nicht alle Karten ein signifikantes UV mit.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer
1. Ich habe nie "Biased" geschrieben, sondern lediglich, dass der Test innerhalb der Meta-Analyse von Leo eher auf Seiten nvidias war. Das ist aber ja nichts schlimmes, solange ein Ausreißer (egal in welche Richtung) nicht zu extrem von den meisten anderen Tests abweicht. Das liegt nicht vor und wurde von mir auch nie behauptet.

2. Meine Fragestellung bzw. mein Denkansatz hat mit AMD/Nvidia in erster Linie erst mal nichts zu tun.
Stattdessen ging es mir um eine Diskussion auf der Metaebene, was der Leistungsindex, der am Ende in die Kaufberatung geht, im Idealfall Aussagen soll und wie man am nahesten an diese Aussage heran kommt.

Dann schaut man sich den Status Quo an: Der Leistungsindex wird als ein wichtiger (der wichtigste?) Baustein, zusammen mit Preis, Verbrauch, vermeintliche Zukunftssicherheit (VRam) in dem Artikel "Kaufberatung Grafikkarten Monat X,Y,Z) verwendet. Das oder zumindest ein Ziel ist es, dass dieser Index eine Orientierungshilfe ist, mit der ein Leser seine Kaufentscheidung mit begründen kann und soll.

Und da setze ich nun an und frage mich, ob man diesem Ziel vernünftig gerecht wird. Mein Fazit dazu war relativ klar: In Bezug auf Aufwand, Zeit und Hirnschmalz ist man dabei schon sehr gut dabei bei Computerbase.
Trotzdem gibt es immer wieder Grenzfälle, anhand derer man diskutieren und eine Verbesserung erörtern kann.

3. Und an dieser Stelle stach das aktuelle Anno ins Auge. Und zwar aufgrund von zwei verschiedenen Punkten, wobei ich einen nun, nachdem ich es selbst geprüft habe, ad acta legen würde.
a) Anno skalliert angeblich so viel besser auf Nvidia als auf AMD. --> Es macht im Leistungsindex 1% aus zwischen VII und den Nvidia Pendants... Geht also im Rauschen unter und ist damit vollkommen legitim aus der Sicht aufzunehmen.
a.1) Dennoch fußte mein Gedanke anhand der Annahme, dass wenn ein Titel dein Leistungsindex signifikant* verändert, er in einem Leistungsindex erst mal nichts zu suchen hat. Und dazu stehe ich weiterhin. Solange es sich um einen oder zwei Titel handelt, die in welche Richtung auch immer, extrem Ausreißen, sollten diese nicht den allgemeinen Leistungsindex beeinflussen, da dieser dafür zu wichtig in seiner Einfachheit ist.
Ausnahme: Wenn 20% der Titel raus fallen würden, weil sie so stark Abweichen (in beide Richtungen am Besten noch), dann ist das zu benennen und es sollte kein Ausschluss erfolgen, weil es dann in der Tat die Spielelandschaft und Leistungslandschaft der Produkte abzubilden scheint.
Bei einem oder zwei Titeln allerdings sollte man diese ausschließen. Argument: Die Auswahl der Spiele ist zwar nicht zu 100% willkürlich oder gewürfelt, aber halt doch so gering in Quantität und durch Subjektivität beeinflusst, dass man auf Extremfälle verzichten sollte, solange sie Ausnahmen bilden, weil/wenn sie einen zu großen Einfluss auf das Endergebnis haben.

b) Warum Anno nicht in den Grafikkartenleistungsindex gehört. Computerbase, beziehungsweise @Wolfgang selbst schreibt in dem Technik-Test zu Anno: "tl;dr: Anno 1800 liefert ein Grafikfeuerwerk ab. Optisch ist das Spiel mit den vielen Details eine Augenweide. Der Benchmark-Test zeigt jedoch, dass es dafür trotz DirectX 12 einen starken Prozessor braucht, denn das CPU-Limit liegt tief. Wer auf das letzte Quäntchen Grafikpracht verzichtet, kommt aber auch mit weniger aus."

Ein Spiel, welches in den meisten Alltagsszenarien anscheinend CPU Limitiert ist, hat in einem Grafikkartenleistungsindex schlicht nichts verloren. Aus genau diesem Grund wurden die E-Sport-Titel nicht in den normalen Leistungsindex eingeschlossen.
Aus dem Grund werden CPU Tests in 720/1080p mit der schnellsten verfügbaren Karte herausgenommen, weil man die CPU und nicht die GPU testen möchte.

Wenn man mit dem Leistungsindex die von mir gezeigten Ziele erreichen möchte, hat ein Anno in der Liste nichts zu suchen, weil es für den Käufer zu irrelevant ist, da er im späteren Spielverlauf offensichtlich sowieso eher durch die CPU eingebremst wird.



Ich möchte noch mal betonen, mir ist es egal, ob AMD/Nvidia vorne steht.

Vor allem noch mal ein riesen Danke an das Computerbase Team, ich glaube Euch wirklich, dass ihr euch den Ar* aufreißt und hier guten Journalismus und Tests zu machen und es kommt auch extrem viel gutes an.

Auch wenn ich häufiger nicht einer Meinung mit einigen Redakteuren bin, weiß ich Eure Arbeit und Mühen sehr zu schätzen! :)









*signifikant muss eruiert und definiert werden. Ich bin mir sicher, dass es da aus der Statistik sinnvolle Sollwerte gibt, die man beachten und einhalten sollte.
 
  • Gefällt mir
Reaktionen: w33werner, Sun-Berg, Taxxor und 2 andere
ZeroZerp schrieb:
Zudem machen nicht alle Karten ein signifikantes UV mit.
Was schon Bände über Vega bzw deren Prozess spricht, wenn bei den meisten locker 1000mV oder weniger möglich sind, die Karten aber zur Sicherheit trotzdem mit 1200mV ausgeliefert werden.
Da muss eine ganz schöne Streuung drin sein, vielleicht bekommt man das mit Navi ja besser hin.

Zumindest ist man ja bei Navi mit TSMC beim gleichen Fertiger wie Nvidia, die damit eher weniger Probleme haben.
Wobei bei der VII ja ebenfalls massives Potenzial verschenkt wurde durch die hohe Stock Spannung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Achim_Anders schrieb:
Bei einem oder zwei Titeln allerdings sollte man diese ausschließen. Argument: Die Auswahl der Spiele ist zwar nicht zu 100% willkürlich oder gewürfelt, aber halt doch so gering in Quantität und durch Subjektivität beeinflusst, dass man auf Extremfälle verzichten sollte, solange sie Ausnahmen bilden, weil/wenn sie einen zu großen Einfluss auf das Endergebnis haben.
Alles legitim und schlüssig vorgebracht. Mich jedoch, wie bestimmt noch einige Andere interessieren GERADE eben auch die Ausreisser, also die Titel, die für eine Architektur unangenehm sind.
Sollte der Hersteller nämlich mit einer Nachfolgearchitektur kommen, dann fällt mein erster Blick nämlich auf die Extreme, weil man daraus ableiten kann, dass die offensichtlich großen Defizite im relevanten Bereich ausgemerzt oder belassen wurden.

So konnte man, ohne die genauen Zahlen zu kennen bei Turing anhand der sonst AMD favorisierten Spielen sofort erkennen, dass sich erheblich was bei Compute und Async getan hat.
Man erhält durch solche Ausreisser eben oft Info, die nicht direkt offensichtlich im Fliesstext eingebunden sind.

Zu Anno- Die Grafikkartenarchitekturen verhalten sich auch im CPU Limit anders. Sollte zwar theoretisch nicht so sein, ist aber trotzdem so. Deswegen kann ein Testkandidat in dieser Linie nicht schaden...

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer und Achim_Anders
ZeroZerp schrieb:
Mich jedoch, wie bestimmt noch einige Andere interessieren GERADE eben auch die Ausreisser, also die Titel, die für eine Architektur unangenehm sind.
Sollte der Hersteller nämlich mit einer Nachfolgearchitektur kommen, dann fällt mein erster Blick nämlich auf die Extreme, weil man daraus ableiten kann, dass die offensichtlich großen Defizite im relevanten Bereich ausgemerzt oder belassen wurden.
Was würde denn dagegen sprechen, diese Titel separat zu behandeln, wie man es bereits mit den E-Sports Titeln macht?

Bei Wolfenstein II erinnere ich mich, dass man dort eine normale und eine Worst Case Szene gebencht hat.
Genau so könnte man normale und Worst Case Nvidia/AMD Titel aufteilen.
 
Selbst ist der Gamer. Einfach CapFrameX installieren, einen Thread aufmachen und das Spiel der Wahl zusammen mit anderen Leuten benchen. ^^ So kann man immer gezielt Erkenntnisse gewinnen über die eigene Hardware + Tuning, wenn man mit der Diversifikation des Redaktionsparcours unzufrieden ist.
 
  • Gefällt mir
Reaktionen: KlaraElfer, .Sentinel. und Esenel
Taxxor schrieb:
Was aber noch nicht bedeutet dass die Performance pro Watt dadurch verbessert wurde.
Laut letzten Gerüchten sollen die Navis sehr heiß laufen und viel verbrauchen, wenn sie auf dem Takt der VII laufen sollen

Das nicht, aber moeglicherweise naeher an der Rohleistung, da die Karte besser ausgelastet wird. Heiss kann allerdings auch bedeuten, dass der Chip schlicht recht klein ist und die Waermeabfuhr schwer. Ich wuerde sagen, erstmal abwarten.

Destyran schrieb:
Die Auslastung einer Cpu sagt absolut 0 aus, ob sie eine Grafikkarte bottlenecked oder nicht. Ein 6600k wird auch immer ausgelasteter sein als ein fx 8350, trotzdem erzielt er eindeutig die bessere framerate. Das liegt einfach daran, dass die Games unterschiedlich viele Threads ansprechen. Da bringt dir die % Angabe 0. Und wenn die Single Core Leistung nicht passt erst recht nicht.

Wie auch schon vorher erwaehnt kann man das auf Threads etc aufsplitten, so dass man einfach erkennen kann ob das Problem Single Threaded ist oder nicht.

KlaraElfer schrieb:
Wie kann ein Test biased sein, wenn es in der Meta-Analyse die ihr immer benutzt mehrere andere Tests gibt, die genau dieselben Werte ermittelt haben?
Ist vielleicht der Ausdruck "biased" hier vollkommen fehl am Platz?

Ich finde es faszinierend, wie du von meiner Aussage, dass es ein Test ist, aber nicht den, den ich meinte, generalisierst...

KlaraElfer schrieb:
Für GPU Tests Bedarf es keiner Aufschlüsselung der CPU Last, dafür gibt es CPU Tests.
So ein Vorhaben ergibt keinerlei Sinn. Von einer gewissen CPU Last/Auslastung kannst du nicht auf eine CPU Begrenzung bei einer bestimmten Wertigkeit der FPS schließen, dazu benötigt es CPU Tests in einer niedrigen Auflösung bzw. der gewünschten Testszene und keine Auslastungsanzeige.

Was bringt dir ein separater CPU und GPU Test, wenn du nicht weisst wieviel Last auf der CPU anlag? Das einzige was ein CPU Test zeigt ist eine Relation zwischen den CPUs, aber nicht ab wann du mit dieser CPU und jener Grafikkarte, bei einem bestimmten Spiel ins Limit rennst. Da ist schlichtweg kein Zusammenhang. Ist die CPU beim GPU Test bei 90% Single Threaded und du hast eine andere CPU die grob 80% der Single Threaded Leistung hat, dann rennst du mit zweiterer ins CPU Limit. Ohne die Angabe der Last weisst du das aber einfach nicht.

KlaraElfer schrieb:
Die Schuld beim Kundenverhalten zu suchen ist immer der falsche Ansatz.
Wenn AMD das High End Segment nicht bedient und der Kunde folgerichtig bei Nvidia kauft, ist der Kunde also der Schuldige, dass AMD nicht das High End Segment bedient?

Bloss nicht den Kunden irgendwie verantwortlich mit seinen Entscheidungen machen, wo kaemen wir da hin. Wie kann man auf die Idee kommen, dass eine Firma, die versucht Geld zu machen, sich nicht an den Kunden ausrichtet? Du versuchst hier die Schuld auf AMD zu lenken, obwohl die die den einzig sinnvollen Weg gegangen sind aus Unternehmenssicht. So lange beide auf gleichem Niveau war wurde trotzdem mehrteilig Nvidia verkauft. Entwicklung, Forschung, und Produktion der High-End Chips kostet nochmal richtig Geld, dass der Verkauf nicht einbringt, der der Kunde es nicht kauft. Also wird es ausgesetzt. Eine Firma muss nicht alle Segmente bedienen, sondern nur dort wo sie Gewinn macht. Das was du also kritisierst ist schlichtweg auf den Mist des Kunden gewachsen. Aber natuerlich will das der Kunde nicht hoeren, weil Verantwortung ist irgendwie nicht so sein Ding.

KlaraElfer schrieb:
Faktenresistent? Dieser Test weicht im Vergleich zum Durchschnitt der Metaanalyse in 4K um 0,4% Punkte ab und der alte Launchtest der Radeon VII um unter 2% Punkte in 4K.
Die Full HD und die WQHD Indexes weisen ebenfalls keinerlei signifikante Abweichung des Durchschnittes auf.
PCGH kommt sogar auf die exakt gleichen Werte, mit einer Abweichung von 0,5% Punkten.
Wie kommt man überhaupt darauf, dass dieser Test in irgendeiner Weise biased ist?

Nochmals, nicht der Test den ich meinte, ein Test. Und dein Cherrypicking, ok, hat seinen Grund warum ich die Pseudodiskussionen mit dir nicht schaetze.

KlaraElfer schrieb:
Bias bedeutet "durch falsche Untersuchungsmethoden (z. B. Suggestivfragen) verursachte Verzerrung des Ergebnisses einer Repräsentativerhebung "

Bitte mal die entsprechenden Belege für die Anschuldigungen liefern.

Auswahl der Spiele, wie schon mehrmals in diesem Thread erwaehnt. Einfach auf "Zurueck" klicken und lesen.

ZeroZerp schrieb:
Alles legitim und schlüssig vorgebracht. Mich jedoch, wie bestimmt noch einige Andere interessieren GERADE eben auch die Ausreisser, also die Titel, die für eine Architektur unangenehm sind.
Sollte der Hersteller nämlich mit einer Nachfolgearchitektur kommen, dann fällt mein erster Blick nämlich auf die Extreme, weil man daraus ableiten kann, dass die offensichtlich großen Defizite im relevanten Bereich ausgemerzt oder belassen wurden.

So konnte man, ohne die genauen Zahlen zu kennen bei Turing anhand der sonst AMD favorisierten Spielen sofort erkennen, dass sich erheblich was bei Compute und Async getan hat.
Man erhält durch solche Ausreisser eben oft Info, die nicht direkt offensichtlich im Fliesstext eingebunden sind.

LG
Zero

Ein Spiel sagt aber weitaus mehr ueber das Spiel und dessen Optimierung als die Architektur der Grafikkarten aus. Und was du dann testest ist schlichtweg ob die Hardware/Treiber, die Schwaeche des Spiels kompensiert. Wenn das der Sinn des Tests ist, ist er wertlos fuer Aussagen ueber die Zukunft. Das ist aber allgemein das Problem bei Grafikkartentests die auf Spiele ausgelegt sind. Du versuchst ueber eine kleine Auswahl an Spielen eine generelle Aussage ueber die Leistung in Spielen zu machen. Dabei wird vollkommen ausser Acht gelassen, dass extrem unterschiedliche Engines genutzt werden, die alle ihre Schwaechen haben. Zusaetzlich kommt dann noch Optimierung und Qualitaet des Spiels hinein. Du hast so viele unbekannte Parameter, dass diese Tests, streng genommen, wenig ueber die Leistung einer Grafikkarte aussagen. Das einzige mit dem das irgendwie kompensierbar waere ist die Anzahl der Spiele zu steigern.

Wenn Einzelaspekte beleuchtet werden sollen, dann macht das mehr Sinn das separat herauszustellen.
 
  • Gefällt mir
Reaktionen: Smartbomb
Zurück
Oben