Test HD 6970 und 6950 im Test: Zwei neue AMD-Radeon-Grafikkarten die enttäuschen

knoxyz schrieb:
@met (#220), CB und die anderen Nvidia-Fanboys:
Wenn Ihr bei den Nvidia-Videos kein Flimmern erkennt, empfehle ich einen Termin beim Optiker.
Und berücksichtigt wie im Video nur stumpft geradeaus gelaufen wird...

Na klasse dann vergleich mal Nvidia-HQ mit ATI-HQ, vergleichbar ist das um Welten nicht. Also was soll das Argument? Nvidia flimmert leicht, also darf ATI flimmern wie blöd? :freak:

gr3if schrieb:
Warum muss ich den mehrere Tests lesen um zu verstehen warum cbase als einzige Karten eigenmächtig abwerten? Der Grund will mir nicht aufgehen...

Ein Satz hätte schon gereicht:
Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.

Leicht an den eben geposteten Videos nachzuvollziehen. Wen das nicht stört der kauft halt eben AMD.
 
Gibt es irgendwo schon einen Test mit Eyefinity.

Also 5040 X 1050 bei der 6950 und 6970.
 
Um in der Sprache der Gamer zu bleiben.

ATI: GG
nVidia: pwnd
 
Flimmern und Flackern? Hattest du überhaupt mal eine AMD-Karte
im Rechner? oO Flackern tut gar nichts und das Flimmern muss man
mit der Lupe suchen. Wird dann bei einigen Spielen, bei weitem
nicht allen, tatsächlich sichtbar. Einfaches Schieben eines Reglers
im CCC und auch das ist weg.
 
Zuletzt bearbeitet:
Was soll denn das mit persönlicher meinung zu tun haben?Hier wird einfach nur gesagt wie es aussieht.

Und das beschönigen kann man sich kneifen wenn man einen objektiven test will.

Wer sagt das CB ATI schlecht macht der sollte ist mal Nvidia tests anschauen, es wird immer das gesagt was gesagt werden muss!

Wer es nicht so sehen will muss es sich halt beschönigen was jedoch nicht objektiv ist .
 
finde das alles recht seltsam. AMD hatte viel mehr Zeit als NVidia denn die HD5k Karten kamen nen halbesJahr vorher als die GTX400er... was hat AMD die ganze Zeit getrieben??

schlappe 5-10% Vorsprung von der HD5870 zur HD6970??

das kanns doch echt nicht sein
 
@Audioslave36

Das ist logisch, da es sich um eine völlig neue Architektur handelt, bei der noch viel an den Treibern optimiert werden kann.
Allerdings bin ich von der Bildquali enttäuscht, dass die mit der neuen Generation wieder in der Standardeinstellung nachgelassen hat, kann ich nur mit Kopfschütteln quittieren.
Für mich ist hier die 6950 der klare Sieger unter den neuen.
Offenbar heißt es jetzt auf das Refresh der neuen Architektur zu warten.
 
Meine Güte schaut doch mal auf Diskussionen zurück wo es um den kommenden Cayman ging...

Meiner Meinung nach sind hier nur einige frustriert darüber was AMD da geliefert hat und das somit Cayman doch nicht das geworden ist was man sich erhofft hatte.
 
Weltenspinner schrieb:
Flimmern und Flackern? Hattest du überhaupt mal eine AMD-Karte
im Rechner? oO Flackern tut gar nichts und das Flimmern muss man
mit der Lupe suchen.

Wie wärs mit Videos gucken bevor du blöd rumlaberst? CB machst das ja nicht ohne Grund. Meine letzte ATI war eine HD4870, also weiß ich sehr wohl wovon ich rede, gerade da zu der Zeit die Treiberstandarteinstellung bei ATI noch hochwertiger war.
 
bensen schrieb:
Und das weißt du woher? Es werden ja auch nicht doppelt so viele Speicherchips verwendet, sondern einfach welche mit höherer Kapazität. Wer sagt dass die zwingend mehr verbrauchen?
Im Vergleich zu älterem GDDR5 auf ner 5870 kann er sogar weniger verbrauchen, da die Fertigung mittlererweile auch modernisiert ist.

Sagen wir mal AMD hat jetzt einen GDDR5 XYZ Speicher mit 2 GB und verbaut stattdessen einen an sich identischen GDDR5 (von der Technik her usw.) mit 1 GB ein, dann wird der 1 GB weniger verbrauchen.
 
Qwerty08 schrieb:
Und hier ist die GTX trotz weniger Speicher 50-80 Watt schlechter:
http://www.tomshardware.de/Radeon-HD6970-HD6950,testberichte-240691-27.html

Junge, lies mal den Test. Du vergleichst die GTX 580 mit der HD6970, die HD6970 ist aber ausschließlich mit der GTX 570 zu vergleichen, und die braucht ziemlich genau gleich viel Strom.



@Masko:
Anandtech -21W, OK.
Hartware -14W, naja
Benchmarkreviews -8W, gerade noch besser
hardwarecanucks, +27W, autsch, deutlich schlechter
tomshardwareguide, -8W, gerade noch besser
techpowerup, -5W, marginal besser

Das waren deine Links.
ht4u, +7w, gerade noch schlechter
computerbase, -1W, "gleich"

bleibt also fest zu halten: der Wert von CB liegt absolut im Mittelfeld. Und die Leistungsaufnahme der beiden Karten ist folglich gleich. Die Unterschiede in den Messwerten kommen von der unterschiedlichen Methodik der einzelnen Seiten.

mfg

noch ein Nachtrag: problematisch ist ja auch die Garantieverwerfung beim Anheben der Power-Grenze. Sollte das tatsächlich kontrolliert werden sehe ich ein ganz großes Problem: Es ist ja mittlerweile Mode, dass solche Karten im Dreierpack bestellt werden, und diejenige mit dem höchsten OC-Potenzial behalten wird. Die anderen beiden gehen zurück. Bloß dass dann irgendjemand eine Karte kauft, auf die er (unwissentlich) keine Garantie mehr hat. Und noch dazu muss der Händler zwei Jahre dafür gerade stehen, da ein solcher Mangel dann ja schon zum Zeitpunkt des Kaufes vorhanden war.
 
Ich finde es immer besser das ich die GTX460 noch geholt hab. Die lässt sich noch gut übertakten.
Die Leistung reicht erstmal.
 
Was willst du groß machen, wenn du bei 40nm fest hängst und
eigentlich auch 32nm hättest umsteigen müssen? Beide Hersteller
sind zur Zeit am Ende des machbaren und von daher gleichauf.
Erst mit 28nm kommt wieder Bewegung in die ganze Sache.
 
@noskill

das wird nichts mehr an den treibern optimiert werden können AMD hat alles rausgequetscht deswegen kamen die karten auch späten damit man die 570er "schlagen" kann.
 
Danke CB für den Umfangreichen Test :-)

Ein wenig Überrascht über das Abschneiden der AMD Karte bin ich doch schon, sollte da wirklich nicht mehr dabei rausgekommen sein?
Eine besser Pattsituation hätte sich nicht ergeben können.
Sei es so, der Preiskampf ist eröffnet, mögen die Preise zum Wohle der Verbrauer fallen. :p
 
@Micha83411

Du hast also das Fazit zur 570 nicht quergelesen. Dir fällt das durch die grüne Brille vielleicht nicht auf - aber der Schreibstil und Grundtenor ist einfach anders - und das bei einem gleichschnellen, genauso viel verbrauchenden, teureren Produkt - irgendwie seltsam, meinste nicht?
MfG
 
Also ich finde es auch übertrieben zu sagen die Karten wären ein Fehlschlag, alles in allem sind sie ganz vernünftig.
Insgesamt finde ich liegen beide Hersteller ziemlich gleichauf und man kann entscheiden was einem bessser gefällt.
Als Konkurrenz zur gtx580 könnte man die HD6850 im CF nehmen, soll sich ja gut verbessert haben.
 
kann gut sein das einige über die beiden Karten entäuscht sind aber im Grunde hat AMD aus meiner Sicht trotzdem alles richtig gemacht, den Produktionsprozess effizienter genutzt sprich Kostenersparnis, positiver Nebeneffekt die Karten sind billiger und schneller geworden, wobei ich hier eher die 6950 meine, die 6970 hätten sie sich sparen können

die beiden Karten holen zwar nicht die Leistungskrone zurück aber sind immer noch gut genug um alles ruckelfrei darstellen zu können was es aktuell auf dem Spielemarkt gibt Highend Grafikkarten braucht man eh nur um sagen zu können meine Karte schafft x Punkte mehr im 3d Mark.

Die wenigsten Spiele nutzen die grössten Karten überhaupt aus, um genauer zu werden mir fallen da aktuell nur ein oder zwei Titel ein. Die meisten Neuerscheinungen die für 2011/12 angekündigt nutzen maximal DX10, das wird auch noch länger so bleiben bis eine neue Generation von Konsolen kommt. Selbst Blizzard die PC only Titel bringen nutzen nur DX 10 wenn überhaupt und die Grafik ist dabei eher Mittelfeld damit es auch auf älteren Rechnern noch spielbar bleibt.
Ich glaube die 6950 oder GTX 570 reicht für alles was es so gibt völlig aus, was sich jeder kauft ist eh nur Geschmackssache, wobei ich persönlich eher die 6950 bevorzugen würde da mehr Speicher wenn ich nicht schon die 5870 hätte, die etwas schlechtere gemessene Bildqualität nehm ich dabei in kauf, hab eh keine Zeit beim spielen mit der Lupe über den Monitor drüber zu gehen um die Unterschiede in der Grafikqualität zu entdecken :D
 
suessi22 schrieb:
@Micha83411

Du hast also das Fazit zur 570 nicht quergelesen. Dir fällt das durch die grüne Brille vielleicht nicht auf - aber der Schreibstil und Grundtenor ist einfach anders - und das bei einem gleichschnellen, genauso viel verbrauchenden, teureren Produkt - irgendwie seltsam, meinste nicht?
MfG

dann lies dir mal den fazit zur GTX 480 gtx 465 und zur gtx470 durch!

bei der gtx570 hat NV ja diesmal auch alles richtig gemacht oder etwa nicht?

Die grüne brille habe ich heute leider nicht gefunden
 
"Junge, lies mal den Test."

Wollte eigentlich 570 schreiben und hatte editiert, das wurde aber offensichtl. nicht gespeichert.

Zufälligerweise ist bei Metro in der Auflösung und bei 8x AA aber in etwa Gleichstand mit der 580. Insofern passt es hier rein zufälligerweise. Die GTX 470 ist da >20 % fps zurück bei gleichem Stromverbrauch und die GTX 580 verbraucht 50-80 Watt mehr.
 
Zurück
Oben