News Gigabyte, Sapphire und MSI zeigen Radeon HD 6990

sompe schrieb:
So oft ich den Vergleich auch lese....der wird wohl nie sinnvoll werden. :D
Die Hardware wird im laufe einer vergleichsweise kurzen Zeit durch neue Fertigungstechniken immer leistungsfaehiger und/oder sparsamer.
Ein Umstand den man bei der Automobilindustrie in dem Sinne kaum hat.

Frisst die Hardware zu viel, dann ist sie mit der Leistung einfach zu frueh am Markt. Dann wartet man 1-2 Jahre und bekommt meist die Eckdaten die man haben wollte.

Das mag sein, trotzdem ist es ein und der selbe Umstand, dass viel Leistung auch viel Energie benötigt. Die Leute wollen eine sparsame Karte? Ich hab im Keller noch eine ATI Rage Pro liegen, braucht keinen Stromstecker, kommt passiv gekühlt daher, wird nur vom PCI Bus mit Energie versorgt. Entweder man möchte viel Leistung haben und ist dann auch bereit mit den Negativfolgen zu leben oder man lässt es. Anders wird es nie möglich sein. Die Hardware wird nicht sparsamer, sie wird Verbrauchsintensiver oder hält das gleiche Level. Das was mit den 28nm GPUs eingespart werden könnte wird sofort wieder in Form von neuen Schaltungen ins DIE gesteckt. Am Ende verbraucht eine Grafikkarte der neuen 28nm Generation auch wieder 180W oder 290W mit Dual GPU.

Anders ist es bei Autos auch nicht, das was man durch neue Motoren hätte einsparen können frisst heute die Sonderausstattung, es gibt kaum noch Autos unter 1,5t selbst ein Mini wiegt 1,4t. Mein erstes Auto war eine Kadett Limousine Bj 91, die wog 920kg und verbrauchte 5,5l/100km (Super Benzin). Das ist weniger als den meisten aktuellen Autos mit modernster Motorentechnik heute. Ich weiß der Vergleich ist unzweckmäßig, aber er spiegelt das wieder was auch im Grafikkarten und CPU Markt zu beobachten ist.
 
Zuletzt bearbeitet:
sompe schrieb:
Frisst die Hardware zu viel, dann ist sie mit der Leistung einfach zu frueh am Markt. Dann wartet man 1-2 Jahre und bekommt meist die Eckdaten die man haben wollte.

Das ist ein sehr interessanter Vergleich der auch so stimmen mag.

ABER: (:D)


Eine Dual-Chip-Karte ist auch kein Mittelklassewagen, sondern die Supa-Dupa-Leistungsklasse.
Also wäre eine HD5770 der Golf
die HD6870 ein Passat
und die HD6990 wäre dann einem Hummer-SUV gleichzusezten.

Letzterer wird nur ein paar mal in BRD verkauft, ebenso wie die HD6990, deswegen ist der verbrauch von beiden, Karte und Auto, zu vernachlässigen.

Doch dein trotzdem sehr passender vergleich, welchen ich zitierte findet trotzdem Anwendung. Oder besser gesagt, er hätte Anwendung finden müssen (der Logik nach).

Nämlich bei GTX480&470 wäre er gültig gewesen. Da hätte man einfach mit der Leistung und der dazugehörigen Leistungsaufnahme ein bischen warten sollen. Mit der GTX5xx hat man dann die Eckdaten erreicht, welche man wohl ursprünglich mit der 4xx erreichen wollte.
Aber eine Generation einfach so verschieben geht im Grakamarkt nicht, wenn sein Unternehmen (im Prinzip) nur von einem einzigen Chip abhängig ist --> hier wars der GF100

Bei Autos und Motoren mag das ja gehen. Autohersteller arbeiten meist an einer vielzahl von Modellen und Technologien gleichzeitig. Doch bei Grafikherstellern ist dies weniger der Fall.

Fazit:
Seht also die Dual-Karten als das an was sie auch sind.
Der Hummer unter den Grafikkarten. Verbrauch egal, Wow-Effekt und Leistung unvergleichbar!
 
OMG.

Solang diese µRuckler nicht behoben sind machen die da eh kaum Cash mit.Das meiste Geld machen die mit Mid-Range Grakas.

Viel schneller als eine HD5970 wird sie nicht.Am Anfang großen Wind machen und dann am ende ist die leistung nur minimal besser.

Wie Herbst 2010 großen Wind machen wie schnell die 6970 wird und dann nichtmal durch die Bank 20% schneller als die 5870 dem vorgänger.

Ohne neuem Fertigungsprozess geht da nicht mehr viel.
 
gehen wir mal rein theoretisch davon aus das sie aus zwei 6950igern besteht:
klick

minimal schneller sieht anders aus ... CF und SLI bringen viel, allerdings muss man mit den risiken leben ... einige haben probleme und können machen was sie wollen ... microruckler werden spätestens dann bemerkbar wenn man niedrige fps hat (was zur zeit selten vorkommt ^^) ... grafikfehler können vereinzelnt auftreten, müssen sie aber nicht ...
hatte bisher 2 CF systeme und bisher nie probleme ... die zweite 5850 hat mich knappe 100€ nur gekostet und hat noch 1 1/2 jahre restgarantie. hier ein vergleich mit der gtx580:
klick

soviel mehrleistung für 90€ ... mit natürlich allen verbundenen risiken und nachteilen ^^ ich werde sie weiterhin eingehen bis es schief läuft :-D

bei SSD's läuft es ja ähnlich .... soviele meldungen das die absterben .... es gibt aber auch leute die haben ihre ssd's seit jahren und keine probleme ... nix mit auslagern von temp files oder pagefile, etc. ...
 
Ich habe ja mal behauptet, daß ein System mit 2 Grafikkarten nicht das doppelte verbraucht im Vergleich zu einem System mit nur einer Karte.

Zitat:
Zitat von Sidewinder9000 Beitrag anzeigen
Naja, 2 Grafikkarten im CF / Sli-Modus verbrauchen nicht doppelt soviel Leistung wie eine einzelne, aber ob MAX 375 W bei beiden karten realisierbar sind ? DAS wäre mal interessant.

Daraufhin ein User:
"Natuerlich fressen 2 Karten das doppelte von einer. (Last)
Warum sollte das auch nicht der Fall sein?"

Hier mal zur Bestätigung:

https://www.computerbase.de/2011-01...e-gtx-500-sli/23/#abschnitt_leistungsaufnahme

Logischerweise ist der Verbrauch des Komplettsystems entscheidend. Und in der Hinsicht hatte ich also recht :p:cool_alt:
 
Zuletzt bearbeitet:
Hö? Wie kannst du aus diesem Diagramm irgendwas herauslesen?
Du weißt weder was das Komplettsystem ohne Graka verbraucht, noch die Leistungsaufnahme der Karte only.
 
In der Praxis ist es völlig irrelevant, was eine oder zwei Karten oder das System ohne Karten an Strom verbrauchen.

Oder schliesst man nur 2 Grafikkarten an das NT an ? Ohne die restliche Hardware ? Genau - nein.

Wenn die Stromrechnung ins Haus flattert, ist nun mal der Verbrauch des Komplettsystems, das entscheidende Kriterium.
 
Also ich kann es kaum abwarten bis die 6990 auf den Markt kommt. Mit diesen Daten wird sie die HD 5970 noch in den Schatten stellen. Endlich eine High-End-Karte nach meinem Geschmack:D
 
Wers braucht...
Mir reicht meine 6950/55 volkommen aus. Die Leute die so eine Karte brauchen, haben das Geld dafür. Auch für deren Stromverbrauch.
Zu der TDP: Die TDP bezeichnet die Wärme die maximal abgeführt werden sollte um den Chip zu kühlen, ist bei Prozessoren also idR vn größerer Bedeutung für den normaluser als bei der GraKa. Denn beim Grafikkartenkühler steht ja drauf wofür er geeignet ist (somit wird natürlich auch bestätigt dass er die Abwärme abführen kann), bei CPU Kühlern wird oft nur die TDP Angabe verwendet. 95W CPU? Mindestens einen 95W Kühler.
In der Regel liegt der reale Stromverbrauch und somit auch die Wärmeentwicklung (teils deutlich) darunter. Wobei ich auch mal von Ausnahmen gehört habe, ist aber schon ne Weile her.
Ich denke dass NV sich sicherlich die Leistungskrone ergattern wird, bei einer "leicht" höheren Leistungsaufnahme. Wenn ihr mich fragt: mindestens 450W TDP, eher 500. Die Performance leigt dann aber auch bis zu 10% über Antilles ;)


Nun ein bisschen OT:
Wäre es nicht bloß unwesentlich teurer anstatt einer Dual-GPU einfach eine "Monster"-GPU mit doppelter Shaderzahl, noch etwas höherem Takt (900 Mhz?), doppelt so breitem SI und doppelten Speicher zu produzieren? Also im Grunde ein Cayman XXL. Dieser Chip würde vielleicht 50% mehr Strom als eine 6970 brauchen, wäre aber auch gut doppelt so schnell, einfacher zu kühlen als 2 Caymane und hätte keine Mikroruckler mehr. Mal ganz davon zu schweigen dass dieses Biest auch wirklich auf 4 GB (6990: 2GB) zugreifen könnte. Und weil man gerade schon dabei ist etwas neues zu entwickeln kommt noch ein Zweiter Grafikchip (z.B. 5750?) für den normalen Betrieb drauf, so dass der Stromfresser nur bei Leistungsintensiven Anwendungen aktiviert werden muss. Fertig wäre der Fermi-Killer.
Außerdem könnte man damit noch einige Karten in dem Bereich zwischen der 6970 und 6990 streuen indem man die Teildefekten oder nicht so guten Chips verwertet und so den High-End Bereich in nie dagewesener Breite abdeckt. Zugegeben, dass Namensschema müsste dann nochmal angepasst werden, 6978,6980,6985,6987 und 6990 wären etwas merkwürdige Namen.
 
Angeblich soll die 6990 im Durchschnitt bis zu 65 % schneller sein als eine GTX 580

Und wenn man sich mal die Benchmarks von 2 HD 6970 als Crossfire (was in etwa der Leistung der 6990 entsprechen wird) im Vergleich zu den Benchmarks der GTX 580 anschaut, könnte das sogar stimmen.

Was anderes habe ich allerdings auch nicht erwartet.
 
Thanok schrieb:
Wäre es nicht bloß unwesentlich teurer anstatt einer Dual-GPU einfach eine "Monster"-GPU mit doppelter Shaderzahl, noch etwas höherem Takt (900 Mhz?), doppelt so breitem SI und doppelten Speicher zu produzieren?

Nein. Die Entwicklung eines solchen Chips würde wesentlich teurer ausfallen, als zwei schon existierende Chips auf ein neu designtes Borad zu verbauen. So ein Platinenlayout ist in der Entwicklung wesentlich einfacher als einen Monsterchip in Silizium zu realisieren.
 
Zurück
Oben