News Bilder, Daten und Erscheinungstermin zur HD 5970?

bin mit meiner gtx295 ganz zufrieden.. und lags welche von einer doppel-kern-graka kommen kenne ich dank sli-aa auch nicht
 
Unyu schrieb:
Ball_Lightning
Du hast erkannt, das das beste Produkt mit RV790 billiger als das beste Produkt mit Cypress ist. Gleichzeitig ist letzteres das bessere Produkt.

Die Wörter "beste" und "bessere" kannst du nach belieben mit Wörtern wie "schneller" oder ähnliches ersetzten.

Die Wörter RV790 und Cypress ersetzt du mit Cypress und Fermi:
Du hast erkannt, das das beste Produkt mit Cypress billiger als das beste Produkt mit Fermi ist. Gleichzeitig ist letzteres das bessere Produkt.

Wo genau klemmst den, das du mich nicht verstehst?

Unyu schrieb:
Screemer
Genausogut könntest du auf die Ausprungsausage springen.
Woher kann Ball_Lightning wissen, wie gut oder schlecht Fermi ist? Denn nur anhand dieses Wissens kann er urteilen, das Fermi schlechter dasteht.

Ich glaub eher dass du nicht "verstehst" ;)
Meine Güte... ich hab doch von Anfang an vermutet, dass wir aneinander vorbeireden.

Ich hab weder vom Preis noch von der Leistung gesprochen sondern NUR von den Yields.

Ich rufe meinen Ausgangspost in Erinnerung:

Pascal67 schrieb:
Wieso die Radeon 5850/5870 nochnicht massenhaft zur verfügung gestellt wird sollte hier jedem klar sein, AMD machts schlau sie Produzieren nicht zuviel um nicht aufeinmal,auf einem teil der karten sitzen zu bleiben falls die neue Nvidia serie unverhofft erscheint

So ein Schmarrn ;) Glaubst du wirklich, dass diese Situatuon AMD gefällt? Gerade jetzt könnten sie bei guter Liefersituation viel Boden auf Nvidia gut machen, aber so gehts leider nicht. Obwohl dann eh Nvidia mit dem G300 gleich bzw sogar schlechter dasteht (da mehr Transistoren). Für die Kunden alles andere als zufriedenstellend, aber was soll man machen wenns bei TSMC scheinbar gewaltige Probleme gibt.

Also nochmal was ich meinte:
Yields RV790 > Cypress > Fermi
Es ist mir bewusst, dass das in Bezug auf den Fermi auch nur Spekulation ist, aber Aufgrund der Komplexität des Chips ist davon durchaus auszugehn.

Ich hoffe das ist jetzt geklärt.
 
Unyu schrieb:
Screemer
Genausogut könntest du auf die Ausprungsausage springen.
Woher kann Ball_Lightning wissen, wie gut oder schlecht Fermi ist? Denn nur anhand dieses Wissens kann er urteilen, das Fermi schlechter dasteht.
eben. das war auch auf die allgemeinheit bezogen. sorry, wenn du dich so direkt angesprochen gefühlt hast. ich steh ja selber auf spekulationen, aber über eine karte zu spekulieren über die gerade mal ihr theoretischer aufbau bekannt ist und sonstige specs noch völlig fehlen, könnte man halt langsam einfach sein lassen. mit dem letzten post von ball_lightning sollte sich das ganze sowieso erledigt haben. irgendwie bekommst du viel zeug dauernd in den falschen hals. fühl dich doch mal nicht andauernd angegangen.
 
Zuletzt bearbeitet:
alffrommars schrieb:
wer brauch die grafikleistung?
selbst wenn die karte cuda könnte ... welcher oto normalverbraucher brauch so ne leistung :freak:

Eine Frage die man immer wieder jedes Jahr stellen kann. Und wieder und wieder und wieder und wieder ... :rolleyes:

Aber ich muß sagen, geiles Gerät !

Andererseits bin ich kein Stromverbrauchfan.

Wer es sich finanziell leisten kann, soll sich das Teil zulegen. Alle Anderen sind auch mit einer 5870 gut bedient. ;)
 
Hmm, auf wieviel die wohl im Idle-Modus runtergeht?
Wenn die im 2D-Modus eine Hälfte komplett abschaltet und den Rest soweit runtertakten kann wie alle anderen 5xxxxer Karten auch, dann könnte die doch im Idle auch auf 40 Watt oder so kommen richtig?
Man spielt ja schliesslich nicht ununterbrochen mit maximaler Rechenpower.
 
Stahlseele schrieb:
Wenn die im 2D-Modus eine Hälfte komplett abschaltet und den Rest soweit runtertakten kann wie alle anderen 5xxxxer Karten auch, dann könnte die doch im Idle auch auf 40 Watt oder so kommen richtig?

Dann wären wir eher an einer HD5870 (20W). Sprich wenn beide laufen wären wir bei den 40W ^^
 
Und was sagen die Glaskugeln denn heute so?
 
@ 0x4A6F686E: klar, bei einer HD5870 zum Beispiel schon, aber bei so einem Doppel-GPU-Crossfire-Monster wägen potentielle Käufer nicht ab ob die Karte (z.B.) einen etwas zu hohen Stromverbrauch hat.
Wer sich so eine Karte kauft will nur Leistung, Leistung, Leistung. ;)
 
Warum zum Teufel mussten die sich eigentlich schon wieder neue Namens-Konventionen einfallen lassen?
Warum das neue Schlachtschiff nicht 5870x2 nennen, wie vorher die 4870x2?
Und warum gibt es keine 5890x2 mit 2x2GB GDDR3 RAM und schnellerem Prozessor?
Fragen über Fragen.
 
1. Weil GDDR3 zu lahm ist und 2. weil die TDP dann schwerlich unter 300W zu halten ist.
 
Treffender kann man es nicht sagen...

Die Entwicklung ist schon gut gewählt wie ich finde. Alles andere wäre nur mit angezogener Handbremse oder eher ein Rückschritt in Verbrauche und Hitzeentwicklung.
Die richtige Neuerung in der Architektur ist ja für Ende 2010 angekündigt...solange tuns die neuen günstigen ATIs wohl locker! ;)
 
Ich glaub kaum, dasses viele Modelle geben wird.
Schuld ist wiedermal das Single Sourcing bei Nvidia und ATI.
Aber ich glaube kaum, dass Nvidia hier irgendeinen Vorteil draus ziehen kann, weil deren Chips ja noch kompleer und größer sind, von daher kann man sich jetzt schön auf "Warten" einstellen.
 
Stahlseele schrieb:
Warum zum Teufel mussten die sich eigentlich schon wieder neue Namens-Konventionen einfallen lassen?

Aus reiner Marketingüberlegung.
Die Bezeichnung X2 hat einfach einen zu schlechten Ruf und wird bei den Kunden als Synonym für Microruckler,Skalierungs- und Stromfresserproblematik angesehen.
Da man aber nichts gegen diese Probleme tun kann wird halt einfach das Namensschema umbenannt.

Und warum gibt es keine 5890x2 mit 2x2GB GDDR3 RAM und schnellerem Prozessor?
Fragen über Fragen.

Geplant war ja auch eine HD4890X2 welche aber nicht mehr das Licht der Welt erblicken wird.
Dazu ist einfach die Inkubationszeit von Hardware einfach zu kurz um solche teuren Exoten auf den Markt zu werfen.

Affenkopp schrieb:
Die richtige Neuerung in der Architektur ist ja für Ende 2010 angekündigt...solange tuns die neuen günstigen ATIs wohl locker! ;)

Abwarten.
Währe nicht das Erstemal das solche Vorabvisionen deutlich nach Hinten geschoben werden.
 
@elastic:

Dass früher oder später ne HD 5890 auf den Markt kommt, ist wahrscheinlich. Doch bei einer HD 5990 (mit 2x 5870 nehm ich an) gäbe es mit der jetzigen Architektur Probleme mit der Stromversorgung...
ATI hat bisher keine der beiden angekündigt.
 
Zurück
Oben