News Radeon R9 295X2 mit 500 Watt Leistungsaufnahme

oldi46 schrieb:
wie recht du hast besser kann man es nicht beschreiben :)

Nur weil die Produkte kommen bzw. die proklamierten auf dem Markt verfügbar sind, bedeutet das noch lange nicht, dass man Ihren Sinn nicht anzweifeln darf. Immerhin dient hierzu ein Forum. Sicherlich werden die Stromkosten den betreffenden Käufer nicht interessieren, aber muss das sein?

Es sollte auch keinesfalls Schule machen, den Strombedarf immer weiter in die Höhe zu treiben; da gefällt mir in dieser Hinsicht Nvidia besser. Dem mit zwei Hawaii noch die Krone aufzusetzen (gut, man kann ja auch zwei Karten im CF betreiben), ist in meinen Augen mehr als sinnbefreit (gilt voraussichtl. auch für die TitanZ)...
 
Nvidia beschneidet ihre Karten ja auch, zu Gunsten des selbigen. Bei AMD hingegen 1:8 Verhältnis per Bios. Bei den Pro 1:2
Würde Nvidia nicht derart drastisch Beschneiden, käme sogar ein höherer Verbrauch raus. Nur braucht das kein Gamer, also völlig in Ordnung.
Man kauft das, was man braucht, so einfach ist das :)


Beruflich und Gaming in einem angemessenen P/L bringt derzeit nur AMD.
 
Zuletzt bearbeitet:
Die Unvernünftigkeit ist allerdings nicht nur bei dieser Karte gegeben, sondern auch all jenen die sich derzeitige HighEnd Karten im SLi oder im Crossfire in ihren Rechner stopfen. Ich denke da gibt es so einige die 300 Watt Karten im Dualbetrieb benutzen und dann locker 600 Watt fressen nur um die FrameKönige zu sein. Ich hoffe nur das es nicht die gleichen "Vögel" sind die dann andere Leute wegen dem Klimawandel blöd von der Seite anmachen weil jenige einen V8 Motor im Auto haben. Letztere Fraktion verstehe ich persönlich sogar recht gut, also muss ich wohl auch Leute mit stromfressenden Rechnern verstehen. Jeder ganz nach seiner Begeisterung. Der Seitenhieb sollte zu AMD oder Nvidia gehen bezüglich des Verbrauchs, und was ist im Idle ? Muss eine solche Karte im einfachen Windows Betrieb dann 200 Watt fressen ? Ich denke nicht oder ?
 
@Nightmare25,

bei Medial Massen-Verblödeten gibt es ohnehin nichts zu Argumentiert. Ignorieren und fertig.
Es ist die Verhältnismäßigkeit.... wer fürs einkaufen um die Ecke, mit einem dicken V8er rum gurkt, und das Auto sonst nur rum steht, finde ich verschwenderisch, aber wer es sich leisten kann und will, habe ich nicht das Recht diesen Menschen zu diskreditieren oder in irgendeiner anderen Art schief anzumachen. Wer das tut, gehört weggesperrt.
 
Zuletzt bearbeitet:
@ nightmare normalerweiße greift da Zerocore power und der 2. Kern wird vom Netz genommen.. Klappt natürlich nicht wenn man ULPS aus hat weil man die eingestellten oc Werte auf beiden Karten will..
 
Lübke schrieb:
nur mal so als kleiner hinweis: den strom zieht die karte teilweise über die pci-e-schnittstelle. ist zwar nett wenn die netzteilstecker mehr aushalten, aber da alle anschlüsse gleichermaßen überlastet werden, würde bei 500 watt ein nicht ganz so teures mainboard wohl durchbrennen (siehe boardsterben bei 140 watt phenoms).

Über den PCIe kann sie doch weiterhin die max 75W ziehen. Oder auch gar keinen Strom. Geht auch alles über 2x 8pin wenn es sein muss...
Merkwürdige Logik.
 
Palmdale schrieb:
Es sollte auch keinesfalls Schule machen, den Strombedarf immer weiter in die Höhe zu treiben; da gefällt mir in dieser Hinsicht Nvidia besser.

Inwiefern? Nvidia hat den Stromverbrauch von Generation zu Generation seit 2000 eigentlich wie AMD erhöht.
Wenn Nvidia eine Dualkarte mit 375 Watt TDP und nur 2x 700 mhz Takt bauen will, dann ist das gut.
Der Sinn einer Dualkarte geht dann aber verloren, denn die sollte schon annähernd die Leistung einer Titan Black oder in dem Fall einer 290x bringen.

Und eine 290 @ 1000 mhz bringt die Leistung einer 290x@ 950mhz.
 
psYcho-edgE schrieb:
Wenn man CBs Preisspekulation glauben will, die Hälfte wie für ne Titan Z und bis zu derselben Leistung. Kann man da meckern?

Meckern vielleicht nicht, aber ich würde schon zu bedenken geben, dass man damit auf einen Teil von Nvidias cleverer Taktik herein fällt. Die benutzen die total übertriebenen Preise der Titan bewusst als (Pr-)Eisbrecher, die den Weg für Preiserhöhungen der folgenden Karten frei machen.

Das war schon bei der ersten Titan so. Die hat mal eben doppelt so viel gekostet wie normale Single-GPU-High-End-Karten von Nvidia und entsprechend verärgert wurde dieser Preis aufgenommen. Das hat aber bewirkt, dass die etwas später folgende GTX780, die zum Start immerhin ca. 150€ mehr kostete als die vorhergehenden Karten dieser Klasse, geradezu günstig erschien.

Bei der Titan Z hat Nvidia das jetzt sogar noch weiter getrieben. Die verdreifacht mal eben den Preis von vorherigen Karten dieser Klasse (GTX690, GTX590). Da ist es dann nicht verwunderlich, wenn danaben alle anderen Karten, auch die der Konkurrenz, "günstig" wirken, selbst wenn die 295X2 (mutmaßlich) auch mal eben 50% auf das Vorgängermodell draufschlägt. (Die HD7990 startete mit 999€, zeitweise war der Preis sogar unter 500€ gefallen.)
 
Zuletzt bearbeitet:
Hi,

Könnte es vielleicht doch sein, dass Nvidia ein bisschen weniger von der TITAN Z absetzten kann, wenn AMD die 295X unter 1000€ anbietet?

Preis/Leistungsgamer/Käufer werden bei solchen GPU´s wahrscheinlich sowieso nicht zuschlagen.
 
Herdware schrieb:
(Die HD7990 startete mit 999€, zeitweise war der Preis sogar unter 500€ gefallen.)
Je weiter man zurück blickt, desto billiger waren die Dualkarten. Afaik sind die 1000$ erst mit der GTX 690 gefallen. Davor hätte dich jeder schief angesehen, wenn du ihm Monate nach dem Release der Singlekarten 1000€ für eine Leistungsreduzierte Dualkarte abnehmen wolltest.

Eine 4870 X2 war mit 5xx$ z.b. nur wenig teurer als 2 4870, nicht leistungsreduziert und nur wenig später als die 4870 erhältlich.
 
Zuletzt bearbeitet:
Unyu schrieb:
Je weiter man zurück blickt, desto billiger waren die Dualkarten. Afaik sind die 1000$ erst mit der GTX 690 gefallen. Davor hätte dich jeder schief angesehen, wenn du ihm Monate nach dem Release der Singlekarten 1000€ für eine Leistungsreduzierte Dualkarte abnehmen wolltest.

Eine 4870 X2 war mit 5xx$ z.b. nur wenig teurer als 2 4870, nicht leistungsreduziert und nur wenig später als die 4870 erhältlich.

Manche vergessen schlicht und ergreifend, dass das Preisgefüge gänzlich anders ausgesehen hat. AMD hat mit der damaligen Preispolitik der 4870 NV in arge Bedrängnis gebracht. Ab der 5870 gab es auch bei AMD nur eine Richtung für GPU Preise: HOCH.
Das die Preise jetzt aussehen wie sie aussehen haben wir den Preisabsprachen von AMD/NV zu verdanken - gab da mal News drüber.

Den Sargnagel für günstige High-End GPUs hat dann die Preisakzeptanz der Titan draufgezimmert. Da geb ich Herdware recht.

Wenn NV nun für eine Titan Z 2999$ UVP verlangen kann, warum sollte AMD sich lumpen lassen? Die 1499$ sind denke ich nicht aus der Luft gegriffen.
 
Ja, die neue Preispolitik @ high end ist den damaligen Titan Käufern geschuldet.

Selbst 1000,- für ne Single Gpu war nicht zu teuer, um in rauen Mengen abgesetzt zu werden.

Unternehmensseitig alles richtig gemacht NVIDIA.
Die Suppe löffeln jetzt preisbewusste Käufer aus.
Mit high end ist's jetzt für den P/L Käufer entgültig vorbei.
 
High End hatte noch NIE etwas mit P/L zu Tun, ich bitte dich!
 
Mit den damaligen Gtx 780 um gut 420,- nach dem Preisrutsch war's noch halbwegs erträglich.

Oder ich erinnere mich an den AMD 5870 Release.
Schnellste Single Gpu zu Release für lange Zeit ab 350,-

War doch noch in Ordnung wie ich meine und ist nicht so lange her.
 
Artikel-Update: So viel sei verraten: Auch in unseren Redaktionsräumen ist ein besagter Koffer eingetroffen. Er kommt in der Tat von AMD und zeigt auf der Vorder- und der Rückseite eine Radeon-Grafikkarte. Details sind aber nicht zu erkennen – nennen dürfen wir sie nicht.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Die Datenbank von GPU-Z weiß allerdings schon mehr. Demzufolge sind auf der Grafikkarte trotz anderslautender Gerüchte zwei volle Hawaii-GPUs mit je 2.816 Shadereinheiten im Einsatz, die mit 1.018 MHz takten. Damit wäre die Radeon R9 295X2 minimal schneller als zwei Radeon-R9-290X-Grafikkarten. Ob dies den Tatsachen entspricht, werden wir voraussichtlich ab dem 8. April in Erfahrung bringen.
 
und wieso wird sie nicht gezeigt ;)? ich meine der Kofferinhalt (Schaumstoff) zeigt doch, dass die Bilder bisher alle echt sind. Der verweis auf GPU Z ist auch eine indirekte Bestätigung bzw. sogar Verbesserung der bekannten Daten.

Die erste Dual GPU Karte, die wirklich interessant ist. Allerdings nur mit einer richtigen Wakü, diesem AIO Mist kann ich nichts abgewinnen.
 
OMG :freak:

nach den verheißungsvollen Kommentaren von gestern, war ich absolut sicher, heute würde ein Test auftauchen.

Mich interessiert an der gesamten Karte eigentlich nur das Kühlsystem. Und zwar ob dort so eine halbgare Lösung wie bei Asus zum Einsatz kommt oder unter der Haube noch zwei Lamellenkörper stecken.
Bei den gewaltigen Dimensionen und dem Preis der Karte wäre alles andere ein Hohn.
Kann man das nicht "herausfinden" ohne das NDA zu brechen? :)

Edit:

Wie lautete eigentlich der Code für den Koffer?
Das wäre doch auch mal eine nette (bösartig-fiese) Sache. Koffer verschicken und den Zugangscode erst zum NDA Fall :D
 
CB hat einen leeren Koffer erhalten ??
 
@[F]L4SH

Ja ich hab auch mit dem Test gerechnet. :D

Da müssen wir uns dann wohl bis nächste Woche gedulden... :(
 
Zurück
Oben