News Zu hoher Leistungsbedarf: Keine HD 4890 X2

Autokiller677 schrieb:
tja dann bleibt die poleposition wohl weiterhin bei der GTX295:D^^
hat nVidia bessere arbeit geleistet als ATI^^

Du weißt schon, dass die HD4870 X2 schneller als die GTX 295 ist, oder? Zudem hat sie DX10.1.

Oder benched du die Karten in 800*600 :freak:
 
@w0mbat

du hast schon recht aber mit den Mickrorucklern bei ATI sind sie wider gleich auf:)

und bei 2560*1600 8AA sind beide unspielbar:rolleyes:
 
AMD erlaubt in Anbetracht dessen seinen Partnern, vielfältige Designs der Radeon HD 4890 anzubieten und die Taktraten nach belieben zu erhöhen

dieser satz stammt aus dem artikel.
wenn man das nicht weiß könnte man meinen aus der feder von nvidia
 
@ Kasmopaya

Ja, die Tabellen kenne ich. Man ist auf dem richtigen Weg (zumindest einige Karten von Nvidia und wenn man keinen 2. Bildschirm schließt :rolleyes: ...). Trotzdem ist der Weg bis hin zu wirklich "guten" Werten (die lege ich jetzt einfach einmal bei maximal 15 Watt fest und das ist schon nicht wirklich nicht niedrig gegriffen) bei Grafikkarten noch weit. Man muss sich nur einmal vor Augen halten, was sonst komplette Rechner oder Notebooks mit Bildschirm im Desktopbetrieb so verbrauchen.

Gruß aus Regensburg ;).

@ TheK

Vermutlich. Dann verstehe ich aber nicht, warum man Techniken wie HybridPower oder PowerXpress (bei AMD im Notebook funktioniert es ja schon) nicht wirklich etablieren will. Ideal wäre es ja, wenn die Techniken sich auch herstellerübergreifend kombinieren lassen würden.
So hätte jeder etwas davon. Der absolute Highend-Nutzer und derjenige, der nur gelegentlich ein Spielchen spielt, aber trotzdem eine potente Karte will.


Ich habe die Hoffnung noch nicht aufgegeben, dass ähnlich wie bei den CPU-Herstellern irgendwann ein Ruck durch den Markt geht und man plötzlich anfängt mit der Leistungsaufnahme zu werben.
Denn mit geringer Leistungsaufnahme entstehen nicht nur weniger Kosten durch den Stromverbrauch, sondern auch weniger Hitze und somit im Idealfall im idle stehende (oder zumindest sehr langsam drehende) Lüfter (wie es bei den CPUs mit CnQ und EIST ja schon fast gängig ist).
 
wer spielt den mit ner gtx295 oder 4870x2 in 1280x1024 oder 1650x1050, selbst da sind die mit AA und AF unterfordert, so ein gerät wird nur oberhalb von Fullhd mit AA/AF betrieben alles darunter ist völliger quatsch. niemand kauft sich nen ferrari, um höchstens ma ne kiste um die ecke zu holen. so ein teikl schreit danach, ans limit getrieben zu werden
 
@The Witcher: Du glaubst doch nicht selber was du schreibst oder?

Wer eine 4870X2 kauft zockt bestimmt nicht mit kleinen Auflöungen und bestimmt auch nicht ohne AA.

Also kannst du die Werte unterhalb von 1680x1050 und ohne AA ausschliessen.

Und dann ist die ATi aber schneller.
 
Green IT wäre doch auch so gegeben. Wichtig ist, das die Volumenmodelle im verbrauch sinken, solche exoten haben nicht die reichweite, das deren verbrauch großen Einfluß auf den gesamten markt nimmt
 
Ich denke das der thermische Faktor auch eine Rolle spielt und kräftig an den kosten zerrt. Den sowas ist auch nicht einfach zu kühlen wenn man später auch noch übertaktete Karten auf den Markt bringt.
 
"Zu hoher Leistungsbedarf: Keine HD4890X2"

Die CB ergänzt mit der Bemerkung, "vorerst" - also nicht endgültig gestorben würde ich sagen.
Kann mir gut vorstellen das von der HD4890X2 ein exclusives Modell erscheinen wird.
Übrigens: lt. Fudzilla wird die GTX295 demnächst auf 1 PCB Platine präsentiert...
 
w0mbat:

Du weißt schon, dass die HD4870 X2 schneller als die GTX 295 ist, oder? Zudem hat sie DX10.1.

aeh ne ich wusste das nicht.... die Tests bei AnandTech,TomsHardware,X-bit Labs usw sagen das Gegenteil.
Ist aber auch egal weil das eh nur theoretische Werte bei diesen Karten sind. In der Praxis haben alle Dual GPU Karten teilweise heftig mit Microrucklern zu kaempfen und sind zum ernsthaften Zocken deshalb ungeeignet.Die Ruckler wirken wie in kleines Netzwerk-Lag zu ISDN oder gar Modem-Zeiten.Trotz ueber 100 fps im Bench lassen es diese winzigen Aussetzer wie unter 30 fps oder weniger aussehen.
Bei der GTX 295 wurden diesbezueglich angeblich Fortschritte gemacht ,verschwunden ist das Problem aber auch bei dieser Karte nicht.
 
Fred Fredburger schrieb:
Naja ich halte das für den falschen Weg den ATI da beschreitet, noch mehr Saft und noch wärmere Karten zu bauen kann nicht Sinn der Sache sein.

Eben, wer braucht den unbedingt noch mal ein Geschwindigkeitsupdate von 10 Prozent bei der 4890, hätten se mal lieber ne Karte, die leistungsmäßig mit der 4870 gleichauf liegt gebracht und dafür deutlich energiesparender ist. Dann hätte ich es mir vielleicht überlegt, aber so....
 
Green IT wäre doch auch so gegeben. Wichtig ist, das die Volumenmodelle im verbrauch sinken, solche exoten haben nicht die reichweite, das deren verbrauch großen Einfluß auf den gesamten markt nimmt

Da muss ich zustimmen. Diese Karten verbrauchen zwar unmengen Strom, kommen aber selten vor und repräsentieren definitv nicht den Durchschnitts-Gamer-PC.

Trotzdem macht mir der allgemeine Trend Sorgen. Zitat aus dem Artikel von HT4U.net, dessen Link Kasmopaya bereits verlinkt hat:

Prozessoren verbrauchen immer weniger Energie, für Netzteile entstehen 80-Plus-Zertifikate, Mainboard-Hersteller werben plötzlich mit besonders qualitativ hochwertigen Wandlern - im gleichen Atemzug scheint hingegen die Leistungsaufnahme von Grafikkarten keine Grenzen zu kennen.

Wie weit werden die wohl noch gehen um dem Kontrahenten die Leistungskrone abzunehmen? Muss man sich bald etwa einen Dieselgenerator aufstellen nur um die Grafikkarte zu befeuern? Etwas übertrieben ^^ Aber wenn die Entwicklung so weitergeht könnte das tatsächlich Realität werden.
 
300W sind unverantwortlich, gut das diese karte nicht kommt.
300W sind die obergrenze von dem was ein gamingsystem (insgesamt!) verbrauchen sollte.
 
Verbrauchte die 3870x2 nicht auch teilweise über 300 watt´? oder hab ich das Falsch in Erinnerung? Und ich bin auch der Meinung wer sich eine 4890x2 kaufen würde wär auch bereit den Verbrauch zu zahlen...
 
kickloch schrieb:
Eben, wer braucht den unbedingt noch mal ein Geschwindigkeitsupdate von 10 Prozent bei der 4890, hätten se mal lieber ne Karte, die leistungsmäßig mit der 4870 gleichauf liegt gebracht und dafür deutlich energiesparender ist. Dann hätte ich es mir vielleicht überlegt, aber so....
Ich stimme Dir zu 100% zu! Diese Karte wird dann doch nichts - mal sehen, was Nvidia so macht bzw. die 40nm Karten von beiden.
 
Zurück
Oben