News Bilder & Benchmarks: HD 2900 XT 1.024 MB GDDR4

Wäre doch mal gespannt, wann ATI die Karte denn offiziell launcht. Und v.a. wie teuer das gute Stück sein wird. 1GB DDR4 treiben sicher die Kosten ein gehöriges Stück nach oben.

Trotzdem ist der 3DMurks natürlich alles andere als aussagekräftig. Die HD2900XT rockt ja auch mit 512MB schon ordentlich, bricht dann aber in Spielen mit AA/AF gehörig ein.
 
Zuletzt bearbeitet:
OMG; wie sich alle FANBOYS an dem Schwanzmark aufgeilen.
Unfassbar.............
 
AlphaGoku schrieb:
edit: bezüglich Stromverbrauch: DOOF?

Vergleicht mal die GTS 320 mit der 640er

Sind es mehr als 5 Watt?

Vergleich eine eine XT mit Standardtakt und eine mit vollem Takt (1100Mhz wenn ich es richtig im Kopf habe).
 
Es wird GDDR4 verwendet und ist stromsparender als GDDR3... Vergleich mal die X1950XTX mit der X1900XTX, die erstere braucht weniger Strom

edit:

Wobei die Verbrauchstests von CB sind fürn A****!

eine GTX braucht unter Last weniger Strom als eine X1900

Und im CF/SLI brauchen die GTX dann plötzlich 80 Watt mehr

hier wesentlich realistischere Werte: http://hartware.de/review_707_11.html
 
Zuletzt bearbeitet:
w0mbat schrieb:
@GeneralHanno & Nakai: Ja, ich meinte Tesselation Unit. Nur ist diese nicht nutzlos, da z.B. einige XBox360 Portierungen dieses Feature nutzen werden. Und ein wenig DX11 im seiner GPU ist ja auch nicht schlecht ;)

Okay.^^

Warum hat AMD/ATI nicht sofort dieses Modell ausgeliefert ? Somit wäre GTX und 2900xt HD gleich auf!

Kosten/Nutzen.

OMG; wie sich alle FANBOYS an dem Schwanzmark aufgeilen.
Unfassbar.............

Die Karte könnte tatsächlich an die GTX rankommen. Nur das ein Benchmark nichts über die Performance einer Graka aussagt.

mfg Nakai
 
Vielleicht sollte man der News anfügen dass bei den Crossfire-Benches die zweite Karte extrem untertaktet war. Sie läuft nur mit 500Mhz/500MHz, laut dem Besitzer der Karten hier. Außerdem wurde mit einem 16x und einem 4x PCI-Express Slot gebencht.
 
Warum ist eigentlich immer wieder der Stromverbrauch den Hardcoregamern so wichtig ?
Weil es bald nur noch das letzte Argument sein wird bei Nvidia zu bleiben, oder seid ihr wirklich so naiv und glaubt alle an diesen "Al Gore - die Welt geht morgen unter" Shit??

Wer Leistung will, der wird halt zur Kasse, das war schon immer so und wird auch immer so BLEIBEN und ob eine Grafikkarte nun 50 Watt mehr schluckt oder nicht, WAYNE ?

Aber Nein der Hardcoregamer denkt ja sowas von rational. Er will natürlich die Welt vor dem schlimmen Untergang retten und hollt sich eine 8800Ultra, ach was am besten gleich zwei....
sind ja immer noch sparsamer als zwei 2900HD XT´s :rolleyes:


Ich hoffe ich erlebe noch irgendwann diesen Tag, wo nicht über den Stromverbrauch von High-End Grafikkarten (vergleichbar mit dem verdammten Hummer H2, der 20 Liter + verbraucht )
geflamed wird.


MFG
 
wayne @3DMark das sagt nix ob nun 9000 oder 19000 alle Games laufen Sehr gut ;D
 
Ich hoffe mal das die Karte etwas wird. Gute Konkurenz belebt das Geschäft! Ob es am Ende eine nVidia oder ne AMD / ATi Karte
ist, ist mir völlig egal. Hauptsache Leistung / Preis / Stromverbrauch stimmt :D
 
Der Prozessor ist als ES gekennzeichnet, also Engineering Sample... da hat der Typ echt gute Quellen von wo er den neuesten Stuff bekommt... *auchhabenwollen*
 
genau eine 4GHz CPU benutzen hätte es nicht auch ein "normaler 6800 C2D" sein können :(
Das gäbe ein besseres Bild.
 
Ich fasse mal zusammen:

die Leistung kommt annähernd an das Nvidia Pendant heran, bei höherem Stromverbrauch, mehr Vram und einem HALBEN Jahr Entwicklungsvorsprung?

Was hat AMD/ATI da nur abgeliefert, schwache Leistung, schade.
 
Eine ökologische Katastrophe!

Wenn nVidia mit weniger Stromverbrauch mehr Leistung erzeugen kann, dann ist die Effektivität bei ATI aber am Hund.

Ich warte auf 2 Dinge:

1. Crysis

2. Grafikkarten und CPUs mit kleineren Strukturbreiten und niedrigem Stromverbrauch.

65nm sollten inzwischen zum Standard gehören und im HighEnd-Bereich erst recht!!

MFG

McDaniel-77
 
humanTE1 schrieb:
Braucht man wirklich schon so viel VRAM? Ich denke nicht...

Ich würde da nicht von Dir auf andere schliessen.

Hab den Rivatuner eigentlich immer an beim zoggen. Es gibt genügend Games die schon in 640x480 über 600MB Vram nutzen. Auf einem 30" Dell sind es inzwischen auch schon einige die über 700MB gebrauchen. An der Spitze liegen da ältere OGL-Games.

http://www.forumdeluxx.de/forum/showthread.php?t=239876
 
@müllermilch:

Die Welt geht nicht unter, allerdings sollte es einem schon zu denken geben wenn wir hier in Saus und Braus leben, während wegen unserem Energieverbrauch und damit verbundenem Schadstoffausstoß und Temperaturerhöhung die Menschen in der dritten Welt mehr zu leiden haben als wir.

Willst du deinen Enkelkinder mal erzählen: Mein PC war mir wichtiger als die Umwelt.

Und übrigens, der Klimawandel ist erwießenermaßen vom Menschen gemacht, kein seriöser Wissenschaftler sagt etwas anderes. Und wer sich einfach mal die Fakten anschaut, wird zum selben Schluss kommen.

Das die Medien das natürlich ins Unendliche Hochhypen ist klar. Es gibt berechtigte "Hypes", nicht jeder "Hype" (dummes Wort) ist gleich falsch.
Beim Klimawandel sollte man für Hype = vieldiskutiertes Thema einsetzen. (Klimawandel ist auch so ein extremes Wort :freak: )

Berechtigterweise, es geht uns schließlich alle was an!


Tut mir leid für Offtopic, hier noch was zum Thema:

Finds gut wenn Ati jetzt mal wieder bisschen anzieht, eine Monopolstellung seitens NVIDIA würde am allerwenigsten den Verbrauchern gut tun.

Allerdings sollte wie auch an den Prozessoren schon geschehen, mal am Stromverbrauch gearbeitet werden. Sind zwar Peanuts, aber Kleinvieh macht ja bekanntlich auch Mist.
 
Süß wie die ATI hardcorebubis ihre Felle verteidigen , die Nvidia erreicht denselben Wert eines Doppelkartenverbund dann bei 160-200W weniger Strom.
 
stimmte czuk zu.

so kann es sicher nicht sein, ATi hat keinen guten job gemacht
 
sorry nochmalls für Offtopic

@ mithraldur

Ich stelle jetzt eine Behauptung auf, die meines Erachtens noch untertrieben ist.

Ich behaupte, dass wenn auch alle Pcs auf der GESAMTEN WELT nur 10 Watt im Durchschnitt verbrauchen würden, es rein gar nichts an der globalen Erderwärmung ändern würde.
Es sind einfach die Dimensionen die im Endeffekt entscheidend sind.
Autos, Fabriken, .....................................................

Und sorry aber der Satz: "Mein PC war mir wichtiger als die Umwelt." ist eher ein Witz.....
 
w0mbat schrieb:
@GeneralHanno & Nakai: Ja, ich meinte Tesselation Unit. Nur ist diese nicht nutzlos, da z.B. einige XBox360 Portierungen dieses Feature nutzen werden.

Mit Sicherheit wird das nicht der Fall sein, da die Tesselationseinheit eben unter DX10 NICHT nutzbar ist. Egal was da von woher portiert wird.
 
Mit Sicherheit wird das nicht der Fall sein, da die Tesselationseinheit eben unter DX10 NICHT nutzbar ist. Egal was da von woher portiert wird.

Unter OGL sollte sie aber laufen ;)
 
Zuletzt bearbeitet:
Zurück
Oben