News HD 5970: Grafikmonster mit viel Luft nach oben?

FredKune schrieb:
@Screemer:

Crysis Warhead bei 2560x1600 8xAA/16xAF bringt die Karte auf DEUTLICH unter 40fps und das Spiel ist nicht mehr sonderlich frisch. Wie das nächstest Jahr mit Crysis 2 aussieht kann man zwar nur spekulieren, aber schneller wird es sicherlich nicht. Dafür wird zuviel an der Engine geschraubt.
genau aus dem grund hab ich "kaum ein spiel" geschrieben. mal davon abgesehen, dass kaum einer nen 30''er hat, auch nicht unter den x2-usern.
 
Bezüglich des Energiebedarfs: Wer sich einen Sportwagen kauft, darf auch net auf den Verbrauch achten. Genau so verhält es sich hier ja auch.
Wer weniger will muss Abstriche machen. Fertig. Ich hoffe ja mal, dass es nicht so ein Fön wie die 4870X² wird ;)

bye Hübie
 
@FredKune
Die neueste Crysis Engine macht sogar rein von der Optik her einen Rückschritt. Schau dir mal die Vergleichsvideos an. Da findste auf youtube etc reichlich von. Also an der neuen Cry engine wirds sicher nicht scheitern. Natürlich wird Crysis in solchen extremen Auflösungen auch die neusten Grafikkarten in einen Bereich bringen, der kaumnoch spielbar ist.

@hübie
Wenn ich maximale Leistung will bin ich auch bereit dafür eine entsprechende Stromrechnung zu zahlen. Allerdings solle der idle Verbraucht immernoch niedrig bleiben. Solange das gegeben ist wäre mir der Verbrauch im 3D fast egal da der Rechner ja sowieso die meiste Zeit im Windows verbringt.
 
..... nur 2 GB DDR5 mit 256bit *kotz* nur weils wesentlich teurer isst größere Speicheranbindungen zu realisieren.


FAIL

Leistung für tolle Sachen, aber nicht genug RAM für große neue DX11 Texturen bei größeren Auflösungenwie FullHD und mehr. Tztztz...
 
Zuletzt bearbeitet:
Auf der Folie steht aber:

Memory Bandwidth 256GB/s bei niedrigeren Takt, das würde für mich bedeuten das die Karte ein 512Bit SI hat.
 
Zuletzt bearbeitet:
buntstift23 schrieb:
..... nur 2 GB DDR5 mit 256bit *kotz* nur weils wesentlich teurer isst größere Speicheranbindungen zu realisieren.


FAIL

Leistung für tolle Sachen, aber nicht genug RAM für große neue DX11 Texturen bei größeren Auflösungenwie FullHD und mehr. Tztztz...

Wie manche immer alles gleich herunterspielen müssen, weil der ein oder andere Aspekt nicht den eigenen Erwartungen entspricht. 2GB war bisher das höchste aller Gefühle und Tests haben zu genüge gezeigt, das mehr Speicher ersteinmal nur einen nicht erwähnenswerten Vorteil ergeben. Bestes Beispiel ist die GTX 295, die selbst mit ihren - du da oben würdest sagen "mikrigen" - 896MB Speicher kaum festestellbare Nachteile hat, auch in Auflösungen bis 1920x1200.
Es ist immer das selbe - erst wird wegen des 256bit Interfaces gejammert. Und? Solange der Speicher das mit Geschwindigkeit kompensiert, wozu braucht man denn mehr? Selbiges gilt für die Speichergröße.

buntstift: Nächstes mal denkste einfach nach bevor du solchen dumpfen Blödsinn quatscht. Mit Halbwissen kannste bei deinen Freunden prahlen - solang die nicht merken, wie wenig Substanz dieser Stuss hat, den du verbreitest.

K3ks schrieb:
@ über mir: effektiver Takt * Anbindung = Bandbreite :rolleyes:
Ggf kommt auch noch eine Version mit 4gb raus.

Link? Mach mich schlau. Welches sind jene gegebenen Fälle? Achso, das vermutest du nur, interessant..


Tut mir leid, aber nach unzähligen Nullkommentaren mus der ein oder andere einfach dran glauben, also nehmt's nicht persönlich, aber euch zu Herzen..



Gruß bei Kaffee und Kippe,


kai
 
Das Teil soll 30 cm lang sein die bekomme ich garnicht bei mir rein,neues Case wird nötig.denke mal NVIDIA wird die auch nicht mit fermi schlagen können.reicht denn für die Karte ein Quad 6600 @3,4 GHz überhaupt noch?
 
CompuJoe schrieb:
Auf der Folie steht aber:

Memory Bandwidth 256GB/s bei niedrigeren Takt, das würde für mich bedeuten das die Karte ein 512Bit SI hat.

Schon vergessen? Es ist eine X2. In dem Fall: 256/2 = 128GB/s
Die HD5870 hat 153,6GB/s
Die HD5850 mit gleichen Speichertakt (wie die HD5970) hat ebenfalls 128GB/s.

Ist also 256Bit.


Wenn auf Blatt für die HD5870 1GB oder 2GB drauf steht, heisst es für die HD5970 bestimmt auch 2GB oder 4GB. So schätze ich, dass eine HD5970 mit 4GB rauskommen wird, was unbedingt von nöten ist.
 
Hoffe das man den Chip /die Chips sind ja zwei auf Standard Takt hochtreiben kann um eine richtige hd5870x2 (hd5970) reichen kann. den da hätte man viel schwellen überschritten.
 
Hätte da ne Verständniss-Frage:
Wenn die Karte unter Last 294 von maximal 300 Watt verbraucht, wie soll man die Karte dann gescheit übertakten können ohne das der Stromverbrauch ansteigen würde? Höher als 300 watt geht doch nicht, gell?
 
Zuletzt bearbeitet:
Stimmt dann müsste eine übertaktete Karte beim Furmark sehr schnell einbrechen.
 
MisaMisa schrieb:
die Karte ist sinnlos man kann sie doch schon jetzt zusammen bauen Quad Crosfire und SLI funktionieren sowieso nicht vor allem Crossfire. Ich würde auf 3 Way SLI gehen.

Die Dummheit hat gesprochen. :(

Warum willst du eine Dual GPU Karte aus 4 GPUs zusammenbauen?
SLI und Crossfire funktioniert.
3 Way SLI mit 285GTX hätte wahrscheinlich bei hohen Settings eine ähnliche Leistung, würde aber VIEL mehr kosten und mehr Strom verbrauchen.
Warum schlägst du ein Crossfire und ein SLI Gespann vor, wenn es gar nicht funktioniert.



mfg
 
guten Morgen,


also mir kommt wenn ich da 300Watt lese sofort ein Bild wieder in den Sin.
Mist ich find es gerade nicht, das von der Geforce die man als Fön benutzen konnte:D

Bin ja mal gespannt wie die, die Kühlung umsetzten.
Akzeptable Temperaturen(bei guter Geräuschkulisse) gibt es da ja sicher wieder nur mit einem anständigen Wasserkühler.
 
Wenn man bedenkt, dass der Kühler nicht nur 300W sondern ja angeblich sogar 400W abführen kann, will ich nicht wissen, was da für ein Lüfter reinkommen soll. Das wird dann wohl die erste Karte sein, bei der man lautstärkemäßig Probleme mit den Nachbarn bekommt.

Mac_Leod schrieb:

Ein Morgen kann vieles sein, aber nicht gut... :p
 
@dorndi

ja aber bei einem quad ocing ist es nicht so knapp. der 8pin kann mit 150Watt betrieben werden. Und ein Quad unter Standardtakt ist nichtmal annähernd an den 150 Watt (TDP), sprich rein von der maximalen Belastung des Anschlusses ist genug Platz für OC. Wenn die 5970 aber schon unter Standardtakt unter Last knapp 300 Watt verbraucht, dann ist ja rein vom Anschluss her wenig Luft nach oben.
Das einzigste was ich mir noch vorstellen kann ist, dass die TDP von 294 garnicht wirklich annähernd erreicht wird. Und ebenfalls bekannt ist, das der Anschluss je nach Qualität vom Netzteil usw. schon Überbelastet werden kann. Kann von Fall zu Fall besser, noch besser oder schlecht gehen.
 
Zuletzt bearbeitet:
Ja selbst über 6 Pin + 8 Pin Spannungsversorgung wird man 350-400W jagen können, vorrausgesetzt die Spannungsversorgung auf der Karte und des Netzteils macht das mit. Aber dafür wird sie wohl ausgelegt sein. 400W Luftkühler sollte ganzschön krachmachen, 42W idle sich dagegen sehr leise kühlen lassen.
Meine HD4850 rannte auch mit 1,38W bei 900 Mhz, mit lediglich einem 6 Pol. Nur die Wandler auf der Karte werden zornig heiß, vom Anschluss her aber kein Problem. Immerhin braucht die Karte mehr als eine HD4890.

Mit Wasserkühlung sollte 1000Mhz kein Problem sein. Die Frage ist ob man das braucht und ob man sich die Multi-GPU Probleme antun will.
Ich habe für mich nach dem testweisen Einbau einer 2. HD4850, dafür entschieden nicht auf MultiGPU in der jetzigen Form zu setzen.
 
Screemer schrieb:
wie läuft das eigentlich, wenn die karte außerhalb der pci-e specs läuft? also ich meine wenn sie mehr als 1x 6pin + 1x 8pin + 1x pci-e-slot = 75Watt + 150Watt +75Watt = 300Watt benötigt? wo bekommt sie den saft her? wie hoch sind die einzellnen pci-e-stecker belastbar?

Schaffe89 schrieb:
Dann werden hat die Spezifikationen gesprengt. Ist doch egal^^ Den Strom bekommt sie trotzdem.

knuF schrieb:
Hätte da ne Verständniss-Frage:
Wenn die Karte unter Last 294 von maximal 300 Watt verbraucht, wie soll man die Karte dann gescheit übertakten können ohne das der Stromverbrauch ansteigen würde? Höher als 300 watt geht doch nicht, gell?

Ja ein gutes MArken Netzteil liefert bischen mehr als draufsteht, aber pauschal kann man das nicht sagen!

Aber der Netzteil teil des Forum darf sich dann schon freuen, wenn wider die ganzen leute mit Ihren 20€ 800W Netzteilen ihren PC töten ;)

Aber auch bei denn MArken NT wird sich bei der Graka + OC die Spreu vom Weizen trennen bzw die User werden über Makren lästern die sich an die Intel Spezifikationen halten und einfach abschalten :D
 
Zurück
Oben