News Nvidia GeForce GTX 590 als „Antilles“-Konter in Kürze?

Die AMD DualKarte wird wohl leicht schneller werden, AMD hat momentan einfach ein eiffezienteres Design, und da hier nunmal die leistungsaufnahme an der grenze ist, kann Nvidia nicht durch die leistung punkten, sondern muss im bereich von zwei 8Pin bleiben...jaja, damit hat man nun endlich bei AMD auch genug power für 3Monitore à 1920x1200
 
3GB or GTFO. Wie kann man solch einem Monster nur 1,5GB Vram spendieren?
Also ein lupenreiner Vram Krüppel ist es nicht. 2x 1,5GB brechen zwar auch ein, aber nicht so heftig wie 2x1GB das auch hätte kommen können.(immer noch möglich mit der HD 6990, aber eher unwahrscheinlich) 2x3GB ist der Absolute Wahnsinn, da wäre dann der Preis Richtung 1000€-1500€ gegangen.

Die einzige logische und sinnvolle Alternative ist 2x GF114 zu verwenden und damit weniger Kernschmelz Probleme, besserer Preis und optimale 2x2GB Vram. Da Fragt man sich echt was die Hersteller so rauchen, wie kann man nur auf die Idee kommen hier 2x GF110 rein quetschen zu wollen? Solche Wahnsinns Karten sind nur was wie Karten ala Asus Mars.

Aber wenn AMD tatsächlich die µRuckler angegangen hat, wird das tatsächlich ein spannender Februar. Vor allem hoffe ich ja noch auf den Preisrutsch bei der GTX 580 durch die beiden dual-GPU Monster. Gogogo AMD die Zeit drängt.
 
Zuletzt bearbeitet:
l1n00x schrieb:
Weiß auch nicht, wer sowas machen sollte. Nvidia spendiert jedoch 2x1,5GB=3GB!

Also effektiv 1,5GB, und darauf wollte er hinaus :rolleyes:

Kasmopaya schrieb:
Aber wenn AMD tatsächlich die µRuckler angegangen ist, wird das tatsächlich ien spannender Februar.

Wär schön, aber ich fürchte nicht.
 
RiseAgainstx schrieb:
so viel power braucht echt keine Sau ^^
aber mal interessant das rating zu sehn :D

Dann spiel mal auf 3x26" in 6048x1200 :p (ok Eyefinity kann die Nvidia eh nicht, aber die 6990 schon...). Zugegeben, um auf einem Bildschirm in maximal 2560x1600 zu spielen ist so ne Karte wahrscheinlich etwas übertrieben, aber bei noch größeren Auflösungen rechnen sich dann so Sachen wie mehr VRam und einfach derbe Rohleistung auf einmal viel mehr.
 
sollen sie halt auf die abgesegneten daten verzichten und etwas ganz spezielles machen. vielleicht 3x 6pin oder 2x 8pin und 1x 6pin strom anschluss. einer der so ne karte kauft den interessiert dann die paar watt an verbrauch auch nicht mehr.
 
Nitschi66 schrieb:
Die AMD DualKarte wird wohl leicht schneller werden, AMD hat momentan einfach ein eiffezienteres Design


Effizient? Hast du dir mal den Test der HD 6970 angeschaut? Effizient ist das nicht. Klar sie verbraucht weniger, als eine 580, aber bringt im gleichen Zug das was sie weniger verbraucht auch weniger an Leistung. Hätte AMD Cayman gen GTX 580 gejagt, dann wär die 6970 nicht sehr viel sparsamer.
Leistungstechnisch liegt sie ja ungefähr auf der Ebene einer GTX 570. Sie is n Tick schneller (Nicht der Rede wert) und n Tick sparsamer (In dem Bereich: ebenfalls nicht der Rede wert!). Oben drauf kommt, zumindest in der Referenz, ein katastrophales Kühlsystem IMHO. Ich hab sie gehabt. Ich konnte mich nicht zwischen GTX 570 und 6970 entscheiden. Ich hatte bis dato immer ne ATI/AMD-Karte, aber die 6970 hat mich 0 überzeugt. Texturflimmern in HL². Das hatte selbst meine alte HD 4890 nicht. Die GTX 570 wird zwar recht warm (70°C was noch vollkommen okay ist), aber der Lüfter agiert wenigstens leise. Ich darf beaupten eine Recht gute Gehäusebelüftung zu haben. Der 6970 war es egal, die hat geröhrt, wie n Raketenauto.
Die 6950 is als einzige Karte recht venünftig nur daraus ne DGPU-Karte zu machen is schwachsinnig. Dann wär man nich viel besser als eine 5970!
Die Leistungen der AMD-Karten überschneiden sich IMHO schon stark. zwischen der 6950 und der 6870 ist der Unterschied schon arg gering.
 
Ich glaube nicht das eine Dual GPU von Nvidia demnächst kommt.
Bis zum 4. Quartal 2011 wo die ersten 28nm GPU's geplant sind wird das Thema erstmal ziehmlich ausgelutscht sein. SLI Option besteht weiterhin für jeden.
 
Ich denke auch das eine 28/32nm Version der Dual GPU Karten wesentlich mehr sinn machen würde. Eine GF 9800GTX+ GX2 wird doch heute von jeder GTX560 abgehängt, da kann man auch einfach warten ;)
 
2 GTX560 Chips wären etwas zu schlapp .
2GTX570 Chips wären dagegn wirklich Konkurenz zur HD6990.
2GTX580 kann man sich irgendwie nur schwer vorstellen.
Aber eine Überaschung wäre solch eine Dualkarte alle mal.
 
Also eiffizienter ist AMD seit der HD6970 nicht mehr. Diese Stromfressenden Lärmmonster würden beide die Spezifikationen von der PEG überschreiten - und zwar schon unter Spielelast. Ebenso ist eine GTX 560 Ti an der Grenze.
Unter Furmark wären für HD6950 und GTX 560 nichtmal mehr 2*8Pin ausreichend!

Daran sieht man dass etwas passieren muss - das Wettrüsten muss ein Ende haben, viel mehr sollte der Fokus auf Effizienteren Designs liegen. Kan doch nicht sein dass so manche Grafikkarte mehr Strom braucht als mein Rechner, mit dem ich zum Beispiel BFBC2 auf Maximum in 1920*1200 flüssig spielen kann! Und auch etwa das gleiche Geld kostet... was ich damit sagen will: eine GTX 560 ist mehr Grafikkarte als man derzeit sinnvoll nutzen kann. Für die Idiothasten, die sich einbilden sie müssen jetzt mit Texturmods auf drei Bildschirmen und alles auf max. Zocken, gibts eh SLI / CF.

Von daher ist mir diese Dual-Karte, wie auch immer sie aussehen mag: Schnuppe!

mfg
 
Genau - ein externer Stromanschluss muss her:
1-1080.316761166.jpg
 
Zwei GF110? Das glaube ich erst wenn es verkauft wird...
Eine GTX 580 verbraucht min. 40W mehr als eine HD 6970, das wird doch selbst mit 2*8pin eng?


MfG
 
Diese Karten sind nicht mehr als reines Marketing, zwei einzelne Karten in Crossfire oder SLI zu verbinden ist immernoch viel sinnvoller, teilweise sogar preislich attraktiver, bessere Temperaturen, weniger Lärm (anderer Kühler meißtens vorrausgesetzt) und was wichtiger ist, deutlich bessere Leistung da OC Potential gegeben bzw höher ist

Solche Dual-GPU Karten dienen einzig und allein dem Zweck um sagen zu können "Seht her, wir haben die schnellste Grafikkarte auf dem Markt"

Wer sich eine derartige Karte kauft würde auch Hundekot kaufen wenn dieser ansprechend beworben werden würde
 
Für mich wäre die 6990 "ideal" ,,, habe Eyefinity mit 3x22" und ein Motherboard mit leider nur einem Pcie16 Steckplatz, aktuell werkelt eine 6970 welche aber ab und zu schon mal an ihre Grenzen stößt, dank der hohen Auflösung. Hoffe der Preis pendelt sich so bei 500-550€ ein...aber so wie es aussieht wird sie nicht in mein Case passen, shit :)

gruß
 
Ehrlich gesagt stelle ich mir für solche Dual GPU Monster ala GTX 590 / AMD 6990 nur einen einzigen Verwendungszweck vor:

Leute,die nur ein Mainboard mit 1x 16x PCI-E 2.0 Anschluß besitzen,welche aber trotzdem absolute Grafikkiller ala Crysis,Crysis Warhead,ARMA 2 + Add'on,Metro 2033 und vor allen Dingen Crysis 2 auf 1920x1200 Auflösung oder höher spielen wollen,mit maximalen Grafikeinstellungen + 4-8x AA/SSAA und 16x High Quality AF.

Diese Menschen sind dann einfach auf eine High End Dual GPU Karte angewiesen,weil Sie ein SLI/Crossfire System mit 2 Grafikkarten,aufgrund von Platzmangel im HTPC LAN Rechner, oder kompakten Mainboard mit nur 1x PCI-E 2.0 16x einfach nicht realisieren können.

Wahre Enthusiasten besitzen meistens sowieso einen großzügig dimensionierten Big Tower,daß passende High End Mainboard mit 4x PCI-E 2.0 16x oder mehr und bauen sich gleich ein 3x SLI System oder 3x Crossfire X System zusammen,welches jeder Dual GPU Karte dank höherer Taktraten,besserer Kühlung und daraus resultierenden zusätzlichen Übertaktungsmöglichkeiuten den Rang ablaufen wird und diese sowas von zersägt.

Und für 4x SLI / 4x Crossfire X Systeme braucht man solche Karten auch nicht mehr,seit es Mainboards mit 4x PCI-E 2.0 16x gibt,auf welchen man dann auch wieder auf die leistungsstärkeren 4x Single GPU SLI/Crossfire X Konfigurationen zurückgreifen kann.
Wobei sowas sowieso schwachsinnig ist,da so gut wie kein Spiel von 4x SLI / 4x Crossfire X profitieren kann.

Sowas ist dann wirklich nur noch was für Benchmarkjäger oder für wissenschaftliche Berechnungen im GPGPU Bereich.
 
Zuletzt bearbeitet:
Ich denk mal von den Shadern und Taktraten wird es 2x GTX570 werden, nur eben mit nem 512bit SI.
Mehr ist bei den 375W einfach nicht machbar.
Selbst diese Konfiguration würde im Furmark deutlich mehr verbraten, aber dafür gibts doch neuerdings diese schönen TDP-Begrenzungen. :D

Die Lautstärke will ich bei ner 2 Slot-Kühlung gar nicht wissen. Der Thron der GTX480 wackelt.
 
@Buki80

Du kannst mir nicht sagen das jemand der sich 3 Monitore hinstellt keine finanziellen Möglichkeiten hat sich ein Board mit 2x PCIe 16x zuzulegen ;)
 
Zurück
Oben