News Nvidia GeForce GTX 590 in zwei Wochen offiziell?

Das einzige was mich bei der GTX 590 interessieren würde, sind die Microruckler.

Auf Kosten von ein paar FPS, wäre es sicher möglich die Microruckler zu vermeiden, sobald einer von den Beiden (Ati oder Nvidia) das gemacht hat, zieht der jeweils Andere bestimmt sofort nach.
 
Bloss stellen Mikroruckler nicht das einzige Problem von Multi-GPU-Systemen dar :rolleyes:
 
Stromverbrauch und microruckler.Zumindestens Lautstärke und Temps werden mit dem Kühler den zb evga verwendet einigermaßen sein.
 

Anhänge

  • Evga-GTX595-03.jpg
    Evga-GTX595-03.jpg
    297,3 KB · Aufrufe: 548
Die wilde Inge schrieb:
Sehe ich ähnlich. Aber immerhin dürfte es mit so einem Monster möglich sein alle aktuell auf dem MArkt verfügbaren Spiele in allerhöchsten Details zu spielen und das ohne lästiges SLI.

Ich stelle einfach mal die Vermutung an, dass so ein Monster hier auch Crysis 2 problemlos bewältigt. :o

Naja, jeder normalsterbliche schon, aber für irgend was gibts ja Tripple Monitor Settings und so.


bulldozer1 schrieb:
lol das Bild zeigt einen Protoyp einer Dual GTX 470 / 465 von Galaxy die es vor nem Jahr auf der Computex zu sehen gab ....................................

Ach das erklärt auch die 28cm länge.



bulldozer1 schrieb:
..........
Dafür hat AMD es nach etlichen Jahren nun tatsächlich geschafft, das bessere MGPU scaling zu erreichen. Crossfire skaliert nun besser als SLI und somit kommen zwei 6970 näher an ein GTX 580 SLI System heran als ne single 6970 vs single GTX 580.

https://www.computerbase.de/2011-01...-sli/19/#abschnitt_performancerating_mit_aaaf

Und da nVidia die Taktraten vermutlich senken wird, könnte ich mir vorstellen, dass es ein knappes Rennen wird.

..........


Ja, ist schon beeindruckend wie extrem die HD6970 bei grossen Auflösungen aufholt, gegenüber der 580. Gerade im Crossfire sieht man sowas deutlich.



Naja, da der Preis soweiso über 900$ kommen wird, eher uninteressant für mich. Aber bestimmt ein beeindruckendes stück Technik.
 
Die ganze Leistung zweier GTX580 wird Nvidia nicht bringen mit ihren popeligen 1536MB! Der letzte Test auf CB hat gezeigt, dass eine scheinbar schwächere Radeon 6970 in hohen Auflösungen ca 3% hinter einer GTX580 rendert! Wenn also solche Dualgpu Monster für solche Auflösungen gemacht werden, wird AMD knapp hinter Nvidia sein und das bei weniger Stromverbrauch/Preis.
Im schlimmsten Fall ist sogar Antilles schneller, wenn Nvidia die Taktraten des GF110 zu stark senken muss. AMDs Cayman benötigt immerhin 45Watt weniger pro Karte als Nvidias GtX580.

https://www.computerbase.de/2011-02/test-2x-geforce-gtx-580/4/#abschnitt_performancerating


Gruß Andi
 
Zuletzt bearbeitet:
Naja die Karte hat ja zumindest 2x 1536MB! Ich denk schon, dass es reicht, um AMD auf Abstand zu halten.
Stromverbrauch spielt in der Klasse sowieso keine Rolle mehr. Wer die Kohle für so eine Karte bereitwillig ausgibt, für den ist Stromverbrauch Makulatur. ^^
 
Du kannst die 2x 1536MB nicht addieren. So funktioniert das leider nicht. Die Karte hat nur 1536MB. Es ist jetzt nicht so, dass sie ein VRAM Krüppel per se ist. Aber für solch ein Kaliber, hätte man durchaus in die Vollen gehen können. Da die anvisierte Kundschaft sowieso "jeden" Preis zu zahlen bereit ist.
 
Jetzt noch pro GPU 3GB Speicher und sie ist gekauft ;)
 
dann braucht man nur noch eine anständige wakü ala 9x120/140 und schon kann da ding auch im OC betrieben werden.
mal preis abwarten und dann schauen ob ichs kauf
 
also ich weiß gar nicht was ihr alle habt.... so schlimm ist die Speicherauslastung nun wirklich noch nicht. 2x 1536MB RAM sind doch gut für solch eine Karte. Auf jeden Fall nicht unterdimensioniert. Irgendwie muss man die ganzen Speicherchips ja auch noch aufs PCB quetschen... ich glaube das ist gar nicht so einfach.

2x GF110 GPUs im Vollausbau sind wohl aber echt übertrieben... das wäre vielleicht etwas für ASUS die ja neuerdings diese Hyper Karten bringen ^^ (Ares, Mars) aber für ne reguläre GTX 590 ist das schon ein bisschen hart...
Wenn die teildeaktivierte GPUs nehmen und zusätzlich den Takt senken kommen sie auch günstiger bei weg.
 
Und ich wette das es freaks gibt die sich das ding im doppel pack zu legn:freak:

Also ich weiß was ich mir zu leg wenn ich ne gescheite zimmerheitzung haben will :D
 
Aber immerhin dürfte es mit so einem Monster möglich sein alle aktuell auf dem MArkt verfügbaren Spiele in allerhöchsten Details zu spielen und das ohne lästiges SLI.

Ist doch SLI - nur eben auf einer Karte.
Bei 2x 590 heißt es ja auch Quad-SLI.

Brauch kein Mensch die Karte..
eine 580 reicht doch, es sei denn, man spielt auf 3 Monitoren 3D und Downsampling von Crysis.
Dann wäre Quad-SLI grad ausreichend. :D

Und dann denke man noch an die Bencher.. 2 Netzteile mit je 1,5kw ran und los geht es.
Der 110 Chip ist für 1,5-1,6v gut.
Das haben ja jüngst LN2 Benchmarker gezeigt.
Damit hat man dann lange die Krone - und somit die "Herrschaft" wieder. ;)
 
Wow bin echt gespannt wie sich diese Grakamonstrum in der Spielepraxis schlägt gegenüber ner GTX 580 und vorallem der HD 6990.
 
Diablow51 schrieb:
Nur 1,5gb.Dann fällt sie für mich flach.

Da musst du aber nochmal die News lesen...

CB-News: Nvidia GeForce GTX 590 in zwei Wochen offiziell? schrieb:
Jeder GPU sollen ebenfalls 1.536 MByte GDDR5-Speicher und ein 384-Bit-Speicherinterface zur Verfügung stehen.

1,5GB pro Chip wären dann 3GB gesamt... Und da zu erwarten ist, das die Chip-Frequenz signifikant nach unten korrigiert werden müssen, sollte diese Speichermenge wohl auch völlig ausreichend sein.


hmmm... Ich glaube nicht das die Karte einen sehr großen Absatz findet. Sicherlich wird es den ein oder anderen Enthusiasten geben, den ein oder anderen "gestörten" Enthusiasten, der sich 2 oder 4 davon einbaut ganz sicher auch. Aber ich schätze mal, dass die GTX590 am Ende nicht mehr wie 1% der insgesammt verkaufen 500er-Serie ausmachen wird

Bezüglich Stromverbrauch... Mal gespannt wann es die erste GraKa-Senseo-Co.-Produktion gibt ^^ ... Pad einlegen, Crysis starten, zwei mal im Kreis drehen und fertig ist der Kaffee... Oder halt Tee... für die Leute die kein Kaffee trinken...
 
Zuletzt bearbeitet:
Zurück
Oben