News Nvidia GeForce GTX 590 als „Antilles“-Konter in Kürze?

Das streben nach Leistungsstärke und Reviereckenbepissen ist so alt wie die Menschheit selbst.
Es geht hier nicht um Preise, Lautstärken oder sinnvollen Einsatz irgendwelcher Ökostandards.

Hier geht es um die größte Keule, mehr nicht. Warum werden wie der Bugatti Autos mit 1001 und mehr PS gebaut? Ganz einfach: WEIL MAN ES KANN!

Ende der Geschichte.


//EDIT: Und schon wieder habe ich mich zu einem Post in der Kategorie "Antworten auf Kommentare die die Welt nicht braucht" hinreissen lassen...
 
DrogenKroete schrieb:
Zwei 8-Pin Stecker zum Standard zu machen, wäre für mich nichts weiter, als ein Unfahigkeitszeugnis.
Die Aktuellen Grafikkarten fressen enorm viel Strom und sind überteuert wie nix gutes.
Dass all sowas nicht sein muss, hat Intel in Form der Sandy Bridge CPU's bewiesen.
über 200€ in ne blöde Grafikkarte, die nach 1 Jahr eh wieder "veraltet" ist zu investieren, ist für mich das dämlichste, was man tun kann. In Anbetracht der Preise ud der Leistung vor einigen jahren müsste jetzt die 5870 bzw 6950 für unter 150€ zu haben sein ...
Eine Grafikkarte muss nicht zwangsläufig nach einem Jahr veraltet sein, man schaue sich nur die 5870 an, die immernoch recht gut mitziehen kann und bereits mehr als ein Jahr aufm Buckel hat. Wer wann und wie oft wie viel Geld für eine Grafikkarte oder sonstige Komponenten ausgeben will bleibt zum Glück noch jedem selbst überlassen.

DrogenKroete schrieb:
Dies entspräche dann der Steigerung von X1950 Pro auf HD4830. Beide karten hatten mich Damals um die 120€ gekostet. Die X1950 Pro war zwar damals die Vorgängergeneration der damls aktuellen, aber das ist die 5870 mittlerweile auch schon.
Der Umstieg von X1950 Pro auf HD 4830 hat damals 300% Performancezuwach gebracht.
Die 5870 wäre die nächste Karte, die soeinen Schub bringen würde.
ein 6870 für ca 130€ wäre angebracht, mehr Geld dafür zu verlangen ist echt überteuert.
Und irgendwann machen die Unternehmen dann keinen Gewinn mehr weil ja alles "überteuert" ist. Guter Plan.

DrogenKroete schrieb:
Mich wird bei den Preisen keiner zum kaufen kriegen, zumal die 4830 völlig ausreicht.
Laut deiner Aussage müsste die Karte ja schon total veraltet sein... :rolleyes:

DrogenKroete schrieb:
Die Glühlampe wird aufgrund der Ineffizienz verboten, Grafikkarten mit über 300W aufnahmeleistung allerdings nicht. Dabei sind die mE viel unwirtschaftlicher als Glühlampen.

Typisch EU Politik...

Wer es extrem hell haben will, nimmt eben Leuchtstoffröhren, spart allerdings an der Gemütlichkeit des Lichts. Und wer 2000FPS in CS unbedingt nötig hat, der soll eben noch ein paar Jährchen warten.

Wieviele Glühlampen gibt es verglichen mit High-Performance-Grafikkarten? Ich glaube da "gewinnen" die Glühlampen.

Und wenn wir beim Thema Wirtschaftlichkeit sind: Dann verbieten wir doch auch gleich jeglichen nicht-produktiven Umgang mit Computern weil das ja unwirtschlaftlich ist (Energieverbrauch und es kommt nix bei raus, schließlich verwandelt jeder PC elektrische Energie in Wärme ohne dabei irgendwas zu produzieren). Und Fernseher. Weil die verbrauchen ja auch nur Strom und es kommt nix bei raus.

Bzgl. 2000 fps - wer bist du, dass du anderen Vorschriften machen kannst?
 
Die Karte würde nur Sinn machen (wenn überhaupt), wenn man von Seiten nvidias berücksichtigen würde, dass die meisten user im highend-Bereich eh auf SLI aus zwei Karten setzen. Dann könnte man dem Monster nämlich eine Triple-slot-Kühlung verpassen, die auch die beiden GPUs bei entsprechender qualitativer Ausführung stemmen könnte, und das evtl. sogar bei einer annehmbaren Lautsstärke.
Da aber wie meist die kranke(?) Quad-SLI-Fraktion auch bedient werden muss, wird es wohl auf Dual-slot hinauslaufen mit entsprechendem Brüllfaktor.
Die Karte kann doch eigentlich für den Endverbraucher nur dann interessant sein, wenn auf dem Mainboard aus irgendwelchen Gründen SLI ausscheidet, z.B. wegen des geringen Platzes zwischen den Grafikkarten. Ist z.B. bei mir so: durch den Accelero Xtreme Plus geht der zweite PCIe x16-slot verloren, der dritte ist nur 8x.

Für nvidia ist sie natürlich nur reines Marketing. Wir werden sehen.
 
Also was spricht eigentlich gegen 2 ausgewachsene 580 ? also ich meine nix
Was hat ne 580 für ein Stromanschluss Richtig 1x6 und 1x8 . Mann kann doch einfach 3x 8Pin verbauen oder sogar 4x also von der seite sehe ich kein Prob. und die Wärme bekommt man auch wech denn 3Slot Lösungen giebt es doch schon. Also ich warte auf die Karte, ich hoffe sogar darauf das sie eine echte 2x580 wird denn ausgelastet habe ich noch jede Karte. Und zum verbrauch lass das ding doch 650W brauchen ist völlig ok für 2 große GPUs.
 
RIPchen schrieb:
Leister ? Leiser ?

Lauter als eine GTX480 geht gar nicht mehr, es konnte nur noch besser werden nach diesem zweiten Rohrkrepierer von Nv nach der 5800er: heiß, laut, stromhungrig, Sch*** nur was für Fanboys

Deswegen hat sie die HD 5870 mühelos in den Boden gerammt...:rolleyes:
SLI ist inzwischen gut ausgereift. Die Mikroruckler gibt es bei SLI (ab 30 fps) sogut wie garnicht mehr. Das Problem bertift immernoch ausschliesslich ATI/AMD, wo selbst bei 60fps die Mikroruckler bemerkbar sind.
Crossfire ist Müll. Ja! SLI aber ganz sicher nicht.
 
Bei Grafikkarten ist die Entwicklung wohl eher Größer-Schneller-Lauter-Heisser-Stromhungriger...

Bei CPUs hingegen genau das Gegenteil, zumindest kommt es mir so vor.

300 Watt sind auf jedenfall zuviel für eine Baugruppe im System.
Jedenfalls nach meiner Meinung. Die Benchmark Freaks leben sowieso in einer anderen Welt.
 
Die Spiele werden inhaltlich zwar immer beschissener, aber Hauptsache man hat > 300 fps und kann hirnfrei ballern, was das Zeug hält... natürlich ohne V-Sync... Grafikqualität wird ja überschätzt...
 
Arbiter Elite schrieb:
Deswegen hat sie die HD 5870 mühelos in den Boden gerammt...:rolleyes:
SLI ist inzwischen gut ausgereift. Die Mikroruckler gibt es bei SLI (ab 30 fps) sogut wie garnicht mehr. Das Problem bertift immernoch ausschliesslich ATI/AMD, wo selbst bei 60fps die Mikroruckler bemerkbar sind.
Crossfire ist Müll. Ja! SLI aber ganz sicher nicht.

ja sicher das kann man im letzten Test ja auch eindeutig "erkennen"
https://www.computerbase.de/artikel...0/seite-20#abschnitt_das_problem_mikroruckler

man muss nur in seiner kleinen Crysis Welt leben oder sich die richtigen Tests raussuchen...
 
hill01 schrieb:
(ok Eyefinity kann die Nvidia eh nicht, aber die 6990 schon...). .

Wie kommt jemand überhaupt auf das schiefe Pferd?

zwei Taktgeber für den digitalen Ausgang pro GF110 Chip bedeuten summa summarum auch 4 Displays an einer Dualkarte bei Nvidia wenn 4 Anschlüsse verbaut werden sollten
 
Ok noch weiß niemand, was Nvidia an Ausgängen auf einer eventuellen Dual-GPU-Lösung verbaut.

Edit: Achso und wie ich auf das "schiefe Pferd" komme: Man schaue sich die Ausgänge der 57xx, 58xx, 5970 und aller bisherigen 6xxx Karten von AMD an und vergleiche das mit den Anschlussmöglichkeiten der 4xx und 5xx Karten von Nvidia.
 
Zuletzt bearbeitet:
GTX 590?
Zubehör-
SLI-Brücke,
Handbuch,
schöner Karton und
Stickstoffkühler mit Abdeckung für Mainbord und Stickstoff für 2 Stunden.
 
DirtyOne schrieb:
Bei Grafikkarten ist die Entwicklung wohl eher Größer-Schneller-Lauter-Heisser-Stromhungriger...

Bei CPUs hingegen genau das Gegenteil, zumindest kommt es mir so vor.
Das liegt daran, dass bei den GPUs die Leistungsteigerung viel höher ist als bei den CPUs. Man vergleiche mal aktuelle Hardware mit der vor 4 Jahren.
GTX580 gegen 8800GTX.
SandyBridge 2600K gegen Core2 Duo QX6800

Bei den GPUs hat sich die Performance mehr als vervierfacht und bei den CPUs nicht mal verdoppelt. Aber man bekommt ja auch weiterhin stromsparende Modelle, von daher sehe ich kein Problem. Die Effizienz ist ja ordentlich gesteigert worden. Wenn man ne Graka haben will die nur ne elektr. Leistung einer Karte von vor 5 Jahren hat, kauft man eben ne Radeon 5770 oder so. Zwingt einem ja keiner ne 6990 zu kaufen.
 
Zuletzt bearbeitet:
Zurück
Oben