News Nvidia GeForce GTX 590 als „Antilles“-Konter in Kürze?

Hm, zurück zum Thema ?!

Verstehe nicht, wie der Neid der Besitzlosen ständig die Themen überschattet. Ich unterhalte mich gerne über Porsche und kann mir doch nie einen leisten. Es GIBT Dual-GPU-Karten und die werden auch gekauft. Der Anteil mag bei 0,5% der Nutzer liegen (bsph), der Anteil ist aber unter den GAMERN unter uns sehr viel größer.

Wieso kann man in Deutschland nicht über etwas hochpreisiges, fast luxuriöses vernünftig diskutieren ?! Ich bin kein Proll, kein Sonstwas und habe trotzdem eine 7950GX2, eine 9800GX2 gehabt und habe derzeit zwei 5870er im Rechner stecken. WEIL die jeweils zu bezahlbaren Preisen zu bekommen waren UND eine satte Leistung bieten.
ALSO freue ich mich auch auf eine Dual-GPU-Lösung á la 6990 oder GTX590, auch wenn ich mir keine davon holen werde, da der Preisunterschied zu 2*5870 zu hoch sein wird im Verhältnis zur Mehrleistung.

Aber trotzdem kann man doch darüber diskutieren ?! Zumal das Thema sehr interessant ist, weil der gewinnt, der die bessere Ingenieursleistung bringt oder rotzfrecher ist. Nvidia traue ich zB zu, dass sie eine doppelte GTX570 mit den Shadern der 580er bringen und 2*8pol und 1*6pol draufknallen. AMD traue ich zu, dass sie eine doppelte 6970er mit GPU-Takt knapp bei einer 6950er und schnellerem Speicher bringen und die Karte rockt trotzdem ?! Ja darauf warte ich gespannt.

Also lasst uns den Thread auch darüber führen und nicht darüber, wer sich so eine karte alles nicht leisten kann und sonstwasnoch.
 
l1n00x schrieb:
Weiß auch nicht, wer sowas machen sollte. Nvidia spendiert jedoch 2x1,5GB=3GB!

nein, es sind trotzdem nur 1,5 GB nutzbar da der RAM gespiegelt wird.
Also nix mit effektive 3 GB.
 
ach sch*** auf spezifikation, ein papst industrie lüfter auf nen billigen alublock, 3 8-Pin Stecker dran, fertig.
 
Immer wieder Lustig zu lesen wie die User hier über alles so genau Bescheid wissen. Mich würds mal interessieren wie diese "User" dumm schauen würden wenn man ne derzeitige Karte in die Vergangenheit schicken würde. Wos dann auch in Foren hies "...Boa ne nie im leben, ist nicht realisierbar, absolut unmöglich usw... "

Mal davon abgesehen vom Fetigungsprozes. Als die GTX 580 oder sonstige nach der GTX480 angekündigt wurden, hats auch keiner geglaubt das die Leister werden. Und siehe da, im direkten Vergleich wesentlich leiser, als besagte GTX480.

Ihr Schlauköpfe wisst doch gar nicht was Nvidia noch für Asse aus dem Ärmel zaubern kann. Ihr habt auch keinen Plan was Ati effektiv als Antwort über den Ladentisch sausen lässt. Viellicht warten man einfach mal ab bis das ding heraus kommt, und dann kann man ja rumjammern, wie scheiße die Karte is, weil man sich evtl. ärgert, nen Monat davor nen noch viel größeren Schrott gekauft zu haben. :D

Ich bin gespannt. Wer hätte es gedacht, Asus Ares is ja auch gekommen. :cool_alt:

Finds immer geil wie man sich anhand von Gerüchten so sehr drauf auf geilen kann. Den rest hat ja RIPchen schon gesagt.
 
interessant, fast jeden tag eine neue grafikkartenankündigung. gibt sicher leute die sich sowas kaufen, wie bei allen dingen. hoffe eher mal auf eine keppler news.
 
wenn amd die microruckler völlig begleicht, hat amd gewonnen, egal wie stark die gtx590 wäre
 
Ich sehs kommen. Irgendwann kommen diese Delta-Lüfter von Papst drauf! ^^
 
"wenn amd die microruckler völlig begleicht, hat amd gewonnen, "

glaube dat ist physikalisch, zumindest momentan, nicht möglich ;)


MfG
 
1.) Um die Mikroruckler sichtbar zu beseitigen und nicht nur deren Erkennung zu erschweren (mit verzögert ausgegebenen Bildern) müsste man einen Frame auf beide Kerne aufteilen. Das ist zwar technisch gesehen nicht unmöglich, würde aber einen sehr großen Eingriff in die Architektur bedeuten und es würde besser sein einen extra großen Kern zu bauen, wofür aber zu wenig Stückzahlen verkauft werden würden. Weiters ist noch das Problem der parallelen RAM Zugriffe auf den selben Speicherbereich zu lösen, da dies kostentechnisch das größere Problem ist, da die Daten im RAM immer doppelt gehalten werden müssen. Man müsste also um die Lösung richtig skalieren zu lassen fast 4 Mal so viel RAM verbauen wie normal.

2.) Immer dieser Schwachsinn mit den 8 Pin Steckern. Wenn ich das schon lese. Ich habe eine 295 GTX. Bei meinem alten Netzteil habe ich keine Stecker mehr gehabt. Dann habe ich einmal einen 8 Pins auf 2 2x6 Pin Adapter genommen, dann 3 6 Pin auf 2x 4 Pin Adapter und dann mit Hilfe von 6 Y-Kabeln die Karte in zu einer meiner Festplatten dazu gehängt, also bitte erklärt mir dann, wie man mit 2x8 Pin und nur etwas mehr Stromverbrauch nicht auskommen kann.

Edit:
@mivo93: Nur 4TB Platten möglich? Das kann doch nicht deren Ernst sein. Ich will auf meine 10.5TB nicht mehr verzichten :D
 
Zuletzt bearbeitet:
Könnte es nicht sein, dass das multi-gpus in kürze standard werden? so wie bei CPUs? könnte mir gut vorstellen, dass die GraKas dann auch noch mit 4 oder 8 Kernen kommen, dann zwar mit bisschen weniger Takt, aber trotzdem um ein vielfaches schneller im vergleich zu single-gpu-karten. müsste man nur noch den Verbrauch geringer bekommen, durch verkleinerung der Architektur oder so^^
 
@ M.B.H.

Das geht nicht und ist technisch nicht realisierbar,weil ja schon heutige Grafikkarten 512 Kerne und mehr (Kerne = Shader/Streamprozessoren) unter einem Die vereinen und man Multi GPU's heute nur als Verbund nebeneinander rechnen lassen kann,was aber aufgrund der technischen Gegebenheiten dann zu den besagten Microrucklern führt,wenn man in seinem Spiel weniger als 30 FPS hat.

Die einzigen technischen Lösungen,die man heute realisieren könnte, ohne die Multi GPU Probleme sind entweder größere Die's zu entwickeln mit hunderten von Kernen,so wie es Nvidia derzeit realisiert oder dass man auf eine neue Grafikberechnungstechnologie überwechselt.

Soweit ich mal gehört habe, könnte man schon heute eine Grafikkarte mit Ray Tracing Grafikberechnungstechnologie bauen,wo man dann wirklich mehrere Grafikchips simultan laufen lassen kann auf einer Platine und unter dem selben Videospeicher,welche dann genau gleichzeitig ein Bild berechnen können,indem jeder der Kerne der Grafikkarte ein identisch großes Bruchstück des Bildes gleichzeitig berechnet,welches dann zusammengesetzt wie ein Puzzle sofort auf dem Bildschirm angezeigt wird.

Ich glaube Intel arbeitet derzeit an einer solchen Prototypen Grafikkarte ...
Jedoch sind die Ergebnisse dieser Arbeit derzeit so schlecht,dass das Larrabe Grafikkarten Projekt nichtmal annähernd die Leistung liefern kann,wie heutige moderne Rasterizer Grafikkarten von Nvidia und AMD.
 
Zuletzt bearbeitet:
Warum 2xGTX580 auf ein PCB zu heiss zu viel Strom? einfach Wasserblock drauf und bei Stromversorgung 3x8Pin und gut ist:D
 
Zwei 8-Pin Stecker zum Standard zu machen, wäre für mich nichts weiter, als ein Unfahigkeitszeugnis.
Die Aktuellen Grafikkarten fressen enorm viel Strom und sind überteuert wie nix gutes.
Dass all sowas nicht sein muss, hat Intel in Form der Sandy Bridge CPU's bewiesen.
über 200€ in ne blöde Grafikkarte, die nach 1 Jahr eh wieder "veraltet" ist zu investieren, ist für mich das dämlichste, was man tun kann. In Anbetracht der Preise ud der Leistung vor einigen jahren müsste jetzt die 5870 bzw 6950 für unter 150€ zu haben sein ...

Dies entspräche dann der Steigerung von X1950 Pro auf HD4830. Beide karten hatten mich Damals um die 120€ gekostet. Die X1950 Pro war zwar damals die Vorgängergeneration der damls aktuellen, aber das ist die 5870 mittlerweile auch schon.
Der Umstieg von X1950 Pro auf HD 4830 hat damals 300% Performancezuwach gebracht.
Die 5870 wäre die nächste Karte, die soeinen Schub bringen würde.
ein 6870 für ca 130€ wäre angebracht, mehr Geld dafür zu verlangen ist echt überteuert.

Mich wird bei den Preisen keiner zum kaufen kriegen, zumal die 4830 völlig ausreicht.

@ DriveByFM

Super Idee, einfach ne Wakü drauf. Warum nicht gleich nen Chip bauen, der so Groß ist, wie ne Herdplatte und den Herd neuerfinden?

Die Glühlampe wird aufgrund der Ineffizienz verboten, Grafikkarten mit über 300W aufnahmeleistung allerdings nicht. Dabei sind die mE viel unwirtschaftlicher als Glühlampen.

Typisch EU Politik...

Wer es extrem hell haben will, nimmt eben Leuchtstoffröhren, spart allerdings an der Gemütlichkeit des Lichts. Und wer 2000FPS in CS unbedingt nötig hat, der soll eben noch ein paar Jährchen warten.
 
Zuletzt bearbeitet:
bensen schrieb:
Die Lautstärke will ich bei ner 2 Slot-Kühlung gar nicht wissen. Der Thron der GTX480 wackelt.

:freak: So laut ist die 480 beim Zocken auch wieder nicht, nur in Furmark.

Denkbar wären zwei 570 mit jeweils 480 Shadereinheiten, 320 Bit und 2,5GB.
 
Mal davon abgesehen vom Fetigungsprozes. Als die GTX 580 oder sonstige nach der GTX480 angekündigt wurden, hats auch keiner geglaubt das die Leister werden. Und siehe da, im direkten Vergleich wesentlich leiser, als besagte GTX480.

Leister ? Leiser ?

Lauter als eine GTX480 geht gar nicht mehr, es konnte nur noch besser werden nach diesem zweiten Rohrkrepierer von Nv nach der 5800er: heiß, laut, stromhungrig, Sch*** nur was für Fanboys
 
Am besten Graka + Netzteil in eins, 4 slots solten reichen und dann ein AC strom anschluss direckt an der Steckdose.

Ne,etwas was die Welt wirklich nicht braucht
 
es gibt immer leute die jedes jahr oder sogar früher ihre karte neu kaufen nur um schön immer +20 % mehr leistung von ihrer vorherigern karte zu haebn....


die grafikartenhersteller wollen eh nicht direkt eine grafikkarte mit 500 % mehr leistung an den mann bringen... zumal sich sich danach ne neue alternative zum geldmachen suchem müssten weil keiner mehr ne neue grafikkarte braucht


ich denke die grafikkarten hersteller könnten locker nen produkt für 250-300 euro auf den markt bringen welches mindesntens die 150 % leistung einer 6970 bringen könnte, nur wozu auch.. solange leute immer schön kaufen lohnt sich das geschäft ja viel besser :P



ist meine meinung, mag euch nicht passen aber dafür gibts ja die meinungsfreiheit :)
 
Zuletzt bearbeitet:
Zurück
Oben