Test Test: Nvidia GeForce GTX 690

@ Zwirbelkatz
Ich fordere ja nicht das komplette Testsystem zu wechseln und die alten Tests alle noch einmal zu machen oder ähnliches. Ich verstehe nur nicht, warum ihr die zwei GTX 680 mit einem SB testet, welcher eben nicht die volle Leistung der Karten abrufen kann. Denn für die meisten ist der Test wohl auch eine Entscheidungshilfe zwischen der GTX 690 und zwei GTX 680. Und mit dem jetzigen Test "empfehlt" ihr den Lesern das falsche Produkt, wenn es nach Leistung geht.

Ich bin ja auch für einheitliche Tests mit dem selben Testsystem. Allerdings eben nur, wenn dadurch die getestete Hardware auch ihr volles Potential ausspielen kann, und das war bei diesem Test hier nicht der Fall.

@ Felixxz21
Von solchen Idioten wie dir leben die Foren heutzutage leider. Hast du meinen Beitrag richtig gelesen? Nein, dann wüsstet du nämlich, dass ich das nicht aufgrund der Leistung von SB bzw. IB sage sondern wegen der Unterstützung von 2x PCIE 3.0 x16 bei IB. Was Sandy Bridge eben nicht bietet und die zwei GTX 680 dadurch immens ausbremst.

Und von dir lass ich mir sagen, dass ich null Ahnung von PCs habe.
Muss ich mal meinem Mentor erzählen.
 
@Kartenlehrling:

Schade drum... wär ja auch zu gut gewesen.

Und wenn ich mir die Frameverläufe so anschaue, die die gemessen haben, und an mein eigenes Crossfire zurückdenke, dann wird mir ganz schlecht ;)
Bester Hinweis, dass MGPU für mich net so der renner war, war folgendes: Unbemerkt steigt eine der Karten plötzlich aus dem CF-Gespann aus ohne dass ich es merke. Die nächsten Tage hab ich mcih schon gewundert, dass sich fast alle Spiele plötzlich wieder gleichmäßig anfühlen. Nochmal paar Tage später auf die Leistungsaufnahme geschaut und gesehen, dass der Rechner beim Zocken auf einmal über 100 W weniger zieht als er eigentlich sollte. Da hat's dann geklingelt... und als ich die zweite Karte wieder aktiviert hatte ging es auch sofort wieder los mit dem ungleichmäßig anfühlen. Aber manche Leute sind da auch einfach sensibler als andere - gibt schließlich welche die den Regenbogeneffekt bei DLP-Beamern sehen und andere denen es garnicht auffällt.
 
@ Petermeier

Ganz so gut und vor allen Dingen richtig informiert scheinst du aber auch nicht zu sein.

Denn Ivy Bridge bietet keine 2x PCI-E 3.0 16x , sondern nur maximal 2x PCI-E 3.0 8x !

Zwei mal PCI-E 3.0 16x bei 2xSLI / 2x Crossfire oder vier mal PCI-E 3.0 8x bei Quad SLI / 4x Crossfire bietet nur Sandybridge E auf der X-79 Plattform und keine andere derzeit erhältliche Plattform.

Nur mit der X-79 Sandy Bridge E Plattform kann man also derzeit wirklich realistische und unlimitierte SLI und Crossfire Multi GPU Tests erstellen.
 
Zuletzt bearbeitet:
ich würde die karte auch gerne in so einem holzkarton mit brechstange kaufen
 
Es wäre eine grandiose Karte, wenn das Wort wenn nicht wäre.
Tut mir leid, aber auf so eine Karte gehört einfach 2 x 4GB RAM. Selbst wenn man den RAM derzeit nicht benötigt, in Zukunft auf jeden Fall. Und wer sich so ein Monster für 1000€ kauft, der nutzt auch die entsprechenden RAM fressenden Techniken. Wenn nicht, der braucht so eine Karte einfach nicht.

Gerade bei den Speicherpreisen wären die 2x4GB locker im Preis von 1000€ drin gewesen. So werden die 4GB Versionen vermutlich "vergoldet" und gehen für 1200€ minimum über den Ladentisch.
Schade drum, denn ansonsten wäre es einfach die perfekte und rundeste Karte die es seit langem gab. So ist aus reiner Profitmaximierung es dran vorbeigeschrammt.
 
Wenn das Thema Pci-E 3.0 tatsächlich so brisant ist, kann man gerne einen Thread im Feedback darüber starten.
So weit ich selbst mich jedoch erinnere, ist die aktuelle Testplattform noch gar nicht so alt.
 
Könnte es sein, dass in vielen Tests nicht die Vorwerts/Seitwerts- bzw. Vorwerts/Drehbewegung berücksichtigt wird sondern wegen der Vergleichbarkeit nur geradeaus gelaufen wird. Ich spiele z.B. BF3 mit einer GTX580 Phantom und folgenden Einstellungen flüssig. 1600 x 900, vsync.60fps(sehr wichtig), alles Ultra bis auf 2xAA und Bewegungsunschärfe auf aus. Treiber-Einstellungen sind glaube ich optimiert. Damit ich wirklich auf full HD und Ultra zocken kann habe ich eigentlich vorgehabt mir eine 680 zu hohlen aber jetzt irgendwo gelesen, dass das selbst mit dieser Karte nicht wirklich möglich ist. SLI mit 2x 580 wäre günstig, geht aber leider nicht weil die Phantom zu dick ist. Und jetzt meine Frage an die Checker – Sind die Mikroruckler mit einer GTX690 bei mehr als 60fps oder vsync. tatsächlich weg? Hab echt Schiss vor diesen drecks Rucklern und kein Bock 1000,00 € zu versenken.
 
musst du wohl kaufen probieren und ggf. zurück schicken. kommt ja vorallem auch aufs spiel an so wie ich das verstehe.
 
Zuletzt bearbeitet:
Ab 60fps ist das Problem sowieso viel weniger spürbar als bei sagen wir mal 30-50. Ich würde sogar soweit gehen und sagen, bei 60fps ist es ruckelfrei - jedenfalls sind das meine Erfahrungen mit einem 580er SLI. VSync hilft nicht prinzipiell gegen MR. Es kann positive, gar negative oder gar keine Auswirkungen haben. Eine Systematik ist da nicht erkennbar.
 
Hast recht - Ausprobieren - Anders geht’s eh nicht. Danke für Eure schnellen statements.
Ich werde berichten.
 
Haldi schrieb:
Wie gross ist die chance das es jemals eine GTX690 mit 8gb (also 2x 4gb, aber wird ja schon jetzt 4GB auf die schachteln geschrieben....) geben wird ?

Woher sollen wir das wissen?


cybercarli schrieb:
Könnte es sein, dass in vielen Tests nicht die Vorwerts/Seitwerts- bzw. Vorwerts/Drehbewegung berücksichtigt wird sondern wegen der Vergleichbarkeit nur geradeaus gelaufen wird. Ich spiele z.B. BF3 mit einer GTX580 Phantom und folgenden Einstellungen flüssig. 1600 x 900, vsync.60fps(sehr wichtig), alles Ultra bis auf 2xAA und Bewegungsunschärfe auf aus. Treiber-Einstellungen sind glaube ich optimiert. Damit ich wirklich auf full HD und Ultra zocken kann habe ich eigentlich vorgehabt mir eine 680 zu hohlen aber jetzt irgendwo gelesen, dass das selbst mit dieser Karte nicht wirklich möglich ist. SLI mit 2x 580 wäre günstig, geht aber leider nicht weil die Phantom zu dick ist. Und jetzt meine Frage an die Checker – Sind die Mikroruckler mit einer GTX690 bei mehr als 60fps oder vsync. tatsächlich weg? Hab echt Schiss vor diesen drecks Rucklern und kein Bock 1000,00 € zu versenken.

2 Wochen Rückgaberecht.

Außerdem ist das Thema Mikroruckler bekanntlicherweise subjektiv da jeder sie anders empfindet.
In diesem Sinne kannst nur du selber deine Frage beantworten, und das indem du es versuchst.

petermeier1122 schrieb:
@ Felixxz21
Von solchen Idioten wie dir leben die Foren heutzutage leider. Hast du meinen Beitrag richtig gelesen? Nein, dann wüsstet du nämlich, dass ich das nicht aufgrund der Leistung von SB bzw. IB sage sondern wegen der Unterstützung von 2x PCIE 3.0 x16 bei IB. Was Sandy Bridge eben nicht bietet und die zwei GTX 680 dadurch immens ausbremst.

Und von dir lass ich mir sagen, dass ich null Ahnung von PCs habe.
Muss ich mal meinem Mentor erzählen.

Ich finde es ja lustig wenn sollche Klugschei**er daher kommen und meinen sie hätten Ahnung und dabei völlig falsch liegen.

Die markierte Aussage ist totaler Schwachsinn und wurde schon etliche male von verschiedenen Quellen widerlegt. Nein, in der heutigen Zeit bringt der Umstieg auf PCIE 3.0 leistungsmäßig nichts.
Genauso wenig bringt der Leistungsvorteil von zwei mal 16 Lanes gegenüber zwei mal 8 Lanes: nichts (nachzusehen hier). Soviel zum Thema "immens ausbremsen" :lol:

Zügle nächstes mal deinen Ton bevor du nur Mist von dir gibst (und dabei noch meinst im Recht zu sein was dabei das schlimme ist).
 
Zuletzt bearbeitet:
Die Chance dass es eine 690 mit 2x4gb geben wird ist recht gering. Nvidia hat gesagt, dass es keine andere Karte mit dem namen GTX 690 geben wird als genau die jetzt vorgestellte.

Das einzige was möglich ist, dass Boardpartner wie ASUS eine Karte rausbringen die wie die ASUS Mars ist. Allerdings zu horrenden Preisen.
 
Stev010881 schrieb:
Nur weil der GK110 noch nicht im Laden steht bedeutet nicht das der Chip noch nicht entwickelt wurde.

Ist der Chip auf einer Gamerkarte käuflich zu erwerben ? Nein.
Ist der Chip auf einer professionellen GPGPU-Karte zu erwerben ? Nein

Existiert er in einem NVIDIA Labor ? Vielleicht
Existiert in einem AMD Labor schon ein neuerer Chip ? Vielleicht


Stev010881 schrieb:
Solange Nvidia die Performance-Krone innehat werden sie den maximalen Erlös mit dem geringstmöglichen Aufwand abschöpfen. Aktuell ist dies möglich. Simples Marketing.

Du scheinst ja ein richtiger Betriebswirtschaftsguru zu sein :D Der Aufwand und die Kosten setzen sich aus zwei wesentlichen Komponenten zusammen:

- Die variablen Kosten z.B. Waferkosten pro Chip
- die fixen Kosten, z.B. Entwicklungskosten

Wenn der GK110 schon fertig ist, hat NVIDIA den Aufwand der Entwicklungskosten schon längst getätigt und wird das Geld dafür wohl möglichst schnell wieder reinbekommen wollen. Jede verkaufte Einheit liefert dazu einen Deckungsbeitrag.



Stev010881 schrieb:
Nvidia würde damit dem eigenen Produkt unnötig Konkurrenz machen. Anstatt den GK110 jetzt zu einem Preis rauszubringen den selbst ein Enthusiast kaum bezahlen würde

Ja was jetzt ? Würde NVIDIA sich damit selbst Konkurrenz machen, dann müßten die Kunden ja wohl auch den GK110 zu einem höheren Preis kaufen und die GTX 680 beliben liegen. Oder sie sind nicht bereit, soviel Geld auszugeben, dann macht NVIDIA sich auch keine Konkurrenz, denn dann werden ja die günstigeren GTX 680 gekauft.

Du solltest Dich bei Deiner Argumentation mal für einen Weg entscheiden.

Stev010881 schrieb:
wartet Nvidia lieber darauf das die Kunden sich jetzt mit dem GK104 eindecken und in ein paar Monaten dann erneut mit dem GK110.

Wenn der GK110 schon fertig wäre, dann hat NVIDIA die Entwicklungskosten schon investiert. Sie haben es aber gar nicht so eilig, diese Kosten wieder hereinzubekommen (haben ja eh genug Kohle :D) denn es würden ja eh nur wenige Leute 700-800€ für so eine Karte bezahlen.

Dann wartet NVIDIA doch lieber bis zum Sommer oder Herbst, wenn die Preise für GTX 680 und 7970 schon gefallen sind und AMD auch einen überarbeiteten schnelleren Chip rausbringt.
Die GK110 kann man dann natürlich nicht mehr zu einem so horrenden Preis herausbringen.

Aber macht doch nichts, NVIDIA läßt einen Haufen totes Kapital herumliegen und verkauft es dann halt im Sommer zu günstigeren Preisen. Die Marge ist dann zwar kleiner, aber wen interessiert das schon, NVIDIA braucht das Geld doch nicht wirklich.

Das ist doch vollkommener Kokolores.

Seit wann kann man in der Hardware Branche, für ein Produkt, für das man heute einen bestimmten Preis erzielen kann, in der Zukunft einen höheren Preis erzielen ?
Irgendwie war das immer anders herum. Neues Produkt = mehr Leistung fürs gleiche Geld, oder gleiches Geld für mehr Leistung. Alles andere ist unverkäuflich.
 
Optisch, Preislich und von der Leistung ganz klar ein Blickfang!!!
 
sehr gute Leistung für eine Multigpu karte, respekt nvidia aber der Preis ist ja mal der Hammer o.O 1000€ für ne GraKa ist einfach nur abgedreht
 
Erst mal ein großes Lob von mir für das aussagekräftige Testen von Mikrorucklern.

Als wie schlimm das dann der einzelnen Spieler die verbleibenden Microruckler wahrnimmt wird, kann leider auch Computerbase nicht testen.

Ich habe jetzt 1,5 Jahre ein GTX 285 SLI-System benutzt und konnte keine störenden Microruckler wahrnehmen. Beim Wechsel auf eine Single HD 7970 war auch keine Verbesserung für mich spürbar - nur die Optik wurde ein klein wenig besser, weil jetzt Ultra-Einstellungen dank Direkt X11 möglich geworden sind.

Beim Testen von High-End-Hardware für Enthusiasten ist es natürlcih etwas schade, wenn nicht die passende Testplatform verwendet wird. Gerade für solche Spinner (mich eingeschlossen^^), die sich so eine dann auch noch übertaktete Kiste mit Wasserkühlung hinstellen, mit viel zu viel Leistung als vernünftigerwesie notwendig, ist es durchaus eine interessante Frage, ob die GTX 690 mit 2 x GTX 680 SLI mithalten kann.

Aber wo soll man die Grenze ziehen? Computerbase stellt einen für uns kostenlosen Artikel zur Verfügung (abgesehen von der Werbung, die man mitbekommt^^), der zwar nicht alle Fragen zufriedenstellend beantwortet, aber doch einige zentrale (Lautstärke, Mikroruckler).

Wer mehr wissen will, kann weitere Tests finden, die andere Stärken und Schwächen haben.

Wenn ich hier keinen kostenlosen Test lesen würde, sondern ein Gutachten für einige Tausend Euro im Auftrag gegeben hätte, würde ich mich wütend über die 8-Lane-Limitierung beklagen und ebenso mokieren, dass nicht einmal ein Umbau auf Wasserkühlung samt Übertaktungsreihe stattgefunden hat. Ansonsten finde ich einiges vom Gemecker hier im Forum als unangemessen.
 
@Petermaeier...Du hörst dich für mich wie jemand an, der sich gerade 2 680 GTX in System gebaut hat und nun wutschnaubend vor dem Monitor sitzt, weil ein renomierter Name schreibt, dass die 690 GTX an der leistungsspitze steht.
Selbst mit einer doppelten PCiE Anbindung der 680er wäre das aber wohl nicht anders. (" wir sehen 2 680 GTX klar hinter der 690 GTX")
Das Bild vom trotzigen Kind unterstützt du dann auch gleich noch mit dem betiteln von anderen Forenusern. Ganz großes Kino...
Im übrigen ist dein Schriebs auch inhaltlich lediglich falsch. Aber hey, erzähl das doch mal deinem Menotor :)
 
Zuletzt bearbeitet:
Soweit hier der Preis der GTX 680 kritisiert wird, sollte man bis zum Verkaufsdatum der HD 7990 Ende Juni abwarten.
Qualitätsmäßig hat sich NVidia mit dem Problem der MR sehr beschäftigt und diese wohl auch ziemlich reduzieren können.
 
Zurück
Oben