Test Test: Nvidia GeForce GTX 690

Etwas verarscht darf man sich wohl vorkommen mit dem Performance-Chip GK104 der sich plötzlich "HighEnd" nennen darf, nur weil AMD aktuell nicht schnell genug ist für den echten HighEnd-Chip GK110.

Nvidia sollte aufhören AMD als Maß zu nehmen und stattdessen Games wie Metro 2033 in 2560x1600 mit 3D-Vision[Discover] und 8x Antialiasing, dann gäbe es keinen Grund den GK110 absichtlich zurückhalten.

Ich wäre gerne bereit jährlich 500€ (x2 für SLI) zu zahlen wenn die Rechenleistung mindestens 50% über der vorherigen GTX liegt. Aber nein, Nvidia wird durch den Wettbewerb künstlich gebremst weil sie immer erst schauen was die Konkurrenz abliefert.
 
Zuletzt bearbeitet:
Das Märchen vom GK110...
Der wird meines Wissens nicht zurück gehalten, sonder kann schlciht nicht in genügend Mengen produziert werden zur Zeit, außerdem soll er nur minimal schneller sein, als der jetzige Chip und eben im Bereich GPU Computing besser sein. Für Gamer ist der GF/GK110 also nicht wirklich interessant...
 
Krautmaster schrieb:
In jeder Disziplin ist der Duale GK104 hier weit überlegen.

Nur, wenn man ignoriert, dass Nvidia, um das zu erreichen, den GPGPU-Part klein gehalten hat.

Hätte AMD in dem Bereich nicht mehr Transistoren verbraten, hätten die auf den direkten Vorgänger auch ihre 50% mehr Leistung drauf pappen können.
 
Zuletzt bearbeitet:
Klar, es sollen ja auch brav alle den GK104 kaufen. Ich weigere mich diese Propaganda zu glauben, na ja ich hoffe es zumindest denn die 30% zur letzten GTX sind etwas mager für den Sprung auf eine neue Architektur.

Ich könnte wetten Nvidia zieht wieder so eine Show ab wie damals beim Fermi GF100 (GTX480) der nach nur etwa 8 Monaten durch den Fermi GF110 (GTX580) ersetzt wurde.

getexact schrieb:
Für Gamer ist der GF/GK110 also nicht wirklich interessant...

Also der GF110 ist für Gamer schon interessant: Daraus wurde die GTX580 die knapp 20% schneller ist als der GF100 (GTX480) und ich schätze/hoffe das es beim GK104 vs. GK110 ähnlich ablaufen wird.
 
Zuletzt bearbeitet:
Leider viel zu teuer aber dennoch eine sehr gute Grafikkarte meiner Meinung nach :) !
Hat aber auch ewtwas gedauert hmm...
 
Ähm ja so funktioniert die freie Marktwirtschaft halt. NV hat aktuell die beiden schnelleren* und "runderen"** Grafikkarten als AMD, also warum um alles in der Welt sollten sie dafür nicht auch ein bisschen mehr Geld verlangen und auch was dabei verdienen. Was für einen Nutzen würde NV daraus ziehen, wenn sie die 680 für sagen wir mal 300 statt 500 € und die 690 für 600 statt 1000 € verkaufen würden? Nur weil es ein angeblicher Mittelklasse-Chip ist der sein Geld angeblich nicht wert ist? Er ist halt in dem Bereich Gaming, der einen Großteil der Käuferschaft interessiert, etwas schneller als das was AMD mit der 7970 am Start hat, ergo ist er verglichen damit etwas mehr wert, und diesen Mehrwert lässt sich NV bezahlen. Wer sagt übrigens, dass eine potentielle 780 preislich die 680 ablösen wird, und nicht mit 600 oder sogar 700 € angesetzt wird? AMD hat die 69XX Serie preislich auch nicht abgelöst sondern sich die 79XX einiges teurer bezahlen lassen. Die Zeiten, wo die Topmodelle der neuen Generation so viel kosten wie die Topmodelle der vorherigen Generation zu deren Einführung könnten halt vorbei sein...


*bezogen auf die reine FPS-Leistung, ungeachtet der Computing-Leistung
**Ansichtsache, und hängt von den persönlichen Bedürfnissen ab
 
Schade nur das man die Mikroruckler nicht wech bekommt.

Ich Verstehe garnicht wieso diese überhaupt auftauchen, in diesem ausmaß.
Man sollte meinen das zwei aufeinanderfolgende Bilder immer nahezu identisch sind, bis auf eben das etwas fortschreitet, und die eingepflanzten GPU´s sind vollkommen identisch.
Wie kann es dann sein, das eine immer nur unter 20ms braucht, und die andere immer 40-60ms ...
ein paar ms kann ich ja verstehen, wenn etwas explodiert oder so, aber so extrem ...?

Da stimmt doch irgendetwas überhaupt nicht, genauso wie nicht zu 100% Skaliert wird.
Wenn immer abwechselnd ein Bild berechnet wird, wo gehen denn dann die verluste hin?
also so einwandfrei richtig kann das ja nicht sein wie einem das immer erklärt werden will ...
 
Wow schöner Test.

Nvidia scheint ja im Moment wirklich alles richtig zu machen... Ich bin auf die günstigen Ableger der 680 gespannt!
 
Kann hier auch nur einer Vermarktungs-technisch denken?
Warum sollte Nvidia 2 x 4 GB Speicher einbauen, wenn sie zwei GTX 680 mit jeweils 4 GB an die Enthusiasten/Checker verkaufen können? ...und das für ca. 100 €uro mehr!

Und jetzt die Preisfrage an euch Checker: Warum blos dämmt Nvidia nie ganz die Mikroruckler-Problematik ein? Na, wer errät es?


ps: Nvidia ist ein gewinnorientiertes Unternehmen
 
Wenn die HD 6990 wirklich so deklassiert wird, wird es Zeit zum Wechsel.
Ist denn schon ein WaKü-Aufsatz für die Karte in Sicht?
 
@ExcaliburCasi: Ich glaube der entscheidende Punkt ist, dass die GPUs zeitverzögert rechnen müssen. GPU 2 ist nicht "langsamer" als GPU 1, sondern fängt einfach später an mit Rendern. In den Plots ist ja nicht die absolute Renderzeit pro Frame abgebildet sondern lediglich die Zeitdifferenz zwischen zwei aufeinanderfolgenden Frames. Wird der Rendervorgang von Frame 2 auf GPU 2 zu früh gestartet bzw. ist die Renderdauer von Frame 1 auf GPU überraschend lang, so werden Frame 1 von GPU 1 und Frame 2 von GPU 2 innerhalb weniger Millisekunden ausgegeben. Frame 3 von GPU 1 braucht dagegen wieder sehr lange bis es ausgegeben wird (da GPU 1 zb. erst 20 % von Frame 3 gerendert hatte als GPU 2 mit Frame 2 fertig war).

Die heftigen Mikroruckler bei Serious Sam und dem 7970 CF Verbund sehen irgendwie stark danach aus, dass beide Karten nahezu gleichzeitig mit dem Rendern beginnen und auch nahezu gleichzeitig fertig sind - damit liegen innerhalb kürzester Zeit zwei Frames vor. Bis das nächste Frame(paar) fertiggestellt ist dauert es aber wieder eine ganze Weile, da dieses zum Zeitpunkt des ersten bzw. zweiten Frames erst zu einem sehr kleinen Anteil berechnet war.

Was NV da mit ihrem Chip auf der 690 macht ist entweder eine bessere zeitversetzte Synchronisation der beiden GPUs (so dass eine GPU immer ca. 50 % ihres aktuellen Frames berechnet hat wenn die andere GPU gerade fertig ist - meines Erachtens aber eher ein schwieriges Unterfangen, da man vor der Berechnung nicht weiß wie lang es dauern wird, man kann höchstens von den bisherigen Frames und Berechnungszeiten Schätzungen anstellen), oder die Frames werden mit einer variablen, von der Framerate abhängigen Haltezeit zwischengespeichert (also so dass zwischen zwei dicht aufeinanderfolgende Frames künstlich eine etwas längere Pause eingebaut wird - hört sich zumindest einfach umsetzbar an).
 
Zuletzt bearbeitet:
Stev010881 schrieb:
Etwas verarscht darf man sich wohl vorkommen mit dem Performance-Chip GK104 der sich plötzlich "HighEnd" nennen darf, nur weil AMD aktuell nicht schnell genug ist für den echten HighEnd-Chip GK110.

Was für ein Quatsch. Der "echte Highend-Chip GK110" ist bislang immer noch Zukunftsmusik, das Ding existiert quasi noch gar nicht.

Stev010881 schrieb:
Nvidia sollte aufhören AMD als Maß zu nehmen und stattdessen Games wie Metro 2033 in 2560x1600 mit 3D-Vision und 8x Antialiasing, dann gäbe es keinen Grund den GK110 absichtlich zurückhalten.

Soso, NVIDIA hält also den GK110 absichtlich zurück, weil der GK104 ja schon mit dem AMD Tahiti gut fertig wird. Für eine noch schnellere Karte mit GK110, die dann natürlich auch teurer sein müßte, ist also kein Markt vorhanden ?

Stattdessen bringt NVIDIA dann die GTX 690 auf Basis 2xGK104 für 1000€ Euro raus, weil dafür ist ja ein Markt vorhanden ? Ich lach mich tot :lol:

BTW: Die GTX 690 hat NVIDIA ja wirklich gut hinbekommen. Alle Achtung, was die Mikoruckler und die Leistungsaufnahme angeht und natürlich auch die Performance.
 
Silverbreaker schrieb:
Eine GTX690 mit 2x 4Gb könnte man locker ebenfalls für den Preis von 2 Karten verkaufen. Wäre für das Marketing sogar noch besser.


HeinzNeu schrieb:
Wenn die HD 6990 wirklich so deklassiert wird, wird es Zeit zum Wechsel.
OMFG. Da kommt ne Dual-GPU-Karte an, die im kleineren Herstellungsverfahren eine 1 Jahr alte Konkurrenz Dual-GPU-Karte um rd. 40% - 60% gemittelt je nach Auflösung schlägt. :lol:

Ja genau, lasst die Abgesänge erneut erklingen. :rolleyes:

Es wäre äußerst peinlich und auch argh ungewöhnlich gewesen, wenn Nvidia es mit 2 GK104-Chips nicht hinbekommen hätte, vor der HD6990 zu landen.
 
Zuletzt bearbeitet:
Na ja, ich will der kommenden Hd 7990er auch eine Chance geben. Dem Vernehmen hat doe sogar 4 GB VRAM. Das ist für mich ein überzeugender Grund zum Wechsel:p
 
HeinzNeu schrieb:
Dem Vernehmen hat doe sogar 4 GB VRAM.

Die HD7990 wird entweder mit 2x 3Gb oder mit 2x 6GB auf die Leute los gelassen. Zum Release würde ich aber eher von 2x 3GB ausgehen.
 
Wo ist der Sinn einer solchen Karte wo doch 99,9 % der heutigen PC-Spiele nichts anderes als schlechte Konsolenumsetzungen sind, über die eine GTX 690 nur müde lächeln kann ;)
 
HamHeRo schrieb:
Soso, NVIDIA hält also den GK110 absichtlich zurück, weil der GK104 ja schon mit dem AMD Tahiti gut fertig wird.
Vom wirtschaftlichen Standpunkt her macht das sogar Sinn. Enthusiasten werden sich diese kaufen und auch die Nächste. Somit würde NV doppelt verdienen (theoretisch), weil manche eben immer die schnellste Grafikkarte haben müssen und sie sich auch leisten.

Ob es sich hierbei um genügend Kunden handelt ist die andere Frage, aber wäre es nicht so, kämen auch keine Dual-Chip-Karten heraus, also muss es sich wohl lohnen.

Ob der GK110 schneller ist, werden wir wohl bald rausfinden.

Dass NV-Gamer-Karten bei GPU-Comuting in letzter Zeit schlechter sind hat angeblich damit zu tun, dass NV Grafikkarten für den professionellen Bereich seperat verkauft und die sind nicht gerade günstig zu nennen.
 
Auch beim Thema Herstellerdesigns sieht es derzeit düster aus:

Wie bei der Geforce GTX 295 und GTX 590 teilte uns Nvidia mit, dass es keine Custom-Designs der Geforce GTX 690 geben wird.
Vermutlich lässt es sich zumindest Asus aber nicht nehmen, wieder eine mächtige Gottheit (siehe unsere Tests zur Mars, Mars II und Ares) ins Feld zu führen.
pcgh.de

es gäbe 3 gründe für Custom-Designs , Overclock (besser Stromversorgung) , mehr Speicher und Wasserkühlung von Werk schon.
 
Zurück
Oben