Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

Etwas niedrigere Energieaufnahme, gleiche Performace in den relevanten Auflösungen, höherer Preis (ggn einer HD 7970). Das ist für ¼ Jahr längere Bauzeit eindeutig zu wenig. Schade. Ist wohl nicht zu empfehlen.
 
riDDi schrieb:
Da Tahiti ~25% größer ist müsste AMD also 25% höhere Yields erreichen, damit die Chips gleich viel kosten.

nicht ganz.

Es sind ja ca 25% weniger Chips auf dem Wafer. Zudem nimmt die Yield quadratisch zur Größe ab.

Bei fixen mm² Preisen wäre Tahiti also ~ 100*1,25² = preislich bei ca schon bei 150% im Vergleich zum GK104.
Dazu noch 25% weniger Chips / Wafer.

+ weniger Ram
+ sparsameres Boardpower + Komplexität.

Ich würde annehmen, dass eine GTX680 schnell etwa nur die Hälfte einer HD7970 kosten dürfte. (ProduktionsKosten)

@FoxMcCloud

"Bauzeit " :D
 
Zuletzt bearbeitet:
Man bezahlt beim Fertiger immer den ganzen Wafer. Wie teuer ein Chip am Ende ist hängt nur davon ab, wie viele funktionstüchtige Chips man pro Wafer erhält. Und da spielt neben der Größe und dem Verschnitt auch das Design und seine Fehlertoleranz eine große Rolle.
Da Tahiti ~25% größer ist müsste AMD also 25% höhere Yields erreichen, damit die Chips gleich viel kosten
Das stimmt so nicht! Erst jetzt hat (Gerüchten zufolge) TSMC bei AMD eine Bezahlung pro Wafer verlangt, so dass sich AMD am Prozessrisiko beteiligen soll. Zuvor war das nicht der Fall! Ob das für nVidia ebenfalls gilt, weiß ich nicht. Da du das ja behauptest, kannst du vielleicht eine Quelle nennen. Die Yields sind sicherlich nicht linear in der Chipgröße.

Etwas niedrigere Energieaufnahme, gleiche Performace in den relevanten Auflösungen, höherer Preis (ggn einer HD 7970). Das ist für ¼ Jahr längere Bauzeit eindeutig zu wenig. Schade. Ist wohl nicht zu empfehlen.
Gleiche Performance in den relevanten Auflösungen? Guck dir die Launchanalyse bei 3DCenter an. Rund 10% schneller in FullHD und 5% schneller in 2560x1600. Erst bei höheren Auflösungen gibt es ein unentschieden. Das sind aber gewiss nicht mehr "relevante" Auflösungen.
 
Zuletzt bearbeitet:
FoxMcCloud schrieb:
Etwas niedrigere Energieaufnahme, gleiche Performace in den relevanten Auflösungen, höherer Preis (ggn einer HD 7970). Das ist für ¼ Jahr längere Bauzeit eindeutig zu wenig. Schade. Ist wohl nicht zu empfehlen.

Ich ab noch nie gehört, dass der Launchtermin ein Argument für eine Empfehlung ist.
Inwiefern macht das eine GTX680 nun schlechter gegenüber der HD 7970?

Tomahawk schrieb:
Erst jetzt hat (Gerüchten zufolge) TSMC bei AMD eine Bezahlung pro Wafer verlangt, so dass sich AMD am Prozessrisiko beteiligen soll.

Wenn dies so ist, dann ist die Aussage von riDDi doch korrekt oder weswegen nicht?
 
Zuletzt bearbeitet:
Das stimmt die beiden Karten schenken sich recht wenig. Im Grundzustand ist die GTX680 etwas besser.
Wenn man aber beide bestmöglich optimiert, sehe ich den Tahiti-Chip vorne.

Was mir aber allgemein sauer aufstößt, die Radeons wurden ständig für das nicht mögliche SSAA unter DX10/11 kritisiert, insbesondere in den Reviews der Redaktionen, dass es ohne LOD-Anpassung nutzlos war, wollte keiner wissen.
Jetzt ist es mit GNC samt LOD-Anpassung möglich, wird aber nicht als Kritikpunkt gegen nVidia genutzt, das ist inkonsequent. Das trifft nicht für auf CB zu, vor Allem 3DCenter, als die Qualitäts-Elite hält sich extrem stark zurück.
 
Wintel schrieb:
Ich ab noch nie gehört, dass der Launchtermin ein Argument für eine Empfehlung ist.
Inwiefern macht das eine GTX680 nun schlechter gegenüber der HD 7970?

Man muss halt schon mal gut und gerne 30€ mehr für eine gleich starke Grafikkarte bezahlen. Das klingt nicht sehr überzeugend. Zumal die gleich teuren OC Varianten, die dann schon mal schnell mit der GTX 680 den Boden wischen, gleich viel kosten.

Und wenn man die längere Entwicklungszeit bedenkt, ist das schon eine Enttäuschung.
 
Wenn dies so ist, dann ist die Aussage von riDDi doch korrekt oder weswegen nicht?
Er schreibt, dass man immer den ganzen Wafer bezahlt als sei es das Normalste der Welt. Es gibt erst seit Monaten Gerüchte, dass das im Fall des 28nm-Prozesses so ist. Zuvor war es nachweislich nicht so. Und wenn die Bezahlung pro Wafer für AMD gilt, heißt es noch lange nicht, dass es auch bei nVidia so sein muss.

Und wenn man die längere Entwicklungszeit bedenkt, ist das schon eine Enttäuschung
Na ja, 20% effizienter (Leistung/Watt) als die HD7970 ist schon recht ordentlich. Aber jeder hat andere Vorstellungen. nVidia dreht auch nicht mit jeder Generationen Kreise um die AMD-Chips.

Zumal die gleich teuren OC Varianten, die dann schon mal schnell mit der GTX 680 den Boden wischen, gleich viel kosten.
Du solltest deine rotgefärbte Brille abnehmen, solche platten Sprüche müssen wirklich nicht sein.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Gleiche Performance in den relevanten Auflösungen? Guck dir die Launchanalyse bei 3DCenter an. Rund 10% schneller in FullHD und 5% schneller in 2560x1600. Erst bei höheren Auflösungen gibt es ein unentschieden. Das sind aber gewiss nicht mehr "relevante" Auflösungen.

Ich habe mir den Test hier durchgelesen und hier gibt es bei 2500x1600 Gleichstand (vllt 1-2% Unterschied, sollte man allerdings nicht merken). Und bei Grafikkarten in der Preiskategorie sind das nunmal die Relevanten Auflösungen. Tut mir Leid.
 
FoxMcCloud schrieb:
Ich habe mir den Test hier durchgelesen und hier gibt es bei 2500x1600 Gleichstand (vllt 1-2% Unterschied, sollte man allerdings nicht merken). Und bei Grafikkarten in der Preiskategorie sind das nunmal die Relevanten Auflösungen. Tut mir Leid.
Dir braucht es doch nicht Leid tun, dass du nur einen einzigen Test angeschaut hast. 3DCenter hat mehrere Tests ausgewetet und komm zu Folgendem:

"
Dabei legt die GeForce GTX 680 im Schnitt der Messungen einen Vorsprung von 9,6 Prozent unter 1920x1200 4xAA und ca. 5,6 Prozent unter 2560x1600 4xAA gegenüber der Radeon HD 7970 hin. Selbst die (leider nur wenigen) Benchmark-Werte unter 1920x1200 8xAA und 2560x1600 8xAA deuten weiterhin auf einen geringen Vorteil der GeForce GTX 680 hin – zwar nicht mehr ganz so klar wie unter 1920x1200 4xAA, aber weiterhin ausreichend für einen Benchmark-Sieg."



Und bei Grafikkarten in der Preiskategorie sind das nunmal die Relevanten Auflösungen
Der Anteil derjenigen, die eine HighEnd-Grafikkarte kaufen ist wesentlich höher als der Anteil derjenigen, die einen 30" Monitor haben. daher ist FullHD bzw. 1920x1200 für einen Großteil der GTX680-Käufer die relevante Auflösung.
 
Tomahawk schrieb:
Na ja, 20% effizienter (Leistung/Watt) als die HD7970 ist schon recht ordentlich. Aber jeder hat andere Vorstellungen. nVidia dreht auch nicht mit jeder Generationen Kreise um die AMD-Chips.

War aber bei den letzten Genrationen so:
HD 2900Pro vs GT 8800
HD 3870 vs GT 9800.
HD 4870 vs GTX 260
HD 5870 vs GTX 460*
HD 6970 vs GTX 570
HD 7970 vs GTX 680
*(nur bedingter Vergleich möglich, da Grafikkarten zu sehr unterschiedlichen Zeitpunkten erschienen.)

Das sieht alles in allem nicht gut aus für Nvidia, wenn man sich anguckt, wie mehr und mehr die High End Modelle angegriffen wurden.
Das tut mir Leid.
 
Jetzt müssen erstmal Spiele her die die Möglichkeiten der neuen Karten überhaupt nutzen... was bringt neue Hardware, wenn man die alte Software testet?
 
FoxMcCloud schrieb:
Man muss halt schon mal gut und gerne 30€ mehr für eine gleich starke Grafikkarte bezahlen.

In allen Reviews ist die GTX680 etwas (ca 10%) schneller, daher ist "Gleichstand" sehr wohlwollend für AMD ausgedrückt.

Zumal die gleich teuren OC Varianten, die dann schon mal schnell mit der GTX 680 den Boden wischen, gleich viel kosten.

Die GTX680 gibts aktuell für ~ 480 Euro lieferbar.
OC Versionen der HD 7970 die gleichschnell sind, gibts ab ~500 Euro lieferbar.
Isofern ist deine Phrase "den Boden wischen" fehl am Platz.

Und wenn man die längere Entwicklungszeit bedenkt, ist das schon eine Enttäuschung.

2,5 Monate längere Entwicklungszeit und man hat ca 10% Vorsprung und einen minimal geringeren Stromverbrauch unter Last.
Wieso soll das eine Enttäuschung sein? Man steht etwas besser da ( Gaming) als die Konkurrenz und dass sowas nicht selbtsverständlich der Anspruch sein kann, hat man an vielen Karten gesehen.
Seien sie von Nvidia oder AMD gewesen.

Relevenate Auflösungen sind aus Nutzersicht primär 1680x1050 und 1920x1200 und dort ist die GTX680 knapp 10% in Front.
2560x1600 fährt fast keiner. (Downsampling und exzessives SGSSAA mal ausgenommen)

Booby schrieb:
Jetzt ist es mit GNC samt LOD-Anpassung möglich, wird aber nicht als Kritikpunkt gegen nVidia genutzt, das ist inkonsequent. Das trifft nicht für auf CB zu, vor Allem 3DCenter, als die Qualitäts-Elite hält sich extrem stark zurück.

Das liegt daran, dass die Qualitätselite hauptsächlich Nvidia gefahren hat, sowie favorisiert hat.
Ein kleiner Schönheitsfehler, den man entweder bewusst oder unbewusst übersehen hat.
Zur Gute halen muss man aber auch, dass Nvidia noch Downsampling anbietet und auch SGSSAA mit AA-Bits.

Das ist zwar wesentlich komplizierter und umfangreicher als AMD´s Treibereinstellung, man kann es aber mit etwas Manpower hinbekommen.
Insofern kann da jeder denken drüber wie er will.
Richtig konsequent ist es jedenfalls nicht, da eine automatische LOD Verschiebung vieles erleichtert.
 
Tomahawk schrieb:
Dir braucht es doch nicht Leid tun, dass du nur einen einzigen Test angeschaut hast. 3DCenter hat mehrere Tests ausgewetet und komm zu Folgendem:

3DCenter ist nicht gerade für seine objektiven Reviews bekannt.

Tomahawk schrieb:
Der Anteil derjenigen, die eine HighEnd-Grafikkarte kaufen ist wesentlich höher als der Anteil derjenigen, die einen 30" Monitor haben. daher ist FullHD bzw. 1920x1200 für einen Großteil der GTX680-Käufer die relevante Auflösung.

Falsch. Die meisten kaufen sich eine High End Karte, um damit auch auf hohen Auflösungen und mit aktivierten Filtern zu spielen und da sieht es halt mau aus, wie ich finde.
 
Tomahawk schrieb:
Na ja, 20% effizienter (Leistung/Watt) als die HD7970 ist schon recht ordentlich.

Ob es denn wirklich 20% sind?

perfwatt.gif


Zudem sollte man eher die etwas schwächere HD78xx Reihe als Vergleich heranziehen, da Tahiti mehr RAM hat und der Chip im vgl zu GK104 stark auf GPGPU Performance ausgelegt ist.
 
riDDi schrieb:

Was hat das mit meinem Link zu tun ?
http://www.hardwareluxx.de/index.ph...tx-680-mit-2-ghz-gpu-takt-in-entwicklung.html

Wiedermal nichts verstanden oder gar ignoriert ??

Du änderst dich wohl nie. ;)

Da steht doch klipp und klar, das diese Karte mitte April in den Handel kommen soll.
Glaubst du sie packen noch ein Fläschchen LN2 dazu ? :evillol:

Nein !
Sie wird entweder mit einem Trippellüfterdesign oder wahrscheinlicher mit einem Water-Chopper erscheinen. Die Spannungsversorgung wird dem Takt gerecht werden und schon läuft das Ding kreise um eine HD7970 mit oder ohne OC+. :cool_alt:

Hier schon mal ein kleiner Vorgeschmack:
http://kingpincooling.com/forum/showthread.php?t=1681
Luftgekühlt versteht sich.
 
Zuletzt bearbeitet:
Booby schrieb:
Das stimmt die beiden Karten schenken sich recht wenig. Im Grundzustand ist die GTX680 etwas besser.
Wenn man aber beide bestmöglich optimiert, sehe ich den Tahiti-Chip vorne.

Das kann man so stehen lassen... das ist aber Customizing, welches danna uch je nach Spielertyp und Karte anders ausfallen kann, das sollte man auch so nicht testen. Genauso wenig braucht man eine 100MC + OC HD7970 in den Benchmark mit aufnehmen.

Was man macht sind Produkte so zu testen wie sie ankommen.

Was mir aber allgemein sauer aufstößt, die Radeons wurden ständig für das nicht mögliche SSAA unter DX10/11 kritisiert, insbesondere in den Reviews der Redaktionen, dass es ohne LOD-Anpassung nutzlos war, wollte keiner wissen.
Jetzt ist es mit GNC samt LOD-Anpassung möglich, wird aber nicht als Kritikpunkt gegen nVidia genutzt, das ist inkonsequent. Das trifft nicht für auf CB zu, vor Allem 3DCenter, als die Qualitäts-Elite hält sich extrem stark zurück.

genau dasselbe. Customizing - da müsste man nun exakt die Bildquali vergleichen und nochmal bei ähnlicher BQ benchen. AA und AF wird wohl noch am öftesten benutzt, aber die User die LOD bei der HD7970 anpassen dürften an einer Hand abzählbar sein.

Jede Einzelbetrachtung lässt sich eben nicht durchführen und auch nur schwer kann man von einem Reviewer erwarten das er auf all diese Details nochmals Worte verliert.

Ich denke CB hat einen sehr mühevolles Review abgeliefert, und ist meiner Ansicht nach zu einem extrem Neutralen und richtigem Fazit gekommen.

Es zählt meiner Meinung nach klar mit zu den Top Reviews überhaupt. Sehr ausführlich, sehr viele Sondertests.

Edit: Hat man beim AMD Treiber eigentlich die Tessellationsoptimierung deaktiviert? Bei meinem Catalyst ist das per default aktiv.

When comparing my GTX 680 or really any results with those of 7970, always keep in mind that all scores here are done with FULL TESSELATION and not using any sort of driver cheats that reduce it in TESSELATION heavy benchmarks as AMD drivers do.
3DMARK 11 (all 3 presets)

Ich denke die GTX 680 ist extrem Abh vom Hersteller Bios und hat viel potential nach oben.

I manage to overclock this card to nearly 1420mhz on air with fans running @full speed

Das schafft schon mal fast keiner mit den Review-Karten.

@Pickebuh

schöner Link. 1400 ist für <1,2 V gar nicht übel. Die neuen Chips sowohl IB mit 22nm als auch die 28nm GPU scheinen fast ausschließlich über Kälte zu skalieren.
 
Zuletzt bearbeitet:
3DCenter ist nicht gerade für seine objektiven Reviews bekannt.
3Dcenter hat nichts getestet, sondern Review zusammengefasst.

Falsch. Die meisten kaufen sich eine High End Karte, um damit auch auf hohen Auflösungen und mit aktivierten Filtern zu spielen und da sieht es halt mau aus, wie ich finde.
Sorry, aber wieso sind 5,6% vor einer HD7970 mau? Der Performance-Unterschied zwischen GTX580 und GTX680 ist bei allen Aufllösungen auch konstant. Du hast aber leider keine Vorstellung, wie selten Auflösungen größer als 1920x1200 genutzt werden. Guck dir mal die Steam Hardware Survry an.

@Athlonscout
Das von dir gepostete Review hat ein extremes CPU-Limit, daher sind die Werte derart dich beisammen. Informiere dich bitte beim nächsten Mal wieso nur dieses eine von dir genannte Review zu diesem Abweichler kommt.

Zudem sollte man eher die etwas schwächere HD78xx Reihe als Vergleich heranziehen, da Tahiti mehr RAM hat und der Chip im vgl zu GK104 stark auf GPGPU Performance ausgelegt ist
Damit deine tollen AMD-Karten vorne liegen? Mainstream-Grafikkarten haben fast immer ein besseres Perf./Watt-Verhältnis, was du anscheinend nicht weißt. Poste doch, dass AMDs HD5750 schon seit 2 Jahren ein besseres Perf./Watt-Verhältnis als Kepler ha (du müsstest nur einen Test finden, der noch stärker CPU-limitiert ist), damit du mal wieder deine tollen AMD-Produkte pushen kannst. Jeder andere Vorgehen als ein bestimmtes Leistungsniveau zu fixieren und sich dann den dafür nötigen Strombedarf anzuschauen führt zu Verzerrungen.
 
Zuletzt bearbeitet:
Sind beides ziemlich gleichwertige Karten mit Vor- und Nachteilen. Diese Behauptungen, die eine sei soundsoviel Prozent besser als die andere führen doch zu nichts, weil man sie immer mehr oder weniger widerlegen kann.

Gaming ca. gleich gut.
GPGPU AMD wesentlich besser.
AMD mehr Speicher.
NV sparsamer.

Die NV kann dennoch die bessere Wahl für einen Gamer sein.

Finde, die 3DCenter-Launchanalyse fasst es - wie so oft - sehr gut zusammen und sagt in etwa das.
 
FoxMcCloud schrieb:
3DCenter ist nicht gerade für seine objektiven Reviews bekannt.

3D Center schreibt keine reviews, sondern nimmt Werte aus den verschiedensten Berichten und kummuliert diese.
Objektiver geht es kaum mehr.
Wenn du das nicht einsehen willst, kann man dir denk ich nicht helfen.

Athlonscout schrieb:
Ob es denn wirklich 20% sind?

Ja die sind es annähernd.
Im Mittel der reviews verbraucht die GTX680 15 bis 20 Watt weniger als die HD 7970 und ist in etwa 10% schneller.
Insofern kommts relativ genau hin.
Du hast jetzt übrigens einen Test verlinkt der ein Ergebnis ausspruckt, welches wohlwollend für AMD ausfällt.

Pickbeuh schrieb:
Wiedermal nichts verstanden oder gar ignoriert ??

Eher sehr unwahrscheinlich, dass solch eine Karte von Nvidia zum Verkauf freigegeben wird.
Noch unwahrscheinlicher ist eine Serienfertigung eines GPU von einem Boardpartner der mehr als 1,3ghz an die GPU anlegt.
Die elektronenmigration steigt bei erhöhter Spannung, die Temp und der Verbrauch.
Ich kann dir schonmal unter Vorbehalt eines verraten: Es wird keine Karte mit 2GHZ Standard GPU Takt geben.
 
Zuletzt bearbeitet:
Zurück
Oben