News Erster Test der Nvidia GeForce GTX 680

Leute!!! Es wird kein GK110 - Chip geben! Mehrkt ihr es nicht? Es bleibt bei GK104 und für Highend wird NVIDIA eine Duale-GraKa (2 x GK104) rausbringen. Punkt aus Nikolaus.

NVIDIA will jetzt auch in Richtung Effizienz gehen.

Ein GK110 mit 512 Bit wäre zu heftig was Leistungsaufnahme und Entwicklungskosten angeht. Man bedenke, dass die 28 nm - Ausbeute auch nicht gerade hoch ist ;)
 
Zuletzt bearbeitet:
Tomahawk

wie kommst du auf die werte?
Überschlagen ;)

Jetzt habe ich sogar gerechnet:
Basis f. Tempo: 3D Mark 11 Extreme
Stromverbrauch Werte aus Hardtecs4u und die hier gezeigte Grafik, aus der hervorgeht, dass die GTX rund 40W weniger verbraucht als Tahiti (ich weiß, die Zahl ist recht ungenau).

Dann etwas Dreisatz und ich komme zu folgenden Performance/Watt-Werten:
Basis GTX580: 1
HD7970 1,5
GTX680 2,19

was sehr ordentlich ist, nvidia selbst spricht nur von einer Verdopellung der Perf./Watt

Basis HD7970: 1
GTX580: 0,67
GTX680: 1,47

Falls jemand meckern will, hier die Rechnung:
Performance
GTX680 3165 119%
GTX580 2077 78%
HD7970 2669 100%

Leistungsaufnahme
170 W 81%
247 W 117%
211 W 100%

Rechnung
GTX680 119/81= 1,47 2,19
GTX580 78/117= 0,67 1
HD7970 1 1,5
 
Zuletzt bearbeitet:
Tuetensuppe schrieb:
@deadstar3
laut Test soll die GTX 680 bei BF3 ca. 20% schneller sein als die HD 7970.

Hier die Tests: klick (ganz ohne Balken ;-) )

Wo siehst du das? Ich sehe auch da nur Balken.
 
Natürlich wird es einen Gk 110 geben.
Wie würde Nvidia denn da aussehen, wenn in ein paar Monaten AMD seine HD 7980 rauskramt.
Glaubst du ernsthaft die haben da nichts in der Tasche?
 
Das könnte dieses Jahr noch ein richtig heisses Duell geben, bei den begrenzten Stückzahlen habe ich aber keine großen Hoffnungen, dass wir auf das Preisniveau von 2011 kommen :/
 
Kriegsgeier schrieb:
Leute!!! Es wird kein GK110 - Chip geben! Mehrkt ihr es nicht? Es bleibt bei GK104 und für Highend wird NVIDIA eine Duale-GraKa (2 x GK104) rausbringen. Punkt aus Nikolaus.

Quark, natürlich wird es einen GK110 geben. Die Teslas werden sie kaum mit Schokokeksen bestücken.
 
Precide schrieb:
Natürlich wird es einen Gk 110 geben.
Wie würde Nvidia denn da aussehen, wenn in ein paar Monaten AMD seine HD 7980 rauskramt.
Glaubst du ernsthaft die haben da nichts in der Tasche?

Dann gibt es einen überarbeiten GK104 der dann eben GK114 heißt. War bei der GTX 580 doch auch so. Wie soll die GK110 Karte dann heißen? GTX x90 war in den letzten beiden Serien immer eine Doppel-GPU und an eine GTX 685 glaube ich nicht. Es ist durchaus möglich und würde auch plausibel erscheinen auf einen GK 110 im Consumer-Bereich zu verzichten. Im übrigen gab es immer einen Schlagabtausch, nur bezweifle ich das man dieses mal so schnell reagieren kann wie man dies bei Fermi konnte.

boxleitnerb schrieb:
Quark, natürlich wird es einen GK110 geben. Die Teslas werden sie kaum mit Schokokeksen bestücken.
Wie gut der GF100 von den Tesla-Karten war haben wir ja alle gesehen, das Gejammer höre ich jetzt noch und auch AMD hat nun die Erfahrung gemacht, dass eine auf GPGPU hin optimierte Architektur nicht so gut für den Consumer-Bereich ist. Desweiteren wird man, sollte es einen GK110 auf Tesla-Karten geben, abwarten müssen ob dieser dann auch für andere Bereiche zum Einsatz kommt. Tesla-, und Quadro-Karten sind nicht unbedingt für ihren geringen Anschaffungspreis bekannt.
 
Zuletzt bearbeitet:
wenn ich das lese hier ...

"klatsche für amd"

"die gta680 scheint die hd7900er derb abzuziehen"

leute ... das sind daten von nvidia -.-'

wartet einfach die ersten tests ab und dann schauen wir, was das ganze kostetn und WANN man es in die finger bekommt!

hört bitte auf mit dem fanboy-gelaber und freut euch lieber, dass der konkurrenzkampf für fortschritt sorgt und ein preiskampf entstehen kann! ...
 
Ball_Lightning

https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/10/#abschnitt_leistung_mit_aaaf
Rating - 1920x1080 4xAA/16xAF
ist die 7970 ca 21% schneller

580 Gtx => 54,2 Frames das mal 1,21 => 65 Frames vs 72,2 Frames
http://www.xtremesystems.org/forums...orce-GTX-780&p=5069765&viewfull=1#post5069765

Das lustige ist ja dass sie die Beschreibung unabsichtlich über den Balken gesetzt haben.
Kann aber auch sein dass es nur 59 frames sind (Da der Balken ca bis dort hin geht xD)

72,2/65 => 1,107%
72,2/60 => 1,2 %
Also werden es 10-20 % sein.

Ich bin gespannt wie die 670 gtx wird, wie diese verglichen zur 7950 steht die weit aus attraktiver ist, und viel wichtiger wie die 7870 zum vergleich steht, da diese Karte kaum langsamer ist.
 
Zuletzt bearbeitet:
Kriegsgeier schrieb:
Mehrkt ihr es nicht?

was ist Mehrken? ist das viel von etwas?

GK110 kommt dieses Jahr und wird die beste je dagewesene GPGPU Leistung bringen.
Alles Andere steht auf einem anderen Blatt.
 
...was soll man eigentlich von einem Test halten, der sich auf zwei synthetische Tests (Unigine, 3DMark), zwei nV-Schokoladen-Benches (Lost Planet, Batman), ein Tahiti-Worst-Case-Scenario (BF3) und einen einzigen "neutralen" Bench (CoD) beschränkt? :freak:

Ich denke, auf CB wird das Ganze etwas ausgewogener aussehen. Im Mittel wird sich GK104 weiterhin unter Tahiti XT einordnen - was die Cherrypicking-Szenarios angeht, sehen wir ja hier. :D
 
Wow, sollte das wirklich stimmen:
Hut ab Nvidia
- kleiner Chip
- weniger Verbrauch
- Tick mehr Leistung

Wenn sie doch nicht GamplayPhysik behindern würden :(
 
Was meiner Meinung nach aufjedenfall feststeht ist, das es zu keinem drastischen Preisverfall kommen wird. Beide Hersteller tun alles um keine Produkte an den Markt zu bringen die eine vergleichbare Performance bieten. Scheinbar sind immer 10% abstand vorhanden.

Das riecht tatsächlich nach Preisabsprache.

@ Volker:

Mach dir keinen Kopf wegen der NDA, die meisten Leute werden euren Test aufjedenfall lesen. Wenn man sich verschiedene Internetseiten anschaut taucht immer wieder ein Link zu Computerbase-Tests auf. Ihr seit nach wie vor eine der Referenz Hardwareseiten im deutschen Sprachraum. Solange also die Qualität stimmt ist alles in Ordnung. Derartige Leaks wie jetzt eben sollte man aber auch nicht unter den Tisch fallen lassen. Meiner Meinung habt ihr alles richtig gemacht.

Die Frage ist nur was die NDA Bestimmungen sagen. Weil ich könnte mir durchaus vorstellen das es dort einen Passus gibt der vorschreibt keine Leaks weiterzuverbeiten. Das wäre dann kniffelig.
 
Weiss jemand ob txaa auch auf alten karten der 5xx funktionieren wird ?
 
schon beeindruckend was da auf uns wartet ab (vermutlich) 22.03.2012.
zumal ich mir versuche auszumalen, was der GK 110 im stande ist zu bewerkstelligen.
wie ich schon bereichts mehrfach schrieb: 2012 wird HEISS.
 
So ganz trau ich dem Test nicht. Ich habe z.B. keinen Test gefunden wobei die AMD 7970 genauso warm wurde wie die GTX 580. Ich habe nur einen Test gefunden, wo die AMD 7970 mit 85°C unter Last gemessen wurde. Alle anderen sind meist deutlich unter 80°C.

Bei den Benchmarks verhält es sich ähnlich. Wobei ich keinen Test gefunden habe, der nur 8xAA genommen hat. In allen anderen Tests finde ich keine annähernde Übereinstimmung zwischen GTX 580 und AMD 7970 die den hier Abgebildeten Benchmarks nahe kommen. Die Abstände sind meistens größer oder aber der Score ist höher als in den hier abgebildeten Grafiken.

Auch wenn man die beiden Chips in der Papierform betrachtet, müsste die 7970 vorne liegen. Die 7970 hat mehr Transistoren (3,54 vs. 4,31 Milliarden), größere Diefläche (294 vs. 365mm), mehr Shader (1538 vs. 2048) und mehr Speicherbandbreite (192,26 vs. 264 GB/s). Ob man diese nur alleine durch höhere Taktraten kompensieren kann, wage ich mal zu bezweifeln.

Der ganze Test scheint doch sehr zugunsten von Nvidia "bearbeitet" zu sein.

Was aber jetzt schon festzuhalten ist, dass Nvidia wohl doch in die richtige Richtung geht, was Energieaufnahme, Lautstärke und Wärmeabgabe, betrifft.
 
nicht schlecht die karte, aber genau das hab ich erwartet. und das reicht nicht um die karte mMn für 550€ zu verkaufen. also neee ^^ für 400€ maximal wäre das annehmbar. 300€ wäre das nen fantastischer deal.

naja ^^ hoffentlich kommt zeitnah eine potentielle gtx 670 (ti) die dann mehr oder weniger auf gtx 580 niveau liegen wird und um die 270-300€ kostet. das wäre annehmbar und das würd ich mir kaufen (für 2 jahre sollte ja so eine karte mehr oder weniger gut reichen ne ?! vllt nich in jedem game mit fsaa, aber hauptsächlich sollte es ausreichen nehm ich mal an)
 
Tomahawk schrieb:
Überschlagen ;)

Jetzt habe ich sogar gerechnet:
Basis f. Tempo: 3D Mark 11 Extreme
Stromverbrauch Werte aus Hardtecs4u und die hier gezeigte Grafik, aus der hervorgeht, dass die GTX rund 40W weniger verbraucht als Tahiti (ich weiß, die Zahl ist recht ungenau).


Du kannst nicht H.W.A.X. mit 3DMark und reale Leistungsaufnahme mit Gesamtsystemmessungen vergleichen. Laut HT4U lastet H.W.A.X. die Grafikkarten stärker aus als andere Games und 3DMark ist noch mal etwas ganz anderes als Games. Wenn Nvidia eine TDP von 195W angibt, kann man davon ausgehen, das unter Games wie H.A.W.X. auch 190-200W verbraten wird.
 
Ich warte schon seit meiner 590/SLI580smp2 auf die 680 reihe.. nun sind beide verkauft und geier jetzt mit einer 4890 rum. :/ und ein highend preis für ein perfomence chip werd ich nicht ausgeben. ich warte auf den gk110. dann muss wohl die 4890 wohl noch länger ihre arbeit machen.

klasse wurf von nvidia
 
Zurück
Oben