Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

GTX680 : 135.1

HD7970 : 97,7




SaGGGan schrieb:
Insbesonders für Fliegen ist das bestimmt interessant. Die können sogar soviel Hz differentiert warhnehmen.

Egal welches Spiel ich auf Ultra spiele, ich habe immer nur 60FPS, komisch...:lol:

Gute Nacht an alle

MfG osf81
 
Feines Stück Silizium, spätestens Montag hat mein Händler meine da. :D

Bei der ganzen Diskussion Performance GPU (GK104) vs High End GPU (GK110) sollte berücksichtigt werden, daß Nvidia, hätte man Heute beide gelauncht, sich selbst und vor Allem den Konsumenten den Markt gründlich versaut hätte.
Die GTX 680 wäre auf Grund ihrer mit der HD 7970 relativ vergleichbaren Leistung so oder so bei ~500€ gelandet (wobei selbst die teuren Alternate ein paar für unter 500~ lagernd haben), für die GK110 Karten hätte man aber wegen des vermutlich zu erwartenden Leistungsplus deutlich mehr nehmen müssen. Viele denken noch mit Grausen an die Launchpreise der GTX 280, die sich anfangs mangels Konkurrenz bei ~640€ eingependelt hatten. Der Enthusiastenmarkt ist allerdings derzeit meiner Meinung nach für solche Preise zu klein, auch wenn GK110 vermutlich vorrangig sowieso auf die CUDA/OpenCL Fraktion zielt, darauf deutet schon das vermutete 512 Bit Speicherinterface hin. Consumer Karte wären auf jeden Fall so teuer, daß sie selbst für viele Enthusiasten unatttraktiv wären.

Ich mache es einfach: erst einmal eine, sollten die Preise irgendwann spürbar nachgeben, dann eine 2. und SLI. Wobei auch eine für meine bevorzugten Spiele reicht, aber für mich als BQ Junkie kann es später durchaus noch etwas mehr Leistung sein.
 
Zwirbelkatz schrieb:
Wenn GTA5 jetzt schon käme, würde ich solch eine Karte wohl mal austesten. Aber in Ermangelung ernstzunehmender Spiele sehe ich den Nutzen einer (womöglich verfrühten) Investition in eine 500 € teure Grafikkarte (für mich persönlich) absolut nicht.
Der potenziell anstehende G110 und die neue Konsolengeneration verbreitet weitere Bauchschmerzen bei dem Gedanken, aufzurüsten.

Die hohe Effizienz ist bemerkenswert und endlich mal zeitgemäß. Somit wird die GTX580 nicht nur von der HD7870 deklassiert.

Genau meine Meinung. Aufrüsten ja wenn man vorher eine GK aus der 200er / 400er Serie hatte vll.
Aber generell nehme ich auch von dieser Karte Abstand, zumal die wirklichen high-end GK Ende dieses Jahres erwartet werden, die wahrscheinlich auch wieder so um die 500€ (Straßenpreise) einsteigen aber doch nochmal 10-15 Prozent über der GK104 Generation liegen könnten.
Und das Argument mit den Konsolen finde ich auch berechtigt. Schließlich sieht man es an PS3 / XBOX360 / Wii (U) wie viele der games portiert werden und meißt nur geringer Aufwand betrieben wird, um den häufig besser ausgerüsteten PC's gerecht zu werden. Somit sollte man wenn PS4 / XB720 auf den Markt kommen und eine GK kauft, die etwa zur selben bzw. zu einer späteren Zeit erscheint erstmal gut gerüstet sein. Die Betonung liegt hierbei liegt auf "erstmal", da man ja jetzt im fortgeschrittenen Alter der PS3 / XB / Wii sieht das Spiele-Anforderungen doch merklich weiter angezogen haben.
 
Zuletzt bearbeitet:
Fanboy, ja ne is kla. :D

Ja, sie bringt eine gute Mehrleistung mit. Und? Ich sagte lediglich, dass sie in dem Szenario, wo man mMn diese Karte wirklich braucht (also Auflösungen >FullHD) eben nichtmehr viel besser ist und man für normales spielen in FullHD auch durchaus zu kleineren Karten greifen kann.
Ich werde jedenfalls nicht von meiner 570 (der Radeon 570!) umsteigen, kann auch so alles was ich will in FullHD spielen. :)
 
Ohne LOD Anpassung für SGSSAA ist die Karte unbrauchbar. Wozu braucht man solche Leistung wenn nicht für AA? Und ausgerechnet der einzige Modus, der für heutige Spiele sinnvoll ist, wird nicht richtig unterstützt. Geht gar nicht, ihr FXAA können sie sich klemmen, das ist die schlimmste Erfindung seit Tiefenunschärfe.
 
Ich sehe den Leistungsvorteil der GTX680 gegenüber einer 7970, in Gamerauflösungen, wirklich als marginal an.

Die 7970 auf auf gleichem Taktniveau würde sogar gleichauf oder über der GTX680 liegen.

Wie ich finde lässt Nvidia sehr viel Federn in den Bereichen auf die es ankommt im Highend Grafikmarkt. Leute die sich das stärkste Modell kaufen, oder sogar 2-3 davon, wollen meißt auch SSAA und/oder hohe Auflösungen fahren und da gibt es z.Z. keinen Grund die GTX680 der 7970 vorzuziehen.
OK der bessere Stromverbrauch ist sehr lobenswert und sollte auch wirklich hervorgehoben werden, nur war dieser Aspekt die ganze Zeit auf AMDs Seite, trotzdem aber kein Kaufgrund für die meißten hier.

Allg. wird wie ich finde SSAA von Nvidia sehr stiefmütterlich behandelt und das ärgert mich z.Z. auch sehr bei BF3.

Meiner Meinung nach ist die 7970 für hohe Auflösungen das bessere Produkt und einen FPS-Begrenzer kann man sich auch selbst einstellen und somit Strom sparen.

Und wer FXAA erfunden hat gehört erschossen, da sieht man ja schon den Blureffekt auf den kleinen Vorschaufotos hier im Test. Ich spiele doch nicht in hoher Auflösung, um dann einen Effekt zu bekommen der die Grafik nach 720p aussehen lässt.
 
Zuletzt bearbeitet:
caryaner schrieb:
Mein gott , warum können manche NV nicht beglückwünschen., oftmals ist die leistung nunmal deutlich besser. FAKT


pcgames : 8,8%

Hardluxx : 7,5 Prozent.

.anandtech.com : 10%

.techpowerup.com : 8%

hardwarecanucks.com 7%


gamestar.de :

Die Leistung der Geforce GTX 680 ist barbarisch, den Vorgänger Geforce GTX 580 lässt die Kepler-Karte um durchschnittlich über 50 Prozent hinter sich, und auch das aktuelle AMD-Topmodell Radeon HD 7970 muss sich mit einem Rückstand von knapp 20 Prozent geschlagen geben.

....sooo,
was in nun an deiner empfohlene Gamestar Test falsch, ich habe es noch für dich fett makiert ?
 
Kartenlehrling schrieb:
pcgames : 8,8%

Hardluxx : 7,5 Prozent.

.anandtech.com : 10%

.techpowerup.com : 8%

hardwarecanucks.com 7%

Brachial echt bei hoher auflösung und BQ tendierts gegen null. Verbrauch ca 15W weniger echt toll die Leistung.:D
 
caryaner schrieb:
Kein problem ;)

Gängigste Auflösung 1920x1080 4xAA/16xAF


Battlefield 3

GTX680 ; 59,9

HD7970 : 49,3


Crysis 2

GTX680 : 63,8

HD7970 : 49,8


DIRT 3

GTX680 : 131

HD7970 : 106


Skyrim

GTX680 : 135.1

HD7970 : 97,7


www.gamestar.de/hardware/grafikkart...est/nvidia_geforce_gtx_680,464,2565890,6.html

Tja, wenn die Unterschiede tatsächlich so groß sind, dann ist der Test hier auf CB wohl voll für die Tonne.

Und Dirt 3 (gab es übrigens bei der 7970 für lau dazu) ist mit 106 FPS natürlich im Vergleich zu 131 FPS quasi nicht mehr vernünftig spielbar. Jeder halbwegs gesunde Mensch wird auf einem 120 Hz Monitor dann natürlich ein Tearing feststellen, auch wenn das menschliche Gehirn das eigentlich gar nicht mehr so schnell kann.

Sagen wir es mal so: Ungeachtet der Tatsache, dass die GTX 680 in vielen Bereichen, wieviel auch immer, vor einer 7970 liegt, solltest Du Dein Augenmerk statt ausschließlich auf das Wort "Frames per Second" vielleicht ein wenig mehr auf das Wort "Objektivität" verschieben.
 
Ich bin froh, dass einigen Leuten hier nun endlich die Luft rausgenommen wurde.
Die Tests sagen wohl alles.

Bestellt! ;)
 
nvidia-vs-ati.jpg



DAS musste jetzt einfach mal sein :evillol:

(ok, Bildchen ist schon bissl älter, ATI statt AMD, aber was soll's ...)
 
Zuletzt bearbeitet:
Nvidia hat das gemacht, was nötig war, um die HD7970 zu schlagen...und mehr nicht.

Besonders schick finde ich persönlich die Effizienz der neuen Architektur. Mit ~ 800 Mio. Transistoren und 25 Prozent weniger Rohleistung gegenüber Tahiti am Ende doch die Performance-Krone in den Händen zu halten, ist schon sehr nett.

Nach wie vor vermute ich jedoch massive Probleme beim 28 nm-Prozess, weshalb der Vorteil beim Energieverbrauch nicht so gravierend wie vielleicht erwartet ausfällt. Da ist sicherlich noch ein wenig Potenzial drin, das mit dem GK110 und einem guten Stepping hoffentlich auch ausgeschöpft werden kann.

Einzig die DP-FP-Leistung enttäuscht etwas, aber im Desktop-Bereich ist das nicht sonderlich kritisch. Für die Tesla-Serie muss Nvidia da aber noch die Katze aus dem Sack lassen.
 
bei den letzten 2 generationen hat AMD versagt. die letzte gute serie von AMD war die hd5000 serie

dafür werden sie jetzt büssen müssen, denn das war erst der anfang. der grosse chip von nvidia kommt ja erst im sommer/herbst. SEHR unwahrscheinlich dass sie damit mithalten können, selbst mit der 8000er generation, die ja wiederum erst später als der nvidia high end chip kommen wird

gratulation nvidia, aber sehr ungern, denn mir ist der laden ca so sympathisch wie intel und adolf hitler
 
@Tuetensuppe
Geil!


Also ich persönlich habe nach der nVidia ansage echt mehr erwartet.
Kepler ist echt nicht schlecht! Auch wiederum ist Tahiti auch nicht schlecht!
Beide Karten sind gleichauf.

Aber:
Kepler ist eigentlich Fermi Version 3.
Tahiti ist eine neue Architektur. Die aber noch in Kindergarten ist. Tahiti braucht noch etwas feinschlief. Ich denke das die HD8xxx die Richtige GPU sein erst alle Kinderkrankheiten beseitigt werden. Treiber müssen auch reifen. Aber endlich mal sind die beiden Hersteller gleichauf.
Einmal ist der schneller dann der Andere. So der Preiskampf ist eröffnet!
 
caryaner schrieb:
Jedes Magazin bencht andere szenen etc., lasse deine unterstellungen bitte.

Genau...und dann sucht man sich einfach die Benches von den Seiten mit den Szenarien raus, die einem am Besten in den Kram passen.

Den maximalen FPS Vorsprung aller Tests, nimmt man dann einfach als Durchschnitt und das ist es dann, oder was ?

Schon mal was von so einem ganz kleinen bißchen Objektivität gehört ?

Klar ist die GTX 680 in den meisten Szenarien etwas schneller, aber die Zahlen die hier im Raum rumfliegen, können nicht von Fanboys stammen, die können nämlich bis drei zählen und Zahlen lesen.
 
Simon schrieb:
Mit ~ 800 Mio. Transistoren und 25 Prozent weniger Rohleistung gegenüber Tahiti am Ende doch die Performance-Krone in den Händen zu halten, ist schon sehr nett.
Stimmt. Ist allerdings auch nicht neu. Wenn ATI/AMD schon seit langer Zeit und vielen Generationen Eines haben, dann ist es die brachiale und deutlich bessere Rohleistung ihrer Karten im Vergleich zu den direkten Nvidia Gegnern. Mich erstaunt es immer wieder, daß es bis Heute nicht gelungen ist, die Rohleistung in einen nutzbaren enormen Leistungsvorsprung in der Praxis umzusetzen. Gerade im GPGPU Bereich hechelt ATI/AMD seit langer Zeit hinterher, obwohl gerade da die enorme Rohleistung eine große Wirkung haben sollte. Ursachen? Wer weiß, vielleicht sind die Treiber nicht effizient genug, vielleicht gibt es andere Gründe. Bemerkenswert ist das allemal.
Könnte AMD die Rohleistung in nutzbares umsetzen, würde am heutigen Tag die GTX 680 vermutlich nur belächelt werden. Aber da diese Umsetzung fehlt, ist das Ganze ausgeglichen mit leichten Vorteilen für Nvidia.
 
Dann frag dich mal warum Nvidia bei 3mal soviel SP´s wie bei der GTX580 bei gleichem takt nicht schneller als der eigene Vorgänger performt.
Nvidia hatte früher Hotclock, logisch dass da AMD nicht rankommen kann.
Und dass man jetzt nicht ganz raunkommt 7% Rückstand, liegt auch an ganz simplen Rohleistungsvergleichen.
Das kannst du dir im 3DCenter ansehen.
 
@whoozy
Deiner Meinung nach ist also IMMER das beste was ein Hersteller im Angebot hat, automatisch High End?
Dann wäre ja der teuerste McVoice Verstärker schon High End. Da frag ich mich wofür ich soviel Geld investiert hab?! :D

Über soviel Naivität kann ich nur leise schmunzeln :evillol: :evillol:
 
Zurück
Oben