Test Test: Nvidia GeForce GTX 670

Nö diemal sinds nur 5%.Nur weil es immer so war heisst es noch lange nicht das es jedesmal so ist.Bei den Fakten bleiben...

Ausserdem ist die "mir" viel zu teuer.Lieber 7970oc kaufen und auf 20% Treiber Optimierung abwarten^^

oder

670 für 300-320 Euro max
 
Das schlechte Abschneiden der neuen Geforce-Karten in Metro 2033 hat so weit ich weiß seine Ursache in bestimmten Grafikeffekten, speziell volumetrisches Licht, bei denen es auf GPGPU-Leistung ankommt.
Mit neuen Treibern wird sich daher auch nichts machen lassen, die Spezifikationen der GTX 670/680 lassen es eh nicht zu.

Deswegen dort auch die bessere Performance der AMD-Karten, dank mehr GPGPU...;)
 
MaikDe schrieb:
Naja braucht man was schnelleres als eine GTX 680, HD 7970? Der Markt hat mMn keinen Bedarf, da es kaum Spiele gibt, die diese Leistung benötigen. Deshalb wird man das wohl zurückhalten (natürlich auch um 2x Kasse zu machen), bis es einen Bedarf (neue High End Games) gibt und sich so lange um andere Felder kümmern (Konsolenkarten, Chips für mobile Geräte, APUs) bzw. um den Nachfolger des Produktes welches man zurückhält.

Im Endeffekt hast du eigentlich eine Zusammenfassung meiner letzten Beiträge gemacht xD
Also mir selber ist es wurscht ob Performance oder High-End.
Es geht nur darum, dass die Leute immer betonen dass die 680gtx nur aus dem Performance Chip besteht.
Das ist wie gesagt bei der 7970 genau das gleiche...

y33H@ hat mir damals genau erklärt dass die Einstuffung der chips nach Die-Größe geht.
Das ist auch der Grund wieso die 580gtx eine High-End war, und die 6970 nur Performance.

MaikDe schrieb:
HD 6870 noch locker 1 Jahr reichen wird

Wie schon gesagt, wenn es um Preis/Leistung ginge dann würde ich die Karte die ich jz habe wieder kaufen Auch wenn sie jz 60 Euro günstiger ist als damals als sie rauskam.

HPC Master schrieb:
Beide NVIDIA GeForce GTX 670 & GTX 680 sind klar und deutlich die "effizienteren" High-End Grafikkarten.
.
Schön angepasst HPC Master :freak: Davor wird gesprochen dass die effizienteste GPU die 7750 und 7870 ist. Dann wird behauptet die 7870 ist nicht so effizient wie die 670 gtx.
Und jz hat man die Schlinge noch enger gezogen, jz wird nur mehr von den High-End Karten gesprochen, wo man genau weiß xD dass die 7970 deutlich effizienter sein könnte, wäre sie ein GHz-Model geworden xD
Doch das hat ein anderer hier schon einige Seiten vor mir beschrieben

Was ich mir von AMD erhoffe, ist dass man die Architektur noch effizienter gestaltet, somit ich 2014 meine Grafikkarte von einer APU ablösen kann.

Gott stehe NV bei wenn AMD auch mal einen Gamer Chip bringt ohne GPGPU Ballast
Hätten sie ja vllt mit VLIW4 hinbekommen.
Doch glaube ich nicht ganz dass AMD den weg gehen will, denn 2014 soll die APU quasi auch die gpgpu Performance der Grafikkarte verwenden können.
extend to discrete GPU
und damit wird nicht das jzige Hybrid CF gemeint sein.
Weiteres
GPU compute context switching
Wieso soll das nicht bedeuten, dass die APU einige Berechnungen auf die dgpu verlagern kann.
Naja ich bin gespannt, vllt muss Intel und NV dann wieder ein Patentaustausch machen ^^ wie damals bei Optimus^^
 
Zuletzt bearbeitet:
kein schlechter wurf von NV auch wenn das referenz-design wohl doch nicht soo gelungen ist.
eigentlich merkwürdig, wenn man diese mit den letzten generationen vergleicht.
aber was lese ich da ... gute custom-lösungen ( GB, ASUS, Palit & Zotac - ggf. mit anp. @ last^^ )
mit beachtichen taktraten + turbo sind bereits auf dem weg ... schön, da könnte man wirklich
schwach werden.

@ Sidewinder9000

wie du richtigerweise angemerkt hast .... "DORT." ;)
 
pipip schrieb:
Und jz hat man die Schlinge noch enger gezogen, jz wird nur mehr von den High-End Karten gesprochen, wo man genau weiß dass die 7970 deutlich effizienter sein könnte, wäre sie ein GHz-Model geworden...

@pipip >>> Aber, aber... wenn, hätte, sein könnte...

Hier z.B der Stromverbrauch einer "fiktiven 1+GHz HD7970 TX" Karte unter Furmark 1.6 bei HT4U getestet:

MSI Radeon HD 7970 Lightning @1070MHz > 305W (und diese hat schon eine hochoptimierte Stromversorgung)

AMD Radeon HD 7970 @ 925 MHz > 295W < mit standard Takt schon 100W mehr...

Zotac GeForce GTX 680 @1006 MHz > 196W

NVIDIA GeForce GTX 670 @ 915 MHz > 184W

BTW: Pipip... die Nvidia Geforce GTX670 ist auch locker neuer Übertaktungs-König siehe PCGH Test @ 1354MHz
 
Zuletzt bearbeitet:
HPC Master
Soviel ich weiß lastet Furmark auch die GPU völlig aus.
Somit wenn du schon damit den Verbrauch angibst, wo sind die Ergebnisse des Tests ?

Und wieso nimmst du ausgerechnet die Lightning als bsp ???
8-1080.2922514759.jpg

Da seh ich ja jz schon dass die ned effizient sein wird...
Ht4u hat sogar einen passenden Namen für den Artikel
MSI Radeon HD 7970 Lightning - ohne Limits

Wieso suchst du nicht ein ebenso effizientes Teil raus, wenn du schon "fair" vergleichen möchtest...

http://ht4u.net/reviews/2012/msi_radeon_hd_7970_lightning_test/index16.php
schau dir mal das an, da siehst du dass bei normalen games nur mit Spannung anheben und OC die 300 watt auch wirklich erreicht...

Aber klar Furmark ist ja jz genauso legitim und realitätsnahe, wie die meisten hier 24/7 Prime auf der CPU laufen lassen....
 
Zuletzt bearbeitet:
10% langsamer als ne 680, aber auch nur 10-15% billiger.
 
Es ist unglaublich was HPC Master für einen Stuß labbert:

Wenn du schon verlinkst dann bitte richtig lesen!

Lastverbrauch (Hawx):
GTX680 -> 183W
GTX670 -> 180
HD7970 -> 210,5W
HD7950 -> 157W (OCed 7950 -> 155W)

Was merken wir?
1. HD7970 hatte eine unnötig hohe Standardspannung
2. HD7950 ist verdammt effizient, mit deinen Worten: "Effizienzmonstrum, Nvidia wird total vernichtet"

Oder hast du den Furmark-Wert genommen? Wo die Tahitis deutlich mehr rechnen müssen/können (>50%) und daher mehr verbrauchen?
 
Zuletzt bearbeitet:
--> Die Marketingabteilungen habens nun entgültig geschafft den Effizienzwahn in viele Hirne zu blasen ...

... anders kann ich mir dieses unerträgliche rumgeflame wegen paar Watt +- nicht erklären :kotz:

Wie oft hatten wir das Thema schon durch? +-50 Watt machen beim Standarduser etwa +-10,-/Jahr ...

... um den heile Welt Anspielungen vorzubeugen --> Nein, wenn ich jetzt 400,- für ne GPU auslegen will um meine fps/Watt zu verbessern, mache ich damit die Welt um nichts heiler.

BTT:

Top Karte Nvidia, mehr gibts dazu einfach nicht zu sagen. Die Boardpartner wissen schon warum sie gleich vom Start weg breit aufgestellt sind.

Customs ala GTX670 AMP o.ä. werden an der Referenz 680 vorbeiziehen.

GTX 680 early adopter beißen dahingehend in den sauren Preisverfalls-Apfel.

Super Karten ala AMD 7950/70 werden preislich angepasst und somit siehts für den Endkunden mMn nicht allzu schlecht aus.
 
pipip schrieb:
Die Die-Größe des XT ist 365 mm². Vom 580gtx die eben keine Performance Karte ist hat 530 mm².
Ob etwas Performance High-End oder nur Mittelklasse ist, hängt soviel ich weiß von der GPU-Die Größe ab. Soviel hab ich mir zumindestens hier im Forum erklären lassen.

Intern wird sie sicher als Speerspitze aufgestellt momentan. Doch "technisch" gesehen soll sie eben genauso wie die 680gtx nur ein Performance Chip sein.
Somit jeder redet von dem G110 als würde er alles "zerstören" aber keiner weiß ob eigentlich AMD auch was designed hat.

Btw es regen sich hier einige auf, dass die Grafikkarten keine so großen Sprünge wie damals machen. Naja ist euch aufgefallen dass Grafikkarten-Generationen deutlich schneller auf den Markt kommen ???

DIE Größe im Verhältniss zur Leistung und zur jeweilige Gen! Sonst bring ich einfach heute ne GeForce 220 in 15µ Prozeß und habe nen Riesen DIE und wäre High End? Es geht also immer um mehrere Kennzahlen im Verhältniss zu einander. Bei Kepler ist der Fall extremst eindeutig mit kleinem DIE, kleinen speicher bus, 32 ROPS vs 48 bei der 580 und geringerer Stromverbrauch als manche pre gen midrange Karten.
 
HPC Master schrieb:
Auch bei Custom AMD HD 7970 sind max. 1100MHz machbar, alles darüber hat einen extremen Mehrverbrauch von bis zu >100W @1220MHz zu Folge. AMD weiss sehr genau, warum sie nur 925MHz beim Release als Chiptakt nutzen.

Du tust grad so als ob das schlecht wäre ^^ Der ca 200 MHz Overclock reicht IMHO schon locker aus um aufzuschließen, dass du eine Karte nicht 300 MHZ hochtreibst ohne die Spannung anzuheben sollte eigentlich klar sein. Ich finds immer schade, dass in den Benchmarks nicht noch die Realleistung der Karten auftaucht. Wenn ich eine Karte bei Stockvolts 200 MHZ schneller betreiben kann, ist das für mich auch die reale Leistung der Karte, da juckt mich der Speed bei Referenztakt wenig ^^ Bestes Beispiel ist da wohl die 7850, die bei Referenztakt eine ziemliche Krücke ist, sich aber teils bei selber Voltzahl auch bei 1100 MHZ betreiben lässt...

Davon ab find ich dieses Gewese um die Effizienz eher schwachsinnig, ob das Teil jetzt peak 100 Watt mehr oder weniger braucht, interessiert mich maximal bei der Auswahl des Netzteils, wird aber auf der Stromrechnung nur ein paar € ausmachen. Ob die +-5€ Stromkosten pro Jahr bei einer 400€ Karte ins Gewicht fallen, bezweifele ich doch stark.
 
Mambokurt, das interessiert vor allem bei der auswahl der Kühllösung, und da hat die HD7970 eindeutig das nachsehen. Leise ist die nicht mehr - trotz aufwändiger Kühlung.

Ht4u hatte übrigens ein relativ schlechtes Modell der GTX 670. Und zusätzlich testen sie die Leistungsaufnahme mit maximaler Stromeinstellung, was wieder ein Handefester Nachteil für nVidia ist.

Mfg
 
oh Leute bitte!
Nvidia hat AMD mal wieder in die Pfanne gehauen, ist das so verwunderlich ? Nein...
Also hört auf mir eurem Fanboygeblubber... "wenn AMD , falls... bla bla"

Die GTX670 ist wahrscheinlich die beste Karte die jemals auf den Markt gekommen ist,
die GTX680 dagegen hat in meinen Augen keine Daseinsberechtigung mehr und viele GTX680 Käufer werden sich jetzt in den Hintern beißen

Ich werde mir in den nächsten 8 Wochen die Preisentwicklung anschauen und dann definitiv eine 670 kaufen, wahrscheinlich mal wieder die EVGA SC
 
Kasmopaya schrieb:
Gott stehe NV bei wenn AMD auch mal einen Gamer Chip bringt ohne GPGPU Ballast
Hat AMD jahrelang gemacht während nvidia mehr Wert auf GPGPU gelegt hat.
Bei deinem Link sieht man, wie der im GPGPU Bereich nicht gerade schwächliche GF110 ziemlich heftig gegen die 5870 verliert. Nicht gerade der Beweiß für generelle Performance.

Lotex schrieb:
Nö diemal sinds nur 5%.Nur weil es immer so war heisst es noch lange nicht das es jedesmal so ist.Bei den Fakten bleiben...
Bei 5% verfälschen die verschiedene Treiber enorm, das schnell mal 10%.

PREESTYLE schrieb:
viele GTX680 Käufer werden sich jetzt in den Hintern beißen
Warum?
 
KainerM schrieb:
Mambokurt, das interessiert vor allem bei der auswahl der Kühllösung, und da hat die HD7970 eindeutig das nachsehen. Leise ist die nicht mehr - trotz aufwändiger Kühlung.

Mag sein, ich hab noch keine 7970 auf OC gehört. Wenn MSI die mit 1100 MHZ ausliefert, kanns aber eigentlich nicht so wild sein? Ist halt schwer zu vergleichen, und OC wird leider von den meisten Seiten eher stiefmütterlich behandelt. Wär echt mal der Hammer, wenn die maximal mögliche OC bei Standardvolts mit in die Grafikkartenvergleiche käme *wink@CB*, ist wahrscheinlich nicht so einfach, aber cool wärs schon :D
 
Guten Morgen,

schöner Test, optisch nicht so schöne Karte, aber die von Asus sieht ja schon ganz gut aus und ist bei uns für 379 Euro zu bekommen. Leider noch etwas über meinen Vorstellungen, aber das war ja auch beim i5-3570K so in den ersten beiden Wochen.
Beim i5 habe ich bei 194 Euro zugeschlagen und bei der gtx 670 werde ich bei 350 Euro kaufen, sofern die Karte eine gut bzw. leise Kühlung hat.
Bin mal gespannt wann das sein wird, freue mich aber schon über den Leistungszuwachs bei Photoshop - was mich beim Test sehr erstaunt hat.

Schönen Tag euch allen.
 
Eine Zotac AMP! kostet 429€ inkl. Versand.

Denke inner Woche wird Sie hoffentlich 400 kosten. :)

Oder eine normale für 370 + AC ?
 
HPC Master schrieb:
Auch bei Custom AMD HD 7970 sind max. 1100MHz machbar, alles darüber hat einen extremen Mehrverbrauch von bis zu >100W @1220MHz zu Folge. AMD weiss sehr genau, warum sie nur 925MHz beim Release als Chiptakt nutzen.

uhm hast du dir das Review überhaupt vernünftig durchgelesen?

Und zwar unter dem Reiter Overclocking?

Da steht :

"The next step in our overclocking process was to enable +20% PowerTune in Catalyst Control Center and see if how far we could overclock here. We were immediately able to max all sliders, up to 1125MHz core and 1575MHz memory. We had the fans set to 100% at first, but later backed them off to 80%. We still had room to go before increasing voltages on the video card. We then switched from CCC to MSI Afterburner, and continued to increase speeds. We were able to get an extra 95MHz on the core before increasing voltages, and an extra 30MHz on the memory. This brought the total overclock before voltage tweaking to 1220MHz Core, and 1605MHz (6.42GHz GDDR5) on memory."

die Karte ging also bis 1220 Mhz ohne Spannungserhöhung!

und weiter heisst es :

"In order to reach our maximum overclock we found that the GIGABYTE Radeon HD 7970 only needed an extra 100mV, bringing core voltage to 1.274 Volts. At this voltage, the maximum overclock after voltage tweaking was 1305MHz core, and 1605MHz memory."


der von dir bemühte OC - Verbrauchswert für das System von 574 W wurde mit der Karte @ 1305 Mhz Chiptakt gemessen und nicht, wie von dir fälschlicherweise behauptet bei 1220 Mhz....bis da wurde die Spannung der Gigabyte Karte überhaupt nicht angerührt.

Bei 1300 Mhz befindet man sich verbrauchsmäßig aber längst in der roten Zone, da sehr nah am Maximalwert mit Lukü - das gilt für Kepler und Tahiti.

Damit sind beide deiner Argumente entkräftet. (Punkt)
Und versteh mich net falsch, Kepler ist effizienter als Tahiti.
Aber Spin Doctors wie du hab ich gefressen.
 
Zurück
Oben