Test Nvidia GeForce GTX 750 (Ti) „Maxwell“ im Test

smilefaker schrieb:
Niemand spricht davon, dass das Performance/watt Verhältnis einer 265 besser ausfällt wie bei einer 750 Ti.
Nvidia hat mit Maxwell einen guten Sprung hingelegt und ist mindestens 15% Effizizienter als kompetetive AMD Karten.

Vergleicht man mit einer 7770 sind es >50%.

Allerdings ergibt es meiner Meinung nach wenig Erkenntnis nur mit einer einzigen Karte die Effizienz zu vergleichen.
Und zudem sich einen Effizienzvergleich auf die Fahne zu schreiben, wenn man keine adequaten Messinstrumente zur Verfügung hat.

Es sind >40% gegenüber allen anderen Karten auf dem Markt.
Hardware.FR misst bei der AIB 265 und AIB GTX750TI (wegen Kühllösung) 94W vs. 59W in Battlefield 3. Die 265 braucht also 59% mehr Strom für 18% mehr Leistung. Gegenüber der 7770 ist die GTX750TI 44% schneller bei 88% des Strombedards.
Bei Computerbase sind es 50W bzw. 70W für Crysis 3 bzw. AC3. Das entspricht knapp einem doppelten Verbrauch der r7 265 gegenüber GTX750TI. Leistungstechnisch ist die 265 hier im Schnitt 16% schneller in den beiden Spielen.
 
Guter Schritt von Nvidia! (Insbesondere, weil dieser Sprung heißt, dass die Konkurrenz mitziehen wird), dann hat sich mein warten ja gelohnt und ich kann ~3 Monate nach den 1. 20nm Karten des 2. Herstellers genüsslich das beste für mich rauspicken :3
 
GHad schrieb:
Naja, ich hab mir damals (tm) meine HD5770 für ca 135 Euro geholt.

Diese Karte soll mit also zeigen, dass man für den gleichen Preis
- 20-30% mehr Leistung erhält
- Aber weit weniger verbraucht

Für bald 5 Jahre Zeitdifferenz ist die Leistung pro Euro unter aller Sau. Die Effezient pro Euro dafür richtig gut. Aber ich dachte eig. dass ich mir nach 4-5 Jahren für das gleiche Geld eine doppelt so schnelle GraKa holen könnte. Schade.

Greetz,
GHad

die 750ti ist fast doppelt so schnell wie eine 5770, die 750 etwa 80% schneller ...
 
Dai6oro schrieb:
Bei AMD gibts wieder mal mehr fürs Geld und entscheidend ist imo der Verbrauch im Idle nicht der Lastverbrauch. 50 Watt weniger im Vergleich zur R7 265 hört sich zwar sehr gut an aber wie viel % des Grakalebens befindet sich die Karte unter Vollast? Im idle Verbrauch jedoch hat sich nichts getan.

Auch das hier ist mehr als traurig. Nvidia scheint sich nicht wirklich um DX kümmern zu wollen.

- Nein, bei AMD gibt es nicht mehr für's Geld. MSI listet jetzt schon eine 750ti @ Geizhals für 121€. Eine vergleichbar laute 260X kostet das Gleiche und ist langsamer. Verbraucht dabei 40-50 Watt mehr unter Last. Das sind im Jahr ganz schnell 20€ Strompreisdifferenz.

- Ja klar. Nv kümmert sich nicht um DX. Deshalb sind sie @ W8.1 @ BF4 auch im Highend auf Mantleniveau ohne properitäre low Level API..... Wer ist von uns Biased ?

Tobi4s schrieb:
Sehe ich das richtig, dass die 265 15% mehr Leistung bei 25% mehr Stromaufnahme bringt und das mit einer 2 Jahre alten Architektur?

Nein das siehst du nicht richtig. Der Tester hat dich verarscht.
 
Ich finde die 750 Ti interessant, und danke für den Test.

Allerdings tue ich mir schwer, abzuschätzen wie viel schneller als meine GTX 260 sie ist, da die Vergleichswerte nur zu neueren Karten gegeben sind. Hätte da jemand einen Link parat?
Danke!
 
Sontin schrieb:
Das Preis/Leistungs-Ranking macht echt keinen Sinn, wenn der Perf/Watt Unterschied bei >50% liegt.

Nur mal so: Wer pro Woche 7h spielt, muss bei der r7 265 im Jahr bei 0,24Cent 31€ mehr bezahlen als bei der GTX750TI. Damit erhöht sich der Kaufspreis von 131€ auf 161€.

Fuselpower schrieb:
Tja, deine Rechnung stimmt bei 7h/Tag. Bei 7h/Woche sind es ca. 5 €.

Eben, bin auch auf 4,20€ gekommen.
Und da sieht man wieder wie wichtig oder eben "nicht so wichtig" das überhaupt ist.
Man ist schon seit der HD5000er Generation und auch seit der GTX460 zumindest im Idle durchgängig unter 20W pro Karte.
Und solange Desktop PCs nicht ausschließlich zum Gaming oder zum Minen/bitcoinen etc. pp. genutzt werden sind die Idlephasen oft viel länger als die Volllastphasen.
Im Vergleich zu 2006/2007 wo noch die Q6xxx Rechner mit X38 Chipsatz zusammen mit einer Geforce 8800 GTS/Ultra G80 etc. für lockere 150W im Idle gesorgt haben ist man ja schon viel weiter. Ob man nun 40 oder 50W im Idle braucht macht dann nicht mehr soviel aus.
Überhaupt ist die Sensiblität für Effizienz ja viel mehr da als noch vor 6-7 Jahren.

Interessant am Lastverbrauch ist heutzutage eher, das man alles in noch kleinere Gehäuse packen kann bzw. bei solchen 60W Karten in Richtung Passivkühlung gehen kann. Ein Core i3/i5(s) in einem passiven Streamcomgehäuse mit einer passiven 750(Ti) wären schon ne wilde Sache. (die GTX750 am besten noch LOW Profile)
Rechnet man die teilweise oft etwas zu hohen Computerbasewerte runter (ich habe schon länger keine 3,5 Zoll Platte mehr im Rechner, macht auch nochmal 5W weniger), so kommt man mit einem undervolteten Core i3 oder i5 s-Modell und der erwähnten Grafikkarte auf ca. 130-140W unter Last ab Dose. Braucht man also theoretisch nur ein 120W Netzteil was dann mit ca. 100W ausgelastet ist, da gibt es dann auch schon passive externe.
(oder ein 150/160W PicoPSU Set)

Amok-Sepp schrieb:
Nur die 470/480 waren ein Desaster, die 460 dagegen war ok.
Und alle späteren Performance Karten der 500er haben für ihre Zeit eine sehr gute Perf/W. hingelegt, nur ist der Ruf erst ruiniert ...

Die GTX460 war besser, aber gerade der Mulitmonitorverbrauch von GTX560Ti/GTX570/GTX580 ging gar nicht, das waren bei denen zwischen 55W und 92W wenn man nur einen zweiten ! Monitor angeschlossen hat:
http://ht4u.net/reviews/2011/nvidia_geforce_gtx_560_ti_msi_n560ti_twin_frozr_2/index16.php
Für ein reines Gamingsystem ok, bzw. wenn man nur einen Monitor dran hat ok.
Inzwischen ist es ja auch sinnvoll die IGP von Intel mitzunutzen.

Solange sich man seines Haupteinsatzzweckes des PCs bewusst ist, ist es ja gut das es soviel Auswahl gibt. Dann kann man wählen was zu einem passt.

Hat man einen Rechner mit nur einem TFT dran, schaltet den recht selten ein und zockt nur ab und zu gibt es z.b. kaum einen Grund von einer GTX460/GTX560 auf eine GTX650Ti / R7 260(X) / GTX750(Ti) zu wechseln.
Der Leistungsunterschied ist oft nicht so riesig und die Stromersparnis trotzdem nicht groß genug. Gebraucht bringt so eine GTX460 nur noch max. 50€ (eher weniger), die angeführten Karten kosten neu alle mind. 100€ + Versand. Die mind. 50€ Aufpreis holt man im Stromverbrauch vermutlich nie rein, selbst bei 30h/Woche und einer mittleren Differenz von 50W (im Idle sind es ja nur ca. 10W) sind das nur 78kWh Unterschied die bei 26cent/kWh dann 20€ in dem einen Jahr ausmachen.

Gebraucht in einem halben Jahr kann das schon wieder anders aussehen, sollten die GTX750 dann für 60€ übern Tisch gehen...*händereib*
 
Zuletzt bearbeitet:
20% weniger Verbrauch als Kepler ist schon eine Ansage, dass muss man NV lassen. Allerdings scheinen zumindest die kleinen Karten ja eine sehr durchwachsene Performance zu zeigen, so dass fraglich ist wie stark die Effizienz pro Watt nun angestiegen ist.
Eine Verbesserung ist Maxwell meiner Meinung nach in jedem Falle, vor allem vor dem Hintergrund dass der GM107 immer noch in 28nm produziert wird.
Ich freue mich jedenfalls auf die großen Chips.
 
Pumpi schrieb:
- Ja klar. Nv kümmert sich nicht um DX.

Sie kümmern sich um DX11.0, aber nicht um DX11.1 und DX11.2. ;)

Wie schon gesagt, werden sie schon Gründe dafür haben. Aus reiner Faulheit wird die Unterstützung für diese Versionen nicht fehlen. Offensichtlich sieht Nvidia dadurch keine nennenswerten Vorteile für seine GPUs.

Microsoft sollte sich deshalb vielleicht mal ins Zeug legen und etwas an der DX-Front tun. Z.B. würde es der Verbreitung von DX11.2 stark helfen, wenn es auch für Win7 erhältlich wäre. Win8 damit zu puschen wird nicht klappen. Da zieht DX den kürzeren.

(Dass es bei DX10 und Vista wirklich technische Gründe gab, habe ich noch geglaubt, weil bei beidem grundlegend am technischen Unterbau geändert wurde. DX10 war ja nicht mal kompatibel zu DX9 und Vista hatte z.B. ein komplett anderes Speichermanagement als das uralte XP. Aber bei DX11->DX11.1/2 und Win7->Win8 sehe ich nichts dergleichen. Das sind nur kleine Unterversions-Sprünge.)

Und warum gibt es nicht nicht längst DX12 mit wesentlichen Verbesserungen?

Wenn Microsoft der Weiterentwicklung von DirectX offensichtlich keine Priorität gibt und neue Versionen nicht mal selbst mit dem mit Abstand verbreitetsten Windows (7) unterstützt, wie können sie dann erwarten, dass ein GPU-Hersteller wie Nvidia sich darum schert?

Ich sehe hier die Schuld ganz klar bei Microsoft. Die haben es versäumt DirectX grundlegend weiterzuentwickeln (genauso wie den Windows Kernel) und durchgängig zu unterstützen.
Aus dem selben Grund werden sie durch Mantle auch so vorgeführt.
 
IRID1UM schrieb:
Ich finde die 750 Ti interessant, und danke für den Test.

Allerdings tue ich mir schwer, abzuschätzen wie viel schneller als meine GTX 260 sie ist, da die Vergleichswerte nur zu neueren Karten gegeben sind. Hätte da jemand einen Link parat?
Danke!

Schwierig, direkt vergleichen kann man nicht mehr, der Sprung ist zu groß.
ALSOOOO:

Eine GTX260 ~ HD5770 1GB. Die kleinere Schwester HD5750 ist etwas langsamer.
https://www.computerbase.de/2009-10/test-ati-radeon-hd-5770-crossfire/19/

Dann kam die Umbennung der HD5770 in HD6770 sowie HD5750 zu HD6750, die Leistung blieb gleich.
https://www.computerbase.de/2011-09/test-amd-radeon-hd-6750-und-hd-6770/4/

Hier beim Test der GTX650Ti ist die HD6750 noch aufgeführt:
https://www.computerbase.de/2012-10/test-nvidia-geforce-gtx-650-ti/5/

Also müsste deine GTX260 ungefähr so schnell sein wie eine HD7750 bzw. GTX650 (ohne Ti !)

Wie man sieht ist die GTX650 Ti ist 47% schneller als die GTX650.

Jetzt noch die 33% hinzu, die die GTX 750 Ti schneller ist als die GTX650 Ti:
https://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/

Und dann hat man 1,47 * 1,33 = 1,95.

Die GTX750Ti ist also ca. doppelt so schnell wie deine GTX260.
 
Danke liebes Computer Base Team, vielen Dank für den schnellen Test!

Was ich aber erwartet habe war, dass ihr die 750 (Ti) als dedizierte PhysX Karte testet.

Als Besitzer einer 780 Ti möchte ich ungern eine GT-640 anschaffen weshalb ich auf diese gewartet habe. Könntet ihr bitte einen Test Nachreichen? Gerade mit dem Verbrauch sowie den neuen Funktionen / Technik wäre dies sehr interessant um mir ein SLI Gespann zu ersparen.

Danke
 
Nur so nebenbei,

Maxwell also auch die 750Ti unterstützt voll DX 11.1

wer sagt dass das Ding nur 11.0 unterstützt???
 
Die GTX750TI wäre also eine gute Einsteigskarte für Skyrim mit Speicher-fressenden Texturen.

Fragen:
- Funktionieren die Karten, die einen Stromanschluss haben, auch dann vollständig, wenn man den Stecker weglässt?
- Ist beim Referenzdesign der Lüfter kastriert? (Beispiel: Bei der GTX580 geht nur 85% Lüfterdrehzahl.)
- Bei welcher Temperatur throtteln GTX750 und GTX750TI?

Ansonstens sollte für die GTX870 30-50% mehr Leistung drin sein gegenüber meiner GTX770 und eine TDP von 150-180 Watt.
 
Also ich finde die Trolle hier ziemlich peinlich. Das gibt es zb die "Nicht_Beeindruckt"-Trolle die mit einer zwei Jahre alten Karte vergleichen. Es gibt aber auch nichts neueres oder besseres! Selbst bei der 265x hat sich relativ wenig in Sachen Effizienz getan. Nvidia schaut in die Zukunft, den mehr Effizienz bedeutet weniger Abwärme was wiederum höherer Takt bedeutet. Man braucht sich ja nur die r9290x anschauen die nicht mal ihren eigenen Maximaltakt halten kann, weil es gemessen an der Chipfläche nicht mehr möglich ist genügen Temperatur ab zu führen. Außerdem ist klar, das in einem Geschäft wo das große Geld mit Notebookgpus und Profigpus verdient wird, auch in diese Richtung entwickelt wird. Die Karte ist fast nirgends Langsamer aber zugleich deutlich Stromsparender. Weiterentwicklung, ja würde ich schon sagen, immerhin haben wir hier keinen Shrink!

Dann wären noch die DX11.2-Trolle, die Karte ist Einsteigersegment-Mittelklasse Segment. Was soll da 11.2 bringen? Sowohl für 3D-Stereoskopie (11.1) wie auch Megatexturen (11.2) ist die Karte zu langsam. Trotzdem integrieren, hauptsache es ist dabei? Dann bin ich mir sicher würden wieder Leute, vermutlich sogar die gleichen, darüber trollen das ein Win8 exklusives Feture reinpackt wurd dass in der Praxis gar nicht genutzt werden kann weil die Karte dafür viel zu langsam ist.

Ich finde die Karte Super, leider für meine Ansprüche zu langsam und Nvida ist mir halt auch leider zu teuer, auch wen sich das über die Steckdose spätestens nach dem zweiten Jahr wieder rechnet. Ich hoffe trotzdem das die Preise aller Karten etwas nach unten rutschen. Bis jetzt sind ja die Preise extrem festgefahren.
 
Zuletzt bearbeitet:
Die ideale physxkarte für meine beiden.
 
Die Maxwell Architektur finde ich persönlich sehr beeindruckend!

Eine deutlich schnellere Karte, die zudem deutlich weniger verbraucht und das im selben Prozess? Also da kann man wirklich nichts gegen sagen! Ich preferiere eigentlich immer AMD, aber diese Karte finde ich schon sehr ansprechend.

Das einzige Manko: Kein DirectX 11.2! Wieso? Das wäre doch absolut kein Problem gewesen! Da kann ich Nvidia einfach nicht verstehen! Wenn ich eine neue Karte kaufen möchte, dann bevorzuge ich auch die neuste DirectX Version, und da die Konsolen auch alle DirectX 11.2 können, wäre es spätestens jetzt auch für Nvidia Zeit gewesen!

So kann ich leider weiterhin nur AMD kaufen!
 
CB schrieb:
Eine abschließend durchaus überraschende Nachricht gibt es bezüglich der APIs. Dort hat sich nichts getan, sodass Maxwell genau wie Kepler nur DirectX 11.2 mit dem Feature Level 11.0 vollständig unterstützt – und damit im Endeffekt nur DirectX 11.0. Auch fehlt der GPU aktuell die Kompatibilität zu HDMI 2.0. Das liegt laut Nvidia daran, dass der Standard zu kurzfristig fertiggestellt worden ist.

Ist das für die komplette Maxwell Serie sicher, oder nur für den getesteten Maxwell-Chip?
Den ich habe schon vielleicht mit einer GTX 870 geliebäugelt.
 
lynx007 schrieb:
Also ich finde die Trolle hier ziemlich peinlich. Das gibt es zb die "Nicht_Beeindruckt"-Trolle die mit einer zwei Jahre alten Karte vergleichen. Es gibt aber auch nichts neueres oder besseres! Selbst bei der 265x hat sich relativ wenig in Sachen Effizienz getan.

Haste den Test zur 265 gelesen? Bei ähnlichen Verbauch 32% schneller als die 260X

Was haben wir hier im Effizienzvergleich bei ähnlichen Verbrauch zwischen 750Ti und 650 Ti boost? Im Schnitt 33,5% schneller.

Sowohl AMD als auch Nvidia haben mit ihren letzten Neuvorstellungen +33% Effizienz rausgeholt.

Vergleicht man die Testsysteme bezüglich der Effizienz bei Performance/Watt so ist das System mit 750Ti 10% effizienter als das System mit 265.
 
Zurück
Oben