Test Nvidia GeForce GTX 750 (Ti) „Maxwell“ im Test

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.548
Knapp zwei Jahre nach der Präsentation von „Kepler“ betritt Nvidias GPU-Architektur „Maxwell“ in Form der GeForce GTX 750 (Ti) den Markt. Unser Test des Referenzdesigns sowie dreier Partnerkarten von Gigabyte, Palit und Zotac zeigt: insbesondere bei der Energieeffizienz legen die Neulinge deutlich gegenüber „Kepler“ zu.

Zum Artikel: Nvidia GeForce GTX 750 (Ti) „Maxwell“ im Test
 
Nicht schlecht XD mal schauen wie die größeren werden
 
Bei solchen Karten fehlt mir irgendwie immer ein Vergleich, wie sie sich in mittleren Details schlagen. Für Ultraeinstellungen usw sind sie ja meist zu langsam, aber wenn sich jemand so eine Karte kauft, dann ist ihm das meistens auch klar und stellt sowieso die Einstellungen runter, aber man weiß ja nie, wie sich solche Mainstremkarten in solchen Einstellungen schlagen.
Oder kennt jemand eine Seite, die auch solche Einstellungen mal testet?
 
Wenn ich das richtig sehe hat nvidia "lediglich" wieder GGPU Leistung gegen Effizienz eingetauscht.
 
Was die Effizienz betrifft, ist der neue Chip echt Top. Ich erwarte mit dem neuen Chip noch großes von Nvidia! Dazu leicht zu Kühlen. Wenn der Preis noch stimmt, kann sich AMD echt warm anziehen! :freaky:
 
Meine Befürchtung ist, dass mit der nächsten Generation die Karten die 1920x1200 mit maximalen Details bei allen Spielen leisten und trotzdem kühl/leise sind, nochmal eine Ecke teurer werden.

Aktuell zwingt einen nVidia ja in dem Bereich fast schon zur 780 weil der Rest doch beim RAM spart. Eine 870 mit der Leistung und genug RAM wird wohl die 300€ wieder sprengen.
 
Wenn der Preis noch stimmt, kann sich AMD echt warm anziehen!

Das muss er nicht mal wird trotzdem gekauft. Bei AMD gibts wieder mal mehr fürs Geld und entscheidend ist imo der Verbrauch im Idle nicht der Lastverbrauch. 50 Watt weniger im Vergleich zur R7 265 hört sich zwar sehr gut an aber wie viel % des Grakalebens befindet sich die Karte unter Vollast? Im idle Verbrauch jedoch hat sich nichts getan.

Spannend wirds wohl erst wieder bei den großen Kartenin Verbindung mit 20nm.

@ CB warum nehmt ihr eigentlich nicht den Verbrauch von ZeroCore mit auf. Ein Feature das ich zumindest nicht mehr missen möchte.

Eine abschließend durchaus überraschende Nachricht gibt es bezüglich der APIs. Dort hat sich nichts getan, sodass Maxwell genau wie Kepler nur DirectX 11.2 mit dem Feature Level 11.0 vollständig unterstützt – und damit im Endeffekt nur DirectX 11.0.

Auch das hier ist mehr als traurig. Nvidia scheint sich nicht wirklich um DX kümmern zu wollen.

Edit: Um auch mal was positives zu sagen. Die Lautstärke unter Last ist TOP ebenso die Effizienzverbesserung gegenüber Kepler.
 
Zuletzt bearbeitet:
Schöner Test, danke ans CB Team.
Kleiner Schreibfehler, gleich auf der ersten Seite:

"Der heute vorgestellt GM107 setzt sich aus 1,87 Millionen Transistoren zusammen."
Sollte wohl Milliarden heißen.

MfG T2xlc
 
Da hat Nvidia eine gute Karte abgeliefert, wenngleich auch man bei AMD mehr Leistung fürs gleiche Geld erhält.
Die Karte ist aber sehr interessant für HTPCs, bei der Lautstärke unter Last. Denke, die wird ihre Käufer finden.
 
Sehe ich das richtig, dass die 265 15% mehr Leistung bei 25% mehr Stromaufnahme bringt und das mit einer 2 Jahre alten Architektur?
Für mich klingt das jetzt irgendwie alles andere als beeindruckend.
Im übrigen würde ich mir wünschen, dass mehr auf 265 vs. 750 ti im Fazit eingegangen würde.
 
Wow bin beeindruckt, wenn ich das richtig nachgerechnet habe, verbraucht die Karte minimal weniger als eine HD 7770, hat aber gleichzetig ~50% Mehrleistung.
 
Wenn die wirklich so effizient ist, schreit das ja nach nem Passivkühler.
 
Volkimann schrieb:
Wenn ich das richtig sehe hat nvidia "lediglich" wieder GGPU Leistung gegen Effizienz eingetauscht.

Ich finde die Architektur auch recht fragwürdig. Allein schon die Entscheidung, Rechenprozesse in die CPU auszulagern halte ich für völlig falsch. Sicher wird es noch etliche CoDs und Konsolenports geben bei denen eher die GPU limitiert, aber nicht nur die CryEngine und Frostbite Engine zeigen dass die Entwickler künftig wieder die CPU in Beschlag nehmen - in Zeiten von Mehrkern-CPUs auch gegeben. AMD zeigt mit Mantle was es bringen kann die CPU-Last zu reduzieren, nVidia schafft einen Benchmark-Blender. Das "merkwürdige" Verhalten in diversen Spielen mag ein Anhaltspunkt dafür sein. Ich geb nVidia drei Monate um etwaige Treiberprobleme auszumerzen, dann hoffe ich auf neue Benchmarks. Spätestens wenn die 8xx-Generation kommt und und ein GM106/104 am Start ist wird es neue Tests geben welche zeigen ob es Treiberprobleme waren welche Maxwell so einbrechen lassen. Wenn nVidia die Treiber bis dahin nicht im Griff hat kann man ihnen eh nicht mehr helfen.

P.S.: Wie immer ist euer Fazit enorm lächerlich. Warum schreibt ihr explizit dass Maxwell so effizient ist ohne einen neuen Fertigungsprozess zu benötigen wenn ihr am Anfang des Tests darauf hinweist dass ihr nicht wisst ob Maxwell im HP-Prozess wie Kepler oder im stromsparenderen HPM-Prozess gefertigt wird?
Wenn ihr schreiben wolltet dass Maxwell keine geringere Fertigungsgröße benötigt für die Effizienzsteigerung, dann tut das auch. Ihr handhabt eure Tests teilweise mit einer Attitüde als würdet ihr am Stammtisch sitzen...
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Auch das hier ist mehr als traurig. Nvidia scheint sich nicht wirklich um DX kümmern zu wollen.

Ich finde das bemerkenswert. Bei Kepler konnte man noch annehmen, dass Nvidia die Gelegenheit DX11.1/11.2 zu implemetieren zeitlich verpasst hatte. Bei dieser neuen Maxwell-Karte ist aber klar, dass Nvidia es einfach nicht für nötig/sinnvoll gehalten hat.
Wenn der größte Hersteller dedizierter GPUs das so sieht, müsste das Microsoft eigentlich zu denken geben.

Ansonsten ist die Effizienzsteigerung von Maxwell schon sehr beeidrucken, wenn man bedenkt, dass das noch immer eine 28nm-GPU ist. Mal sehn, wie viel davon auf kommende High-End-GPUs übertragen werden kann.
 
ich bin jetzt nicht vom hocker gehauen, man bekommt zum gleichen preis eine 30% langsamere karte die 30% weniger strom unter last aus der steckdose zieht. im idle nehmen sie sich aber nix. wenn ich spiele will ich frames sehen und nicht strom sparen.

mich würde mal interessieren ob der cpu verbrauch bei weniger gpu limit nicht auch hochgeht.
 
Ich finde das bemerkenswert. Bei Kepler konnte man noch annehmen, dass Nvidia die Gelegenheit DX11.1/11.2 zu implemetieren zeitlich verpasst hatte. Bei dieser neuen Maxwell-Karte ist aber klar, dass Nvidia es einfach nicht für nötig/sinnvoll gehalten hat.

Heißt für mich nur es wird auch in naher Zukunft keine Spiele geben die die Möglichkeiten von DX 11.2. nutzen da ein großer Hersteller einfach keinen Bock drauf hat. Das ist nicht bemerkenswert, sondern einfach nur traurig.
 
Ich finde es immer wieder krass wie NV hier hochgelobt wird.
Die Karte ist nicht so super sparsam. Außerdem finde ich das mit der Leistung, die derart zur vorherigen Architektur schwankt, schon sehr merkwürdig. Wenn es eine rote Karten gewesen wäre, hätte man gleich die rote Karte gezeigt und gemeint, dass die Karte unausgereift ist.
Irgendwas is da nicht koscher.
 
Schon wieder diese Steckdosen-Schätzungen.... Das wirkt doch schon im Idle mehr als albern. Wer mir an der Dose eine konstante Leistungsaufnahme eines solchen Gaming-PCs im Idle belastbar nachweisen kann, dem gebe ich einen aus. Mit einem guten Messgerät hat man vor allem an der Dose Schwankungen von mindestens 2-4 Watt. Die Voltkraft Energie-Logger sind für sowas absolut unbrauchbar. Techpowerup misst im Idle auf 12 Volt 4 Watt, THG mit 3.3 und 12 Volt 7 Watt. Auch die Effiziensbetrachtung ist durch solche Steckdosen-Schätzwerte glatt für den alten Hugo. Ein guter DC-Zangenadapter kostet nur 400-500 Euro, ein gutes Multimeter 600 Euro. Sowas sollte eigentlich zur Grundausstattung gehören.
 
Dai6oro schrieb:
entscheidend ist imo der Verbrauch im Idle nicht der Lastverbrauch. 50 Watt weniger im Vergleich zur R7 265 hört sich zwar sehr gut an aber wie viel % des Grakalebens befindet sich die Karte unter Vollast? Im idle Verbrauch jedoch hat sich nichts getan.

Für mich ist relevant, da meine Kiste zu 80% dann läuft, wenn ich zocke. Aber sonst stimmt es schon, der Idle-Verbrauch sollte auch nicht vernachlässigt werden. Bin mal gespannt, wie das bei den großen Karten aussieht und ob Undervolting weiterhin so beschissen gelöst ist.
 
Nicht schlecht !!, also die Effizienz ist im Verhältnis zum Vorgänger echt gestiegen.

Aber um mal Objektiv zu bleiben, dass ist echt das Mindeste was man erwarten konnte, schließlich ist die Kepler Architektur schon fast 2 Jahre auf dem Markt und wenn man von den Standard 15-20 % die als Refresh im Fermi Zyklus innerhalb von einem Jahr dazu gekommen sind ausgeht, dann sind in 2 Jahre 30 % zuwachs vollkommen in der Norm, wenn man aber jetzt noch bedenkt dass der Sprung von Fermi auf Kepler ebenfalls einen ähnlichen Leistungszuwachs geboten hat, dann ist das nach 2 Jahren eigentlich nicht soviel :p .

Ich hab mich jetzt einfach mal am Leistungszuwachs der kleinen Karte orientiert und nehme einfach mal an, dass die Effizienz bei den großen Karten ähnlich sein wird und Nvidia wird sicher keine Stromschleuder aka Fermi auf den Markt schmeißen :D .
 
Zurück
Oben