Test Nvidia GeForce GTX 750 (Ti) „Maxwell“ im Test

Wenn man sich halt mehre Seiten anschaut mit verschieden Spielen,
fallen einige Spiele auf wo der Abstand zur hauseigenen schwachen gtx650ti nur minimal sind,
das es nur an Treiberoptimierung liegt bezweifel ich.
 
TenDance schrieb:
Ich finde die Architektur auch recht fragwürdig. Allein schon die Entscheidung, Rechenprozesse in die CPU auszulagern halte ich für völlig falsch. Sicher wird es noch etliche CoDs und Konsolenports geben bei denen eher die GPU limitiert, aber nicht nur die CryEngine und Frostbite Engine zeigen dass die Entwickler künftig wieder die CPU in Beschlag nehmen - in Zeiten von Mehrkern-CPUs auch gegeben. AMD zeigt mit Mantle was es bringen kann die CPU-Last zu reduzieren, nVidia schafft einen Benchmark-Blender. Das "merkwürdige" Verhalten in diversen Spielen mag ein Anhaltspunkt dafür sein. Ich geb nVidia drei Monate um etwaige Treiberprobleme auszumerzen, dann hoffe ich auf neue Benchmarks. Spätestens wenn die 8xx-Generation kommt und und ein GM106/104 am Start ist wird es neue Tests geben welche zeigen ob es Treiberprobleme waren welche Maxwell so einbrechen lassen. Wenn nVidia die Treiber bis dahin nicht im Griff hat kann man ihnen eh nicht mehr helfen.

P.S.: Wie immer ist euer Fazit enorm lächerlich. Warum schreibt ihr explizit dass Maxwell so effizient ist ohne einen neuen Fertigungsprozess zu benötigen wenn ihr am Anfang des Tests darauf hinweist dass ihr nicht wisst ob Maxwell im HP-Prozess wie Kepler oder im stromsparenderen HPM-Prozess gefertigt wird?
Wenn ihr schreiben wolltet dass Maxwell keine geringere Fertigungsgröße benötigt für die Effizienzsteigerung, dann tut das auch. Ihr handhabt eure Tests teilweise mit einer Attitüde als würdet ihr am Stammtisch sitzen...

Dem ist in Summe nichts zuzufügen. Ja deswegen empfinde ich den Test auch als Pro-Nvidia geschrieben - irgendwie. Danke für den Test. Im Moment ist die neue Architektur ein heißes Eisen was ich so nicht anfassen würde. Erst mal schauen ob es wirklich Treiberprobleme sind. Und ja HP-Prozess oder HPM-Prozess - das gehört auch zum Fertigungsprozess. Also ist euer Fazit an der Stelle zu verbessern...
 
Kasmopaya schrieb:
Und der Unterschied ist zur Zeit min. so groß wie Thermi v. HD 5000/6000. Also nicht unerheblich, wofür ja NV richtig zur Schnecke gemacht wurde, zu Recht...

Bei den High-End Karten. Bei Fermi waren auch die kleineren Modelle Stromschleudern. Schon die 7950 und ihre Kepler Gegenspieler GTX 670 und 760 geben sich in Sachen Effizient nichts.
AMD muss entweder anfangen große Chips zu bauen oder die Leistungskrone Nvidia überlassen. Den Chip komplett auszureizen hat IMO einen sehr negativen Einfluss auf die Rezeption der kleineren Karten. Man liest hier immer wieder "AMD kann man nicht kaufen, brauchen zu viel Strom", dabei kaufen sich die wenigsten eine GTX 780 oder schneller für 400€ aufwärts. Und darunter macht es keinen Unterschied.
Warum die Titan so effizient ist ist auch kein großes Geheimnis. Jetzt nicht mehr. Nvidia liefert die volle Performance des Chips scheibchenweise mit immer noch ein wenig schnelleren Karten. Mit angezogener Handbremse steigt die Leistung/Watt natürlich spürbar an.

Ein paar Euro für bessere Kühler auszugeben würde AMD auch nicht schaden.
 
Zuletzt bearbeitet:
Novasun schrieb:
"Zitat von TenDance
Ich finde die Architektur auch recht fragwürdig. Allein schon die Entscheidung, Rechenprozesse in die CPU auszulagern halte ich für völlig falsch. ..."

Dem ist in Summe nichts zuzufügen. Ja deswegen empfinde ich den Test auch als Pro-Nvidia geschrieben - irgendwie. Danke für den Test. Im Moment ist die neue Architektur ein heißes Eisen was ich so nicht anfassen würde. ...

Also ich sehe darin, gewisse Rechen- oder Verwaltungsaufgaben in den Treiber zu verlagern, erstmal grundsätzlich nichts schlimmes oder falsches.
Es kommt letztlich nur auf die Leistung an, die unterm Strich dabei heraus kommt. Wenn man dadurch die GPU sparsamer oder auch leistungsfähiger (weil man dank der "Auslagerung" mehr andere, performancekritischere Funktionen in der GPU-Hardware unterbringen kann) hinbekommen kann, dann ist das doch nur sinnvoll.

Eine Arbeitsteilung zwischen GPU und Treiber gabs eh schon immer. Manches lässt sich sinnvoll mit spezialisierter Hardware beschleunigen, anderes überlässt man besser der CPU. Entscheidend ist am Ende wie gesagt die Leistung/Effizienz des Gesamtpakets.

In diesem speziellen Fall wäre es natürlich interessant gewesen, wie sich die 750(Ti) im Vergleich mit einer ähnlichen Kepler-Karte schlägt, wenn da keine übertaktete i7-CPU hinter steht, sondern etwas für solche Karten realistischeres. Z.B. ein i3 oder ein FX6000 oder sowas.
Gibt es dann durch die Verlagerung von Aufgaben in den Treiber einen messbaren/spührbaren Nachteil, oder wird der auch dann von der besseren GPU-Leistung/Effizienz mehr als ausgeglichen?
 
Zuletzt bearbeitet:
Was mich interessiert, wird es die Karte als Low Profile karte für HTPC geben ?
Die schnellste Karte ist ja immer noch die 7750 ...
 
Herdware schrieb:
In diesem speziellen Fall wäre es natürlich interessant gewesen, wie sich die 750(Ti) im Vergleich mit einer ähnlichen Kepler-Karte schlägt, wenn da keine übertaktete i7-CPU hinter steht, sondern etwas für solche Karten realistischeres. Z.B. ein i3 oder ein FX6000 oder sowas.
Gibt es dann durch die Verlagerung von Aufgaben in den Treiber einen messbaren/spührbaren Nachteil, oder wird der auch dann von der besseren GPU-Leistung/Effizienz mehr als ausgeglichen?

Ich würde sogar weiter gehen das man zusätzlich auch Benchmarks mit realen Verhältniss bring, zb. die Leistungs Referenz Karte/Marke von letzten Jahr nimmt und die Spiele so einstellt das damit durchschnittlich 60fps gehalten wird und mit dieser Einstellung die neuen Anwerter teste.

Was bringen mir Benchmark Balken mit 21fps wenn die vorherige Vergleichskarte nun 17fps hat.?
Grafikkarten verhalten sich mit hohen fps anders als wenn die auf <30fps eingebremst werden,
gerade auch im Stromhunger.
 
Zuletzt bearbeitet:
Mich wundert ein wenig die Leistungsaufnahme beim Abspielen von Blu-Rays: https://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/9/

10 Watt mehr als die 650 Ti. Bei keinem anderen Test wird dies festgestellt. Im Gegenteil, es werden teils neue Bestwerte aufgestellt:

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_750_Ti/23.html - 9W 650 Ti vs. 6W 750 Ti, Partnerkarten aber 9W-11W

http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index17.php - 12,6W 650 Ti vs. 8,5W 750 Ti


Wie passt das zusammen?
 
CiTay schrieb:
Wie passt das zusammen?
Ich könnte mir vorstellen, dass da durch ein Treiber-Problem einige überflüssige Regionen der Karte nicht deaktiviert wurden oder sie nicht richtig runtertaktet.
Vielleicht hat das auch etwas mit der neuen Architektur zu tun und ist sozusagen der Preis für die gestiegene Effizienz in anderen Anwendungsbereichen.

14% sind aber schon ziemlich viel, weshalb ich mal auf meine erste Vermutung tippe (und hoffe). :)
 
Ich meinte "keinem anderen Test" jetzt nicht Idle- oder Spieleverbrauch, sondern andere Tests des Blu-Ray-Verbrauchs, siehe Links.

Beim Treiber nehme ich an, dass für alle Reviews der gleiche 334.69 beta verwendet wurde.
 
@Topic
Finde die Leistung jetzt nicht so berauschend. Mal davon abgesehen dass es seit 2 Jahren DX11.1 gibt und es noch nicht unterstützt wird. Verstehe nicht für wen die Karte sinnvoll sein soll, für einen HTPC zu groß, für einen Gaming PC zu klein.
Wenn ich für 140 Euro eine Karte kaufen will, hole ich mir eine R270 und hab da wesentlich mehr von.
 
Herdware schrieb:
Also ich sehe darin, gewisse Rechen- oder Verwaltungsaufgaben in den Treiber zu verlagern, erstmal grundsätzlich nichts schlimmes oder falsches.
Es kommt letztlich nur auf die Leistung an, die unterm Strich dabei heraus kommt. Wenn man dadurch die GPU sparsamer oder auch leistungsfähiger (weil man dank der "Auslagerung" mehr andere, performancekritischere Funktionen in der GPU-Hardware unterbringen kann) hinbekommen kann, dann ist das doch nur sinnvoll.

Eine Arbeitsteilung zwischen GPU und Treiber gabs eh schon immer. Manches lässt sich sinnvoll mit spezialisierter Hardware beschleunigen, anderes überlässt man besser der CPU. Entscheidend ist am Ende wie gesagt die Leistung/Effizienz des Gesamtpakets.

In diesem speziellen Fall wäre es natürlich interessant gewesen, wie sich die 750(Ti) im Vergleich mit einer ähnlichen Kepler-Karte schlägt, wenn da keine übertaktete i7-CPU hinter steht, sondern etwas für solche Karten realistischeres. Z.B. ein i3 oder ein FX6000 oder sowas.
Gibt es dann durch die Verlagerung von Aufgaben in den Treiber einen messbaren/spührbaren Nachteil, oder wird der auch dann von der besseren GPU-Leistung/Effizienz mehr als ausgeglichen?

Ich merke schon, ich muss aufpassen was ich zitiere....
Mein Einwand bezieht sich nicht auf die Aufteilung der Bearbeitung... die ist mir bums... Mein Einwand bezieht sich darauf, das die Leistung der neuen Karte so ambivalent ausfällt. Mal kann Sie sich deutlich besser darstellen mal ist Sie "nur" auf dem Vorgängerniveau...
Und das soll ja eventuell mit dem Treiber zu tun haben, oder wie CB mutmast mit der gesunkenen - war es die Pixelfüllrate oder Texelfüllrate -
Daher empfinde ich diese Architektur im Moment als heißes Eisen. Ich persönlich würde abwarten. Und im Moment würde ich die Karte auch noch keinem Freund empfehlen deswegen.
Ergänzung ()

Kartenlehrling schrieb:
I
Was bringen mir Benchmark Balken mit 21fps wenn die vorherige Vergleichskarte nun 17fps hat.?
Grafikkarten verhalten sich mit hohen fps anders als wenn die auf <30fps eingebremst werden,
gerade auch im Stromhunger.

Ich unterschreibe das!
Was soll Crysis war es glaube ich in der Aufstellung mit ich meine im Vergleich der schnellsten Karte mit 16 FPS? Und daraus werden dann noch %-Steigerungen ermittelt und verrechnet... Da kann von mir aus der i7 ruhig bleiben, dann aber bitte die Einstellungen so wählen dass auf der Vorgängergeneration mindestens 20 besser wären 30 FPS erzielt werden und dann schauen was die neue Karte kann...
 
deathscythemk2 schrieb:
Finde die Leistung jetzt nicht so berauschend.
Nicht? Schau dir mal die Effizienz an. In sachen Performance/Watt ist Nvidia AMD um einiges voraus, mit Maxwell sieht es da sehr schlecht für AMD aus.

deathscythemk2 schrieb:
Mal davon abgesehen dass es seit 2 Jahren DX11.1 gibt und es noch nicht unterstützt wird.
DX11.1 braucht kein Schwein, einen Unterschied sieht man da eh nicht. Wozu also?

deathscythemk2 schrieb:
Verstehe nicht für wen die Karte sinnvoll sein soll, für einen HTPC zu groß, für einen Gaming PC zu klein.
Sehe ich nicht so, als Einsteiger-Karte ist sie ziemlich gut.
Ich habe noch eine GTX 570, die mit der GTX 750 Ti wohl nicht überall mithalten kann. Ganz zu schweigen vom Verbrauch.

deathscythemk2 schrieb:
Wenn ich für 140 Euro eine Karte kaufen will, hole ich mir eine R270 und hab da wesentlich mehr von.
Ja, mehr Stromkosten.
Die R270 ist natürlich auch schneller, aber sooo groß ist der Unterschied nicht als dass ich mich bei 140€ für AMD entscheiden würde.
Ich bleibe aber auch schon wegen CUDA/APEX/PhysX bei Nvidia, da ich darauf nicht verzichten möchte.
 
@S.Kara
Ich finde es ja schön, dass eine niegelnagelneue Maxwell (TM) Karte 15% Effizienter ist als eine 2 Jahre alte Radeon, aber die Leistung ist ebenfalls geringer und wir reden hier von einem Stromkosten unterschied von 2-4 Euro im Jahr.
Für mich ist es eine lahme Änderung, genau wie die 6% schnelleren Haswell CPUs von Intel und dann muss auch noch mehr als für die alten Modelle zahlen, dass nenne ich mal dreißt. Das schlimmste sind aber die Leute die dann voll drauf anspringen und auch noch den Mehrbetrag bezahlen, für eine minimale Verbesserung.

Wenn Maxwell bei den "richtigen" Karten genausowenig bringt wie bei der 750ti und dann auch noch mehr kostet als die Vorgänger Modelle, dann aber gute Nacht nVidia.
 
also ich spiel in der Woche vielleicht 1-3 Stunden... :cool_alt:

trotzdem irgendwie komisch, dass ne neue (mir schon klar, keine performance oder gar highend) Karte kaum schneller ist, wie z.b. die steinalte 5850 von meinem Bruder :freak: da steht dann die Effizienz/Ersparnis irgendwo nicht im Verhältnis zur Neuanschaffung! Trotzdem mittlerweile schöne Performance ohne 6-Pin :)
 
Und auch die 270 wird nicht den Bangforthebuck gegenüber der 750ti haben, zumindest nicht dann wenn die 750ti gut verfügbar ist. Die Karte von NV wird vermutlich circa 115€ kosten und eine vergleichbar laute 270 knapp 150€. Das sind 30% mehr Dollars für 30% mehr Leistung. Da ist nichts grandios im P/L Bereich bei AMD.

Ehm - 30% mehr Leistung bei 30% höheren Anschaffungskosten ergeben ein identsiches P/L Verhältnis.
DU widersprichst dir.

Wenn du andere "Features" da mit "reinrechnest" (kann man nicht, da subjektiv), dann solltest du das noch dazuschreiben.
Das was oben steht ist einfach falsch geschlussfolgert.

grade mal 70 Minuten täglich
JEDEN(!) Tag, AUSNAHMSLOS(!) - das musst du auch noch beachten.
70min hören sich für ne "Session" klar relativ wenig an. Aber beachte, dass die Rechnungen oben mit jener Zahl auf täglicher Basis durchgeführt wurden.
Hab einmal Kopfweh an einem von 365 Abendenden und Ciao mit der Rechnung - sehr überspitzt ausgedrückt ;)
 
Zuletzt bearbeitet:
Ehm - 30% mehr Leistung bei 30% höheren Anschaffungskosten ergeben ein identsiches P/L Verhältnis.

Genau, deswegen ist weder NV noch AMD BangfortheBuck. Ich sagte auch nichts anderes. Ich Behaupte lediglich das die 750ti der Bangforelectricity ist ;)
 
@ CB warum nehmt ihr eigentlich nicht den Verbrauch von ZeroCore mit auf. Ein Feature das ich zumindest nicht mehr missen möchte.
Das machen wir doch?
https://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/9/

Schade, dass ihr den Test mit mehreren Monitoren unterschiedlicher Auflösung rausgenommen habt. Da kamen ja zum Teil echt überraschende Ergebnisse raus. Deswegen kann man sich mit so einem Setup kaum auf irgendwelche Testergebnisse verlassen, weil sie meilenweit daneben liegen könnten.
Was genau meinst du? Die Spiele-Tests?

Ihr schreibt das mehr TMUs zu sehr auf die Leistungsaufnahme drücken würden, gleichzeitg nehmt ihr aber beim Effizienzvergleich eine Kepler Karte die nicht nur ein breiteres Speicherinterface hat, die Spannung nicht angepasst wurde und die mal eben 60% mehr TMUs hat? Davon abgesehen war die 650 Ti Boost die ineffizienteste Kepler Karte überhaupt.
Die 650 Ti Boost ist aber eben dennoch die Karte, die am ehesten mit der 750 Ti vergleichbar ist. Und die Sache mit den TMUs ist ja nunmal eine Designentscheidung bei Kepler.

Ihr habt die fehlende Directx 11.1, sowie Directx11.2 im Fazit mit keinem Wort angesprochen und auch nicht in den negativen Eigenschaften vermerkt.
Der einzige Absatz dazu ist schlicht eine Feststellung.
Deine beiden Sätzre wiedersprechen sich aber schon. Wir haben das fehlende DX11.1/11.2 erwähnt.
Im Fazit wird es nicht erwähnt, da es aktuell auf den Käufer nicht wirklich eine Auswirkung hat - und in Zukunft wohl (leider) auch nicht haben wird.

@CB: der Effizienzvergleich ist doch wohl nicht euer ernst? Ihr vergleicht eine 650 TI B die ihr auf die selbe Leistung gebraucht habt aber mit Überspannung?
Das ist so ziemlich das Gegenteil eines sauberen Vergleichs. Klar ist der Vergleich nicht ganz einfach, aber wie wäre es wenn ihr die FPS/Watt zwischen 750, 750Ti und 650 Ti B vergleicht? Das ist dann sollte wesentlich unverzerrter seien.
Wir wissen, dass das nicht optimal ist, was wir auch im Text erwähnt haben. Aber es ist eben dennoch die beste Vergleichsmöglichkeit. Zudem gibt es ja auch einen sehr ähnlich gehaltenen Vergleich zwischen der GTX 750 Ti und der GTX 650 Ti.
 
Ich hoffe einfach, dass bei den große MW Karten mal richtige Änderungen bei rumkommen, die nVidia untypisch nicht zu überhöhten Preisen angeboten werden. Dann muss nämlich AMD die Preise senken und ich bin glücklich.
 
Zurück
Oben