Test Nvidia GeForce GTX 750 (Ti) „Maxwell“ im Test

Speaking of video, decoding is also receiving a bit of a lift. Maxwell’s VP video decode block won’t feature full H.265 (HEVC) support, but NVIDIA is telling us that they will offer partial hardware acceleration, relying on a mix of software and hardware to decode H.265. We had been hoping for full hardware support on Maxwell, but it looks like it’s a bit premature for that in a discrete GPU. The downside to this is that the long upgrade cycle for video cards – many users are averaging 4 years these days – means there’s a good chance that GTX 750 owners will still be on their GTX 750 cards when H.265 content starts arriving in force, so it will be interesting to see just how much of the process NVIDIA can offload onto their hardware as it stands.

H.265 aside, video decoding overall is getting faster and lower power. NVIDIA tells us that decoding is getting a 8x-10x performance boost due to the implementation of a local decoder cache and an increase in memory efficiency for video decoding. As for power consumption, combined with the aforementioned performance gains, NVIDIA has implemented a new power state called “GC5” specifically for low usage tasks such as video playback. Unfortunately NVIDIA isn’t telling us much about how GC5 works, but as we’ll see in our benchmarks there is a small but distinct improvement in power consumption in the video decode process.

Diese Info hätte ich auch gerne in diesem Test gesehen. Leider muss man dafür immer auf anderen Seiten forschen.

http://www.anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell/9
 
Respekt an den Referenzkühler. Winziger Propeller und trotzdem leiser als die Großen.
Interessante Karte für Multimedia Rechner mit geringer Spielenutzung. Allerdings sollte der Preis noch auf ~100-110€ fallen.
 
Die Effizienzsteigerung ist in der Tat beeindruckend und dürfte bald auch als low profile GPU zu finden sein...
 
Liebe Leute, ich will niemandem zu nahe treten, aber diese Karte ist definitiv nicht für diese Einstellungen
konstruiert worden. Relevant ist nur, ob ich damit alle aktuellen Spiele bei Full HD flüssig spielen kann, dabei
Strom spare und der Rechner leise und kühl bleibt. Ich finde ihr fokussiert zu sehr auf irrellevante Dinge.
Ein solcher Test wäre bei der Titan Black sicher interessant, aber hier macht das wenig Sinn.

Oder wundert es jemanden, dass ich mit einer 130€ Karte aktuelle Games nicht bei 1920x1080@4xAA/16xAF
bei 60 min fps spielen kann? ;)
 
Wow, eine Geforce GTX 750 von 2014 hat genauso viel Füllrate wie meine Radeon HD 5770 von 2009/2010. Wundert sich noch irgendjemand, warum wir nach wie vor die gleichen Comic-Texturen bekommen, wie vor fünf Jahren? Wenn man bei den ROPs keine Leistungssteigerung mehr will, wieso schafft man sie dann nicht gleich ab und macht echtes Raytracing? Der Stillstand bei den Texturen nervt jedenfalls.
 
Ich frage mich, ob der Leistungsgewinn bei der 750/Ti nicht nur dem 1GB mehr geschuldet ist, da hier ja alles nur auf hohen Einstellungen getestet wurde.

Zugegeben FullHD ist mittlerweile Standard, aber ich behaupte, dass der Abstand zur 650Ti weit kleiner ausfällt, wenn man AA etc. entweder ausschaltet oder auf die geringste Stufe setzt.
Das ist auch weit realistischer als eine FPS unter 30 fps zu spielen.


Vllt. kann hier CB mal einige Ergebnisse noch nachliefern.

Auch der Vergleich zu AMD bei BF4 ist mir nicht ganz klar ob man sich hier allein auf DX bezieht oder auch auf Mantle.

Dennoch finde ich die Energieeffizienz sehr ansprechend :)
 
@ Computerbase

Ihr habt die fehlende Directx 11.1, sowie Directx11.2 im Fazit mit keinem Wort angesprochen und auch nicht in den negativen Eigenschaften vermerkt.

Der einzige Absatz dazu ist schlicht eine Feststellung.

"Dort hat sich nichts getan, sodass Maxwell genau wie Kepler nur DirectX 11.2 mit dem Feature Level 11.0 vollständig unterstützt – und damit im Endeffekt nur DirectX 11.0. Auch fehlt der GPU aktuell die Kompatibilität zu HDMI 2.0. Das liegt laut Nvidia daran, dass der Standard zu kurzfristig fertiggestellt worden ist."

Kepler ist die aktuellste Generation und unterstützt defacto lediglich direct x 11.0 von Anno 2009.
Warum dies keiner Erwähnung im Fazit würdig ist, ist für mich nicht nachvollziehbar.
 
borizb schrieb:
Liebe Leute, ich will niemandem zu nahe treten, aber diese Karte ist definitiv nicht für diese Einstellungen
konstruiert worden.

Noch so ein Schlaumeier.
Die Einstellungen sind jetzt halt so. Und die sind so, damit man alle getesteten Karten zusammen GERECHT VERGLEICHEN KANN.

Computerbase müsste einen neuen Testabschnitt wie "Mit welchen Einstellungen erreicht die getestete Karte 60 FPS" machen um deine Anforderung gerecht zu werden. Verstehst du das? Ich hoffe es.


Oh man...
 
@Kartenlehrling:
5 Frames weniger bei 40 Watt weniger Verbrauch ist nicht beeindruckend (750 Ti vs. R7 265)?
Was würde dich denn so beeindrucken?

@smilefaker:
Brauchst du DX 11.1 oder DX11.2? Wenn ja, für welche Spiele und welche Vorteile ziehst du daraus?
Vor allen Dingen muss man fragen ob man DX11.1 / 11.2 auf solch schwachen Karten braucht. Mir wäre nicht bekannt, dass die Minor-Erweiterungn irgendwie die Grafikkarte entlasten.
Außerdem: DX11.1 und 11.2 sind Windows 8-exklusiv. Windows 8 wird immer noch von vielen Leuten abgelehnt. Wozu also der Aufwand?

Es ist IMHO aber duchaus möglich dass nVidia bei den 8xx-Karten das DX-Featurelevel nochmal anpasst.
 
Zuletzt bearbeitet:
Man sollte in Bezug auf die Effizienzsteigerung nicht immer NV und AMD vergleichen, sondern die GTX 750 (Ti) mit den vorgängern vergleichen. Hier wurde eine deutliche Verbesserung in der Leistung und der Leistungsaufnahme erzielt. Kunden, die die Vorgänger hatten oder die in dieser Leistungsklasse eine GraKa suchen werden ein gutes Produkt erhalten.

Auch für Ausrüster, die nicht keine FHD Auflösung haben bzw. Mittelklassekarten der letzten beiden Generationen haben (HD 5xxx/6xxx - 500/600er) können eine deutliche Leistungssteigerung erzielen.

Ich vermute mal stark, dass schon sehr bald auch passive Versionen auf den Markt kommen werden.
 
Es wird bestimmt noch Custom Modelle mit höherer Taktrate geben.
Wenn man dann noch das Powertarget aufhebt (Mod, oder durch Nvidia selbst) bekommt man eine Karte mit deutlich mehr Leistung. Nvidia tackert die Karte an 60W fest, weil sie hier mit Effizienz überzeugen wollen.
 
nette Karten, allerdings als günstig kann man sie nicht bezeichnen bzw. wird sie auch nicht werden im Vergleich zu AMD Karten...
 
Naja, ich hab mir damals (tm) meine HD5770 für ca 135 Euro geholt.

Diese Karte soll mit also zeigen, dass man für den gleichen Preis
- 20-30% mehr Leistung erhält
- Aber weit weniger verbraucht

Für bald 5 Jahre Zeitdifferenz ist die Leistung pro Euro unter aller Sau. Die Effezient pro Euro dafür richtig gut. Aber ich dachte eig. dass ich mir nach 4-5 Jahren für das gleiche Geld eine doppelt so schnelle GraKa holen könnte. Schade.

Greetz,
GHad
 
RiseAgainstx schrieb:
7h/Woche = 350h/Jahr
350h*0,050kW (50W Differenz) = 17,5 kWh/Jahr bei 0,24€/kWh =4,20€

Und dies nur wenn in den 7 Stunden sichergestellt ist, dass beide Karten voll ausgelastet sind.
Denn das einzige was wir wissen (wenn CB anständig gemessen hat) sind Idle und Last Verbraucht.
Es gibt aber nicht nur schwarz oder weiß...

DocWindows schrieb:
@smilefaker:
Brauchst du DX 11.1 oder DX11.2? Wenn ja, für welche Spiele und welche Vorteile ziehst du daraus?
Tja, das werden wir wohl nie erfahren.
Bei DirectX 10.1 hat man es wenigstens bei Assassin's Creed gesehen bevor Nvidia es herauspatchen lassen hat...
 
Hm scheint im Vergleich zu meiner HD 7750 doch ein Plus an Leistung zu bringen. Kein extra Stromanschluss: Check; 1 Slot Kühlung: kommt bestimmt noch. Bis die kommen ist der Preis auch bei unter 100 Euro. Wirds wohl mal seit längerem wieder eine Nvidia.
 
Danke für den Testbericht,

übrigens braucht die 750 Ti auch keinen extra Stromanschluss mehr, und das bei dieser Leistung, das finde ich sehr beachtlich,

habe mir die MSI 750 Ti Twin Frozr bestellt und freue mich drauf..
 
Computerbase.de kann nicht wirklich das Fehlen des kompletten DX-Featuresets kritisieren, wenn sie beim Mantle Test keinen Wert daraufgelegt haben, da sie Windows 7 in Zukunft weiter verwenden...
 
Regenwürmer schrieb:
Noch so ein Schlaumeier.
Die Einstellungen sind jetzt halt so. Und die sind so, damit man alle getesteten Karten zusammen GERECHT VERGLEICHEN KANN.

Deswegen könnte man trotzdem einen Midrange Benchmark verwenden.

Ich skalier halt im Hirn runter, aber wirklich aussagekräftig ist das halt nicht.

Bei solchen Karten würde ich mir nen Zusatzbenchmark mit Full HD ohne AA usw wünschen.
 
DocWindows schrieb:
Brauchst du DX 11.1 oder DX11.2? Wenn ja, für welche Spiele und welche Vorteile ziehst du daraus?
Vor allen Dingen muss man fragen ob man DX11.1 / 11.2 auf solch schwachen Karten braucht. Mir wäre nicht bekannt, dass die Minor-Erweiterungn irgendwie die Grafikkarte entlasten.
Außerdem: DX11.1 und 11.2 sind Windows 8-exklusiv. Windows 8 wird immer noch von vielen Leuten abgelehnt. Wozu also der Aufwand?

Und nach Windows 8 kommt das nächste OS, welches Directx 11.2 unterstützt, bleibst du dann immernoch bei Windows 7?
Kann ich nicht nachvollziehen und ja ich gehe davon aus, dass das ein Nachteil ist.

Sontin schrieb:
Computerbase.de kann nicht wirklich das Fehlen des kompletten DX-Featuresets kritisieren, wenn sie beim Mantle Test keinen Wert daraufgelegt haben, da sie Windows 7 in Zukunft weiter verwenden...

Maswell ist doch die Generation für die nächsten 2 bis 3 jahre, wer nutzt dann noch Windows 7?
20% 10%? Weiß doch keiner.
 
Zuletzt bearbeitet:
Zurück
Oben