Test Nvidia GeForce GTX 750 (Ti) „Maxwell“ im Test

Starke Leistung, hätte ich nicht gedacht. Aber sollte man, solange man nicht weiß wieviel von der Effizienzsteigerung dem eventuell neuen Prozess zu schulden ist, den Ball etwas flacher halten?

Es macht aber definitiv Lust auf mehr, vorallem in 20nm.
 
Kasmopaya schrieb:
Aber oben raus verlieren sie den Anschluss und wie es aktuell aussieht legt Maxwell da nochmal eine gewaltige Schippe nach.

Das sollte auch niemand wirklich wundern. AMD baut einfach seit geraumer Zeit keine so großen Chips wie Nvidia mehr. Trotzdem soll das Topmodell auf Gedeih und Verderb mit Nvidias großem Chip konkurrieren. Dabei entstehen dann Karten wie die 7970 Ghz oder 290 X im Uber-Modus.
Maxwell ist jetzt erst mal beeindruckend, aber ich bin nicht überzeugt, dass die Änderungen auch nach oben skalieren. Das klingt zu einfach. Mehr Cache hier, mehr Uncore da, fertig ist der 30% Effizienzbonus.
 
Seit Fermi hat NV eine bessere Performance per Watt? Außer der 6970 ist da AMD haus hoch überlegen, die 6950 war da besonders gut und baute die Führung sogar noch aus im Vergleich zu HD 5900. Erst seit Kepler ist NV wieder vor AMD, aber richtig deutlich nur im High End Bereich. Mit Maxwell könnte nun aber auch mid Range auf und davon sein.

Und der Unterschied ist zur Zeit min. so groß wie Thermi v. HD 5000/6000. Also nicht unerheblich, wofür ja NV richtig zur Schnecke gemacht wurde, zu Recht...

Nur das die dicken GPGPU Chips eigentlich als extrem ineffizient gelten(Thermi und Vorgänger), bis die Titan kam und alles weggefegt hat. Und bei AMD ist das auch wieder schön zu sehen, umso dicker ihre GPU umso ineffizienter arbeitet sie. (GPGPU Ausrichtung) Wie es NV schafft mit dem GPGPU Ballast der Titan so effizient zu agieren ist bis heute nicht wirklich klar.

Als die 680 aufschlug war allen klar woher die Effizienz kommt, durch den Wegfall des GPGPU Ballasts. Da wurde geschimpft: Toll NV kann nur durch Kastration auf AMD(GPGPU Karte 7970) aufschließen in Sachen Effizienz, das ist kein Kunststück.

Als dann die GPGPU Karte Titan noch schneller wurde und gleichzeitig die Effizienz Krone holte verstummten alle Kritiker und waren einfach nur noch baff. Bis heute stellt die Titan ein Novum dar. Keine andere GPGPU Karte war jemals so effizient in Relation zu ihrer Leistung. Sollte das mit Big Maxwell GM 110 nochmal gelingen, Hut ab, theoretisch unmöglich.
 
Zuletzt bearbeitet:
Na da bin ich ja mal gespannt, wie sich der Preis entwickeln wird.

GTX750Ti --> mehr Leistung als R7 260X bei deutlich geringerer Leistungsaufnahme. Das ist an sich schon sehr gut. Aber nun muss eben auch der Straßenpreis in entsprechende Regionen vordringen.
Gebt mir diese Karte für 120€ und schon steige ich von AMD auf NVidia um!
 
Zuletzt bearbeitet:
Frage mich für was mit OpenCL getestet wird wenn nVidia dafür CUDA entwickelt hat was weitaus mehr leistung bringt aber naja^^
Bin mal auf die Grossen Karten gespannt :)
 
r4yn3 schrieb:
Starke Leistung, hätte ich nicht gedacht. Aber sollte man, solange man nicht weiß wieviel von der Effizienzsteigerung dem eventuell neuen Prozess zu schulden ist, den Ball etwas flacher halten?

Es macht aber definitiv Lust auf mehr, vorallem in 20nm.
Ganz deiner Meinung
CB schrieb:
Ob es sich um den klassischen 28-nm-HP- oder möglicherweise den stromsparenderen 28-nm-HPM-Prozess handelt, wollte Nvidia auf Nachfrage nicht verraten. https://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/
Solange das nicht geklärt ist, kann man wenig darüber sagen, was jetzt die Maxwell Architektur an Effizienz bringt.
 
Ich finds gut. Ich bin damals von meiner ehemaligen Geforce 7600 auf eine HD 3870 umgestiegen, und habe seitdem nur noch AMD gekauft. Aber bei dem Fortschritt den Nvidia grad macht muss sich AMD warm anziehen. Ich kaufe auf jeden Fall weiterhin die Karten mit dem besten P/L Verhältnis. Wenn das in Zukunft Nvidia ist, dann bekommen die ab jetzt mein Geld.
 
Auch wenns wirklich beeindruckend aussieht, bin da irgendwie skeptisch, ob da nicht viel durch einen anderen Prozess geschafft wurde. Wenn der gleich geblieben wäre, hätte NVidia das ganz einfach angeben können, aber "keine Auskunft" riecht schon sehr nach Prozess Verbesserung...
Wenn ich mal äpfel mit Birnen vergleichen darf:
Im mobilbereich wurde beim Wechsel vom snapdragon 600 auf den 800 nur (!) der Prozess ohne Strukturbreiteänderung geändert, was in deutlich höheren Taktraten bei geringerem Verbrauch geendet hat.
 
Seit Monaten gab es nix besseres für den PCIe Slot als AMD HD7750 und Nvidia hat endlich was gemacht! Danke Nvidia, jetzt kann ich meine kleine AMD Karte gegen mehr Leistung und gleicher Verbrauch austauschen! :)
 
Um die Effizienz weiter steigern zu können, liegt die Aufgabe der Verteilung der Rechenaufgaben nicht mehr nur alleine bei der Kontrollhardware, sondern wird bei Maxwell, anders als bei Kepler, zu einem gewissen Teil auch vom Treiber in Software – und damit von der CPU – übernommen.

…wäre ja mal interessant zu sehen, wie sich die Karte dann mit einer für ein solches System "passenderen" (weniger leistungsfähigen) CPU verhält. Wenn die Rechenlast (und damit in gewisser Weise auch die Leistungsaufnahme) einfach nur z. T. ausgelagert wird, wäre das eine super GPU, um in diversen Benchmarks, die mit i7 etc. gemacht werden, sehr gut dazustehen. In der "Realität" mit i3 oder einer AMD-APU sieht es aber dann vielleicht auch ganz anders aus…
(siehe auch den Post von TenDance…)

Ansonsten schließe ich mich meinen Vorrednern an: dass es bei den Spieletests enorme Schwankungen gibt, wird im Fazit nur kurz erwähnt, taucht als negativer Punkt in der Übersicht aber nicht auf – das wäre undenkbar bei AMD.
Außerdem verfälscht es das Endergebnis sehr, wenn die Karte in einigen Titeln sehr viel schneller und in anderen sogar schlechter als die alte Generation ist…
 
Zuletzt bearbeitet:
Um die Effizienz weiter steigern zu können, liegt die Aufgabe der Verteilung der Rechenaufgaben nicht mehr nur alleine bei der Kontrollhardware, sondern wird bei Maxwell, anders als bei Kepler, zu einem gewissen Teil auch vom Treiber in Software – und damit von der CPU – übernommen.

der Grund dafür dürfte eher sein, dass mit der nächsten Gen oder vielleicht bereits den größeren 20nm Chips einige Tegra Kerne mit in die GPU wandern dürften, die dann eben genau diese Aufgaben erledigen.Sozusagen die CPU auf der GPU die sich um viele low-level Treiberaufgaben kümmert.

Bisher hat der Pastebin Leak von Oktober 2013 ja wirklich gut gepasst:

http://pastebin.com/jm93g3YG

ot around some maxwell plans from nvidia. quite interesting stuff. there will be two lines, maybe the second one aligns with the finfet stuff, don't know. anyway, that's what i gathered:

the smx structure changes slightly. nv did some optimization that they can use now the dp alu also for sp, it supports now all sp instructions and can be used in parallel. it means an smx looks now to have 256 alu. technically, that reduces maxwell's dp rate to 1:4, but in reality it just boosts the sp performance in comparison to kepler. nv found out how to gate of the unused parts of the dp alu to keep the power down when doing sp stuff.

but the real changes are in the cache area. that will boost the efficiency big time.
first off, the registers are doubled per smx. more threads using a lot of registers can now run in parallel and better hide the latencies. and the caches got increased as well. the L1 cache also used as shared memory is now 128kb (doubled) and can be split between cache and shared memory in steps of 32/96, 64/64, or 96/32. maxwell keeps the 16 tmus per smx.

the gpcs consist of usually 3 smx, but got changed quite a bit. there is still that geometry engine and stuff, but each gpc now includes 768kb of l2 cache, backing the r/w-L1 as well as the read only texture L1 in the smxs and also serve as instruction cache for the smx. all this gets topped off with a much larger l3 cache than in kepler. now to some numbers for the first line.

gm100:
8 gpc (8 triangles per clock), 24 smx, 384 tmus, 6144 alu, 8mb l3 (and there are also 8 l2s in the gpcs!), 64 rops, 512 bit interface, up to 8 gb @ 6+ ghz
target frequency for gf 930mhz, boost 1GHz
target frequency for tesla 850mhz, gives 2.61 dp tflops, double that of kepler, comes with 16gb

gm104:
5 gpc, 15 smx, 240 tmu, 3840 alu, 4mb l3, 40 rops, 320 bit interface (7 ghz), 2.5gb for cheap models, probably a lot of asymmetric 3gb or (symmetric again) 5gb models, target 1+ ghz, can do dp only with 1:16 rate

gm106:
3 gpc, 9 smx, 144 tmu, 2304 alu, 4mb l3, 24 rops, 192 bit interface, 7ghz, 3gb ram

gm108:
2 gpc, 4 smx, 64 tmu, 1024 alu, 2mb l3, 16 rops, 128bit interface, 2 gb ram

but really interesting gets the refresh, probably waiting for tsmc's finfets. then 64 bit arm cores developed by nv gets integrated on the same die. they can coherently access the common l3 cache.the big thing is that they will be used by the graphics driver to offload some heavy lifting from the system cpu. basically most part of the driver will be running on the gpu itself! nvidia expects this will give them at least the same speed up as amd will get from mantle, but without using a new api with straight dx11 or opengl code! and it will also help with the new cuda version for maxwell, where one can access both gpu as well as cpu cores seamlessly.

the specs are planned to stay almost the same for gm110/114/116, just the 110 gets full 8 ARM v8 cores and a doubled l3 (16mb!) compared to the gm100. the finfets may also allow a further speed boost. the 8 arm core version is actually called gm110soc, so maybe nv will start to market them as standalone processors for hpc. the consumer version is likely cut down to 4 arm cores, the same as gm114 will get (which also gets a doubled l3 to 8mb). the gm116 will only get 2 cpu cores on die, i have not seen that a gm118 got mentioned.

Was zb auch passt ist das Verhältnis TMUs zu ALUs mit 1:16 welches sich ja geändert hat.

Edit: Dass man 6144 ALU so schnell nicht sehen wird sollte klar sein. Mag sein dass der CHip sein Tapeout schon hatte aber bis man 6144 Shader braucht gehen noch 2 Jahre ins Land - dürfte eher GTX900 oder gar danach werden. Die 20nm von TSMC wird man lange halten müssen... uns sich entsprechend wie AMD auch gut einteilen.

Was gut für nen Launch in 20nm passen würde wäre also

gm104:
5 gpc, 15 smx, 240 tmu, 3840 alu, 4mb l3, 40 rops, 320 bit interface (7 ghz), 2.5gb for cheap models, probably a lot of asymmetric 3gb or (symmetric again) 5gb models, target 1+ ghz, can do dp only with 1:16 rate

gegen Q4 dieses Jahr oder Q1 2015 ;)

Mit 3840 Shader bringen auch ein gutes + an Leistung vergleichen zu den 2880 Shader von Kepler die aber weniger Leistung / Shader haben.
 
Zuletzt bearbeitet:
iHabAhnung schrieb:
Warum sollten jetzt random 2 Karten der 700er Generation DX11.2 unterstützen, während der Rest nur 11.0 nutzen kann? Ich finde es gut, wenn die Features innerhalb einer Generation so gut wie es geht einheitlich sind. Bei AMD ist es ja teilweise sehr undurchsichtig mit True Audio usw. Ich gehe stark davon aus, dass die 800er Generation DX 11.2 unterstützt.

Zunächst mal tun zusätzliche Features ja nicht weh. Es wird keiner sagen: "Verdammt! Ich wollte aber eine DX11.0-Karte und nicht diesen DX11.2-Kram!" ;)
Viel ärgerlicher sind in neuen Generationen "versteckte" alte Modelle, bei denen Features fehlen. (Was bei beiden Herstellern immer wieder mal vorgekommen ist.)

Außerdem bin ich mit ziemlich sicher, dass die GM107-GPU nicht gleich wieder ersetzt wird, wenn in er zweiten Jahreshälfte die 800er-Karten mit "Maxwell 2. Generation" kommen. Die 750(Ti) werden mit Sicherheit nur umbenannt (vielleicht in GT840). Und dann hat man genau die oben beschriebene Situation, dass mitten in der neuen Generation alte Karten vorkommen, die nicht über alle Features verfügen.

Es sei denn, bei GM107 ist es nur eine Frage des Treibers/BIOS und DX11.2 kann nachträglich aktiviert werden. Aber das halte ich für unwahrscheinlich.

Oder die 2.Generation Maxwell kommen auch nur mit DirectX 11.0. Das könnte schon eher hinkommen. Wenn Nvidia DX11.2 jetzt für überflüssig hält, dann könnten sie das in einem halben Jahr auch noch so sehen.

Wobei man nicht vergessen sollte, dass laut Nvidia auch schon Kepler alle in 3D-Spielen relevanten DX11.1-Features unterstützt. Wie sich die fehlende komplette Feature-Unterstützung in der Praxis auswirkt, wird sich noch zeigen müssen. Zumindest in Battlefield 4, dem derzeit einzigen DX11.1/2-Spiel (von dem ich weiß), scheinen die Kepler-Karten ja nicht besonders abzustinken, gegenüber AMD-Karten mit DX11.2. (Erst mit Mantle setzen die AMD-Karten sich ab.)
 
Unter Windows 8, dort wo DX11.x erst greift, setzt sich ironischerweise auch mit Mantle keine Radeon ab, weil Nvidia hier in BF4 extrem zulegt.
 
Als AMD Fan muss ich an dieser Stelle zugeben, dass Maxwell in Sachen Effizienz einen recht hohen Maßstab setzt. :)
Trotzdem eher uninteressant für mich in puncto kaufen :D
 
Dai6oro schrieb:
Nein es bedeutet dass bei Maxwell generell keine hardwareseite unterstützung für DX 11.2 gibt nicht bei dieser Karte und auch nicht in den kommenden 2-3 Jahren.

Wieso sollte es das bedeuten? Die 8xx-Serie kann durchaus DX11.2 unterstützen. Vielleicht sogar mehr, falls MS bei Windows 9 ein neues DirectX aus dem Hut zaubert. Die großen Karten in 20nm lassen ja noch etwas auf sich warten. Könnte sein dass sie nächstes Jahr rechtzeitig zum Windows 9-Release mit DirectX 11.5 (Spekulation) oder DirectX 12 (Auch spekulation) Support daherkommen.

Herdware schrieb:
Außerdem bin ich mit ziemlich sicher, dass die GM107-GPU nicht gleich wieder ersetzt wird, wenn in er zweiten Jahreshälfte die 800er-Karten mit "Maxwell 2. Generation" kommen.

Da wär ich mir nicht so sicher. Wenn die Fertigungskosten in der kleineren Struktur nicht allzu hoch sein sollten (wegen anfänglichem Ausschuss), dann spricht eigentlich nichts dafür die größere Strukturbreite weiterzufahren. Einzig die eventuell zu knappen Produktionskapazitäten könnten ein Weiterbestehen rechtfertigen.

derGrimm schrieb:
Tja, das werden wir wohl nie erfahren.
Bei DirectX 10.1 hat man es wenigstens bei Assassin's Creed gesehen bevor Nvidia es herauspatchen lassen hat...

Es hindert niemand einen Spieleentwickler daran trotzdem DX11.2 einzubauen. Wenn man schon einen exklusiven Renderpfad für AMD-Karten einbauen kann, dann dürften die paar Extrafunktionen bei DX11.1 und DX11.2 auch kein Problem sein.
Nur kommt hier eben hinzu, dann man nicht nur auf AMD-Karten einschränkt, sondern auch noch auf Windows 8.

smilefaker schrieb:
Und nach Windows 8 kommt das nächste OS, welches Directx 11.2 unterstützt, bleibst du dann immernoch bei Windows 7?
Kann ich nicht nachvollziehen und ja ich gehe davon aus, dass das ein Nachteil ist.

Wenn Windows 9 kommt, gibts die 8xx-Serie. Da hat nVidia die Möglichkeit DX11.1 und 11.2 nachzurüsten (wie schon mehrfach gesagt). Aber auch wenn ich mir jetzt ne 750Ti kaufe, ich mir Windows 9 dann auch kaufe und nur DX11.0 statt DX11.2 nutzen kann: Wo ist das Problem? Die Erweiterungen machen bei so einer schwachen Karte doch überhaupt keinen Sinn. Ob ich die habe oder Peng *pfff*
 
Zuletzt bearbeitet:
stoneeh schrieb:
Ich finds gut. Ich bin damals von meiner ehemaligen Geforce 7600 auf eine HD 3870 umgestiegen, und habe seitdem nur noch AMD gekauft. Aber bei dem Fortschritt den Nvidia grad macht muss sich AMD warm anziehen. Ich kaufe auf jeden Fall weiterhin die Karten mit dem besten P/L Verhältnis. Wenn das in Zukunft Nvidia ist, dann bekommen die ab jetzt mein Geld.

HÄ...aber gerade beim P/L Verhältnis punktet AMD mehr wie je zuvor.
Die Nvidia Karten sind alle durch die Bank weg teurer bei identischer Leistung.
Und wenn Mantle ins Spiel kommt ist Land unter und mit "Thief 4" steht der nächste Titel schon in den Startlöchern...
 
Amok-Sepp schrieb:
Unter Windows 8, dort wo DX11.x erst greift, setzt sich ironischerweise auch mit Mantle keine Radeon ab, weil Nvidia hier in BF4 extrem zulegt.

Was dann aber wohl eher an CPU-seitigen Optimierungen von Windows 8 (Threadhandling) und DirectX 11.1/2 liegt, nicht an der (mehr oder weniger unvollständigen) DirectX-Unterstützung der GPUs.

Wobei Computerbase laut Mantle-Artikel keinen solchen Effekt feststellen konnte, sondern es sich nahezu identisch zu Windows7/DX11.0 verhielt:
"Als Betriebssystem setzen wir auf Windows 7. Wir haben probeweise auch Windows 8.1 in Battlefield 4 getestet, wobei sich die Differenzen zum älteren Betriebssystem in Grenzen halten. Die Leistung steigt auf den Radeon-Karten um zwei bis drei Prozent an, größere Unterschiede konnten wir nicht feststellen. Und das gilt sowohl für Mantle als auch für DirectX."
 
Nicht schlecht aber das nur DX 11.0 unterstützt wird und AMD schon seit Monaten Karten hat die 11.2 unterstützen ist schon dürftig.
 
Zurück
Oben