News Maxwell-Architektur der GeForce GTX 750 (Ti) enthüllt

Die Varianten GM200, GM204 und GM206 sollen hingegen im neuen 20-nm-Prozess von TSMC hergestellt werden,
Yes! Hab schon befürchtet es kommt nochmal ein Schwung 28nm wie AMDs R9. Hoffentlich lässt big Maxwell nicht lange auf sich warten, am Anfang gibts wohl wieder extrem kastrierte Chips. Das wird wohl wieder 1 Jahr dauern bis der neue Prozess mit meinem Monster DIE beglückt wird. Und dann garantiert mit dem Titan Nachfolger für 1000€.
 
Zuletzt bearbeitet:
Tobi4s schrieb:
Die Erhöhung des L2-Caches ist also der Hauptunterschied? Das klingt für mich irgendwie so, als hätte man den GK107 damals mit Absicht ein wenig gestutzt, damit man heute große Verbesserungen vorweisen kann und erneut somit einen neuen Kaufanreiz schafft.

klar, es ist ja auch gängige Vorgehensweise den Vorgänger zu stutzen damit die Nachfolgegeneration mehr glänzt nicht wahr :freak: - blöd nur dass diese immer der Vorgänger einer anderen Architektur ist und somit auch wieder gestutzt sein müsste ^^

@News

abwarten, höhere Perf/W bei gleichem Prozess ist schon mal nicht übel, muss sich aber zeigen. Zudem gefällt der neue C5 State, vielleicht kommen damit die GPUs auch mal in Bereiche in welche sich heutige CPUs tümmeln beim Idle Verbrauch. ~<1W.
20nm für die Notebook Modelle vorhalten macht Sinn.
 
Zuletzt bearbeitet:
Nunja, da die Konsolen allesamt das AMD Featurerset haben welches midnestens bei DX 11.2 liegt wäre es eigentlich für Nvidia ungünstig bei DX11 zu bleiben.

Das macht Portierungen direkt wieder problematischer. Dabei hat es AMD dank Mantle jetzt sogar noch einfacher.
Ansonsten warte ich auf tests der NVIDIAs ab, in der Mittelklasse und Low-End ist die Perf/W bei beiden Anbietern bisher ziemlich gleich gut(bitte berichtigen falls ich mich irre).

Auch steigt der Stromverbrauch nicht linear sondern höher mit der DIE Fläche und der Leistung. Wäre also interessant wieviel davon bei großen GPUs übrig bleibt.
 
Draco Nobilis schrieb:
Nunja, da die Konsolen allesamt das AMD Featurerset haben welches midnestens bei DX 11.2 liegt wäre es eigentlich für Nvidia ungünstig bei DX11 zu bleiben.

Vorteil von DX 11.2? Richtig keiner. Da würde ich mir weniger Sorgen machen. Es ist eh fraglich wie lange DX noch existiert, wenn Mantle und OpenCL mal weiter entwickelt werden.

Zu der Graka kann man sagen nett! Eigentlich so das Optimale für ein Mini-ITX System. Sollte sogar Passiv Kühlbar sein.
 
Die 750 und 750i sind für Gamer erst mal unintressant. Ich bin auf die Mid-Highend Modelle und vor allen Dingen deren Preis gespannt.
 
DirtyOne schrieb:
Ist bekannt wann die High End Karten erscheinen sollen? Kommen die noch dieses Jahr?
Die sollen wohl erst 2015 kommen, wahrscheinlich wieder so März - Mai.

Wenn es gut läuft könnte ich mir vorstellen, dass Nvidia uns mit der GTX 870 und GTX 880 zum kommenden Weihnachten überrascht. :)
Aber mal abwarten, handfeste Informationen gibt es noch nicht. Dass es noch einige Monate dauern wird kann aber als sicher angesehen werden.
 
Hoffentlich hat AMD noch was in der Schublade, gerade was das Thema Effizienz und Abwärme betrifft. Leistungsmäßig war Kepler schon sehr gut, dort konnte AMD aber noch mithalten, aber wenn Maxwell eine Schippe drauflegt und die Leistungsaufnahme weiter verbessert wird sieht es düster für AMD aus.

Wird hoffentlich ein interessantes Jahr
 
Schätze mal es werden dieses Jahr noch mehr Maxwell-Modelle in 28nm kommen. Warum sollte man bei der 750(Ti) mit den Verbesserungen aufhören und warten bis der 20nm Prozess richtig läuft? Und man bringt Maxwell@28nm sicherlich nicht nur für 1-2 Grafikkartenmodelle.
Ich nehme mal an für all diese Modelle wird das 7xx Namnesschema weiterverwendet und die 20nm GPUs bekommen dann 8xx.

Ich freu mich schon drauf, erst recht nach diesem Vorab-Ausblick was zu erwarten ist.
860 oder 870 wird wohl wieder in meiner Kiste Einzug halten und die 670 ablösen.
 
Klingt ja schonmal nicht schlecht.
Allerdings warte ich erstmal auf die obere Mittelklasse. Und dann natürlich auch erstmal ein paar Reviews abwarten.

Aber bisher könnte ich mir vorstellen, dass die nächste Karte grün wird ;)
 
MichaG schrieb:
Allerdings ist auf der Platine eindeutig ein 6-Pin-Stromanschluss erkennbar. Es wird gemunkelt, dass es die GTX 750 sowohl mit als auch ohne zusätzliche Stromversorgung geben wird. Für den Betrieb mit Standardfrequenzen soll aber der maximal 75 Watt liefernde PCI-Express-Slot ausreichen.

Möchte auch sein, dass die 75W des PCI-Express-Slots ausreichen sollten. Schließlich braucht selbst eine 1 1/2 Jahre alte MSI GTX 650 Ti Power Edition mit 20% mehr Shadern gerade mal 72W.
 
Ist das Absicht oder soll nur ein symbolisches Bild sein?

Das Bild vom ersten Artikel sieht irgendwie brutal nach Photoshop aus:

6-1080.3428088657.jpg
 
4nim4lity schrieb:
also ich warte auf eine 870 GTX, die leise und sparsam ist. Was meint ihr, was die kosten wird?
Wie sparmsam die sein wird muss sich erstmal zeigen.
Für eine leise Karte musst du auf ein Referenzdesign warten, der Preis hängt hier von diesem ab.
Die GTX ?70 kosten immer so um die 300€, am Anfang etwas mehr, mit der Zeit dann immer weniger.
 
Ist bekannt, ob die GTX 750 (Ti) oder andere Maxwell-Karten HDMI 2.0 unterstützen?
Oder wäre das eh Sache der Bordpartner?
 
Athlonscout schrieb:
Irgendwie kann ich mir das nicht wirklich vorstellen. Wenn man bedenkt, dass ein GK110 gerade mal über 1,5 MB L2 Cache verfügt, ein GK104 nur über 512KB und man sich vor Augen hält, dass der L2 Cache verdammt viel Diefläche benötigt, sind 2MB zumindest für mich nur schwer vorstellbar.

Du musst bedenken, dass die GTX780/Titan ein 382Bit SI hat. Die GTX750 nur 128Bit. Die kleine Karte hat mangels VRAM-Geschwindigkeit einen großen Cache also theoretisch wesentlich nötiger, als die Titan.

Es ist so ähnlich wie bei XBox One und PS4. Bei der PS4 ist der gesamte Speicher schnelles (und teures) GDDR5. Bei der XBox ist es vergleichsweise langsamer DDR3 + einen großen eDRAM-Cache.
Und die Gründe werden die selben sein, wie bei der XBox: Kosten reduzieren. Den Cache auf der GPU zu vergrößern ist wahrscheinlich günstiger, als ein breiteres SI.

Übrigens habe ich schon etwas gezuckt, als ich den VGA-Anschluss gesehen habe, auf einer Maxwell-Karte Baujahr 2014. ;)
Mir ist klar, dass das auch solchen Low-End-Karten eher sinnvoll ist, als bei größeren/teureren Modellen, aber haben heutzutage wirklich noch so viele einen alten Röhrenmonitor oder Billig-LCD-Monitore der ersten Generation, bei denen DVI noch eingespart wurde?
Notfalls kann man ja auch einen DVI-auf-VGA-Adapter benutzen. Oder vielleicht doch mal 100€ in die Hand nehmen und sich einen neuen Monitor leisten. Das wird viel mehr Freude machen, als eine neue Low-End-Grafikkarte.
 
Herdware schrieb:
Übrigens habe ich schon etwas gezuckt, als ich den VGA-Anschluss gesehen habe, auf einer Maxwell-Karte Baujahr 2014. ;)
Mir ist klar, dass das auch solchen Low-End-Karten eher sinnvoll ist, als bei größeren/teureren Modellen, aber haben heutzutage wirklich noch so viele einen alten Röhrenmonitor oder Billig-LCD-Monitore der ersten Generation, bei denen DVI noch eingespart wurde?
Notfalls kann man ja auch einen DVI-auf-VGA-Adapter benutzen. Oder vielleicht doch mal 100€ in die Hand nehmen und sich einen neuen Monitor leisten. Das wird viel mehr Freude machen, als eine neue Low-End-Grafikkarte.

wird man wohl genauso wenig los, wie die Floppy-Anschlüsse bei Netzteilen^^
 
Wenn man sieht, wie die aktuelle Architektur mit der aktuellen Struktur breite ausgereizt wurde (Lautstärke, Temperatur, Takt) ist das eine gute Nachricht, wenn die Effizienz ohne geringere Struktur breite stark verbessert wurde.
 
Herdware schrieb:
Oder vielleicht doch mal 100€ in die Hand nehmen und sich einen neuen Monitor leisten. Das wird viel mehr Freude machen, als eine neue Low-End-Grafikkarte.

Ein 100€ TN-Panel ist so unglaublich weit von der Bildqualität eines alten, aber guten, Röhrenmonitors entfernt...klar ist bei der Röhre die Auflösung etwas niedriger (1280*1024 oder 1600*1200 waren so die am weitesten verbreiteten Röhren), aber dennoch sieht das besser (für mich) aus. Ich gehöre zu diesen ewig gestrigen und habe noch 2 Röhrenmonitore und immer wenn ich diese superbillig Displays in Betrieb sehe kotze ich mir ein bisschen in den Mund.

Das liegt auch ehrlich gesagt nicht daran, dass ich es toll finde 2 riesige 40kg Klötze auf dem Schreibtisch zu haben, sondern es mangelt einfach am Geld für 2 neue, hochwertige Displays. Alles andere wäre ja vom Regen in die Traufe.

VGA Anschlüsse am Rechner habe ich aber auch keine mehr ;)
 
Zuletzt bearbeitet:
Endlich mal Infos. Endlich mal ein Leistungssprung. Ich dreh noch durch, wenn ich die ganze Zeit mit meiner 7850 rendern muss, aber wer kauft schon vor Release einer neuen Gen? :D

Gut, dass das jetzt endlich wieder ins rollen kommen soll. Dann bekommen die beiden "kleinen" im PC Markt (NVidia und AMD) mal wieder n bischen mehr Kohle in die Kasse.
 
Kitch schrieb:
Ein 100€ TN-Panel ist so unglaublich weit von der Bildqualität eines alten, aber guten, Röhrenmonitors entfernt...

Die allermeisten, die heute noch einen Röhrenmonitor haben, hatten damals sicher auch nicht genug Geld (oder Ahnung/Interesse) sich ein besonders gutes Exemplar zu leisten. Die typischen Supermarkt-Geräte (Vobis und Co.) waren größtenteils grauenhaft. Auch im Vergleich mit heutigen Billig-LCD. Wenigstens haben die keine Probleme mit Bildgeometrie, Unschärfe, Farbsäumen und was für Schweinereien schlechte Röhrenmonitore noch so alles gezeigt haben.

Außerdem finde ich, dass auch billige LCD-Monitore durchaus eine starke Verbessung gegenüber guten Röhren sein können.
Ich hatte vor ein paar Jahren an einem alten Zweitrechner einen Iiyama Vision Master Pro 450 (der wenn ich mich richtig erinnere damals ein ziemlich gutes Gerät war) durch einen ca. 130€ teuren Billig-19"-LCD (irgendwas von HannsG) ersetzt und letzterer macht subjektiv einen deutlich besseren Eindruck. (Trotz Anschluss per VGA. Die olle GeForce2 hat noch kein DVI ;) Den Win9X-Grafiktreiber musste ich erstmal von Hand zurecht patchen, damit er Breitbild-Auflöungen unterstützt.)

Ich würde jedem raten die Röhre in Rente zu schicken, es sei denn, er weiß definitiv, dass er da ein richtiges Schätzchen hat, an das günstige LCD-Monitore nicht ran kommen, oder man ist ein Oldschool-CS-Zocker oder sowas. ;)
 
Zuletzt bearbeitet:
Zurück
Oben