News GeForce-800-Serie mit „Maxwell“ im zweiten Halbjahr

mh, also das upgraden auf die 700er Reihe hat sich bei meiner GTX780 noch nicht gelohnt.

Sollte maxwell aber gegenüber der 700er Reihe nochmal 30% und mehr auflegen, könnte ich mir schon vorstellen meine jetzige Graka zu verschenken und ein wenig aufzurüsten.
 
Das macht doch mal Lust auf die 800er-Reihe. :)
 
r4yn3 schrieb:
Auf dem Papier siehts zwar gut aus, dass die TDP im Vergleich zur GTX650Ti nur fast halb so groß ist, aber braucht denn eine GTX650Ti denn auch ihre 110W?
Um was handelt es sich bei dem "Control Logic Block", ein SMX Block?

Die 1 1/2 Jahre alte MSI GTX 650 Ti Power Edition kam auf 72W.

Was dort als "Control Logic Block" bezeichnet ist sind Warp Scheduler, Dispatch Units etc. Da hat z.B. bei Kepler ein SMX Block 4 Warp Scheduler und 8 Dispatch Units die 192 Cuda Cores versorgen. Bei Maxwell hat man es unterteilt in 4x32 Cuda Core Gruppen, die einen SMM Block bilden. Wobei jede Gruppe ein 1 Warp Scheduler und 2 Dispatch Units hat. 4 Gruppen Teilen sich dann als SMM Block eine Polymorph Engine (Vertex Fetch, Tessellator, Viewport Transform, Attribute Setup, Stream Output).

Also grob vereinfacht gesagt:
Kepler SMX Block: 16 Texture Units, 4 Warp Scheduler und 8 Dispatch Units für 192 Cuda-Cores
Maxwell SMM Block:16 8 Texture Units, 4 Warp Scheduler und 8 Dispatch Units für 128 Cuda Cores
 
Zuletzt bearbeitet:
Vielen Dank für die Info.
Hm ja, aber der Control Logic Block samt grünen Kästchen bilden einen SMX Block oder? Zumindest bei Kepler. Wenn man versucht mit mehr Logik, weniger Core zu verwalten, heißt das dann dass die Cores schlecht ausgelastet werden?
Die Aufteilung in 4x32 Cuda Cores wird doch wohl kaum die einzige Neuerung bei Maxwell sein. Schließlich steht ja unter der Maxwell Folie 1st Generation. Also wird wohl der 20nm Part 2nd Generation werden.
 
r4yn3 schrieb:
Hm ja, aber der Control Logic Block samt grünen Kästchen bilden einen SMX Block oder? Zumindest bei Kepler.
...
Schließlich steht ja unter der Maxwell Folie 1st Generation. Also wird wohl der 20nm Part 2nd Generation werden.

Ja.

Wobei das 1st und 2nd Generation nicht viel hießen muß. Kann halt wirklich einfach nur sein 1st ist 28nm und 2nd ist der 20nm Shrink.

matty2580 schrieb:

Danke für den Link, das Blockdiagramm macht es deutlicher als meine Beschreibung.

BTW
Ach, wie ich solche PR Folien liebe. Bei dem Bild "GeForce GTX 750 Ti für Mini-ITX" wird da als Vergleich ne GT 640 mit 65W TDP gezeigt. In Wirklichkeit braucht die GT640 nicht mal 34W. Da dürfte also die 750 Ti nicht mehr als 39W brauchen, wenn die vorher gezeigten 2x Performance/Watt stimmen sollten. Ich bin gespannt.
 
Flatan schrieb:
Dann nimm dir doch eine R9 270x zum Überbrücken und schau was es dann Anfang 2015 gibt! ;)

Die R9 270X ist mir für einen mit der Brechstange ausgereizten Chip zu teuer im Vergleich zu GTX 760 bzw gebrauchten GTX 670. Gäbe es die HD7950 Boost noch bzw. schon die R9 280 für den Preis, den man für die HD7950 Boost am Ende zahlen musste, wäre das die wesentlich bessere Lösung.

Mich ärgert es aber generell, für so "alte" Technik noch Geld auszugeben, weil ich gewohnheitsmäßig dann doch länger damit lebe, statt schnell wieder zu verkaufen.

Wichtig wäre aber auch zu wissen, ob schon die 28nm-Maxwell oder zumindest die späteren in 20nm HDMI2.0 und HEVC-Dekkoding in Hardware beherrschen.
 
r4yn3 schrieb:
Wenn man versucht mit mehr Logik, weniger Core zu verwalten, heißt das dann dass die Cores schlecht ausgelastet werden?

Nein. Die Cores werden durch das neue (Software) Threadscheduling besser ausgelastet.

Matzegr schrieb:
Ach, wie ich solche PR Folien liebe. Bei dem Bild "GeForce GTX 750 Ti für Mini-ITX" wird da als Vergleich ne GT 640 mit 65W TDP gezeigt.

Die GT 640 (bzw. GT 630 Kepler) gibt es in verschiedenen Varianten. In 65, 49 und 25 Watt. Letzteres nur mit niedrigerem Speichertakt. Idle braucht der kleinste Kepler vielleicht 5-6 Watt (max). Unter Last gegen die Nvidia Angaben. Ohne jetzt den Idle Verbrauch aufs Watt gemessen zu haben.
 
Zuletzt bearbeitet:
Mr.Seymour Buds schrieb:
Nein. Die Cores werden durch das neue (Software) Threadscheduling besser ausgelastet.
Schon klar, Schreibfehler von mir. Ich meinte halt dass sie bislang schlecht(er im Vergleich zu Maxwell) ausgenutzt wurden.

Danke matty2580 für den Link.
 
Ähm ja, dann stimmts natürlich ;) :D
 
Mr.Seymour Buds schrieb:
Die GT 640 (bzw. GT 630 Kepler) gibt es in verschiedenen Varianten. In 65, 49 und 25 Watt.

Die 65W TDP Variante basierend auf GK107 braucht genausoviel wie die 49W TDP GK208 Variante.

Auf der PR-Folie wäre als Vergleich eine GT 650 sinnvoller gewesen, die hat 64W TDP und basiert auch auf GK107.
 
@Matzegr: Dann wäre die 750 Ti aber nicht mehr mehr als doppelt so schnell, sondern eher 40-50% schneller. Was das für die 750 ohne Ti bedeutet ist klar. Abseits der phantastischen Welt der Werbefolien kommen dann evtl. noch 20% an. Das ist nicht schlecht, aber auch ziemlich weit von 200% entfernt.
 
Matzegr schrieb:
Die 65W TDP Variante basierend auf GK107 braucht genausoviel wie die 49W TDP GK208 Variante.

Zumindest bescheinigt Nvidia auf ihrer eigenen Homepage der GK107 Variante mit extrem langsamen DDR3 eine TDP von 65W!

Matzegr schrieb:
Auf der PR-Folie wäre als Vergleich eine GT 650 sinnvoller gewesen, die hat 64W TDP und basiert auch auf GK107.

Sinnvoller ja, da auch die Karte eindeutig wäre - von der GTX650 gibt es imho ja nur eine Variante mit GK107. Allerdings wäre dann der Balkenvergleich weit weniger Eindrucksvoll. Da weiß das Nvidia Marketing schon, warum sie den abstrusen Vergleich mit der extrem bandbreitenlimitierten GT640 DDR3 bevorzugen.;)
 
Athlonscout schrieb:
Zumindest bescheinigt Nvidia auf ihrer eigenen Homepage der GK107 Variante mit extrem langsamen DDR3 eine TDP von 65W!

Dann sei aber auch so fair und vergleich den Stromverbrauch!

Eine GT640 mit 1Gb DDR5 ist etwa 1/3 so schnell wie eine GTX570 in deren Region die GTX750 (Ti) laut Gerüchten kommen soll. Das wäre schon eine Hausnummer!


Athlonscout schrieb:
Sinnvoller ja, da auch die Karte eindeutig wäre - von der GTX650 gibt es imho ja nur eine Variante mit GK107. Allerdings wäre dann der Balkenvergleich weit weniger Eindrucksvoll. Da weiß das Nvidia Marketing schon, warum sie den abstrusen Vergleich mit der extrem bandbreitenlimitierten GT640 DDR3 bevorzugen.;)

von der GT640 gibt es unzählige Modelle, sogar noch alte Fermi-Chips, wenn man nicht aufpasst. Zwischen GDDR3- und GDDR5 merkt man performancetechnisch nicht viel. Dafür ist der Chip einfach zu kastriert bzw. die Bus-Anbindung ist mit 64-Bit geradezu verkrüppelt. Die GT-Modelle sind die langsamsten erhältlichen Karten bei Nvidia.

Das sind reine Office-Karten mit den allernötigsten Funktionen. Die neuen Maxwells werden da sicher auch ein neues Unterklassenmodell bringen.
 
Hardware_Hoshi schrieb:
Dann sei aber auch so fair und vergleich den Stromverbrauch!

Wo habe ich was verglichen?:freak:
Ich gehe nur auf den potenziell irreführenden Marketingvergleich von Nvidia ein.:rolleyes:

Hardware_Hoshi schrieb:
Zwischen GDDR3- und GDDR5 merkt man performancetechnisch nicht viel.

Seit Jahren schon wird GDDR3 nicht mehr produziert. Auf entsprechenden Karten findet sich schnöder DDR3 Standardspeicher.
DDR3 kann schon ein extremer Bremsklotz sein!

Wie dem auch sei, ht4u vermißt eine GT640 mit einem Spieleverbrauch von gerade einmal 34W! Insofern ist der 64W - TDP Vergleich reines Marketing.
 
Zuletzt bearbeitet:
Interessant wie manche hier Glauben ausüben....
Nvidia brachte meiner Meinung nach damals den Vollausbau nicht, nicht weil keine Kongurrenz da war [was die Manager aber sicherlich freute] sondern weil der Fertigungsprozess nicht weit genug war.

Und ich vermute, dass ist er diesmal auch nicht. Daher wird es kein Vollausbau gleich zu beginn geben...
 
Athlonscout schrieb:
Wo habe ich was verglichen?:freak:
Ich gehe nur auf den potenziell irreführenden Marketingvergleich von Nvidia ein.:rolleyes:

Marketing sollte man niemals ernst nehmen.

"Lügen mit Statistik" ist eine Art wie die Dinge gehandhabt werden. Das ist bei jeder größeren Firma so.


Athlonscout schrieb:
Wie dem auch sei, ht4u vermißt eine GT640 mit einem Spieleverbrauch von gerade einmal 34W! Insofern ist der 64W - TDP Vergleich reines Marketing.

Wir sollten durchgängig von TDP = Thermal design power (Wärmeabgabe / benötigte Kühlung) und tatsächlichem Stromverbrauch unterscheiden. Bei Grafikkarten gibt die TDP etwa den Rahmen für den Stromberbrauch an, ist aber meistens wesentlich darunter. Einzig der verbaute Kühler muss für die entsprechende Wärmeklasse ausgelegt sein.
 
Novasun schrieb:
Interessant wie manche hier Glauben ausüben....

Naja. Darüber, wie problematisch der 28nm-Prozess anfangs war und ob er eine frühere Einführung der GK100/110 wirklich unmöglich gemacht hat, kann man ja auch nur wild spekulieren. Da steht also "Glauben" gegen "Glauben". ;)

Ich glaube, dass es eine Mischung war, aus technischen/wirtschaftlichen Schwierigkeiten und der Konkurrenzsituation, die Nvidia letztlich dazu gebracht hat, die Kepler-Big-Chips erst sehr viel später (für Consumer) zu vermarkten.

Klar wäre es problematisch gewesen, gleich mit den großen 500mm²-Chips zu starten. Das war es immer. Aber in früheren Big-Chip-Generationen hat das Nvidia nicht davon abgehalten es trotzdem zu tun, einfach weil sie es mussten, um AMD nicht monatelang im prestigeträchtigen High-End-Segment konkurrenzlos dastehen zu lassen. Der GF100 z.B. wäre sicher auch nicht (für Consumer) vermarktet worden, wenn der GF104 (GTX460) ausgereicht hätte, um die HD5870 zu kontern. Dann hätte Nvidia erstmal in Ruhe am Refresh (GF110) gearbeitet und sich das ganze Thermi-PR-Debakel erspart. Aber das gab die Konkurrenzsituation halt nicht her.

Dafür, dass der 28nm-Prozess außergewöhnlich problematisch war und die GK100/110 das ganze Jahr 2012 hindurch unmöglich gemacht hat, spricht eigentlich nichts. AMD konnte bereits Ende 2011 seine Tahiti-GPU-Flaggschiffe wie geplant bringen. Die sind zwar mit 365mm² nicht so groß wie die GK110, aber immer noch deutlich größer als die GK104, die Anfang 2012 ebenfalls in großen Stückzahlen vom Band liefen.

Die Serienproduktion der GK110 startete auch schon Mitte 2012, erstmal exklusiv für den Titan-Supercomputer, und Ende 2012 konnte sich jeder eine in einer Tesla-Karte kaufen. Nvidias Antwort auf die Frage nach der Ausbeute der GK110-GPUs war zu diesem Zeitpunkt "yields are terrific" ( großartig). Aus dem Marketing-Sprech übersetzt dürfte das so viel heißen wie: "Mehr als ausreichend um genug GPUs für die Tesla-Karten zu produzieren und nebenbei noch was für den Marktstart der Titan zurückzulegen.".
Spätestens Mitte 2012 hätte Nvidia zumindest einen halben Paperlaunch mit Consumer-GK110-Karten hinlegen können, wenn es nötig gewesen wäre, um Tahiti zu kontern. Aber das war es nunmal nicht. Also dauerte es noch ein weiteres Jahr, bis mit der GTX780 halbwegs erschwingliche GK110-Karten für Consumer erhältlich wurden.

Je nachdem wie die Umstände es erfordern, wird es Nvidia bei Maxwell wieder ganz genauso halten.

Die Konkurrenz-Situation sieht für Nvidia schonmal relativ entspannt aus. Ich rechne nicht damit, dass AMD vor Ende des Jahres einen Hawaii-Nachfolger bringen wird, der GK110 klar übertrumpft. Eine Dual-Hawaii-Karte für Mitte des Jahres wird die Zeit bis da hin überbrücken. Aber das kann Nvidia auch locker mit der GTX790 (schon im Vorfeld) kontern.
Und wo es beim 28nm-Prozess wie gesagt eigentlich keine offensichtlichen Anzeichen dafür gab, dass er außergewöhnlich problematisch gestartet ist, gibt es die derzeit bei 20nm sehr wohl. Eigentlich wurde 20nm ja schon für die Hawaii-GPUs erwartet, aber AMD hat sich dann doch für 28nm entschieden. Auch Nvidia wird die GM107 jetzt nicht ohne Grund noch in 28nm bringen.

Vielleicht wird es nicht bis Mitte 2015 dauern, mit GM100/200-Consumer-Karten, aber sicher mindestens bis Anfang 2015. Bis da hin wird eine GM104/204-basierte GTX880 ausreichen. Es sei denn, Maxwell+20nm bringt nicht genug, damit so eine Performance-GPU-basierte GTX880 vor einer GTX780 landen würde. Dann könnte Nvidia vielleicht doch gezwungen sein, schon früher mit den Big-Chips zu kommen. Oder sie belassen es so lange bei GK110-basierten Hig-End-Karten. Dann wird z.B. die Titan Black in GTX880 umbenannt.
 
Herdware schrieb:
Naja. Darüber, wie problematisch der 28nm-Prozess anfangs war und ob er eine frühere Einführung der GK100/110 wirklich unmöglich gemacht hat, kann man ja auch nur wild spekulieren. Da steht also "Glauben" gegen "Glauben". ;)

Ich glaube, dass es eine Mischung war, aus technischen/wirtschaftlichen Schwierigkeiten und der Konkurrenzsituation, die Nvidia letztlich dazu gebracht hat, die Kepler-Big-Chips erst sehr viel später (für Consumer) zu vermarkten.

Klar wäre es problematisch gewesen, gleich mit den großen 500mm²-Chips zu starten. Das war es immer. Aber in früheren Big-Chip-Generationen hat das Nvidia nicht davon abgehalten es trotzdem zu tun, einfach weil sie es mussten, um AMD nicht monatelang im prestigeträchtigen High-End-Segment konkurrenzlos dastehen zu lassen. Der GF100 z.B. wäre sicher auch nicht (für Consumer) vermarktet worden, wenn der GF104 (GTX460) ausgereicht hätte, um die HD5870 zu kontern. Dann hätte Nvidia erstmal in Ruhe am Refresh (GF110) gearbeitet und sich das ganze Thermi-PR-Debakel erspart. Aber das gab die Konkurrenzsituation halt nicht her.

Dafür, dass der 28nm-Prozess außergewöhnlich problematisch war und die GK100/110 das ganze Jahr 2012 hindurch unmöglich gemacht hat, spricht eigentlich nichts. AMD konnte bereits Ende 2011 seine Tahiti-GPU-Flaggschiffe wie geplant bringen. Die sind zwar mit 365mm² nicht so groß wie die GK110, aber immer noch deutlich größer als die GK104, die Anfang 2012 ebenfalls in großen Stückzahlen vom Band liefen.

Die Serienproduktion der GK110 startete auch schon Mitte 2012, erstmal exklusiv für den Titan-Supercomputer, und Ende 2012 konnte sich jeder eine in einer Tesla-Karte kaufen. Nvidias Antwort auf die Frage nach der Ausbeute der GK110-GPUs war zu diesem Zeitpunkt "yields are terrific" ( großartig). Aus dem Marketing-Sprech übersetzt dürfte das so viel heißen wie: "Mehr als ausreichend um genug GPUs für die Tesla-Karten zu produzieren und nebenbei noch was für den Marktstart der Titan zurückzulegen.".
Spätestens Mitte 2012 hätte Nvidia zumindest einen halben Paperlaunch mit Consumer-GK110-Karten hinlegen können, wenn es nötig gewesen wäre, um Tahiti zu kontern. Aber das war es nunmal nicht. Also dauerte es noch ein weiteres Jahr, bis mit der GTX780 halbwegs erschwingliche GK110-Karten für Consumer erhältlich wurden.

Je nachdem wie die Umstände es erfordern, wird es Nvidia bei Maxwell wieder ganz genauso halten.

Die Konkurrenz-Situation sieht für Nvidia schonmal relativ entspannt aus. Ich rechne nicht damit, dass AMD vor Ende des Jahres einen Hawaii-Nachfolger bringen wird, der GK110 klar übertrumpft. Eine Dual-Hawaii-Karte für Mitte des Jahres wird die Zeit bis da hin überbrücken. Aber das kann Nvidia auch locker mit der GTX790 (schon im Vorfeld) kontern.
Und wo es beim 28nm-Prozess wie gesagt eigentlich keine offensichtlichen Anzeichen dafür gab, dass er außergewöhnlich problematisch gestartet ist, gibt es die derzeit bei 20nm sehr wohl. Eigentlich wurde 20nm ja schon für die Hawaii-GPUs erwartet, aber AMD hat sich dann doch für 28nm entschieden. Auch Nvidia wird die GM107 jetzt nicht ohne Grund noch in 28nm bringen.

Vielleicht wird es nicht bis Mitte 2015 dauern, mit GM100/200-Consumer-Karten, aber sicher mindestens bis Anfang 2015. Bis da hin wird eine GM104/204-basierte GTX880 ausreichen. Es sei denn, Maxwell+20nm bringt nicht genug, damit so eine Performance-GPU-basierte GTX880 vor einer GTX780 landen würde. Dann könnte Nvidia vielleicht doch gezwungen sein, schon früher mit den Big-Chips zu kommen. Oder sie belassen es so lange bei GK110-basierten Hig-End-Karten. Dann wird z.B. die Titan Black in GTX880 umbenannt.

Nur kurz, nein ich glaube nicht, das man die Consumerkarte hätte bringen können - wieso? Weil man für diese nicht das Geld verlangen kann wie mans für die Profikarten macht. Und genau das ist der springende Knackpunkt. Wenn ich ein komplett Yield habe und sagen wir mal ich bekommen da "nur" 25 GPUs raus die komplett Fehlerfrei sind - dann habe ich nur 25 mögliche Karten im Vollausbau.
Da aber ja gewisse Kosten dagegen stehen macht es halt schon einen Unterschied ob ich die Teile als Quadro für 4000-5000€ verkaufe oder als Consumer Karte für 1000€....
Und noch was zu deinem Vergleich in der Vergangenheit:
Die Grundlage ist heute eine ganz andere. Wir kommen mit jedem Schritt mit jeder Milliarde mehr Transistoren immer mehr an Grenzen die fast "Naturgesetz" ähnliche Fakten bilden die immer mehr gegen einen "einfachen" lockeren Start der neuen Fertigungsprozesse sprechen. Nvidia macht das sehr geschickt dagegen zusteuern indem Sie sehr früh mit der Produktion beginnen und mit den "kleineren" Chips zu beginnen [wobei jetzt der erste Maxwell hier noch etwas anderes bedient... Ich denke hier testet man im alten Prozess erst mal wie die Schaltung an sich "realisieren" lässt - also wie gut die Ausbeute ist man hat ja auch Vergleichswerte dann um z.B. Ausreißer feststellen zu können - es würde also sofort auffallen wenn die Ausbeute deutlich schlechter wäre => dann müssten die Ingenieure sich fragen ob es vielleicht an der Schaltung an sich liegt].
Denn bei den kleineren Chips wird aufgrund der kleineren Anzahl Transistoren die Ausbeute einfach höher sein. Nebenbei wenn Chips auf dem Yield sind die komplett Fehlerfrei sind legt man die bereits auf die Seite für den Release des Vollausbaus... Und da man diese Chips mit hoher Wahrscheinlichkeit am Anfang den Profis vorbehält kommt da halt dann auch schon Geld bei rum...
 
Das gleiche Marketinggeblubber wie bei allen anderen Herstellern, auch bei nVidia gilt: Tests und Benchmarks abwarten und schauen, ob es sich Preis-/Leistungstechnisch lohnt.
 
Zurück
Oben