Nvidia GeForce-300M-Serie vorgestellt

Jan-Frederik Timm
180 Kommentare

Ohne begleitende Pressemitteilung hat Hersteller Nvidia heimlich, still und leise das Angebot an Grafiklösungen für Notebooks überarbeitet und Informationen zur GeForce-300M-Serie online gestellt. Vermutungen, die wir bereits im September 2009 geäußert hatten, scheinen sich damit zu bestätigen: Bei der neuen Serie handelt es sich in erster Linie um einen Aufguss der GeForce-200M-Modelle.

Die neuen Modelle hören auf die Bezeichnungen GeForce GTS 360M, GeForce GTS 350M (beide High-Performance-Segment), GeForce GT 335M, GeForce GT 330M, GeForce GT 325M (alle Performance-Segment), GeForce 310M und GeForce 305M (beide Mainstream-Segment). Die Versionen GTS 360M und GTS 350M scheinen weitestgehend den Vorgängern 260M und 250M zu entsprechen, die Performance unterscheidet sich kaum bzw. gar nicht.

Die GeForce GT 335M schließt mit 72 Shader-Einheiten hingegen eine bisher im Portfolio klaffende Lücke und besitzt keinen direkt vergleichbaren Vorgänger. Die Versionen 330M und 325M unterscheiden sich von ihren Vorgängern 240M und 230M erneut nur geringfügig. Die Tatsache, dass die GeForce GT 325M (wie erwartet) langsamer als die GeForce GT 230M, die GeForce GT 330M aber schneller als die GeForce GT 240M ist, stiftet darüber hinaus Verwirrung.

Modell Shader Gigaflops (max.) Speichertakt (max.) Speicherinterface Direct X Power Management
GTS 360M 96 413 2.000 MHz (GDDR3) 128 Bit 10.1 8.0
GTS 260M 96 396 2.000 MHz (GDDR3) 128 Bit 10.1 8.0
GTS 350M 96 360 2.000 MHz (GDDR3) 128 Bit 10.1 8.0
GTS 250M 96 360 2.000 MHz (GDDR3) 128 Bit 10.1 8.0
GT 335M 72 233 1.066 MHz (DDR3), 800 (GDDR3) 128 Bit 10.1 8.0
GT 330M 48 182 1.066 MHz (DDR3), 800 (GDDR3) 128 Bit 10.1 8.0
GT 240M 48 174 1.066 MHz (DDR3), 800 (GDDR3) 128 Bit 10.1 8.0
GT 325M 48 142 1.066 MHz (DDR3), 800 (GDDR3) 128 Bit 10.1 8.0
GT 230M 48 158 1.066 MHz (DDR3), 800 (GDDR3) 128 Bit 10.1 8.0
310M 16 73 800 MHz (DDR3), 800 (GDDR3) 64 Bit 10.1 8.0
305M 16 55 700 MHz (DDR3), 700 (GDDR3) 64 Bit 10.1 8.0

Dass die Karten auf dem Vorgänger und nicht auf der für den Desktop-Sektor heiß erwarteten Fermi-Architektur basieren, zeigt auch die Tatsache, dass keine der Grafiklösungen DirectX 11 unterstützt. Da das Enthusiasten-Segment weiterhin den Modellen GeForce GTX 280M und GeForce GTX 260M aus der 200M-Serie vorbehalten bleibt, scheint nicht ausgeschlossen, dass zumindest hier Nachfolger auf Basis der Fermi-Architektur auf dem dem Markt erscheinen werden.

  180 Kommentare
Themen:
  • Jan-Frederik Timm E-Mail X
    … will als Diplom-Ingenieur Technik nicht nur nutzen, sondern verstehen. Auf die Ohren gibt es ihn wöchentlich in CB-Funk.

Ergänzungen aus der Community

  • bensen 31.12.2009 14:28
    ich verstehe nicht wieso man nicht 256 Bit Speicherinterface nimmt. Das ist deutlich schneller und man braucht dafür nur 128 Bits mehr als für das 128 Bit Speicherinterface. "makus, post: 7149456
    Nur 128bit mehr, ist mal eben das doppelte. Bedeutet auch mal eben doppet so viele Speicherchips unterbringen zu müssen. Nämlich 8 statt 4. Aber ich vergaß, Platz hat man in Notebooks mehr als genug.

    Ich mein heute wo Speicher so Billig ist, das man für 5 Cent ein Gigabyte bekommt, brauchen sie wirklich nicht mit den Bits gieren. Besonders wo diese wenigen Bits so viel Performance bedeuten.
    Da müsste man erst mal belegen, dass wirklich die Speicherbandbreite bremst. Das dürfte wenn überhaupt nur bei der 360M und 350M der Fall sein.
    Und nein selbst dann wäre ein 256bit SI nicht sinnvoll. [S]Eher wäre GDDR5 eine sinnvolle Maßnahme. [/S] EDIT: Es ist GDDR5 verbaut, das ist ein Fehler in der CB-Tabelle. 2GHz taktet kein GDDR3. Nvidia gibt nicht den effektiven Takt an . Es sind 4Gbps pro Pin. Von da aus ist die Speicherbandbreite mehr als genug für diese Karten.

    Sie sparen wirklich an der falschen stelle, statt 1024MB VRAM könnten sie doch 512 Bit Speicherinterface machen, das ist echt nicht schwer ein paar Bits mehr. Das die da noch nicht selbst darauf gekommen sind, was arbeiten dort hartz-iv?
    Keine Ahnung wer da arbeitet, aber die sind zumindest nicht so Niveaulos wie du. Wer meint man könne mal eben ein 512bit Speicherinterface, was 16 Speicherchips impliziert, auf ein MXM Modul quetschen und dann andere als dumm abstempelt, würde ich als ziemlich geisteskrank bezeichnen. Was soll vor allem so eine schwache GPU mit so einer extremen Speicherbandbreite?




    Manche übertreiben es hier auch bezüglich des umbenennens. Klar, die 9000er oder mobile G100 Serie ist über, genauso wie die jetzige Aktion. Aber zu behaupten diese Chips wären im Grunde nur ein G80 ist lächerlich. Klar die basieren darauf, aber die Unterschiede sind enorm.
    Ein G80 gleicht einer GT240 wie eine HD2900 einer HD4770.