News Nvidia GeForce-300M-Serie vorgestellt

Ja, klar Takt 5% rauf und gleich so umbenennen, als wäre
es eine neue Generation. Ich muss jetzt echt zählen, seit wie viel
Generationen der alte G92(b) jetzt schon durchgeschliffen wird.
8800GT(-512)
9800GT
GTS150
GTS250
GTS350M

5 Generation über nun über 2 Jahre müssten es jetzt sein, oder?
Könnte man wirklich als Betrug am Kunden bezeichnen.

"Boah, Alter ich habe noch voll die krüpelige Geforce 8800GT
von 2007 in meinem PC. Wird langsam echt lahm für Crysis und so."
"Jo, dann hole dir doch bei Mediamarkt von Notebook mit
brandneuer nVidia GTS360M. Ist das beste wo gibt gerade
in Laptops. PCs sind eh out, man!"

2 Wochen später das Foren-Thema:
"Bin von 8800GT auf GTS360 umgestiegen, trotzdem weniger Frames. Wieso?"
 
Zuletzt bearbeitet:
Dann hab ich mit meinem R522 doch alles richtig gemacht.
Denn die GTS 330 hat ja ca. die gleiche Leistung wie die HD 4650 Mobility, die GTS 335 wird in einem Notebook eh 800€ oder mehr kosten, und auf ein Notebook mit einer GPU der HD5xxx Mobility Serie wird man auch noch lange warten warten müssen (verfügbarkeit von 40nm-Karten :( ) Für 599€ ist HD 4650 Mobility + T6400 perfekt.

P.S.: @ alle Fanboys: NEIN ich bin kein ATI-Fan, ich bevorzuge Intel & nVidida (siehe Signatur), bin mit meiner 9800 GTX auch zufrieden (mit Ausnahme das der verkäufer meinte sie wäre vieel besser als eine 8800 GTS :/), aber das was nVidia (vorallem im Notebook-Bereich) in letzter Zeit da abzieht ist echt zu viel. Keine Neuerungen, und immer schön brav alles umlabeln. Deshalb ist es jetzt eine ATI geworden, und mit der bin ich auch zufrieden.
 
Zuletzt bearbeitet:
darko2
Die News ist doch Beweis genug, im Notebooksegment gibt es schon lange GT200 Ableger, bzw die Ableger sind ihrem großen Bruder sogar in Teilbereichen überlegen.

Weltenspinner
Abseits davon das die GPU schlicht egal, ist wichtig ist was hinten rauskommt, irrst du.
In der GTS 350M steckt soviel G92 wie R600 in einer HD 4870.
 
makus schrieb:
ich verstehe nicht wieso man nicht 256 Bit Speicherinterface nimmt. Das ist deutlich schneller und man braucht dafür nur 128 Bits mehr als für das 128 Bit Speicherinterface.
Ich mein heute wo Speicher so Billig ist, das man für 5 Cent ein Gigabyte bekommt, brauchen sie wirklich nicht mit den Bits gieren. Besonders wo diese wenigen Bits so viel Performance bedeuten.
Sie sparen wirklich an der falschen stelle, statt 1024MB VRAM könnten sie doch 512 Bit Speicherinterface machen, das ist echt nicht schwer ein paar Bits mehr. Das die da noch nicht selbst darauf gekommen sind, was arbeiten dort hartz-iv?

Mein Wissen bzgl. des genauen Aufbaus ist zwar begrenzt, aber ich glaube ein größeres Speicherinterface würde den Verbrauch recht stark steigen lassen, Vermutung meinerseits.

Jan schrieb:
Diese Information geben die Hersteller schlichtweg nicht preis.

Wo bekommen dann Seiten, wie Notebookcheck.com die infos für die aktuellen Karten her.

edit: oh ich seh gerade notebookcheck hat da auch keine Daten nur bei ATI gibt es dir anscheinend noch.
 
makus schrieb:
ich verstehe nicht wieso man nicht 256 Bit Speicherinterface nimmt. Das ist deutlich schneller und man braucht dafür nur 128 Bits mehr als für das 128 Bit Speicherinterface.
Ich mein heute wo Speicher so Billig ist, das man für 5 Cent ein Gigabyte bekommt, brauchen sie wirklich nicht mit den Bits gieren. Besonders wo diese wenigen Bits so viel Performance bedeuten.
Sie sparen wirklich an der falschen stelle, statt 1024MB VRAM könnten sie doch 512 Bit Speicherinterface machen, das ist echt nicht schwer ein paar Bits mehr. Das die da noch nicht selbst darauf gekommen sind, was arbeiten dort hartz-iv?

also echt.. ich glaube ja du verwechselst das was ganz gewaltig. die speicherbandbreite hat rein gar nix mit der speichergröße zutun, zumindest nich so wie du es darstellst :freak:

ach... und wo bekommt man 1GB für 5cent? ^^

deine komplette aussage besteht im grunde nur aus müll :D

Romido schrieb:
Was mich dabei wundert ist das keine der Grafiklösungen DirectX 11 unterstützt!

Dachte das wäre die Zukunft und ein Muss für 2010!

wenn du aufgepasst hättest, wüsstest du das nur die neue fermi architektur dx11 unterstützen wird (also von nvidia) aber nvidia hat probleme bei der entwicklung (weil die dumm sind) und daher dauert das noch min. bis märz (siehe news) bis die karten released werden (für mobile bestimmt noch länger). tja.. und das die alten generationen nur dx 10.1 können (wobei nvidia da auch erst vor 3 monaten von dx10 umgestiegen ist, weil die vorher immer behaupteten dx10.1 is schrott) kann die "neue" umgelabelte generation KEIN DX11.

hier sind ja so viele unwissende leute unterwegs... kein wunder das nvidia immer noch gekauft wird, obwohl die schon über 2 jahre ihre grafikkarte umlabeln. ich glaub ati sollte weniger in die entwicklung der karten investieren, als eher ins marketing... echt traurig! nvidia bremst innovation!
 
makus schrieb:
ich verstehe nicht wieso man nicht 256 Bit Speicherinterface nimmt. Das ist deutlich schneller und man braucht dafür nur 128 Bits mehr als für das 128 Bit Speicherinterface.
Ich mein heute wo Speicher so Billig ist, das man für 5 Cent ein Gigabyte bekommt, brauchen sie wirklich nicht mit den Bits gieren. Besonders wo diese wenigen Bits so viel Performance bedeuten.

Vorsicht, du verwechselst hier was. Die Speichergröße kann man relativ einfach erhöhen, indem man "einfach" mehr Speicherbausteine auf die Karte setzt, nicht so die Busbreite. Wenn du die Speicheranbindung breiter machst, wird der Chip um einiges komplexer (da die Speichercontroller aufwendiger werden) und du brauchst vermutlich auch noch eine Platine mit mehr Lagen, das ist schon ein gehöriger Kostenfaktor.

EDIT: Mist, zu langsam, naja egal ;)
 
Ich weis nicht was Nvidia da macht,aber damit schaffen sie sich keinen guten Ruf.Einfach mal wieder umgelabelt und das wars.DX11 wäre meines erachtens auch für bestimmte Laptops Pflicht 2010.Aber wie ich schon so schön gesagt habe vor einiger Zeit.

"Hochmut kommt vor dem Fall"

Nvidia hat sich zu lange auf der alten Architektur ausgeruht.Verstehe einfach nicht,warum man da noch Produktionskosten reinsteckt.Vieleicht ist es aber auch einfach der Konkurrenzdruck der Nvidia zu solchen Aktionen treibt ;)

Ich hoffe,das es in Desktopgraka Sektor nicht genauso ein Debakel gibt.Sie würden sich so wie zur FX Zeit ein dickes Eigentor schießen.

Greetz!
 
Henrico schrieb:
Ich weis nicht was Nvidia da macht,aber damit schaffen sie sich keinen guten Ruf.Einfach mal wieder umgelabelt und das wars.DX11 wäre meines erachtens auch für bestimmte Laptops Pflicht 2010.Aber wie ich schon so schön gesagt habe vor einiger Zeit.

"Hochmut kommt vor dem Fall"

Nvidia hat sich zu lange auf der alten Architektur ausgeruht.Verstehe einfach nicht,warum man da noch Produktionskosten reinsteckt.Vieleicht ist es aber auch einfach der Konkurrenzdruck der Nvidia zu solchen Aktionen treibt ;)

Ich hoffe,das es in Desktopgraka Sektor nicht genauso ein Debakel gibt.Sie würden sich so wie zur FX Zeit ein dickes Eigentor schießen.

Greetz!

wie schon mehrfach gesagt, die machen das jahre lang so.... aber hey... hier gibts doch noch viele leute die nvidia besitzen, warum nur?! :freak:

OH... du hast ja auch eine nvidia karte verbaut...
 
lalanunu schrieb:
wie schon mehrfach gesagt, die machen das jahre lang so.... aber hey... hier gibts doch noch viele leute die nvidia besitzen, warum nur?! :freak:

OH... du hast ja auch eine nvidia karte verbaut...

Ja weil ich von Nvidia bis auf die FX Zeit eigentlich nie Entäuscht worden bin.Hatte bisher erst einmal ne ATI in meinem PC Leben verbaut.Die war damals auch nicht schlecht(war ne 9500 Pro von Sapphire)

Aber wenn das Debakel mit Nvidia so weitergehen sollte dann wird es evtl. mal wieder ne Ati werden als nächstes.Liebäugele da mit ner 5850 aber erst wenn sie noch ein wenig im Preis fällt.
 
Unyu schrieb:
darko2
Die News ist doch Beweis genug, im Notebooksegment gibt es schon lange GT200 Ableger, bzw die Ableger sind ihrem großen Bruder sogar in Teilbereichen überlegen.

Ganz, ganz sicher? Die Nachricht sagt nichts dergleichen. Die GTX 260M und 280M haben meines Wissens leider mehr mit dem G80/92 gemein (DX10.1 außen vor, falls sie das schon unterstützen) als dem GT200, der ja ein ziemlicher Stromfresser im Desktop-Bereich ist.
 
Unyu schrieb:
darko2
Die News ist doch Beweis genug, im Notebooksegment gibt es schon lange GT200 Ableger, bzw die Ableger sind ihrem großen Bruder sogar in Teilbereichen überlegen.

Weltenspinner
Abseits davon das die GPU schlicht egal, ist wichtig ist was hinten rauskommt, irrst du.
In der GTS 350M steckt soviel G92 wie R600 in einer HD 4870.

Die GTS360M ist nichts weiter als ein beschnittener G92b,
in dem man DX10.1 gequetscht hat.

Wenn wichtig ist, was hinten heraus kommt, stimmt auch was nicht.
Die 2,5 Jahre jüngere GTS360M, die 4 Generationen weiter ist,
leistet weniger als die 8800GT. Also kommt hinten weniger raus.

Eine HD5670M wird die gleiche Architektur haben,
wie der aktuelle Desktop-Ableger und auch die
gleichen Features. Noch dazu ist davon auszugehen,
dass sie nicht 15% weniger leisten wird, als eine X1800 XT,
sondern geschätzt 5mal so viel. ;)
 
Zuletzt bearbeitet:
Das ist doch mehr als traurig...
Mehr kann man zu dem Debakel nicht schreiben/sagen.

Nvidia wird so nicht weiter machen können, wer sich ausruht hat leider auf langer Sicht verloren.
AMD hatte diesen Fehler leider mal gemacht(Athlon XP Zeit), sind aber nu wieder auf dem besten Weg aus dem Debakel.

Ich glaub Nvidia versucht nicht mal irgend was an der Situation zu ändern, solange es "Idioten" gibt die alten Müll mit neuem Namen kaufen werden die wohl so weiter machen, traurig aber wahr :-(

Ich sehe schon die Media/Saturn @Metro Werbungen:

Jetzt "neu" die beste Nvidia aller Zeiten!

*würg*
 
Na toll, was soll man denn jetzt nehmen?
ATI:
- sauschlechte Treiber (wer sich schon mal mit DXVA und ATI beschäftigt hat, weiß wovon ich rede...)
+ neueste Technik (DX11 etc)
+ stromsparend

NVIDIA
+ DXVA (inkl L5.1, 16ref)
- stromfressend
- ständiges umgelabeln von alten Karten, keine neue Technik
+ Treiber sind im Vergleich zu ATI stabiler (eigene Erfahrung, am Hauptrechner mit ner 8800er sogut wie nie Probleme gehabt, bei ATI im HTPC (HD3300) ständig Probleme, quasi mit jeder neuen Treiberversion)
 
lalanunu schrieb:
wie gesagt, die labeln schon 2 jahre um... sowas kann ich einfach nich unterstützen!

Ich verstehe deine Einstellung.Als treuer Nvidia Anhänger aber verbleibe ich in der Hoffnung das da noch was gescheites kommen wird.Laptopsektor interessiert mich jetzt dabei nicht so sonderlich.Aber den Desktopbereich werde ich weiter aufmerksam verfolgen.
 
makus schrieb:
ich verstehe nicht wieso man nicht 256 Bit Speicherinterface nimmt. Das ist deutlich schneller und man braucht dafür nur 128 Bits mehr als für das 128 Bit Speicherinterface.
Nur 128bit mehr, ist mal eben das doppelte. Bedeutet auch mal eben doppet so viele Speicherchips unterbringen zu müssen. Nämlich 8 statt 4. Aber ich vergaß, Platz hat man in Notebooks mehr als genug.

Ich mein heute wo Speicher so Billig ist, das man für 5 Cent ein Gigabyte bekommt, brauchen sie wirklich nicht mit den Bits gieren. Besonders wo diese wenigen Bits so viel Performance bedeuten.
Da müsste man erst mal belegen, dass wirklich die Speicherbandbreite bremst. Das dürfte wenn überhaupt nur bei der 360M und 350M der Fall sein.
Und nein selbst dann wäre ein 256bit SI nicht sinnvoll. Eher wäre GDDR5 eine sinnvolle Maßnahme. EDIT: Es ist GDDR5 verbaut, das ist ein Fehler in der CB-Tabelle. 2GHz taktet kein GDDR3. Nvidia gibt nicht den effektiven Takt an . Es sind 4Gbps pro Pin. Von da aus ist die Speicherbandbreite mehr als genug für diese Karten.
Sie sparen wirklich an der falschen stelle, statt 1024MB VRAM könnten sie doch 512 Bit Speicherinterface machen, das ist echt nicht schwer ein paar Bits mehr. Das die da noch nicht selbst darauf gekommen sind, was arbeiten dort hartz-iv?
Keine Ahnung wer da arbeitet, aber die sind zumindest nicht so Niveaulos wie du. Wer meint man könne mal eben ein 512bit Speicherinterface, was 16 Speicherchips impliziert, auf ein MXM Modul quetschen und dann andere als dumm abstempelt, würde ich als ziemlich geisteskrank bezeichnen. Was soll vor allem so eine schwache GPU mit so einer extremen Speicherbandbreite?




Manche übertreiben es hier auch bezüglich des umbenennens. Klar, die 9000er oder mobile G100 Serie ist über, genauso wie die jetzige Aktion. Aber zu behaupten diese Chips wären im Grunde nur ein G80 ist lächerlich. Klar die basieren darauf, aber die Unterschiede sind enorm.
Ein G80 gleicht einer GT240 wie eine HD2900 einer HD4770.
 
Zuletzt bearbeitet:
Bei den Notebooks sind die Nvidia Karten öfter anzutreffen als die Karten der Konkurrenz. Leider hat AMD bis heute kein richtiges Notebook Gesamtkonzept, jedenfalls kommt es mir so vor. Wobei das Konzept der neuen 5er Reihe auf jedenfall besser aussieht.
 
Ich mag zwar nVidia sehr, vor allem bei der Desktop Karten, aber das was Sie bei der Notebook Segment abliefern hat Ihnen eine treue Kunde mit eine grossen bekannter kreisen gekostet.
Ich setze bei Notebooks "nur" noch auf ATI Mobilitys, ausser vereinzelt nVidias bei nicht Gaming NB's.

Mich nervt es am meistens dass man bei denn Notebook Karten nicht die Desktop Karten als Referenz nehmen kann! z.B. eine GF9600GT VS. GF9600M GT sind es locker 256bit VS. 128bit Speicheranbindung. 64 Unified Shader VS. 32 US. Das sind schon alles im Faktor 2x. Die Taktraten ausser acht gelassen ist der GF9600GT Desktop fast doppelt so schnell wie der Mobility version!
Bei ATI's sind da die Differenzen zum glück viel kleiner, mich nervt es nur das es z.B. bei der HD4650 Mobility je nachdem DDR3, GDDR3 oder gar GDDR5 eingesetzt wird (noch nie gesehen).
Beim Kauf der HP DV7-2150ez konnte ich nur hoffen das es sich um GDDR3 handelt, und hatte glück, denn auf HP Seite steht DDR3.
 
Zuletzt bearbeitet:
Gibt es im Forum einen Thread, in dem die Umbenennungen alle drin sind, mittlerweile habe ich den Überblick verloren. So im Stil

8800 GTS = 9800 GTX =250 GTS,
GTS360M = GT240
G310 = G210
oder wie auch immer das war...

Leider hat AMD bis heute kein richtiges Notebook Gesamtkonzept, jedenfalls kommt es mir so vor.

Die Turion II sind schon nicht schlecht, Leistung stimmt, P/L stimmt, nur die Batterielaufzeit ist bei Intel besser. Wer was Mobiles für den Arbeitsplatz sucht fährt mit AMD meisst besser -- nur wird es halt praktisch nicht verbaut.

Das Problem ist laut Gerüchten ein anderes: einige Hersteller wollten neue Notebooks rausbringen und die neuen ATI-Karten (40nm, DX11) sind etwas zu spät erhältlich gewesen. Also baut man lieber umbenannte nv-Chips ein statt auf diese unwichtige Komponente noch ein paar Tage zu warten. Da hat nv ne Menge Design-Wins verbucht.
 
Zuletzt bearbeitet:
darko2 schrieb:
Ganz, ganz sicher?
Absolut.
Sämtliche 300M haben einen GT2xx.
Sämtliche 200M haben einen GT2xx, bis auf GTX 260M und GTX 280M, die haben einen G92b.

Weltenspinner schrieb:
Die GTS360M ist nichts weiter als ein beschnittener G92b, in dem man DX10.1 gequetscht hat.
Falsch. GTS 360M hat einen GT215.
GT215 ist bekannterweise ein weiterentwickelter kleiner GT200.

Die 2,5 Jahre jüngere GTS360M, die 4 Generationen weiter ist, leistet weniger als die 8800GT. Also kommt hinten weniger raus.
Mir bleibt es ein Rätsel warum du Mobile mit Desktop vergleichst.

Eine HD5670M wird die gleiche Architektur haben, wie der aktuelle Desktop-Ableger und auch die gleichen Features. Noch dazu ist davon auszugehen, dass sie mehr leisten wird als eine X1800 XT. ;)
Was anderes würde mich auch wudern.
Mobile üblich wird die Leistung ein gutes Stück abgeschwächt werden.
Darüber kann man sicher schön diskutieren, ebenso wie über den Namen, aber doch bitte nicht zig Seiten über falsche Informationen der GPUs.
 
Zuletzt bearbeitet: (GT2xx)
Zurück
Oben