News Nvidia präsentiert „GeForce GTX 200M“-Serie

RicoM

Cadet 4th Year
Dabei seit
März 2006
Beiträge
104
#3
Die technischen Angaben lassen ein "nein" als Antwort richtig erscheinen.
 

Pupp3tm4st3r

Lt. Commander
Dabei seit
Mai 2007
Beiträge
1.763
#7
naja bei dem verbrauch und der wohl entstehenden wärme eines gt200(b) wars ja beinahe logisch, den nicht in ein notebook zu packen, auch wenn ich es sehr schade finde, dass wieder einmal der g92 genutzt wird...
 

stealthhunter

Cadet 1st Year
Dabei seit
Feb. 2009
Beiträge
12
#8
dieser ganze markt ist langsam eine fars sonst nichts mehr, alter chip neues bio s drauf neues marketing und die meinen es wird wieder gekauft.

absoluter bullshitt.
 

Morhaith

Lieutenant
Dabei seit
Apr. 2008
Beiträge
791
#9
Allerdings bezweifel ich, dass eine GTX 260 bei der ein Skalares Ausführ ding (komm grad nich auf den Namen) langsamer sein soll, als eine 9800gtx.
das stimmt so nicht.... schliesslich ist der gtx260m nicht zu verwechslen mit dem gtx260 für den desktopmarkt.... der gtx 260m ist quasi eine anders getaktete 9800gtx mit einem deaktivierten shadercluster
 

FloW3184

Lt. Junior Grade
Dabei seit
Feb. 2008
Beiträge
383
#11
macht sich nvidia durch die ganze falsche namensgeberei nicht langsam unglaubwürdig?

ich glaub die wollen nur n gutes Produkt gegen ATIs 4800erM -Serie in der Hand haben... deshalb der verwirrende Name, der viel mehr Power vermuten lässt, als eigentlich dahintersteckt.

der dumme nvidia-fan wird natürlich drauf reinfallen. (vermutlich nicht nur der dumme...)

bin mal gespannt, wann nvidia sich so die erste millionenklage einfängt.
 
Dabei seit
Apr. 2008
Beiträge
3.641
#12
ich finde NV kann sich langsam mit Creative zusammen tun. Altes Produkt neuer Name und schon ist der neue Spitzenreiter fertig. Gähn. So sehr ich auf NV geschwört habe um so mehr fange ich an zu zweifeln. Ich werde mir den Verlauf noch dieses Jahr angucken und dann ist 2010 eine neue Grafikkarte fällig. Dann werden wir sehen was gekauft wird aber stand heute und jetzt, kein NV mehr. Diese Politik gefällt mir gar nicht und gehört abgestraft.
 
A

AeS

Gast
#13
So ganz langsam übertreibt es nVidia mit dem Recycling alter Grafikkarten, ich mein, es ist verständlich das die Lager leer gekauft werden müssen und die Zeit bis zur neuen Generation überbrückt, jedoch sollten dann nicht solche Blenderprodukte auf den Markt kommen, die dem unbedarften Endkonsumenten eine neue Grafikkarte vorgaukelt.
Zudem dürfte AMD mit der Mobile Radeon 4850 durchaus auf diese Grafikkarten aufschließen, manche sogar überholen, ich gehe jedoch mal vom „Top Modell“ der vorgestellten Grafikkarten aus.

Eventuell wäre es mal ein Versuch wert, eine nVidia 260 auf Mobile Niveau schrumpfen zu lassen, was die Größe und die TDP angeht, dann wäre die Grafikkarte durchaus für die Aufstockung von z.B. Apple iMacs zu sehen, denn ich glaube kaum das nach der kompletten Umstellung auf nVidia Chipsätze Apple anfängt Radeon HD4850 oder HD4870 für den iMac oder Mac Pro zu bringen, leider.

Der andere Weg, die TDP nochmals deutlich zu senken, würde es ermöglichen die GPU auch in normalen 15.4° Notebooks mit einer guten Akkulaufzeit zu verwenden und nicht nur in High-End-Gamer-Ich-Bash-alle-mit-meinem-10kg(Gefühlte)-Notebook weg-Geräten.
 

dEad0r

Lieutenant
Dabei seit
Nov. 2006
Beiträge
531
#14
naja bei dem verbrauch und der wohl entstehenden wärme eines gt200(b) wars ja beinahe logisch, den nicht in ein notebook zu packen, auch wenn ich es sehr schade finde, dass wieder einmal der g92 genutzt wird...
also zumindest im idle wäre der gt200(b) weit stromsparender... würde man hier auch shader etc. deaktivieren, würde man auch unter last nicht zu viel verbrauchen und die leute würden sich nicht verarscht vorkommen (hallo? dann nennt das ding doch nicht genau so wie die desktop ableger, wenn kein zusammenhang besteht!!!)..
 
Dabei seit
Juli 2005
Beiträge
3.975
#15
wenn eine vollwertige 4870 mit reduziertem takt im notebook möglich ist, dann sicher auch eine vollwertige gtx 280 mit gesenktem takt.

Man kann nur spekulieren warum sie diesen nicht verwenden... warscheinlich wohl wegen dem hohen Produktionspreis oder aber sie denken der g92 verkauft sich unter dem namen genausogut.

Von der Leistung dürfte die 280 gtx bei den taktraten wohl so ziemlich einer 8800gtx desktop entsprechen.

Setzt man die 4850 mobility etwa bei der 4830 desktop an(wobei erstere tendenziell eher schneller ist), dann sind die beiden ziemlich gleichschnell.

etwas enttäuschend bei dem namen, bedenkt man das verhältnis von 4850 und 280gtx bei den desktop modellen.

an die 4870 mobility kommt man so jedenfalls nicht ran. Mit der Prognose das man gar 30% schneller sei hat man sich somit deutlich überschätzt.
 
F

Freaky22

Gast
#16
Ankündigungen und Vorstellungen sind ja immer gut und schön. Aber gerade bei Notebookchips gibts da immer ein Problem mit der Verfügbarkeit :(
 

bensen

Fleet Admiral
Dabei seit
Juli 2003
Beiträge
18.028
#17
GTX280M = neues Top-Produkt.
GTX260M = 9800M GTX mit etwas höheren Taktraten
GTS160M = 9800M GTS

@Realsmasher
Vielleicht ist auch ein G92b in Sachen Performance/Watt besser als ein GT200b. Oder zumindest bei vorgegebener TDP nicht langsamer als ein G200b, so dass der kleinere Chip die bessere Wahl war.
Die GTX280M liegt genau in der Mitte zwischen den Desktop 8800GT und 8800GTS512.
Damit ist man etwas schneller als die Mobile 4850 aber garantiert nicht 30% schneller als ne Mobile 4870. (Falls die bisherigen Angaben stimmen)
 
Zuletzt bearbeitet:
Dabei seit
Feb. 2006
Beiträge
2.503
#18
Ist die GTX280M nicht identisch mit einer 9800 GTX+?!?
Was soll das denn nun schon wieder, Nvidia? :rolleyes:
 

d-Raven-b

Lt. Junior Grade
Dabei seit
März 2008
Beiträge
496
#19
Ich fände die ganze Umbenennerei eigentlich nicht mal so schlimm, das Problem ist nur, dass NV vorgaukelt es handle sich um eine GPU der GTX200 Architektur, dabei ist die ganze 9X00-Serie eigentlich nur ein Refresh der 8X00er von 2006.

Weshalb ist NVIDIA dazu gezwungen wird man sich fragen? Klar!
Der GTX200 ist einfach zu gross und zu teuer, deswegen müssen sie immer wieder auf ihre alte Architektur zurückgreifen.
Die ist ja nicht schlecht, nur ist es dem Kunden gegenüber nicht fair ein Refresh eines mittlerweile schon fast 3 Jahre alten Grafikchips als Modell von 2008 zu verkaufen.

ATi ist hier natürlich im Vorteil, die können das ganze Produkteportfolio praktisch mit einer Architektur bedienen, da der Chip klein und günstig ist.

Ich nehme an, NVIDIA wird die Idee von ATi kopieren und versuchen ein kleiner, günstig herzustellenden Chip zu produzieren, der auf allen möglichen Karten Anwendung finden kann. Ob das Zeitlich mit dem GT300 noch machbar ist(war) wage ich allerdings zu bezweifeln... Allerdings hätte Ihnen schon früher klar sein müssen, dass das mit einem Chip vom Kaliber eines GTX200 nicht klappen kann..
 
Dabei seit
Feb. 2006
Beiträge
2.503
#20
Von der Größer her sollte es eigentlich nicht so das Problem sein. ATI verbaut 55nm GPU´s . Der hier verbaute G92b ist auch in 55nm und selbst das Shrink des G200, der G200b ist in 55nm.
Ich denke eher, daß die G200b GPU zu leistungshungrig ist.

Wenn Nvidia die GraKa einfacht 9800 GTX+, oder je nach RAM meinetwegen auch GTX 250 nennen würde, wäre ja noch alles in Ordnung.
Ich meine, der G92 ist ne klasse GPU, vor allem in 55nm und mit 1024 MB RAM. Aber das Namenskonzept täuscht halt einfach mehr Leistung vor, als wirklich vorhanden ist :(.
 
Top