News Nvidia GeForce-300M-Serie vorgestellt

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.243
Was ist denn nun der Sinn die ganzen Karten, wenn sie großteils nur mit einer neuen Bezeichnung versehen werden? Hoffentlich sind Stromsparfeatures inplementiert worden, das wäre etwas nützliches. Wobei ich mich frage, ob der GDDR5 erst mit der Fermi-Architektur Einzug halten wird in den Mobilebereich.
 
Zuletzt bearbeitet:
Wie oft will nVidia eigtl. noch den Namen austauschen o_O Im Prinzip sind das immernoch GeForce 8er.
 
Mensch, wie oft will Nvidia eigentlich noch die G80 architektur umbennen?

Erst warens Geforce 8xxx Mobile, dann 9xxx Mobile, dann GT1xx Mobile, dann GT(S)X 2xx Mobile und jetzt GT300, mal abgesehen von DX10.1 (GT2xx) hat sich nie was getan. Wenn die weiter so machen, wird ATI bald alleinherrscher bei Gaminglaptops mit ihren schnellen 48xx bzw. bald 5xxx Mobile Radeons.
 
Was mich dabei wundert ist das keine der Grafiklösungen DirectX 11 unterstützt!

Dachte das wäre die Zukunft und ein Muss für 2010!
 
ooh nein, nicht schon wieder, den ihre GF200M-Serie ist noch nichtmal richtig angekommen, bzw. verbreitet genug das man langsam durchsieht und schon wieder einmal umlabbeln.

Das muss doch mal ein Ende finden.
 
Damit tut sich NVIDIA keinen Gefallen. Aber wer weiß wie viele jetzt wieder denken "Ich hab die neueste NVIDIA drin".
NVIDIA muss im neuen Jahr echt Gas geben wenn sie was reißen wollen.
Guten Rutsch, Rene
 
Und dennoch werden die Teile doch Massenweise verkauft... Marketing eben, neuer Name, neue Käufer.

ATI macht seinen Job in jeder Hinsicht richtig, in allen Bereichen des Geschäftsfelds. Bei ATI kann man es mmerhin Investition nennen.
 
Sehe ich das richtig, dass eine GTS260M besser ist als eine GTS350M?
Sollten die höheren Zahlen nicht für mehr Leistung stehen?!
So langsam sollten sie sich mal überlegen, wo das noch enden wird! Wie sollen denn erst die DX11 Karten heißen? GTX4XX 0_o
 
Auf das dämliche Umbennnen von Grafikchips will ich ja gar nicht eingehen, aber ich frage mich warum in der Tabelle keine Angaben zum Stromverbrauch aufgeführt sind. Bin ich der einzige, den das bei Notebookchips interessieren würde?
 
ich verstehe nicht wieso man nicht 256 Bit Speicherinterface nimmt. Das ist deutlich schneller und man braucht dafür nur 128 Bits mehr als für das 128 Bit Speicherinterface.
Ich mein heute wo Speicher so Billig ist, das man für 5 Cent ein Gigabyte bekommt, brauchen sie wirklich nicht mit den Bits gieren. Besonders wo diese wenigen Bits so viel Performance bedeuten.
Sie sparen wirklich an der falschen stelle, statt 1024MB VRAM könnten sie doch 512 Bit Speicherinterface machen, das ist echt nicht schwer ein paar Bits mehr. Das die da noch nicht selbst darauf gekommen sind, was arbeiten dort hartz-iv?
 
nVidia muss die Zeit bis zum neuen Chip irgendwie überbrücken. Und im OEM Markt tut's ein neuer Name allein oft auch. Die meisten Consumer interessieren sich kaum für DirectX Versionen, Shaderzahl oder Taktraten. Kritik an diesem Konzept ist aber trotzdem angebracht.

Anzumerken ist auch, dass AMD seine Architektur auch schon jahrelang wiederkäut - die 5er Serie ist ja auch keine Neuentwicklung.
 
wie blöde kann man eig sein? Merken die net mal, dass es mal Zeit für was komplett neues wird?
Als erstes hat ATI im LowEnd-Desktop-Bereich wieder Fuß gefasst. Und warum? Weil sie ihre neuen Entwicklungen auch in den LowEnd Bereich bringen und nicht wie nVidia einfach die alten Mainstream-Karten umlabeln.
Die werdens wohl erst merken, wenns iwann selbst die Fanboys keinen Bock mehr auf nVidia haben -.-
 
@ Winterday:
Naja, umbennen tut ATI des nicht, es sind zwar nicht komplett neue Architekturen, aber es sind wenigstens Unterschied zum Vorgänger. Hier allerdings bei nvidia gibts ja gar keine unterschiede.
 
@ Makus: weil es nicht an den speicherchips liegt sondern am boardlayout! hier werden mehr layer benötigt, was die preisgestaltung wieder zunichte macht.
 
Diese G80 Unterstellungen sind fehl am Platz.
Die Technik ist nicht älter als die einer HD4. Im Gegenteil, das sind ach so tolle 40nm GPUs mit Neuigkeiten wie neuem VP oder D3D10.1 (im Verlgeich zum GT200).

Viel sinniger wäre es den Blick auf die Namen zu werfen.
Wirklich schön ist es nicht, aber es gibt mehrere Möglichkeiten:

Dank HP, bzw allgemein den OEMs gibts die 300er Desktop.
Andere OEM Versionen müssen folgen, 200 neben 300 macht sich schlecht.
Das ist 1zu1 auf den Mobilebereich übertragbar, ein 200er Notebook neben einem 300er Desktop sieht scheisse aus.

GTS 360M, schwer einzuordnen sie ist. Theoretisch müsste sie mindestens GTS 270 heißen, dann wäre sie eingerahmt von den alten GTX 260 und GTX 280. Was ist den besser, GTX oder GTS? Eigentlich GTX, aber empfehlenswerter ist die neue GTS.

Btw: Erstaunlich was seriöse Berichterstattung ausmacht, Charlies News liest sich gleich vollkommen anders, dank diverser unsinniger Vergleiche. http://www.semiaccurate.com/2009/12/29/nvidia-gts360m-renamed-gt240/
 
d2kx schrieb:
Wie oft will nVidia eigtl. noch den Namen austauschen o_O Im Prinzip sind das immernoch GeForce 8er.

Solange wie es idioten gibt, die sowas kaufen, und es sich für Nvidia lohnt.
Warum können die "umbenannten" Nvidia karten denn Dx10.1?
 
Zuletzt bearbeitet von einem Moderator:
Winterday schrieb:
Anzumerken ist auch, dass AMD seine Architektur auch schon jahrelang wiederkäut - die 5er Serie ist ja auch keine Neuentwicklung.

Mach mal halblang, die HD5 zur HD4 ist grob gesagt sowas wie G80/G92 zu G200. ;) Edit: Hier stand etwas falsches.
 
Zuletzt bearbeitet:
Zurück
Oben