News „GeForce 200M“-Serie mit DX 10.1 und 40 nm

Gorby schrieb:
Toll, der Unterschied zwischen 230 und 240 ist lediglich eine geringe Taktsteigerung der GPU und Shader. Sogar die TDP von 23 Watt bleibt gleich. Von daher hat die 230 für mich schon mal keine Daseinsberechtigung.

Wenn du mal nachdenken würdest käme dir vielleicht in den Sinn, daß nicht alle Chips den höheren Takt schaffen und daß man sie deshalb billiger mit etwas geringerem Takt verkauft.
 
Also ich wär mir mit 10.1 nicht so sicher da Nvidia selber nicht genau weiß ob sie es nun unterstützen oder nicht mal ist davon die rede dann mal wieder nicht.

z.B. Steht bei Merkmale noch 10.1 da unter den Technischen Daten wird aber nur mit 10 geworben: http://www.nvidia.de/object/product_geforce_g210m_de.html

Und bei Nvidia steht auch nix mit GDDR5 das Maximale ist immer noch GDDR3 !!!

Entweder hat man sich bei Nvidia auf den Präsentationsfolien verschrieben oder den Ihre dt. Seite ist net up to date.
 
Zuletzt bearbeitet:
Naja, sehen wir/ich es mal so, dass ist für mich die letzte Chance für NV. Wenn die jetzt wieder Müll bauen beim nächsten Chip, dann kauf ich eine ATI. So war es bei ATI auch mal. Haben lange nur Müll gezaubert und da bin ich zu NV gegangen. Jetzt hat sich ATI wieder gefangen und mal gucken. Die nächste wird es zeigen was kommt. DX11 ist interessant und alles was noch zu DX10.1 kommt ist nur um die Zeit zu überbrücken die NV noch brauch bis DX11. Mehr ist das nicht für mich.

Ich warte bis beide die Karten auf dem Markt haben. DAnn gucke ich, wer hat die bessere und nicht nur das bessere PL.

Und ja, schade das NV nicht früher auf DX10.1 gesetzt haben. Naja für uns Gamer wäre es besser gewesen und bestimmt auch für NV. Dann hätten sie Physik X gehabt und DX10.1. Naja so hat jeder etwas, der eine DX und der andere Physik.

Ausserdem steht noch die Karte von Intel aus. vielleicht wird die ja so der Renner, dass selbst ATI und NV uninteressant werden. Vielleicht nicht vom Preis aber was die Leistung betrifft, die kommen laut Gerüchten jetzt schon an eine 285 ran (und das für die erste Gamerkarte von Intel) und haben noch ca 1 Jahr Zeit. Also warten wir mal ab. Ich bin gespannt was kommt und sehe keinen Sinn sich jetzt schon auf eine festzulgegen. Weder im Notebook noch im Desktopbereich.
 
Zuletzt bearbeitet:
im Mobil Bereich könnte AMD jetzt viel Land gut machen, da man hier bereits früher sehr gut aufgestellt war.
Man bietet auch die schnellsten Mobil Chips (bereits ne Mobility HD4850/HD4860 schlägt die GTX 280M bei weniger Verbrauch, und es gibt auch noch ne schnellere Mobility HD4870)

Trotzdem sehen die neuen Mid/Low Class Nvidias doch sehr gut aus, und werden sich sicher sehr gut verkaufen, da ja der gute Name G200 dabei ist.
 
Sind die Folien von Nvidia selber? Wäre peinlich, in der Tabelle ist schön nen dicker Fehler bei der GTS240M.
Glaube kaum dass die GDDR5 bei 800MHZ betreiben.
 
bensen schrieb:
Glaube kaum dass die GDDR5 bei 800MHZ betreiben.
Wieso? Passt doch. Die HD 4770 läuft z.B. auch mit 800 MHz GDDR5. Die Radeon HD 4870 hat 900 MHz schnellen GDDR5-Speicher.
Es wird bei GDDR5 der Befehlstakt angegeben und der hat sich gegenüber GDDR3 nicht verändert (GDDR3 kennt nur ein Taktsignal, nämlich den Befehlstakt, bei GDDR5 gibt es zwei Taktsignale, nämlich den Befehlstakt und den doppelt so hohen Schreibtakt).

/EDIT: Ich seh gerade, was du meinst. Bei den großen Varianten gibt NV ja auch den Schreibtakt an. Ergo meinen die wohl 800 MHz GDDR3 bei der GT 240M. AMD gibt übrigens stets den niedrigeren Befehlstakt an oder die I/O-Datenrate (in Mbps).
/EDIT2: Die GT 240M unterstützt definitiv nur DDR2-, DDR3- und GDDR3-Speicher: http://www.nvidia.com/object/product_geforce_gt_240m_us.html
 
Zuletzt bearbeitet:
Wenn ich bedenke, dass einige NV Fanboys im Thread über die fünf DX10.1 Spiele, einem doch wirklich glaubhaft machen wollten, dass es doch Beschiss gegenüber den Besitzern von DX10-Karten seitens NV sei, wenn sie vor DX11 noch Karten mit DX10.1 Unterstützung rausbringen würden. :rolleyes:

War zwar auf den Desktopbereich bezogen, gilt aber auch für den Mobile-Sektor, da es hier ja auch schon länger DX10 only Karten von Nvidia gibt.
 
Kasmopaya schrieb:
Auflösung, Testsystem, etc.?
Jedenfalls liegen die Mobility Radeon HD 4850 und die GTX 280M in Crysis @ ultra gleichauf und Call of Juarez ist mit der 4850 deutlich besser spielbar (43 fps vs. 33 fps).
In World of Conflict scheint die GTX 280M deutlich schneller zu sein. Generell fragt man sich aber, mit welcher CPU das jeweils erreicht wurde und in welcher Auflösung plus welchem AA/AF-Level.
In 800x600 oder 1024x768 ohne AA und AF zu benchen - wie bei Notebookcheck häufiger der Fall ist - halte ich für recht sinnfrei bei Notebooks, die Displayaufösungen von 1680x1050 oder 1920x1200 haben.

Die 46 fps der GTX 280M in World of Conflict scheinen jedenfalls mal mit einem Core i7-920 @ 1280x1024 erreicht worden zu sein: http://www.notebookjournal.de/tests/review-gtx280-cyber-system-i7-893/2.
Mit einem notebooküblichen Core 2 Duo P9500 (2,53 GHz) sind es dagegen nur 38 fps.
Die 34 fps der HD 4850 hat man dagegen offenbar aus einem anderen Review mit schwächerer CPU entnommen, obwohl in obigem Review die HD 4850 im Zusammenspiel mit einem Core 2 Duo P9500 (2,53 GHz) ein besseres Ergebniss (39 fps) erzielte.
Ich persönlich halte von den Benchmarks bei Notebookcheck überhaupt nix, weil deren zustande kommen nicht ersichtlich wird. Generell hab ich den Eindruck, dass Notebookcheck die Ergebnisse absichtlich so auswählt, dass GeForces besser da stehen. Und diesen Eindruck hab ich schon lange. Zudem findet man bei Notebookcheck so gut wie keine Benchmark mit Antialiasing und anisotropem Filtern. Genauso selten findet man Benchmarks in höheren Auflösungen als 1280x1024. Deshalb sind die Ergebnisse dort auch stark CPU-orientiert.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Herber Rückschlag für die mobilen HD 4000 jetzt hätten sie grad an Fahrt aufgenommen und nun gibts wieder starke Konkurrenz.

Pffff erst mal müssen die auch in irgendeinem NB verbaut werden. Die 4860 gibts im Prinzip schon seit Monaten, kann man die kaufen? Nein. Also. Bei NVIDIA wird das nicht anders. Hab ich schon früher mal gesagt, das NVIDIA die Teile zwar offiziell einführen wird, die Verfügbarkeit aber noch ewig brauchen wird. Ist kein Vorwurf, schließlich kommts da auf die NB-Hersteller an, die da immer bissl brauchen. Aber genau das kann man jetzt als Entschuldigung nutzen. Hat schon jemand Hardware gesehen? Ich nicht, im Gegensatz zu ATI (4860). Im übrigen sollten die 40nm Lowend/Mainstream (Desktop) Grakas von NVIDIA schon längst draußen sein, zu sehen ist aber immer noch nix. :o


Mister79 schrieb:
Ausserdem steht noch die Karte von Intel aus. vielleicht wird die ja so der Renner, dass selbst ATI und NV uninteressant werden. Vielleicht nicht vom Preis aber was die Leistung betrifft, die kommen laut Gerüchten jetzt schon an eine 285 ran (und das für die erste Gamerkarte von Intel) und haben noch ca 1 Jahr Zeit.

:D Was denkst du, wo ATI/NVIDIA in einem Jahr sind? DOPPEL-LOL mit ATOMROFL
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Pffff erst mal müssen die auch in irgendeinem NB verbaut werden. Die 4860 gibts im Prinzip schon seit Monaten, kann man die kaufen? Nein. Also. Bei NVIDIA wird das nicht anders. Hab ich schon früher mal gesagt, das NVIDIA die Teile zwar offiziell einführen wird, die Verfügbarkeit aber noch ewig brauchen wird. Ist kein Vorwurf, schließlich kommts da auf die NB-Hersteller an, die da immer bissl brauchen. Aber genau das kann man jetzt als Entschuldigung nutzen. Hat schon jemand Hardware gesehen? Ich nicht, im Gegensatz zu ATI (4860).
Die 40-nm-GPUs von Nvidia stehen eh nicht in Konkurrenz zur Mobility Radeon HD 4860. Eine GTS 260M ist aus Performancesicht kein Gegner für die Mobility Radeon HD4860, da muss schon eine GTX 280M her (55 nm). Die Mobility Radeon HD 4860 liefert immerhin fast die Performance einer Radeon HD 4850 (Desktop) ab, während die GTS 260M nur in der Gegend einer GeForce 8800 GS bzw. einer GeForce 9600 GSO G92 rumdümpelt (Radeon-HD-3870-Niveau).
 
Kenn zwar noch keine Tests, aber die neuen Green Modele dürften ziemlich nahe an die mobilen ran kommen von der Watt/Performance her. http://geizhals.at/deutschland/a436095.html
Auch wenn jetzt 75Watt TDP drauf steht heißt das nicht das die Karte 75Watt verbraucht, vermute das sie weit unter 75Watt Verbraucht und das ist doch schon mal ein Anfang. Selbst noch ein bisschen undervolten und fertig ist die die Stromsparkarte, die im Vergleich zu den mobilen extrem günstig sind.
 
Was soll der Satz? TSMCs 40nm Yield ist sehr schlecht, siehe RV740, was hat das mit Nvidia zu tun, einen Chipdesigner im sonnigen Kalifornien, fernab irgend welcher Fabriken?

KAOZNAKE schrieb:
Pffff erst mal müssen die auch in irgendeinem NB verbaut werden. Die 4860 gibts im Prinzip schon seit Monaten, kann man die kaufen? Nein. Also. Bei NVIDIA wird das nicht anders. Hab ich schon früher mal gesagt, das NVIDIA die Teile zwar offiziell einführen wird, die Verfügbarkeit aber noch ewig brauchen wird.
Also AMD hat den Paperlaunch der RV740 basierten Modelle bereits vollzogen, Nvidia vollzieht erst jetzt den Paperlaunch etlicher 40nm GT2xx.
Alle sind sie weit davon entfernt bald aus den Papierstadium hinauszuwachsen.
Jedoch ist dies bei AMD ok, weil deren Paperlaunch zum Zeitpunkt der großflächigen Verfügbarkeit in ferner Zukunft weiter zurückliegen wird.
 
brabe schrieb:
Warum kann man einen GeForce GTS 260M nicht für den Desktopbereich kaufen? Ganze 38Watt für 96 Rops?
So war das schon immer mit den Notebook-GPUs. Die Mobility Radeon HD 4670 hat z.B. auch nur eine TDP von 30 Watt und das bei 320 SPs. Der Desktop-Gegenpart bringt es bei nahezu identischer Performance auf eine TDP von 70 Watt.
Dafür sind die Notebookkarten um ein Vielfaches teurer als die Desktop-Gegenstücke.

Kasmopaya schrieb:
Kenn zwar noch keine Tests, aber die neuen Green Modele dürften ziemlich nahe an die mobilen ran kommen von der Watt/Performance her. http://geizhals.at/deutschland/a436095.html
Naja, nicht lieferbar, niedriger getaktet als die Spezifikation von Nvidia und auch noch teurer gelistet als eine normale 9800 GT. Da kauf ich doch lieber eine 9800 GT mit gescheitem Kühler (Zweislot) und senke die Spannungen und die Taktraten selber.
 
Zuletzt bearbeitet:
Die Mobility Radeon HD 4670 hat z.B. auch nur eine TDP von 30 Watt und das bei 320 SPs.
das sind auch "nur" 64 shader (5d) ;)
aber stimmt schon, das ist nicht so außergewöhnlich. meine 7900gs 512 hat auch ne tdp von 25 watt. schade, dass es sowas nicht im desktopbereich schafft... technisch ist es offensichtlich kein problem, aber scheinbar sind die kosten doch höher...
 
Lübke schrieb:
das sind auch "nur" 64 shader (5d) ;)
Die reale Shaderleistung der Radeon HD 4670 ist jedenfalls gleichauf mit der GeForce 9600 GSO (96 SPs):
https://www.computerbase.de/2008-09/test-ati-radeon-hd-4670/5/#abschnitt_theoretische_benchmarks (siehe unten, Shadermark)

Das sollte man so auch auf die mobilen Varianten übertragen können - natürlich unter Berücksichtigung der Taktraten. Eine GeForce GTS 250M (28 Watt TDP) müsste ungefähr die gleiche reale Shaderleistung abliefern können wie eine Mobility Radeon HD 4670 (30 Watt TDP). Natürlich ist die GTS 250M insgesamt schon ein bischen schneller, da sie mehr TMUs (32 vs. 16) und (optional) GDDR5-Speicher bestitzt. Ergo hat Nvidia in diesem Segment wohl die Nase vorn. Aber warten wir mal ab, was die Notebooks mit der GTS 250M kosten und wie groß diese sein werden. Notebooks mit der Mobility Radeon HD 4670 gibt es ab 740€: http://geizhals.at/deutschland/a433174.html.
 
Zuletzt bearbeitet:
ich wollte damit auch gar nich die leistung der 4670 schmälern. nur klingt das mit den 320 shadern zu 96 shadern nach nem wahnsinns chip. so isses dann ja auch nich. das is wieder das berühmte äpfel und birnen vergleichen.
ich fänds toll, wenn cb mal notebook-grafikeinheiten benchen würde. die meisten aussagen dazu sind reine spekulation. wirkliche fakten sind da leider sehr spärlich...
 
Zurück
Oben