News Nvidia: GeForce-GTX-200M-Serie auf der CeBIT

Lübke schrieb:
@Realsmasher: da kann ich dir nicht zustimmen. die gtx280m besitzt ja tatsächlich die technologie des g200.
Stimmt nicht. Die GTX 280M hat keine Double-Precision-ALUs, die ROPs sind nicht so effizient wie bei einer GTX 280, die MULs können nicht so gut ausgelastet werden. Da sind schon technologische Unterschiede vorhanden.

Kurz ein paar Unterschiede zusammengefasst:
- keine zusätzlichen 64-Bit-Recheneinheiten mit Denorms nach IEEE754, nur 32-Bit-Einheiten ohne Denorms
- 2 statt 4 Alphablender pro ROP-Partition
- bei 8xMSAA nur 16 z-Tests pro ROP-Einheit statt 32 z-Tests
- nur halb so großes Registerfile
- kleinere Datenpuffer für Geometry-Shader-Operationen

http://www.3dcenter.org/artikel/was-bringt-uns-der-gt200

Und dazu kommen noch eben noch die Nachteile in der Architekturbreite und bei den Taktraten:
- 128 Streamprozessoren statt 240 Streamprozessoren
- 64 TMUs statt 80 TMUs
- 16 ROP-Einheiten statt 32 ROP-Einheiten
- 256-Bit-SI statt 512-Bit-SI
- 585 MHz Chiptakt statt 602 MHz Chiptakt
- 950 MHz GDDR3 statt 1105 MHz GDDR3
- nur leichte Shadertaktsteigerung um 18%, 1463 MHz statt 1242 MHz, kompensiert den Einheitennachteil nicht ansatzweise

Alles in Allem wird sich die GTX 280M 1024 MiB im Vergleich mit Desktopgrafikkarten etwas unterhalb der 8800 GTX ansiedeln.
Die Mobility Radeon HD 4870 repräsentiert einen leicht höheren Leistungbereich (~ 8800 Ultra).

Hier eine Abschätzung:

notebookgrakas6yfx.png
 
Zuletzt bearbeitet:
Ui, einer der sich auskennt ;), schön das du die theoretischen Unterschiede so schön auflisten kannst, aber in der Praxis nicht überbewerten. Die 9800GTX+ 1Gb ist ja auch extrem nah an der GTX 260-192 dran. Man bekommt also mit dem G92 einen sehr effizienten Kern und der Name GTX 280M ist für das schnellste aktuelle Produkt schon richtig gewählt.

Hier eine Abschätzung:
Wir brauchen doch gar nicht mehr soviel zu schätzen die ersten Benchmarks gibts schon:
http://www.notebookcheck.com/AMD-ATI-Mobility-Radeon-HD-4870.13878.0.html
http://www.notebookcheck.com/NVIDIA-GeForce-9800M-GTX.9894.0.html
4870M: 14594
9800MGTX: 15784

Mit 3D Marks kann man nicht spielen! aber trotzdem ein Anhaltspunkt.9800MGTX und 4870M sind fast gleich schnell sieht man auch an den mobilen SLI und CF Gespannen.
GTX 280M wird folglich vor der 4870M liegen. Kein Wunder die Mobile HD 4000 hat sich ja ca. 3 mal verschoben und NV präsentiert ja schon den Nachschlag...
 
@theorist: das war eigentlich auf "sichtbare" dinge wie dx10, physx, cuda etc pp gemünzt...

woher hast du das balkendiagramm? quelle wäre nett^^ wenn das zutrifft, find ich den namen echt unpassend, weil er dem namen nach vor der 4870 stehen müsste. was wurde denn da getestet? 3d mark oder was?
 
Lübke schrieb:
@theorist: das war eigentlich auf "sichtbare" dinge wie dx10, physx, cuda etc pp gemünzt...
Gerade bei CUDA hast du einen klaren Technologieunterschied durch die Double-Precision-Einheiten.

Lübke schrieb:
woher hast du das balkendiagramm? quelle wäre nett^^ wenn das zutrifft, find ich den namen echt unpassend, weil er dem namen nach vor der 4870 stehen müsste. was wurde denn da getestet? 3d mark oder was?
Ist von mir selbst. Das Ganze basiert auf den Eckdaten Rechenleistung, Texelfüllrate, Texturadressierungsrate, Pixelfüllrate, z-Füllrate, effektive Speicherbandbreite und Anzahl der GPUs (zwecks SLI/Crossfire). Die effektive Speicherbandbreite errechnet sich aus der normalen Speicherbandbreiten, der VRAM-Menge, einer eingestellten VRAM-Last und der Bandbreite der externen Schnittstelle (PCIe).
Benchmarks habe ich mir angeschaut, um die Einflussfaktoren zu gewichten, aber es fließen keine Benchmarkergebnisse direkt ein.
Die Mittelung der Einflusseinfaktoren auf einen Rankingwert erfolgt über ein geometrisches Mittel. Das liefert deutlich realistischere Ergebnisse als die Mittelung per arithmetischem Mittel.

Bei der GTX 280M bin ich von folgenden Taktraten ausgegangen:
Chiptakt: 585 MHz
Shadertakt: 1463 MHz
Speichertakt: 950 MHz (1900 Mbps)

Die Mobility Radeon HD 4870 habe ich mit folgenden Taktraten eingebunden:
Chiptakt: 550 MHz
Speichertakt: 888 MHz (3552 Mbps)

Kasmopaya schrieb:
Wir brauchen doch gar nicht mehr soviel zu schätzen die ersten Benchmarks gibts schon:
http://www.notebookcheck.com/AMD-ATI-Mobility-Radeon-HD-4870.13878.0.html
http://www.notebookcheck.com/NVIDIA-GeForce-9800M-GTX.9894.0.html
4870M: 14594
9800MGTX: 15784
Schlechter Vergleich, beim Notebook mit der GeForce 9800M GTX war eine stärkere CPU verbaut (QX9300 vs. E6600). Und 3DMark05 ist in 1024x768 auf heutigen Grafikkarten stark CPU-limitiert.
Es ist auch quatsch, ausschließlich in 1024x768 zu testen, wenn derart ausgestattete Notebooks typischerweise eine Displayauflösung von 1920x1200 Pixeln haben.
/EDIT: Zu 3DMark05: https://www.computerbase.de/2008-04/test-intel-core-2-duo-e7200/17/#abschnitt_3dmark05
20.000 Punkte mit einer Radeon HD 2900 XT. Die Mobility Radeon HD 4870 macht laut Notebookcheck nichtmal 15.000 Punkte. Nach deiner Argumentation bedeutet das also, dass die HD 2900 XT merklich schneller ist als eine Mobility Radeon HD 4870. Dagegen sprechen aber ganz klar die technischen Daten und natürlich die Erfahrung. Auch in meiner Abschätzung oben liegt die Mobility Radeon HD 4870 um Einiges vor der Radeon HD 2900 XT.
 
Zuletzt bearbeitet von einem Moderator: (Link korrigiert)
Ich sehe die GTX280M auch drunter, aber eher knapp. Liegt bei den Taktraten (falls das Gerücht stimmt) knapp unter einer 8800GTS512. Da müsste ATI die 4870M schon verdammt niedrig takten um wirklich langsamer zu sein.
 
Zuletzt bearbeitet:
die daten von notebookcheck bezüglich 3dmark der 4870 mobility sind ohnehin fürn hugo.

selbst eine 4650 mobility mit nur 320 shadereinheiten und 128bit gddr3 liefert dort 13000 05er marks.

und mehr als doppelte chipleistung + doppelte speicherperformance erreicht nur 2000 punkte mehr ? :rolleyes:

noch lustiger ist der wert der 4850, die angeblich gleichschnell zur 4650 sein soll.

in q3 soll die 4650 sogar schneller sein als die 4870/4850.


Diese werte kann man also getrost ignorieren, sie müssen falsch sein.


@Realsmasher: da kann ich dir nicht zustimmen. die gtx280m besitzt ja tatsächlich die technologie des g200.

cb :

Trotz der Bezeichnung GTX 280M basieren die Karte sowie die kleineren Ableger nicht auf den GT200, sondern auf dem altbekannten G92b

hmm :o



schön das amd selbst das schreibt.

konnte allerdings bis auf ein merkwürdiges amilo book mit c2d kein notebook findet in dem der name hd2300 gebraucht wurde. überall steht x2300.
 
Es gibt ja auch beide karten X2300 und HD2300. Das ist nicht eine andere Bezeichnnug für das gleiche Produkt.
 
@Realsmasher: und welche funktionen können kunden von einem g200 erwarten, die der g92 nicht zu liefern hat? dx10? sm4.0? open gl 2.1? physx? cuda?.... der g92 ist ein ableger des g200. klar ist der g200 leistungsfähiger, aber es ist die gleiche generation! auch wenn nv zu zeiten der hd3k keine veranlassung gesehn hat, den g90 aka g200 zu releasen.
g200 und g92 sind keineswegs gleichwertig, aber beide befinden sich in der gleichen entwicklungsstufe, nur in unterschiedlichen klassen.
 
Wieso wollt ihr beide auf Teufel komm raus, den G92 mit dem g200 gleich setzen?
Wenn das so einfach wäre, hätte nVidia einfach einen G92@850Mhz als GTX285 vorgestellt, es sind einfach andere Architekturen! Und der G92 hat die Grenze des Pushens erreicht. Es lassen sich genug Fälle finden in denen selbst die 8800GTX schneller als eine 9800GTX+ ist. Eine 256bit-Speicherbandbreite kann man nicht ohne GDDR5 (wird nicht unterstützt) kompensieren. Deswegen ist die Bezeichnung G280m einfach ein Betrug.
 
AlphaGoku schrieb:
Deswegen ist die Bezeichnung G280m einfach ein Betrug.
Betrug ist es nicht, die Specs werden für jeden einsehbar sein. Man kann höchstens von Irreführung der Uninformierten sprechen. Es sollen Assoziationen geweckt werden, die gar nicht vorhanden sind.
 
und welche funktionen können kunden von einem g200 erwarten, die der g92 nicht zu liefern hat?

leistung.

man wirbt hier nicht mit 250gtx oder eventuell sogar nur 260gtx, nein man wirbt mit 280gtx.

Mit einem Namen, der mit dem Produkt absolut garnix zu tun hat.


Es ist ja diesmal nicht die übliche Umbenennungsmasche die wir von den Desktop Karten kennen. Diesmal werden sogar bereits etablierte namen genutzt und deutlich schlechtere produkte dahinter versteckt.

Die Karte mit deren Namen man wirbt ist mindestens 50% schneller als das Produkt das dahinter steckt. Mit AA/AF siehts noch düsterer aus für den Fake.


Zeig mir mal eine mobile Karte die bei gleichem Namen derart langsamer ist als das gleichnamige Desktop Produkt. Viel Spaß beim suchen.

(andere fake produkte wie die 8800gtx mobile zählen nicht !)
 
9600M GT. Da ist der Unterschied noch viel größer als zwischen GTX280 und GTX280M.
 
Ist ja wieder so ein Fake gewesen, minimal höhergetaktete 8600M GT.
Merkst du jetzt dass nVidia seit zwei Generationen nur noch pfuscht?
 
eben, auch wieder eine karte wo ganz was anderes dahinter steckt.

bei ati oder den alten nvidias vor der 8ter wirst du so eine verarsche nicht finden.

Dort bekommt man wirklich annähernd das was man auch erwartet.
 
Danke für die Einschätzung theorist, es verschlägt einem die Sprache wenn man sieht mit welcher Unverfrorenheit Nvidia versucht eine Scheinwelt durch dreiste Marketingtricks zu erzeugen.
 
Ja wenn das richtige drin steckt erhält man auch die richtige Leistung. Ne ziemliche unlogische Frage dann.

Aber mir fällt da bei ATI ein älteres Beispiele ein, aber das behalte ich für mich. Denn du hast ja im groben natürlich recht. Die Namengebung der Geforce Go 5,6 und7 sowie der Mobile Radeon seit der 3000er Serie ist viel transparenter. Das wird wohl auch keiner abstreiten wollen das so eine Namensgebung für uns einfacher wäre.

@AlphaGoku
Ne merke ich nicht, war mir völlig fremd. Gut das du mir jetzt auf die Sprünge geholfen hast. :rolleyes:
 
@bensen and friends
Deine gesamte Argumentationsgrundlage würde sich ohne die X/HD2300 in Luft auflösen, deshalb klammerst du dich an diesem Strohhalm fest und hausierst für nVidia, indem du behauptest, dass beide (ATi und nVidia) gleich vorgehen. Das ist es was ich nicht verstehe und lächerlich finde. nVidia macht seit dem G80 technologisch fast gar nichts mehr und versucht das Geld durch Umbennenung und Kundentäuschung zu verdienen, ich finde dass sowas Publik machen sollte und es sollte Stimmung gegen solches Vorgehen aufkommen.
 
Ich welchem Punkt nimmt AMD die technologische Vorreiterrolle ein?
Dann schimpf doch auch mal über AMD.
 
AlphaGoku schrieb:
Ist ja wieder so ein Fake gewesen, minimal höhergetaktete 8600M GT.
Merkst du jetzt dass nVidia seit zwei Generationen nur noch pfuscht?

Mobile Karten hatten noch nie die Leistung von Desktop Karten.

beispiele:

3Dmark03

x700m = ca. 5000 Punkte
x700 Desktop = ca.8200 Punkte

FX5700m = ca. 2700 Punkte
FX5700 Desktop ca 3800 Punkte
 
Vor wenigen Tagen unterrichteten wir, dass Nvidia im Rahmen der Cebit neue, mobile Grafikchips vorstellen würde. Konkret war von Geforce GTS 160M, Geforce GTX 260M und Geforce GTX 280M die Rede, wobei alle - trotz ihres Verkaufsnamens - G9xb-Ableger im 55 Nanometer-Verfahren sein sollten.
Die genauen Spezifikationen liefert Fudzilla nun nach:


http://hardware-infos.com/news.php?news=2771

Ich bezweifle, dass nVidia was reißen wird.
 
Zurück
Oben