News Nvidia-Treiber verrät GeForce-300M-Familie

@ YforU

Leider wird das Nvidia nicht gelingen, da AMD bereits am 9.01.2009 auf der CES die Mobility Radeon HD 4000 Serie vergestellt hat, welche in 40nm hergestellt wird.
 
KAOZNAKE schrieb:
Hmm, sie machen jetzt also im wesentlichen nur einen Dieshrink (+.1) und benennen die Chose um, und beim "echten" GT300 Notebook-Ableger machen sies dann nicht :o

Geile Logik, allein, ich glaub nicht dran---

Rein im Bezug auf den Launch von ATI, dem nV gegenwärtig nicht viel entgegen zu setzen hat, durch aus nachvollziehbar. Aber natürlich gebe ich Dir als auch anderen hier recht: Kundentransparenz sieht anders aus.

Betrachtet man jedoch die reine Leistung einer Karte mit zusätzlicher Unterstützung von x.1 unabhängig von dem Namen, spielt es keine Rolle. Denn für den Käufer ist das Preis/Leistungsverhältnis interessant und nicht was am Ende auf der Packung steht.

Letzten Ende wird sich zeigen, in wie weit die von nV vorgesehene Einstufung der neuen Mobilkarten mit realitätsnahen Benchmarks übereinstimmt.
 
Zuletzt bearbeitet von einem Moderator:
Zitat von KAOZNAKE Beitrag anzeigen
Hmm, sie machen jetzt also im wesentlichen nur einen Dieshrink (+.1) und benennen die Chose um, und beim "echten" GT300 Notebook-Ableger machen sies dann nicht

naja ganz so ist es auch nicht. die aktuellen mobil-gpu haben ja bis auch dx11 schon alles, was die neue generation bringen soll: gddr5, 40nm-shrink und mit dx10.1 sind sie schon weiter als die g200-gpus.

ist ja nicht gesagt, dass die besagte änderung nicht der sprung von dx10.1 auf dx11 ist. also nicht so schnell aufregen, vllt regt ihr euch ganz um sonst auf ;)

andersrum ist das auch nichts ungewöhnliches. ich erinnere nur an die 2300 von ati... die namensgebung bei notebook-gpu war leider noch nie eine sehr große hilfe. wer eine leistungsstarke mobil-gpu will, kommt nicht umhin, sich selbst zu informieren. anhand der namen ist man da völlig aufgeschmissen. -.-
 
manoman3 schrieb:
let the great renaming begin :evillol:

Stimme Dir 100% zu.

Nach den rename Orgien mit der NVidia auch den letzten Käufer genervt hat,
haben sie allerdings auch verdient das man ein paar Eimer Spott und Häme über sie ausschüttet. :lol:

Ich persönlich habe völlig den Überblick verloren welcher Chip dort zu welcher Generation gehört.
Daher habe ich mir als DAU auch eine GTX 260 gekauft. Da war ich halbwegs sicher was drin ist.:cool_alt:
Obwohl: Bei der Umstellung auf 216 Shader und auf den Fertigungsprozess auf 55nm hat man zwei 1a Chancen verspielt nochmal 2 neue "renames" zu machen :evillol:
 
mYsticreaver schrieb:
eben das glaube ich NICHT. Dx11 bietet viel mehr Möglichkeiten für die Entwickler Ihre Anwendungen schneller zu machen, physik unabhängig vom Hersteller auf der Graka zu berechenen(ade physx) und die >2 Core Cpus besser auszulasten bzw Arbeit zu verlagern.
Ich denke schon, dass sich dx11 schnell durchsetzen wird, dx10 ist ja nie wirklich in fahrt gekommen(wüsste spontan nicht ein titel der dx10 only ist und auch nach dx10 aussieht)

Teilweise handelt es sich hierbei um Verbesserungen die auch für die DX10.X Generation mit der Einführung von DX11 verfügbar werden. Alles andere wie gehabt denn der einzige Sonderfall in dem ein Techlevel überdurchschnittlich schnell adaptiert wird ist die Veröffentlichung neuer Konsolen. Hier ist aber genau gegenteiliges der Fall.

Mr.Brown schrieb:
@ YforU

Leider wird das Nvidia nicht gelingen, da AMD bereits am 9.01.2009 auf der CES die Mobility Radeon HD 4000 Serie vergestellt hat, welche in 40nm hergestellt wird.

Deshalb hab ich auch geschrieben: "in Endgeräten verfügbar". d.h. am Massenmarkt angekommen und nicht nur vorgestellt.
 
johnieboy schrieb:
Hab dazu bereits am 30.08 nen Thread aufgemacht, wurde aber von den Unyus dieser Welt als unglaubwürdig abgetan, weils Charlie als erster Vermeldet hat.

https://www.computerbase.de/forum/t...r-2xx-karten-in-3xx-karten-umbenennen.629223/

Tja offensichtlich hatte er doch recht....:rolleyes:
Eine entscheidende Frage ist, ob du neben Beleidigungen auch Fakten liefern kannst.
Ich kann in dieser News keine neue Informationen ablesen.

Was bleibt ist der Umstand, das eine GF 300M keinen Sinn macht, solange es keine GF300 High-End Lösung gibt.
Klar man kann auch einfach denken das sich die HD5 nicht von der HD4 absetzt, dann macht auch das Sinn, bitte.


Das spannenste an der News besteht immer noch, was dir auch bekannt ist, da du meinen Post gelesen hast:
Es gibt keine Geforce GT 230M.
Nicht bei Nvidia.
 
natürlich macht das Sinn.

die hd5000 sind nicht verfügbar zum launch der neuen intel cpus, umgelabalte und verkrüppelte(128,96,64 shader) g92 jedoch in rauhen Mengen.


Was sieht wohl besser aus : ein Notebook mit brandneuem Intel Prozessor und "brandneuer" NV 3xx oder eins mit hd4670 ?

das der gleiche chip dann warscheinlich schon über 20 verschiedene Karten-Namen hervorbringt ist nicht mehr entscheident, was zählt ist einzig und allein das man als erstes diesen neuen Namen in Petto hat und damit werben kann.
 
das der gleiche chip dann warscheinlich schon über 20 verschiedene Karten-Namen hervorbringt...

es ist definitiv nicht der gleche chip. der unterschied zur 9800 ist immerhin so groß wie zwischen hd2900 und hd4850! (die-shrink, gddr5-controller, dx10.1)
einzig die frage, ob die neuen chips auch dx11 unterstützen, ist noch ungeklärt. daher ist das ganze gebashe imho auch noch etwas verfrüht.
 
johnieboy schrieb:
wurde aber von den Unyus dieser Welt als unglaubwürdig abgetan,

Es gibt nichts, was die Unyus dieser Welt nicht besser wissen. Besonders witzig wenn sie über Nvidia Bashing ne Träne drücken, obwohl sie es selbst doch umgekehrt mit mehreren tausend Posts schon seit Jahren tun.
 
@Lübke:

Sicher hast Du nicht ganz unrecht.

Allerdings muss man auch sagen das NVidia sich das ganz klar selbst eingebrockt hat mit ihrer Umlabelei.
Wie heißt es doch so schön: Man trifft sich im Leben immer mindestens zweimal :p
 
Lübke schrieb:
naja ganz so ist es auch nicht. die aktuellen mobil-gpu haben ja bis auch dx11 schon alles, was die neue generation bringen soll: gddr5, 40nm-shrink und mit dx10.1 sind sie schon weiter als die g200-gpus.

Das stimmt zwar, mit der Architektur des kommenden GT300 haben sie doch aber trotzdem nix gemeinsam, sondern basieren ja (vielleicht) auf dem eigentlichen GT200. Die drei Punkte, die du nanntest, kann man den Desktop-Karten ja auch problemlos verpassen (wenn man wollte) Das ist ja die Kundenverarsche. Kein DX11, keine neue "Technologie" (also neue Architektur/-verbessungen). Der G92 wurde/wird als "GTx 2x0M" vermarktet, die GT200-GPU dann als "GTx 3x0M". Sauerei sowas. GT200 und G92 nehmen sich ja nicht soviel, aber beim GT200-->GT300 fällts ja vielleicht doch mal auf?

Und wenn die DX11-NB-GPUs kommen, was ist dann? Wird daraus dann die 400er-Serie? Will man dann den GT300 (der ja vermutlich als GTX380 erscheint) dann auch gleich wieder umlabeln?

Unyu schrieb:
Das spannenste an der News besteht immer noch, was dir auch bekannt ist, da du meinen Post gelesen hast:
Es gibt keine Geforce GT 230M.
Nicht bei Nvidia.


Nicht?
:kopfkratz
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Jetzt bist du mir schon zweimal zuvorgekommen, den wollte ich auch grade ausgraben ;)

hehe ;)

KAOZNAKE schrieb:

Dieses mal warst du schneller, den Link hatte ich auch im Hinterkopf :D

Unyu schrieb:
Eine entscheidende Frage ist, ob du neben Beleidigungen auch Fakten liefern kannst.
.
milamber! schrieb:
Es gibt nichts, was die Unyus dieser Welt nicht besser wissen. Besonders witzig wenn sie über Nvidia Bashing ne Träne drücken, obwohl sie es selbst doch umgekehrt mit mehreren tausend Posts schon seit Jahren tun.

Besser hätte ichs gar nicht ausdrücken können :lol: Bist schon sehr empfindlich wenn du das als Beleidung empfindest.

Zu den Fakten: Die liefert Nvidia doch selbst mit ihrem Treiber :lol:


Unyu schrieb:
Das spannenste an der News besteht immer noch, was dir auch bekannt ist, da du meinen Post gelesen hast:
Es gibt keine Geforce GT 230M.
Nicht bei Nvidia.

siehe Link von KAOZNAKE;)
 
Das stimmt zwar, mit der Architektur des kommenden GT300 haben sie doch aber trotzdem nix gemeinsam, sondern basieren ja (vielleicht) auf dem eigentlichen GT200.

das ist nur ne vermutung von dir. genauso wahrscheinlich ist aber auch das gegenteil, dass die bisherigen 40nm-gpus eine frühe version der kommenden 40nm-gpus sind und diese wahrscheinlich dx11 unterstützen. somit wäre dx10.1 ein logisches "downgrade" der gpus, um den eigenen desktop-gpus nicht zuvorzukommen. vermutlich wird nvidia als erstes die komplexen highend-gpu mit dx11 auf den markt loslassen und dann erst diese kleinen ableger. allerdings von der herstellung ergibt es genau andersrum sinn: erst die einfacheren chips produzieren um erfahrungen zu sammeln und ggf. fehler auszumerzen.
in dem fall wären bei den dx10.1-gpus einfach teile per lasercut (oder sogar treiber?) deaktiviert worden, die eine vollständige dx11-kompatibilität erfordern würden. dannwäre diese "kleine update" ein vollwertiger g300-ableger und der name würde passen.
auch nur ne vermutung, aber imho klingt das logischer, weil die neuentwicklung einer dx10.1-gpu für mal kurz zwischendurch und nur fürs notebook imho sonst wenig sinn gemacht hätte und die entwicklungskosten für diese generation, die nichtmal einen eigenen namen hat, wohl fast völlig als reinverlust verbucht werden könnten.

dritte variante: nvidia hängt mit der entwicklung der dx11-karten so weit hinterher, dass sie tatsächlich eine g300-serie mit dx10.1 unterstützung bringen und die dx11-gpus bereits mit g400 benannt werden. es gab ja neulich gerüchte, dass der g92 in 40nm und mit gddr5-controller kommen soll. dazu noch dx10.1 implementiert und evoila: fertig ist die gts350. zusammen mit diesem artikel würde das ganze dann wieder ein logisches (wenn auch aus sicht von nv unvorteilhaftes) bild ergeben...
man darf gespannt sein^^
 
Zuletzt bearbeitet:
gruffi schrieb:
Ich denke, da liegst du falsch. Mit den Compute Shadern stehen den Entwicklern in Version 11 erstmals ganz neue Möglichkeiten zur Verfügung, Anwendungen auch abseits von Spielen zu beschleunigen.
Aber bis es "Standard" ist, vergehen noch ein paar Jährchen -bis dahin hat man eh schon wieder einen neuen Notebook. Insofern ist DX11 im Notebook derzeit nicht wirklich von Interesse. Außerdem ist eine Beschleunigung über GPU in "normalen Anwendungen" optional, sonst könnte ich sie ja auf alten/IGP-basierten Rechnern nicht ausführen. Ich (wie auch der restliche "Mainstream") brauche DX11 also in den 2 Jahren vermutlich nicht...
Die größere Verbreitung, und die damit größere Motivation der Porgrammierer es zu verwenden ist natürlich toll, da so mehr Anwendungen auf den Markt kommen. Insofern freue ich mich auch, dass DX11-HW kommt.

gruffi schrieb:
@topic
Irgendwie nimmt das Rebranding von nVidia mittlerweile ziemlich groteske Züge an. :rolleyes:
Dem kann ich mich anschließen! Allerdings ist es auch nur Marketing. Soferns nicht wirklich exakt der gleiche Chip ist (8800GT => 9800GT) habe ich eh kein Problem damit. So kann man 40nm von 55nm leicht unterscheiden, anstatt beim Versandhandel zu Pokern obs nun 55 oder 40nm sind. Aus dieser Sicht ist eine Änderung des Names durchaus sinnvoll, wenn auch etwas verwirrend.
 
Lübke schrieb:
es ist definitiv nicht der gleche chip. der unterschied zur 9800 ist immerhin so groß wie zwischen hd2900 und hd4850! (die-shrink, gddr5-controller, dx10.1)

von welcher 9800 sprichst du ?


ich sehe eine 250 sowie 260 mit dx 10.1, aber das kann man kaum vergleichen.

die-shrink juckt niemanden, die recheneinheiten sind gesunken (128->96), gddr5 juckt auch keinen, denn die anbindung ist auf 128bit gesunken.

toll, da haben sie jetzt dx10.1, trotzdem sind sie 25% langsamer als ein stinknormaler g92.


insgesamt würde man also eine stinknormale 8800gts (g92) immer noch vorziehen, weil diese deutlich schneller ist als alle 9 mobilen Varianten davon die bis jetzt(!!!) in 4 Generationen erschienen sind.

denjenigen der eine hd2900 einer 4850(gerne auch mobil, macht bei ati ja eh kaum was aus) vorziehen würde zeigst du mir aber mal.


Fakt ist das diese Karten ein Schnellschuss sind um in die neuen intel books zu kommen und das man hier wieder uralt gammel verkauft, der jetzt halt mit dx10.1 in der 5ten Generation auftaucht.

man überlege sich mal wie das bei ati aussehen würde...eine x1000er Karte als hd5000 verkauft.

Hey, das wäre doch eine Klasse Idee, ich würde meine alte x1900 sofort spendieren. Schneller als die ganzen 8600gt Klone, die sich mitlerweile auch bis in die 200er Klasse hochbenannt haben, ist die allemal noch.
 
Zu der Aussage, dass es keine Geforce GT 230M gibt, kann ich nur mit einem Link antworten.
 
@Realsmasher: meine aussage war ausschließlich auf die technologie und die generationsbezeichnung bezogen. die leistungsklasse hab ich gar nicht mit einbezogen, darum fehlen bei mir auch sämtliche näheren bezeichnungen (gt/s/x, gt/pro/xt) wenns dir besser gefällt, kannst du stellvertretend für ati auch 2600xt und 4550 nehmen, da wäre die 2600xt dann wohl die bessere wahl ;)
was die neuen chips zu leisten im standes sind, können wir ja noch gar nicht abschätzen. vergiss nicht, der chip wird um 3/7 reduziert, das erlaubt bedeutend höhere taktraten. eine 9600gt kanns auch mit einer 8800gts g80 aufnehmen und das war nur ein shrink von 65 auf 55 nm ;)
 
Lübke schrieb:
[...]wenns dir besser gefällt, kannst du stellvertretend für ati auch 2600xt und 4550 nehmen, da wäre die 2600xt dann wohl die bessere wahl ;)[...]

Der Nachfolger (im Geiste) der 2600XT ist doch vielmehr die 4670. Und da stehts 7000 zu 4200 Punkten im 3Dmark06.

Quelle

Zudem ist diese ein "echter Abfolger" des RV770. Kein umbenannter RV670.

Und genau DAS ist das Problem, das NVIDIA hat. Einen neuen Highend-Chip rausbringen und eine neue Gernation einläuten-->Klare Sache, so wirds gemacht. Davon dann Ableger rausbringen und ebenfalls neu bezeichnen-->Völlig logischer Schluss.

Aber momentan kommt der Highend-Chip und dann gar nix mehr (GT200 Derivate irgendwer? Unter der GTX260 gibts keine Graka, die auf diesem Chip basiert. Alles G92 (oder andere)). Stattdessen werden die alten Garden umbenannt und als neu verkauft. Manchmal noch bissl aufgehübscht.

Warum ich davon ausgehe, das die GT250M usw. auch nur aufgebohrte G92 sind? Weil die GTX280/260 tatsächlich darauf basieren, selbst laut NVIDIA. Bei den "neuen" GPUs darunter wird das nicht anders sein, auch wenn NVIDIA was anderes behautptet. Denn der Desktop GT200 unterstützt auch kein DX10.1 oder GDDR5. Was man da hinzufügen kann, kann man beim G92 auch einbauen.

Weiter sind die Codenamen "identisch".

Siehe GTX 280M Die hat den Codenamen N10E-GTX

Die 250M hat den Codenamen N10E-GE

Der G92b hat also den Codenamen N10..., sollte der GT200 (zumal 40nm) nicht N11... haben?

Nichtmal Charlie blickt da durch.

"D11 is the code name for the 40nm shrinks of, well, we aren't really sure anymore. They could be G9x derivatives, or they could be G200 based, but since they are legitimate shrinks, we'll give them the new generational name."
 
Zuletzt bearbeitet:
Der Nachfolger (im Geiste) der 2600XT ist doch vielmehr die 4670.

nochmal zum verständnis: zur leistung habe ich überhaupt keine aussage getroffen. es geht nur um den vergleich hd2k zu hd4k. der technische vortschritt und die generationsbezeichnung. bei ati haben die-shrink und dx10.1 eben zum sprung von 2900xt auf 3870 gereicht. die 4870 kam dann noch mit gddr5 und mehr leistung daher, also zwei generationssprünge.
die leistung müssen wir hier mangels infos ausklammern, aber die-shrink, dx10.1 und gddr5 rechtfertigen imho schon einen generationssprung im namen. ob tatsächlich dx10.1 oder schon dx11 geboten wird, ist noch ungewiss. tatsache ist aber, dass der n10e-gtx weder einen gddr5-speicherkontroller noch 40nm-fertigung noch dx10.1 zu bieten hat.
interessant ist wie gesagt, nicht allein, ob diese notebookchips dx11 zu bieten haben, sondern ob die highend- und vor allem desktop-derivate mit gleicher dx-version auch die gleiche bezeichnung erhalten oder ob nv einige g300 mit dx10.1 und einige mit dx11 vermarktet.
was die internen bezeichnungen bei nv angehen, ehrlich gesagt finde ich die seit dem g200 noch besch**erter als die verkaufsbezeichnungen ^^

ich hab ja eben das beispiel mit dem g92 @ 40nm, gddr5-controller und dx10.1 gebracht. wenn nv wirklich nicht schritt halten kann und eine generation mit dx10.1 dazwischen schiebt und die dx11 karten anschließend als g400 vermarktet, dann passt doch alles wieder, oder etwa nicht?
 
Zuletzt bearbeitet:
Zurück
Oben