News Nvidia-Treiber verrät GeForce-300M-Familie

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
Ausgerechnet Microsoft verrät mit einem vornehmlich für Windows 7 bereitgestellten Treiber-Update Details über Nvidias zukünftiges Notebook-Grafikkarten-Portfolio. So finden sich in den Tiefen des aktuellen Notebook-Treibers mit der Versionsnummer 186.91 zahlreiche Device-IDs der GeForce-300M-Familie.

Zur News: Nvidia-Treiber verrät GeForce-300M-Familie
 
schon krass, was alles an informationen aus solchen treibern gelesen wird -.-

Ich frage mich trotzdem, wie sinnvoll GDDR5 speicher in Notebookgrakas ist.

Wenn die karten erst so spät vorgestellt werden sollten, denn wundert es mich aber, dass sie kein DX11 unterstützen, oder es höchst unwahrscheinlich ist, dass sie es tun.
 
Die werden wohl wieder Chips mit einem neuen Stepping auch neue Namen geben, gabs doch auch bei den 8600GT M/9600GT M Chips
 
Meine Fresse, die sollen endlich die Mittelklasse leistungsmäßig mal ein bisschen hochziehen, seit der 9600M GT hat sich da ja kaum was getan...:freak:

MfG M.R.
 
Hurrycane schrieb:
schon krass, was alles an informationen aus solchen treibern gelesen wird -.-
Ich frage mich trotzdem, wie sinnvoll GDDR5 speicher in Notebookgrakas ist.

Wenn die karten erst so spät vorgestellt werden sollten, denn wundert es mich aber, dass sie kein DX11 unterstützen, oder es höchst unwahrscheinlich ist, dass sie es tun.
DX11 = wayne -zumindest für Läppis in den nächsten 1-2 Jahren (und ich denke auch am Desktop Markt eher unbedeutend in nächster Zeit...)
Informationen aus Treibern ist lediglich Spekulation & Vermutung.
GDDR5 is super! braucht ja imho weniger Strom...

M.R. schrieb:
Meine Fresse, die sollen endlich die Mittelklasse leistungsmäßig mal ein bisschen hochziehen, seit der 9600M GT hat sich da ja kaum was getan...:freak:
indeed... Laptop GraKas wurden total vernachlässigt. Aber wenn sie die 8800GT in 40nm fertigen, am besten in einer neuen revision, dann würde die bald als billige und schnelle laptop-Graka in Frage kommen... XD
Auf jeden Fall besser als eine neuer, teurer Chip, der zwar technologisch alle Stückeln spielt (DX11 GDDR5), aber so stark gedrosselt wurde um den Stromverbrauch/Abwärme in den Griff zu kriegen. Besser älter, schnell und billig als neu, heiß und langsam...

MfG, Thomas
 
Zuletzt bearbeitet:
Also ist doch ganz klar, Nvidia baut in die 200er reihe noch 10.1 ein und labelt dann wie so oft einfach die Grafikkarten um, eventuell noch ne kleine Takt oder SPU Erhöhung und fertig ist das "neue" Produkt. Brauch keiner zu schreien, sowas würde die doch niemals machen, denn das tun sie schon ne ganze Weile in dem Stil.
 
LOL, also ich habe gerade mal nachgedacht, wo überall bei Laptop- und Desktopgrafikkarten eine andere Version des G92 verbaut wurde.

Also auf den 8800ern, auf den 9800ern, auf den GT 100Mern (:rolleyes:) und mittlerweile sogar auf den GT 200Mern... Also irgendwie komisch... Da sieht man wieder, was passiert, wenn keine wirkliche Konkurrenz da ist...

Keine Firma ist heutzurtage noch kundenfreundlich, man wird nur verarscht. Zum Glück kennen sich aber mittlerweile viele Leute damit aus.

MfG M.R.
 
HighTech-Freak schrieb:
DX11 = wayne -zumindest für Läppis in den nächsten 1-2 Jahren (und ich denke auch am Desktop Markt eher unbedeutend in nächster Zeit...)

Alle Jahre wieder. Der praktische Nutzen von DX11 Hardware liegt hauptsächlich nicht bei DX11 sondern bei DX10 und 10.1 denn bis zum Zeitpunkt des großflächigen Einsatzes des DX11 Featuresets ist die erste DX11 Generation bereits Geschichte.

Sinn macht DX11 Hardware aber trotzdem nicht nur weil der breite Einsatz des neuen Techlevels erst bei entsprechender Verbreitung stattfindet sondern weil sich das Schema durch jede neue (und alte) Generation zieht. Soll heißen das DX10 Hardware die bessere DX9 Hardware ist (bezogen auf die DX9 Generation) aber unter DX10 gegen ähnliche DX11 Produkte kein Land gewinnt.

Für Nvidia ist es wieder mal eine zweischneidige Angelegenheit. Sie haben vor ATI 40nm Notebookchips in Endprodukten, andererseits ist der Zeitvorsprung auf die DX11 Notebookchips von ATI eher gering und die entsprechenden DX11 Chips (für Notebooks) von Nvidia liegen in weiter Ferne.
 
Zuletzt bearbeitet:
Ja und mit ner 8800GTX ist Crysis auch wirklich unspielbar...:rolleyes:

Außerdem weiß noch niemand wie schnell der GT 300-Chip wirklich ist und wie belastend DX 11-Spiele im Gegensatz zu DX 10-Spielen ausfallen.

MfG M.R.
 
Zuletzt bearbeitet:
Selbst 2 4870 im CF sind für Crysis zu wenig. Das gilt im übrigen sobald ein guter TFT vorhanden ist und dieser in der nativen Auflösung betrieben werden soll.

Hier geht es nicht um den richtigen GT300 DX11 Chip sondern um Nvidias DX10.1 Chips ;)

Natürlich weiß man das denn es verhält sich bei jeder Techgeneration ähnlich. Von mir aus können wir da gerne bei der Einführung von T&L anfangen. In dem Moment in dem ein Feature großflächig zum Einsatz kommt ist die ursprüngliche Implementierung nicht mehr zeitgemäß.

Das hat einen sehr einfachen Grund: Der Chip muss ein höheres Techlevel haben als sein Vorgänger UND dabei unter gleichen Voraussetzungen schneller sein. Beides kostet Transistoren und deren Menge kennt nicht nur wirtschaftliche Grenzen sondern auch die der möglichen Taktfrequenz.
 
Zuletzt bearbeitet:
Vorab:
Bitte dies jetzt nicht als einfaches NVidia-Bashing aufzufassen.
Wenn es ähnliches bei ATI/AMD gibt, sagt mal bescheid, ich finde das dann genauso, hm, zweifelhaft...

Den gleichen Namen, für die Mobile-Varianten zu nutzen (z.B. 280m, 260m, 9600gtm usw.), um damit eine Nähe zur eigentlichen Desktopkarte zu suggerieren, welche gar nicht, bis kaum gegeben ist, finde ich grenzwertig.
So ist die 200er Mobile Serie von der Leistung her einfach gar nicht zu vergleichen.
Das finde ich bei ATI/AMD einfach besser (korrigiert mich falls ich da falsch liegen sollte).
Auch wenn bei ATI die Taktraten leicht gesenkt werden mußten, entsprechen die Mobiles im Prinzip genau den Desktopkarten. Sowohl was die Funktionen und Features angeht, alsauch die Leistung.
Somit weiß man als Kunde gleich wo man im Vergleich zu Desktops steht.

Das war bei Nvidia schon bei den letzten Mobiles nicht gegeben.
Das man jetzt auch unterschiedliche Chip-Generationen mit anderen DX-Versionen mixt und als 300er Serie vermarket, macht dies noch schlimmer. Es macht es ja schon dem informierten Kunden (also den Top10%) sehr schwierig da dann genau durchzusteigen.

Bei ATI weiß ich da (aufgrund meines Wissens um Desktopkarten), gleich viel besser wie es bei Mobiles aussieht.

Gruß

Doc

EDIT:
Selbst 2 4870 im CF sind für Crysis zu wenig.
@YforU
Dann schreib in Zukunft mal bitte dazu, dass Du max. Quality bei FullHD meinst (und am besten noch gleich wie gut es dann aussieht).
Denn bei solch pauschalen Aussagen frage ich mich, wie ich Crysis mit ner 1950pro in einer sehr annehmbaren Qualität spielen konnte...
 
Zuletzt bearbeitet:
Ja auf Full-HD mit 8xAA vllt.^^:rolleyes:

Außerdem sollte doch NVIDIA oder insgesamt die Grafikkartenbranche doch erheblich schneller werden in den nächsten Jahren, ich meine ich hab da ne News hier gelesen.

Aber ok, die 6800er Serie mit DX 9.0c war schon teilweise sehr überfordert.

Aber ich sehe keine Probleme mit einer 8800GTX Crysis unter DX 10 flüssig zu spielen.

Stellste einfach die Schatten auf mittel und hast 100% mehr Frames...:freak:

Und außerdem zocke ich z.B. nicht um das letzte Pixel zu bewundern, sondern neue Features in neuen Games zu entdecken und daran meinen Spaß zu haben, von der Grafik alleine her reicht mir eigentlich schon die Source-Engine, wenn ich ehrlich bin, Hauptsache das Game ist auch gut gemacht.

MfG M.R.
 
Zuletzt bearbeitet:
Ich habs' schon auf PCGH geschrieben:
Will euch ja nicht enttäuschen (mh...doch, eigentlich schon ), aber:

in 186.82:

NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"

the same board in 186.42:

NVIDIA_DEV.0CAF.01 = "NVIDIA N11P-GS1"

According to HWiNFO, N11P is GT216:

new GT216 models: GeForce GT 220, D10M2-10, D10M2-20, GeForce GT 230M, GeForce GT 240M, N11P-ES, GT216-INT.

GeForce GT 220/GT 230M/GT 240M (GT216, D10M2, N10P, N11P)
http://www.hwinfo.com/
Also ein weiteres Rebranding - irgendwas muss man ja ATI entgegenzusetzen haben


Die dort angezeigten Grafikkarten haben also herzlich wenig mit der "richtigen" G300 zu tun. Ich weiss nicht ob man das aus allen ableiten kann, aber wenn es "neue" Karten sind, dann einfach leicht überarbeitete, aber von GT300 keine Spur und

damit wissen wir, dass die testphase beendet ist und es nun langsam in die finale produktion geht
schon gar nicht.

Edit:

v186.42:
NVIDIA_DEV.0A20.01 = "NVIDIA GeForce GT 220"
NVIDIA_DEV.0A28.01 = "NVIDIA GeForce GT 230M"
NVIDIA_DEV.0A29.01 = "NVIDIA N11P-GE1"
NVIDIA_DEV.0A2A.01 = "NVIDIA GeForce GT 230M "
NVIDIA_DEV.0A2B.01 = "NVIDIA N11P-LP1"
NVIDIA_DEV.0CAF.01 = "NVIDIA N11P-GS1"
NVIDIA_DEV.0CB1.01 = "NVIDIA N11E-GS1"
NVIDIA_DEV.0CBC.01 = "NVIDIA N10P-GLM4"


v186.82:
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"
NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "

Die kryptischen Namen wie "N11P-LP1" sind nichts anderes als OEM-Modelle/andere Bezeichnungen wie im ersten Zitat angedeutet
 
Zuletzt bearbeitet:
Naja sieht tatsächlich so aus, als ob nV kleine 300M Karten auf Basis von 200ern machen will. Darüber kann man sich jetzt aufregen, aber das überlasse ich mal anderen :D

Viel interessanter finde ich, dass es sehr unwahrscheinlich ist, dass nV Mittelklasse und Lowbudget MOBILE Karten mit der neuen generationen Nummer auf den Markt bringt OHNE vorher die dazugehörige (echte 300er) High-End Karte zu präsentieren. Das lässt vermuten, dass die 300er Karten eher kommen könnten, als zumindest ich erwartet habe... das wär mal was :)
 
Abseits von Benchmarks braucht es kein 8x AA um praktisch alles in unangenehme Bereiche zu drücken.

Aber es ist auch nur ein Beispiel um zu verdeutlichen das die DX10 Hardware bei richtigen DX10 Titeln an ihre Grenzen stößt. Wobei es sich bei den aktuellen DX10 Chips zusätzlich bereits um den leistungsstärkeren Refresh handelt.

FullHD ist meiner Meinung nach keine besonderst abwägige Auflösung denn diese haben bereits Bildschirme unter der 200€ Klasse.
 
Zuletzt bearbeitet:
Wir müssten alle nur noch ATi/AMD kaufen, dann hat ATi/AMD mehr Geld für Entwicklung und NVIDIA muss doch mal was Neues bringen...

Das ist doch genauso wie mit Intel und AMD in Notebooks, einfach lachhaft wie die versuchen mit ihren ollen Turions noch Absatz zu finden...:freak:

Naja, wenn man sich ne Stunde vor einen 24"er setzt und zockt und danach an einen 19"er setzt und eine Stunde zockt, dann ist das egal, ich finde man gewöhnt sich daran zu schnell um sich für´s Zocken nen großen Bildschirm hinzustellen.

ABER wenn man daran arbeitet macht das schon Sinn, da kann man immer Platz gebrauchen.

MfG M.R.
 
Zuletzt bearbeitet:
YforU schrieb:
Selbst 2 4870 im CF sind für Crysis zu wenig.

Naja kommt drauf an in welcher auflösung z.b 2560*1600 16Q und UltraHigh dürfte sogut wie alles im moment vorhandene zu langsam sein :D. Aber was habt ihr immer alle mit Crysis? Is doch tot langweilig das Spiel. Und so unglaublich gut sieht die Grafik jetzt nun auch wieder nicht aus ;),

Und hat der Treiber bis jetzt nicht immer irgendwann irgendwas über irgendwelche neuen Karten verraten? Also ich finde das hätte man vorhersehen können ;)
 
Zuletzt bearbeitet von einem Moderator:
bei richtigen DX10 Titeln
Auch wenns ziemlich OT ist:
Genau da liegt ja der Hund begraben. Es ist eben kein "richtiger"DX10 Titel, sondern ein DX9 Titel mit angeflanschten DX10 Effekten. Reine DX10-Enigens (eben ohne DX9 support) würden wohl tatsächlich das bringen, was DX10 versprochen hat (und in der Praxis bisher kaum eingelöst hat): Mehr Details bei gleicher Performance
 
Crysis ist schon langweilig, nur es hat mir zum Vergleich hergehalten, wenn du dir mal die obigen Beiträge meiner- und andererseits durchliest!:)

Aber dass die Grafikkarten überhaupt alle kommen ist nach wie vor nur ein Gerücht, die GTS 160M z.B. habe ich auch noch nirgends entdecken können...

MfG M.R.
 
Zuletzt bearbeitet:
Zurück
Oben