News Baldiger Start von Nvidias GeForce-600M-Serie?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.546
Neben den offiziellen WHQL-Treiber veröffentlicht Nvidia in regelmäßigen Abständen immer wieder Beta-Varianten, die kein Qualitätssiegel von Microsoft tragen, dafür aber schneller auf Fehler oder neue Spiele reagieren. Und dann gibt es noch Beta-Treiber, die von verschiedenen Quellen ohne Nvidias Unterstützung geleakt werden.

Zur News: Baldiger Start von Nvidias GeForce-600M-Serie?
 
die 610M wird nichts anderes sein als ne 520M etc

das müsst ihr doch inzwischen kennen!

UMLABELN heißt die devise ;)
 
wieso, was stimmt nicht mit der GTX580? nicht mehr prestigeträchtig genug?

zur News: 128bit sollte man endlich abschaffen!
 
Sehr unwarscheinlich. Die 28nm Produkte kommen erst 2012, mal wieder dank TSMC. Und ich glaube das da AMD wie auch bei 40 und 65nm die ersten sein werden die da einen Chip rausbringen.
 
rockwell1080 schrieb:
wieso, was stimmt nicht mit der GTX580? nicht mehr prestigeträchtig genug?

zur News: 128bit sollte man endlich abschaffen!

Weil immer mehr Spiele mehr leistung brauchen als die GTX 580 schafft, beispiel The Witcher 2, Battlefield 3, Metro 2033, Crysis 2 und zukünftige aufwendige Spiele mit DirectX 11
 
thommy86 schrieb:
Von Notebooks will ich aber nicht wissen, ich will wissen wann die GTX 680 kommt für den PC

Für große Chips ist der 28nm einfach noch zu schlecht.

Nikolaus117 schrieb:
UMLABELN heißt die devise ;)

Wenn es sich hier um einen inoffizellen Betatreiber handelt,
dann wird der nur für ersten Samples der kommenden 28nm Chips verwendet worden sein.
Fürs umlabeln braucht man keinen extra Treiber, da reicht es für die selbe Device ID einen anderen Namen zunutzen.

rockwell1080 schrieb:
zur News: 128bit sollte man endlich abschaffen!

Na klar, um einen winzigen Chip unnötig teuer zumachen.
GK107 wird GF108 ersetzen, also GT540 und Co.
Diese kleinen Chips brauchen keine fette Bandbreite.
 
Diese Chips werden so neu und innovativ sein, wie die komplette 300er Serie! :lol:

Das kennen wir doch. Im aller aller besten Fall sind das die Testchips für 28nm und geshrinkte Fermis.
Im aller aller aller aaaaallllller besten Fall sind es aber tatsächlich GK100 Chips. Aber das glaube ich kaum. Woher sollen die auch kommen?

OT:
Das klingt im ersten Moment vielleicht erst einmal etwas dämlich, aber ich würde mir mal den G92 in 28nm geshrinkt wünschen. Denn obwohl der Chip im Vergleich mittlerweile recht langsam ist, war der G92 einer der effizientesten Chips der letzten Jahre. Gerade die 9800GTX+ aka GTS250. Danach waren G200 und Fermi erst recht recht relativ verschwenderische Riesenchips, die eher in Richtung GPU Computing optimiert sind.
Mit einem etwas höher getakteten G92 kann man jeden Konsolenport noch in mittleren bis hohen Details problemlos spielen. Ich mag mir gar nicht ausmalen, wie wenig Saft das Ding bei einem Wechsel von 55 auf 28nm brauchen würde. Das Teil käme unter Garantie ohne zusätzlichen Stromstecker aus.
Und die GTS250 war bei den Foldern@Home wahnsinnig beliebt, da billig und sehr effizient.
Aber ich weiß selbst, dass das nicht passieren wird :(
 
thommy86 schrieb:
Weil immer mehr Spiele mehr leistung brauchen als die GTX 580 schafft, beispiel The Witcher 2, Battlefield 3, Metro 2033, Crysis 2 und zukünftige aufwendige Spiele mit DirectX 11

Zumindest am Beispiel BF3 stimmt das ja so nicht ganz! Denn mittlerweile hat Johan Andersson seinen Community Manager Daniel Matros korrigiert. Denn die empfohlenen Hardwarekomponenten sind für "HIGH" ausgelegt. Also müsste ja eine einzelne GTX580 locker für "ULTRA-HIGH" ausreichen.
 
thommy86 schrieb:
Von Notebooks will ich aber nicht wissen, ich will wissen wann die GTX 680 kommt für den PC

Was muss Dein PC für Arbeiten erledigen welche eine GTX580 ausreizen? Nimmt mich echt wunder! Ausser 3D auf 30" oder GPU Computing kommt mir nichts in den Sinn?!

thommy86 schrieb:
Weil immer mehr Spiele mehr leistung brauchen als die GTX 580 schafft, beispiel The Witcher 2, Battlefield 3, Metro 2033, Crysis 2 und zukünftige aufwendige Spiele mit DirectX 11

Kann ich mir echt nicht vorstellen! Stellst Du im Treiber Deiner Geforce irgend ein 800 fach QSSGAXXMLLSSGA (Du weisst schon;)) Filtering ein! Wenn nicht dann! würde ich das Systemboard tauschen, da stimmt was nicht! Eine GTX580 sollte Witcher 2, Metro 2033, etc... auf Full HD hundertmal schaffen!
 
Zuletzt bearbeitet:
[F]L4SH schrieb:
Im aller aller aller aaaaallllller besten Fall sind es aber tatsächlich GK100 Chips. Aber das glaube ich kaum. Woher sollen die auch kommen?

Kepler ist die erste Weiterentwicklung des Fermidesigns.
Keine komplette Neuentwicklung und wenn auch die 28nm Yield für große Chips noch zu gering ausfällt, so ist es nicht unwahrscheinlich das Nvidia ihre Strategie ändert und diesmal zunächst kleine Chips bringt.
Ob das aber wirklich noch dieses Jahr passiert, ist fraglich.
 
Lexxington schrieb:
Zumindest am Beispiel BF3 stimmt das ja so nicht ganz! Denn mittlerweile hat Johan Andersson seinen Community Manager Daniel Matros korrigiert. Denn die empfohlenen Hardwarekomponenten sind für "HIGH" ausgelegt. Also müsste ja eine einzelne GTX580 locker für "ULTRA-HIGH" ausreichen.

ich zocke zb. auf Ultra mit einer Radeon HD 6970 PCS+ ohne Ruckler(gemeint ist Battlefield 3)
insofern gebe ich dir Recht!:)
 
bisher waren doch alle X10M nur umgelabelte alte. Ich seh nicht ganz warum das dismal anders sein sollte.
 
Die ganze GeForce-600-Serie könnte Fermi-OEM werden (teilweise in 28 nm gefertigt). Kepler wird vermutlich auf GeForce 700 hören.
 
naja, sofern die komplette 6XX Serie in 28nm kommt ist es kein einfaches Umlabeln.

Macht Sinn bei kleinen Chips 128bit einzusetzen und 28nm zu erproben, zumal bei Notebooks die Effizienz ne Rolle spielt ;)
 
Zuletzt bearbeitet:
Ob nun Fermi oder Kepler, es wird ein Videoprozessor ähnlich (vllt besser) des GF119 (GT 520) verbaut sein. Und ich kann Quadro-karten auf Basis dieses Chips für meine Videoworkstation kaum erwarten *.* kein anderer Chip schafft es bis jetzt FullHD in 60Fps oder höher zu Decodieren.
 
ghecko schrieb:
Ob nun Fermi oder Kepler, es wird ein Videoprozessor ähnlich (vllt besser) des GF119 (GT 520) verbaut sein. Und ich kann Quadro-karten auf Basis dieses Chips für meine Videoworkstation kaum erwarten *.* kein anderer Chip schafft es bis jetzt FullHD in 60Fps oder höher zu Decodieren.
Dann solltest du mal über den Tellerrand hinausschauen. Die Intel HD Graphics 3000 in meinem Notebook kann FullHD @ 60 fps flüssig decodieren:



Der Prozessor ist ein Core i3-2310M mit zwei Kernen, Hyperthreading und 2,1 GHz.
Ebenfalls verbaut ist eine Radeon HD 6630M, wenn ich diese fürs Videodecodig und Rendering nutze, gibts Framedrops bei der Wiedergabe des 1080p60-Videos:



Mit der Intel-Grafik gibts auf jeden Fall keine Probleme.
Das Video hab ich von hier: https://docs.google.com/leaf?id=0BzVsbZCTO4l3OGJjMTFlMmQtZmNjZS00MTQzLWE4M2UtZDBiNDJhNTVlN2Nh&hl=en&authkey=CIqHopUH (der Download wurde bei Youtube verlinkt).
 
Das ist interessant, war mir nicht bekannt. Aber für mich gegenwärtig noch unbrauchbar, da der Videoprozessor der Intelchips unter Linux derweil noch nicht wirklich nutzbar ist.
 
Zuletzt bearbeitet:
Zurück
Oben