Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erste genaue Details zu Nvidias „GT212“-Chip
- Ersteller Jan
- Erstellt am
- Zur News: Erste genaue Details zu Nvidias „GT212“-Chip
ExcaliburCasi
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.690
AndrewPoison
Admiral
- Registriert
- Jan. 2005
- Beiträge
- 8.521
dorndi schrieb:ich glaube nicht dass sie schon im 2Q erscheint, da sie schon bei der 55nm 260gtx anscheinend probleme mit leckströmen haben (daher auch größerer stromverbrauch wie bei der 65nm gtx)
Das war/ist nicht der Grund für den höheren Stromverbrauch. Aufgrund der geringeren Leistungsaufnahme konnte man auf ein einfacheres Layout der Spannungsversorger etc. zurückgreifen, die allerdings nicht ganz so effektiv sind. Dadurch sinkt der Strombedarf der Grafikkarte, der Stromverbrauch hingegen steigt.
Im übrigen muss es nicht zwangsläufig so sein, dass ein Chip, der schlecht auf 55nm ging, auch schlecht auf 40nm geht. Schließlich gibt es verschiedene Verfahren, um diese Strukturen zu bewerkstelligen. Und wenn eine davon mal mit dem eigenen Chipdesign Probleme macht, gibt es mehrere Möglichkeiten dies für eine gewisse zukünftige Zeit unter Kontrolle zu bekommen.
Zuletzt bearbeitet:
Ich bin grad etwas verwirrt, weil ich immer davon ausgegangen bin, dass der GT300 der nächste große Wurf werden soll und jetzt will man Shader etc. bereits in einer "Zwischenversion" erheblich erhöhen.
Ist die Konkurrenz vom GT212 dann jetzt der 5870, oder wird der 5870 erst gegen den GT300 antreten - wie ursprünglich geplant?
Weiterhin wär es dann noch interessant zu wissen, wann denn der GT300 erscheinen wird, oder ob sich dessen Erscheinen verzögern könnte. In diesem Zussammenhang kam mir gerade die Idee, ob man den GT212 nach einiger Zeit vielleicht als Mittelklasse bzw. gehobene Mittelklasse einsetzen wird und dementsprechend auf Basis des GT300 das Highendsegment abdeckt?!
Ist die Konkurrenz vom GT212 dann jetzt der 5870, oder wird der 5870 erst gegen den GT300 antreten - wie ursprünglich geplant?
Weiterhin wär es dann noch interessant zu wissen, wann denn der GT300 erscheinen wird, oder ob sich dessen Erscheinen verzögern könnte. In diesem Zussammenhang kam mir gerade die Idee, ob man den GT212 nach einiger Zeit vielleicht als Mittelklasse bzw. gehobene Mittelklasse einsetzen wird und dementsprechend auf Basis des GT300 das Highendsegment abdeckt?!
Warum nicht? der GT212 ist ja nicht erst seit gestern in mache. Der wird wohl spätestens seit dem G200 in Angriff genommen.ExcaliburCasi schrieb:Erst verzögert sich Monatelang der Fertigungsprozess von 65nm auf 55nm und jetzt wollen sie wenige monate danach den sprung auf 40nm schaffen? Incl. einiger veränderungen der ausstattung des Chips ?
Was hat der 55nm Prozes mit dem 40nm Prozess zu tun?
IMHO unwahrscheinlich. Dann hätten sie ja wieder so nen extrem großen Klopper. Ich würde mal behaupten es kommt kein größerer Chip mehr in 55nm.Ich gehe eher mal davon aus das dann Mai so ca. erstmal 55nm varianten rauskommen, die dann Q3 09 geshrinkt werden
Eine GTX285 wird wohl 155 GB/s Speicherbandbreite haben. Mit effektiven 5GHz GDDR5 wäre man mit nem 256bit SI bei 160GB/s. Sollte wohl reichen, bis das Teil produziert wird gibt es vll. schon schnelleren.Ob sie mit den 256Bit aber auskommen, naja wer weiß wie hoch die den Speicher Takten
Man wird wohl auch in der Mittelklasse möglichst schnell DX11 Karten anbieten. Aber eine kurze Zeit lang wird das wohl zwangsläufig so sein, aber längerfristig eher nicht.autoexe schrieb:In diesem Zussammenhang kam mir gerade die Idee, ob man den GT212 nach einiger Zeit vielleicht als Mittelklasse bzw. gehobene Mittelklasse einsetzen wird und dementsprechend auf Basis des GT300 das Highendsegment abdeckt?!
Zuletzt bearbeitet:
Papst_Benedikt
Captain
- Registriert
- Apr. 2007
- Beiträge
- 3.592
Nochmal wegen Fertigungsgröße: Also wenn ich richtig informiert bin, dann basieren doch Quantenprozessoren auf Supraleitern. Und, dass die erst mal supraleitend werden, muss man die doch auf minus zweihundert-und-nochwas Grad runterkühlen. Da dürfte das "Kühlungsproblem" gleich mal ganz neue Ausmaße annehmen! Wird dann eine CPU/GPU standartmäßig mit einer Boxed Flüssigstickstofffertigungsanlage ausgeliefert? Also Quantenprozessoren halte ich nur bedingt für eine Lösung der immer kleiner werdenden Pertigungsprozesse. Aber interessant is es allemal, was dann kommt, wenns halt nicht mehr kleiner geht...
FreeZer_
Captain
- Registriert
- Apr. 2008
- Beiträge
- 3.530
FloW3184 schrieb:was ich faszinierend finde ist die tatsache, dass nvidia auf "teufel-komm-raus" auf DX10+CUDA hängen bleibt...
mitte 2009 wird es schon erste DX11-Karten von ATI geben.
Naja, ich denk zwar schon, dass da schon DX11 kommt, aber mal ganz im Ernst? Wayne. DX11 ist dann doch eh nur Marketing Sache
Beispiel: DirectX 10 gibts nun schon seit mehr als 2 Jahren - und es gibt kaum mehr als ein Dutzend Spiele, die es unterstützen.
Bis sich DX11 wirklich durchgesetzt hat, sind wir schon 3-4 Graka-Generationen weiter. Da bin ich mir sicher.
ExcaliburCasi schrieb:2001 hieß es von Intel: "15 statt bislang 20 Nanometer. Produktionsreif soll der Winzling 2009 sein." Link
Wird wohl nichts draus
das hast du aber etwas falsch verstanden^^
Im Text ist davon die Rede, das die Gatelänge auf 20 respektive 15nm schrumpfen soll...das ist schon was anderes als der Fertigungsprozess/die Strukturbreite die letztendlich verwendet wird.
Steht auch etwas weiter unten im Text:
"mit dem Fertigungsprozess P1268 bis 2009 in Serie (...) arbeitet mit einer Strukturbreite von 30 Nanometern"
Quelle: tecchannel.de, 2001
Und weiter oben:
"kleinste funktionierende Transistor bei Intel mit einer Gate-Länge von 15 Nanometern auskommt"
Quelle: tecchannel.de, 2001
Und das Intel 2009 oder spätestens 2010 die ersten 32nm-Chips aufn Markt werfen will, ist ja allseits bekannt.
Von daher, OHNE für Intel hier werben zu wollen, finde ich, ist das schon eine beträchtliche Leistung bei solch Komplexen Produkten eine Vorhersage dafür zu stellen, was in 8 Jahren(!!!) kommt und damit auch noch in etwa richtig zu liegen (30nm angesagt, 32nm kommt 2009/10).
Dazu sag ich nur zweierlei: wurd wohl was draus UND Hut ab!
Und noch schnell hinterher, um das OT ein bissl zu komplettieren^^: Ich freu mich trotzdem erstmal über den Deneb, als nächsten wichtigen CPU-Launch
Hoffentlich erhöhen sie beim 256-Bit-SI dann auch die ROP-Anzahl von 16 auf 32. Der GT200 hat ja auch 32 ROPs. Eine halbierte Pixel- und z-Füllrate würde der Performance auf jeden Fall merklich schaden, vor allem mit hohen (SS)AA-Modi wie sie eben vor allem von High-End-Käufern genutzt werden.
Evtl. würde der GT212 bei gleichen Taktraten wie der GTX 285 trotz 60% mehr Shaderleistung und 20% mehr Texelfüllrate in Spielen kaum bis gar nicht schneller werden als die GTX 285, wenn die Speicherbandbreite gleich bleibt und die Pixel-/z-Füllrate sogar halbiert wird.
Mit 32 ROPs würde ich im Vergleich zur GTX 285 mit 25% mehr Leistung in Spielen und 50% mehr Leistung bei CUDA rechnen (bei gleichen Taktraten, nur eben mit GDDR5 statt GDDR3).
Evtl. würde der GT212 bei gleichen Taktraten wie der GTX 285 trotz 60% mehr Shaderleistung und 20% mehr Texelfüllrate in Spielen kaum bis gar nicht schneller werden als die GTX 285, wenn die Speicherbandbreite gleich bleibt und die Pixel-/z-Füllrate sogar halbiert wird.
Mit 32 ROPs würde ich im Vergleich zur GTX 285 mit 25% mehr Leistung in Spielen und 50% mehr Leistung bei CUDA rechnen (bei gleichen Taktraten, nur eben mit GDDR5 statt GDDR3).
Zuletzt bearbeitet:
TheDuffman
Lt. Junior Grade
- Registriert
- Sep. 2006
- Beiträge
- 505
FreeZer_ schrieb:Klingt mal sehr vielversprechend - mal sehen, wieviel nachher noch davon übrig ist ^^.
Bei 1.8m transistoren unter 300mm² ? Das mit 60% mehr Shadern? Das klingt eigentlich schon zu gut, um wahr zu sein .
Vielversprechend für AMD?
Sollten sich diese Daten bewahrheiten, sehe ich schon dass nächste Millionengrab für Nvidia. Ein Chip mit 1,8 Mrd Transistoren und ein neuer Fertigungsprozess lassen die Ausbeute wahrscheinlich gegen Null tendieren. So kann das nichts werden. Dachte eigentlich man will von den Monsterchips weg kommen.
Klamann
Lieutenant
- Registriert
- Nov. 2006
- Beiträge
- 963
So einen hat meine Schwester heute noch in Verwendung. Was eine Stromverschwendung>|Sh4d0w|< schrieb:26. Februar 1999 kam der Pentium III (Katmai) raus. (9,5 Millionen Transistoren) bei 250 nm
Sehe ich genauso. Das Speicherinterface halbieren, Shadereinheiten um 60% erhöhen und noch auf 40nm umstellen, das ist mehr als ein simples Refresh. Nvidia war in der Vergangenheit doch mit Neubenennungen schon nicht sparsam. Wieso hier nicht gleich GT300? Geschätzte 40-50% Mehrleistung dürften einen neuen Namen doch wohl wert sein.Laurin. schrieb:Von den Leistungsmerkmalen scheint es nicht einfach ein weiterentwickelter GT200(b) zu sein. Der Unterschied der Spezifikationen ist in meinen Augen zu groß.
Ich vertraue der News nicht so ganz. Falls dieser Chip mit den Spezifikationen kommt, dann wohl eher nicht Q2 2009, sondern ein wenig später.
Du vergisst, dass die Speicherverwaltung bei 256bit deutlich effizienter ist, da Pakete nicht mehr künstlich auf 512bit, sondern nur auf 256bit aufgefüllt werden müssen.Laurin. schrieb:In gewissen Spielen mit gewissen Qualitätseinstellungen ist ja immer wieder die Rede vom "volllaufenden Grafikspeicher". Laut der News plant NV den Einsatz von GDDR5 (Was mich für den derzeitigen einzigen ?? Zulieferer Quimonda im übrigen freuen würde) aber gleichzeitig reduziert man das Speicherinterface. Werden wir trotzdem Grafikkarten mit 2 GB effektivem Grafikspeicher sehen ?
Das ist wie mit 32bit und 64bit Arbeitsspeicher. Ein Umstieg von 3GB@32bit auf 4GB@64bit lohnt kaum, da der 32bit Speicher einfach sparsamer mit seinen Daten umgehen kann.
Dennoch wird Nvidia dem neuen Flaggschiff mind. 1GB Speicher verschaffen, allein schon aus Marketinggründen. Ich kann das nur begrüßen - die einzige Alternative zu Speicher ist mehr Speicher
Pimpi18 schrieb:1999 kam die Geforce 256 raus diese wurde in 220 nm gefertigt. Quelle Wikipedia
Immer langsam
Im März 99 kam laut der Wiki-Vergleichstabelle erstmal er NV5 in Form der TNT2 raus. Der war noch in robusten 250nm gefertigt.
Der Shrink stand aber wohl unmittelbar an und so kam im Juli 1999 der NV6 in 220nm auf der TNT2 M64.
Die GeForce 256 kam erst später im Jahr.
Ich hab mal grob alle Prozesse zusammen mit der Chip-Einführung in ne Tabelle eingetragen, ein Diagramm geplottet und ne Trendlinie (exponentieller Verlauf) hinzugefügt. Danach wirds in 10Jahren schätzungsweise bei den 15nm liegen die bereits genannt wurden
P.S.: Hab übrigens noch ne Riva128 hier am rumliegen die noch läuft. Wurde damals in 350nm gefertigt und benötigte keinerlei Kühlung
MfG
GT300 = D3D11 + größere Architekturänderungen + dynamische Taktraten (energieeffizienter)Klamann schrieb:Wieso hier nicht gleich GT300?
Der GT212 ist im Prinzip auch nur ein breiterer G80 mit breiteren Shaderclustern (und mehr davon) und vermutlich kleineren ROP-Partitionen, die nun an GDDR5-Speicherinterfaces gekoppelt sind (statt GDDR3). Die Mikroarchitektur ist dieselbe wie beim G80, das Featureset auch (mal abgesehen von den Double-Precision-Einheiten).
Zuletzt bearbeitet:
Neocroth
Ensign
- Registriert
- Aug. 2007
- Beiträge
- 190
ExcaliburCasi schrieb:Wird wohl nichts draus
Doch, sie sind im Zeitplan. Wenn du den Text liest, findest du folgenden Abschnitt:
Dieses Verfahren arbeitet mit einer Strukturbreite von 30 Nanometern, heute sind 130 Nanometer in der Serienfertigung Stand der Technik.
Es sind zwar nicht 30nm, sondern 32nm - aber laut Intels Tick-Tock Modell sollten die ersten 32nm-Prozessoren noch gegen Ende dieses Jahrs (in homoöpathischen Dosen) den Markt erreichen.
Zur News:
Die 60% an zusätzlichen Shadern sind meiner Meinung nach höchst unrealistisch - das Plus an TMUs kann ich mir eher vorstellen. Ich glaube nicht, das nVidia vom 3:1 Verhältnis abweichen wird, da man damit bisher sehr gut gefahren ist. Unvorstellbar wäre es natürlich nicht, wenn man im Auge behält, das nVidia stark in den GPGPU-Markt drückt.
Was ich mir auch nicht vorstellen kann: wie sollen 1,8 Milliarden Transistoren (trotz 40nm Fertigung) auf weniger als 300mm² passen? Wenn ich nur die Verhältnisse zwischen GT200 in 65nm und 55nm vergleiche (576mm² und 470mm²), dann sind schon 1,4 Milliarden Transistoren bei 40nm und 300mm² nicht ganz stimmig. Ich weiß nicht genau, wieviel Platz jeweils TMU und ein Shader brauchen, aber unter 400mm² kann ich mir das (besonders bei 60% mehr Shadern und 20% mehr TMUs) nicht vorstellen.
Außerdem: Ich habe mich schon öfter gefragt, warum bei GPUs inzwischen immer öfter schon auf Half-Node Prozesse zurückgegriffen wurde, aber bei CPUs nicht. Gibt es dafür einen plausiblen Grund?
Einhörnchen
Rear Admiral
- Registriert
- März 2007
- Beiträge
- 5.137
Schön zu sehen, dass endlich mal wieder richtig Schwung in den Markt kam. Soviele neue Grafikkarten in so kurzer Zeit gab es schon lang nicht mehr.
Ähnliche Themen
- Artikel
- Antworten
- 15
- Aufrufe
- 1.356
- Artikel
Leserartikel
8 Kerne sinnvoll? Ryzen 6000 und RTX 3050 im Test
- Antworten
- 35
- Aufrufe
- 4.756
Leserartikel
Kühler- gegen Steckergate: DevPandis Hin und Her
- Antworten
- 72
- Aufrufe
- 16.265
- Antworten
- 0
- Aufrufe
- 1.928
- Angepinnt
- Antworten
- 122
- Aufrufe
- 31.170