News Nvidia: Ende 2009 bereits 30% 40-nm-GPUs?

@ Unyu Hoere auf solchen Bullshit zu schreiben!!!

Ich hab keinerlei Aussagen zu RV870, G(T)300, 2010, oder 2011 gemacht.

Ich hab mich nur an die derzeitigen Fakten gehalten. Und da ist die Yieldrate von TSCM beschissen und Nvidia wurde von der eigenen Versicherung, wegen Fehlverhaltens im Fall der fehlerhaften Grafikchips, verklagt.

Dir hingegen bedeuten Fakten gar nichts, du schreibst Schwachsinn und versuchst es anderen anzuhaengen. Nicht umsonst hast du hier im Forum den Spitznamen "Dummschwaetzer" bekommen.
 
Und was die News angeht, nVidia muss halt aufholen was Sie bisher verbockt haben. Wärend ATI's GPU alle auf denn 55nm undlangsam auf denn 40nm Zug aufgesprungen sind hat nVidia gewartet, man siehe der GTX280 bzw. GTX260 192SP.

NV hat ja nicht zu Spaß gewartete sondern hatte immer Schiss das ein brand neue Fertigungsgröße schlecht anläuft oder total unrentabel ist, wie aktuell beim 40nm HD 4770. Wenn NV demnächst GT216 und co. in 40nm bringt könnten sie wieder Pech haben weil der ja gerade miserabel läuft. So viel weniger verbraucht der 40nm Prozess gegenüber dem 55nm auch wieder nicht. Von wegen Verbockt, lieber lieferbar in hohen Stückzahlen als überhaupt nicht mit 5Watt weniger Verbrauch.
 
Neocroth schrieb:
Ich spreche auch von der jetzigen Siliziumtechnologie basierend auf Immersionslithographie.

Das ist aber nicht das Ende der Fahnenstange, und darum gings... ;)
 
Jane Dee schrieb:

wir können nur über Technologien diskutieren, die heute eingesetzt werden ;)

er fragte, wann mit der Verkleinerung Schluss sein wird - darauf habe ich geantwortet. Man kann nichts verkleinern, was aktuell nicht am Markt ist ;)

Edit:

Wenn du es so siehst, kann man aber auch nichts verkleinern, wenn es die Technologie noch nicht zulässt.

Es ist ein Unterschied, ob es die Technologie noch nicht zulässt oder ob diese Technologie nicht existiert - mit Ausnahme am Papier und im Labor unter idealen Bedingungen - und selbst da sind wir von einem Mikroprozessor noch Lichtjahre entfernt ;)

Wir haben Helium und Wasserstoff, können aber trotzdem noch keine Kernfusionskraftwerke bauen...

Laut einem meiner Professoren könnten wir schon, nur ist es noch höchst unrentabel, schwierig zu kontrollieren und die Ausbeute ist momentan mieserabel. Darauf kann man wenigstens aufbauen ;)
 
Zuletzt bearbeitet:
Wenn du es so siehst, kann man aber auch nichts verkleinern, wenn es die Technologie noch nicht zulässt. ;)

Wir haben Helium und Wasserstoff, können aber trotzdem noch keine Kernfusionskraftwerke bauen... :evillol:
 
Jane Dee schrieb:
Wir haben Helium und Wasserstoff, können aber trotzdem noch keine Kernfusionskraftwerke bauen... :evillol:

Irrtum, bauen können wir sie, nur funktionieren sie noch nicht ;)
 
@Antimon
Ha ha, was macht deiner Meinung nach ein Kernfusionskraftwerk aus? Die Architektur etwa? :cool_alt:


@Neocroth
>>und selbst da sind wir von einem Mikroprozessor noch Lichtjahre entfernt

Du meinst Jahre im Sinne von Zeit? Glaube ich nicht. Quantencomputer sind zwar größtenteils nur Theorie, aber bei der Geschwindigkeit des heutigen Fortschritts glaube ich fest daran, dass dies in ein paar Jahren (20?) möglich sein wird.
 
Zuletzt bearbeitet:
Irgendwie alles blabla und wage Vorhersagen was NV da aktuell von sich gibt.
Was Handfestes wäre mal schön.
 
Jane Dee schrieb:
Du meinst Jahre im Sinne von Zeit? Glaube ich nicht. Quantencomputer sind zwar größtenteils nur Theorie, aber bei der Geschwindigkeit des heutigen Fortschritts glaube ich fest daran, dass dies in ein paar Jahren (20?) möglich sein wird.

Gehen wir davon aus, in 20 Jahren neue Technologien auf Kohlenstoffnanoröhrchenbasis in unseren PCs zuhause zu haben: 20 Jahre sind eine EEEEEEEwigkeit in der IT ;) bis dahin sind wir längst am Ende der (nassen) Immersionslithographie.

Mit Quantencomputern rechne ich nicht in näherer Zukunft - im wahrsten Sinne des Wortes :D. Warum? Weil sie im jetzigen Stadium kaum Vorteile bringen und die Technik in den Kleinkinderschühchen ist. Wem nutzt ein extrem schnell errechnetes Ergebnis, wenn bei jeder Berechnung ein leicht anderes Ergebnis herauskommt? ;) momentan ist man soweit ich weiß so weit, dass man durch Neuberechnungen den Fehler so klein wie möglich bekommt und dabei in Summe trotzdem weniger Zeit benötigt. Von der Komplexität heutiger Siliziumchips sind wir aber vermutlich noch weiter entfernt als von der Nutzung von Kohlenstoffnanoröhrchen. Von denen denke ich eher, dass sie in Zukunft (10 Jahre?) eingesetzt werden können.

Ich habe vor einiger Zeit schon mal nett mit einem Professor von mir geplaudert, der meinte, es sei spannend zu überlegen, wann Intel mit dem Tick-Tock-Modell brechen wird, weil die Weiterentwicklung von Fertigungsverfahren zunehmend aufwändiger wird. Seine Prognose lautete 2013 - mit der Einführung von 15nm. Wenn man sich ansieht, dass der 45nm-Prozess 2007 zur Massenfertigung bereit sein hätte sollen und es letztendlich doch nur eine Hand voll Prozessoren am Markt gab... ich denke ebenfalls, das selbe Szenario wird uns dieses Jahr mit 32nm und in zwei Jahren mit 22nm noch viel schlimmer erwarten. Es wird inzwischen schon mit einer Handvoll Tricks gearbeitet, um solch kleine Fertigungsverfahren überhaupt zu ermöglichen - vor 15 Jahren meinte man noch, 22nm wären physikalisch unmöglich.
Wenn nicht noch ein Duzend weiterer Tricks "erfunden" bzw. gefunden wird, dann wirds wohl in den nächsten 6-8 Jahren vorbei sein. Wie schon gesagt, man stößt an zunehmend mehr Grenzen: Tunnelling und Leckströme, Wellenlänge des verwendeten Lichts zur Belichtung der Wafer, Brechungseffekte, zunehmend komplizierter herzustellende Masken und, und, und.

aber ein spannendes Thema, hat mich schon immer interessiert. Schade dass man im Rahmen eines Informatikstudiums wenig davon hört - zumindest in meinem Studium bei uns in Österreich wurde das Thema im Rahmen der Digitaltechnik-Vorlesung eher nur tangiert. Da lernt man Methoden, wie Silizium dotiert wird und wie man in grauer Vorzeit Wafer belichtet hat.

Irgendwie alles blabla und wage Vorhersagen was NV da aktuell von sich gibt.
Was Handfestes wäre mal schön.

logisch, die sind alle vorsichtig geworden, weil man die Aktionäre nicht vor den Kopf stoßen will, wenns nicht so läuft wie angekündigt. Was Handfestes bedeutet soviel wie eine Verbindlichkeit, an die man sich zu halten hat. Also vermeidet man solches tunlichst, bzw. soweit wie möglich.
Aber keine Sorge, da unterscheiden sich nVidia, Intel, AMD, IBM und all die anderen nicht großartig voneinander ;)
 
also ich habe weit weniger Hintergrundwissen wie Neocroth. Studiere auch nur Mathematik ;)

Das es schwer wird für die Chip Ingeneure immer kleine Struktueren herzustellen wird jedem einleuchten...

Ich glaube aber das die Entwicklung nie " stehenbleiben " wird. Entweder man verbessert die Architektur weiter, baut mehrere Chips ins das System blabla

Und wenn das wirklich mal langsam dem Ende geht, wird auch glaub ich mal mehr Richtung anderer Technologien erforscht. Nano Rörchen usw

Warum sollte man Milliarden an Entwicklungskosten in etwas invenstieren wenn man mit normaler Strukturverkleinerung das gleiche verdienen kann ? Und die kosten dürften dabei weit niedriger sein... Wir kaufen nämlich immer noch das was am Markt verfügbar ist und nicht das was theoretisch in 3 Jahren Forschung für XX Milliarden Dollar entwickelt werden kann.

In Summe will ich mit meinem Post nur sagen, wenn Intel und AMD langsam die Luft ausgeht, wird mehr Geld in die Forschung gesteckt als es jetzt vielleicht gemacht wird.
 
Neocroth schrieb:
Von der Komplexität heutiger Siliziumchips sind wir aber vermutlich noch weiter entfernt als von der Nutzung von Kohlenstoffnanoröhrchen. Von denen denke ich eher, dass sie in Zukunft (10 Jahre?) eingesetzt werden können.

Seh ich ähnlich. Vor 2012 wird 22nm nicht erhältlich sein, eher 2013 oder später. Und ich glaube auch nicht, dass wir dann nochmal etwas kleineres sehen werden. Die Probleme hattest du ja schon angesprochen.
Sattdessen wird man zu Kohlenstoff übergehen. Diese werden bereits heute von mehreren Firmen "Stückweise" verkauft. Muss nur noch ein Design entwickelt werden und eine Methode wie man die einzelnen Teile verbindet. Aber ich bin mir sicher, dass da mittlerweile schon einige dran forschen. Wenn wir Glück haben dauert das nichtmal mehr 10 Jahre. ;)
 
GreatEvil schrieb:
Ich hab mich nur an die derzeitigen Fakten gehalten. ... und Nvidia wurde von der eigenen Versicherung, wegen Fehlverhaltens im Fall der fehlerhaften Grafikchips, verklagt.
Da versuchst das Thema völlig ins OT zu lenken. Sende doch eine News ein, wenns dir so wichtig ist.
Oder starte einen eigenen Fred im passenden Unterforum. Notfalls musst du eben aufs HardwareLuxx ausweichen, wenns dir hier nicht gelingt.
Du kannst natürlich auch gerne so weiter machen, in jeglichen Nvidia News versuchen sämtliche negative Schlagzeilen unterzubringen, viel Spass noch dabei, du wirst ihn auch ohne mich haben.

Nicht umsonst hast du hier im Forum den Spitznamen "Dummschwaetzer" bekommen.
Soso, das höre ich zum ersten Mal, jetzt hast du es mir gegeben.
Du hast recht, in diesem Fred hat vor allem BestPower²TDP versucht Stimmung gegen Nvidia zu fahren, nicht du, du hast dich im nur angeschlossen.
Immerhin weiß ich jetzt woran ich bei dir bin, nachdem du deine Signatur angepasst hast.
Nur warum zeigst du sie nicht wie ein Mann.
 
Zuletzt bearbeitet:
Ihr habt vielleicht Probleme.
Unyu fährt halt imemrnoch seine Schiene.
 
Neocroth schrieb:
Ich spreche auch von der jetzigen Siliziumtechnologie basierend auf Immersionslithographie.

Die Leiterbahnen sind auch nicht das wesentliche Problem. Die Isolation ist das Problem. Die hast du vergessen, wenn ich deine Überlegung richtig interpretiere. Wie willst du das Tunnelling verhindern, wenn deine Isolation nur mehr eine Atomlage beträgt? Die Elektronen werdens dir danken und in alle Richtungen entschwinden ;) Leiterbahnen in Quantenbreite durch "nebeneinander legen" von Atomen funktioniert vermutlich auch etwas schwieriger als du dir das vorstellst ;) du vergisst beispielsweise die atomaren Interferenzen und Kräfte, die zwischen Atomen wirken.

Ein weiteres Problem: die Immersionslithographie hat eine zusätzliche Grenze: die Wellenlänge des Lichts, das verwendet wird, um die Wafer zu belichten. Man forscht zwar schon seit einiger Zeit an alternativen Methoden zur Belichtung (beispielsweise durch Röntgenstrahlung), diese Methoden sind allerdings kompliziert und kostenintensiv.

Oh Mann, ich habe lediglich versucht seine Frage mit einem Anhaltspunkt zu beantworten und du stößt besserwissererisch in Dimensionen vor, die nicht zur Debatte stehen. Ja
Ja, es gibt z.B. die Van-der-Waals-Kräfte usw. aber es geht hier nun mal nicht um die Technik.

Es ist halt nur eine Theorie und diente lediglich als Anhaltspunkt, wann eine Verkleinerung nicht mehr möglich ist, wenn weiterhin alle 2 Jahre eine Verkleinerung von 30% stattfindet, abgesehen von Technik usw. und mehr nicht.

Vielleicht werden die Quantencomputer Prozessoren aus reinem Kohlenstoff haben oder was weiß ich. Ich weiß es nicht und du auch nicht. Aber wir können uns einig sein, dass eine verkleinerung unter Atomgröße nicht möglich ist. Ich hoffe du hast jetzt den eigentlichen Sinn hinter dem Posting verstanden, jetzt wo ich es dir jetzt erklärt habe.
 
Also wenn ich immer wieder sowas höhre wie "Fortschritt" und "Quantenrechner" dann muß ich immer lachen !

Den Herstellern von CPUs und GPUs ist der Fortschritt doch völlig egal.
Es geht nur darum den Markt mit einem Produkt zu beliefern mit dem man immer mehr Gewinne erreichen kann.
Darum wird der Fertigungsprozess immer weiter verkleinert. Denn dadurch werden die Kosten gesenkt.

Die Hersteller gehen dabei einfach nur den Weg des geringsten Wiederstandes.
Der Markt verlangt immer mehr Rechenleistung und das erreicht man am einfachsten wenn man immer mehr Kerne pro Die entwickelt. (Octa-Core von AMD)
Das ist deutlich günstiger und effektiver als die Struktur grundlegend zu ändern oder die Taktfrequenzen zu erhöhen.
Aber der Nachteil ist eben ein großes Die.
AMD und NVIDIA wollen anfangen 2 GPU-Kerne auf einem Die herzustellen.
Warum wohl ?

Deshalb wird der Fertigungsprozess immer weiter verkleinert und nicht des Fortschrittes wegen so wie es einige hier träumen.
 
Fortschritt ist ein Abfallprodukt der Gewinnmaximierung?
 
Fuzi0n schrieb:
Vielleicht werden die Quantencomputer Prozessoren aus reinem Kohlenstoff haben oder was weiß ich. Ich weiß es nicht und du auch nicht. Aber wir können uns einig sein, dass eine verkleinerung unter Atomgröße nicht möglich ist. Ich hoffe du hast jetzt den eigentlichen Sinn hinter dem Posting verstanden, jetzt wo ich es dir jetzt erklärt habe.

Stimmt. Insofern war deine Berechung also irrelevant. Schön dass du es selbst einsiehst ;) du kannst keine Berechnungen für irgendwelche Atomlagen aufstellen, die nach heutigen Erkenntnissen nicht funktionieren werden. Vielleicht bewegen wir uns auf komplett andere Technologien zu, die wir heute noch nicht kennen. Ein schönes Beispiel dafür ist der Wechsel von Elektronenröhren auf Transistoren. Wer weiß ob ein ähnlicher Wechsel in Zukunft bevorsteht?

Außerdem kann man sich sicher sein, dass es noch seeeehr lange weitergehen wird, was den technischen Fortschritt anbelangt. Der Mensch war immer sehr erfinderisch, wenn es um das Lösen von Problemen galt. Nur deswegen gibt es uns noch auf diesem Planeten ;)

In der IT sind Berechnungen, die über 10 Jahre hinaus gehen, für mich sowieso fast immer Bullshit. Ich erinnere mich da an Intels 10 GHz Prozessor oder an Einschätzungen, der Weltmarkt für Computer besteht aus höchstens 10 Stück (oder warens weniger?).

Meine Absicht war bloß dem Poster #2 zu zeigen, wann vermutlich Schluss sein wird mit der heutzutage gebräuchlichen Siliziumtechnik. Ich bin mir sicher, dass durch weitere Erkenntnisse andere Technologien gefunden werden, mit denen der Fortschritt weitergehen wird. Das habe ich auch nie abgestritten. Es ist nur sinnlos, über Technologien zu debattieren, die es heutzutage noch nicht gibt. Das einzige was dabei rauskommt sind haltlose Vermutungen und Spekulationen.

Dafür kann ich dir auch einen Algorithmus schreiben:

Code:
Random random = new Random();
int num = random.Next(25);
System.Windows.Forms.MessageBox.Show(string.Format("Die Technologie wird in {0} Jahren verfügbar sein", num.ToString()));

Mein In-Die-Zukunft-Guck-C#-Algorithmus (Patent Pending) kann genau so gut in die Zukunft schaun wie du und ich ;) er sucht dir ne zufällige Zahl bis 25 raus und schreibt sie dir in ne Message Box. Was ich damit sagen will: die IT ist eine äußerst schnelllebige Branche. Wenn man 10 Jahre zurückblickt, da hatten wir den Pentium II in vielen Kisten, der Pentium III war brandneu und VIA war noch ein BigPlayer im Chipsatz-Business. Matrox-Karten waren passabel zum Zocken und 3Dfx war noch im Business. DirectX 6 war aktuell und OpenGL war um Längen performanter. Ich hatte eine ATi Rage 128, die zum Zocken völlig ungeeignet war und alle mit ner GeForce 256 oder einer Voodoo haben über mich gelacht :D ComputerBase war eine kleine Seite mit lauter Verrückten :evillol:. Du siehst: es hat sich viel verändert in den letzten 10 Jahren ;)

Man könnte höchstens spekulieren, ob Moores Law nicht auch in der Zukunft noch das Wachstum beschreiben könnte. Zumindest wurde es schon ein paar Mal abgeschrieben, mit kleineren Abweichungen hat es aber heute immer noch Bestand.

@y33H@ über mir

letzten Endes: ja
jeder der nicht an neuen Technologien forscht, verliert Boden an die Konkurrenz und ist nicht überlebensfähig - egal ob die Konkurrenz bessere Qualität bietet oder die selbe Qualität wie man selbst zum niedrigeren Preis. In beiden Fällen ist dein Unternehmen dem Untergang geweiht ;)
 
Zuletzt bearbeitet:
Pickebuh
Es ist völliger Blödsinn von 2 GPU Kernen auf einem Die zu schreiben.
Was soll das sein?

Ein RV740? Ja, der hat doppelt so viele Einheiten wie ein RV730.
Kann nicht sein das du das meinst, das gibts seit xx Jahren.
 
Zurück
Oben