News Nvidia: Ende 2009 bereits 30% 40-nm-GPUs?

Zuletzt bearbeitet:
@Neocroth

Anscheinend verstehst du den Begriff Anhaltspunkt nicht. Da hat in deiner Welt wohl auch nicht sowas "nutzloses" wie den MTBF was zu suchen. :lol:

Wenn du wirklich alles besser weißt, dann solltest du konstruktiv diskutieren und aufgrund deiner "Kenntnisse" versuchen seine Frage besser zu beantworten bzw. meine Antwort besser zu formulieren.
Es gibt sogar Quantenmechaniker, die genau an dieser Quantentechnik arbeiten. Sie können auch ungefähr einschätzen, wann die Quantenrechner kommen - und sie haben mit Sicherheit mehr Ahnung als du.
 
Fuzi0n schrieb:
@Neocroth

Anscheinend verstehst du den Begriff Anhaltspunkt nicht. Da hat in deiner Welt wohl auch nicht sowas "nutzloses" wie den MTBF was zu suchen. :lol:

was hat die MTBF damit zu tun? Die MTBF ist eine aus Stichproben ermittelte Zahl, die mehr oder weniger Aussagen über Zuverlässigkeit zulässt. Wenn du die mit deiner Rechnung vergleichst - die MTBF wird mit Wahrscheinlichkeiten aus konkreten Messungen gebildet.

Fuzi0n schrieb:
Wenn du wirklich alles besser weißt, dann solltest du konstruktiv diskutieren und aufgrund deiner "Kenntnisse" versuchen seine Frage besser zu beantworten bzw. meine Antwort besser zu formulieren.

Die ersten 6 Wörter spießen sich ein bisschen mit der Aufforderung, konstruktiv zu diskutieren. Der negative Unterton ist ja wohl nicht zu überhören :p

Seine Frage wurde aus meiner Sicht beantwortet. Wie ich "deine" Antwort besser formulieren kann? Die Rechnung war ohne jede Grundlage und nur auf einer wagen Vermutung, dass die Miniaturisierung kontinuierlich weitergeht und deine Zahlen kamen auch nur aus Grundlagen aktueller Technologien. Wie schon gesagt, eine Antwort wie lange der Fortschritt in der Chipfertigung anhalten wird, die gibt es nicht. Es gibt wage Schätzungen, wann die Grenzen der aktuellen Fertigung erreicht sind. Über alles andere kann nicht diskutiert werden, ganz einfach weil es dazu keine Grundlagen gibt.
Sieh es ein, alternative Technologien sind in den frühesten Anfängen. Ich sage nicht, dass sie nicht eines Tages das Potential haben werden, um die aktuelle Technologie abzulösen. Dies wird aber nicht in einer absehbaren Zeit (<10 Jahre) passieren.

Was erwartest du dir also für eine Antwort von mir? Kein Mensch auf dieser Welt wird dir jetzt eine ernsthafte und realistische Einschätzung geben können, wann der Nachfolger der Siliziumtechnologie marktreif sein wird. Dazu siehe die Links weiter unten in meinem Post ;) es gibt nur Mutmaßungen und Vermutungen.

Fuzi0n schrieb:
Es gibt sogar Quantenmechaniker, die genau an dieser Quantentechnik arbeiten. Sie können auch ungefähr einschätzen, wann die Quantenrechner kommen - und sie haben mit Sicherheit mehr Ahnung als du.

Dass sie mehr Ahnung haben als ich bestreite ich nicht. Rainer Blatt und auch Anton Zeilinger sind zwei dieser Herren. Zeilinger selbst glaubt, dass es Quantencomputer in 20 Jahren geben könnte. Wie ich schon mal sagte: Zeiteinschätzungen größer gleich 10 Jahre halte ich in der IT grundsätzlich für Bullshit. An dieser Schätzung könnte was dran sein, allerdings sind meine negativen Erfahrungen mit solchen Einschätzungen weitaus größer als meine positiven - Beispiele gabs ja schon in einem früheren Post. Ein User im Standard-Forum schrieb dazu ein nettes Zitat:

Es gibt keinen Grund, warum irgend jemand in der Zukunft einen Computer bei sich zu Hause haben sollte.
K. Olson (Gründer v. DEC)

Wie gesagt: Prophezeihungen sind so eine Sache ;)

Zu deiner Aussage, sie "wüssten wann Quantenrechner kommen":
http://futurezone.orf.at/stories/171910/

auch sehr nett dazu:
http://en.wikipedia.org/wiki/D-Wave_Systems#Criticism

;)
 
Zuletzt bearbeitet:
Pickebuh
Durch deine Links wird es nicht sinnvoller. Also lass es mir Unwissenheit zu unterstellen.
GPUs sind seit x Jahren x-fach parallel, heute weit jenseits des 4-fach parallen.

Nur weil ARM 4 Fragment Prozessoren hat wird es noch keine "4 Kern GPU". Ist RV790 dann eine 16 Kern GPU, weil sie 16 ROPs beherbergt?

Tja und was Winfuture vor 3 Jahren von Golem kopiert hat:
Sie schreiben nichts von 1 Die. Sie könnten 2 GPUs auf einer Karte, bzw 2 GPUs auf einem Package meinen, also die üblichen CF Ungetüme.
Jedenfalls hat Peter Edinger Recht, eine 2900 X2 gab es nicht, erst eine 3870 X2 (übernächte "Generation") erfüllte uns mit Glück.
 
Zuletzt bearbeitet:
Allerdings kommen seine Aussagen bezüglich R800 nicht von ungefähr.
Man munkelt ja seit Monaten, dass jene Chips eine völlig überarbeitete Crossbar besitzten, welche zwei Stück RV870-Silizium tiefgehend und nicht nur oberflächlich vernetzen. Demzufolge sollen die Chips auch mit nur einem MC auskommen.

Man wird sehen, was der Herbst bringt. Hoffentlich keine Totgeburten mehr.
 
Unyu schrieb:
Pickebuh
Durch deine Links wird es nicht sinnvoller. Also lass es mir Unwissenheit zu unterstellen.
GPUs sind seit x Jahren x-fach parallel, heute weit jenseits des 4-fach parallen.

Ich unterstelle dir nichts !
Es deutet leider alles auf Tatsachen hin das du anscheinend nicht gewillt bist zu verstehen das es durchaus möglich ist 2 komplette GPU-Kerne mittels interner Schnittstelle auf einem Die zu bringen.
Was glaubst du wohl was ein Quad-Core ist und wie es da gemacht wird ?
Das Problem bei den GPUs war ja ihre Komplexität und ihrer daraus resultierenden Größe.
Das wird sich aber mit der 40 oder gar 32 bzw. 28-22nm Technologie schlagartig ändern !

Aber was rede ich denn da noch ?
Du wirst es sowieso nicht verstehen (wollen).

Nur weil ARM 4 Fragment Prozessoren hat wird es noch keine "4 Kern GPU". Ist RV790 dann eine 16 Kern GPU, weil sie 16 ROPs beherbergt?

Klar deshalb schreiben sie ja auch von 4 Kern GPU und nicht von 4 ROPs GPU... :rolleyes:
Verstehst es schonwieder nicht.

Tja und was Winfuture vor 3 Jahren von Golem kopiert hat:
Sie schreiben nichts von 1 Die. Sie könnten 2 GPUs auf einer Karte, bzw 2 GPUs auf einem Package meinen, also die üblichen CF Ungetüme.

Ich zitiere:
"Diese sollen deutlich weniger Strom verbrauchen und mit zwei Kernen in einem Grafikchip arbeiten."

Deutlich genug ? Oder muß man es dir noch buchstabieren ??
Sowohl NVIDIA als auch AMD arbeiten an einer Dual-GPU Lösung im Sinne einer 2-Kern GPU-Technologie.
Also keine zwei Grafikchips und keine zwei Karten.
Angekommen ?
 
MacPok schrieb:
Man munkelt ja seit Monaten, dass jene Chips eine völlig überarbeitete Crossbar besitzten, welche zwei Stück RV870-Silizium tiefgehend und nicht nur oberflächlich vernetzen. Demzufolge sollen die Chips auch mit nur einem MC auskommen.
Das selbe was schon über die 3870 X2 bzw 4870 X2 gemunkelt wurde.

Jedenfalls wirds zeit für soetwas, nur ist das immer noch keine ominöse "Dualcore-GPU".

Pickebuh schrieb:
2 komplette GPU-Kerne mittels interner Schnittstelle auf einem Die
Ich frage dich nochmal nach dem Sinn.
Was genau fehlt dir an RV770, das du lieber 2 davon hättest, etwas was ein doppelt so großer RV770 nicht bieten würde?

Was glaubst du wohl was ein Quad-Core ist und wie es da gemacht wird?
Ein Quad Core im Falle einer CPU ist etwas vollkommen anderes.
Eine Notlösung weil es nicht mehr möglich war die Leistung eines einzelnen Kerns weiterhin stark zu steigern (zb. durch 20-30 Ghz).

Hier gehts um GPUs, x-fach parallele Chips. Es macht keinen Sinn 2 RV770 nebeneinander am Silizium zu lassen, anstatt gleich einen doppelt so großen RV770 zu designen.

Du wirst es sowieso nicht verstehen (wollen).
Lass diese wiederholten Unterstellungen.
Es geht nicht um irgendwelche IHVs oder dich.

Klar deshalb schreiben sie ja auch von 4 Kern GPU und nicht von 4 ROPs GPU... :rolleyes:
Kern hört sich besser an, ok? Alle Welt denkt es wäre super toll, bei dir hat es jedenfalls gut gewirkt.

Ja, jetzt weiß ich das du tatsächlich das meinst, was ich befürchtet habe.

Sowohl NVIDIA als auch AMD arbeiten an einer Dual-GPU Lösung im Sinne einer 2-Kern GPU-Technologie.
Nvidia arbeitet an GT300 samt Ablegern und an GT400.
AMD arbeitet an RV870 samt Ablegern und RV970.
 
Unyu schrieb:
Es macht keinen Sinn 2 RV770 nebeneinander am Silizium zu lassen, anstatt gleich einen doppelt so großen RV770 zu designen.
Doch. Kleinerer Die = bessere Yields.
 
Nö, der Die wird dadurch doppelt so groß wie ein einzelner RV770.
Die Yield wird sogar beschissener, weil der Chip alles andere als quadratisch ist.
 
Über was sprichst du? Ich dachte es geht darum, dass du keinen Vorteil von zwei kleinen Dice gegenüber einem großen Die siehst. Den gibt es aber, nämlich der bessere Yield, der simpel aus der kleineren Fläche resultiert.
Wieso soll so ein Chip nicht quadratisch sein? Abgesehen davon, dass der Yield afaik lediglich den Prozentsatz der funktionierenden Chips angibt und nicht mit einfließt, wieviele man aus einem Wafer herausschneiden kann.
 
Unyu schrieb:
Es macht keinen Sinn 2 RV770 nebeneinander am Silizium zu lassen, anstatt gleich einen doppelt so großen RV770 zu designen.

Unyu schrieb:
Nö, der Die wird dadurch doppelt so groß wie ein einzelner RV770.
Die Yield wird sogar beschissener, weil der Chip alles andere als quadratisch ist.

:evillol:
 
@ aspro

Die yield rate ist die Ausbeute, da fließt rein, wie viele Chips man erhält und wie viele davon laufen. Ist imo auch logisch.
 
OK, stimmt. Trotzdemfrag ich mich, wie er auf "andere als quadratisch" kommt.
 
Zwei quadratische RV770 ergeben zusammen ein längliches Rechteck. Ich denke, das meint er.
 
Was ist ein laengliches Rechteck? Sowas wie ein runder Kreis? :rolleyes:

Und das die Yieldrate schlechter wird, obwohl der Chip nur noch halb so gross ist (selbst wenn er nicht mehr quadratisch ist), ist grosser Bloedsinn.
 
Ein Rechteck kann sich nahe an einem Quadrat befinden, daher der Zusatz "länglich" :rolleyes: Wie zwei zusammengesetzte Quadrate aussehen, weißt du sicherlich ... warum also diese Frage?
 
GreatEvil schrieb:
... runder Kreis? :rolleyes:

Spaetestens hier sollte klar gewesen sein, das KEINE Antwort erwartet wird.

y33H@ schrieb:
Wie zwei zusammengesetzte Quadrate aussehen, weißt du sicherlich

Und wo ist das Problem, wenn das zusammengesetzt Die rechteckig ist? Du bist mit deinen (zwar sachlich richtigen) Aussagen weit vom Thema weg.
 
Ich wollte nur Unyu erläutern ... also B2T.
 
Richtig erläutert, y33h@.

Gibts dazu auch anständige Kommentare oder zumindest mehr als 1 Smilie Posts?
Bzw ist das Thema erledigt oder ist die Lust am Antworten vergangen?
 
@ Unyu

Kann es sein, dass du davon ausgehst, dass beide Grafikchips in einem Stück aus dem Wafer geschnitten werden, also beide zusammen auf einmal?
Warum sollte man genau das tun, wenn diese physikalisch auf dem Wafer schon getrennt, weil einzelne Prozessoren sind? Es müssen ja keine Nachbarn zu einem Chip zusammengefasst werden, sondern von mir aus auch zwei aus verschiedenen Wafern.

Bei der Yield sind kleinere Chipflächen besser denn größere, alleine schon vom Verschnitt am Rand. Desweiteren gibts ja die Wahrscheinlichkeit eines Defekts, der pro Fläche angegeben wird. Je größer also die Chipfläche, desto eher ist mit einem Defekt zu rechnen.

Wenn AMD und vllt auch Nvidia (wer weiß wie die nächste X2/GX2 o.ä aufgebaut sein wird) nun statt einem mönströsen Chip zwei kleine zu einem großen Chip zusammenfassen, ist zwar die Leistung gleich, aber die Yield besser (Mit gleicher Leistung nehme ich an, dass beide im Endeffekt wie ein kompletter Chip angesprochen werden können, da sie eh einzeln schon massiv parallel aufgebaut sind, wie du schon öfters sagtest)
 
Zuletzt bearbeitet:
Zurück
Oben