News 5.000 Stream-Prozessoren und 20 TFlops bis 2015?

Andi Macht schrieb:
Muss man deswegen den "Stromverbrauch" eines PC Systems, welches bald locker die 1KW Marke überschreitet befürworten?

also noch kommt ein "guter" PC Kaum über die 300Watt.
übertreibt mal nicht...
 
Naja vor 6 Jahren was gabs da ?
9800 Pro und FX5900 und davor Geforce 4 TI und ATi Radeon 8500....
Also eine HD4890 hat mindestens die 6 fache Leistung. Es ist sehr wahrscheinlich das diese Leistung um ein X faches übertroffen wird und nicht nur um 6 faches. Neue Techniken sind in dieser Schätzung ja nicht vertreten aber die beiden Grafikkartenhersteller konkurrieren sehr stark was wohl dazu führen wird.
 
Also gibt es doch ein UFO auf der Area 51???
Oder woher wissen die jetzt schon, das sie 2015 in 11nm fertigen und 20 Tflops erreichen. Mystisch, mystisch:alien_alt:
 
In der Arbeitsgruppe wo ich war hat ein mitstudent bei seiner Diplomarbeit an einem Einelektronentransistor gearbeitet, Gate grösse war glaub ich 10 nm, vielleicht auch 15 oder so.

Das war aber alles Elektronenstrahlithographie, und meiner meinung nach ist es absolut ausgeschlossen dass solche Techniken großindustriell je genutzt werden können. Das Problem ist die Geschwindigkeit mit der man solche chips herstellen kann. Dabei wird der Lack mit Elektronen beschossen und damit belichtet, und man kann den Strom nicht erhöhen da sich die Probe lokal auflädt und die Elektronen werden abgelenkt und landen dort wo sie nicht sollen. Das heißt ewig lange herstellung.

Eine anderer Diplomand hat sich mit der Imprintlithographie beschäftigt, das ist im Grunde ein Stempel mit dem man den flüssigen Lack stempelt. dabei muss man den Lack trocknen und dabei dehnt sich der Stempel aus und verformt die Struktur, das ist auch ein grosses Problem. Wenn man nicht heizt muss man ewig warten bis der Lack trocken ist, nicht akzeptabel. Die minimale Striktur ist dabei durch die Stempelgrösse bestimmt.

Was bleibt ist im Grunde die optische Belichtung wie sie zur Zeit praktiziert wird, dabei muss man möglichst kleine Wellenlängen einsetzen, hier hat man irgendwann mal das problem dass die Linsen für das UV oder gar Röntgenlicht teils gar nicht brechen oder sogar undurchlässig sind. Da braucht man dann Spiegelsysteme, und zwar dudzende Spiegel die aber nur sehr wenig "Licht" reflektieren. Damit am Ende was ankommt muss somit am Anfang heftig eingestrahlt werden -> Aufheizung etc.... das bedeutet man baucht bessere Spiegel, und da hat man wieder Probleme, weil sie sehr viele sehr dünne schichten haben müssen. Wenn ich mich nicht irre, so wird sogar eine Herstellung mit einer genaugkeit bis auf eine Atomlage benötigt und das mit bestimmten materialien. Das ist auch der Grund weshalb diese relativ alte Technik bis heute kaum genutzt wird.

Wie man sieht, es gibt zum Teil sehr große Probleme, Röntgenzeug ist vielleicht am vielversprechendsten. Aber 11nm bis 2016 hätte ich nicht gedacht, mal schauen ob es so schnell kommt.
 
Zuletzt bearbeitet:
Meint ihr mit diese Leistung erschafft man eine super künstliche Intellegenze? Zum beispiel diese Künstliche Intellegenze denkt wie der Menschen und kann sich mit menschen unterhalten. Ist das möglich mit diese Leistung?
 
Greater Fiend schrieb:
Meint ihr mit diese Leistung erschafft man eine super künstliche Intellegenze? Zum beispiel diese Künstliche Intellegenze denkt wie der Menschen und kann sich mit menschen unterhalten. Ist das möglich mit diese Leistung?

egal wie viel Rechenleistung man hat, ein PC ist immer dazu Konzipiert EINE Lösung zu finden.
für eine Künstliche Intelligenz muss es aber mehrere Geben.
oder kommen dir die Heutigen Supercomputer "Intelligent" vor:rolleyes:

Was du meinst, (Fragen zu erkennen und eine Antwort geben) braucht erstens nicht viel Rechenleistung, und hat zweitens nicht viel mit Künstlicher Intelligenz zu tuen. (Gute Spracherkennungssoftware + ne entsprechende Datenbank mit antworten -->fertig ist der Service Roboter)
 
Zuletzt bearbeitet:
Gibt es nicht bereits erste biologische Computer?
 
Die KI wird besser, und eventuell kann man sie in bestimmten Situationen nicht mehr von menschlichen Verhaltensweisen unterscheiden, aber es bleibt eine Simulation, menschliches Denken oder überhaupt irgendeine Form von Denken lässt sich mit binären Maschinen nicht nachbauen.

Das ist keine Frage der Leistung, sondern eine der Architektur. Der Traum ist alt, im 18. Jahrhundert glaubte man an die Mechanik, man bräuchte nur genügend kleine Rädchen und Hebel, um Leben als Automaten herstellen zu können.

Im 19. Jahrhundert glaubte man an die Energie, man bräuchte nur die richtige Menge an Elektrizität, um Leben herstellen zu können (Stichwort Frankenstein).

Im 20. Jahrhundert glaubt man an Information, man bräuchte die richtige Anordnung und Menge an Schaltungen, um Leben als semiotische Maschine zu erschaffen. Auch das wird nie klappen, es gibt ja noch nicht einmal eine brauchbare Theorie, wie Leben funktioniert, geschweige denn Denken.
 
Arbiter Elite schrieb:
Gibt es nicht bereits erste biologische Computer?
es gibt mittlerweile sogar schon nachgebaute gehirnschaltungen, allerdings nur mit ca 10000 schaltungen. manche dinge lassen sich damit deutlich schneller berechnen, als mit heutigen prozessorarchitekturen, aber bis das marktreif wird dauert es noch.
das sind die sachen, worauf wir unsere wahre hoffnung setzen müssen.

ich meine die fakten klingen zwar sehr interessant, allerdings haben kleinere fertigungsprozesse ja nicht nur vorteile, zb die kleinere fläche zum ableiten der wärme, um mal ein beispiel zu nennen. wir werden sehen wo das noch hinführt, aber meine meinung ist ja, dass pcs wie es sie heute gibt, im grunde genommen schon an ihren grenzen angekommen sind. ich meine technologisch scheint auch die zukunftskarte von in 6 jahren nur eine optimierung jetziger architektur zu sein, sehr innovativ klingt das tatsächlich nicht. all zu große leistungssprünge wird es meineserachtens nicht mehr geben, aber wir werden sehen was die neuen dx 11 karten so bringen ;)
 
Okay.. nochmal ich.. also Graphen wird mit hoher Wahrscheinlichkeit optisch gebaut, soweit ich es verfolgt habe werden E/M-Felder genutzt um das Problem mit dem Lack zulösen.... genaues ist aber dann schon wieder sehr spekulativ.

Zur KI:

Der/Das derzeitige Modell/Ansatz ist leider noch sehr weit in den Kinderschuhen. Das liegt an der Technik die darauf bedacht ist Rechnung und Ergebnissspeicherung zutrennen (CPU/Cache->RAM).
Die perfekte Realität für KI ist jedoch beides parallel, sowohl im Zugriff als auch in der Korrektur. Unser Gehirn ist da ein gutes Beispiel, das Speichernetz der Neuronen ist quasi der Rechner im Speicher mit Korrekturfunktion. Deshalb wird auch richtig viel für die Neuroinformatik geforscht. Jedoch wird dann mit alter Technik simuliert und gescannt, also nicht gerade effizient.
Es werden Fortschritte gemacht, aber derzeit forschen viele vor sich hin, Grundlagenforschung eben.
Das Problem daran ist das sich so kein Standard etablieren kann, eine Basis die man z.B. für alle Roboter nutzen könnte gibt es derzeit nicht. Sicher auch weil die Technik eben noch zu unrentabel ist, aber das wird sich ändern.

Meiner Schätzung nach (und die ist sehr spekulativ) sind wir 2030 soweit um die Simulation umzusetzen.
2050 wird das perfekt gelingen (20 jahre Framework und Entwicklung) und 2070 sind wir am technologischen Nullpunkt der Menschen angelangt. Die Maschine ist in allen Belangen besser als der natürliche Mensch.
 
Ich denke, dass die Nanoröhrchen-Technologie herkömmliche Technologien ablösen wird. Kleiner als eine Atomdicke geht ja nicht.

In meiner Diplomarbeit habe ich selber einen nanoröhrchentransistor gebaut, ursprünglich war nur die Ausrichtung der Röhren das Ziel. Man kann die Kohlenstoffnanoröhren sehr schlecht kontrollieren, sie können zudem noch viele unterschiedliche eigenschaften besitzen und zwar von Röhre zu Röhre unterschiedlich obwohl bei gleichen parametern hergestellt. Bei einem Prozessor müssen die Eigenschaften jedoch gleich sein, da muss jede der 1 Millarde Röhren gleiche eigenschaften und zwar ohne interne Defekte aufweisen. Wer selber damit nichts zu tun hat, kann sich gar nicht vorstellen was man da für Probleme hat, ich bin mir sehr sicher dass ich keinen Computer besitzen werde, und auch nie einen sehen werde, bei dem Prozessoren auf Basis von Kohlenstoffnanorören sind. Eines Tages sicher schon, aber nicht in den nächsten 40 Jahren das ist mein Tip.

Die nächste Revolution wird der Quantencomputer sein.
 
Greater Fiend schrieb:
Meint ihr mit diese Leistung erschafft man eine super künstliche Intellegenze? Zum beispiel diese Künstliche Intellegenze denkt wie der Menschen und kann sich mit menschen unterhalten. Ist das möglich mit diese Leistung?
Also KI, die sich mit Menschen unterhält, ohne daß die raffen, daß sie sich mit einer KI unterhalten, gibt's schon lange (kommt natürlich auch immer drauf an, wer sich mit der KI unterhält :evillol:).

Ne KI, die "denkt wie der Mensch" wird man damit aber definitiv nicht hinbekommen.
 
@Crazy-Chief: ein Penitum wahr früher das Spitzenmodell von Intel mit 90Watt rum heute ist es i/ oder Phenom2 X4 955 mit 130Watt oder 140Watt (Angaben von Hersteller).

Und die Verkleinerung zu langsam in Gegenzug was es an Leistung wächst. Wenn ein Chip kleiner wird verbrauch er weniger strom richtig aber die Leute kaufen ja auch noch Stromlässtige Chip und so kann es mit zu ein gewissen Punkt OC gemacht werden und man hat ein Chip mit viel Leistung auf den Markt. Wenn du verstehst was ich meine damit. Das einzigste was Sinkt mit immer kleiner Fertigung ist der IDE Verbrauch von CPUs oder GPUs aber die Last Werte werden in den nächsten 20Jahren noch steigen. Mit Kohlenstoff könnte eventuelle ein neues Zeitalter enstehen.
 
Der Pentium mit um die 90 Watt hatte aber auch nur einen Kern bei ca 3 GHz, das Spitzenmodell Prescott 2M oder Gallatin lag übrigens auch bei 115 Watt, heute sind wir bei 130 Watt der Spitzenmodelle bei 4 Kernen, wenn du da mal den Phenom II X4 905e nimmst liegt der sogar nur um die 65 Watt.
Der Pentium 4 von früher könnte mit 4 Kernen gar nicht ausreichen gekühlt werden, denn er hätte ja mindestens um die 350 Watt TDP. Nur durch shrinken ist es überhaupt möglich geworden Quad-Core CPUs zu bauen. Intel und AMD werden demnächst noch ihre 6 Kern CPUs raus bringen, die auch nicht großartig die 130 Watt Marke sprengen werden, denn mehr lässt sich ohne Spezial Kühlungen nicht im Desktop betreiben, und ich glaube nicht das wir im Desktop Mark jemals auf Wasserkühlungen angewiesen sind, obwohl ich damals schon dachte das wir auf Wasserkühlung nicht verzichten werden können, aber es kam alles anders, wie man heute sieht.
 
Ich vergleiche jetzt einfach mal die Tests bei Computerbase. Ich gehe mal davon aus, dass die PC-Systeme alle ins High-End-Segment einzustufen sind.

Mitte 2005 lag der höchste Stromverbrauch mit einer Single-GPU-Karte bei 199 Watt.

Jetzt Mitte 2009, also 4 Jahre später liegt er bei 356 Watt.

Das entspricht einer Steigerung von ca. 79 %. Also im Schnitt immerhin 20 % pro Jahr! Wenn ich jetzt also einfach mal weiterrechne bis zum Jahr 2015, dann wird der Stromverbrauch bei ca. 356*1,20^6 = 1063 Watt liegen. Also halte ich einfach mal 1000 Watt und mehr für ein solches System für realistisch. Und da es mit der Fertigungsstrucktur in den nächsten Jahren durchaus Probleme geben könnte, wird der reale Stromverbrauch wahrscheinlich noch höher liegen. Für uns als Kunden ist soetwas natürlich nicht mehr tragbar. Deswegen wird es wahrscheinlich einmal irgendwo eine Grenze geben, ab derer der Kunde aufhört zu kaufen. Oder die Hersteller machen es wie mit Druckerpatronen. Im Sinne von die Grafikkarte ist billig, aber die Nutzung ist teuer. Es bleibt also abzuwarten, wie weit die Technologien für erneuerbare Energien voranschreiten. Je eher man zu 100 % Strom aus dieses Energiequellen gewinnen kann, um so eher wird der Preis für Strom sinken und der persönliche Verbrauch an Bedeutung verlieren.

In diesem Kontext kann man die die Ziele von Nvidia anzweifeln, weil sie schlussendlich nur das entwickeln/produzieren können, was der Kunde bereit ist zu kaufen.
 
Zuletzt bearbeitet:
na und? für crysis 4 wirds doch wieder zu schwach ;)
 
Vielleicht wird bis dahin der Strom auch noch günstiger^^
 
Wieviel sind eigentlich 20 T-Flops im Vergleich zu einer aktuellen Geforce 8800 GTS, so wie ich sie habe?
also wieviel T-Flops hat meine Grafikkarte? Grob?
kann da jemand was zu sagen?
 
Zurück
Oben