Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ich sehe da jetzt auch nicht wirklich neue Anwendungsbereiche in der näheren Zukunft aufziehen, jedenfalls nichts was die Mehrheit benutzen würde (im Serverbereich sieht es da anders aus, da wäre man sicher froh )
Ich bezweifle, daß die in absehbarer Zeit für den Heimanwender kommen werden... ( von wegen 6 - 8 Jahre )
Nicht nur weil man nicht soweit ist, aber die anfänglichen Kosten wären sicher recht hoch, und dann ist am Ende auch noch die gesamte teure PC Software inkompatibel ... spätestens da dürften die meisten Käufer streiken. - War doch schon mal bei Intel so, als die ihre - ( wie hießen sie noch ? Itanium ? ) Chips rausbrachten, die neue Software erfordert hätte ( ohne Abwärtskompatibilität ) - und die wären im Vergleich zu Quantencomputer noch ein kleiner Schritt ...
Der Mensch als Spezies wäre wohl kaum so erfolgreich gewesen wenn er mit dem zufrieden gewesen wäre was er hatte. Man sollte nicht den Fehler machen und den Fortschritt dafür verantwortlich machen dass es große Wohlstandsgefälle gibt. Das war zu Zeiten irgendwelcher Könige und Sklaven noch weit schlimmer.
Klar könnte man sagen uns geht es doch gut genug wozu immer weiter forschen - aber ich sehe es irgendwo als Aufgabe der Menschheit so viel wissen wie möglich anzuhäufen und irgendwann den Geheimnissen unseres Universums und des Lebens auf den Grund zu gehen. Das bringt einem Armen mann kein brot auf den Tisch (zumindest nicht unmittelbar) aber was wäre die Menschheit ohne irgendwelche Ideale?
Mir ging es beim technischen Fortschritt, den wir nicht brauchen (aber wollen) um Luxus-Konsumgüter... und nicht um den technischen Fortschritt ansich. Ebenso wenig habe ich etwas gegen einen Fortschritt im Wissen und der Moral, im Gegenteil.
Gerechtigkeit ist übrigens auch ein Ideal.
@McBash
Quantencomputer nützen uns bei seriellen Berechnungen wenig.
naja, GTA4 hat sich 17mio mal verkauft. Auf der Erde leben ~7mrd Menschen. D.h. 0,24% der Weltbevölkerung haben es gekauft. Lass es mal weltweit 200mio Spieler geben dann liegen wir bei 2,8%. Spieler sind also nicht wirklich relevant.
Ich bezweifle, daß die in absehbarer Zeit für den Heimanwender kommen werden... ( von wegen 6 - 8 Jahre )
Cloud ick hör dir tapsen . Entsprechende Bandbreiten bei den Anschlüssen in den Haushalten vorausgesetzt gibt eigentlich wenig Grund riesige Rechenkapazitäten in den Wohnungen vor zuhalten.
Mir ging es beim technischen Fortschritt, den wir nicht brauchen (aber wollen) um Luxus-Konsumgüter... und nicht um den technischen Fortschritt ansich.
Aber hier geht es ja speziell um Computerchips und die sind weit mehr als ein Luxusgut.
Man braucht eine schnellere CPU ja nicht nur um damit Crysis 3 zocken zu können, die zur verfügung stehende Rechenpower wirkt sich ja auf fast jeden anderen Forschungszweig aus.
Daher ist für mich die Entwicklung immer besserer Computer einer der wichtigsten Forschungszweige unserer Zeit und wir können nur froh sein dass dieser durch den (privaten wie wirtschaftlichen) Konsum derart gepusht wird.
Ich weiß, worum es hier der News nach geht - aber ich habe auf einen Kommentar geantwortet, in dem sich jemand über die beschränkte Zukunftsvorstellung von einigen hier gewundert hat, die meinen, dass private Heimanwender eigentlich nicht mehr Leistung benötigen.
Und ich teile diese Ansicht, dass private Heimanwender nicht viel mehr Leistung benötigen.
Ich hab mal vor jahren gelsen über 3d angeordnete transistoren oder so was, so dass der CPU dann wie ein wurfel ausschaut, und soll angeblich 50-100 mal schneller sein wie heutige cpus (damals).
Ich hab mal vor jahren gelsen über 3d angeordnete transistoren oder so was, so dass der CPU dann wie ein wurfel ausschaut, und soll angeblich 50-100 mal schneller sein wie heutige cpus (damals).
3D ist ja von der Idee her ganz schön, nur wie will man die Wärme nach außen abführen.
Man hat heute schon das Problem das die Transistoren so klein sind das man sie kaum Kontaktieren kann und man benötigt ein mehrlagigen Aufbau der Stromversorgung und Verschaltung so das über dem Wafer schon mal 10 Lagen drauf sind.
es ist doch egal ob ein Chip oder eine Milliarde Chips pro Prozessor zum Einsatz kommen, das ist Prozessor-Architektur und hat mit dem Moorschen Gesetz absolut nichts zu tun!
6-8 jahre ?
Kommerzielle Quantencomputer sind generell ferne, ferne Zukunft (laut Wissenschaftler in den nächsten 50 Jahren sehr unwahrscheinlich). Und die Heimanwender müssen noch länger warten...
Ich hatte mal ein Notebook mit einem Athlon XP, 512RAM usw und das lief damals bestens - man benötigte als Heimanwender einfach nicht mehr Leistung.
Nur wenn die entsprechende Leistung zur verfügung steht wird auch Software entstehen die diese Leistung benötigt.
Aktuell ist der Durchschnitts-PC noch immer irgend ein Dualcore daher reicht der auch aktuell locker aus für Standardsoftware.
6-8 jahre ?
Kommerzielle Quantencomputer sind generell ferne, ferne Zukunft (laut Wissenschaftler in den nächsten 50 Jahren sehr unwahrscheinlich). Und die Heimanwender müssen noch länger warten...
Ich hab auch keinen Quantencomputer in 6-8 Jahren prognostiziert , nur bei einigen Optimisten hier hab ich den Eindruck, das sie glauben, wenn die Die-Shrinks nicht mehr weitergehen, dann wird es hopp la hopp schon eine neue Technologie richten. ( wollte halt nur noch zusätzlich darauf hingewiesen, daß Softwarekompatibilität ein weiterer Hemmschuh beim Umsteig auf eine ganz neue Technik wäre )
Ich rechne eher mit einer Phase der Stagnation, bzw sehr langsamen Weiterentwicklung der Prozessoren. Man mag hier und da sicher noch Optimierungspotential finden, aber wer kauft sich schon ne neue CPU die dann mal gerade 5% schneller ist ...
IMo werden dann die Softwareentwickler gefordert sein, durch Codeoptimierungen mehr rauszuholen. Ich denke da liegt noch einiges an Potential brach. Wenn ich an die C64er Zeiten zurückdenke, wie da die Software anfangs aussah, und wie sie gegen Ende möglich war, da lagen Welten dazwischen, ohne das sich die Hardware zwuschenzeitlich gebessert hatte ... aber die Programierer hatten halt diese sich nicht verändernde Hardware immer besser auszunutzen gelernt.
wenn ich höre, dass für den "Privatverbraucher" die Leistung dicke reichen würde, denk ich immer daran, dass Leute den Commodore C64 für das non plus ultra gehalten haben und heute belegt ein leeres Word Dokument schon 1/6 des damals vorhandenen Speichers.
Genau!
Gab es nicht auch mal in den 80ern die Aussage, dass niemals ein Heimanwender den gigantischen Speicherplatz einer Festplatte mit 20 Megabyte brauchen würde?
Sobald man die Leistung günstig abrufen kann, finden die Entwickler doch immer schnell eine praktische Anwendung dafür.
Ich denke jetzt nur an Gestensteuerung a la Minority Report, oder Sprachsteuerung etc.
Alles Bereiche, in denen sich noch viel tun kann, und die sicher von ein "bisschen" mehr Rechenleistung profitieren würden.
In 20 Jahren hat wahrscheinlich jeder Kühlschrank mindestens einen Quadcore Prozessor!
für die Kühlung wäre dann ja auch hinreichend gesorgt
auf jeden Fall denke ich nicht, dass da irgendwann nichts mehr kommen wird. Irgendwas wird den Ingenieuren und Physikern da schon einfallen. Zudem darf man nicht vergessen, dass unser Reichtum momentan mehr oder weniger auf Informations- und Kommunikations-Technik basiert, weshalb ein Fortschritt in diesem Bereich zumindest bis zu einer neuen Technologie gesichert werden muss.