News Intel-Technologie-Ausblick: 4 nm im Jahr 2022?

Alle alle so einen grafikonboard Chip bekommen, dann kann man eine Technik entwickeln mit der im 2D Betrieb die 3D Grafikkarte abgeschaltet wird.

Dann würde alles mit dem onboardchip laufen und nur bei Spielen würde die 3D Karte anspringen. Damit würde der Idlestromverbrauch locker mal um die Hälfte sinken.

Nur komisch, dass weder Intel noch AMD sowas angekündigt haben. Das wird sicher die Geheimwaffe von AMD um Intel auszustechen, keiner lässt sich in die Karten schauen. :D
 
surfix schrieb:
wir werden ja sehen was 2022 sein wird. und wieso nicht. es sind heute dinge möglich die vor 20 jahren unmöglich waren.



Nur das man heute weiß das man die Physikalischen Gesetze brechen müsste!

Theoretisch kann man auch mit Überlichtgeschwindigkeit reisen. Man braucht nur mehr Energie als das gesamte Universum bietet!:D

Auf dem Blatt Papier ist das möglich!:D
 
Zwirbelkatz schrieb:
Und trotzdem schon lange überfordert mit der Technisierung. Könnte jetzt makabere Beispiele von Massenvernichtungswaffen bringen, das gehört aber nicht hier her :)

Och eventuell doch.
Vielleicht haben wir es bis 2022 geschaft, uns zurück in die Steinzeit zubomben.
Schätze mal dann wird es egal sein, wie und überhaupt ob man 4nm realisiert bekommt. :jumpin:
 
Schon interessant, solche Zukunftsvisionen ;) Aber wer weiß schon, was am Ende wirklich bei raus kommt?

Eure Idee mit GPU im Sockel finde ich irgendwie.. naja. Schwachsinn :D Schließlich wäre ja kein PCB mehr vorhanden, sodass nur noch die GPU selbst optimiert werden kann..
 
@topic: Das ist eine Präsentationsfolie für Roadmap für längerfristige Planung, nicht Intels 2 Jahres Plan. Erwartet ihr ernsthaft, dass Intel offen legt, wie man sowas im Detail erreichen will. Außerdem, ein wenig Ehrgeiz kann da nicht schaden, selbst dann nicht, wenn man noch gar nicht genau weiß, wie die ganzen Probs im Detail zu lösen sind. Wobei hier einige Techniken ja zumindest schon im Laborstadium sind.

Ohne Entwicklerehrgeiz würden wir heute wahrscheinlich alle noch mit einem Abakus rechnen.

Ach ja, ein Onboardsockel, statt eine Steckkarte für Grafik und Co? würde ich ja schon nehmen, aber wie steht´s dann mit Schnittstellen wie TV-Karten usw.? Grafik und Sound sind nun mal nicht alles.
 
Also entweder sind wir bald am absoluten Höhepunkt unserer Technischen Entwicklung angelangt. (Physikalische Grenzen, Autos, Flugzeuge (Leute, wir können Fliegen!!! ;D) Steuerung einzelner Atome, Computer, Roboter, Handys etc.)

Oder wir sind noch ganz am Anfang...


Wobei ich ehrlich gesagt ersteres interessanter finden würde, da ich es miterleben kann. Auf der anderen Seite hätt ich mir aber dann doch etwas "mehr" erwartet.


Aber trotzdem denk ich mir immer wieder. "The future is now".
Irgendwie sind wir über die ganze Erdgeschichte betrachtet schon extrem weit!
 
Zwirbelkatz schrieb:
Nö, wozu soll ich mir son mausgrauen Blechkasten aus dem letzten Jahrtausend hinstellen? ITX und µATX gehört die Zukunft. Wer halbwegs die Teile mit bedacht auswählt, ein wenig Softwarekenntnis hat in Richtung RM-Clock, RivaTuner und Co. und weiß, wie man untervoltet, der kann schon heute ohne Kompromisse ein feines DFI Lanparty µATX Board oder vergleichbares mit nem PHII955 oder gar i7-920 ausstatten.

Wenn man sich natürlich einbildet (nicht du), dass aktuelle Spiele einzig und aussschließlich auf Grafik basieren und sich daher eine 300 Watt Graka rein pflanzt, dann wird das schon ein wenig schwiedriger mit dem Raumangebot und der Abwärme. Dennoch ist beispielsweise eine GTX295 vorbildlich im idle Verbrauch.
Wenn die Miniaturisierung bei CPU und GPU Einzug hält, wieso sollte sie das nicht auch beim Formfaktor tun? Ist doch eine absolut logische Konsequenz.
Die Mittelklasse der HD5000 scheint ebenfalls relativ kompatkter Bauart zu sein.

Stimmt die Zeit der großen Kisten unterm Schreibtisch geht zu Ende. Ich würde allerdings noch einen Schritt weiter gehen und behaupten, das man gegen Ende des nächsten Jahrzehnts gar keine Rechner mehr im eigenem Haus stehen haben wird. Durch die kleineren Strukturgrößen werden CPUs zum Beispiel immer mehr Kerne enthalten, die werden aber nicht im gleichem Maße vom Anwender benötigt (nimmt man die 263mm² eines 45nm i7 und rechnet das auf die 4nm um so bekommt man auf der gleichen Fläche ganze 512 i7 Kerne unter). Meiner Meinung nach wird der Trend in Richtung streaming der Anwendungen aus einem Rechenzentrum gehen. D.h. man hat ein Minimalgerät daheim stehen und wenn man mehr Leistung braucht, z.B. für ein Spiel, so werden die Berechnungen im Rechenzentrum durchgeführt und über die Dicke Leitung zum jeweiligem Anwender gesendet. Nur so kann so ein Kernmonster überhaupt auslasten und für die Anwendungshersteller ist das ganze auch ein Traum (keine Raubkopien, Abomodelle, einfaches einspielen von Patches,etc...)
 
Karamanga schrieb:
Wenn man das ernst nimmt, dann sind die CPU's im Jahr 2028 "0"nm breit!


50 % von 1nm ist NICHT 0nm sondern 500 p(iko)m
 
ich hab nicht all eure Meinungen zu diesem Thema gelesen und bin auch bei diesem ganzen Technikthema nicht so beisammen.
Ich hab nur mal in der Schule, schon eine kleine Zeit zurück, gelernt dass es wahrscheinlich nicht möglich sein wird kleinere Strukturen als ca. 40nm zu schaffen (ich muss aber anmerken ich weiß nicht genau auf was sich das bezog^^ und wieviel Ahnung unser Chemie/Physik Prof. davon hatte).

Ich hab mir aber schon zu diesem Zeitpunkt, so denke ich auch heute noch, gedacht dass Menschen (in diesem Fall Chemiker [od. wer auch immer in diesen Bereich fällt]) immer eine Lösung finden sei es nur durch Zufall (wie es ja schon öfter so war).
Irgendwann wird's vielleicht ein Ende geben aber dann gibt's "einfach" neue Technologien usw. und so gesehen gibt's nie ein Ende.
 
da könnte es ab 8nm ja das große stocken los gehen wo dann aller 5 Jahre nur noch kleinere Fertigungen auf den markt kommen. na toll.
 
"real man have fabs"
Wir alle wissen, was aus diesem Leitsatz geworden ist. Ähnliches wird wohl auch Intel´s "Tick Tock" zustoßen.
Aber wie üblich eine tolle Folie ;P
 
Habe gerade bei scinexx das gelesen.

Smarte Kunststoffe und flexible Chips
Polytronik auf dem Vormarsch


„Intelligente“ Verpackungen, flexible Solarzellen, gedruckte Batterien, Einweg-Diagnosesysteme – Elektronik auf der Basis von Polymeren, kurz Polytronik, beflügelt seit einiger Zeit die Fantasie von Forschern, Entwicklern und Unternehmern - und bietet viele neue Möglichkeiten.

Noch sind allerdings die meisten der schicken und zugleich schlauen Systeme Zukunftsmusik. Doch Fraunhofer-Forscher arbeiten längst an den so genannten „Smart Plastics“ und flexiblen Chips. Denn die Vorteile liegen auf der Hand: Sie sind nicht nur enorm leistungsfähig, sondern lassen sich auch wie elektronische Tinte schnell und preisgünstig auf biegsame Folien aufbringen.

Experten rechnen damit, dass erste Polytronik-Produkte schon bald auf den Markt kommen werden. Sie könnten unsere Welt und das Leben der Menschen entscheidend verändern und erleichtern.

http://www.g-o.de/dossier-460-1.html
 
ich fände es gut wenn sich die entwicklung verlangsamen würde ... nach 2 jahren ist der rechner schon zu schwach, um top spiele zocken zu können. hier liegt auch ein problem der software ... es ist nicht wichtig besonders effizient zu programmieren, da immer genug rechenpower vorhanden ist (durch das ständige aufrusten).
 
Hm, zu den ganzen Zweiflern fällt mir ein Zitat von Einstein ein: Fantasie ist wichtiger als Wissen, denn Wissen ist begrenzt.
 
Das GHz-Treiben wurde aufgegeben (von Intel zumindest) und ebenso wird man irgendwann das Shrink- u. Multicore-Treiben aufgeben müssen. Nichtsdestotrotz wird es auch dann wieder einen Weg geben, bei dem man weiterhin das Produkt optimieren kann, ohne in Konflikt mit erreichten anderweitigen Grenzen zu kommen.
 
Zwirbelkatz schrieb:
Was fehlt sind wirkliche Fortschritte in der Qualität der Software und in der Leistung pro Mhz. Der Sprung vom Netburst zum Core war da schon eine angenehme Innovation.

Agree.

Eine neue Architektur wird wohl eher den Durchbruch bringen als die Miniaturisierung.
Viele können noch nicht mal die nächsten 5 Jahre voraussagen und deshalb ist die Prognose für 2022 völlig wurschd.

Die Hochrechnung geht ja nur immer vom aktuellen Stand aus und dabei werden evtl. Technikinnovationen ja garnicht berücksichtig. Wie auch, kann ja keiner in die Zukunft schauen.

Wer hätte 1996 voraussgesagt, dass Arnold Schwarzenegger Gouverneur von Californien wird ? :)
 
@JueZ:
Nach 2 jahren konnte man seinen Rechner schon immer zum alten Eisen zählen. 386 -> 486 (incl Dx, DX2 DX4) -> P1 usw... Allerdings sind die Abstände schon kürzer geworden, wobei ich persönlich finde, dass es im Moment ganz gut geht und man mit einem 2 Jahre alten Prozzi auch noch sehr gut zurecht kommt, was in der Vergangenheit nicht immer so war. Allerdings glaube ich auch, dass viele Anwendungen schlampiger programiert werden als "früher" wobei man auch sehen muss, dass die Komplexität extrem zugenommen hat.
 
yeah blackiwid hats geschnallt ... wenigstens schon 2-3 hier :D


640 KByte should be enough for everyone! (Bill Gates, 1981)


best ever :D
 
Zuletzt bearbeitet:
Der Unterschied ist aber, dass man damals bestimmt nicht gesagt hat, dass es physikalisch nicht möglich ist. Man hatte nur nicht die Mittel dazu.

Heute sagen wir, wir haben nicht die Mittel dazu, werden sie bis dahin haben. Allerdings werden wir das irgendwann nicht mehr tun können, da man logischerweise nicht kleiner, als ein Atom fertigen kann.

Ich hab zwar keine Ahnung von Physik und Chemie, aber ein Atom ist ein Atom. Kleiner wird es einfach nicht möglich sein. Da beißt die Maus keinen Faden ab!

Nen Fortschritt wirds wie schonmal gesagt mit Sicherheit geben. Aber bestimmt nicht bei der Miniaturisierung.
 
Zuletzt bearbeitet:
Zurück
Oben