News Prozessoren: Intel trägt das Tick-Tock-Modell zu Grabe

Hopsekäse schrieb:
Was mehr Kerne angeht wird sich Intel hüten, die einfach so ohne Bedarf in den Mainstream zu werfen. Kein Normalo braucht mehr als 4 Kerne.

Das ist BISHER der Fall gewesen, sonst hätten wir schon lange Systeme auf dem Markt die lieber auf mehr Kerne anstatt auf immer höhere Taktraten setzen.

Anscheinend ist aber die Entwicklung in den letzten Monaten an dir vorbei gegangen. Mit aktuellen oder angekündigten Spielen werden 4 Kerne gut ausgelastet und in naher Zukunft mit DirectX12 und neuen Grafikchip Generationen wird die Verteilung der Aufgaben auf mehrere Kerne noch weiter verbessert.

Einzelne Kerne schneller zu machen sei es durch mehr Ghz oder durch Optimierung ist Intel hingegen in den letzten Jahren nicht gelungen und wird es auch durch die immer kleiner und teurer werdenden Prozesse nicht mehr.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Die APUs werden in 28nm gefertigt, 32nm haben die FX Modelle.

Das ist natürlich korrekt. Diese half nodes ändern aber grundsätzlich nichts daran das AMDs größtes Problem seit der 65nm Fertigung der Prozessrückstand gegenüber Intel war. Die Architektur war sicher kein Knaller aber im gleichen Fertigungsprozess wären sie erheblich kompetitiver am Markt gewesen. Das sie Schaltungen entwerfen können die was können und dabei auch innovativ sind kann man ja nicht von der Hand weisen.

Wenn man aber mehr als 2 volle Nodes hinterherhinkt und dadurch im Vergleich selbstverständlich ein ganz anderes Transistor und TDP Budget hat und gleichzeitig höhere Fertigungskosten/DIE and wirds natürlich irgendwann bitter am Markt.

Da AMD sich aber erfolgreich aus der Fertigungsbindung geklagt hat sind dies natürlich sehr sehr gute Neuigkeiten für AMD.
 
Zuletzt bearbeitet:
Unwichtige Details, Randnotizen bzw. so sieht Intel die Welt.

Form-10-K, S.11 -Competitors:
ARM findet in verschiedenen Marktsegmenten Erwähnung, von AMD ist weder im Desktop noch (verständlicherweise) bei Servern die Rede.

Da hoffe ich doch sehr das AMD in den nächsten Jahren wieder ein nennenswerter Gegenspieler wird.

Zitat:
"So oder so wäre das aber das erste Mal seit vielen Jahren, dass Intel keinen teilweise jahrelangen Vorsprung durch Technik mehr vorweisen könnte."
Intel war erreicht eben schneller die Schallmauer (bekannten/beherrschbaren) Physik als andere. Es wird spannend zu sehen, wer als erstes diese "Mauer" durchbrechen kann.
 
Zuletzt bearbeitet:
ScOuRgE_ schrieb:
Wieso liegen alle falsch nur ich nicht?

Weil es somit faktisch keine Korrelation zwischen Mooresches Gesetz und der Preis/Leistung mehr gibt, da es deutlich abdriftet. Genau das hast du im ersten Post aber angedeutet.

ScOuRgE_ schrieb:

Der wird irgendwann sinken, bis dato aber kaum, das sieht man auch an der schlechten Verfügbarkeit großer Chips ala KNL. Der kann nur wirklich wirtschaftlich werden, wenn man 10nm rauszögert was man auch jetzt macht, anderseits aber auch ein Verlust bedeuteten wenn man in Rückstand gerät. Aber nicht durch die Konkurrenz, denn daran lässt sich so schnell nichts ändern und Verbesserung brauchen Zeit, nur weil TSMC oder ein anderer ein guten Prozess nachschiebt, kann Intel nicht so schnell kontern. Wäre er gut, würden viel mehr 14nm Produkte lieferbar sein.

ScOuRgE_ schrieb:
Er missbraucht seine Monopolstellung schlicht. Die technologisch/physikalische Grenze, ab der sich Transistoren nicht mehr wirtschaftlicher fertigen lassen, liegt bei aktuellen Prognosen irgendwo bei 5nm und drunter. Davon sind wir aber noch weit entfernt, sonst würde man ja auch gar nicht mehr in 10nm investieren.

Jetzt soll es schon ein Missbrauch sein das Intel seinen 14nm Prozess bis jetzt nicht unter Kontrolle hat. Ich bin mir sicher die würden liefern, wenn sie denn könnten und auch wirtschaftlicher produzieren denn dann bleibt mehr übrig. Sie würden auch wahrscheinlich 10nm bringen, gäb es die Chance mehr Gewinn statt mit 14nm zu erwirtschaften und er wäre bereits fertig. Da das aber nicht der Fall ist, reines Bashing pur.

Von Unfähigkeit auf Missbrauch zu kommen ist schon eine starke Verbiegung der Realität.

xexex schrieb:
Einzelne Kerne schneller zu machen sei es durch mehr Ghz oder durch Optimierung ist Intel hingegen in den letzten Jahren nicht gelungen und wird es auch durch die immer kleiner und teurer werdenden Prozesse nicht mehr.

Der Fokus lag ja auch mehr oder weniger beim Stromsparen und der GPU. Das es auch anders geht sieht man an den speziellen Versionen des Xeon mit sehr hohen Takt aber reduzierten Kernen.
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Fragger911 schrieb:
Es wird spannend zu sehen, wer als erstes diese "Mauer" durchbrechen kann.

Du kannst aus 3 Atomen einfach keinen Transistor bauen. Auf Silizium Basis wird sich strukturgrößenmäßig nicht mehr viel tun.... leider....

Auf der anderen Seite setzt sich dann hoffentlich cleveres Design und Software durch. HSA zum beispiel.
 
roterhund07 schrieb:
@roterhund07
das heißt für dich das du nix neues benötigst und erstmal dein Rechner solange benutzen kannst bis er auseinanderfällt...


so spart man Materialen wie Gold usw...und ne Menge Elektroschrott....und schützt die Umwelt
Ergänzung ()

Gandalf2210 schrieb:
@Gandalf2010
das wäre dann aber wirklich Dreist..und Intel als Marktfüher in X86 Sector könnte ganz viel an Image bei den Usern verlieren

reicht schon wenn Nvidea und AMD das machen..da fühlen sich schon viele richtig verarscht....verstehe sowieso nicht das man mal gegen solche Machenschaften vorgeht
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Laggy.NET schrieb:
Dann kann ich mich nach dem Upgrade auf den 6700K ja entspannt zurücklehnen.

Falsch.

Noch nie war der Mainstream soweit entfernt vom technisch machbaren. Broadwell-EP wird es mit 22 Kernen geben. Der 6700k ist das einzig sinnvolle was man neu noch anbieten konnte ohne AMD gegen die Wand zu spielen. Und dennoch ist die CPU die teuerste QuadCore CPU aller zeiten. 2/3 der Chipfläche sind nicht die CPU sondern die iGPU. Die Konsolen haben 8 Kerne und Zen wird für neuen Wind im Consumer Bereich sorgen. Nicht umsonst wird es Broadwell-E mit bis zu 10 Kernen geben -> man bereitet sich auf einen Schlagabtausch vor. Zumal Skylake-E 2017 sicherlich mit 12 Kernen an den Start gehen wird.

Sicherlich wird der 6700k nicht von einem Tag auf den anderen langsam sein, aber es ist und bleibt ein Produkt mit dem schlechtesten P/L-V in den letzten Jahren. Naiv wenn man glaubt das KabyLake nicht mehr Cores in den Mainstream bringen wird. Viel höher geht ja auch nicht mehr mit dem Takt.
 
Zuletzt bearbeitet:
panopticum schrieb:
Zitat entfernt - Bitte Regeln beachten!​
@panopticum
Profi Rendering macht man eh nicht mit mit normalen X86 Prozessoren..da gibts besseres zb Serverprozessoren mit riesiegen Cachespeicher...wo dann mal locker so nen Gerät die Grösse eines Wohnzimmer hat..und davon gibts dann etliche in Reihe geschaltet
Ergänzung ()

iregndwann ist die Physik auch mal am ende und die Grenzen des machbaren werden so aufgezeigt....
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
strex schrieb:
Der Fokus lag ja auch mehr oder weniger beim Stromsparen und der GPU. Das es auch anders geht sieht man an den speziellen Versionen des Xeon mit sehr hohen Takt aber reduzierten Kernen.

Das hat wenig mit dem Focus, sondern mit den Möglichkeiten zu tun.

Bis heute können Sandy Bridge Prozessoren, wenn es um die Leistung pro Kern geht, mit modernen CPUs gut mithalten, dafür könnte man dank der reduzierten Strukturen vermutlich 4x so viele Kerne auf der entsprechenden DIE Grösse unterbringen.

Das sieht man vor allem bei den Serverprozessoren wo 2,6Ghz seit Jahren eine bezahlbare Linie darstellt, jedoch die Anzahl der Kerne von 4 bei mittlerweile 12 angelangt ist.

Die reduzierten Strukturen haben es möglich gemacht die Anzahl der Recheneinheiten zu erhöhen, jedoch konnte man wegen diverser Probleme nicht die Geschwindigkeit beliebig skalieren. Das wird eben in der Zukunft kein bisschen anders aussehen. Die Hoffnung kann nur darin liegen die Arbeit besser zu parallelisieren. Am Ende benötigen allerdings immer weniger Geräte noch schnellere Prozessoren, womit das Interesse der Hersteller sinkt hohe Entwicklungs- und Produktionskosten in Nischenmärkte reinzustecken. Der Spielesektor ist praktisch der einzige Bereich bei dem es bisher sinnvoll war CPUs mit hoher Einzelkernleistung herzustellen, in anderen Bereichen ist der Stromverbrauch oder die Erhöhung der Kerne wesentlich wichtiger oder nützlicher. Allerdings ist im Spielesektor schon lange die CPU nicht der Flaschenhals sondern die GPUs.

DirectX12 könnte Grafikkarten mit mehreren GPUs zu einem neuen Frühling verhelfen und dementsprechend den Bedarf an CPUs mit einen höheren Kernanzahl erhöhen. Allerdings ist der Markt für potente Spiele PCs nun auch nicht gerade am boomen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Naja, gerade 6-8 Kerne werden schon manchmal genutzt, gerade Spiele nutzen zunehmend mehr Threads auch gut verteilt.
...
Ein Turbo federt alles was nicht mit Kernen skaliert wunderbar ab. Und auch die DIE Size ist bei 8 Kernen derweil echt klein, kleiner als die Skylakes mit GPU.
...

Dass die Spiele sie benutzen heißt aber nicht, dass sie gebraucht werden oder, dass es mit weniger schnelleren Kernen nicht vielleicht doch noch schneller läuft.
Gerade mit DX12, Vulcan usw. und der enormen Entlastung von CPUs ist die Benutzung von mehreren Kernen wieder deutlich weniger wichtig. Dann werden halt mehrere Kerne nur geringfügig belastet. Da kann man sich dann freuen, dass das Spiel die Kerne durchaus benutzt, hat aber nichts davon.

Das mit dem Turbo stimmt halt nur eingeschränkt. Ein 3,0-3,6Ghz 12K/24T-Xeon im Mainstream kommt mit Turbo halt so wie er aktuell zu kaufen ist bis 3,6Ghz. Und das nicht auf allen Kernen sondern nur auf wenigen. Alles andere ist einfach langsamer, bei vielen Modellen sogar unter 3Ghz. Ein aktueller 4K/8T läuft halt gern mal auf 4Ghz als Standard und setzt da noch den Turbo drauf. Der Turbo kann zwar die Nachteile fehlender Kern-Skalierung etwas dämpfen, aber eindeutig langsamer wäre es noch immer. Wie bereits erwähnt bei für diese Nutzung und die erzielte Leistung absurden TDPs.

Solange 4 oder vielleicht auch 6 Kerne für alles was der Mainstream tut mehr als ausreichen und praktisch niemand mehr brauch, wird Intel vernünftigerweise nicht anfangen Unmengen an Kernen in den Mainstream zu pumpen. Selbst wenn AMD jetzt ankommt und über den Wettbewerb oder Marketing Kerne in den Mainstream drückt wird es in den nächsten 2-3 Jahren sicherlich keine Mainstream-Anwendungen geben, die etwas stärkeres als 4K/8T brauchen. Dafür ist auch irrelevant, ob Intel dann da mitzieht oder nicht.

xexex schrieb:
Bis heute können Sandy Bridge Prozessoren, wenn es um die Leistung pro Kern geht, mit modernen CPUs gut mithalten, dafür könnte man dank der reduzierten Strukturen vermutlich 4x so viele Kerne auf der entsprechenden DIE Grösse unterbringen.

...Allerdings ist im Spielesektor schon lange die CPU nicht der Flaschenhals sondern die GPUs.

DirectX12 könnte Grafikkarten mit mehreren GPUs zu einem neuen Frühling verhelfen und dementsprechend den Bedarf an CPUs mit einen höheren Kernanzahl erhöhen. Allerdings ist der Markt für potente Spiele PCs nun auch nicht gerade am boomen.

xexex schrieb:
Das ist BISHER der Fall gewesen, sonst hätten wir schon lange Systeme auf dem Markt die lieber auf mehr Kerne anstatt auf immer höhere Taktraten setzen.

Anscheinend ist aber die Entwicklung in den letzten Monaten an dir vorbei gegangen. Mit aktuellen oder angekündigten Spielen werden 4 Kerne gut ausgelastet und in naher Zukunft mit DirectX12 und neuen Grafikchip Generationen wird die Verteilung der Aufgaben auf mehrere Kerne noch weiter verbessert.

Die neueren Generationen sind Sandy-Bridge taktnormiert (3,2Ghz) je nach Anwendungsbereich zwischen 10 und 50% voraus (spannender Test aus der Print-Ausgabe der PCGH). Dieses ewige "Sandy ist so gut, alles neue ist praktisch null besser" geht mir langsam auf den Keks und ist schlichtweg falsch.

Du hast es selbst gesagt, bei Spielen sind die GPUs entscheidend. Was wir von DX12 bisher gesehen haben ist, dass neuerdings auch i3er und AMD FX ausreichen, um in GPU-Limits zu laufen. Wie oben schon geschrieben ist halt neben der Verteilung der Last die Reduzierung der Last auch eine Entwicklung und fällt stärker ins Gewicht. In den nächsten Jahren zumindest noch wird die CPU-Last-Reduzierung mit dem langsamen eintrudeln von DX12 den Nutzen der Last-Verteilung egalisieren.

Wegen eventueller Multi-GPU-Systeme Kerne in den Mainstream zu feuern, wäre auch nicht sinnvoll. Dass die GPU-Hersteller und Spiele-Entwickler in nächster Zeit verstärkt auf Multi-GPU mit so vielen GPUs setzen werden, dass 8 schnelle Threads nicht mehr ausreichen, ist nicht abzusehen. Dass plötzlich Systeme mit 3-4 oder gar mehr GPUs im Mainstream interessant werden, ist ebenfalls sehr unwahrscheinlich. Für VR interessante Dual-GPU-Systeme haben je nach GPU wenn überhaupt eher mit der Anbindung Probleme, als mit der Leistung eines potenten Mainstream-i7.

Im Endeffekt wollen bei Spielen alle mehr Auflösung und mehr FPS und dank DX12 und co. ist das in Zukunft noch viel mehr von den verwendeten GPUs abhängig. Ich persönlich warte ja fast darauf, dass CPUs irgendwann ganz verschwinden und GPUs dafür etwas heterogener werden...
 
Zuletzt bearbeitet:
strex schrieb:
Weil es somit faktisch keine Korrelation zwischen Mooresches Gesetz und der Preis/Leistung mehr gibt, da es deutlich abdriftet. Genau das hast du im ersten Post aber angedeutet.

Jetzt soll es schon ein Missbrauch sein das Intel seinen 14nm Prozess bis jetzt nicht unter Kontrolle hat. Ich bin mir sicher die würden liefern, wenn sie denn könnten und auch wirtschaftlicher produzieren denn dann bleibt mehr übrig. Sie würden auch wahrscheinlich 10nm bringen, gäb es die Chance mehr Gewinn statt mit 14nm zu erwirtschaften und er wäre bereits fertig. Da das aber nicht der Fall ist, reines Bashing pur.

Von Unfähigkeit auf Missbrauch zu kommen ist schon eine starke Verbiegung der Realität.



Der Fokus lag ja auch mehr oder weniger beim Stromsparen und der GPU. Das es auch anders geht sieht man an den speziellen Versionen des Xeon mit sehr hohen Takt aber reduzierten Kernen.

Selbstverständlich gibt es diese Korrelation zwischen Moores Law und den Kosten/Rechenleistung, nur dass eben AMD mit Zen das erreichen wird und es somit beim Endkunden ankommt und nicht Intel. Dass Intel seine Machtstellung missbraucht, erkennt man eindeutig daran, dass die Haswell-Reihe immer noch nicht im Preis deutlich gesunken ist, obwohl der Prozess hohe Ausbeuten erzielt und nach den letzten Jahren sehr wirtschaftlich sein sollte. Das gibt Intel schlicht nicht an den Endkunden weiter, weil die Konkurrenz fehlt und damit Profitmaximierung betreibt. Ich verstehe Ihre Intention auch überhaupt nicht, warum sie einen Monopolisten wie Intel überhaupt verteidigen. Monopole sind aus marktwirtschaftlicher Sicht grundsätzlich schädlich und das lässt sich auch gerade bei Intel ohne Weiteres nachweisen. Sowas zu verteidigen, lässt auf eine stark wirtschaftsfaschistoide Intelligenz schließen.
 
Und der Kaby Lake ist mehr oder weniger immer noch ein Pentium Pro.. der zuerst in den P II weiterentwickelt wurde, dann in den P III, und danach als Grundlage für den Core 2 Duo bildete.. welcher wiederum die Basis für alle weiteren Core ist.

Die einzige wirklich neue Architektur von Intel seit den 90er Jahren war die Netburst-Architektur des P4.. und die wurde schnell zu Grabe getragen.
 
Hopsekäse schrieb:
Die neueren Generationen sind Sandy-Bridge taktnormiert (3,2Ghz) je nach Anwendungsbereich zwischen 10 und 50% voraus (spannender Test aus der Print-Ausgabe der PCGH). Dieses ewige "Sandy ist so gut, alles neue ist praktisch null besser" geht mir langsam auf den Keks und ist schlichtweg falsch...

Taktnormiert... Du sagst es selbst.

Aber die alten CPUs laufen nicht taktnormiert und die neuen CPUs schwächeln sowohl beim übertakten als auch beim Turbo. Am Ende gab es pro Generation 5-10% mehr Leistung und in der gleichen Zeit stieg die Anzahl der Kerne (Server) von 4 auf 12-14 nur leider konnte man die BISHER nicht vernünftig bei Spielesystemen einsetzen. Anders aufgedrückt von Sandy bis zu aktuellen Generation ist die Leistung mit pro Kern mit viel Glück um 50% gestiegen in der gleichen Zeit konnte man locker beim konstanten Stromverbrauch die Gesamtleistung der CPUs vervierfachen! Das Potenzial wird auch in der Zukunft bei der Parallelisierung und nicht bei irgendwelchen Optimierungen liegen.

Schaue dir einfach mal die Benchmarks von Rise of the Tomb Raider an oder von Ashes of Singularity und schaue wie plötzlich ein i7-5820k sich an die Spitze setzt oder wieviel Leistung stellenweise ein i7-4770k dank aktiviertem HT dazu bekommt und HT ist ja nun wirklich nicht mit mehr Kernen zu vergleichen. Einen besseren Test gibt es zb. bei PCGH.


Dabei hat Computerbase es nicht einmal mit potenten Dual oder Quad GPU Systemen getestet. Man kann also bereits JETZT deutlich sehen, dass mehr CPU Kerne eine nochmals erhöhte Leistung bieten würden und die Entwickler beginnen erst jetzt die zusätzlichen CPU Kerne auch wirklich zu nutzen. Die Aussage 4Kerne wären genug ist bereits jetzt schon Makulatur nur leider lässt sich Intel den Aufpreis auf 6 oder 8 Kerne vergolden. Hier kann man nur auf Konkurrenz hoffen und wird dann auch schnell bezahlbare Octacore Systeme sehen - ohne ein Tick oder Tack da man letztlich die Entwicklung in diesem Bereich schon lange künstlich bremst.
 
Zuletzt bearbeitet:
xexex schrieb:
...
Schaue dir einfach mal die Benchmarks von Rise of the Tomb Raider an oder von Ashes of Singularity und schaue die plötzlich ein i7-5820k sich an die Spitze setzt oder wieviel Leistung stellenweise ein i7-4770k dank aktiviertem HT dazu bekommt und HT ist ja nun wirklich nicht mit mehr Kernen zu vergleichen.
...

Ist das jetzt ein Trollversuch? Ausergerechnet diese 2 Benchmarks?
Der 6-Kerner fällt unter DX12 und 4k in AotS teilweise leicht hinter einen i3. Man muss schon die niedrigeren Auflösungen und AMDs Fury nehmen, um ein Szenario zu finden, wo ein i3 nennenswert schlechter abschneidet als ein i7-6-Kerner. In den meisten Szenarien liegt der 6er mit dem i5 gleichauf.

In RotTR VERLIERT der i7 durch HT Performance, siehe direkter Vergleich bei 3,5Ghz mit und ohne HT. Am schnellsten ist er da wo der Takt bei 4,4Ghz ist, ohne HT wäre er dort der Tendenz bei 3,5Ghz nach eher noch besser.

Deine Benchmarks zeigen genau das, was ich sagte. Das CPU-Limit wurde massiv verschoben. 4-Kerner ohne und 6-Kerner mit HT leisten in AotS regelmäßig genau identisches, weil ein GPU-Limit erreicht ist. Selbst ein i3 ist so weit nicht hinterher. Vielkern-Designs wie das von AMD hängen hinter dem i3. Das mit RotTR war auch eher ein Knieschuss.
Ich bin dann mal raus. Um anderen ihre eigenen Links zu erklären, ist mir meine Zeit dann doch zu kostbar, sorry.
 
Zuletzt bearbeitet:
panopticum schrieb:
Seit Sandy Bridge bis heute gab es wohl für viele kaum Grund aufzurüsten.
Die Leistungszuwachs bis heute war schon etwas "traurig" obwohl viele Games natürlich auch nicht mehr Leistung brauchten.
Rendering ist jedoch ein anderes Thema.

Deswegen hatte ich mir vor drei Wochen einen i7 4770K in der Bucht ersteigert. So habe ich meinen Kühler und RAM behalten, aber vom i5 auf den i7 gewechselt. Der Thermalright Macho HR-02 wäre mir auf dem Skylake auch zu riskant gewesen.
 
Neulich wurde das doch noch ganz anders kommuniziert. Da hieß es das man wieder zu tick tock zurück will.^^ Da haben viele schon gesagt das das wohl mehr als optimistisch ist. Intel brauch so oder so neue Märkte, an Börse wird das nicht gern gesehen wenn da kein Wachstum mehr zu verzeichnen ist.
Ewiges Wachstum ist halt genauso sinnfrei wie die tick tock Regel

Man brauch halt mal eine wirklich komplett neue Architektur. Ich hoffe Jim Keller hat bei AMD einen echt guten Job gemacht und die Architektur wird in den nächsten Jahren noch stark verbessert werden können.

Auch zeigt das das Intel eben nicht in der Lage ist mal schnell ihre Roadmap zu ändern und irgendwas aus dem Hut zu zaubern wie hier oft gesagt wird. Alles was man machen kann is an der Preisschraube zu drehen.
 
Mehr Leistung durch mehr Kerne und anständige auf Multithreading ausgelegte Software. Dann gehts auf wieder vorwärts.
 
xexex schrieb:
Man kann also bereits JETZT deutlich sehen, dass mehr CPU Kerne eine nochmals erhöhte Leistung bieten würden und die Entwickler beginnen erst jetzt die zusätzlichen CPU Kerne auch wirklich zu nutzen. Die Aussage 4Kerne wären genug ist bereits jetzt schon Makulatur nur leider lässt sich Intel den Aufpreis auf 6 oder 8 Kerne vergolden.

In der Tat ist dem nun so! Hier beschreibt ein Intel-Ingenieur sehr schön, wie sie in Zusammenarbeit mit Codemasters in F1 2015 die freien CPU-Zeiten nutzen, um darin Partikeleffekte zu berechnen, ohne letztlich die GPU zu belasten und trotzdem den Realismus seitens Grafik weiter zu steigern.
 
@ ycon

welcher mythos? was hat sich denn soviel geändert, vom 2500er bis jetzt? sie wurden nur effizienter, nicht mehr nicht weniger aber ein must have sind die heutigen cpus nicht wirklich^^
 
Zurück
Oben