News Prozessoren: Intel trägt das Tick-Tock-Modell zu Grabe

Brötchenesser schrieb:
Ergänzung ()

iregndwann ist die Physik auch mal am ende und die Grenzen des machbaren werden so aufgezeigt....

So ist es. Wir werden in den nächsten Jahren kaum Entwicklung sehen. Vielleicht wird die Zahl der Kerne erhöht. Es gibt jede Menge Alternativen zur klassischen Architektur, die im Moment erforscht werden, aber vor 2025 wird keiner dieser Ansätze marktreif sein.
 
feidl74 schrieb:
@ ycon

welcher mythos? was hat sich denn soviel geändert, vom 2500er bis jetzt? sie wurden nur effizienter, nicht mehr nicht weniger aber ein must have sind die heutigen cpus nicht wirklich^^

Schonmal an PCI Express 3.0 gedacht. Oder Hardwareseitige Dekodierung. Sandy ist langsam zu alt, die Leistung mag stimmen, doch mit bestimmten, immer häufiger benutzte Befehlssätze, die Sandy nicht rafft, zieht Sandy die Kuh nicht mehr vom Eis.

Ihr wollt Neuerungen im CPU Bereich und Intel liefert immer mal wieder. Für euch nicht unbedingt sichtbar, aber mit den neuen "Treiber"(Befehlssätze) ist Skylake verdammt schnell im Gegensatz zu Sandy. Müsste nur mal jemand in Spielen vernünftig nutzen, aber dann wird gemurrt beim Rest vom Schützenfest.
 
Zuletzt bearbeitet:
Hopsekäse schrieb:
Ist das jetzt ein Trollversuch? Ausergerechnet diese 2 Benchmarks?
Der 6-Kerner fällt unter DX12 und 4k in AotS teilweise leicht hinter einen i3.

CPU Vergleich in 4K? Wirklich? Wer versucht hier zu trollen? Lern bitte selbst Vergleichstabellen richtig auszuwerten.
https://www.computerbase.de/2016-02...#diagramm-cpu-skalierung-1920-1080-gtx-980-ti

Der i7-5820K 6x3,3Ghz (3,6) ist schneller als der i7-6700K 4x4,0Ghz (4,2). Das zieht sich dieses Jahr so langsam durch alle Tests und durch diverse Spiele und wird sich in der nächsten Zeit wegen der Konsolen und Directx12 noch weiter in diese Richtung entwickeln.

Unter Directx12 sieht dann sogar der FX-8370 wieder gut aus, was zusätzlich zeigt dass mehr Kerne selbst mit der betagten und bei Singlecore Benchmarks nicht konkurrenzfähigen AMD Architektur große Auswirkungen haben. Dafür muss man keine Jahre mehr warten, vermutlich wird das auf einen Großteil der Spiele in diesem Jahr zutreffen und auch VR wird durch die zusätzliche Rechenleistung (mehr Kerne) profitieren können.

Einen besseren Zeitpunkt kann sich AMD eigentlich gar nicht aussuchen als JETZT eine bezahlbare Plattform mit 6-8 Kern CPUs vorzustellen.

Faust2011 schrieb:
In der Tat ist dem nun so! Hier beschreibt ein Intel-Ingenieur sehr schön, wie sie in Zusammenarbeit mit Codemasters in F1 2015 die freien CPU-Zeiten nutzen, um darin Partikeleffekte zu berechnen, ohne letztlich die GPU zu belasten und trotzdem den Realismus seitens Grafik weiter zu steigern.

Danke für den Link! Ich fand auch die Erklärung von Nixxes ganz gut, auch wenn die Auswirkungen bei Tomb Raider noch nicht den gewünschten Erfolg gebracht haben und man Ergebnisse erst sehen wird wenn man die zusätzlichen Ressourcen wie bei Intel von Anfang an einplant sind.

Das wird dann mit Sicherheit in den kommenden Spielen wie bei der Umstellung von DX10 zu DX11 aussehen.
http://blog.bioware.com/2011/03/03/the-technology-of-dragon-age-ii-–-part-2/
 
Zuletzt bearbeitet:
Als ob es einen Engpass bei der Prozessorleistung gäbe. Ich versteh hier immer die ganze Aufregung nicht. Momentan sieht es doch schlicht so aus, wer mehr Leistung braucht muss entsprechend mehr Kerne in sein System stecken. Das blöde ist, dass es noch immer massig Entwickler gibt, die nicht gewillt sind zu parallelisieren und vermutlich fehlt auch in so manch einem Bereich auch noch der passende Algorithmus.

AMD hat doch bei der ZEN Ankündigung vor einem Jahr schon recht deutlich gesagt, dass sie auf die derzeitige Leistung (das hieß vor einem Jahr!) von Intel aufschließen werden. Es wäre natürlich schön, wenn es anders ausfällt, aber hier dennoch immer wieder diese ZEN tritt Intel in den Popo Sprüche zu lesen ist schon ein wenig drollig.

Und Intel hat ja auch bereits deutlich gemacht, dass ein Limit erreicht ist. Nun wird hauptsächlich an der Effizienz gearbeitet, was vermutlich in mehr Kernen im Konsumer Segment enden wird.

Fazit ist doch, man hat noch nie einen PC mit ordentlicher Leistung preiswerter bekommen als heute und das auch mit Intel on Board.

Mehr Preisbewegung gäbe es, wenn ein neuer Mitstreiter bei den Chipsätzen auftreten würde, aber das Debakel hatten wir schon mal in der Vergangenheit :) Denn es ist absurd, wie teuer Mainboards im Verhältnis zur CPU geworden sind.
 
Zuletzt bearbeitet:
xexex schrieb:
Der i7-5820K 6x3,3Ghz (3,6) ist schneller als der i7-6700K 4x4,0Ghz (4,2). Das zieht sich dieses Jahr so langsam durch alle Tests und durch diverse Spiele und wird sich in der nächsten Zeit wegen der Konsolen und Directx12 noch weiter in diese Richtung entwickeln.
dazwischen schiebt sich aber ein i5 4690, teilweise auf gleicher Leistung wie der 6 kerner.
Das mehr kerne in Zukunft auch durchgehend mehr Leistung bedeuten ist klar, aber an dem Ashes of the Singularity würde ich das jetzt nicht unbedingt festmachen...
Ergänzung ()

Spawn182 schrieb:
AMD hat doch bei der ZEN Ankündigung vor einem Jahr schon recht deutlich gesagt, dass sie auf die derzeitige Leistung (das hieß vor einem Jahr!) von Intel aufschließen werden.
Die haben auch vor release der fury das blaue vom himmel erzählt und wurden noch vorher von der 980ti vernascht.
Ich denke da wird nur heiße luft kommen....
 
ScOuRgE_ schrieb:
Ich verstehe Ihre Intention auch überhaupt nicht, warum sie einen Monopolisten wie Intel überhaupt verteidigen. Monopole sind aus marktwirtschaftlicher Sicht grundsätzlich schädlich und das lässt sich auch gerade bei Intel ohne Weiteres nachweisen. Sowas zu verteidigen, lässt auf eine stark wirtschaftsfaschistoide Intelligenz schließen.

Dafür gibt es klare Gründe, wer mit solchen Begriff um sich wirft sollte die schon wissen. Die Produktion wird heruntergefahren, bestehende Werke umgerüstet oder für Produkte wie die 10G ASICs verwendet. Das sind bis auf bestimmte mit langem Live Support nur noch Restware. Das sieht man deutlich am i7-4770K, wurde deutlich teurer nach Abkündigung und das ist nicht nur dem Euro Dollar Verhältnis geschuldet.

Bisschen Denken schadet nie.

ScOuRgE_ schrieb:
Ich verstehe Ihre Intention auch überhaupt nicht, warum sie einen Monopolisten wie Intel überhaupt verteidigen. Monopole sind aus marktwirtschaftlicher Sicht grundsätzlich schädlich und das lässt sich auch gerade bei Intel ohne Weiteres nachweisen.

Auch Monopole unterliegen den wirtschaftlichen Gesetzen, so kann auch ein Monopolist nicht extrem hohe Preis verlangen, dann kauft nämlich keiner mehr und die Hardware wird statt 3 eben 5 oder 6 betrieben. Das wüsste man aber wenn man die passenden Bücher liest und nicht immer auf Stammtischparolen reinfällt.

ScOuRgE_ schrieb:
Sowas zu verteidigen, lässt auf eine stark wirtschaftsfaschistoide Intelligenz schließen.

Nein, gesunder Menschenverstand der die heutige Wirtschaft kapiert hat. Wer nur nach Linke Wirtschaftsstrategien strebt kann das eben nicht verstehen. Jedes Unternehmen strebt danach ein Monopolist zu werden, auch AMD und zeigt auch schön das trotz kaum vorhandener Konkurrenzen im x86 Geschäft, keine utopische Preise verlangt werden, denn sonst würde keiner mehr kaufen. In x86 Servermarkt könnte Intel auch locker das doppelte verlangen ohne auch nur über Konkurrenz nachzudenken, tut es trotzdem nicht sonst wäre das Verhältnis zwischen Marge und Verkaufszahlen und somit der Gesamtgewinn geringer. Weil wir als Firmen eben ein paar Jahre dranhängen bis die der Punkt erreicht ist, dass die Stromkosten nicht mehr wirtschaftlich sind. Ja ich weiß das ist super kompliziert.

Zumal die früheren Preise auch bei hohem Anteil von AMD kaum höher sind als heute, wenn man inflationsbedingt Faktoren wie auch die Währungskurse mit berücksichtig gibt es sich kaum ein großer Unterschied. Nicht umsonst wird die neue Linie 1:1 mit dem vorherigen Preis ersetzt. Somit legt Intel wie auch andere Hersteller mehr drauf als durch den neuen Prozess eingespart wird, weil wie im von mir zitierten Artikel zu lesen bei allen Halbleiterhersteller die Ersparnis von den hohen Kosten bei weitem aufgefressen wird. Aber ja das passt nicht in's Weltbild und wird dann für Sie schon zu kompliziert, dass tut mir leid.
 
Zuletzt bearbeitet:
Chapsaai schrieb:
was mich eher wundert ist dass intels vorsprung jetzt plötzlich doch so sehr schrumpft, immerhin kann man davon ausgehen dass es einige milliarden gekostet hat diesen vorsprung zu erreichen.

Es ist viel Kapital durch die Fertigung von Handy-SOCs in die Non-Intel-Fabs geflossen. Die Non-Intel-Fabs konnten dadurch aufholen und Intel kann seine Fabs nicht von Luft und Liebe finanzieren.

Intel muß auf jeden Fall aufpassen auch in Zukunft genug Waferfläche verkaufen zu können, das könnte eine Motivation für den Kauf von Altera gewesen sein.
Ergänzung ()

Gucky10 schrieb:
Es wird wohl so sein das die Investitionen überproportional höher ausfallen müssen ohne das man einen echten und fühlbaren Vorteil erreicht. Also ist es besser sich von diesem Modell zu verabschieden und sich damit nicht selbst unter Druck zu setzen. Ich gehe mal davon aus das man bei Intel oder anderswo daran arbeitet den Prozessor neu zu erfinden , mit neuer Architektur, neuer Konzeption, neuer technischer Lösung um damit wieder effektiv an der Leistungsschrauben drehen zu können. Nicht nur im Consumerbreich. Bis dahin wird man versuchen sich über marginale Veränderungen den Geldzufluss zu stabilisieren um die notwendigen (Grundlagen-)Forschungen finanzieren zu können.

Bei gleichzeitiger Binärkompatibilität? Multi- oder Many-Core fähige Software hat lange gebraucht und wird auch lange brauchen. Durchbrüche mit neuen Materialien sind auch nicht richtig in Sicht.
 
Zuletzt bearbeitet:
es gibt schon seit mehreren Jahren keinen wirklichen Fortschritt.
Benutze nach wie vor einen Intel I7 920 @ 3,6 GHZ und wüßte nicht warum ich mir einen neuen Sockel + CPU anschaffen sollte.
Das einzige was mich mittlerweile stört ist der Stromverbrauch (da noch 45 nm Fertigungstechnologie) ...
 
Zuletzt bearbeitet:
strex schrieb:
Dafür gibt es klare Gründe, wer mit solchen Begriff um sich wirft sollte die schon wissen. Die Produktion wird heruntergefahren, bestehende Werke umgerüstet oder für Produkte wie die 10G ASICs verwendet. Das sind bis auf bestimmte mit langem Live Support nur noch Restware. Das sieht man deutlich am i7-4770K, wurde deutlich teurer nach Abkündigung und das ist nicht nur dem Euro Dollar Verhältnis geschuldet.

Bisschen Denken schadet nie.

Denken? Erstmal sollten Sie solche Aussagen belegen können, statt sie einfach nur in den Raum zu werfen. Abgesehen davon steht wiederum nirgendwo, dass so etwas eine Notwendigkeit hat. Es geht hier darum, dass ein jahrzehnterlanger Monopolist seine Marktmacht missbraucht, rechtskräftig zu Kartellstrafen wegen unlauterem Wettbewerb verurteilt wurde und somit dem Endkunden schadet.


strex schrieb:
Auch Monopole unterliegen den wirtschaftlichen Gesetzen, so kann auch ein Monopolist nicht extrem hohe Preis verlangen, dann kauft nämlich keiner mehr und die Hardware wird statt 3 eben 5 oder 6 betrieben. Das wüsste man aber wenn man die passenden Bücher liest und nicht immer auf Stammtischparolen reinfällt.

Ich habe nicht behauptet, dass ein Monopolist jeden astronomischen Preis verlangen kann. Ich habe lediglich behauptet, dass der Endkunde einen Großteil von den rund 11 Mrd. $ Gewinn bezahlt, den Intel 2015 erzielt hat und das unter ordentlichem Wettbewerb nicht der Fall ist. Bücher lese ich übrigens viele, das hier z.B. :

Die-Entscheidung-Kapitalismus-vs-Klima

Sollten Sie vielleicht auch mal hin und wieder tun, damit Sie hier nicht so neoliberale, wirtschaftsfaschistoide Stammtischparolen verbreiten, die sich rechts der Neoklassik mit vollkommenem Markt befinden.

strex schrieb:
Nein, gesunder Menschenverstand der die heutige Wirtschaft kapiert hat. Wer nur nach Linke Wirtschaftsstrategien strebt kann das eben nicht verstehen.

Gesunder Menschenverstand, der die heutige Wirtschaft kapiert hat? Merken Sie was? Doch, ich verstehe diese Wirtschaftsstrategien sehr wohl, deswegen verachte ich sie ja auch massiv. Ich werde damit Recht behalten, dass der Fortschritt der neuen Technologieknoten erst mit Zen beim Endkunden ankommen wird.

strex schrieb:
Aber ja das passt nicht in's Weltbild und wird dann für Sie schon zu kompliziert, dass tut mir leid.

Och, bei mir passt so ziemlich alles ins Weltbild, ich bin sehr weltoffen. Ich frage mich deswegen auch, woher Sie mich eigentlich so gut kennen. Vor allem ist mir als Elektrotechniker eigentlich nichts zu kompliziert. Was ich mich gerade eher frage ist, wie Sie eigentlich bei Ihrer Zeichensetzung, Rechtschreibung und derart fragwürdigen Ansichten zu irgendeiner Position in irgendeiner Firma kommen. Ah, warten Sie, ich hab's...
 
Zuletzt bearbeitet:
Krautmaster, ich lache mich weg.
Tag für Tag, Monat für Monat, jetzt bald 10 Jahre bist du der Sprecher und Anwalt und Marketingleiter für Intel in diesem Forum mit diesem Nick. Du warst dir nie zu schade die moralischen und auch strafrechtlichen Vergehen von Intel zu beschwichtigen. Selbst Themen die nur am Rande mit AMD in Einklang zu bringen sind, nutzt du eifrig um deine schlechte Bewertung über AMD uns mitzuteilen. Wenn es mal nicht ganz gereicht hat, eine Lobpreisung über Intels CPUs und eine Abwertung der AMD CPUs ins Forum zu drücken, dann kam eben deine Nvidia ist so perfekt und AMD ist so unfähig Keule.
Und jetzt soll AMD für dich die Stange halten, damit du günstiger MultiCore CPUs einkaufen kannst. Natürlich von Intel.
Ist ja sehr interessant.
 
So wie ich das sehe geht Intel derzeit viel Geld verloren.
Anders kann ich mir solche und ähnliche Sparmaßnahmen nicht erklären.
- XEON den Servern
- Baseclock OC verbieten und das Verbot exekutieren
- Produktzyklen hinauszögern

Leistungstechnisch gibt es zwar immer wieder kleinere Sprünge, jedoch lohnt sich das nur für die wenigsten Anwender
Aber Intel hat noch einen Trumpf!
CPU Absatz über Softwarelimitierungen zu steigern.
Es wird dann halt passieren dass ein neues OS mit einer älteren CPU nicht bootet oder ein neues Board keine alten CPUs unterstützt (Sockel bleibt aber der gleiche)
 
cruse schrieb:
Ergänzung ()

Die haben auch vor release der fury das blaue vom himmel erzählt und wurden noch vorher von der 980ti vernascht.
Ich denke da wird nur heiße luft kommen....

ignorierst du sämtliche Direct x 12 Benchmarks? Dort wird ziemlich deutlich, dass die Fury mehr Rohleistung hat, als die 980ti. Je älter die Karten werden, umso eklatanter wird die Aussage von AMD.
 
Naja war abzusehen dass die Verkleinerung der Strukturen irgendwann ins Stocken gerät - ich weiß noch zu Zeiten der ersten Dualcore CPUs kursierten noch Meinungen dass bei ~16nm Schluss sei wegen Quanteneffekten usw... jetzt sind wir immerhin schon im Einstelligen nm Bereich und eine absolute Grenze ist noch immer nicht erreicht.

Ich sehe das aber nicht so problematisch, für echte Innovationen ist das sogar gut wenn die ausgetretenen Pfade nicht mehr zielführend sind - solang es funktioniert verlässt sich die Industrie gerne auf kalkulierbare kosteneffiziente Weiterentwicklung...
Im Prinzip hatten wir zu Anfang der Pentiums und Athlons eine ähnliche Situation - man hat einfach die Taktrate immer höher geschraubt, erst als hier eine gewisse Grenze erreicht war hat man die Architektur selbst entscheidend verbessert und Multicores eingeführt.
Diesmal ist die Grenze halt noch fundamentaler und erfordert wohl ein völlig neues Konzept, umso größer wird der Sprung sein wenn er dann kommt.
 
Da es keinen Konkurenzdruck seitens AMD gibt, gehen die Preise nicht runter und die Inovationen geraten ins stocken. Das ist die logische Konsequenz.. :rolleyes: Konkurenz zeigt eventuell eigene Wege für derzeitige Problemlösungen und neue Fertigungstechniken auf..

Im Moment wird man Entwicklungstechnisch noch nicht so viel davon merken, aber jedes Jahr in dem der Zustand vorält,
fehlt uns nach hinten raus. CPUs werden ja nicht nur zum Zocken verwendet. Schnelle und günstige CPUs sparen Zeit und Geld. Wenn ich bei jedem "Tock" die hälfte an Zeit z.B. beim Encoden spare, sehne ich mich nach dem "Tick"

Wenn AMD und NVIDIA sich nicht ständig gegenseitig Pushen würden, hätten wir verm. keine Karten im Mainstream Sektor der die HTC Vive oder die Oclus bedienen könnten.
 
Zuletzt bearbeitet:
ScOuRgE_ schrieb:
Ich habe nicht behauptet, dass ein Monopolist jeden astronomischen Preis verlangen kann. Ich habe lediglich behauptet, dass der Endkunde einen Großteil von den rund 11 Mrd. $ Gewinn bezahlt, den Intel 2015 erzielt hat und das unter ordentlichem Wettbewerb nicht der Fall ist.
Ich bleibe mal bei dem Du, da sich sowas in Foren eingebürgert hat und wir hier ganz sicher nicht irgendwo sind, wo man keine falsche gespielte Höflichkeit braucht.

Nun ja, dass bei den über 11 Mrd. $ Gewinn die Endkunden sehr viel beigetragen haben, kann man so genau nicht belegen oder widerlegen. Natürlich macht die "Client Computing Group" 60% aus am Umsatz, jedoch ist die Gewinnmarge in anderen Bereichen höher, gerade in der Datacenter, und der macht auch bereits ca. 30% aus.

Dazu kommt, dass in der ClientGroup auch der sehr wichtige B2B-Markt enthalten ist, wodurch diese Aufschlüsselung schon sehr schwer wird, woher den nun wirklich der Löwenanteil des Gewinnes herkommt ... man sollte solche Behauptungen nur aufstellen, wenn man es wirklich belegen kann.

Was ich hier jedoch viel lustiger finde ist immer noch die Mär, dass die Preise - sobald AMD wieder konkurrenzfähig ist - purzeln werden und der CPU-Markt ja vollkommen überteuert ist ... Nun irgendwie scheinen die meisten hier überhaupt kein Langzeitgedächtnis zuhaben oder sie leiden unter kollektivem Alzheimer, was dann schleunigst untersucht werden sollte, vor allem oder gerade weil hier das Durchschnittsalter wohl unter 70 Jahre liegt.

Ich erinnere mich gut an die Zeiten, als ich für einen Prozessor von AMD gut 500€ gezahlt habe und ein "Highend-PC" nicht unter 1800 - 2200€ zu bekommen war. Heute liegt das obere Ende der Nahrungskette um die 300,- - sofern man mal den teuren Sockel 2011-3 ausschließt. Grafikkarte? Gut, durch die Titan und dann 780Ti gingen die Preise für das letze Quäntchen zwar nach oben, aber auch hier kann man streiten. Wenn man jedoch mal die Inflation und die Euro-Dollar-Schwankungen mit einbezieht, relativiert sich das auch eigentlich. Die Preise im PC-Markt sind und waren seit Jahren sehr stabil ...

Das die Leute gerne weniger Zahlen wollen ist verständlich, jedoch sollte einige hier mal ihren Kopf einschalten und nachdenken, statt nur blind zu plappern.

AMINDIA schrieb:
Solche Spinner gibt es immer wieder. Auch hier wird vergessen, dass der Markt für PC-Hardware eigentlich seit Jahren relativ Konstante kosten haben und sogar günstiger geworden ist. Heute kann man einen sehr guten PC zum Spielen schon für 1000,- zusammen schrauben, vor 15 Jahren war das noch nicht so.
 
Zuletzt bearbeitet von einem Moderator:
Teralios schrieb:
Ich erinnere mich gut an die Zeiten, als ich für einen Prozessor von AMD gut 500€ gezahlt habe und ein "Highend-PC" nicht unter 1800 - 2200€ zu bekommen war. Heute liegt das obere Ende der Nahrungskette um die 300,- - sofern man mal den teuren Sockel 2011-3 ausschließt.

Dass es früher schon mal deutlich teurer war da sind sich wohl alle einig.
Ich meine aber dass zu Einführung der Core Architektur oder kurz danach die Preise etwas niedriger waren wie heute, damals hat man die interessanten CPUs fast alle im Bereich 150-280€ bekommen und oben kursierten dann nur noch 3 teure Modelle mit ~350,~550 und ~800€ (Bei Intel)

Gefühlt haben die CPU Preise seit damals leicht angezogen, ist aber auch schwer zu vergleichen weils heute einfach viel mehr Modelle gibt als damals.

Der Vorteil heute ist eher dass man die Leistung der Highendmodelle kaum braucht und auch ein Wechsel auf ne neue Generation viel seltener nötig ist.
 
Zuletzt bearbeitet:
Teralios schrieb:
Was ich hier jedoch viel lustiger finde ist immer noch die Mär, dass die Preise - sobald AMD wieder konkurrenzfähig ist - purzeln werden und der CPU-Markt ja vollkommen überteuert ist ... Nun irgendwie scheinen die meisten hier überhaupt kein Langzeitgedächtnis zuhaben oder sie leiden unter kollektivem Alzheimer, was dann schleunigst untersucht werden sollte, vor allem oder gerade weil hier das Durchschnittsalter wohl unter 70 Jahre liegt.
Nun ja. Viele haben halt nur ein selektives Gedächtnis und erinnern sich nur an Dinge, die ihrer Argumentation dienlich sind.

​Viele erinnern sich nur an die Preise der Radeon HD5000, welche damals für die gebotene Leitung wirklich sehr günstig waren und nehmen halt an, dass dies ein ganz normaler Preis für ein neues Produkt ist.
​Das aber eine Radeon Fury vergessen wird, die gerade das aktuellste Modell ist und auch bis zu über 700 € kosten kann und zeigt, dass AMD für ein neues Produkt entsprechende Preise verlangt, wird auf bedenklich schnelle weise aus den Augen verloren.

​Auch wird gerne oft die Zeit des Core 2 herangezogen.
Auch so ein Sonderfall, bei dessen erscheinen mehrere Faktoren zusammenspielten.
​Einmal haben sie halt wirklich alles platt gemacht, was damals auf dem Markt war und zweitens war der Phenom halt eine ziemliche Enttäuschung. Dazu kam noch, dass die Topmodelle, die Richtung 1.000 € gingen nur einen schnelleren Takt hatten und somit nicht wirklich schneller waren, wie die CPU für knapp 300 €.

​Der PC Markt war in den letzten paar Jahre sehr im Wandel: Aufkommen der iGPU's, immer sparsamere CPU's und nicht wie früher "Wenn interessiert die TDP? Kann ja in die Unendlichkeit steigen, solange es Leistung passt". Grenzen in der Fertigung.

​Es gibt sehr viele Faktoren, die den heutigen CPU Markt prägen und weit vor Intels "Quasi Monopolstellung" kommen.
 
http://www.golem.de/news/air-gaps-intel-laesst-bei-broadwell-die-luft-raus-1411-110715.html
Bzw https://www.computerbase.de/forum/t...-modell-zu-grabe.1571295/page-6#post-18629590

Der 14mn Prozess von Intel weißt einen Transistor Fin Pitch von 42nm auf, ein Gate ist sogar 70nm groß, alles nur Schall und Rauch und wir sind noch meilenweit weg von tatsächlichen 16nm Abständen.
Das ist auch nur mit ULV Technologie zu belichten. Egal wie GLoFo, Samsung oder TMSC das nennen, es ist nur ein technologiebegriff für die Strukturnodes.
 
@Buttermilch: Danke, war mir in dem Maße gar nicht bewusst.

War das früher mal anders? Also waren 90nm damals noch wirklich 90nm Strukturen oder wann hat man angefangen die Gesamttransistordichte in fiktive nm in Bezug auf alte Generationen umzurechnen?
 
Zurück
Oben