News CPU-Gerüchte zur CES: 10-Kern-Broadwell-E für 1.500 US-Dollar, Kaby Lake erst 2017

Mhmm 10 Kerne, das wird sicher wieder ein 150W.
Ohne Wakü wird das übertakten bestimmt ganz schön heiss.


Turican76 schrieb:
Bedankt euch bei den Leute die in den letzten 5 Jahren auf gerüstet haben.Sie sind dafür verantwortlich.
Kein Ding, gern geschehen.
Mein 3930K lässt dir grüße ausrichten.

thokra2008 schrieb:
Da bleibe ich bei meinem uralt E8400 2x3GHz. Übertaktet @4,3 GHz oder undervoltet @1,2 GHz.
Der 8400 wird sogar von nem 15W ULV chip geschlagen. XD
http://cpu.userbenchmark.com/Compare/Intel-Core2-Duo-E8400-vs-Intel-Core-i7-6500U/2720vsm36930
Da ist das übertakten noch nen tropfen auf den heißen Stein. Aber wenn es dir reicht kann dich niemand zum aufrüsten zwingen.
 
Conceptions schrieb:
Ja, Intel ist durchaus kein guter Konzern.

Ich vermute ihr fandet es auch noch ungerecht das Intel verurteilt wurde.
Willst du Troll des Tages werden?
Warum wurden die denn verurteilt? Weil die keinen 24 Kerner im Desktopmarkt gebracht haben? :lol:
Vielleicht überlegst du erstmal worum es in meinem Post ging anstatt stumpf so einen Mist zu schreiben.

Aber hey, ich habe nicht blind gegen Intel gewettert, das muss dann natürlich nen Intel-Fanboy sein. :freaky:
 
Flobou schrieb:
+2 Kerne heißt beim 2011er Sockel immer gleich 500€ mehr. Aber vielleicht wirds durch Zen billiger.

Ein letztes mal.
Ich glaube sowieso nicht das Zen irgendwas retten wird, selbst wenn er besser werden sollte als vergleichbare Intel CPUs.
 
Zuletzt bearbeitet von einem Moderator:
Das denke ich schon, zumindest wenn die Leistung tatsächlich konkurrenzfähig gegenüber Intel sein sollte. Das große Konzerne wie Google nicht erfreut sind das Intel den Markt dominiert und die Preise oben hält ist ja nichts neues und ich denke wenn AMD da tatsächlich was gescheites abliert werden genug Großabnehmer das zu schätzen wissen.
Ich als Privatanwender finde die Preisgestaltung von Intel auch als reine Abzocke, den Zehnkerner werden sich nur supernerds und Millionärssöhne holen, Workstations haben bestimmt eh schon alle Xeons. Ich freue mich auf Zen und werde mein 2500k, gtx780 und sata ssd gespann dann Ende dieses bzw. Anfang nächsten Jahres nahezu komplett tauschen und zwar mit AMD Sachen!
 
KlaasKersting schrieb:
Warum sollte man Mainstream Software auf mehr als vier Kerne optimieren, wenn der Mainstream Kunde nicht mehr als vier Kerne hat?
Weil sich auch ein Mainstream Kunde einen 4C/8T i7 kaufen kann, was sich ebenfalls in mehr Leistung auszeichnen kann, wenn man entsprechend optimiert. Es müssen nicht unbedingt gleich 6C/12T sein, um einen Grund zum Optimieren zu haben.

Und i7 mit HT gibt es ja nun schon lange genug.
 
Das ist sicher eine tolle Überraschung für alle, die eigentlich Kaby Lake Mitte 2016 kaufen wollten. Und Skylake übergehen wollten.
 
flo36 schrieb:
Hmm also Intel hat entweder massive Probleme in der Weiterentwicklung oder wir übersehen irgendwas. Kann doch nicht sein, dass wir nun seit 5 Jahren auf so hohem Niveau unterwegs sind, dass es schwer ist was daran zu verbessern.
Jein. Haben sie, aber nicht allgemein sondern nur bei der Weiterentwicklung in eine bestimmte Richtung. Nämlich was die Leistung pro Kern angeht. Da stößt man nämlich einfach an physikalische Grenzen. Da ist es wirklich extrem schwer geworden, etwas zu verbessern. Ich versuchs mal ganz einfach zu machen:
Es gibt mehrere Spannungsfelder (bezogen auf einen Kern):

1) Takt vs komplexität der Architektur
Ein bestimmtes Design verträgt nur so und so viel Takt. Wenn ich mehr Leistung will, kann ich mehr Takt geben oder eine komplexere Architektur (mehr Einheiten) drauf geben (oder halt beides).
Die AMD-Architektur ist z.B. etwas einfacher als die von Intel, deshalb fahren die FX im Schnitt ein gutes Stück mehr Takt.

2) Komplexität vs Effizienz
Wenn man einfach mehr Einheiten drauf gibt, braucht man mehr Strom und gibt mehr Wärme ab. Nicht nur für die Einheiten an sich, sondern auch, weil dann die Strecken dazwischen im Schnitt zwangsweise länger werden und längere Strecken auch mehr Strom brauchen. Das skaliert also nicht gut.

3) Komplexität vs Leistung
Klingt komisch, ist aber so: Es ist schwierig eine Architektur zu entwickeln, die einfach so mehr Einheiten benutzen kann. Denn einfach nur mehr Rechnen geht nicht. Man braucht auch von all den "Hilfskonstruktionen" (Register, breitere o.o.O.-Fenster, breitere Pipelines usw.) außen rum mehr, um die zu verwenden. Blöd formuliert: Um aus höherer Komplexität mehr Leistung zu kriegen braucht man noch mehr Komplexität.

4) Leistung vs Speicher
Caches sind ein großes Problem. Wenn eine CPU schneller wird, kann sie mehr Daten verarbeiten. Wenn man mehr Daten verarbeitet, müssen die irgendwo her kommen. Die Caches müssen also mehr Daten parat haben. Hinter den Caches sitzt immer der Speicher. Der wird nicht so grandios viel schneller in letzter Zeit und ist im Vergleich zu den Caches ohnehin extrem langsam. Also am besten den Cache größer machen, damit man viel verarbeiten kann aber nicht öfter an den Speicher muss. Cache braucht Platz, Cache braucht Verwaltung, Cache braucht Strom...

Das sind nicht mal alle. Ich bin kein CPU-Ingenieur, aber das sind ein Paar, die ich zumindest kenne.
Was sagt uns das jetzt? Die Zeiten wo man "leicht und billig" mehr Kern-Leistung bekommen hat sind vorbei. Einfach mehr Takt geht nicht, einfach mehr Einheiten geht nicht.
Es bleibt kein anderer Ansatz als die Architektur nicht größer zu machen, sondern bei sehr ähnlicher Größe einfach besser zu machen. Und das ist durchaus schwer, besonders wenn man schon seit Jahren dran ist und immer wieder etwas mehr rausgekitzelt hat.

Also: Pro-Kern-Leistung ist schwer zu holen, also holen wir wo anders mehr Leistung. Z.B. bei der Kernzahl.

Und da macht Intel durchaus Fortschritte. Der angebliche heilige Gral Sandy Bridge (so viel besser als der Vorgänger war der gar nicht, Sandy zu Haswell ist von der Pro Kern-Leistung ein größerer Sprung als Nehalem zu Sandy) bot noch maximal 8 Kerne. Haswell hat 18 und Skylake soll bis 24 oder 25 oder so gehen.

Davon merkt man aber im Desktop nicht viel. Der mMn wichtigste Grund dafür ist, dass man es da einfach nicht braucht.
(Siehe weiter unten)

Nova eXelon schrieb:
Weil sich auch ein Mainstream Kunde einen 4C/8T i7 kaufen kann, was sich ebenfalls in mehr Leistung auszeichnen kann, wenn man entsprechend optimiert. Es müssen nicht unbedingt gleich 6C/12T sein, um einen Grund zum Optimieren zu haben.

Das eigentliche Problem übersiehst du:
Der Mainstream-Kunde braucht nicht mehr Leistung als er kaufen kann. Die pro-Kern-Leistung zu erhöhen ist irre schwer geworden (siehe oben) und mehr Kerne mit zu kaufen, nur weil die CPU-Entwickler in diese Richtung weiter entwickeln (müssen), ist nicht besonders sinnvoll.
Es schimpfen immer alle auf die Software... Warum sollte ich als Entwickler denn Programme, die trivialste Aufgaben erledigen parallelisieren? Schonmal selbst gemacht? Ein großer Teil der "normalen" Mainstream-Software führt so einfache Aufgaben aus, dass nicht mal nur der Aufwand, das zu programmieren unnötig wäre, sondern allein das anlegen und verwalten von Threads länger dauert als die Aufgabe selbst.
Nimmt man nun weniger "Mainstream" Software, dann wird man feststellen, dass da ganz viel schon parallelisiert ist. (Überraschung, da wo es sinnvoll ist, wird es auch eher gemacht.)

Im Endeffekt wollen alle mehr Leistung kaufen können. Am besten über die Zeit mehr Leistung fürs selbe Geld oder die selbe Leistung für weniger Geld. Ist auch verständlich, mehr kriegen ist immer schön. Aber der Bedarf wird auch aus den Augen gelassen.
Man ärgert sich darüber, dass man nicht mehr Kerne kaufen kann, dass Software mehr Kerne oft nicht nutzt, aber sitzt Gleichzeitig vor den Tatsachen, dass die Kerne die vorhanden/kaufbar sind für die überwältigende Mehrheit der Anwendungen mehr als ausreichen. Und wer wirklich mehr braucht als Mainstream, der kann mehr kaufen.

Also was soll Intel denn machen? 6-8 Kerne in den Mainstream feuern, wo sie absolut 0 benötigt werden? Warum sollte Leistung zum Mainstream werden, die Mainstream Software nicht braucht? Damit sich die, die mehr brauchen als Mainstream, freuen können, dass sie jetzt weniger bezahlen müssen? Intel würde sich selbst Kunden absägen, die statt High-End nur noch Mainstream kaufen. Da würde am Ende sogar der Mainstream wieder teurer werden, weil beim High-End die Margen größer sind und das ausgeglichen werden müsste...
Und den High-End-Markt hat Intel seit Sandy absolut nicht außer Acht gelassen. Waren mit Sandy 6 Kerne noch Flagschiff, hat Haswell 6 Kerne günstiger gemacht und 8 Kerne fürs Flagschiff gebracht. Dazwischen war Ivy-Bridge eher eine Nullrunde. Dagegen bringt jetzt Broadwell immerhin schon günstigere 8 Kerne und bringt, wenn auch teure 10 Kerne. Dafür sind diese 10 Kerne auch ein größeres Upgrade gegenüber dem Mainstream als vorher. Man könnte glatt vermuten, dass Skylake-E 8 und/oder 10 Kerne günstiger bringt und vielleicht noch 12 Kerne einführt. Dann wäre man bei 3x so vielen Kernen wie im Mainstream. Noch bei Sandy konnte man sich gerade mal das 1,5-fache vom Mainstream kaufen.
 
Xes schrieb:
Ist natürlich auch die Frage wozu immer mehr Kerne?
Für mich wäre ein ein 4/6-Kerner mit extrem hoher IPC und sehr hoher Taktmöglichkeit (+HT) ideal. Mehr nutzt meine Software (zum größten Teil Spiele oder einfache Anwendungen) auch nicht aus.
Privat brauchen die meisten auch einfach nicht mehr.
Ich kenne jetzt niemanden der mit einem Sockel 115X i5/Xeon/i7 privat nicht vollkommen auskommen würde.

Hier! *Finger heb*

Ich bräuchte von der Leistung her einen i7-6700K mit 5,0 GHz+.
Und damit das ganze halbwegs vernünftig in die Zukunft trägt, das ganze bitte als Sechskerner. Dafür würde ich auch ~600 - 700€ hinlegen.

Gibt es aber nicht.
Ach ja, ich brauch das rein privat, unsere berufliche PC-Ausstattung... *hust* reden wir nicht darüber... sagen wir so: ich werde auch für's warten bezahlt.
Ergänzung ()

Hopsekäse schrieb:
Im Endeffekt wollen alle mehr Leistung kaufen können. Am besten über die Zeit mehr Leistung fürs selbe Geld oder die selbe Leistung für weniger Geld.

Das nennt sich technologischer Fortschritt. Das ist geradezu die Quintessenz davon.
Ansonsten würdest Du Dir weiterhin mit etwas Geduld und harter Arbeit ein Ford T-Modell zusammensparen können. Und Flugreisen absurd unbezahlbar sein.
Endlose Liste...
 
Setzt aber auch den Bedarf voraus. Und den scheint es im Mainstream schlicht nicht zu geben. Die, die danach schreien, sind letztlich Leute, die einfach nur sparen wollen - sprich nicht bereit sind, dass zu zahlen, was Intel verlangt und darauf hoffen, dass Intel anfängt, dass ganze so in den Mainstream zu drücken. Aber aus welchen Gründen.

Insofern ein großes Plus für Hopsekäses Beitrag. Bringt es eigentlich auf den Punkt. Der Ottonormal ist mit dem, was es im Mainstream gibt, in 99% aller Fälle voll zufrieden. Und alles andere, ist dann halt nicht mehr Mainstream, sondern entweder Arbeit, oder eben auch ein Hobby. Und Hobby kostet halt Geld.
 
Hopsekäse schrieb:
Dagegen bringt jetzt Broadwell immerhin schon günstigere 8 Kerne

Quelle? Wenn der 10 Kerner tatsächlich 1500$ kostet, dürfte es naiv sein zu glauben, dass die 8 Kerner günstiger werden.
 
kayD schrieb:
Wenn AMD einen "richtigen" 8 Kerner, keinen WG-8er bringt, mit SMT und vergleichbarer Leistung, meinetwegen über den Takt und nicht nur über die IPC, bin ich sofort dabei. Nur bekommt man den dann nicht für 130€, weils keine Luftpumpe ist. Und wenn er die Hälfte des Intel Pendants kostet, soll recht sein - solang er nicht die Hälfte leistet
AMD hat nichts zu verschenken, die sind auch keine Wohlfahrzsorganisation sondern ein Unternehmen und müssen egentlich Gewinn machen um überleben zu können. Das Tafelsilber zu verkaufen und die Investoren um immer neues Geld anzupumpen, geht eben auch nicht ewig gut. AMD verkauft seine CPUs zu dem Preis, den sie erzielen können und der ist eben wie bei den Grakas i.d.R. nun einmal ein wenig unterhalb des Preises den die großen Wettbewerber Intel und NVidia für ähnlich leistungsstarke Produkte verlangen. Wenn AMD zu viel verlangt, kaufen nur ein paar hartgestottene AMD Fanboys, aber das reicht eben nicht zum Überleben. Wenn AMD mit Zen eine CPU mit der Leistung und Effizienz wie Intels Gegenstück bringt, wird die auch so viel kosten bzw. nur etwas weniger.
kayD schrieb:
Aber ich glaube kaum dass AMD den Markt so "crasht" und potente Multicore-Prozessoren für Lau verkauft. Das ist das was sich alle wünschen, was aber vermutlich nie passieren wird.
So ist es, aber manche vergleich einfach die Preise von AMDs 8 Kernern (4 Modulern) und Intels 8 Kerner und halten AMD daher für die Wohlfahrt. :evillol:

Conceptions schrieb:
Ja, Intel ist durchaus kein guter Konzern.
Was ist ein guter Konzern? Aus welcher Sicht soll der gut oder schlecht sein? Als Aktionär (ich habe aber weder Intel noch AMD Aktien im Depot) wäre für mich Intel die viel bessere Firma als AMD, denn bei AMD kann man nur auf eine Erholung wetten. Aus Kundensicht ist Intel für mich auch eine gute Firma, die bietet mir leistungsstarke und effiziente CPUs, gegen meinen i7-4790k hat AMD nichts im Angebot und Chipsätzue die aktuelle Technologie wie NVMe unterstützen. Klar verlangt Intel dafür Geld und macht auch einen Gewinn, aber das ist in der Marktwirschaft normal, Gewinne sind die Belohnung dafür es richtig gemacht zu haben und wird von jedem Unternehmen angestrebt. Das ist mir auch lieber als von einer Firma technische Produkte zu kaufen, die dauerhaft Verluste macht und bei der ich immer im Zweifel sein muss, ob es sie morgen noch gibt oder ich dann ohne Support wie Treiber für neue Betriebssysteme dastehen werde.

Meetthecutthe schrieb:
Ansonsten bleiben außerhalb der Serversparte bei Intel noch die 6C/12T, 8C/16T und eben bald 10C/20T im S20xx Dunstkreis, welche allerdings eher auf Workstations abzielen die auch Geld verdienen
Wer einen i7, also eine CPU ohne ECC RAM Unterstützung in einer Workstation verbaut die kommerziell genutzt wird, dem ist nicht zu helfen. :freak:
Meetthecutthe schrieb:
So gesehen hat sich Intel vom Preisgefüge schon sehr Marktorientiert und Gewinn-maximiert aufgestellt.
Das ist in der Marktwirtschaft so üblich, auch wenn das für viele hier im Forum eine Überraschung zu sein scheint. :evillol:
Meetthecutthe schrieb:
Ich will gar nicht wissen was bei der Jahrelang etablierten Technik mittlerweile für Margen erzielt werden.
Zumindest die Fertigungstechnologie, die je sehr hohe Investitionen erfordert, ist ja nun noch nicht etabliert, die Architektur ist zwar immer nur eher eine Evolution als eine Revolution, aber auch solche Evolutionen kosten Geld.

Meetthecutthe schrieb:
Hinten runter fällt dabei lediglich jener, der auch privat gerne mit rechenlastigeren Tools arbeitet (Videoschnitt etc.) oder auch gerne mal ein bisschen mit einigen VM´s parallel werkelt :( .
Wer das privat macht, hat es meist weniger eilig und wer Performance braucht weil für ihn Zeit Geld ist, der muss eben tiefer in die Tasche greifen, aber meist es dann nicht mehr wirklich privat, auch wenn man das gerne selbst so sieht um bei der Abgabe der Steuererklärung kein schlechtes Gewissen wegen des Nebenverdienstes zu bekommen. :cool_alt:

flo36 schrieb:
Hmm also Intel hat entweder massive Probleme in der Weiterentwicklung oder wir übersehen irgendwas.
Ja und Ja. Es gibt Probleme die Taktraten zu steigern und auch die IPC zu steigern ist alles andere als einfach, wenn man erst einmal ein bestimmtes Niveau erreicht hat. Aber ein paar Prozent sind da je bei jeder neuen Generation immer wieder rausgesprungen. Und Du übersiehst die Steigerung der Effizienz und der Anzahl der Kerne bei den Xeon CPUs, da hat sich vor allem bei jedem Skrink nicht so wenig getan.
flo36 schrieb:
Apropos mein 2600K ... nach 5 Jahren immer noch top aktuell war.
Nein, gerade die Plattform von vor 5 Jahren ist total veraltet, damals war weder PCIe 3.0 noch USB3 in den Chipsätzen enthalten, die Effizienz ist heute viel höher und von der Leistung her sind die SandyBridge vor allem bei Spielen meist noch auf der Höhe der Zeit, weil die meisten Spiele einfach die Resourcen der CPU gar nicht auslasten können.

Sollten Dir die Fortschritte bzgl. Plattform, Effizienz und der Leistung in Anwendungen natürlich egal sein, dann kannst Du selbstverständlich weiter mit Deinem SandyBridge glücklich sein und hast keinen Grund zu einem Upgrade.
EoptimizeR schrieb:
Das große Konzerne wie Google nicht erfreut sind das Intel den Markt dominiert und die Preise oben hält ist ja nichts neues
Nur das google das auf seinem Markt genauso macht, den dominieren den ebenso. Wenn die mit Intel nicht glücklich sind, können sie ja woanders kaufen oder selbst eine CPU entwickeln, vielleicht kommt ja so was "tolles" wie deren Auto dabei raus. :evillol:
EoptimizeR schrieb:
Ich als Privatanwender finde die Preisgestaltung von Intel auch als reine Abzocke, den Zehnkerner werden sich nur supernerds und Millionärssöhne holen
Man muss als nicht nur Selbst Millionär sein, sondern schon Sohn eines Millionärs um sich eine CPU für 1500€ leisten zu können? Das muss wohl die H4 Sichtweise sein. :lol:

Ernsthaft kaufen würde ich mir so eine CPU nur, wenn sie ECC unterstützt, sonst nie. Vielleicht bringt Intel das ja nun mit Broadwell-E, denn die immerhin hat man bei X99 diese Funktion schon mal nicht beschnitten.
 
Holt schrieb:
Wer das privat macht, hat es meist weniger eilig und wer Performance braucht weil für ihn Zeit Geld ist, der muss eben tiefer in die Tasche greifen, aber meist es dann nicht mehr wirklich privat, auch wenn man das gerne selbst so sieht um bei der Abgabe der Steuererklärung kein schlechtes Gewissen wegen des Nebenverdienstes zu bekommen. :cool_alt:


Wie immer (oder relativ oft ;) ) gebe ich dir in fast allem geschriebenen recht. Im zitierten jedoch wird unberechtigterweise eine -vermutlich relativ große- Sparte Homeuser unberechtigt mit in Sippenhaft genommen. Die der Hobbyfilmer.

Alleine in diesem doch mittlerweile recht weit verbreitetem Bereich der nunmehr sogar noch vor den Wiedergabemedien bereits breit-flächig im 4K Sektor angekommen ist, wird einerseits mehr und mehr Rechenleistung erfragt/benötigt, die andererseits keinen Gewerblichen Anspruch erhebt/verfolgt.


Jedenfalls bin ich jedoch -im vorherigen Beitrag vielleicht zu grob umrissen- auch der Meinung, dass das Preisgefüge bei Intel grundsätzlich stimmig ist.
 
Zuletzt bearbeitet:
Warum sollte man Mainstream Software auf mehr als vier Kerne optimieren
Wer seine Software auf eine feste Kernzahl (mehr als 1) hin programmiert, gehört von diesem Planeten geschossen. Es gibt dafür einfach keinen Grund.

Und in der Regel ist es ja auch so, dass entweder genau ein Kern sinnvoll beschäftigt wird - oder eben alle, wo dann ggf. ab einem gewissen Punkt die Skalierung nachlässt. Viele Probleme lassen sich eben in trivial parallelisierbare Teilprobleme zerlegen, und sowas wie x264, wo einige Threads quasi zwangsweise mit festen Aufgaben laufen, ist schon eher die Ausnahme,

Hopsekäse schrieb:
sondern allein das anlegen und verwalten von Threads länger dauert als die Aufgabe selbst.
In solchen Fällen wird sich auch kaum jemand darüber aufregen. Aber wenn man sich dann Bildbearbeitungsprogramme anschaut, wo manche Filter, die durchaus sehr lange rechnen können, nur einen Kern nutzen, manche Filter alle Kerne und einige sogar auf der GPU laufen, fragt man sich schon, aus welchem Jahrhundert die Codebasis stammt und warum sich niemand darum kümmert, das ganze mal auf eine gemeinsame Basis zu stellen. Bei GIMP passiert ja im Moment immerhin genau das.

Anderes Beispiel: Android-Emulator. Was soll bitte so schwer daran sein, mehr als einen CPU-Kern zu emulieren, wenn das typische Android-Gerät 4 bis 8 davon hat, die darunterliegende Software bereits Unterstützung dafür bietet und die mit dem Emulator verbundenen Entwicklertools auch mit echten Multicore-Devices funktionieren? Warum entscheidet man sich sogar bewusst dagegen?
 
Holt schrieb:
die Effizienz ist heute viel höher und von der Leistung her sind die SandyBridge vor allem bei Spielen meist noch auf der Höhe der Zeit, weil die meisten Spiele einfach die Resourcen der CPU gar nicht auslasten können.

Sollten Dir die Fortschritte bzgl. Plattform, Effizienz und der Leistung in Anwendungen natürlich egal sein, dann kannst Du selbstverständlich weiter mit Deinem SandyBridge glücklich sein und hast keinen Grund zu einem Upgrade.

Die viel gelobte Effizienz dürfte für Server-Zentren interessant sein und sonst für niemanden. Wie lange und vor allem wie viel Stunden pro Tag soll ein System denn bitte genutzt werden, damit sich eine Investitition von 700 - 1000 EUR allein der Effizienz wegen amortisiert?

Leistung in Anwendungen? - Interessant bei Video-Schnitt und Bildbearbeitug ... und sonst? - Office und Browser laufen wie eh und je und bei einen Großteil der Nutzer läuft nunmal nicht wesentlich mehr.

Fortschritte der Plattform, das einzige was da ziehen könnte, ist wenn PCIe 2.0 zu einem Flaschenhals für die Grafikkarte wird.

Der ganze andere Kram sind doch Kinkerlitzchen. USB 3.0, ja wenn man jeden Tag 1TB+ auf ne externe Platte und wieder zurück schieben muss sicherlich ganz interessant und wie oft passiert sowas?
 
Holt schrieb:
Es wird eben immer weniger die CPU Performance als viel mehr die Features von Chipsatz und Board die das Motiv zum Upgrade liefern.

Das ist richtig.

Schön das jemand vor 40 Jahren auf die Idee gekommen ist, Slots für Erweiterungskarten zu erfinden :D

Bei Sandy Bitch, ähh Bridge wird wohl zum Ende der Lebensdauer das PCIe 2.0 Interface zum Flaschenhals werden. Den Rest kann man mit Erweiterungskarten nachrüsten.
 
Die normale Cpu Entwicklung scheint zu Ende zu sein. Zen wird wahrscheinlich gleichwertig oder besser da ja ohne Altlasten entwickelt. Fortschritt sehe ich aber nur bei GPU s und SpezialProzessoren für KI oder geringem Strombedarf usw..
 
Ohne Altlasten? Naja, die 'Altlast' nennt sich x86 bzw. x64-Architektur. Hört sich nun vielleicht sarkastisch an, ist aber einfach so. Sonst hätte ja Intel bereits selbst einen großen Wurf bzgl. Performance machen können. Wenn Du gedanklich noch einen Schritt zurück machst, dann liegt das Problem in der von-Neumann/Harvard-Architektur und nochmals aus einem anderen Blickwinkel, dann ist das derzeitige Limit einfach die Hardware in Form von Silizium/MosFET-Schaltung, Prozessgröße/Strukturgröße und Abwärme.
 
Ganzir schrieb:
Die viel gelobte Effizienz dürfte für Server-Zentren interessant sein und sonst für niemanden. Wie lange und vor allem wie viel Stunden pro Tag soll ein System denn bitte genutzt werden, damit sich eine Investitition von 700 - 1000 EUR allein der Effizienz wegen amortisiert?
Ultrabooks
Tablets
leise Geräte
lange Akkulaufzeiten

​(nur ein paar Beispiele, die mir spontan einfielen)

Wenn es je einen Markt gab wo Effizienz wichtig ist, neben den Kostenersparnisse im Serverbereich, dann heute.
 
Zurück
Oben