News Intel Broadwell-E/EP: Samples mit 20 Kernen und 50 MB L3-Cache im Verkauf

Naja das ist schon übertrieben.
Nein, siehe hier:
Code:
http://www.tomshardware.de/Throttling-Hitzeprobleme-Pentium-4-Prescott,testberichte-966.html


TDP von 84-115W sind doch nichts außergewöhnliches gewesen.
Doch, damals schon, zumindest alles über 100W. Hinzu kam auch noch, dass die "Intel-TDP" im Gegensatz zur "AMD-TDP" (maximaler Wert) ein Durchschnittswert war, unter ungünstigen bzw. nicht alltäglichen Bedingungen (Prime95 & Co.) war die Verlustleistung höher als angegeben.


BTW: Intel listet nen 4GHz P4.
Der ist zwar gelistet, war aber nie auf dem Markt (siehe Wikipedia). Wenn Du den mit anderen Prescotts aus der Liste "Products formerly Prescott" (rechter Rand der Seite) vergleichst, fehlen da eine Menge an Daten wie Name bzw. Prozessornummer, TDP oder Launchdate.
Vielleicht passend dazu (wenn die dort erwähnte CPU 1 statt 2 MB Cache hat):
Code:
http://www.tomshardware.de/4-ghz-taktung-neuen-pentium-4,news-10930.html

Edit: Die ominöse 4 GHz-CPU bei Intel müsste ein imaginärer Pentium 4 680/682 sein, mit Prescott 2M Kern, von den Daten kommt das ja hin. Das Gepostete mit den Händlern passt also definitiv nicht.
Code:
https://de.wikipedia.org/wiki/Intel_Pentium_4#Prescott_2M
 
Zuletzt bearbeitet:
Vindoriel schrieb:
Nein, siehe hier:
Code:
http://www.tomshardware.de/Throttling-Hitzeprobleme-Pentium-4-Prescott,testberichte-966.html
Wieso nein? Das zeigt genau das was ich gesagt habe. Die Minikühler waren komplett überfordert, ein heutiger Towerkühler würde das aber schon fast Semipassiv wegkühlen.


Doch, damals schon, zumindest alles über 100W. Hinzu kam auch noch, dass die "Intel-TDP" im Gegensatz zur "AMD-TDP" (maximaler Wert) ein Durchschnittswert war, unter ungünstigen bzw. nicht alltäglichen Bedingungen (Prime95 & Co.) war die Verlustleistung höher als angegeben.
Du musst schon lesen was ich schreibe. Ich sagte doch, dass es für damals viel war. Wenige Jahre später ist das aber eine normale TDP gewesen. Mit Athlon X2 bis Phenom ist die TDP auch bis zu 140W geklettert. Bei Intel waren die Topmodelle zu der Zeit auch alle dreistellig.
 
Wieso nein? Das zeigt genau das was ich gesagt habe. Die Minikühler waren komplett überfordert, ein heutiger Towerkühler würde das aber schon fast Semipassiv wegkühlen.
Nur ist Dein toller Towerkühler nicht spezifiziert, der Boxed hingegen schon. Und wenn der spezifizierte(!) Kühler Schwierigkeiten hat, dann habe ich mit meiner ursprünglichen Aussage Recht, zumal auch geschrieben steht (Beipackzettel zur CPU), dass der Rechner innen nicht mehr als 38 °C haben darf unter spezifizierten(!) Bedingungen.
Und was ist in Fertig-PCs in der Regel drin? Spezifizierte Kühler (und Belüftung) oder Zubehör für Bastler?

Du musst schon lesen was ich schreibe.
Ja, erst hü, dann hott und springst in den Zeiten umher. Hättest eher so schreiben müssen, damit der Bezug zu 2010 und nicht zu 2004 (um 2004 ging es eigentlich, es interessiert auch nicht, welch ein Komfort ein Golf 1 mit heute üblicher Ausstattung wie Klimaautomatik, Einparkhilfe, Tempomat & Co. hätte) ist:
Aber bis 2010 wäre das Teil als normale CPU durchgegangen, TDP von 84-115W sind doch nichts außergewöhnliches gewesen.
(Komma anstatt Punkt)
 
Zuletzt bearbeitet:
Vindoriel und bensen, könnt ihr nichts sinnvolleres beitragen als diesen Blödsinn wegen der Taktraten?

Bill Gates hat mal gesagt: „Mehr als 640 Kilobyte Speicher braucht kein Mensch“. Ist deswegen die ganze Microsoft SW Mist?

Gottlieb Daimler sagte 1901 voraus: "Die weltweite Nachfrage nach Kraftfahrzeugen wird eine Million nicht überschreiten - allein schon aus Mangel an verfügbaren Chauffeuren." Heute verkauft alleine Daimler pro Jahr mehr Autos, sind die Autos der Firma deswegen schlecht?

Die Prognosen waren falsch, auch weil die Technik und die Umstände haben sich geändert haben, sowas ist normal und nicht wert über mehrere Beitrag darüber zu diskutieren. Beim Rennen um mehr Taktfrequenzen ist man an eine Mauer gelaufen, also geht man zu mehr Kernen über, der Broadwell E/EP um den es geht, ziegt das doch und auch da wird man an einen Punkt kommen, wo noch mehr Kerne nichts mehr bringen, bei viele Anwendungen ist es ja heute schon so und die Turbotrakte wurden genau deshalb als eine Art Mischform eingeführt: Man hat mehr Takt wenn wenige Kerne ausgelastet sind ohne deswegen gleich auch so viel mehr Leistungsaufnahme zu haben, wenn alle ausgelastet werden.

Der CEO von IBM hat übrigens 1943 vermutet, dass es weltweit einen Bedarf für 5 Computer geben wird und der von Digital Equipment konnte sich 1977 keinen Grund vorstellen, warum jemand zuhause einen Computer haben wollen würde.
 
Zuletzt bearbeitet:
20/28 CPU-Kerne, 6-Kanal Speicherinterface und dann Software, bzw. eine externe Hardware Struktur, welche nicht auf Parallelisierung ausgelegt ist... sehr schade.
Trotz 8 Kernen friert mir des öffteren der Bildschirm ein, wenn mal ein USB Gerät oder das Netzwerk hängt...
 
beckenrandschwi schrieb:
20/28 CPU-Kerne, 6-Kanal Speicherinterface und dann Software, bzw. eine externe Hardware Struktur, welche nicht auf Parallelisierung ausgelegt ist... sehr schade.

Versuch mal Handbrake und staune über die Kerne die bei 100% laufen.

beckenrandschwi schrieb:
Trotz 8 Kernen friert mir des öffteren der Bildschirm ein, wenn mal ein USB Gerät oder das Netzwerk hängt...

Liegt eher am OS als an der CPU.
 
beckenrandschwi schrieb:
Trotz 8 Kernen friert mir des öffteren der Bildschirm ein, wenn mal ein USB Gerät oder das Netzwerk hängt...
Also ich würde mal stark behaupten, dass das absolut nichts mit der CPU zu tun hat, oder der Anzahl an Kernen, der Parallelisierung etc. Schau dir lieber mal dein Mainboard an, oder die Software auf deinem PC, inkl. OS und Treiber.
 
beckenrandschwi schrieb:
20/28 CPU-Kerne, 6-Kanal Speicherinterface und dann Software, bzw. eine externe Hardware Struktur, welche nicht auf Parallelisierung ausgelegt ist...
Es gibt hier um Serverhardware und da sind meist so viele User auf dem Server bzw. Anwendungen mit so viele Thread auf der CPU, da kommt es nicht drauf an wie gut ein Programm parallisiert ist. Wenn 100 User mit Programmen auf VMs arbeiten die alle nur Singlethreaded sind, lastet es trotzdem alle Kerne voll ais. Ebenso bei Datenbanken, Oracle (zumindest bis 11R2) macht pro Connection einen Thead auf, ein Programm mit einer Conneciton kann also niemals die Kerne auslasten, aber auf Servern gibt es Hunderte oder Tausende Connections und dann sieht es anders aus und die Kerne der CPU können sehr gut ausgelastet werden.

beckenrandschwi schrieb:
Trotz 8 Kernen friert mir des öffteren der Bildschirm ein, wenn mal ein USB Gerät oder das Netzwerk hängt...
Du hast vermutlich auch kein Server mit einem Serverbetriebssystem und verstehst nun besser, wieso Intel beim Mainstream S.115x nicht mehr als 4 Kerne anbietet, denn es lohnt sich für die allermeisten Heimanwender einfach nicht.
 
Anstatt die Anzahl der Kerne immer weiter zu erhöhen, würde ich zur Abwechslung mal wieder stärkere Kerne begrüßen.
In den letzten Jahren hat sich diesbezüglich nicht mehr viel getan, die Kerne sind bei gleichem Takt nahezu gleich schnell geblieben. Hier steckt meiner Meinung nach noch enorm viel ungenutztes Potential! Apple zeigt ja im mobilen Sektor bereits, dass selbst deren 2 Kerner die aktuellen 8-Kerner von Samsung locker in die Tasche steckt. Ähnliches würde ich mir bei Intel auch mal wieder wünschen.
 
Die Kerne sind auch bei gleichem Takt schneller geworden, schau Dir die Benchmarks wie z.B. Cinebench in den Reviews an und dazu auch noch sparensamer, also effizienter. Anwendungen und vor allem Games nutzen oft nicht das volle Potential der CPUs und die würden dann auch auf doppelt so schnell laufenden Kernen nicht schneller sein.

Wenn Du auf ARM in Smartphoes anspielst, musst Du auch die Frequenzen vergleichen, da laufen die ARM nämlich meist bei sehr geringem Takt und damit kann man dort leicht noch mehr Leistung rausholen, wenn man denn die Leistungsaufnahme im Griff hat.
 
Was die IPC angeht, hat er aber schon Recht:
Im SingleCore-Benchmark von CineBench ist der i5-6600K gerade mal knapp über 30% schneller als ein i5-2500K, und der Skylake hat bei Auslastung von einem Kern sogar 200 MHz mehr Turbo-Takt. Für knapp 5 Jahre Entwicklung ist das schon sehr mager...
 
Ich würde mir auch eine Erhöhung der Single-thread-Performance wünschen. Ich glaube jedoch, dass wir langsam am Maximum (vl. noch mal 10-30% in den nächsten 5 Jahren) angekommen sind.

Pro Taktzyklus ist maximal 1 Makrobefehl möglich. das ist eine "harte" Grenze. Die ganzen Optimierungen die die Prozi-Kerne bisher beschleunigt haben, liefen darauf hinaus, dieses "Limit" möglichst effizient auszureizen, in dem man

  • Größere/Mächtigere Befehle definiert hat (die müssen jedoch, ähnlich wie bei Multithreading, von der Software unterstützt werden)
  • Das "Drumherum" optimiert hat:
    • das Rechenwerk sich möglichst nie langweilt (Pipeline, Prefetch,...)
    • immer maximal schnell arbeitet (Turbo-Boost,...)
    • oder nicht "für die Tonne" rechnet (Sprungvorhersage. Dieser Bereich auf dem Die ist mittlerweile Größer als das eigentliche Rechenwerk)

Weiterhin steigt die Single-Thread-Performance durch Erhöhung der Taktrate. Die Bisherigen Erfahrungen zeigen, das beim Thema Takt bei 4-5GHz Schluss ist mit Silizium, mehr geht nicht sinnvoll.

Hypothetisch: Wenn nun das maximal sinnvolle an Makrobefehlen verfügbar ist (und durch Software genutzt würde), die Sprungvorhersage NIE Fehler macht, der Kern NIE auf Instruktionen "warten" muss und auch die Taktfrequenz nicht mehr gesteigert werden kann, wie sollen Prozessoren bei heutiger Technik (P6 Kern, Silizium, Von-Neumann) mehr Single-thread-Performance erhalten?
 
Zuletzt bearbeitet:
Na ja Quantencomputer werden noch dauern. Auch wenn die Entwickler immer gerne sagen bald ist es soweit...
 
Ja klar, war auch nicht ernst gemeint. Zumal diese Teile dann erstmal in gänzlich anderen Bereichen eingesetzt werden als im Heim-PC. Vielleicht wird das sogar von Regierungen und Co. unterbunden, schließlich würde man durch Quantencomputer einen großen Part der aktuellen IT-Sicherheit zunichte machen, gerade das Thema Verschlüsselung müsste man dann stark überdenken.
Und selbst gestrickte KIs in den Nerd-Kellern dieser Welt würden mir auch Bauchschmerzen bereiten :o
 
SaschaHa schrieb:
Anstatt die Anzahl der Kerne immer weiter zu erhöhen, würde ich zur Abwechslung mal wieder stärkere Kerne begrüßen.
In den letzten Jahren hat sich diesbezüglich nicht mehr viel getan, die Kerne sind bei gleichem Takt nahezu gleich schnell geblieben. Hier steckt meiner Meinung nach noch enorm viel ungenutztes Potential! Apple zeigt ja im mobilen Sektor bereits, dass selbst deren 2 Kerner die aktuellen 8-Kerner von Samsung locker in die Tasche steckt. Ähnliches würde ich mir bei Intel auch mal wieder wünschen.

Ja, schreib Intel am besten mal eine Email oder poste auf deren Facebook Seite. Die scheinen ja mit ihrem Milliarden-Budget für Forschung&Entwicklung trotzdem nicht zu wissen, wie man bessere CPUs baut.
 
Ich behaupte mal gaaaanz vorsichtig: Qubits bringen keine Vorteil bei klassischen CPU-Aufgaben. Wenn man wissen will was 3+3 ist, muss es der Quantencomputer auch berechnen. Der berechnet nur nebenbei auch noch was 0+0, 1+1, 1+0, 0+1, ... ist ebenfalls. Ich bin kein Profi in dieser (theoretischen) Materie, aber klassische Probleme der Mathematik lassen sich damit nicht schneller lösen, nur wenn es darum geht, die selbe Berechnung immer wieder durchzuführen, nur mit einem Wertebereich anstelle eines fixen Wertes als Eingangswerte durchzuführen, sind Quantenrechner tatsächlich schneller., da sie die Berechnung aller möglichen Eingangswerte parallel durchführen.

Ich denke, wir benötigen für tatsächlich schnellere Software (worauf es ja nun mal an kommt) bessere Parallelisierung.

Für mehr Single-Thread-Performance helfen langfristig nur eine neue Architektur (die ich hier nichtmal ansatzweise skizzieren kann) oder der Umstieg auf Kohlenstoff als Halbleitermaterial. Geringere Schaltzeiten -> Höherer Takt -> Mehr Single-Thread-Performance.
 
Ich denke, wir benötigen für tatsächlich schnellere Software (worauf es ja nun mal an kommt) bessere Parallelisierung.
Effizientere Software wäre auch zu erwähnen. Je schneller die Rechner, umso ineffizienter kann programmiert werden, die Geschwindigkeit, die man als Anwender erfährt (booten, Installationen, Programme starten...), ist doch seit Mitte der 90er nahezu eine Konstante (na gut, SSDs mal weggelassen).
Natürlich gilt das nicht, wo Rechenpower gefragt ist, Videos encodieren als Beispiel oder das Erstellen von MP3s (was auf einem schnellerem Pentium MMX immerhin in Echtzeit möglich war und heute ist das eine Sache von wenigen Sekunden, da skalieren auch wieder die Kerne, weil jeder Thread ein Lied macht).

Spiele sehe ich meist als Beispiel für bewusst ineffizient gehaltene Software, sieht man doch ständig an miesen Konsolenports, die trotz im Vergleich "immenser" Rechenleistung eines potenten Spiele-PCs b*sch*ssen laufen.
 
Zuletzt bearbeitet:
Vindoriel schrieb:
Nur ist Dein toller Towerkühler nicht spezifiziert, der Boxed hingegen schon. Und wenn der spezifizierte(!) Kühler Schwierigkeiten hat, dann habe ich mit meiner ursprünglichen Aussage Recht, zumal auch geschrieben steht (Beipackzettel zur CPU), dass der Rechner innen nicht mehr als 38 °C haben darf unter spezifizierten(!) Bedingungen.
Und was ist in Fertig-PCs in der Regel drin? Spezifizierte Kühler (und Belüftung) oder Zubehör für Bastler?
Was gehst du so an die Decke? Ich habe weder geschrieben das du mit deiner Aussage unrecht hattest, noch sonst irgendwas von dir gewollt. Ich habe lediglich diese Aussage relativiert, da in den nachfolgenden Jahren so eine TDP normal gewesen ist. Steck nen AMD Centurio in so ein schlecht belüftetetes Case von damals und pack nen Mini Boxedkühler drauf und der throttelt genauso.
Mehr hab ich nicht gesagt.

Ja, erst hü, dann hott und springst in den Zeiten umher. Hättest eher so schreiben müssen, damit der Bezug zu 2010 und nicht zu 2004 (um 2004 ging es eigentlich, es interessiert auch nicht, welch ein Komfort ein Golf 1 mit heute üblicher Ausstattung wie Klimaautomatik, Einparkhilfe, Tempomat & Co. hätte) ist:
(Komma anstatt Punkt)
Ganz groeßs Kino. Man kann auch einfach ein bisschen mitdenken. Wenn ich direkt davor schreibe: "Damals waren das Heizer ohne Ende." Dann ist klar dass ich mit "normal" nicht den P4 meinte.
Einfach mal locker bleiben, dich nicht direkt angepisst fühlen und stattdessen nochmal den Post lesen, dann brauchst du dich auch nicht so zu echauffieren.


Holt schrieb:
Vindoriel und bensen, könnt ihr nichts sinnvolleres beitragen als diesen Blödsinn wegen der Taktraten?
Wo schreib ich was über Taktraten?
Und das was du hier in diesem Post absonderst ist Ontopic oder was?

beckenrandschwi schrieb:
20/28 CPU-Kerne, 6-Kanal Speicherinterface und dann Software, bzw. eine externe Hardware Struktur, welche nicht auf Parallelisierung ausgelegt ist... sehr schade.
Server-Hardware für Server-Software und Consumer-Hardware für Consumer-Software.
Eigentlich ganz einfach.


SaschaHa schrieb:
Anstatt die Anzahl der Kerne immer weiter zu erhöhen, würde ich zur Abwechslung mal wieder stärkere Kerne begrüßen.
Das ist eben nicht so einfach. Da ist vieles schon stark ausgereizt. Kleine Verbesserungen gibt es ja immer wieder. Aber Riesenschritte werden wir da wohl nicht mehr sehen.



Apple zeigt ja im mobilen Sektor bereits, dass selbst deren 2 Kerner die aktuellen 8-Kerner von Samsung locker in die Tasche steckt. Ähnliches würde ich mir bei Intel auch mal wieder wünschen.
Na das ist ja jetzt Apfel-Birne.
Nimm eben Intels Bonnell-Kerne und vergleich dazu die Skylake. Dann hast du den equvalenten Sprung wie von ARM A15 zu Apple Cyclone. Danach gab es von Apple auch nur kleine Verbesserungen. Klar sind die Sprünge dort noch größer als bei Intel Core. Aber die LowPower-Kerne sind auch noch deutlich einfacher gestrickt. Das kannst du nciht so einfach vergleichen.
 
Zumal "locker in die Tasche stecken" auch nicht wirklich stimmt. Das Problem ist hier eben wieder einmal die Software. Samsung baut da halt ein Marketing-technisch super aussehendes Produkt, einen 8-Kerner. Aber kaum eine Software kann diese 8 Kerne auch wirklich sinnvoll auslasten. Deswegen steht ein Zwei-Kerner mit starker IPC auch gut da.
Im Gegensatz zum PC- & Serverbereich ist bei Smarthphones noch ordentlich Luft nach oben, was die Leistung pro Kern angeht. Deswegen ist der Schritt zu mehr Kernen in diesem Bereich auch unausweichlich. Im Smartphone-Bereich ist der 8-Kerner dagegen ein Produkt, ähnlich wie damals AMDs-Bulldozer, das sich zwar gut anhört, aber aufgrund mangelnder Software-Unterstützung nicht wirklich viel bringt. Ein bisschen nachvollziehen kann man es auch, die eigene Software auf zwei starke Kerne zu optimieren ist für den Entwickler wesentlich angenehmer, als auf 8 schwache Kerne.
 
Zurück
Oben