News Cannon Lake: Die erste 10-nm-CPU wird für Intel zum Albtraum

N4R, was du so von dir gibst ... ne.

N4R schrieb:
Bei intel gab es in den letzten ~10 Jahren keine einzige Generation wo es nicht irgendwo einen SATA Bug, Chipsatz bug, Cpu bug usw gegeben hat. Welche dann irgendwann nachgepatcht wurde.
Was war denn der große Bug bei Intels 7x-Chipsätzen, Codename Panther Point?

Das Debakel mit niedrigerem CPU Takt bei gewissen Instruktionen
Von den Instruktionen ist mir AVX so was von egal, da es eh nicht in Software verwendet wird, und nur den Prozessor runtertaktet siehe Intel.
Was? Effektiv willst du also nur meckern, der Inhalt deiner Aussagen ist dir egal?

Das Debakel wo man nicht mehr angeben will, wo der offizielle Takt jetzt ist bei den Prozessoren. Aufgrund dessen fressen dann die cpus inclusive Mainboards viel mehr als beworben.
Das ist tatsächlich ein Feature, weil die Prozessoren eben nicht mehr "den Takt" haben, sondern in gewissen Grenzen hoch- und runtertakten, je nachdem, wie es Temperatur und Stromzufuhr erlauben. Dadurch verbrauchen die betroffenen Geräte in Relation zu ihrer Leistung sogar weniger, nicht mehr.

ICh erwarte mir bei Prozessoren bei Auslieferung keine komischen Bugs welche nur auf den Prozessor rückzuführen sind. Da hat AMD einfach keine Ahnung was Sie wirklich tun. Man sollte sich zumindest darauf verlassen können, welches die Hardware dies tut was beworben wird.
Du erklärst, Intel hat in jeder Generation einen Bug und behauptest, AMD hat keine Ahnung was sie tun? Mal abgesehen davon, dass bei >4Mrd. Transistoren niemand genau vorhersehen kann, wie diese komplett wechselwirken, würde mich interessieren, wen du denn jetzt als gutes Beispiel heranziehen würdest. Oder bist du einfach nur der Meinung "alle sind kacke und jeder ist inkompetent"?

Wenn ich mir jemals wieder einen x86 Prozessor kaufe erwarte ich mir keine intel management engine oder ähnliches. Auch kein bios was nicht brauchbar ist.
Du willst also Prozessoren, die weder konfigurierbar sind, noch in der Lage, Schlaf-Zustände einzunehmen, um Strom zu sparen? Wie würde denn für dich ein brauchbares BIOS aussehen? Die Antwort auf diese Frage interessiert mich besonders.

Auch will ich mal einen Notebookprozessor ohne Intel Grafik und dafür gesockelt, welcher verlötet ist.
Einen Prozessor, der gesockelt und verlötet ist, soso ...


PS: Account ist immer noch nicht gelöscht. Mit der Bitte um der Entfernung. Danke
Hast du es schonmal über die Löschen-Funktion im Benutzerkontrollzentrum versucht?
 
Luxmanl525 schrieb:
@ smart-
Nun, ich schaue mir sogar ein Spiel aus dem Jahr 2007 an, November 2007 um genau zu sein. Nämlich Crysis 1. Und die Grafik von einem bald 11 Jahre alten Spiel hält nach wie vor mit heutigen der Grafisch besten Spiele mit.


Crysis 1 entspricht aber nicht dem Durchschnitt der erschienenen Spiele. Du wirst ja wohl selbst zustimmen, dass dieses Spiel um Jahre voraus war. Ich finde damit kannst du keinen generellen Stand erklären, zumal das Spiel damals für kaum jemanden spielbar war.
Zumal die Grafik mit aktuellen Triple-A Spielen nicht mehr mithalten kann. Nimm mal ein Assassins Creed Origin mit der gigantischen Open World und der hochaufgelösten Grafik. Crysis 1 ist wirklich nicht mehr so gut.
Heutzutage gibt es Spiele, die wesentlich mehr CPU Cores fordern und auch bei der GPU wesentlich höhere Rechenleistung. Systeme heute haben eine wesentlich höhere Power, siehe mal die Tflops.


Luxmanl525 schrieb:
Sie ist aber auch nicht ganz unrichtig. Es ist nunmal nicht von der Hand zu Weisen, daß du mit einem Sandy auch in heutigen Spielen noch auf der Höhe der Zeit bist, jedenfalls Übertaktet. Die Gründe Spielen jetzt keine Rolle in dem Sinn, denn der mehr oder weniger Stillstand bei x86 resultierte ja hauptsächlich weil kein vernünftiger Wettbewerb mehr da war.


Dann rate ich dir mal CPU-Mark Daten anzuschauen. Eine aktuelle CPU von Intel mit z.B. 6 Kernen (die mit Turbo so schon fast 5 GHz schafft) ist nicht nur effizienter wie so alte Modelle, ein Sandy wird damit klar an die Wand gefahren. Rein von der Rechenleistung ist die aktuelle Generation wesentlich stärker. CPUs aus dem Jahr 2012 werden teils um +100% geschlagen. Was du meinst ist einfach, dass es über mehrere Generationen Stillstand gab. Das ist immer so, dann gibt es aber wieder Sprünge. Auch hier nochmal die Anmerkung, denk dich mal 10 Jahre zurück und hättest d damals jemandem von einem aktuellen Intel 6 Core mit Turbo 4,8 erzählt, bei dem Stromverbrauch, da hätte man dich ausgelacht und gesagt utopisch.

Luxmanl525 schrieb:
Mit solchen Aussagen wäre ich sehr vorsichtig. Insbesondere wenn man sich mal vor Augen hält, was sich seit 2007 alles im Mobilen Bereich getan hat. Ein Snapdragon 835 ist nicht weit von einem Celeron weg. Nur um das mal zu verdeutlichen, der Snapdragon 845 soll nach bisherigen Berichten nochmal 30 % schneller als der 835 sein und dabei 10 % sparsamer. Wie gesagt, ich wäre mit solchen Zukunftsvisionen vorsichtig.
So long...

Das hat nichts mit Zukunftsvision zu tun, sondern mit technischer Machbarkeit. Natürlich wird der mobile Bereich immer besser, aber die Entwicklung insgesamt bleibt ja nicht stehen. Sprich, ein normaler PC wird ja auch immer leistungsfähiger. Und du wirst niemals in so ein kleines Format die Leistung packen können, die ein größeres Gerät der aktuellsten Generation liefern kann. Da ich einfach die Leistung brauche, weiß ich jetzt schon, dass mir das einfach nicht reichen wird. Die Entwicklung im mobilen Bereich ist einerseits schon beeindruckend, andererseits muss man sich klar machen, wenn man Leistung braucht, ist und bleibt das nach wie vor eine Spielerei, mit der man nicht richtig arbeiten kann. Ein Celeron war auch schon im Desktop vor 10 Jahren einfach nur Schrott.
Ich wollte mir mal ein Ultrabook kaufen, selbst die Dinger für mehrere tausend Euro sind und werden immer wesentlich schlechter sein als Destop-Varianten. Da ist das Smartphone noch viel weiter unten anzusiedeln.
Oder mal noch ganz anders gesagt. Du kannst dich bei mir melden, wenn die Rechenleistung meines i7 und meiner GTX1070 zusammen erreicht wird im Smartphone. Selbst wenn das jemals möglich wäre, bis dahin habe ich einen wesentlich stärkeren PC.
 
Zuletzt bearbeitet:
smart- schrieb:
Moore's law gilt immer noch.
In den letzten 10 Jahren hat sich extrem viel getan. Schau mal ein Spiel aus dem Jahr 2008 an und vergleiche mit der Grafik von heute. Deine These, es würde diesen Fortschritt nur im Mobilbereich geben, ist schlichtweg falsch. Gerade dieser Bereich stagniert zudem zuletzt wieder recht stark, da auch die Akkutechnik und die Kompaktheit vieles limitiert.

ARM ist gut, wenn das Gerät effizient sein muss. Also Smartphones und Notebooks. Tablets ebenso. Diese Geräte ersetzen aber nicht einen Hochleistungsrechner. Wenn du jetzt fragst, für was man das braucht, gebe ich es auf... und Nein, nicht nur für Gaming.

Für mich wird es auch in 10 Jahren keine Option sein das Smartphone an die Dockingstation zu hängen und als Desktop-Ersatz zu verwenden. Mir würde schlichtweg auch dann die Leistung nicht reichen. Vielmehr sind und bleiben solche Geräte eine Ergänzung.
Ersetzen tun diese überhaupt nichts. Tablets haben auch bis heute den normalen Computer nicht abgelöst, da es schlichtweg zwei völlig unterschiedlich verwendete Geräte sind.

Fraglich ob in 10 Jahren sowas wie "Performance as a Service" sich nicht etabliert und performanceintensive Geschichten nicht ausgelagert werden. Klar eure Neuland-Regierung in Deutschland tut vieles um derartigen Steine in den Weg zu legen, aber gibt ja auch Länder die nicht als digitale 3. Welt zu sehen sind.
 
Eher Fraglich, ob das überhaupt sinnvoll ist. Fakt ist, man wird immer gewisse Latenzen haben.
Zumal ich ganz sicher aus Datenschutzgründen keinen Bock habe auf irgendwelche Server meine privaten Daten zu übertragen.
Als ob das so toll wäre...
Du hast es sowieso gesagt, in Deutschland schon wegen der Bandbreite total unrealistisch. Es wird jetzt auf DSL-Vectoring gesetzt und selbst wer Glasfaser hat, wird noch viele Jahre warten müssen, bis auch dort gute Angebote vorhanden sind.
Für mich ist das schon wegen der Fremdsteuerung und Missbrauch keine Option, zumal man bei Netzwerkproblemen oder Serversausfall gar nichts mehr zu Hause machen kann. Man ist abhängig von anderen. Überlasse ich dann Leuten, die so dumm sind das mit sich machen zu lassen. Willkommen in der neuen Welt. :freak:
 
Armes Intel. Der 6 Kerner quasi nicht verfügbar, der nächste Fertigungsprozess quasi nicht existent. Die Konkurrenz ist mit einem größeren Fertigungsprozess genauso effizient, und hat einen besseren Yield vorzuweisen.

Das Jahr 2018 wird bestimmt lustig. Lustig für die, die Intel nicht mögen. :D
 
Die ARM vs. x86 Diskussion hinkt an einem Punkt und das gewaltig. Es wird nur die Hardware aber kaum die Software betrachtet.
Gerade im ARM Sektor ist eine gute Software Optimierung mMn. deutlich stärker an der Tagesordnung als im x86er Bereich, womit Leistungsverbesserungen dort auch wirklich genutzt und im x86er Bereich weitestgehend verschenkt werden. Das fängt bei der Multicore Nutztung an die nötig ist überhaupt die vorhanden Kerne zu nutzen und setzt sich bei der Unterstützung neuer Befehlssätze fort um die Kerne möglichst effizient zu nutzen. Im x86er Bereich wird von der Software schon seit Jahren ein Großteil der Rechenleistung verschenkt, was interessanter Weise auch noch von vielen Usern abgesegnet wird. Ich sage nur die Diskussionen um die Singlecore Leistung bei heutigen Prozessoren.
 
@Wadenbeißer:

Ach deswegen haben die Android Smartphones immer stärkere Prozessoren bekommen? Fast ausschließlich Apple hat die Ressourcen hier sinnvoll genutzt...

@All

hat wirklich keiner Infos zu den kommenden Mainboards?
 
Wadenbeisser schrieb:
Im x86er Bereich wird von der Software schon seit Jahren ein Großteil der Rechenleistung verschenkt, was interessanter Weise auch noch von vielen Usern abgesegnet wird. Ich sage nur die Diskussionen um die Singlecore Leistung bei heutigen Prozessoren.

Warum sollte sich nun die Software für ARM anders sein? Der Code ist imho derselbe. Hast du ein konkretes Beispiel für diese Optimierungen?
 
@ gaelic & DFFVB
Was hat das damit zu tuen?
Die Anforderungen im Smartphone Bereich steigen ebenfalls aber dort verhält sich der Software Vertrieb "etwas" anders. Du kannst ja mal versuchen z.B. für ein altes iPhone 4 einen aktuellen Browser über den App Shop zu bekommen. Das scheitert schon an den Mindestanforderungen für das OS.

Bei der ewigen Diskussion um die Singlecore Leistung im Desktop Bereich reden wir in Zeiten von Prozessoren mit bis zu 36 logischen Kernen (18 physische Kerne + SMT) darüber wer schneller ist wenn weniger als 5% der logischen Kerne und damit der verfügbaren Rechenleistung genutzt wird. Das ist genau der Punkt warum es zur angeblichen, gefühlten Stagnation kommt.

Zum Thema Befehlssätze, mal ein Auszug aus dem Log vom Superposition Benchmark.
superposition.JPG
Wenn ich das richtig interpretiere wird lediglich SSE2 genutzt, ein Befehlssatz vom Jahr 2000 der mit dem Pentium 4 eingeführt wurde.
 
@Wadenbeißer

??? Es ist einfach falsch zu sagen, dass im ARM Bereich Befehlssätze konsequent genutzt werden ... eben weil im Android Bereich die Hersteller keine Lust hatten und es sich besser verkauft, wurden hier ohne Not immer mehr Ghz drauf gepackt... Apple hat es eben besser genutzt, weil die Software besser darauf abgestimmt war... auch SAT Receiver und so Mist nutzen die Befehlssätze besser, aber da sind wir dann wieder bei Äpfel und Birnen...
 
Das mags ein aber das war schließlich auch nicht meine Aussage.
Meine Aussage war das die ARM Prozessoren durch die Software besser genutzt werden.

Das iPhone 4 ist gerade einmal 7 Jahre alt und man hat heute Probleme Software dafür zu finden.
Der Superposition Benchmark ist von 2017 und SSE2 hat inzwischen gute 17 Jahre auf dem Buckel.
 
Richtig und diese Aussage ist falsch. Weil: ARM ungleich ARM. ARM für Router, Modems, SAT Receiver etc.: Ja, richtig, Software wird gut darauf angepasst. ARM für Smartphones: Geht so. Apple, überwiegend ja, Android: Ganz klares nein. Und das hat verschiedene Gründe. Dein Beispiel mit keine Software für ein 7 Jahre altes Smartphone hinkt auch kräftig, das ist ja in erster Linie, weil Apple das so will, in zweiter Linie weil aber auch die Anforderungen massiv gestiegen sind... wäre ja ein bisschen sinnfrei heute die Software an die HArdware von damals anzupassen um ein ggf 30% besseres Telefon zu erhalten...
 
@Wadenbeisser

Genau meine Meinung. Wobei es die Software ist, sowie als auch natürlich die dicken Decoder. Letztlich eine Wechselwirkung aus beiden Komponenten. Aus Angst davor, dass gewisse Spezialsoftware auf Grund einer nicht mehr vorhandenen Abwärtskompatibilität nicht mehr läuft, schleppen Intel und AMD einen derart aufgeblasenen Decoder mit, der den Großteil des Stroms und der Leistung schlicht verschwendet.

Die Diskussion hatte ich letztens auch in einem anderen Thread. Es wurde argumentiert, SSE2 sei schließlich nicht SSE1 und muss daher immer mit geschleppt werden. Das man meiner Meinung nach auch jede Operation die in SSE1 funktioniert auch unter zu Hilfe nahme von SSEII lösen könnte (usw usf) wurde nicht viel entgegnet. Man müsste halt nur die Software entsprechend umproggen.

Problem ist: Solange Intel und AMD die Decoder mitschleppen, wird auch niemand die Software umstellen. Solange niemand die Software umstellt, werden Intel und AMD nicht die Decoder entschlanken. Hund und Schwanz...

Naja, letztlich geht es hier aber darum nicht wirklich. Sondern eher, dass TSMC den Apple A11 bereits in Massen fertigt.

Wadenbeisser schrieb:
Weil die Chips nicht so komplex und damit weniger Fehleranfällig sind. Je größer und komplexer die Teile sind desto höher ist die Warscheinlichkeit das ein Defekt an einer kritischen Stelle den Chip killt.

Hier komme ich dann auf oben geschriebenes zurück. Du hast ja vollkommen Recht. Auch die Taktunterschiede spielen eine große Rolle.
Ganz nüchtern betrachtet, stecken in dem A11 aber 4,3 Mrd Transistoren. Intel hat ein Drittel weniger, dafür doppelten Takt. Gleicht sich irgendwo aus, weshalb ich behaupten würde - die FE Rate beider Chips dürfte von der Komplexität her ähnlich sein.

Nachtrag:

DFFVB schrieb:
@Wadenbeißer

Apple hat es eben besser genutzt, weil die Software besser darauf abgestimmt war... auch SAT Receiver und so Mist nutzen die Befehlssätze besser, aber da sind wir dann wieder bei Äpfel und Birnen...

Apple hat hier einen Riesenvorteil. Kontrolle über Betriebssystem, Kernel, Dritt-Software und Hardware.

Denn genau das ist nötig, um jedes Jahr neue Befehlssätze einzuführen und alte zu streichen. Apple macht dies äußerst clever. Bestimmte API's / Calls werden nur bis iOS X.X unterstützt. Mit dem folgenden OS werden dann nur noch Geräte unterstützt, die Befehlssatz XY unterstützen. Die alten Befehlssätze und Geräte werden gestrichen.

Alte Software, die nicht umprogrammiert wurde, ist in dem neuen OS schlicht nicht verfügbar. Genauso umgekehrt, neue Software die nur die neuen Befehlssätze unterstützt ist nicht mehr auf alten Geräten / OS Versionen verfügbar. Somit kann man selbst die Befehlssätze streichen, neue einführen und die Entwickler zwingen, diese auch zu benutzen. Dann baut man noch einen halbwegs guten SoC und das Ergebnis ist eine SC Leistung, die der Konkurrenz seit Jahren um ca. 2 Jahre voraus ist.
 
Zuletzt bearbeitet:
@ DFFVB
Es steckten auch genug x86er Prozessoren als IO Controller in verschiedenen Geräten aber die interessieren bei der Diskussion nicht die Bohne weil die für das angesprochene Szenario vollkommen irrelevant sind.

@ Sun_set_1
Wenn ich mich recht erinnere dann wird SSE2 auch für den x64 Befehlssatz vorausgesetzt und dürfte damit als Mindestvoraussetzung für heutige x86er 64 Bit Prozessoren gelten.
Die Decoder sind aber für den x86er Bereich zunverzichtbar da sie das Bindeglied zwischen den CISC Befehlssatz der Software und der RISC Architektur der Kerne bilden. Würde man davon abrücken dann müsste man entweder auf die Kompatibilität pfeifen und was komplett neues anfangen (was dem Itanium das Genick brach) oder wieder eine reine CISC Architektur bastel, was aber wohl kaum einer wollen würde.
 
Ich weiß, darauf wollte ich ja mit Hund und Schwanz hinaus.

Ich habe auch keine wirklich clevere Idee dazu, wollte nur mal das Problem genauer beschreiben :)
Meiner Meinung nach, würde nur ein Hardcut wirklich helfen, bei dem alle an Board sein müssen. AMD / Intel, Linux/Unix-Konsortium, Apple und Microsoft.

Auf ein Jahr X einigen, meinetwegen 2025. Dann müsste es von jedem Anbieter ein neues OS' / Kernel geben, die ausschließlich die neuen Sätze unterstützen.
Es darf nur noch Prozessoren geben, die ausschließlich die Neuen unterstützen. Und zwar von beiden Anbietern (Intel+AMD), sobald einer davon anfängt eine Abwärtskompatibilität einzubauen und damit zu werben, macht es der andere auch und das Ding ist wieder durch.

Ziel muss natürlich sein, äußerst effiziente Befehlssätze zum Übersetzen von CISC nach RISC zu verwenden und auch nur noch diese dann zu unterstützen.

Softwareentwickler hätten von jetzt an 7 Jahre Zeit sich darauf einzustellen, also auch kein Dingen der Unmöglichkeit.
Das Problem ist halt, dass sich dafür so viele Parteien zusammen in ein Boot setzen müssten, die bisher aber nicht mal auf dem gleichen Planeten leben möchten.
 
Zuletzt bearbeitet:
Das Hauptproblem ist ja weniger die Hardware sondern vielmehr die Software.
Solange da nur ein Bruchteil dessen genutzt wird was vorhanden ist brauch man sich auch nicht wundern warum trotz stetig gestiegener Rechenleistung der Hardware effektiv kaum mehr bei raus kommt. Erstmal muss auch nur ansatzweise das genutzt werden was bereits seit Jahren verfügbar ist.
Hier beisßt sich auch die ewig sinnlose Singlecore Leistungsdiskussion sich selbst in den Schwanz.
Ständig wird als Totschlagargument angeführt das eben nicht alles parallelisierbar ist, was eben auch der Fall wäre wenn es 99,99...% des Codes wären.
Dennoch nimmt die Anzahl der genutzten Kerne stetig zu, wenn auch um Jahre dessen versetzt was die Hardware könnte. Wo sind wir da heute bei den Spielen angelangt? Bei 4-8 Kernen obwohl man seit den ersten Dualcores mit der nicht Parallelisierbarkeit angekommt?
Ist ja nur der technische Stand vom Nehalem i7 von 2008....
DAS ist das Problem das ich anspreche. Die Software hinkt inzwischen der Hardware um gut und gerne 10 Jahre hinterher und genau da liegt auch die Stagnation die bei solchen Diskussionen immer wieder schön geredet wird.
 
Ich denke so weit liegen die x86_64 und ARM nicht auseinander. Sieht man von Handys ab wo jedes mW zählt gibt es ja noch die NAS wo es nicht so extrem ist aber dennoch Leistung pro Watt sehr stark im Fokus steht.

Dort sieht man einen fließenden Übergang von sparsamen ARM zu leistungsfähigen x86_64.
 
Es gibt halt auch noch Software die zwar uralt ist aber fehlerfrei arbeitet. (Steuerungen, Speziallösungen usw.)
Meist benötigen solche Programme gar keine speziellen Befehlssätze sondern native Schittstellen etc.

Wenn da ein harter Cut vorgenommen werden würde seitens der H/W dann würde das Geschrei wieder los gehen.
Selbiges war auch schon softwareseitig unter XP der Fall wo plötzlich keine DOS Programme mehr ihren Grafikmode starten konnten. MS hat das einfach "aus Sicherheitsgründen" wegrationalisiert.

Klar kann man sich oft noch mit VMs, DOSbox oder anderen Emulatoren behelfen.
Aber komfortabel ist das nicht.

Und nicht immer besteht die Chance für H/W oder S/W Ersatz zu finden.
 
Zuletzt bearbeitet:
Sun_set_1 schrieb:
Man müsste halt nur die Software entsprechend umproggen.

Und genau da liegt der Hase im Pfeffer... Macht halt keiner...

Zu Deinem Apple Beitrag: Hast Du genau richtig gesagt, Apple hat da alles aus einer Hand und auch die Marktmacht das nach belieben zu machen. Hat ja aber nix mit der Aussage von Wadenbeißer zu tun, wonach es keine Softwar emehr für ein iPhone 4 gibt ;-)
 
Zurück
Oben