News Intel Q2 2022: Miese Quartalszahlen besiegeln das Aus von Optane

pipin schrieb:
Gerade mit IDM 2.0 muss sich das erstmal zeigen.
Deshalb sage ich riskant.
pipin schrieb:
Ich weiß auch nicht, ob es wirklich sinnig gewesen wäre wenn man sich mehr Gedanken gemacht hätte IFS auszugliedern. In dem Chipboomwahnsinn der letzten Jahre hätte man da doch einiges an Geld an der Börse einsammeln können.
Sicher?
Für eine Firma, die einen Kunden hat, der sich offensichtlich davonmachen will?
Für eine Firma, die offensichtlich den Anschluss an die Konkurrenz verloren hat?

Du hältst IDM 2.0 für riskant. Aber wer soll viel Geld dafür ausgeben das Risiko zu übernehmen?
So richtig toll ist der Börsengang von GF nicht gelaufen.

Intel hätte IMO nicht ansatzweise das Geld bekommen mit denen die Fabriken in den Büchern stehen.
pipin schrieb:
Stattdessen "bettelt" man jetzt um Subventionen für Fabs in den USA, wo man bereits jetzt Schwierigkeiten hat qualifiziertes Personal zu finden,
Geld stinkt nicht. Und das Betteln war eher ein Fordern. Und Intel hat bei der Gelegenheit auch noch zwei Supercomputer verkauft.
pipin schrieb:
bindet sich mit Tower Semiconductor noch nen anderes Geschäftsfeld ans Bein und muss erstmal genug Kunden finden, die bei Intel fertigen lassen wollen.
Du verstehst es falsch. Der Kauf von Tower Semiconductor bringt Kunden und das Know How wie man als Foundry agiert. Intel bindet sich damit nichts ans Bein sondern besorgt sich das Volumen das notwendig ist um IDM 2.0 ins laufen zu bekommen. Intel hat den größten verfügbaren fremdfertiger gekauft.
Ergänzung ()

Enigma schrieb:
Richtig, dachte ich auch. Garantiert haben Sie damals schon "gerochen", dass das Big-Little-Design auf X86 für Laptops nix ist.
Dir ist schon klar wie die CPU im M1 aufgebaut ist?
 
  • Gefällt mir
Reaktionen: Gast12345 und W4RO_DE
Enigma schrieb:
dass das Big-Little-Design auf X86 für Laptops nix ist.
nicht ganz, der M2 beinhaltet bspw. 4 Performance und 4 Efficency-Cores ;-)
 
  • Gefällt mir
Reaktionen: Gast12345
Kalsarikännit schrieb:
nicht ganz, der M2 beinhaltet bspw. 4 Performance und 4 Efficency-Cores ;-)
Ich meinte bewusst die X86-Architektur. Es ist sehr viel einfacher RISC zu entschlacken, als ein CISC. Klar macht es für einen ARM Sinn hier zweigleisig zu fahren.
 
  • Gefällt mir
Reaktionen: Kalsarikännit und Rockstar85
.Sentinel. schrieb:
Den praktischen Beweis liefern allein schon die Benchmarks, die eindeutig zeigen, dass mit Zunahme der Geschwindigkeit der Datenträger kaum Steigerungen beim Nutzer ankommen.
Bitte belege also Deine Behauptung.
Ich sagte nicht, dass die Technologie schlecht war. Verkehrt lagst du mit dem Timing. Auch in 5 Jahren sehe ich keinen ausreichenden Bedarf für die Technologie. Es bleibt ein teures Nischenprodukt.
 
Ich hatte eine Zeit lang das Asus FX571GT mit einer 32GB Optane und 512SSD drin. Ja, einige APPs usw. fühlten sich schneller an beim Start und Arbeiten als auf einem reinen RAM + SSD Notebook. Jedoch eher marginal als wirklich merkbar. Schade das so etwas eingestellt wird, andererseits nur in eine Technologie investieren ohne Gewinn macht auf langer Sicht auch keinen Sinn. Vielleicht kann Intel dennoch davon in Zukunft was gebrauchen.

Bezüglich der Einstellung der Grafikkartensparte tut sich Intel keinen Gefallen, das überhaupt in Erwägung zu ziehen. Solche Meldungen schrecken doch nur potenzielle Käufer ob. Wer will etwas kaufen, was morgen nicht mehr unterstützt wird?
 
CDLABSRadonP... schrieb:
Die Marktanteile von AMD sind, besonders im Server- und Notebooksegment, im Vergleich zu Intel, immer noch gering. Solange sie dort weit von 50:50 entfernt sind kann AMD auch noch weiter wachsen und wird von möglichen Krisen des Gesamtmarktes entsprechend wenig mitbekommen.
Wobei AMD sich mit den Zen4 mit iGPU noch mal weiteres Wachstumspotential im OEM Office Desktop Bereich sichert, wenn AMD so bald wie möglich eine performante Zen4 6 Kern CPU mit iGPU, sehr gerne mit unter 45Watt Package Power, auf den Markt werfen kann, so dass B2B ein OEM Office Desktop PC (kein OS, 8GB Ram, 256GB SSD, gerne ITX Bauform) für irgendwo zwischen ~425 und idealerweise nicht über ~525€ möglich ist.
In diesem Bereich "fand AMD bisher überhaupt nicht statt". Natürlich gab es Desktop APU, aber die waren entweder "unnötig" teurer, mussten bei der CPU Performance deutlich Federn lassen, um die GPU unter zu bringen und den Preis unten zu halten und die verfügbaren Mengen waren für die großen 3 eh zu gering.

AMD schafft es, sich trotz allem, weiterhin zusätzliches Wachstumspotential zu sichern (dem Aktienmarkt geht bei sowas einer ab), vorausgesetzt, das georderte Produktionsvolumen bei TSMC und die Preise stimmen.
Bei Intel hingegen sieht das nicht so gut aus und je nachdem, wie und was nun bei den dGPU für den Endkundenmarkt passiert, will ich nicht so wirklich wissen, wie Investoren / Aktionäre die Entwicklung aufnehmen. Die Leute mussten in den Letzten Jahren, trotz des "Wiedererstarken der Desktop CPU Sparte durch Alder Lake" einfach viel zu viele (kostspielige) saure Drops schlucken. Da hilft irgendwann auch nicht mehr das "wir halten derzeit noch bis zu 80% Anteile am PC / Notebook / Server / was auch immer Markt", denn diese Leute wollen nicht nur "Gewinne" sondern "steigende Gewinne" sehen.
 
Nagilum99 schrieb:
Ich sagte nicht, dass die Technologie schlecht war. Verkehrt lagst du mit dem Timing. Auch in 5 Jahren sehe ich keinen ausreichenden Bedarf für die Technologie. Es bleibt ein teures Nischenprodukt.
Wie kommst Du zu dieser Schlussfolgerung? Der gesamte IT- Sektor basiert in seiner Entwicklung auf Beschleunigung. Und eins der immer weiter anwachsenden Hürden sind nicht die Übertragungsraten sondern Zugriffszeit bzw. Latenz.
 
  • Gefällt mir
Reaktionen: Nagilum99
Enigma schrieb:
Ich meinte bewusst die X86-Architektur. Es ist sehr viel einfacher RISC zu entschlacken, als ein CISC. Klar macht es für einen ARM Sinn hier zweigleisig zu fahren.
Komisch, dass Intel als auch AMD beide zukünftig auf das Big-Little-Design setzen - evtl. solltest du die Mal beraten, da fehlt wohl deine Expertise …
 
Gast12345 schrieb:
Komisch, dass Intel als auch AMD beide zukünftig auf das Big-Little-Design setzen - evtl. solltest du die Mal beraten, da fehlt wohl deine Expertise …
Du musst unterscheiden zwischen verschiedenen Kerne zu haben und dem BigLittle Konzept.

Es war eine sehr große Schwäche des X86-Biotops dass es im Vergleich mit Arm über nur sehr wenige aktuelle Kerne verfügt. Intel hat es schon eine Weile mit Atom versucht, aber so richtig Erfolg hatten sie damit nicht. AMD hatte bisher nie die Resourcen, um mehr als einen X86-Kern zu entwickeln. Das ändert sich erstmals mit Zen 4 und zen 4c.

Intel hat bei AlderLake auf das BigLittle-Konzept gesetzt, um eine höhere Multicore-Leistung zu erreichen.

AMD will nun kompakte Energie effiziente Kerne für die Cloud entwickeln. Es gibt keinen Hinweis darauf dass sie für den Client kommen. D. h. falls da etwas passiert sollte, frühestens mit Zen 5. Und ob es tatsächlich so etwas wie BigLittle geben wird?

Es gibt aber einen massiven Unterschied zwischen dem Weg von AMD und Intel. Zen 4 und Zen 4c verstehen denselben Befehlsatz. Einen Befehl zu verstehen muss nicht bedeuten ihn so schnell wie möglich abzuarbeiten. Aber es ist besser einen Befehl langsam abzuarbeiten, als das gesamte Programm nicht ausführen zu können.
 
LamaMitHut schrieb:
PRAM, MRAM, STRAM... wobei Everspin (Hab da auch ein paar Aktien von) da erfolgreich ist - in einer Nische und klein.
Ergänzung ()

.Sentinel. schrieb:
Wie kommst Du zu dieser Schlussfolgerung? Der gesamte IT- Sektor basiert in seiner Entwicklung auf Beschleunigung. Und eins der immer weiter anwachsenden Hürden sind nicht die Übertragungsraten sondern Zugriffszeit bzw. Latenz.
Weil du alles mit 85x Zwischenstufen stupfen kannst. Optane ist zu komplex und damit meistens zu teuer pro GB, zuviele Besonderheiten [bis vor kurzem musste der ganze Kanal (und damit alle Kanäle) noch mit reduzierter Frequenz laufen]...
 
ETI1120 schrieb:
Es gibt aber einen massiven Unterschied zwischen dem Weg von AMD und Intel. Zen 4 und Zen 4c verstehen denselben Befehlsatz.
Oder im Klartext: Nachdem man ewig rumgetönt hat, wie wichtig doch AVX-512 ist, hat man das bei Alder Lake wieder komplett gestrichen, nachdem es für Ice, Tiger und Rocket Lake quasi als Killerfeature beworben wurde.

Man kann sich also nicht mehr darauf verlassen, dass es sich lohnt auf Intels neue Technologien zu setzen, und mit diesem Vertrauensverlust wird Intels Fähigkeit neue Standards festzulegen auch beeinträchtigt.

Ich glaube nicht, dass wir viel AMX Code sehen werden...
 
stefan92x schrieb:
Oder im Klartext: Nachdem man ewig rumgetönt hat, wie wichtig doch AVX-512 ist, hat man das bei Alder Lake wieder komplett gestrichen, nachdem es für Ice, Tiger und Rocket Lake quasi als Killerfeature beworben wurde.
Es ist ein Killerfeature. Man kann damit in Benchmarks protzen.

Schauen wir Mal wie sich hier AMD verhält.

Außerdem finden es ein paar Nerds klasse. Man mit AVX-512 ein paar Funktionen beschleunigen und die Effizienz erhöhen. Aber den großen Elefanten im Raum übersehen sie gerne, nämlich wie sieht das im Vergleich zu einer GPU aus?

stefan92x schrieb:
Man kann sich also nicht mehr darauf verlassen, dass es sich lohnt auf Intels neue Technologien zu setzen, und mit diesem Vertrauensverlust wird Intels Fähigkeit neue Standards festzulegen auch beeinträchtigt.
Es ist ja auch selten dämlich, die eigenen CPUs voneinander inkompatibel zu machen.

Und das ganze nur damit man für manche CPUs mehr Geld verlangen kann. Dass damit die breite Basis fehlt um eine solche Befehlssatz zu etablieren ist eigentlich offensichtlich. Außerdem macht man es den Softwareentwicklern damit sehr schwer Software mit AVX-512 zu entwickeln und testen.

Natürlich kann man das damit erklären dass bei Intel die Kaufmichel das sagen hatten. Aber die Ingenieure hätten das vernünftig umsetzen müssen.
stefan92x schrieb:
Ich glaube nicht, dass wir viel AMX Code sehen werden...
Vor allem da Intel bereits ankündigt, dass bei Meteor Lake spezielle AI-Einheiten (VPUs) kommen.
Ergänzung ()

.Sentinel. schrieb:
Und eins der immer weiter anwachsenden Hürden sind nicht die Übertragungsraten sondern Zugriffszeit bzw. Latenz.
Das musst Du ganz schnell den Leuten von PCIe sagen. Sie können die Arbeit an PCIe 6 und PCIe 7 einstellen.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Das musst Du ganz schnell den Leuten von PCIe sagen. Sie können die Arbeit an PCIe 6 und PCIe 7 einstellen.
Das sind ja durchaus zwei verschiedene Probleme. Mehr Datenrate bei gleichen Latenzen ermöglicht es halt einfach, in einem Server mehr Requests parallel abzuarbeiten und damit Server zusammenzufassen. Ist schön und ein Fortschritt, macht aber den einzelnen Request um nichts schneller. Und wenn das das Optimierungsziel ist, dann sind Latenzen eben ein Problem, denn da sehen wir schon länger kaum noch Fortschritt, höchstens Wege das Problem zu umgehen (mehr Cache z.B.).
 
  • Gefällt mir
Reaktionen: .Sentinel.
ETI1120 schrieb:
Intel ist immer noch in einer Vergleichsweisen guten Lage.

Das kann sich aber schnell ändern.

Nein, das macht Intel nicht.

Intel setzt für die CPUs nach wie vor auf die eigene Fertigung.
Die GPUs werden zu TSMC ausgelagert, wobei es ein erklärtes Ziel ist die GPUs in Zukunft wieder selbst zu produzieren.

Außerdem macht Intel einen ernsthaften Anlauf sich als Fremdfertiger zu Positionieren. Also in direkte Konkurrenz zu TSMC zu treten.

Du irrst dich!
Intel lässt bald auch CPUs bei TSMC fertigen!

https://www.pcgameshardware.de/CPU-...TSMCs-3-nm-Fertigung-GPU-Server-CPUs-1377643/

Die Grafikkartenabteilung wird eher bald eingestellt. Sowas kann der Intelboss!
 
stefan92x schrieb:
Das sind ja durchaus zwei verschiedene Probleme.
Und darum geht es. Pauschal zu behaupten alleine die Latenz zählt ist eben nicht richtig.
Es gibt Anwendungsfälle bei denen domimiert die Latenz, Aber wenn ich große mengen an Daten durchschieben muss benötige ich Bandbreite.
 
catch 22 schrieb:
Bei Intel hingegen sieht das nicht so gut aus und je nachdem, wie und was nun bei den dGPU für den Endkundenmarkt passiert, will ich nicht so wirklich wissen, wie Investoren / Aktionäre die Entwicklung aufnehmen. Die Leute mussten in den Letzten Jahren, trotz des "Wiedererstarken der Desktop CPU Sparte durch Alder Lake" einfach viel zu viele (kostspielige) saure Drops schlucken. Da hilft irgendwann auch nicht mehr das "wir halten derzeit noch bis zu 80% Anteile am PC / Notebook / Server / was auch immer Markt", denn diese Leute wollen nicht nur "Gewinne" sondern "steigende Gewinne" sehen.
Nunja, ich bin zwar kein einflussreicher Großaktionär, aber immerhin halte ich Intel Aktien schon über mein halbes Leben lang. Zwei mal habe ich welche gekauft, das erste Mal als sie noch in D-Mark gehandelt wurden. Verkauft habe ich noch nie welche und werde das in absehbarer Zeit auch nicht. Mir gefällt der aktuelle CEO viel besser als alles was da die letzten10 Jahre vor ihm das Sagen hatte. Grundsätzlich finde ich auch die Richtung gut und vor allem die Dimensionen in denen er denkt. Gelsingers Lobbyarbeit in Europa und den USA sehe ich auch schon mal als sehr gelungen an, was die Subventionen beweisen. Die nächsten 2-3 Jahre wird sicher nichts zu holen sein für Intel. Aber das haben eher die Vorgänger verbockt. 2025/26 erwarte ich dann einen Beweis, dann muss er liefern. Auf Sicht von 10 Jahren bin jedenfalls sehr optimistisch. Bis dahin hoffe ich erst Mal noch auf ein gelungenes Mobileye IPO um die Zeit etwas zu Überbrücken und den Aktienkurs zu stabilisieren und um später mit dem Geld die Baustellen ein stück weit zu finanzieren.
Mit meinem Investment bis jetzt bin ich insgesamt auch noch zufrieden. Es war ein Auf und Ab und oft geschah lange Zeit nichts. Sicher hätte es im Laufe der Jahre bessere, gerade in der Branche gegeben. Aber mit Intel im Depot habe ich immer besser geschlafen, als ich es mit AMD in der Zeit hätte. Stand heute bin ich noch ~50% im Plus im Schnitt (steuerfrei), was nicht viel ist wenn man Zeit und Inflation bedenkt. Aber 22 Jahre Dividenden haben sich auf dem Konto immer gut gemacht. Ich warte also entspannt auf wieder bessere Zeiten.
 
KLEMSI schrieb:
Du irrst dich!
Intel lässt bald auch CPUs bei TSMC fertigen!
Hast Du mit Pat Gelsinger geredet?
Der Stand aller Verlautbarungen von Intel ist, dass die CPUs bei Intel gefertigt werden.
KLEMSI schrieb:
Das ist ein Artikel vom letzten Jahr als der Unsinn, dass Intel AMD die Fertigung blockieren wolle, die Rund gemacht hat. Der Deal mit TSMC dreht sich hauptsächlich um GPUs. Inzwischen ist klar dass TSMC für Intel eigene Fertigungslinien hinstellt. Für die Intel wohl bezahlen muss, ob sie darauf fertigen oder nicht.

Intel hat immer wieder kommuniziert, dass die CPU-Chiplets in Intel 4 produziert werden.
Intel behauptet, dass bei der Prozessentwicklung von Intel 4 alles nach Plan läuft.
Die Präsentation von Intel 4 auf der VLSI Technology conference kam offenbar gut an, vor allen Dingen wurde klar was bei 10 nm schief lief

Es ist allerdings die Frage wann Intel alle EUV-Maschinen bekommt und wann diese in Betrieb gehen.

Pat Gelsinger ist demnächst in Taiwan, vielleicht gibt es dann was Neues. Die Digitimes behauptet, es ginge darum dass Intel, doch die CPUs verschieben wolle. Aber erstens behautet die Digitimes viel wenn der Tag lang ist und zweitens widerspricht diese Meldung allen Verlautbarungen von Intel.

KLEMSI schrieb:
Die Grafikkartenabteilung wird eher bald eingestellt.
Sagt wer?

Was soll das bringen?

Das Problem sind offensichtlich die Treiber.
Dies hat Intel im Call zum Quartalsergebnis zugegeben und erklärt dass man die Fehleinschätzung hatte auf dem alten Treiberstack schneller zum Ziel zu kommen. Deshalb: Aufsplitten der Treiber.

GPUs sind für Intel strategisch notwendig. Ohne GPUs ist Intel im Data Center und bei HPC nicht mehr konkurrenzfähig.

Intel plant iGPUs und dGPUs auf der Client Seite. Auch bei den iGPUs wird die kommt die Arc-Architectur zum Einsatz kommen. Wie ich es mitbekommen habe, sind die Zeiten der Krüppel iGPU zumindest für das Notebook bald vorbei. Im Klartext, die Treiber muss Intel so oder so auf Vordermann bringen, sonst bringen die iGPUs recht wenig.
 
ETI1120 schrieb:
Hast Du mit Pat Gelsinger geredet?
Der Stand aller Verlautbarungen von Intel ist, dass die CPUs bei Intel gefertigt werden.

Das ist ein Artikel vom letzten Jahr als der Unsinn, dass Intel AMD die Fertigung blockieren wolle, die Rund gemacht hat. Der Deal mit TSMC dreht sich hauptsächlich um GPUs. Inzwischen ist klar dass TSMC für Intel eigene Fertigungslinien hinstellt. Für die Intel wohl bezahlen muss, ob sie darauf fertigen oder nicht.

Intel hat immer wieder kommuniziert, dass die CPU-Chiplets in Intel 4 produziert werden.
Intel behauptet, dass bei der Prozessentwicklung von Intel 4 alles nach Plan läuft.
Die Präsentation von Intel 4 auf der VLSI Technology conference kam offenbar gut an, vor allen Dingen wurde klar was bei 10 nm schief lief

Es ist allerdings die Frage wann Intel alle EUV-Maschinen bekommt und wann diese in Betrieb gehen.

Pat Gelsinger ist demnächst in Taiwan, vielleicht gibt es dann was Neues. Die Digitimes behauptet, es ginge darum dass Intel, doch die CPUs verschieben wolle. Aber erstens behautet die Digitimes viel wenn der Tag lang ist und zweitens widerspricht diese Meldung allen Verlautbarungen von Intel.


Sagt wer?

Was soll das bringen?

Das Problem sind offensichtlich die Treiber.
Dies hat Intel im Call zum Quartalsergebnis zugegeben und erklärt dass man die Fehleinschätzung hatte auf dem alten Treiberstack schneller zum Ziel zu kommen. Deshalb: Aufsplitten der Treiber.

GPUs sind für Intel strategisch notwendig. Ohne GPUs ist Intel im Data Center und bei HPC nicht mehr konkurrenzfähig.

Intel plant iGPUs und dGPUs auf der Client Seite. Auch bei den iGPUs wird die kommt die Arc-Architectur zum Einsatz kommen. Wie ich es mitbekommen habe, sind die Zeiten der Krüppel iGPU zumindest für das Notebook bald vorbei. Im Klartext, die Treiber muss Intel so oder so auf Vordermann bringen, sonst bringen die iGPUs recht wenig.

Okay...
Warten wir ab.
Gelsinger hat noch jede unwirtschaftliche Abteilung eingestampft.
Und der neu Fertigungsprozess von Intel verschiebt sich gerade auf Ende 2023. So lange können die nicht in 10nm produzieren bzw. damit mithalten.
 
Ich hoffe, dass Intel die GPU Sparte nicht komplett streicht.
Die schlechten Zahlen sorgen vielleicht dafür, dass man sich wieder auf die Produkte konzentriert und versucht größere Sprünge bei den CPUs zu machen.

Apple bricht ja als großer Kunde nun komplett weg.
Die Entwicklung ist aber insgesamt gut, Monopole sind aktuell kaum vorhanden, weil AMD ebenfalls gut unterwegs ist.
 
Zurück
Oben