News Intel will Fokus auf Mobil-Sparte richten

Intel legt wie alle anderen normal tickenden Firmen den Fokus darauf, wo es die fetteste Kohle zu verdienen gibt.

Nicht mehr, und nicht weniger...
 
Piktogramm schrieb:
würde aber auch eine gute Kühlung fürdern, da ja die Spannungswandler aus sehr kleiner Fläche sehr viel Leistung umsetzen.
Nur die Verlustleistung wird zu Wärme an den Wandlern, nicht die umgesetzte Leistung. Em Ende wird natürlich sämtliche in die CPU gejagte Energie mal zu Wärme, aber darum gings gerade nicht. Die Wandler sind jedenfalls kein Problem - bei kleinen CPUs (klein nach Gesamtleistung in Watt) noch weniger als bei großen Brummern.
 
BlackWidowmaker schrieb:
Leid für Millionen Desktop-User die sich zurecht einfach nur verraten und verkauft sehen.

:freak: Ich bin auch kein absoluter Fan von Windows 8, aber verraten und verkauft? Ich bitte dich...

Davon mal ab, Intel weiß ja wie es geht sich in Märkte einzukaufen. Einfach hier und da ein paar Summen und Werbekostenzuschüsse zahlen und es läuft an...
 
Zuletzt bearbeitet:
Seid doch froh dann könnt ihr eure teuer bezahlten prozessoren länger benutzen, und stabiler im wert sind sie dann obendrein auch noch.
 
@News
Das Problem wird einmal sein, eine vernünftigen Atom-Kern zu entwicklen.
z.B: ist der In-Ordner-Atom @ 45nm mit 9,7mm² ziemlich groß. Denn AMDs K10 war in 45nm mit 15mm² auch nur 50% größer wie der Atom.
Hingen war Atom-45 mit 9,7mm² so 100% größer wie Bobcat-40 mit 4,7mm², trotz der erheblich größeren IPC des Bobcats.
Und hätte Intel den Pentium-M von 90nm auf 45nm geshrinkt, wäre dieser mit so 10-12mm² auch kaum größer als der fast 10mm² 45nm-Atom.
Und weil es mit Pentium-M 773 schon 1,30 GHz @ 5,5W-TDP gabe, wäre ein 45nm-HKMG-Dothan statt 90nm auch nicht weit weg von Dothan Leistungsbedarf entfernt. Da fragt man sich überhaupt, was Intel in diesen 4-5 Jahren da gemacht hat.

Also, es ist zwar nett, dass der neue CEO in zukunft einen Fokus auf ATOM setzen will, aber entscheident sind die Atom-Entwicklung der letzten 4 Jahren @ Next-Gen-22nm-OoO-Atom. Denn der Vorgänger scheint gegenüber ARM, K8, Bobcat & Pentium-M bei weiten nicht in Sachen Flächen und/oder Strom-Effizienz zu sein.
Weil Dothan Mitte 2004 rauskam und Atom Mitte 2008 ist es durchaus wahrscheinlich, dass Atom (2-Alu) von Dothan (3-Alu?) entwickelt wurde [so wie Bobcat (2-Alu) von K8 (3-Alu)]

Entscheident deshalb, weil Globalfoundries und TSMC in der Fertigung mächtig aufholt und immerhin beide schon mal so viel Fabriks-Flächen-Produktion wie Intel haben. Bei der Fertigungsgrößen könnte es schon Ende 2014 @ 14nm-FinFET der nächste große Schritt nach Vorne sein.



Piktogramm schrieb:
Das der Fokus auf der mobilen Sparte liegt ist nur die halbte Wahrheit.
Was Intel gerade im Bereich der Server abzieht ist mit Xenon Phi und Xeons auch nicht von schlechten Eltern.
Inwiefern?
Larrabee ist ja auch ein Bespiel, wo ein Intel-Konzept nicht aufging. Denn es war mal geplant, diesen als GPU zu bringen und ihn in Core & Atom zu integrieren. Jetzt kann man ihn nur im Server-Markt bringen, während die Konkurrenz sowas in Kaveri und vielleicht 20nm-Kabini einsetzten kann. Weil die ARM-Chipsätze in Zukunft auch HSA nutzen, muss Intel in Zukunft auch sowas beherschen um in Smartphone & Tablet-Markt den Anschluss nicht zu verlieren.
 
Zuletzt bearbeitet:
Die CPUs für dem Desktop PC Bereich sind ja schon stark von daher ist das nicht ganz so schlimm wenn sie die Atoms vorziehen.
Hätten sie sich damals nicht verrechnet wären vielleicht heute schon in allen Smartphones und Tablets x86 CPUs drin.

Bei den Desktop PCs kommt es schließlich sowieso nicht drauf an das die CPU jetzt 0,5W weniger verbraucht.
 
Ist ja auch völlig richtig. Im Desktopmarkt hat Intel kaum Konkurrenz und die CPU's sind schnell genug.

Gerade die Atom CPU's sind spannend. Wegen der Architektur und der Leistung. Die Konkurrenz ist aber auch nicht schlecht. Nvidia Tegra4 oder Ti Omap5 apple a5x kommen fast am Atom z2780ran.

Intel muss daran arbeiten, dass die ATOMS 64 Bit erhalten und USB 3 wäre echt klasse.
 
Ein Glück nur, dass besonders der Tablet- aber auch der Smartphone-Boom langfristig betrachtet sich als Eintagsfliegen herausstellen werden, da es sich letztlich v.a. bei Tablets nur um eigentlich recht überflüssige Spielereien handelt. Wenn da mal fast jeder eins hat und irgendwann bemerkt, dass er damit eigentlich nichts richtiges anfangen kann, wird das Interesse bald sinken. Smartphones quasi idem - viel mehr als die jetzt schon können, geht eh nicht mehr, bzw. ist der Grenznutzen bald erreicht. Irgendwann werden gewisse Leute auch anfangen nachzudenken, ob sie für 2-3 neue Gimmicks alle 1-2 Jahre wieder 700 Euro locker machen wollen, oder ob das Geld nicht doch wo anders besser investiert wäre.
Die Zukunft liegt langfristig wohl eher darin, wirklich nutzbare Geräte wie den PC weiter zu schrumpfen, seine Daten überall zugänglich zu machen und die Geräte insgesamt einfach und ideal zu vernetzen.

PS: ganz entgegen dem Trend hab ich mir heute gerade alle Einzelteile für einen neuen Desktop PC erstanden :-)
 
aylano schrieb:
@News
Und weil es mit Pentium-M 773 schon 1,30 GHz @ 5,5W-TDP gabe, wäre ein 45nm-HKMG-Dothan statt 90nm auch nicht weit weg von Dothan Leistungsbedarf entfernt. Da fragt man sich überhaupt, was Intel in diesen 4-5 Jahren da gemacht hat.
Da stimme ich dir voll und ganz zu! Vor allem konnte man diese Prozessoren hervorragend untervolten ;) Das waren schon sehr geile Teile! Aber das waren auch die Sahnehäubchen. Häufiger vertreten war z.B: der LV 738/778 mit 1,4-1,6 GHz bei einer TDP von 10W.

Bei den heutigen IvyBridge Prozessoren braucht man je Kern der bei ~3GHz läuft rund 10W. Also ganz so verkehrt finde ich das Leistungsverhältnis dann doch nicht. Man hat mehr als die doppelte Leistung (IPC) bei einer vergleichbaren Leistungsaufnahme.

Nicht vergessen darf man auch, dass sich inzwischen verdammt viel an der Idle-Leistungsaufnahme getan hat - man darf nicht nur auf die TDP-Werte schauen. Die modernen CPUs haushalten ganz ordentlich mit der Energie. Vieles spiegelt sich in den Akkulaufzeiten wieder. Die alten Subnotebooks (2005) hatten Akkulaufzeiten von ~5 Stunden. Heute kratzen die Notebooks (MacBook Air) an der 8 Stunden marke und fühlen sich alles andere als kastriert an. (Einiges der Akkulaufzeit geht auch auf die Kappe der LED-Panels - sollte man nicht vergessen)

Betrachtet man das mal ganzheitlich, hat man die doppelte Leistung bei 50% längerer Akkulaufzeit. Hat sich doch schon n bissl was getan :) Ich denke auch, dass sich viele Notebookhersteller bei den Leistungsdaten nicht mehr die Beine ausreissen, um extrem laufzeitstarke Modelle rauszubringen. Es ist ein unterschied ob man 4 oder 6 Stunden Laufzeit erreicht. Aber ob man 6 oder 8 erreicht ist nicht mehr ganz so ausschlaggebend bei den Konsumenten und ist in der Regel ausreichend.

Was man eher als krassen Fortschritt sehen muss, sind die modernen Tablets. Das iPad ist nicht leistungsschwach und hält halt mal 10 Stunden am Stück durch - das hätte ich vor 8 Jahren nicht für möglich gehalten! In der Richtung hat sich viel getan - leider auch etwas an Intel vorbei, was sie gerade merken ;)
 
Logische Entwicklung, denn wir wissen alle, in welche Richtung die Absätze im PC Bereich gehen. Das liegt nicht zuletzt daran, dass CPUs immer länger genutzt werden, weil ihre Leistung immer länger die Bedürfnisse vieler Käufer befriedigt. Dagegen wächst welches Segment? Das mobile Segment. Wo hat Intel Nachholbedarf? Im mobilen Segment. Es ist wenig verwunderlich, dass sie sich stärker auf den mobilen Bereich konzentrieren, zumal sie bei den großen Prozessoren sowieso einen sehr großen Vorsprung haben.
 
Ich denke mal dass Intel nun keine bedeutende Anzahl an Ingenieurs-Arbeitsstunden mehr in die Erhöhung des IPC bei Desktop-CPUs investieren wird. Zumal es so wie die Sache aussieht von Jahr zu Jahr schwieriger wird eine Erhöhung des IPC-Wertes ohne gleichzeitige Verschlechterung der Energieeffizienz zu erhalten.

Wer mehr Rechenleistung benötigt der muss dann zu CPUs mit einer größeren Anzahl an Kernen greifen. Ich erwarte von Skylake keine deutlichen Verbesserungen mehr was die Rechenleistung betrifft. Was Skylake bringen wird, vermutlich AVX3, aber sonst nichts weltbewegend neues.
 
Ein Glück nur, dass besonders der Tablet- aber auch der Smartphone-Boom langfristig betrachtet sich als Eintagsfliegen herausstellen werden, da es sich letztlich v.a. bei Tablets nur um eigentlich recht überflüssige Spielereien handelt. [...] Smartphones quasi idem - viel mehr als die jetzt schon können, geht eh nicht mehr, bzw. ist der Grenznutzen bald erreicht.
Man geht nach Hause, stellt sein Handy in die Ladeschale und alle Elektronikgeräte wie TV, PC- Monitor, Stereo Anlage, etc. greifen darauf zu. Die Berechnungen werden alle dort ausgeführt und die Daten von dort bzw. aus dem Internet geholt. Du sagst es ja selbst. Die Dinger sind schon so leistungsfähig, was braucht man da noch mehr?

Die Zukunft liegt langfristig wohl eher darin, wirklich nutzbare Geräte wie den PC weiter zu schrumpfen, seine Daten überall zugänglich zu machen und die Geräte insgesamt einfach und ideal zu vernetzen.
Genau dafür braucht man kleine sparsame CPUs.


Wer will einen großen Rechner haben, wenn ein Handy doch reicht.
 
aylano schrieb:
Inwiefern?
Larrabee ist ja auch ein Bespiel, wo ein Intel-Konzept nicht aufging. Denn es war mal geplant, diesen als GPU zu bringen und ihn in Core & Atom zu integrieren. Jetzt kann man ihn nur im Server-Markt bringen, während die Konkurrenz sowas in Kaveri und vielleicht 20nm-Kabini einsetzten kann. Weil die ARM-Chipsätze in Zukunft auch HSA nutzen, muss Intel in Zukunft auch sowas beherschen um in Smartphone & Tablet-Markt den Anschluss nicht zu verlieren.

Nur am Servermarkt, genau deswegen ist in der Top500 Liste der Großrechner gerade ein System mit Xeon Phi ganz vorn mit dabei. Wobei Larrabee von Anfang an als Lösung für Großrechner gedacht war. Die Verwertung für den Endverbraucher war dann die Gradik-Customerschiene, die die Kosten für das Projekt auf eine zweite Säule stellen sollte. So wie es AMD und Nvidia auch machen, die versuchen auch die Entwicklungskosten auf beide Sparten umzulegen. Bei Intel hat es ob der sehr eigenen Struktur schlicht nicht geklappt. Das in vielen Medien nur auf die Endverbraucherschiene aufgesprungen wurde und die Berichterstattung untergring, bei der es von Anfang an um dicke Rechenmonster ging die durch dieses System massive x86 Rechenleistung und vor allem Logik bekommen sollten viel da leider raus. Die ersten Vorstellungen der etwas fundierten Medien nennt Grafik und High Performance Computing gleichzeitig. Ein reines GPU Design hätte von Anfang an anders ausgesehen. Die Jungs bei Intel wissen auch, dass es nicht derart aufwendige Logikeinheiten in ner GPU braucht.


mensch183 schrieb:
Nur die Verlustleistung wird zu Wärme an den Wandlern, nicht die umgesetzte Leistung. Em Ende wird natürlich sämtliche in die CPU gejagte Energie mal zu Wärme, aber darum gings gerade nicht. Die Wandler sind jedenfalls kein Problem - bei kleinen CPUs (klein nach Gesamtleistung in Watt) noch weniger als bei großen Brummern.


Sprachliche Ungenauigkeit ;)
Wir meinen in etwa da Selbe. Umgesetzte Leistung kann genauso bedeuten, dass die elektrische Leistung in Wärme umgesetzt wurde, oder dass aufgrund der hohen Leistungsdichte an dieser Stelle umgesetzt wird dieser Punkt eben auch problematisch ist, dass es zwangsweise Verluste gibt, die zwangsweise in Wärme umgewandelt wird.
 
pipip schrieb:
Naja, da GF 14 nm ebenso für kleine Chips 2014 anbieten möchte und Samsung ja mit GF eine Partnerschaft haben, könnte man 2014-2015 ebenso ARM-14nm FinFet Prozessoren sehen.
http://techreport.com/news/23603/glofo-preps-14-nm-finfet-process-for-2013
Trotzdem darf man nicht den Fehler machen, dass 14nm nicht gleich 14nm ist und dann bei gleichen Strukturgrößen die Technologien dann eine Fertigung effizienter machen oder nicht.
z.B.: soll ja 32nm-SOI so 20-30% größer sein als 32nm-Bulk, aber dafür so 15-25% effizienter.
Oder 45nm-ULK bei AMD war genauso so 30% effizienter als 45nm-LK. Also, bei gleichen Fertigungsgrößen ist einmal der Flächen-Fertigungs-Vorteil (= Wafer-Kosten) einmal weg/gleich, aber Energie-Effizienz ist noch lange nicht gleich. Bei 14nm fällt halt noch "zufällig" der 3D bzw. FinFET-Vorteil von Intel weg, weil beide das genauso einführen, auch wenn 14XM auf einer 20nm-Basis (oder so) besteht.

crustenscharbap schrieb:
Ist ja auch völlig richtig. Im Desktopmarkt hat Intel kaum Konkurrenz und die CPU's sind schnell genug.
Wäre die Konkurrenz besser, würde das nur zu niedrigen Preisen führen und geringeren Umsatz bringen. Aber der Intel-Rückstand in Smartphone & Tablet würde trotzdem bleiben.

gwuerzer schrieb:
Irgendwann werden gewisse Leute auch anfangen nachzudenken, ob sie für 2-3 neue Gimmicks alle 1-2 Jahre wieder 700 Euro locker machen wollen, oder ob das Geld nicht doch wo anders besser investiert wäre.
Die Zukunft liegt langfristig wohl eher darin, wirklich nutzbare Geräte wie den PC weiter zu schrumpfen, seine Daten überall zugänglich zu machen und die Geräte insgesamt einfach und ideal zu vernetzen.
Es gab mal eine Zeit, da hat man (alle 2-3 Jahre) einen 1500 Euro PC mit ADSL (und 1500 Euro Notebook) und einem Händy mit Tarif gekauft. Schon heute bekommt man schon um 1500 Euro schon einen PC & Notebook & Tablet & Smartphone sowie mit den ADSL-&-Handy-Tarif von damals sicher je 1 Tarif für jedes Gerät. Dass die Zukunft der Hardware-Hersteller darin liegt, alles so gut wie möglich zu vernetzen (Einstellungen & Daten und am besten auf Own-Cloud) sagte ich schon vor 1-2 Jahre.
Das Problem für Microsoft & Intel ist ja, dass die diese Möglichkeiten nicht sagen. Denn der Essential-Desktop & Essential-Notebook & Tablet & Smartphone kann jetzt schon mit Low-Power-Chips versorgt werden, weshalb sich ARM & Android sich da immer mehr ausbreitern konnte und noch in den Normalo-Desktop & Notebook & Servern vordringen kann, die bis auf Servern aufgrund der Grenznutzen sowieso schrumpfen werden. Wobei der GPGPU-Trend im Server-Markt ja auch der Trend weg von x86-Only ist.

Also, es zeigt sich, dass die Zukunft nicht im Mobilen Markt ist, sondern in effizienten Kernen, die man von Smartphone bis Server eingesetzt werden kann, wie A57 und in 20nm vielleicht auch Kabini sowie Atom dann auch. Die Big-Cores wie Bulldozer & Hasswell wird mit Game-PCs & Workstation & Server immer mehr zum Nischen-Produkt, auch wenn es vorerst große Nischen sind.
Aber auch hier machte AMD den Richtigen Effizenz-Trend im Big-Core erkennt, indem sie aus 4x1 dann mit 2x2 doppelt so viele Cores bei selber Core-Größe machten. Aber die Zukunft liegt nunmal in zukünftiger moderner Multi-Core-Software und nicht in veraltender Single-Thread-Software.

Piktogramm schrieb:
Nur am Servermarkt, genau deswegen ist in der Top500 Liste der Großrechner gerade ein System mit Xeon Phi ganz vorn mit dabei. Wobei Larrabee von Anfang an als Lösung für Großrechner gedacht war. Die Verwertung für den Endverbraucher war dann die Gradik-Customerschiene, die die Kosten für das Projekt auf eine zweite Säule stellen sollte.
Larrabee war schon für die (Nebenbei-)Nutzung als Grafikkarte geplant. Nur ist der 45nm-Larrabee mit AFAIK 600mm² und 400-500Watt 2009/2010 dermaßen gepfloppt, dass man die Nutzung als Grafikkarten sehr schnell aufgab in es wenigstens mit 32nm und später 22nm es doch (irgendwie) am Server-Markt vernünftig bringen konnte.

Aber auch ein Larrabee ist mit 2-ALU pro Integer-Core auch ein Weg weg von Big-4-ALU-Core auf viele Little-Cores auch wenn bei Larrabee das die Integer-Cores nicht perfekt mit den 16er-Vec-SIMD zusammenarbeiten können. Aber mit den Next-Gen-Larrabee wird das sicher besser werden und wahrscheinlich ein Schritt näher zu HSA sein. Aber das Problem ist, dass wird frühestens Ende 2014 passieren und da hat AMD schon seine 2. Gen HSA @ Kaveri-Nachfolger und vielleicht schon HSA @ Kabini-20nm und HSA @ A57

Das ist der große Nachteil von Intel (Intel hat momtan für Atom & Core & Server je eigene "Grafik-Units") bzw. Große Vorteil von AMD, dass sie ihre Jaguar & Bulldozer & GCN & HSA-Technologie immer von Tablet bis Server-Markt nutzen, was in der Programmierung für Software-Hersteller wieder deutlich einfacher ist. Zumindestens wird Atom-22nm schon Core-GPU-Technologien haben, aber diese hat dafür auch Fremd-Lizenzen sowie noch kein HSA-Ähnliches

Enigma schrieb:
Da stimme ich dir voll und ganz zu! Vor allem konnte man diese Prozessoren hervorragend untervolten ;) Das waren schon sehr geile Teile!...

Bei den heutigen IvyBridge Prozessoren braucht man je Kern der bei ~3GHz läuft rund 10W. Also ganz so verkehrt finde ich das Leistungsverhältnis dann doch nicht. Man hat mehr als die doppelte Leistung (IPC) bei einer vergleichbaren Leistungsaufnahme.
Die CPU ist mit der besten Effizienz kann trotzdem schlecht sein, wenn sie im Smartphone & Tablet-Markt zu groß ist oder zu stromfressend oder zu schwach. Die Innovation ist halt, einerseits die benötigte Performance zu liefern und andererseits höchste Effizienz zu liefern.
Weil schon Ende 2014 bzw. Anfang 14nm (also in Kürze) daherkommt (und 10nm dann wieder 2 Jahre dauert) wird es spannend zu sehen sein, welche CPU-Architektur die optimiale Performance & Effizienz in Abhängigkeit des CPU-Bedarfs bzw. Computing-Bedarf (CPU + GPU) liefern kann.

ARM hat es wenigsten geschaft bisher mit jeder neuen Fertigung die Architekturen zu verbreitern.
Bei AMD muss sich zeigen, ob sie dann in 14nm in den Smartphone-Markt schaffen
Bei Intel wird sich zeigen, ob sie bei gleicher Fertigungsgröße auch so effizienz sind wie die Konkurrenz
 
Zuletzt bearbeitet:
Ich frage mich ob Airmont irgendwelche Innovationen bringen wird gegenüber Silvermont oder nur höhere Energieeffizienz oder höhere Taktfrequenz bei gleichem Energieverbrauch. Möglicherweise eine leistungsstärkere iGPU?

Enigma schrieb:
Bei den heutigen IvyBridge Prozessoren braucht man je Kern der bei ~3GHz läuft rund 10W.
Vermutlich sind es eher so um die 12 bis 15 W pro Kern bei 3 GHz.
 
Zuletzt bearbeitet:
Elkinator schrieb:
toll, da wird mein beitrag verschoben weil man die wahrheit nicht schreiben darf und dafür bekommt man auch noch eine verwarnung^^ ... wenn man in einem forum jemandem nicht mehr sagen darf das er permanent schwachsinn schreibt, bleibt er halt ewig ein DAU, sehr sinnvoll finde ich das eigentlich nicht^^

Es kommt darauf an wie man es sagt und ob man es wenigstens ansatzweise(!) begründet. Aber 3 Posts hintereinander nur 1-Zeiler "Ihr scheibt alle Unsinn" "Ihr habt keine Ahnung" "Ihr seid eh alle deppert"... ganz ehrlich :rolleyes:


Elkinator schrieb:

Du würfelst hier ziemlich wild Dinge durcheinander, von denen man unmöglich auf die Strategie eines Unternehmens schließen kann.

Fakt ist: Intel schraubt schon seit Jahren an der Effizienzschraube rum, aber nicht damit unsere Desktop-CPUs 3° kühler bleiben und 10W weniger verbrauchen, sondern aufgrund des Notebook/Ultrabook-Sektors, mit dem schlicht und ergreifend mehr Geld verdient wird, als mit Desktop-PCs.

Worauf würdest du denn den Fokus legen? Und ich meine nicht dich als Bastler-Konsument, sondern als Unternehmer... natürlich dort, wo mehr Geld verdient wird: Notebooks und (aus Intel-Sicht) zukünftig Phones/Tablets. Ist das echt so schwer zu verstehen?
 
nur weil die CPUs effizienter wurden bedeutet das aber nicht das der fokus auf mobilen geräten gelegen ist, diese begründung passt einfach nicht.
fakt ist das die mobilen CPUs in der vergangenheit ein abfallprodukt waren.

erst mit broadwell werden mobile geräte bevorzugt von intel behandelt, da kommt erstmal ein neuer prozess zuerst nur für mobile geräte.

und wenn man hier die einfachsten sachen begründen muß, dann wird es aber echt fad, man kann doch wohl erwarten das leute in einem technikforum interesse an technik haben und sich selbst etwas informieren?

ich hab es im gegensatz zu einigen hier eben verstanden, der fokus liegt JETZT SEIT KURZEM auf mobilen geräten...

immer wieder lustig wenn mir leute denen das thema offensichtlich etwas zu hoch ist (weil es sie eben nicht interessiert) sagen das ich keine ahnung habe *loool*
und ich werde auch in zukunft nicht alles gegründen, ich erwarte eine gewisse grundkenntnis, wenn das jemand nicht hat ist es mir ziemlich egal...
 
Zuletzt bearbeitet:
Elkinator, das ist doch schon spalterei von Elektronen in einem Atom was du da betreibst.
Selbst wenn es der allerletzte Müll wäre (was es einfach nicht war und ist) was Intel an CPUs für die Notebooks lieferte, war es doch das einzige und beste was es geben hat. Insofern war Intel schon immer im mobilen Sektor und das zu gut 90 und mehr Prozent für Windows basierte Notebooks. Jetzt liegt eben der Fokus zuerst auf dem mobilen Sektor und der gemeine Desktop wird danach bedient. Trotzdem ist alles relativ, weil Intel weiterhin den Desktop und Servermarkt dominiert und weiterhin Produkte pflegt und bringen wird.
Nach meiner persönlichen Meinung dreht es sich in deinen Beiträgen nur darum, schlechtes über Intel zu schreiben und dafür nutzt du jede Gelegenheit. Das Intel den Markt missbraucht hat und nach meiner Vorstellung sicherlich weiterhin missbraucht, sehe ich als gegeben an. Schließlich machen das so viele Unternehmen und ist für mich jetzt keine Überraschung.

Intel wird und will weitere Geschäftsfelder im mobilen Segment erschließen. Im Desktop Bereich werden die Absätze immer geringer, was ja die Verluste in den Quartalszahlen von Intel zeigen.

Es ist einfach eine weitere News zum alten Thema, welches einem ständigen Leser hier im Forum kein bisschen wundert. Intel legt den Fokus auf den mobilen Sektor. Jetzt hat es halt nochmals der neue CEO von Intel gesagt, schließlich muss er als neuer Boss ja auch mal was zum Thema sagen.

Eigentlich müsste man zu diesem Thema Null Beiträge hier finden, aber bei dieser menge an Usern bleibt es eben nicht aus, dass der eine oder andere auch gerne zum 100. mal seine positive und negative Meinung posten will.

Mal sehen in wieweit AMD mit ihren Produkten eine Konkurrenz zu Intel im x86 mobilen Bereich sein kann. Mal sehen ob es verstärkt Hersteller geben wird, die auch AMD Produkte verbauen werden. Ich persönlich habe Zeit. Mal schauen was Intel oder AMD so bringen und dann kommt ein kleiner ITX Kasten und wird meinen ATX Klotz ablösen. Wenn erst 2015/16 was passendes für mich kommen sollte, mir auch egal. Mein x3 445 reicht mir locker.
 
wo mach ich bitte intel schlecht?
ich sag nur das der fokus nicht auf mobilen geräten lag, was ist daran schlecht machen?

wo hab ich jemals gesagt das intel den markt missbraucht hat?
verwechselst du mich da mit jemandem?

ich hab soetwas jedenfalls noch nie in irgend einem forum behauptet...
 
Zurück
Oben