News Intel preist erste „Bay Trail“-CPUs an

Was soll denn an der Grafikleistung grenzwertig sein? Essential-PC = 2D only mit ein wenig Media-Decoding. Da ist alles ab HD-Graphics oder eine auf 64 Shader gekappte GCN mehr als ausreichend. Aber Hauptsache man hat das 2,5-fache TDP-Budget wieder schön geredet.

Und wann soll die große Zeit des Temash sein? Wenn es zu spät ist und Intel bereits die zweite Generation FinFET-basierter CPUs in den Markt schiebt?

Ich lach mich tot. Wenn Temash (oder der entsprechende Nachfolger) in 1-2 Jahren immer noch ein Nischendasein fristet, wird seine große Zeit deiner Meinung nach wohl erst mit 10 oder gar 7 nm kommen.
 
@Krautmaster:
Wobei ich die Aussage "Up to 2,4 GHz" bei dem Atom Z3770 so interpretiere dass die 2,4 GHz der max. Takt mit BPT sind, während der Grundtakt unterhalb 2 GHz liegt.
Bei den Bay Trail-D ist das so dass diese ständig mit dem max. Takt laufen.

@Simon:
Ich stimme dir zu. Essential-PC bedeutet dass darauf keine Spiele mit aufwendiger 3D-Grafik darauf laufen müssen.

@aylano:
Was die Fertigungstechnologie betrifft ist Intel den anderen Chipfertigern immer noch ein bis zwei Schritte voraus.
Bis der Temash in 14 nm von Band läuft läuft bereits längst die Massenfertigung des Bay-Trail Nachfolgers in
14 nm.

Mir wäre ein Wettbewerb der wie ein Kopf an Kopf Rennen aussieht zwischen AMD und Intel auch lieber, aber dem ist nunmal nicht so.
 
Zuletzt bearbeitet:
Simon schrieb:
Was soll denn an der Grafikleistung grenzwertig sein? Essential-PC = 2D only mit ein wenig Media-Decoding.
Der PC soll auch im Essential-Markt ja nicht nur jetzt laufen, sondern auch in 3-5 Jahren.

WinnieW2 schrieb:
@Simon:
Ich stimme dir zu. Essential-PC bedeutet dass darauf keine Spiele mit aufwendiger 3D-Grafik darauf laufen müssen.
Gerade in Zeiten, wo gratis und/oder Browser-Spiele im Aufwind sind, ist die GPU selbst für den Essential-Markt nicht zu unterschätzen. Und genau der Essential-Markt sind optimal für gratis-Browser Spiele.

Da ist alles ab HD-Graphics oder eine auf 64 Shader gekappte GCN mehr als ausreichend. Aber Hauptsache man hat das 2,5-fache TDP-Budget wieder schön geredet.
Schönreden ist es wennschon, wenn man die geringe GPU-Performance ignoriert und dann auf den achsogeringen TDP-Wert hinweist.
Ich wollte mal von der CPU-Only-Diskussion auf diesen Thread etwas ablenken.

Ich lach mich tot. Wenn Temash (oder der entsprechende Nachfolger) in 1-2 Jahren immer noch ein Nischendasein fristet, wird seine große Zeit deiner Meinung nach wohl erst mit 10 oder gar 7 nm kommen.
Wenn du jetzt einen 1,0 GHz-Temash vs 2,+ Ghz-Atom vergleichst, dann hat nunmal der Temash-Nachfolger ein deutlich höheres Taktpotential.

WinnieW2 schrieb:
@aylano:
Was die Fertigungstechnologie betrifft ist Intel den anderen Chipfertigern immer noch ein bis zwei Schritte voraus.
Bis der Temash in 14 nm von Band läuft läuft bereits längst die Massenfertigung des Bay-Trail Nachfolgers in
14 nm.
Ersteres ist GF & TSMC kräftig am aufholen, weil GF & TSMC AFAIK jetzt schon mehr Wafer-Fläche produzieren als Intel.
Zweiteres kann Temash in 20nm & 14nm noch immer den Takt von 1,0 Ghz auf 2,0 Ghz und dann auf 2,5 Ghz steigern. Zwar höchstwahrscheinlich nur in Dual-Core, aber die meiste Software ist ja eh noch viel mehr Single-Thread als Quad-Thread. Wobei es sich die Frage stellt, ob dann wegen HSA überhaupt ein Quad-CPU gebraucht wird.

Der 22nm-Atom wirkt so wie der Atom der ersten Generation.
Zuerst der Wow-Effekt (wegen OoO & Quad @ 2,0+ Ghz), aber die nächsten Jahre kaum Verbesserungen.
Kabini bzw. Jaguar ist für den Tablet-&-Smartphone-Markt jetzt gegenüber Intel & ARM noch etwas zu groß, aber genau das könnte die Chance für die Zukunft sein.
 
naja diese 10W ATOMs werden wohl weniger in diesen "Gaming Essential" - PCs verbaut werden, die sehen eher nach Business und Embedded aus, eher Geräte zum arbeiten weniger für Kiddis.

Über 10W gibts ja noch genug und ist ja jetzt nicht so als ob Intel + Nvidia nicht die Leistung (auch und gerade die GPU Leistung) da ausbaut.

Wie steht den ein 15W Kabini gegen einen 15W ULV Haswell bezüglich GPU Leistung?

Edit: Der i7 4500U hat übrigens die kleine HD4400 während einige ebenfalls 15W i5+i7 auf die HD5000 setzen. Den Vergleich der HD4400 und HD5000 gibts hier.

@WinnieW2

joa, wie gesagt, is noch zu früh um sich da konkret festlegen zu können oder sich ein Bild zu machen. All zu lange kanns eigentlich nicht mehr dauern.
 
Zuletzt bearbeitet:
aylano schrieb:
Gerade in Zeiten, wo gratis und/oder Browser-Spiele im Aufwind sind, ist die GPU selbst für den Essential-Markt nicht zu unterschätzen. Und genau der Essential-Markt sind optimal für gratis-Browser Spiele.
Also solch aufwendigen Browser-Spiele die mit der GPU-Leistung eines Atom oder Temash nicht auskommen habe ich persönlich noch nicht gesehen. Kannst du Beispiele für Browser-Games nennen welche so viel GPU-Power brachen?
Die Essential-Rechner sind meist für preisgünstige Bürorechner gedacht, und da sollen die Leute höchstens in ihren Arbeitspausen einfache Spiele zur Erholung spielen, wenn überhaupt.

aylano schrieb:
Ersteres ist GF & TSMC kräftig am aufholen, weil GF & TSMC AFAIK jetzt schon mehr Wafer-Fläche produzieren als Intel.
Die Fertigungsstruktur ist nur der halbe Schlüssel zur Effizienz. Dazu kommen noch ein paar andere Technologien. Wichtig für hohe Effizienz bei den kleinen Strukturen sind solche Dinge wie z.B. die FinFETs.
Können die anderen Chipfertiger bereits Chips mit FinFET herstellen oder können diese ähnliche Technologien nutzen?

aylano schrieb:
Zweiteres kann Temash in 20nm & 14nm noch immer den Takt von 1,0 Ghz auf 2,0 Ghz und dann auf 2,5 Ghz steigern. Zwar höchstwahrscheinlich nur in Dual-Core...
Das halte ich - ehrlich gesagt - für eine Wunschvorstellung dass sich die Taktfrequenz der CPUs nach einem Shrink von 28 auf 20 nm verdoppeln lässt ohne dass die Verlustleistung steigt.
Die Verlustleistung bei FET steigt nicht linear mit der Taktfrequenz sondern quadratisch!

aylano schrieb:
Zuerst der Wow-Effekt (wegen OoO & Quad @ 2,0+ Ghz), aber die nächsten Jahre kaum Verbesserungen.
Ich gehe mal davon aus dass zumindest die GPU beim Bay Trail Nachfolger mehr Leistung bringen wird.
 
abgesehen davon wird man auch da wie bei Handygames meist schaun, dass das Game quasi auf allen Plattformen gleich rennt, sich also weniger am Top End GPU orientieren. Meistens sind es ohnehin mini Games die bezüglich GPU Leistung Modern UI gleichkommen dürften - oder gar darunter.

AMD investiert offensichtlich viel in GPU Leistung, bei allen APU. Logisch, denn hier kann man mit weniger Aufwand Intel recht gut in Schach halten. Man weiß dass Intel zb die ganzen Desktop bezüglich iGPU tendenziell schwächer ausstattet, da Intel hier nicht den Bedarf sieht.

Diesen "GPU Power in Desktop CPU" Markt überlässt man weitestgehend AMD. Ob sich das ändern wird... wird sich zeigen. Es wäre nicht wirtschaftlich für Intel jedes mal eine HD5200 zu verbauen um auf breiter Front mit Richland zu konkurrieren was GPU Power angeht. Außerdem braucht Intel AMD - in gewisser Weise.

Wenn jemand in den letzten Jahren Boden gut gemacht hat dann ist es wohl die Intel iGPU die sich innerhalb weniger Jahre quasi an die Spitze gesetzt hat. Wenn man die Mittel hat geht das wohl erstaunlich schnell. Allerdings sieht man, dass Intel das nicht mal eben aus dem Hut zaubert, man braucht recht viel Transistor und Flächenbudget. Der Treiber dürfte ebenfalls massiv Ressourcen verschlucken und viel kosten. Bin gespannt wie es in Zukunft mit den iGPU bei Intel weitergeht, wie diese skalieren werden - prinzipiell wäre sogar bald eine PCIe-Grafikkarte ala Intel denkbar - wobei auch hier der Markt eher schrumpft.

Genauso wird es interessant was AMD mit Kaveri zeigt. Da verspreche ich mir auch einiges... und dann zeigt sich auch was GFs 28nm Fertigung so kann.
 
Krautmaster schrieb:
Wie steht den ein 15W Kabini gegen einen 15W ULV Haswell bezüglich GPU Leistung?

Edit: Der i7 4500U hat übrigens die kleine HD4400 während einige ebenfalls 15W i5+i7 auf die HD5000 setzen. Den Vergleich der HD4400 und HD5000 gibts hier.
Richtig, mit Kabini bekommt man bei 15W High-End-Game-Performance.

WinnieW2 schrieb:
Also solch aufwendigen Browser-Spiele die mit der GPU-Leistung eines Atom oder Temash nicht auskommen habe ich persönlich noch nicht gesehen. Kannst du Beispiele für Browser-Games nennen welche so viel GPU-Power brachen?
a) Ist der Markt gerade erst bei aufstreben
b) Wenn nur ein Teil der GPU-genutz wird, wird der volle TDP-Rahmen (der ja laut einigen hier unglaublich hoch ist) ja erst recht nicht genutzt.

Die Fertigungsstruktur ist nur der halbe Schlüssel zur Effizienz. Dazu kommen noch ein paar andere Technologien. Wichtig für hohe Effizienz bei den kleinen Strukturen sind solche Dinge wie z.B. die FinFETs.
Können die anderen Chipfertiger bereits Chips mit FinFET herstellen oder können diese ähnliche Technologien nutzen?
Jetzt nicht, aber in 1,5 Jahren @ 14nm. In nächsten Quartal sollten schon die Costumer-Start mit 14/16nm beginnen.

Das halte ich - ehrlich gesagt - für eine Wunschvorstellung dass sich die Taktfrequenz der CPUs nach einem Shrink von 28 auf 20 nm verdoppeln lässt ohne dass die Verlustleistung steigt. Die Verlustleistung bei FET steigt nicht linear mit der Taktfrequenz sondern quadratisch!
Warum sollte das nicht erreicht werden, wenn es quasi bei 40nm --> 28nm.
Der Takt wurde nicht verdoppelt, aber die CPU-Performance (= Takt + IPC-Steigerung) Dazu die GPU-CU-Verdopplung.
Die Frage lautet eher, warum sollte es nicht möglich sein.

Kabini hat mit GCN 1.1 übrigens den modernste GPU-Architektur von AMD drauf. GCN 2.0 ist dann beim nächsten oder zumindestens bei 20nm zu erwarten. Interessant wird es, was der Kabini-Nachfolger mit Volcanic-Island dann genau bringt.

Ich gehe mal davon aus dass zumindest die GPU beim Bay Trail Nachfolger mehr Leistung bringen wird.
Natürlich, aber wenn sie in der IPC nachhängen, dann werden sie früher oder später hinter die Konkurrenz fallen.
 
aylano schrieb:
Der PC soll auch im Essential-Markt ja nicht nur jetzt laufen, sondern auch in 3-5 Jahren.

Gerade in Zeiten, wo gratis und/oder Browser-Spiele im Aufwind sind, ist die GPU selbst für den Essential-Markt nicht zu unterschätzen. Und genau der Essential-Markt sind optimal für gratis-Browser Spiele.
Ok, langsam wird es lächerlich. Die Wahrscheinlichkeit, dass ich bei MediaMarkt als Verkäufer stehe und einen Kunden vor mir habe, der nach einem PC fragt, welcher zukunftssicher auf Browsergames ausgelegt ist, liegt in etwa auf der Höhe eines zweifachen Lottogewinns (6 Richtige + Zusatzzahl) in Folge oder das morgen die Hölle zu friert.

aylano schrieb:
b) Wenn nur ein Teil der GPU-genutz wird, wird der volle TDP-Rahmen (der ja laut einigen hier unglaublich hoch ist) ja erst recht nicht genutzt.
Wenn nur ein Teil der GPU genutzt wird, ist der Rest automatisch überflüssig. Oben preist du noch die Browsergames als Hardwarekiller an und jetzt ist auf einmal nur noch ein Teil ausreichend? Das bedeutet im Umkehrschluss, dass die GPU für diesen Zweck überdimensioniert ist.
aylano schrieb:
Warum sollte das nicht erreicht werden, wenn es quasi bei 40nm --> 28nm.
Der Takt wurde nicht verdoppelt, aber die CPU-Performance (= Takt + IPC-Steigerung) Dazu die GPU-CU-Verdopplung.
Die Frage lautet eher, warum sollte es nicht möglich sein.
IPC-Steigerung ist was Energiehunger angeht immer einfacher zu realisieren als große Takterhöhungen. Mehr Takt = Mehr Spannung. Die IPC @ 2,0 GHz zu steigern ist schön, mal eben den Takt von 4x1 GHz auf 4x2 Ghz nur von 28 --> 20 nm zu drehen ist angesichts der wachsenden Leakage-Problematik bei Planar-Transistoren schon recht ambitioniert.
 
Simon schrieb:
Ok, langsam wird es lächerlich. Die Wahrscheinlichkeit, dass ich bei MediaMarkt als Verkäufer stehe und einen Kunden vor mir habe, der nach einem PC fragt, welcher zukunftssicher auf Browsergames ausgelegt ist, liegt in etwa auf der Höhe eines zweifachen Lottogewinns (6 Richtige + Zusatzzahl) in Folge oder das morgen die Hölle zu friert.
Interessante Aussage,
Denn aus diesen Grund bräuchte man auch keine ATOM-22nm, weil die ARM-SoC auch in der CPU-Performance ausreichen.
Und es ist nunmal Fakt, dass in den letzten Jahren im Tablet & Smartphone-Markt die iGPU-Performance wesentlich stärker gestiegen ist als die iCPU-Performance. Und gerade mit dieser Formel war ARM u.a. auch Erfolgreich und genau mit dieser Formel konnte der ARM-Markt den alten traditionellen PC-Markt in eine Krise schicken.

Dass AMD gegenüber Celeron & Pentium auch genüngend CPU-Performance hatte, (abgesehen von den Teildeaktivierungen) hat ja komischerweise auch nicht gegolten, weshalb dann bei Media-Markt "im Notfalls" doch immer Celeron & Atom & Pentium den Kunden angedreht wurde.

Wenn nur ein Teil der GPU genutzt wird, ist der Rest automatisch überflüssig. Oben preist du noch die Browsergames als Hardwarekiller an und jetzt ist auf einmal nur noch ein Teil ausreichend? Das bedeutet im Umkehrschluss, dass die GPU für diesen Zweck überdimensioniert ist.
Selbst wenn das so wäre, dann werden die hochsohohen TDP-Werte, die du völlig kritisiert hast, bei weitem nicht erreicht, weshalb dann AMD weniger schlecht dasteht als du meinst.
Du kannst dich entscheiden, ob GPU-Performane nicht genutzt wird , wo TDP nicht ausgereitzt wird oder die GPU-Performance wird doch genutzt mit entsprechender TDP, aber dann ist die GPU-Performance wertvoller zu bewerten.

IPC-Steigerung ist was Energiehunger angeht immer einfacher zu realisieren als große Takterhöhungen. Mehr Takt = Mehr Spannung. Die IPC @ 2,0 GHz zu steigern ist schön, ...
Genau wie ich es sagte, und dabei nicht zufällig 20nm (Planar) und 14/16nm (FinFET) erwähnte.

mal eben den Takt von 4x1 GHz auf 4x2 Ghz nur von 28 --> 20 nm zu drehen ist angesichts der wachsenden Leakage-Problematik bei Planar-Transistoren schon recht ambitioniert.
Und warum ging das bei 40nm --> 20nm, die genauso die Leakage-Problematik haben und zusätzlich noch die Southbridge integrierten?
Ambitioniert ja, aber wenn die Core-Größern gegenüber dem Die dermaßen klein sind, sind auch extreme Energie-Einsparungen bzw. iCPU & iCPU-Performance-Verbesserungen bei Fertigungs-Verkleinerungen möglich.
Schau dir doch an, wie die ARM-Dies von Tegra an.

Tegra 1 ... 65nm ... Single - ARM11 ......... 800 Mhz
Tegra 2 ... 40nm ... Dual - A9-Cortex ... 1000 Mhz
Tegra 3 ... 40nm ... Quad - A9-Cortex ... 1400 Mhz
Tegra 4 ... 28nm ... Quad - A15-Cortex ... 1900 Mhz

Nicht nur eine Core-Vervierfachung sondern auch wesentlich größere IPC-Steigerung und 2,5 Facher Takt bei nur 2 Struktur-Verkleinerungen!!!
Wenn ich mich nicht irre, ist das die 20 Fache CPU-Multi-Peformance-Steigerung. (4*2,5 * 2,0 (IPC) = 20)
Klar ist der Stromverbrauch auch gestiegen, aber wir reden hier auch von 20 facher CPU-Performancesteigerung

CPU-Cores sind mit 10-20mm² gegenüber 100mm² verdammt klein.
Jaguar ist mit 3,1mm² halb so groß wie 1 GCN-Core. Bzw. die reine iCPU-Core-Fläche ist am Kabini so groß wie die reine iGPU-CU-Fläche mit so 12mm².
Würde AMD bei einem 20nm-Kabini die GPU-CU-Fläche nicht verdoppelt, dann würde sich eine iCPU-Performance-Verdopplung locker ausreichen, weil sie es bei 40nm --> 28nm sowohl iCPU als auch iGPU-Performance benahe verdoppelt haben.

Der einzige Haken könnte sein, dass 20nm nicht so viel bringt wie bei einem üblichen Fertigungs-Verkleinerungen, aber trotzdem werden die Steigerungen mit so +50% beträchtlich sein.
 
Zuletzt bearbeitet:
aylano schrieb:
Richtig, mit Kabini bekommt man bei 15W High-End-Game-Performance.

Hast du die Benches angeschaut? Bei 15W geht heute schon deutlich mehr Gaming Performance, selbst bei ner Intel iGPU.

Bei Intel dürfte der iGPU Teil aber wesentlich mehr Transistoren Budget brauchen.

Die Kabini DIE ist sehr effizient für ihre Fläche, bin mal gespannt wie das bei den neuen ATOM aussehen wird.

Kabini A4-1450 @8W Tabelt Modus 1Ghz
http://browser.primatelabs.com/geekbench2/2208741

ATOM Z3770 BayTrail
http://browser.primatelabs.com/geekbench2/2226937

bei spekulierten 4W TDP

http://www.notebookcheck.com/Intel-Atom-Z3770-Tablet-SoC.98847.0.html

Entsprechend ist der neue ATOM sicher nicht das Garfikwunder- was auch sicher gar nicht angepeilt wurde da im 10-15W Umfeld bereits Haswell mit deutlich stärkerer Grafik aufwarten kann.

Auf die CPU Leistung lässt sich bereits gut rückschließen:

geekbench-bay-trail-t.jpg


-> BayTrail-T @ 1,46 Ghz = 2093 Punkte (<3W?)
-> BayTrail-T @ 2,4 Ghz = 3093 Punkte (<3W?)

-> Temash @ 1,0 Ghz = 2229 Punkte (8W)
-> Temash @ 1,4 Ghz = 2769 Punkte (15W)
-> Kabini @ 1,5 Ghz = 2893 Punkte (15W)

intel_atom_valleyview_baytrail_4-635x466.jpg


bei BayTrail T spricht Intel von unter 3W TDP und einer SDP von 2W für den Z3770. Wenn das stimmt ist die Leistung / Effizienz des Z3770 wirklich brachial (im Kontext dieser 3W).
=> denke kaum dass es 3W bei 4x2,41 Ghz sein werden...

Interessant finde ich, dass das Package beim -T deutlich kleiner ausfällt als bei den größeren Modellen die bis auf 12 W TDP skalieren.
 
Zuletzt bearbeitet:
aylano schrieb:
Ersteres ist GF & TSMC kräftig am aufholen, weil GF & TSMC AFAIK jetzt schon mehr Wafer-Fläche produzieren als Intel.


Das Geschwallere von AMDlern hört man seit vielen Jahren. In der Realität wurde der Abstand zugunsten von Intel größer. Wenn jemand schreibt kräftig am aufholen ist das nur ein großer Lacher wert.


aylano schrieb:
Der 22nm-Atom wirkt so wie der Atom der ersten Generation.
Zuerst der Wow-Effekt (wegen OoO & Quad @ 2,0+ Ghz), aber die nächsten Jahre kaum Verbesserungen.


Blödsinniger Vergleich. Die Präferenzen haben sich stark verschoben. Intel führt ab Bay Trail das bekannte tick-tock Modell ein. Das ist überhaupt nicht mit dem 4 oder 5 Jahre alten Ur-Atom vergleichbar, der seitdem im Kern nahezu unverändert blieb.


Krautmaster schrieb:


Hier zeigt sich gut die schwache AMD Effizienz in niedrigen Wattbereichen. Deswegen kommt Temash nicht in Tablets zum Zuge, sie sind einfach nicht konkurrenzfähig. Wenn das 8W Modell schon so weit zurückhängt, will sich verständlicherweise kein OEM ein 3.9W Temash ins Tablet bauen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Hast du die Benches angeschaut? Bei 15W geht heute schon deutlich mehr Gaming Performance, selbst bei ner Intel iGPU.
Wie oft soll ich noch diese Grafik ansehen, wo AMDs Kabini dem Atom Performance-Mäßig davonzieht.
Und der Atom wird auch nicht besser, wenn du AMD-Kabini dann mit der 2-3 Mal teuren Core iX-Grafik-Performance vergleichst.

Der 22nm-Atom hat bei 2,0+ Ghz @ Quad & 4 Watt-TDP offensichtlich den höchsten Effizienz-Punkt und du kannst AMDs Produkte da wunderbar schlechtreden.

Aber wer rational die Produkte nach den Märkten zuordnet, der muss feststellen, dass der 22nm-Atom vielleicht doch nicht soooo toll ist.
Denn der 22nm-Desktop-Atom wird wohl hintern Kabini bleiben, und die Leute wird die Energie-Effizienz egal sein, wenn die Single-Thread-Performance & Multi-Thread-Performance & GPU-Performance zurückliegt.
Der Z3770 ist wegen 4W-TDP gerade mal für Tablets geeignet. Und was bringt die höchste Effizienz unter Last, wenn im ideln dann wegen dezentierte Funk dann ständig im idle-Modus mehr Strom benötigt. Und ob das den Tablet-Herstellern so recht ist, wenn die Grafikperformance dann niedrig bleibt, muss sich auch erst zeigen.

Nicht umsonst konnte Intel primär damit punkten, die Design-Wins von Nvidia wegzuschnappen.

Außerdem arbeitet AMD schon längst am Nachfolger-Produkt, während Intel noch nicht einmal ihr Produkt draußen haben.

Entsprechend ist der neue ATOM sicher nicht das Garfikwunder- was auch sicher gar nicht angepeilt wurde da im 10-15W Umfeld bereits Haswell mit deutlich stärkerer Grafik aufwarten kann.
Wollen wir hoffen, dass die hohe Priorität an CPU-Performance nicht ein Schuss ins Bein ist, was man bei Nvidia schon in den letzten Jahren gesehen hat, die zu sehr auf CPU-Performane und zu viel Stromverbrauch setzten, währenddessen sie ihre Stärken (GPU-Technik) dem Tegra bisher vorenthielten bzw. mit Logan viel zu spät kommen.

Auf die CPU Leistung lässt sich bereits gut rückschließen:
Du muss einmal Lernen, die Produkte nach Märkten zu bewerten und bei Tegra hat man es schön gesehen, dass die achsotollen Benchmarkt nicht in den Markt umgesetzt werden konnte bzw. der Markt ist gerade dabei sich von Tegra zu verabschieden, weshalb Nvidia mit Shield & 2 Tablet beginnen musste, selbst die Produkte herzustellen.

Der Marktbedarf ist entscheidend und nicht irgendwelche Rosinen-Benchmarks-Vergleiche, wo Intels Produkte wieder supertoll aussehen.
Und der Markt hat sicher keinen Bedarf ausschließlich Z3770-Chips, egal wie du vorne und hinten AMD-Produkte schlechtredest.
Und AMD selber ist auch nicht der Hauptkonkurrent sondern ARM-Produkte.

Ralf555 schrieb:
Das Geschwallere von AMDlern hört man seit vielen Jahren. In der Realität wurde der Abstand zugunsten von Intel größer. Wenn jemand schreibt kräftig am aufholen ist das nur ein großer Lacher wert.
Nö, 2011 produzierte GF gerade mal 30.000 Wafer von ihrer Premium-Fertigung, während Intel bei so 120.000 Wafer lag.
2H 2012 hatte GF dann schon 60.000 Wafer und ich glaube die Liegen jetzt auf 80.000 Wafern, wenn nicht mehr.

Im Gegensatzt zu 2011 kann GF auch in New-York forschen. Du kannst dich noch so im Recht sehen, aber ich kann mich nie erinnern, dass jemand die großen 32nm-SOI-Probleme für 2011 & 2012 vorherstagen, weil Intel AMD/GF da ziemlich kaputt machte. Lachen tue ich über Leute, die zuerst bei Zukunfts-Aussichten Schweigen bzw. sich bei Erklärungsnot schnell zurückziehen und dann den Mund ganz groß aufmachen, wenn die Zukunft doch irgendwie glücklicherweise in die eigenen Spielte

Während 2011 AMD in Low-Power-CPUs den Ontario nachlegen konnte, sind sie 2013 für Viele Monate mit der Next-Gen der Konkurrenz voraus, die ohne AXV trotzdem noch Technisch hintenbleibt. Also, es gibt genug Produkte wo AMD schon vorbeizog und Steigende Marktanteile bei Gesamt-CPU-Stückzahlen in 2Q 2013 mit 2,2% sowie den GPU-Technik-Marktanteil-Anstieg zeigen den Aufwertstrend von AMD, der mit dem Konsolen-Gewinn dann sicher noch beschleunigt wird.

Blödsinniger Vergleich. Die Präferenzen haben sich stark verschoben. Intel führt ab Bay Trail das bekannte tick-tock Modell ein. Das ist überhaupt nicht mit dem 4 oder 5 Jahre alten Ur-Atom vergleichbar, der seitdem im Kern nahezu unverändert blieb.
So ein Tolles Tick-Tock-Modell wird kaum was bringen, wenn man mit zukünftigen kleineren Fertigungen den Takt kaum steigern kann bzw. die Kerne kaum mehr verdoppeln kann. Dazu wird man wohl kaum großartige Architektur-Verbesserungen in 1 oder 2 Jahres-Rythmus zusammenbringen, wenn man davor für ein Update ganze 5 Jahre brauchte.

Hier zeigt sich gut die schwache AMD Effizienz in niedrigen Wattbereichen. Deswegen kommt Temash nicht in Tablets zum Zuge, sie sind einfach nicht konkurrenzfähig. Wenn das 8W Modell schon so weit zurückhängt, will sich verständlicherweise kein OEM ein 3.9W Temash ins Tablet bauen.
Wenn ich mich recht erinnere, dann wurde das auch gegenüber dem 32nm-Atom so ähnlich gesagte.
AMD kann es völlig egal sein, wenn sie in 28nm hinter Intel zurückliegen, weil der Tablet-Markt nicht ihr Hauptmarkt ist.

Besser ist, wenn AMD Temash den ARM & Intel in CPU-Bereich (GPU-Bereich schweigen ja lustigerweise) hinten dran ist, aber später wegen IPC vor ARM & Intel liegt, als wenn jetzt Intel vor AMD liegt aber hinter ARM und Intel in Zukunft aber hinter AMD und vor ARM.

Aber was ich an diesen Diskussioen so Liebe ist, dann hier Temash in diesen Thread von Intel betrachtet und als schlecht bewertet wird und im nächsten Thread nur wird von den selben Leute der Temash von Tegra 4 als schlecht bewertet.

Deshalb liest man überall, wie schlecht AMDs Produkte sind und dann muss ich mich mir die nächsten Märchen über die rückgängige Nvidia-Marktanteile oder Tegra-Einbruch anhöhren.
Übrigens, bevor da Atom noch weiter hochgejubelt wird.

Other Intel architecture operating segments (Intels Atom-Sparte)
2Q 2013 ..... 608 Mio $ Verlust
2Q 2012 ..... 335 Mio $ Verlust


Nur zur Info. Der Atom ist für Intel genauso ein Mega-Verlustgeschäft wie Tegra für Nvidia.

Bevor man Kabini & Temash schlechredet, sollte man die Mega-Verluste durch Atom & Tegra, die in den letzten Jarhen deutlich stiegen, nicht ganz ignorieren.

Die Zukunft von Temash bzw. Jaguar liegt wegen HSA & Co in der Zukunft und nicht im Jahre 2013.
Kabini muss auch nicht in allen Märkten (Tablet & Desktop-Essential & Notebook-Essential & Micro-Servern) den Intel & Nvidia & ARM-Konkurrenten überlegen sein, sondern kann auch einmal nur 2 sein.
Und bis Intel mal alle Atom-Produkte am Markt gebracht hat, wurde bis dahin am Kabini-Nachfolger schon sehr viel gearbeitet.
 
Zuletzt bearbeitet:
aylano schrieb:
Wie oft soll ich noch diese Grafik ansehen, wo AMDs Kabini dem Atom Performance-Mäßig davonzieht.
Und der Atom wird auch nicht besser, wenn du AMD-Kabini dann mit der 2-3 Mal teuren Core iX-Grafik-Performance vergleichst.
Ich fass das mal als Nein auf, was so viel bedeutet wie dass du unfähig bist einen Link anzuklicken und dir Grafiken zu Gemüte führen.

Was Kostet ein Kabini denn?

http://geizhals.de/?cat=nb&xf=29_Core+i3-4#xf_top

und http://geizhals.de/?cat=nb&xf=29_AMD+A4-5#xf_top

Die i3 U mit HD4400 gehn auch ab 399€ in Modellen los, und Kabini? So wahnsinnig ist der Unterschied nun auch nicht.

http://www.anandtech.com/show/7106/...t-1-the-apu-and-radeon-hd-8650g-performance/3

55998.png


56007.png


56016.png


usw. Der i3 hat ebenfalls ne HD4400 die ne ganze Ecke schneller ist als Kabinis iGPU. Kommt stellenweise bei ebenfalls 15W Richland nahe...

Der 22nm-Atom hat bei 2,0+ Ghz @ Quad & 4 Watt-TDP offensichtlich den höchsten Effizienz-Punkt und du kannst AMDs Produkte da wunderbar schlechtreden

Was hat denn das mit schlecht-reden zu tun? Im Rahmen der 28nm ist AMD mit Kabini doch super unterwegs. Jaguar ist ein extrem flächeneffizientes Kerndesign. Darf man deswegen nicht einen Vergleich ziehen - weil dein auch gute AMD APU dann vielleicht nicht ganz so konkurrenzlos dasteht???

Du sagst es selbst, Hauptkonkurrenz von den 3W ATOMs sind mit Sicherheit die ARMs, einzig Temash bei 5-10W ist in etwa auf ATOM Niveau, darüber kommen kleine Pentium, Celeron und i3s die schon sehr günstig losgehen.

Und nochmal aylano, wenn du Zahlen angibst, dann nimm doch die Quellen gleich dazu. Das ja nicht zum aushalten. Massenweise Quartalszahlen zu Nvidia Tegra und Intel ATOM posten... und dann mit Argumenten kommen wie "die sind öffentlich, selber suchen".

Edit:
Ich bin erstaunt was man für 430€ bekommt...
http://geizhals.de/acer-aspire-e1-572-34014g50dnkk-nx-m8eeg-012-a984996.html

CPU: Intel Core i3-4010U, 2x 1.70GHz ULV • RAM: 4GB • Festplatte: 500GB • optisches Laufwerk: N/A • Grafik: Intel HD Graphics 4400 (IGP), HDMI • Display: 15.6", 1920x1080, non-glare • Anschlüsse: 1x USB 3.0, 2x USB 2.0, Gb LAN • Wireless: WLAN 802.11b/g/n, Bluetooth 4.0 • Card reader: SD • Webcam: 1.3 Megapixel • Betriebssystem: N/A • Akku: Li-Ionen, 4 Zellen, 2500mAh, 5.5h Laufzeit • Gewicht: 2.35kg • Besonderheiten: Nummernblock • Herstellergarantie: 24 Monate (Pickup&Return)

=/ da is nich viel preislicher Spielraum für Kabini...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Im Rahmen der 28nm ist AMD mit Kabini doch super unterwegs.
Finde ich auch.

Krautmaster schrieb:
Hauptkonkurrenz von den 3W ATOMs sind mit Sicherheit die ARMs, einzig Temash bei 5-10W ist in etwa auf ATOM Niveau
nVidia gibt die TDP des Tegra 4 mit 4 bis 6 Watt an, abhängig von der Taktfrequenz mit der der Chip läuft.
In der derzeitigen Form ist das ein Chip der nur in Tablets eingebaut wird, denn für Smartphones ist der Chip einfach zu energiehungrig.
 
Zuletzt bearbeitet:
ja, Tegra zählt hier zu ARM. Ich denke für die Beurteilung von Tegra 4 ist es noch etwas früh. Die Frage ist ob sich die SOCs alle samt viel nehmen - vielleicht ist der größere Unterschied einfach die Fertigung zb TSMC zu Intel.
 
Krautmaster schrieb:
Ich fass das mal als Nein auf, was so viel bedeutet wie dass du unfähig bist einen Link anzuklicken und dir Grafiken zu Gemüte führen.

Was Kostet ein Kabini denn?
http://geizhals.de/?cat=nb&xf=29_Core+i3-4#xf_top
und http://geizhals.de/?cat=nb&xf=29_AMD+A4-5#xf_top
Die i3 U mit HD4400 gehn auch ab 399€ in Modellen los, und Kabini? So wahnsinnig ist der Unterschied nun auch nicht.
http://www.anandtech.com/show/7106/...t-1-the-apu-and-radeon-hd-8650g-performance/3
Nein, ich habe wirklich nicht diese Unfähigkeit von dir, wo du in einem Bay-Trail-Thread die Nachteile des Atom gegenüber den ARM-Konkurrenten schönredest, indem du Kabini infolge der Vorteile von Atom-22nm und Core-i5 schlechtredest.

Was soll ich mir ansehen?
Nur das eine Core i3-Notebooks, während ich die ganzen anderen wesentlich teuren Core i3-Notebooks ignorieren soll?

Interessant, wie unterlegen die Core i7 gegenüber die achsotollen Intel-Notebooks sind.

usw. Der i3 hat ebenfalls ne HD4400 die ne ganze Ecke schneller ist als Kabinis iGPU. Kommt stellenweise bei ebenfalls 15W Richland nahe...
Jupp, die Vergleiche mit Core iX lenkt von den viel schwächeren Celeron & Pentium ab, die immer noch Stückzahlen-Marktanteile von so 30-50% haben, aber mit Celeron & Pentium ist das schlechtreden vonn AMD-Produkten halt wesentlich schwieriger.

Und nochmal aylano, wenn du Zahlen angibst, dann nimm doch die Quellen gleich dazu. Das ja nicht zum aushalten. Massenweise Quartalszahlen zu Nvidia Tegra und Intel ATOM posten... und dann mit Argumenten kommen wie "die sind öffentlich, selber suchen".
Natürlich hälst du es nicht aus, denn dann kann doch jeder sehen, dass deine Wirtschaftslichtkeits-Aussagen nicht auf Fakten basieren, sondern nur auf deiner bezuglosen Vermutung. Warum soll ich immer mit den wesentlichen Informationen kommen?

Edit:
Ich bin erstaunt was man für 430€ bekommt...
=/ da is nich viel preislicher Spielraum für Kabini...
Wenn du es vermutest, muss es ja wahr sein.
Aber dass ich letztens Ontario-Notebookos um 300 Euro sah, zählt natürlich nicht.

Ich habe letztens ein Notebook um 380 Euro für jemand anderen gekauft.
Es hatte einen Core i3 und HD 7650 Grafikkarte. Ist halt ein Schnappchen gewesen, aber wenn du solche Angebote als Basis-Information nimmst, dann hast du ein Verzerrtes Bild.

PS:
Nur ein Tipp. Hier handet es sich um 22nm-Atom.
Nur weil ich als erster die 22nm-Atom vs Temash CPU-Performance-Diskussion und die Atom hochjubelei mit anderen Zahlen (GPU) unterbrochen hat, wird man natürlich wieder von Krautmaster mit wahnwitzigen Vergleichen bombadiert.

Von Tegra 4 wird ja überhaupt geschwiegen, auch wenn ich von letzten von einigen Belehrt wurde, dass vorallem mit Tegra 4i & Logan der große Aufschwung kommt.
 
Zuletzt bearbeitet:
Sorry aber hier gehts um BayTrail und die wenigen Vergleiche und Leaks die es dazu gibt sind eben gegen andere X86 APU in dieser Region, defakto also dem heutigen ATOM und Kabini / Temash. Wenn du ein Problem damit hast...

Ab 15W TDP, wie sie der Kabini nunmal hat, musst du zwingend auch mit i3 und ihrer HD4400 vergleichen, die auch defakto nun mal deutlich die schnellere GPU bieten. (und nein, nicht wirklich teurer sind)

Richland spielt wieder in einer anderen Liga. Genau wie die nicht "U" Modelle bei Intels Haswell.

Dir geht es ja immer um die teuren Core iX und die schlechte P/L bei Intel. Ich finde das gelinkte Acer mit I3 und FHD rein aus der P/L Betrachtung heraus jetzt nicht übel. FHD wäre mir zb bei 15" wichtiger als ein bisschen mehr CPU oder GPU Leistung hier und da... Lieber nen i3 mit FHD als zb ne GTX780M mit 1366x768...

Gerne kann man BayTrail gegen ARM vergleichen wenn er da ist. Bis heute findet sich dazu wenig. Und das was man findet sieht nicht so übel aus.

Von Tegra 4 wird ja überhaupt geschwiegen, auch wenn ich von letzten von einigen Belehrt wurde, dass vorallem mit Tegra 4i & Logan der große Aufschwung kommt.

ich glaube du hast eine etwas schlechte Auffassungsgabe. Ich predige garnichts, schon garnicht wenn es um ein Produkt geht das im Falle Tegra 4 so gut wie garnicht auf dem Markt ist, oder Project Logan, der eben einmal demonstriert wurde.

Wenn ich etwas interessant finde oder im Falle deiner Tegra Untergangs Predigt darauf verwies, dass es nun erstmal Tegra 4 abzuwarten gilt und es normal ist dass Tegra gerade kaum verkauft wird (da Tegra 3 eben alt ist), dann ist das noch lange nicht "der große Aufschwung".

Edit:
Es scheint deine Taktik zu sein erst mit unbelegten Zahlen um dich zu werfen um dann zwei Posts abzulenken o_O - wo haste denn nun die ATOM Geschäftszahlen her? Ich mach das doch nicht um dich bloszustellen oder weil ich was nicht aushalte, ich fände es nun mal interessant nachzulesen wie sich die ATOM Sparte bei Intel die letzten Jahre Finanziell entwickelt hat... also bitte hilf mir doch damit

aylano schrieb:
Other Intel architecture operating segments (Intels Atom-Sparte)
2Q 2013 ..... 608 Mio $ Verlust
2Q 2012 ..... 335 Mio $ Verlust


Nur zur Info. Der Atom ist für Intel genauso ein Mega-Verlustgeschäft wie Tegra für Nvidia.
auf Nachfrage dann mit
Natürlich hälst du es nicht aus, denn dann kann doch jeder sehen, dass deine Wirtschaftslichtkeits-Aussagen nicht auf Fakten basieren, sondern nur auf deiner bezuglosen Vermutung. Warum soll ich immer mit den wesentlichen Informationen kommen?
zu antworten ist irgendwie etwas ironisch...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Gerne kann man BayTrail gegen ARM vergleichen wenn er da ist. Bis heute findet sich dazu wenig. Und das was man findet sieht nicht so übel aus.
Am 11. September – ob das Datum absichtlich gewählt wurde? – wird es offizielle und unabhängige Tests von den marktreifen Bay Trail Chips geben.

Krautmaster schrieb:
Ich predige garnichts, schon garnicht wenn es um ein Produkt geht das im Falle Tegra 4 so gut wie garnicht auf dem Markt ist, oder Project Logan, der eben einmal demonstriert wurde.
Dem Geekbench2 nach wird der Tegra 4 um 20 bis 25% schneller als der Atom Z3770 (Vorserienmodell) laufen; allerdings wird der Tegra 4 mehr "Saft" für diese Performance verbraten. Der Cortex-A15 ist nunmal keine überwältigend energiesparende CPU-Architektur.

Gerätehersteller die derzeit Tablets mit Bay Trail-T entwickeln sind jedenfalls mit der Performance u. dem Energieverbrauch der Chips vollauf zufrieden.
 
Krautmaster schrieb:
Sorry aber hier gehts um BayTrail und die wenigen Vergleiche und Leaks die es dazu gibt sind eben gegen andere X86 APU in dieser Region, defakto also dem heutigen ATOM und Kabini / Temash. Wenn du ein Problem damit hast...
Versuch mal irgendwelche Vergleiche auch zuerst zu verstehen und richtig einordnen zu können, und nicht die erstbestsen Rosinen-Gerüchte zu nehmen, wo man Temash wieder schlechtreden kann. Die Hoffnungen & Zukunft von Intel liegen schon seit 5 Jahren mit Atom bei Smartphones & Tablets, deshalb ist es so ziemlich egal wie der Z3770 gegenüber Temash steht, weil dieser zur akuellen Zeit nicht jene CPU-Architetkur ist, der diesen Markt beherscht.

Edit:
Es scheint deine Taktik zu sein erst mit unbelegten Zahlen um dich zu werfen um dann zwei Posts abzulenken o_O - wo haste denn nun die ATOM Geschäftszahlen her? Ich mach das doch nicht um dich bloszustellen ...
Mit Fakten kann man Leute natürlich sehr gut Ablenken, deren fundierte Spekulationen nur aus Vermutungen basieren.
Mit Fakten kann man eben diese Leute blosstellen und funktioniert besser als ich dachte.
Vorallem bei Leute, die meine, dass ich nicht Atom & Tegra kritisieren (= bewerten) darf, weil die ja soooooooooo viel besser bei Intel & Nvidia laufen.

Erst recht würde ich lachen, wenn Temsah für AMD sogar Gewinn bringen würde. Schließlich brauchte AMD im Gegensatzt zu Nvidia & Intel keine Extra Die, sondern kann Temash gleich in 4 Märkte (Tablet & Notebook-Essential & Desktop-Essential & Server) verbauen.

... , ich fände es nun mal interessant nachzulesen wie sich die ATOM Sparte bei Intel die letzten Jahre Finanziell entwickelt hat... also bitte hilf mir doch damit
Den Fehler dir Fakten zu geben, mache ich nicht mehr, weil du sowieso nur diese verdrehst oder gleich als unbedeutend bewertest.
Selber die relevanten Informationen zu finden, ist die Basis einer Vernünftigen Spekulation.
Und wer seit 6 Jahren der Allwissenden spielt und dann nichteinmal Wirtschaftsdaten findet, der zeigt ja, wie wenig Informationen er sich angesammelt hat. Und gerade du belehrst mich ja über Titan.

WinnieW2 schrieb:
Am 11. September – ob das Datum absichtlich gewählt wurde? – wird es offizielle und unabhängige Tests von den marktreifen Bay Trail Chips geben.
Also, wenn eine US-Firma diesen Tag bewusst für seine Produkt-Vorstellung missbraucht, könnte, wenn es blöd läuft, sich ziemlich ins Bein schießen. Denn die Amerikaner stehen ganz anders zu diesem Tag als die Europäer.

Dem Geekbench2 nach wird der Tegra 4 um 20 bis 25% schneller als der Atom Z3770 (Vorserienmodell) laufen; allerdings wird der Tegra 4 mehr "Saft" für diese Performance verbraten. Der Cortex-A15 ist nunmal keine überwältigend energiesparende CPU-Architektur.
Blamage wäre es gewesen, wenn Tegra 4 auch noch Energie-Sparender wäre. Wobei Tegra 4 wahrseinlich auch noch mehr GPU-Performance hat und mit DX9 GPU-Mäßig auch nicht am neuesten Stand ist.

Gerätehersteller die derzeit Tablets mit Bay Trail-T entwickeln sind jedenfalls mit der Performance u. dem Energieverbrauch der Chips vollauf zufrieden.
Und am Schluss kaufen es trotzdem die Kunden und dann entscheidet der Preis.
Denn die Zeit der teuren 500+ Euro Tablets ist schon vorbei und jetzt kann man für Intel hoffen, dass sie nicht gleich nur dort platziert werden.
Aber gut, viele Desgin-Wins konnte Intel schon Tegra abjuxen und so eine positive Stimmung wäre jetzt nicht überraschend, wenn die davor ständig mit Hitzeprobleme zu kämpfen hatten.
 
noch sind es keine Fakten die du nicht mir, sondern diesem Thread gegeben hast. Bisher sind auch die letzten 2 Posts von dir nichts als heiße Luft, was sicher nicht handfester wird indem du schlicht sagst "such doch selbst nach den Wirtschafts-zahlen".

Vllt. bin ich auch einfach nur zu ungeschickt sie zu finden, absolut. Ich hab danach gesucht, nichts bezüglich "ATOM" und dessen Verlusten gefunden. =/

Bisschen schade, dass du nicht gewillt bist, einfach den Link zu deinen Fakten (ATOM Finanzen) bereitzustellen, finde ich direkt etwas, verzeih mir den Ausdruck, asozial...

(Ein Forum sollte auch genau dafür da sein, Wissenstransfer, Austausch von Informationen)

Du weißt wie eine "gute" Argumentation aufgebaut wird?

@WinnieW2

in den 11. würde ich jetzt nix reininterpretieren, wird eher ein internes Datum sein.

Kann man Geekbench ohne weiteres zwischen X86 und ARM vergleichen? Dann würde mich die verhältnismäßig kleinen Punktzahlen/ Leistungen aktueller ATOM, Temash und Kabini im Vergleich zu den ARM SOC wundern - gerade auch im Hinblick derer teils 15W in ebenfalls 28nm.
 
Zuletzt bearbeitet:
Zurück
Oben