News Streicht AMD den echten „Brazos“-Nachfolger?

Wiedermal eine Lächerlichkeit seitens AMD...
Anstelle den nur geringen Vorsprung gegenüber dem Atom weiter auszbauen, wird die Entwicklung eingestellt.

Leute... Das ist quasi der einzige Bereich in dem AMD gegenüber Intel noch Erfolgreich sein kann und dieser wird mal ebenso auf Eis gelegt. Einfach nur Lächerlich. Besonders in Hinblick auf die steigende Nachfrage im Tablet und Small-Form-Sektor.
 
@TheK & PiPaPa

Rechenleistung kann man nie genug haben, und bezogen auf die 18W TDP und die entsprechende Abwärme ist die Leistung recht bescheiden.

ATOM agiert generell eine Liga darunter, ein Vergleich ist eher unnötig.

Zacate würde eine weit rundere Figur machen sofern ein Turbo ihn auf 2,5 Ghz beschleunigen würde bei SingelCore Aufgaben oder wenig GPU Last.

Das Handling und Feeling zB unter XBMC wird massivst gesteigert wenn mehr CPU Power zur Verfügung steht (habe gerade den vergleich meines E-350 zum i3 2100) - klar, keiner erwartet dessen Leistung, aber Potential ist deutlich vorhanden da 2x1,6 Ghz @ K8 Niveau schon etwas mau sind.

ULV i5 / i7 gibt es leider nicht fest verlötet oder steckbar auf ITX Boards, daran sollte man sich eher orientieren. Ein 28nm Brazos hätte hier durchaus auch leistunsgtechnisch aufschließen können, ggf mit seinen 4 Threads / Kernen.

Das gilt für die ~18W Modelle, natürlich muss es immer auch kleinere Modelle auf ATOM Niveau mit 4-10W TDP geben.

Edit:

man hätte meiner Ansicht nach auch SATA III und USB 3 locker wegstreichen können bei dieser Plattform um sie so noch kostengünstiger und sparsamer zu machen.

Mit SATA III kann die schwache HW eh nichts anfangen, USB 3 ist als Option über Extra Chip absolut ausreichend.

Intel setzt auf diese Art der Kostenreduktion und fährt damit ausgezeichnet.
Ergänzung ()

HiLogic schrieb:
Leute... Das ist quasi der einzige Bereich in dem AMD gegenüber Intel noch Erfolgreich sein kann und dieser wird mal ebenso auf Eis gelegt. Einfach nur Lächerlich. Besonders in Hinblick auf die steigende Nachfrage im Tablet und Small-Form-Sektor.

Deswegen würde mich der Schritt auch wundern, es sei denn dass TSMC die Kosten (zu) hoch hält und bei diesen Chips kommt es sehr auf kleinen Preis + Stückzahl an.

In meinen Augen hätten sich 32nm CHIPs dieser Art H1 2011 von GF gelohnt um die 32nm Fertigung zu erproben, was am besten mit kleinen DIE geht. Brazos wär damit genau richtig platziert gewesen, der Abstand / Vorspung zu ATOM größer und der Rückstand zu den ULV Intel kleiner.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
naja, ich finde gerade die neue 28nm Brazos Nachfolge Plattform hätte Anfang 2012 kommen müssen und dann dem ATOM richtig die Hosen ausgezogen.
Naja direkt Anfang 2012 war von vorneherein unrealistisch. Soviel Kapazität hat TSMC nicht sofort zu Anfang. Alleine die ganzen Grafikkarten die noch in 28nm gefertigt werden wollen. Und die ganzen Mobile-SoC Hersteller stehen auch alle Schlange.

nebulein schrieb:
Ich vermute eher, dadurch das man immer kleinere Prozzis baut die immer weniger Stromhungrig sind, man wegen Llano keine Zukunft mehr für diese CPUs sieht und sie über kurz oder lang dann mit Llano ersetzt und somit auch für die Llano APUs einen größeren Markt schaffen will.
Llano oder auch Trinity ist kein Ersatz. Man bekommt zwar auch damit APUs hin die von der TDP her bis zu Zacate reichen, aber die Chips sind einfach viel zu riesig. Zacate hat ne Fläche von 75 mm², Llano hingegen kommt fast auf das doppelte obwohl er schon 32nm gefertigt wird. Trinity/Llano kann man nciht so billig anbieten wie Zacate/Ontario.

Rock Lee schrieb:
vielleicht versuchen sie brazos 2.0 einfach nur in 28nm zu bringen statt was neues zu entwicklen, welches eh kurze später wieder abgelöst wird.
Naja Brazos 2.0 in 28nm ist ja dann fast Wichita.
Wichita basiert ja immernoch auf die Bobcat CPU-Architektur.

MichiSauer schrieb:
Kein Wunder, wenn die Konkurrenz von Intel in Form der neuen Atom-Generation quasi gekillt wird, indem man nicht mal DX10 anbietet und sich somit selbst für kleinste moderne Spiele disqualifiziert.
Als ob DX10 zum Spielen zwingend notwendig wäre. Alleine die CPU verhindert halbwegs anspruchsvolle Spiele.

Hinzu kommt noch der ordentlich niedrige Stromverbrauch, der unterhalb der Ion-Plattformen liegt, die auch nicht an die Systemleistung der AMDs rankommen.
Die nächsten Atom werden keinen ION mehr brauchen, da die IGP HD-Videos dekodieren kann. Zudem sinkt die TDP generell erheblich. Die Konkurrieren dann mit Desna und Ontario. Zacate liegt dann mit der TDP weit drüber. Für alles außer 3D-Games bietet AMD dort dann nicht wahnsinnig große Vorteile. In 28nm hätte man Intel nochmal richitig zeigen können wo der Hamemr hängt.

Herdware schrieb:
Ich denke, Intel hat seine Gründe, warum sie so wenig Entwicklungskapazität in den Netbook/Nettop-Markt stecken und AMD könnte jetzt zu der selben Ansicht gekommen sein.
Das ist doch Quatsch. Intel wird doch die Entwicklung in dem Bereich erheblich verstärken. Die Atom sollen jetzt viel schneller geshrinkt werden und 2013 kommt ne neue CPU-Architektur.

TheK schrieb:
Wozu? Die Eigenschaften, die in der Klasse zählen, sind andere als die Rechenleistung. Wenn man da mit einem etwas verbrauchsoptimierten Brazos durch 2012 kommt, ist das ideal.
Und was spricht in dem bereich gegen weniger Stromverbrauch oder mehr Performance bei gleichem? Ich würde sowas ein gutes Verkaufsargument nennen.

HiLogic schrieb:
Wiedermal eine Lächerlichkeit seitens AMD...
Anstelle den nur geringen Vorsprung gegenüber dem Atom weiter auszbauen, wird die Entwicklung eingestellt.
Ah der spricht der Top-Manager. Du kennst doch gar nicht die Rahmenbedingungen. Wenn aufgrund der Kapazitäten bei TSMC Wichita erst spät in 2012 möglich gewesen wäre und Anfang-Mitte 2013 schon der Nachfolger kommen sollte, ist der Schritt logisch.
Es bringt nichts Entwicklungkapazitäten in ein Produkt zu stecken dass dann ein halbes Jahr auf dem Markt ist. Das gibt dann auch mit der Fertigung Probleme.
 
Hmm, komisch wenige Tage nach dem Intel offen legt,
dass der nächste Atom nur ein lauwarmer Aufguss wird,
stellt AMD seine Bemühungen bei ihrer Konkurrenzplattform
fast vollständig ein und serviert auch nur eine leichter
Überarbeitung.

Da sage einer, es würde auch ohne Konkurrenz weitergehen! XD

Ich kann es aber verstehen. AMD muss mit seinen Ressourcen gut
haushalten.
 
bensen schrieb:
Naja direkt Anfang 2012 war von vorneherein unrealistisch. Soviel Kapazität hat TSMC nicht sofort zu Anfang. Alleine die ganzen Grafikkarten die noch in 28nm gefertigt werden wollen. Und die ganzen Mobile-SoC Hersteller stehen auch alle Schlange.
Und da spricht der Technikexperte... GPUs werden mit ganz anderen Fertigungsprozessen hergestellt, als CPUs.

@Weltenspinner: Bisher ist es nur ein Gerücht und wenn es eingestellt wird, dann ist die Entscheidung schon lange gefallen. Entwicklungskosten gäb es sonst schon zu viele, um aufzuhören.
 
bensen schrieb:
Naja direkt Anfang 2012 war von vorneherein unrealistisch. Soviel Kapazität hat TSMC nicht sofort zu Anfang. Alleine die ganzen Grafikkarten die noch in 28nm gefertigt werden wollen. Und die ganzen Mobile-SoC Hersteller stehen auch alle Schlange.

Joa sicher. TSMC dürfte sicher der Grund sein weshalb sich die Plattform für AMD nicht aus wirtschaftlicher Sicht lohnt.
Trotzdem schade (sofern es sich bewahrheitet), für mich noch eins der soliden Standbeine bei AMD die vergleichsweise gut dasteht.

Da hätte man ja fast den riesen globigen Bulldozer Gen 1einstampfen können als das Desaster abzusehen war und Brazos gen 2 auf 32nm trimmen und bei GF fertigen lassen...
Wohl einfacher gesprochen als technisch umsetzbar, aber Bulldozer Probleme und 32nm Probleme sind ja nicht erst seit gestern bekannt.

Scheint eher als ob Trinity 17W die 18W Zacates zeitnah ersetzt. Mal sehen wie der sich macht. Eine Zacate Plattform mit verlöteter APU kommt idle bis auf 10W runter, ob das dem 32nm 17 W Trinity auch gelingt und obs die festverlötet für Desktop gibt/geben wird...

@Lost_Byte

naja was heißt hier Technikexperte, er hat absolut Recht und gerade weil extrem Viele bei TSMC's 28nm Schlange stehen sind wohl auch die Preise recht hoch.

In der Fertigung dürften die sich zwar unterscheiden, aber der Prozess wird ähnlich sein.
 
Zuletzt bearbeitet:
AMD setzt auch hier jetzt auf Stillstand weil sie es wohl nicht nötig haben in diesem Segment. Wohin das letzten Endes führen wird, zeigt uns der Bulldozer.
 
Schreib das grade von einem c-50 tablet und kann nur sage wie erstaunt ich bin, was alles damit geht. Schaut man sich mal bischen bei YouTube um zum thema c-50 und gaming, kann man nur staunen. Einzig allein etwas mehr cpu leistung waere gut fuer nicht apu optimierte software.
Wirklich schade, dass die nachfolger nicht kommen, denke es were gut den vorsprung zu Intel weiter auszubauen.
 
bensen schrieb:
Ah der spricht der Top-Manager. Du kennst doch gar nicht die Rahmenbedingungen. Wenn aufgrund der Kapazitäten bei TSMC Wichita erst spät in 2012 möglich gewesen wäre und Anfang-Mitte 2013 schon der Nachfolger kommen sollte, ist der Schritt logisch.
Es bringt nichts Entwicklungkapazitäten in ein Produkt zu stecken dass dann ein halbes Jahr auf dem Markt ist. Das gibt dann auch mit der Fertigung Probleme.
Dann muß man dem Sch*iss-Laden eben Druck machen!! Ist doch net normal.

Meinst Du BMW würde sich einfach damit abfinden, wenn ein Zulieferer nicht Fristgerecht verlangte Technik bereitstellt? Meinst Du die verschieben mal eben den Release eines neuen Modells, nur weil Hella die neuen Scheinwerfer nicht hinbekommt? Das läuft in der Praxis nicht, denn für derartiges gibts Konventionalstrafen.

Wenn AMD das so hinnimmt, dann ist das nur ein weiteres Beispiel für FAIL-Management.
 
Zuletzt bearbeitet:
Die C- und E-Serie ist super, aber genau dort kommt halt ARM ins Spiel - und gerade mit Windows 8 ab Mitte des kommenden Jahres auch in allen anderen Segmenten neben Handys und Tablets. Den Fokus auf Intel sollte mal deshalb ganz schnell aus den Augen verlieren, denn die gibt es in dem Tablet-Markt quasi nicht, das klassische Netbook ist heute schon tot, 2012 wird das auch nicht wieder lebendig.

Die Konkurrenz liegt woanders. Nvidia hat nen 4+1-Kern-Prozessor auf ARM-Basis ab Anfang 2012 am Start, hinzu kommen wohl noch ein halbes Dutzend andere Firmen, die teilweise jetzt schon 28-nm-Produkte in Empfang nehmen. Bleibt die Hoffnung das der 2013 geplante Nachfolger von AMD eventuell etwas eher kommt, sonst gerät man in Rückstand.
 
Und warum sollte die abgespeckte! Windows 8-ARM Version Intel und AMD direkte Konkurrenz machen?

Wenn ich Windows 8 in vollem Umfang auf einer mobilen Plattform brauche, dann setzte ich sicherlich nicht auf eine für die ARM-Architektur verkrüppelte Version, genausowenig benutze ich Win 7 Starter wenn ich damit arbeiten möchte.


ARM sitzt immer noch einen in einem Nischenmarkt, der zugegeben innerhalb von zwei Jahren explodiert ist... aber jedwede Fühler die in andere Märkte und Sparten ausgestreckt wurden, sind zaghafte Versuche sich zu diversifizieren.

Und wie gesagt, wozu brauche ich Windows 8 ARM wenn ich noch nicht einmal x86-Programme ausführen kann?

Microsoft hat Angst von Apple im Softwarebereich! verdrängt zu werden und versucht krampfhaft dem entgegenzusteuern indem sie sich als dritter und letzter Wettbewerber aufstellen. Ob das zum Ziel führt wage ich doch stark zu bezweifeln.

Android hingegen ist bereits x86-tauglich, beim Ipad wird die Sättigung vorausgesagt, Windows 7 bzw. Windows Mobile gesamt, ist bis jetzt ein einziger Reinfall.
Windows 8 wird das mit einer verkrüppelten Version mE nicht ändern können.

Und zu Tegra 3 lässt sich nur sagen, wer zum Teufel braucht im Moment 4(+1) Kerne... im Mobilbereich.
Und wer zum Teufel benutzt zwei verschiedene Fertigungsprozesse um ein sub-50$ Chip zu produzieren. Krait, TI OMAP (und sicherlich auch Apple) werden im nächsten Jahr weiterhin mit nur 2 Kernen, dafür aber 2012 schon 28nm Chips herausbringen... die brauchen dann keinen zusätzlichen low Power-Kern, die optimieren einfach die Kerne und sind jetzt schon effizienter als Tegra 2 es jemals war. Und dass es Tegra 3 außerhalb von tablets (vllt. noch Netbooks) schwer haben wird, sollte ja wohl klar sein. Man bedenke, dass Tegra "4" dann ein "glorifizierter" Half-Node Shrink (ich weiß 40nm auf 28nm ist theoretisch Full-node) ist, während die anderen Hersteller von 45nm auf 28nm runtergehen, ich sehe für Nvidia wieder nur Nischenpotential, während sie links von Apple und rechts von genügsamen und aufgebohrten OMAPS, Exynos und Kraits überholt zerfleischt werden, ich will gar nicht wissen wie teuer Tegra 3 im Vergleich zu einem 28nm Chip ist, und wie hoch die yield-Rate bei diesem Hybrid-Chip ist.

Jensen versucht jetzt mit 5!!! Kernen einen Wow-Effekt herzustellen, ich hoffe sie fallen damit endlich mal auf die Schnauze und kommen mal wieder runter von ihrem Trip, noch eine Holzkarte sollten sie sich nicht leisten. "Ehrliches" Entwickeln ohne Hokus-Pokus würde ihnen echt gut tun.


Aber was diese Leute nicht verstehen, ist dass es nicht die Hardware ist, die das iPad zum Erfolg gemacht hat. Sondern die Software in Verbindung mit potenter Hardware.
Das ist auch AMDs größter Fehler, der aber schwer ausgemerzt werden kann, wenn die Finanzen dafür nicht ausreichen. Vllt. werden die Prioritäten unter Read anders verteilt, ob das zum Erfolg führt...
 
Zuletzt bearbeitet:
Meinst Du BMW würde sich einfach damit abfinden, wenn ein Zulieferer nicht Fristgerecht verlangte Technik bereitstellt? Meinst Du die verschieben mal eben den Release eines neuen Modells, nur weil Hella die neuen Scheinwerfer nicht hinbekommt? Das läuft in der Praxis nicht, denn für derartiges gibts Konventionalstrafen. [\QUOTE]


Genau das macht BMW, weil wenn keiner LED Scheinwerfer herstellen kann, dann kann BMW die auch nicht einbauen. Und deswegen jeden Tag bei Philipps und Osram anzurufen hilft dann auch eher wenig. BMW kann die Dinger trotzdem frühestens einbauen, wenn sie entwickelt sind...
 
Zuletzt bearbeitet:
Lost_Byte schrieb:
Und da spricht der Technikexperte... GPUs werden mit ganz anderen Fertigungsprozessen hergestellt, als CPUs.
Au mann, ist doch völlig egal ob die jetzt im HP oder LP hergestellt werden. Die Fabriken müssen alle umgestellt werden. Und wenn dann viele in 28HP daherkommen bleiben weniger Fertigungsstraßen für 28LP. Logisch oder?
Mal davon ab hat das nichts mit einer Unterscheidung zwischen GPU und CPU zu tun. Die kannst du beide in allen Fertigungsprozessen herstellen wie du lustig bist. Finde es auch interessant, dass du schon weist welcher Prozess für Wichita und Southern Island geplant ist/war. Zumal ja in der Gerüchteküche umherging, dass AMD für die ersten Chips nicht auf den HP sondern HPL Prozess setzen würde.

HiLogic schrieb:
Dann muß man dem Sch*iss-Laden eben Druck machen!! Ist doch net normal.
Meinst Du BMW würde sich einfach damit abfinden, wenn ein Zulieferer nicht Fristgerecht verlangte Technik bereitstellt? Meinst Du die verschieben mal eben den Release eines neuen Modells, nur weil Hella die neuen Scheinwerfer nicht hinbekommt?
Das läuft in der Praxis nicht, denn für derartiges gibts Konventionalstrafen.
Du bist echt ein ganz lustiger. Durch Konventionalstrafen kommt dann das Produkt rechtzeitig oder wie? Zumal du doch gar nicht weist wie die Verträge aussehen. Wenn TSMC kein genaues Datum garantiert, kannst du auch nichts einklagen.

Und der Vergleich mit den Autos ist auch wieder lustig. Wenn Hella nicht liefern kann gibts zwei Möglichkeiten. Entweder verschiebt sich das Produkt oder man nimmt einen anderen Zulieferer. Oder meinst du die liefern das Auto ohne Scheinwerfer?
Erstere Möglichkeit hat AMD nun mal nicht. Es gibt keinen anderen Auftragsfertiger der nen geeigneten 28nm Prozess am laufen hat.
 
Zuletzt bearbeitet:
@deadohiosky

naja, schau dir mal das Video zur Tegra 3 Demo an, allein der Browser von Android nutzt die 4 Kerne.
1 Kern ist ja lediglich für Management Zwecke und in Idle online, sofern alle 4 anderen arbeiten idled Kern 1.

Sofern das Teil sparsam ist soll es mir egal sein wie viel Kerne es hat.

ARM ist alles andere als eine zu unterschätzende Architektur, desweiteren würde mich deine Informationsquelle bezüglich abgespecktem Windows 8 für ARM sehen.
 
Hi,

*seufz*

Die einzige Plattform derzeit, bei der AMD alles richtig gemacht hat, ist Brazos... und nun das. Ich wuerde in diese Plattform im Gegenteil mehr Ressourcen stecken und versuchen, damit jede moegliche Nische zu besetzen. Gerade professionelle Kunden kaufen lieber bei Intel, aber der Atom ist so schlecht, dass hier wirkliche Chancen existieren! Damit meine ich weniger Netbooks, sondern kommende x86-Tablets, Industrierechner und Miniserver (wobei wiederum stoert, dass sie ausgerechnet bei dem Ding ECC gestrichen haben). Geldautomaten, Fahrkartenautomaten, Infosysteme... das braucht Millionen an CPUs und dafuer ist Brazos richtig gut, vor allem, wenn man eine abgeruestete Southbridge mit auf das Die pappt und dafuer das UMI weglaesst.

Aber nein... man muss ja seinen Server- und Desktopillusionen nachhaengen!

Wartet es mal ab... wenn Intel mit einem Manycore-Atom fuer den Servermarkt kommt, dann wird AMD schlagartig klar, dass sie das jetzt schon haben koennten - mit Brazos und Co.

Viele Gruesse,

Jan
 
@KM

Ja und? Das ist doch eher ein Armutszeugnis für Nvidia, dass alle 4 Kerne fürs Browsen (ich schätze mal mit Flash) benötigt werden und daher auch alle 4 Kerne "Leistung aufnehmen".
Dass man um Strom zu sparen auch noch einen Companion Core für leichte Aufgaben braucht, zeigt doch, dass Nvidia es nicht geschafft hat, die LA der Kerne in den Griff zu bekommen und einzelne Kerne nicht effektiv abschalten bzw. heruntertakten können. Man bräuchte keinen 5. Kern der deutliche Mehrkosten verursacht, wenn man dies alles im Griff hätte. Wer 4 Kerne bzw. 5 Kerne braucht, wo andere nur 2 brauchen, hat ein Problem.
Aber schön wie Nvidia das als Feature verkaufen kann.

Und auf irgendwelche Marekting-Videos verlasse ich mich erst recht nicht. Ich frage mich wann denn dann endlich das erste Tegra 3 Produkt (Transformer Prime) auf dem Markt erscheint, nachdem Tegra 3 schon wieviel mal verschoben wurde?


Und was meinst du mit Informationsquelle? Google.de "Windows 8 ARM" ist meine Quelle. Dass die ARM Version keinen x86-Code ausführen kann sollte doch wohl klar sein, oder?
 
@Krautmaster:
Naja, wenn AMD statt der Plattform viel Arbeit in Linux Support und HD Beschl unter Linux stecken würde dann wär mir das lieber.
Im 11.10 Catalyst für Linux soll sich einiges getan haben, hier mal ein wohl ganz aussagekräftiger Kommentar aus dem Phoronix Forum :D
20 minutes and hasn't crashed yet. Far superior to 11.9.
http://phoronix.com/forums/showthread.php?64244-AMD-Catalyst-11.10-is-out.

Leute... Das ist quasi der einzige Bereich in dem AMD gegenüber Intel noch Erfolgreich sein kann und dieser wird mal ebenso auf Eis gelegt. Einfach nur Lächerlich. Besonders in Hinblick auf die steigende Nachfrage im Tablet und Small-Form-Sektor.
Dann schau dir die Folien nochmal genau an, Krishna und Wichita sind garnicht für Small For Factor und Tablet, dafür ist Hondo gedacht.

BTT:
War auch irgendwie erst schockiert das die Deccan Plattform gestrichen werden soll. Wenn man sich das aber mal genau anschaut macht das schon sinn. Netbooks sterben gerade aus, da kann AMD die Man Power lieber zusätzlich in die anderen Projekte stecken.
 
deadohiosky schrieb:
Man bräuchte keinen 5. Kern der deutliche Mehrkosten verursacht, wenn man dies alles im Griff hätte. Wer 4 Kerne bzw. 5 Kerne braucht, wo andere nur 2 brauchen, hat ein Problem.
Ich frag mich woher du schon die ganzen Kenntnisse über Performance und Stromverbrauch hast um solche Aussagen tätigen zu können.
 
Krautmaster schrieb:
naja, ich finde gerade die neue 28nm Brazos Nachfolge Plattform hätte Anfang 2012 kommen müssen und dann dem ATOM richtig die Hosen ausgezogen.

Dafür brauchts erstmal den Prozess sowie die notwendige Kapa ;)

The_Virus schrieb:
Intel mit seinen SandyBridge ULV und den kommenden IvyBridge ULV ist absolut konkurrenzlos.

Genau wie beim Preis :)

Krautmaster schrieb:
Zacate würde eine weit rundere Figur machen sofern ein Turbo ihn auf 2,5 Ghz beschleunigen würde bei SingelCore Aufgaben oder wenig GPU Last.

Und du hast immer noch nicht kapiert, dass Bobcat nicht für FEM-Berechnungen gemacht ist :)

Lost_Byte schrieb:
Und da spricht der Technikexperte... GPUs werden mit ganz anderen Fertigungsprozessen hergestellt, als CPUs.

Dummerweise wird Bobcat im Bulk-Prozess hergestellt, genau wie Grafikkarten ;)

crackett schrieb:
AMD setzt auch hier jetzt auf Stillstand weil sie es wohl nicht nötig haben in diesem Segment. Wohin das letzten Endes führen wird, zeigt uns der Bulldozer.

Im Prinzip haben sies tatsächlich nicht nötig zum einen, da INTEL einfach nicht konkurrenzfähig ist im Vergleich. Zum anderen bringt es nix ein Produkt zu entwickeln, was von den Herstellern nicht verbaut werden würde, weil der Produktzyklus von dem Teil einfach zu gering ist. Was ich nicht verkaufen kann, kann ich einstampfen, je früher desto besser. AMD führt mit Sicherheit Gespräche in die Richtung und wenn die OEMs sagen sie wollen lieber gleich den Nachfolger, dann kriegen sie eben den Nachfolger.
 
@bensen

Das sind natürlich meine eigenen geistigen Ergüsse, basierend auf einigen Gerüchten und den eher zurückhaltenden Kommentaren der Fachjournalisten.

Aber diese Hostilität solltest du doch ein wenig zurückfahren, anstattdessen Gegenargumente sprechen lassen.

Ich frage dich, warum nimmt man es auf sich, zwei verschiedene Fertigungsprozesse auf einen Chip loszulassen, nur um eine lowPower CPU in den Die zu drücken. Ich frage mich wieviel die 4 "Haupt"-CPUs unter Vollast verbrauchen und ich frage mich außerdem warum Tegra 3 immernoch nicht im Laden steht obwohl es schon vor einer Woche nach der zigsten Verschiebung höchstoffiziell vorgestellt wurde... die erste Plattform (Transformer Prime) aber einen Tag vorher "wegen" Android 4.0 verschoben wurde. Ein Schelm der Böses denkt.:rolleyes:

Achso, und Flash ist natürlich tot... bleiben nur noch Spiele. Und Benchmarks.
 
Zuletzt bearbeitet:
Zurück
Oben