News Streicht AMD den echten „Brazos“-Nachfolger?

Ich sitze gerade am E-350 und kann euch versichern, er läuft prima im Office Betrieb. Ich bin super zufrieden. Wenn der Nachfolger mehr Rechenleistung bei gleichem Verbrauch bringt, wäre das natürlich sehr schön...
 
HiLogic schrieb:
Meinst Du BMW würde sich einfach damit abfinden, wenn ein Zulieferer nicht Fristgerecht verlangte Technik bereitstellt? Meinst Du die verschieben mal eben den Release eines neuen Modells, nur weil Hella die neuen Scheinwerfer nicht hinbekommt? Das läuft in der Praxis nicht, denn für derartiges gibts Konventionalstrafen.
1. Hella steht längst nicht mehr nur für Scheinwerfer^^
2. Konventionalstrafen drücken die Preise nach oben, da der Hersteller ein Versagen mit einkalkulieren muss
3. Gibts für Scheinwerfer mehr Konkurenz, als für einen 28nm Bulk Prozess (Falls es wieder Bulk wird)
anonymous_user schrieb:
Netbooks sterben gerade aus, da kann AMD die Man Power lieber zusätzlich in die anderen Projekte stecken.
Wieso Netbooks? Witcha wäre ideal für Uni Laptops, Office Rechner,... 13,3" ist ein beliebtes Format und selbst der E-350 ist für die Aufgaben nicht zu langsam (nen bisschen schneller fänd ich aber schön^^)

KAOZNAKE schrieb:
Dummerweise wird Bobcat im Bulk-Prozess hergestellt, genau wie Grafikkarten ;)
Sry. Wusste ich nicht. Man lernt eben nie aus.
 
KAOZNAKE schrieb:
Dafür brauchts erstmal den Prozess sowie die notwendige Kapa ;)

ja, Anfang 2012 sollte der Prozess zwar verfügbar sein, aber aufgrund mangelnder Kapa und der Warteschlange kann TSMC wohl auch entsprechende Preise verlangen die den Brazos Nachfolger selbst Mitte 2012 unwirtschaftlich machen würden.


Und du hast immer noch nicht kapiert, dass Bobcat nicht für FEM-Berechnungen gemacht ist :)

darum gehts doch auch nicht. Ein ULV SB ist sicher auch nicht für FEM gemacht, dennoch spüre ich beim E-350 zu oft die Limitierung der CPU, gerade beim Einsatz im MediaCenter bei Lastpeaks.
Gut, der 28nm Nachfolger wäre eher bei 4,5 -10W interessant gewesen (ist es immernoch), die 20W Modelle und 4 Kerne sind ja fast schon dem 17W Trinitry gleichzusetzen - nur wird dessen Plattform vermutlich generell mehr brauchen und die CPU nicht festverlötet auf ITX angeboten.

Dem Brazos fehlt es einfach nicht an GPU Leistung - hier spüre ich nie eine Limitierung (außer bei der 3D BD Kompatibilität eventuell aber das ist weniger was für die breite Masse). In gut funktionierender Turbo sollte schon was bringen.

Auch heute sind es vor allem die C-50 und C-60 Modelle die hervorragend dastehen. Praktisch das einzige Gebiet in welchem man Intel heute richtig im Griff hat.
Schade dass man diese Position eventuell nicht weiter stärken kann.

bensen schrieb:
Ich frag mich woher du schon die ganzen Kenntnisse über Performance und Stromverbrauch hast um solche Aussagen tätigen zu können.

hrhr, das frag ich mich auch.

deadohiosky schrieb:
@KM

Ja und? Das ist doch eher ein Armutszeugnis für Nvidia, dass alle 4 Kerne fürs Browsen (ich schätze mal mit Flash) benötigt werden und daher auch alle 4 Kerne "Leistung aufnehmen".
Dass man um Strom zu sparen auch noch einen Companion Core für leichte Aufgaben braucht, zeigt doch, dass Nvidia es nicht geschafft hat, die LA der Kerne in den Griff zu bekommen und einzelne Kerne nicht effektiv abschalten bzw. heruntertakten können. Man bräuchte keinen 5. Kern der deutliche Mehrkosten verursacht, wenn man dies alles im Griff hätte. Wer 4 Kerne bzw. 5 Kerne braucht, wo andere nur 2 brauchen, hat ein Problem.
Aber schön wie Nvidia das als Feature verkaufen kann.

@ 4 Threads + Browsen = doof... ahja, demnach wär es also doch besser Trinity zB mit bloß 2 Kernen und hoher IPC anzubieten anstelle 4 Threads @ kleiner Leistung / Thread?

Bulldozer ist auch ärmlich weil AMD 8 Kerne braucht um leistungstechnisch nicht mal gleichzuziehen?

Aber ja, sicher hat Nvidia bei Tegra 3 irgendwann festgestellt "huch, die Leistung ist nicht gut"... mal eben noch nen 5. Kern dazugepappt etc.
Das klingt doch sehr abenteuerlich.

Mal ganz abgesehen davon merkt man beim Einsatz von Linux schnell, wie mehr Kerne deutlich besser genutzt werden als unter Windows.

@ARM und Windows 8.

Wie es sich bei x86 Programmen verhält wird sich zeigen. MS hat Windows 8 auch nicht komplett neu auf ARM programmiert oder? Die Anpassungen sind vielleicht kleiner als man denken mag, es könnte auch auf einer Art Emulation stattfinden.

Mir ist das alles viel zu viel Halbwissen um Stand heute Windows 8 und ARM schlecht reden zu können.

In anderen AMD Posts hingegen verpönst du Andere weil keine absolut offiziellen Fakten und Quellen vorhanden sind um eine objektive Mutmaßung zu fixieren.

Es ist nicht fix ob der Brazos Nachfolger wirklich eingestellt wird, bisher ein Gerücht - trotzdem muss deshalb anscheinend gleich Windows 8 und ARM Support schlecht sein.
 
Zuletzt bearbeitet:
@Krautmaster: Windows 8 wird schon ein "Re-Code" bei dem bei "Null" angefangen wird.
Natürlich ist es deutlich einfacher ein Betriebssystem zu portieren als es komplett neu zu schreiben, man weiß ja was das Ergebnis sein soll.
Eine Emulation von x86 würde allerdings den ganzen Vorteil beim Stromverbrauch wieder auffressen.
Dann könnte man gleich bei einem x86 SOC bleiben, das verarbeitet Befehle immer noch besser als ein ARM SOC der x86 emulieren soll...

Ich bin ja mal gespannt ob es bei mir 2012 einen Trinity oder 2013 einen Brazos-Nachfolger wird um meinen Llano abzulösen.
 
Wie kommst du von einem ARM-Prozessor, der eine die size von um die 80mm² (im Vergleich Tegra 2 49mm², Bobcat Die 74mm²) auf einen Desktop-Prozessor der eine Die Size um die 200-250mm² haben wird?

Ich verstehe den Sinn in dem Vergleich nicht. Der eine ausgelegt auf ca. 4 Watt TDP, der andere auf 125 Watt TDP. Wo ist die Verbindung?

Ich sehe keine. Ich sehe nur, dass du hier versuchst, Nebelbomben zu werfen und einen ARM-Mobilchip mit 4+1 Kernen der als BS v.a. Android nutzt, welches zwar MP unterstützt aber eben auch nur rudimentär, mit einem Desktop-Chip der Windows und Linux und Co. nutzt die schon seit Jahren Multi-Core-Prozessoren unterstützen.

Sag mir bitte, warum vergleichst du zwei völlig verschiedene Prozessoren und Plattformen um deine Argumentation zu unterfüttern.

Bitte vergleich doch bitte mit einem C-60, das wäre der einzig logische Vergleich, frei von der unangebrachten Häme und Meinungsmache. Es geht hier weder um Trinity, Llano oder Bulldozer oder Phenom II sondern um den Brazos-Nachfolger.


Ich wüsste auch nicht, wo ich explizit unterstellt hätte, dass Nvidia auf einmal festgestellt hätte, sie bräuchten einen 5. Kern. Es geht mir nur um die Feststellung, dass sie sich verspätet haben, um ein halbes Jahr (ich warte auf den unvermeidlichen Bulldozer-Seitenhieb von dir:freak:) und sich nun auch noch das erste Gerät verspätet.

Wer hier denkt, alles wäre eine Eierkuchenparty und Tegra 3 hätte/hatte keine Probleme, der hat sich wirklich gut einlullen lassen von Nvidias Holzkartenträumen. Ich bleibe äußerst skeptisch und frage mich wie teuer der Chip wird, welcher OEM dafür bereit ist zu zahlen, wie sich die Endkundenpreise gestalten und ob er wirklich so genügsam ist, wie Nvidias Nebelbo... ääähm Whitepaper behauptet.


Zu Windows 8, ich habe dir ans Herz gelegt Google (oder einen Anbieter deiner Wahl) zu nutzen, das Thema Emulation etc. wurde schon längst von einem Win 8 Entwickler geklärt.
Ich suche für dich nicht extra die Links heraus, bloß weil du zu faul bist, dich zu informieren.

Und natürlich sind die Anpassungen nicht kleiner als "du" denken magst. Es ist ein BS. Es ist eine komplett andere Chip-Archtitektur. Auch Intel und Apple haben vor ein paar Jahren keine Wunder vollbracht. Es hat Jahre gedauert, auch wenn Apple es darstellt als wäre es nur "ein" Jahr gewesen. Jobs hat nicht irgendwann Mitte 2005 gesagt, ach lass mal auf Intel umsatteln und plop, ein Jahr später mission accomplished.


Ich verpöne auch nicht andere, solange sie ihre Darstellungen und Überlegungen nicht als Faktum verbreiten. Das tue ich auch nicht, wenn es so rüber kommt, dann ist das nicht mein Problem. Es sind meine eigenen Spekulationen... basierend auf den bekannten und genannten Fakten. Und ja zu Tegra 3 gibt es Fakten. Es gibt whitepapers, es gibt Artikel bei Anandtech etc. Also komm mir bitte nicht mit: "do as i say, not as i do".


Und dass Deccan "nicht" eingestellt wurde, ist durchaus möglich. Aber warum gibt es zwei unabhängige Autoren, die von der Einstellung eines Projektes künden (vr-zone und S|A) der eine Autor gibt den Hinweis, dass ein Entwickler zu Samsung übergelaufen ist... es ist der Chef-Architekt von Brazos... und ein paar Tage später wird von semi accurate das Projekt konkret genannt.

Also klar, kann das eine Finte sein, ich halte die Wahrscheinlichkeit aber für eher gering.
 
deadohiosky schrieb:
Wie kommst du von einem ARM-Prozessor, der eine die size von um die 80mm² (im Vergleich Tegra 2 49mm², Bobcat Die 74mm²) auf einen Desktop-Prozessor der eine Die Size um die 200-250mm² haben wird?

Ich verstehe den Sinn in dem Vergleich nicht. Der eine ausgelegt auf ca. 4 Watt TDP, der andere auf 125 Watt TDP. Wo ist die Verbindung?

Wo ging es um eine 125W 200-250mm² CPU?

Es ging hauptsächlich die Annäherung von X86 und ARM zB im Tabletumfeld, du selbst sagt ja auch dass Android selbst X86 fähig ist. Genauso ist Windows 8 ARM fähig. Laufen alle Android Progs nun auf X86, laufen alle X86 Window Programme nun auf ARM?

Wie effizient das ganze geschieht und wer bei Tablets das Rennen macht ist erstmal außen vor, imho ging es darum dass sich die Einsatzgebiete zunehmend überschneiden werden und die Konkurrenz ARM auch nicht schläft, das fehlen einer 28nm Sparvariante ala Brazos Nachfolger nicht sehr erfreulich wäre da die jetzigen für Tablets keine Alternative sind (wie ich finde).

Dann fiel da noch der Begriff Tegra 3, bei dem du mal pauschal die 5 Kerne schlecht geredet hast (warum auch immer).

Die Streichung des Quad Brazos Nachfolger hingegen wäre eher verkraftbar dadurch dass der 17W Trinity in 32nm ja auch noch kommt.
 
Zuletzt bearbeitet:
deadohiosky schrieb:
Aber diese Hostilität solltest du doch ein wenig zurückfahren, anstattdessen Gegenargumente sprechen lassen.
Ich frage dich, warum nimmt man es auf sich, zwei verschiedene Fertigungsprozesse auf einen Chip loszulassen, nur um eine lowPower CPU in den Die zu drücken.
Für Gegenargumente müsste es erstmal Argumente geben. Es ist doch zum Stromverbrauch gar nichts bekannt. Warum keinen Low-Power Kern? Was ist daran schlecht? ARM sieht das ja in Zukunft auch so vor. Und warum keinen gemischten Fertigungsprozess? TSMC bietet ihn doch an? Wieviel teurer kommt denn die Herstellung in diesem Prozess? So lange man das nicht weiß und auch nicht weiß wie der Stromverbrauch unter niedriger Last aussieht und wie die Konkurrenz da abschneiden wird kann man gar nicht beurteilen ob das Sinn macht oder nicht.

Aber das ist auch OT hier gehts um Brazos und Nachfolger und nicht um Tegra.
 
Zuletzt bearbeitet:
@Lost_Byte:
Wieso Netbooks? Witcha wäre ideal für Uni Laptops, Office Rechner,... 13,3" ist ein beliebtes Format und selbst der E-350 ist für die Aufgaben nicht zu langsam (nen bisschen schneller fänd ich aber schön^^)
Da kommt aber wieder Trinity ins Spiel. Die TDP soll von 35-17W reichen. Der E-450 hat eine TDP von 18W.
Sollte den E-350/E-450 doch also Problemlos ersetzen können?

das fehlen einer 28nm Sparvariante ala Brazos Nachfolger nicht sehr erfreulich wäre da die jetzigen für Tablets keine Alternative sind (wie ich finde).
Damit haben doch aber Krishna und Wichita nichts zu tun!?
Auf den Folien Steht Krishna/Wichita im bereich Netbook/Essential/Mainstream.
Für Tablets ist die Hondo APU (Brazos-T). Die gehört nicht zur Deccan Plattform!

Krishna: Für Netbooks, quasi tot, für Tablets zu hoher Verbrauch.
Wichita: Mainstream/Essential kann durch Trinity ersetzt werden mit den sparsameren 17W Modellen.
 
Zuletzt bearbeitet:
HiLogic schrieb:
Dann muß man dem Sch*iss-Laden eben Druck machen!! Ist doch net normal.

Meinst Du BMW würde sich einfach damit abfinden, wenn ein Zulieferer nicht Fristgerecht verlangte Technik bereitstellt? Meinst Du die verschieben mal eben den Release eines neuen Modells, nur weil Hella die neuen Scheinwerfer nicht hinbekommt? Das läuft in der Praxis nicht, denn für derartiges gibts Konventionalstrafen.

Wenn AMD das so hinnimmt, dann ist das nur ein weiteres Beispiel für FAIL-Management.

Tja, es haben hier zwar schon einige angeschnitten. Dennoch wollt ichs nochmal rausstellen. TSMC sitzt hier wohl eindeutig am längeren Hebel, dementsprechend muss sich AMD arrangieren und nicht umgekehrt. Konkurrenzloser, aber kapazitätsbeschränkter Fertigungsprozess und schlangestehende Kunden machens möglich...
 
Zurück
Oben