News AMD liefert Lebenszeichen zu „Vishera“ und „Virgo“

aylano schrieb:
...
Das Problem von den größten Bulldozer-Kritiker ist, dass sie hauptsächlich mit Dingen daherkommen, die nicht primär mit der Bulldozer-Architektur zu tun haben. Nicht umsonst wurde ihr Wissen völlig in Frage gestellt, als Trinity daherkommt. Denn Trinity hat eben nicht die Probleme der hohen Spannnungen und das Problem der Interconnects zwischen den Cores, sodass die CPU-Effizienz und Flächen-Die-Effizienz bei Trinity erheblich besser aussieht.
...

Ich gebe zu, ich bin (wie die allermeisten hier) ein Amateur in Sachen CPU-Architektur, aber ich habe eine Theorie, warum die Piledriver-Cores in Trinity nicht die selben Effizienzprobleme haben, wie die Zambezi-Bulldozer. Ich vermute, das liegt an den niedrigeren Taktfrequenzen und damit zusammenhängend vor allem der niedrigeren Spannung.

Die Energie-Effizienz der Zambezi geht wie wir wissen beim Übertakten extrem in den Keller und durch Undervolting kann man zeigen, dass sie schon mit Standardtakt/Standardspannung weit über den "Sweetspot" hinaus betrieben werden.
(Bei den Sandy Bridge sieht das ganz anders aus. Die werden durch maßvolles Übertakten sogar noch effizenter.)

Ein weiteres Indiz für diese Theorie ist, dass sich die ebenfalls niedriger getakteten Server-CPUs auf Bulldozer-Basis auch nicht so sehr unter Effizienzproblemem leiden, wie die hoch getakten FX.

Das bedeutet aber auch, dass es nicht unbedingt an den Optimierungen von Piledriver liegt, dass die Trinitys sich im Vergleich zu Zambezi/Bulldozer so gut schlagen. Wie sich Piledriver mit hohen Taktfrequenzen bewährt, bleibt abzuwarten.
 
aylano schrieb:
Ob eine Architektur-Entwicklung schlecht, mittelmäßig oder gut ist, kann man erst mit Tests erfahren, wo man mit dem Vorgänger und der Konkurrenz vergleicht. Wobei man es natürlich der Realität vergleichen muss. Und eine Architektur bzw. Architektur-Entwicklung ist nicht schlecht, wenn Piledriver jetzt nicht Intels 2012er Steigerung von 22nm-Fertigung auch noch vollständige überbieten kann. Aber genau diese Absurde Ansicht, ist völlig normal bei Bulldozer-Architektur-Kritiker, weil es in ihrer Welt AMD automatisch die Möglichkeit hatte, langfristig mit einem anderen Weg besser zu gehen.

Was sich hier immer an Details aufgezogen wird. Grundsätzlich hast du ja Recht, dass man eine Architektur erst durch Tests wirklich bewerten sollte. Aber wo steht dann für dich Zambezi?

Die meisten User hier sind meiner Meinung nach Privatanwender die die CPUs im privaten Gebrauch haben. Für die ist es irrelevant was eine Architektur theoretisch leisten kann oder was die Architektur im Serversegment tolles schafft. Da zählt einzig und allein was wirklich nachher an nackten Zahlen hinten raus kommt. Da interessiert im Grunde auch nicht ob der jetzt HT hat oder 4 Module oder 8 Kerne oder oder oder, sondern einfach nur ob die Preis/Leistung stimmt und eventuell heutzutage noch der Stromverbrauch, wobei ich diese Wattrechnerei für überzogen erachte und auch die TDP meiner Meinung nach einen viel zu hohen Stellenwert bei vielen Leuten hat.

Zambezi war halt irgendwie am Privatanwender vorbei entwickelt.

Es ist nach wie vor für den Privatanwender immernoch sehr wichtig was eine CPU im Single Thread Bereich leisten kann und da kommt jedenfalls Zambezi schlecht weg und ich denke nicht, dass sich das mit Piledriver grundlegend ändern wird.
 
Zuletzt bearbeitet:
wie soll das überhaupt zusammenpassen das vishera keine piledriver kerne bekommen soll, wenn im november die ersten opterons mit piledriver kernen verkauft werden?
 
Das deutet doch eher darauf, dass Vishera nur ein Bulldozer Stepping ist.

 
das kann auch darauf hindeuten das cpu-z vishera nicht kennt.

das die opterons in 2 monaten piledriver kerne haben wurde von amd angekündigt, da gibt es also nicht zu spekulieren.

es soll mal einer logisch erklären warum amd dann für den desktopmarkt noch die alten kerne produzieren sollte wenn beim opteron schon piledriver verwendet wird.
 
Herdware schrieb:
Ich gebe zu, ich bin (wie die allermeisten hier) ein Amateur in Sachen CPU-Architektur, aber ich habe eine Theorie, warum die Piledriver-Cores in Trinity nicht die selben Effizienzprobleme haben, wie die Zambezi-Bulldozer. Ich vermute, das liegt an den niedrigeren Taktfrequenzen und damit zusammenhängend vor allem der niedrigeren Spannung.
Das was du beschreibst ist Symptom-Theorie.
Du beschreibst die Symptome (=Auswirkungen) aber nicht den Grund für die Auswirkungen/Symptome. Wenn man seine Energie nur in die Symptom-Beschreibung steckt, wird man immer nur Amateur bleiben. Wenn sich jemand mit dem Grund beschäftigt, muss er sich mit Technik & Physik-Kenntnissen mit Architektur & Fertigung & deren Historischen Entwicklungen beschäftigen, um ein paar wage Vermutungen angeben zu können.

Die Energie-Effizienz der Zambezi geht wie wir wissen beim Übertakten extrem in den Keller und durch Undervolting kann man zeigen, dass sie schon mit Standardtakt/Standardspannung weit über den "Sweetspot" hinaus betrieben werden.
(Bei den Sandy Bridge sieht das ganz anders aus. Die werden durch maßvolles Übertakten sogar noch effizenter.)
Grundsätzlich hat jede Architektur (von undervolten bis übervolten eine Bereich mit hoher Effizienz) Sandy-Bridge & Co, dereren Grundstruktur schon viel viel länger optimiert werden, haben einen viel größeren Effizienten Bereich. Deshalb ist nicht eine Architektur gleich schlecht, nur weil manche immer in jenen Effizienz-Bereich vergleichen, wo bei Architektur A die Effizienz gerade flöten geht und bei Architektur die Effizinenz noch gehalten werden kann bzw. unerklärlich einen positiven Sprung macht.

Ein weiteres Indiz für diese Theorie ist, dass sich die ebenfalls niedriger getakteten Server-CPUs auf Bulldozer-Basis auch nicht so sehr unter Effizienzproblemem leiden, wie die hoch getakten FX.
Genau deshalb sieht es bei Bulldozer @ Server und Notebook in der Effizienz völlig anders aus, als @ Desktop. Außderdem darf man nicht vergessen, dass eine Grund-Architektur für die nächsten 5-10 Jahren natürlich für jene Märkte primär ausgelegt werden, die in Zukunft wachsen.

Der Grund warum Bulldozer gerade im Hochtacktbereich etwas flöten geht, kann eben mit der APU-Entwicklung zusammenhängen. Erst vor kurzem wurde gesagt, dass die APU-Fertigung quasi dieses Problem hat. "Was gut ist für CPU, ist schlecht für GPU". Da 32nm-GF numal für CPU-Only im Labor (2 Jahre) erforscht wurde und in der Fabrik (2 Jahre) für CPU und iGPU entwickelt wurde, könnte der iGPU-Kompromiss eben zu lasten von Hohen Takten drauflosgegangen sein. Da die nachfolger Fertigungen von Anfang an für CPU und GPU entwickelt wird, könnte dieses Problem in Zukunft erheblich geringer sein.

nebulein schrieb:
Was sich hier immer an Details aufgezogen wird.
Ich verstehe die Kritik nicht, da Probleme immer im Detail liegen. Selbst die Architektur ist ein Detail, da die Fertigung ein anderes Detail ist. Dazu kann man die Architektur in weitere Teile spalten, da wir nicht wissen, welchen Entwicklung-stand Bulldozer hat und daraus folgend, welchen Einfluss die Entwicklungsgeschwindigkeit auf den aktuellen Bulldozer-Entwicklungsstand hat. Dazu gibts das Detail der Interconnects.

Das sind wichtige Themen. Nicht umsonst entwickelt Intel einen Many-Cores, den sie aber nie am Markt bringen. Genau damit entwickeln sie aber ihre Interconnects weiter.

Genau diese Details sind ja das Problem, warum Bulldozer @ Game-PC nicht so rosig aussieht und Bulldozer in anderen Märkten (Server & Notebooks) deutlich besser aussieht, wo manche Detail-Probleme nicht zum wirken kommen.

Wenn ich mich in der Vergangenheit in der Prognose vertan habe, lag es grundsätzlich am Übersehen von Details. Seitdem ich das gesamte Details-Spektrum abdecke, ist die Fehlerquote bzw Fehlerabweichung deutlich gesunken.

Die meisten User hier sind meiner Meinung nach Privatanwender die die CPUs im privaten Gebrauch haben. Für die ist es irrelevant was eine Architektur theoretisch leisten kann oder was die Architektur im Serversegment tolles schafft. Da zählt einzig und allein was wirklich nachher an nackten Zahlen hinten raus kommt.
Wenn ihre Meinung bzw. Bewertung nur den Privaten Game-PC betrifft, hat ja keiner ein Problem mit solchen Meinungen. Da die meisten dieser Leute darauf folgend aber das Ganze Unternehmen (andere bzw. mehr Märkte) und die Zukunft (Tendenzen & Entwicklungen) bewerten wollen, müssen sie es entsprechend den Märkten und Techniken/Tendenzen/Entwicklungen bewerten, damit die Aussage zutrifft. Und genau da machen die meisten die Fehler, indem sie die Welt aus ihrer Sichtfeld und ihrem Bedarf beschreiben/bewerten wollen.

Und wie Piledriver ist bzw. sich entwickelt hat, kann man nur bei Tests erfahren, mit welchen Technik-Forschritten welche Zugewinne erreicht worden sind. Und alleine das ist nur die Halbe Wahrheit, denn dann wissen wir nicht, wieviel R&D-Ressourcen in Vishera gesteckt wurde, weil z.B: AMD sich stärke auf Steamroller oder Executeur oder die CPU-IP-Transformation der Bulldozer-Architektur kümmert.
Nicht umsonst gibts dann wieder Positive Überraschungen, wie es bei K10-C2 war. Eben weil man erst nachher erfuhr, wie die Problem-Entwicklung war und wo die R&D-Ressourcen hauptsächlich genutzt wurde.

Nicht umsonst gibts den Spruch
"Wer viel weiß (z.B. viele Details), erkennt wie wenig er eigentlich weiß"
Aus diesem Grund erkennt man in Sekundenbruchteilen, wie wenig manche Leute wissen, wenn sie dir die Welt sofort mit Fakten & Co erklären wollen."

Elkinator schrieb:
wie soll das überhaupt zusammenpassen das vishera keine piledriver kerne bekommen soll, wenn im november die ersten opterons mit piledriver kernen verkauft werden?
Indem die Vishera-Piledriver-Kerne keine echten Piledriver-Kerne sind?!!
Falls es natürlich so eintreten mag.
Die Logik dahinter könnte in den begrenzten R&D-Ressourcen liegen, wo es für AMD mit ihren aktuellen R&D-Ressourchen nicht möglich ist, eine Handdesignte-CPU-Architektur in einem APU und einem Big-CPU-Only jährlich zu stecken.
Genau dieses Problem könnte der Hauptgrund sein, warum AMD auch die Bulldozer-Grundarchitektur auf eine IP-CPU transformieren will, weil man mit automatischen Hergestellten Architektur bei selben R&D-Resscoursen nicht nur schneller entwickeln kann, sondern auch in mehr Designs stopfen kann.

Es dürfte eben kein Zufall sein, dass AMD mit ihrer automatisch hergestellten GPU-Architektur und Bobcat-Architektur in den Ontarios und Grafikkarten gegen die Konkurrenz erhebliche besser aussieht, als die Handdesginte Architektur.

Es war sicher auch kein Zufall, dass AMD beim Hotchips besonders die automatischhergestellte FPU betonte.
 
Zuletzt bearbeitet:
aylano schrieb:
...Wenn man seine Energie nur in die Symptom-Beschreibung steckt, wird man immer nur Amateur bleiben. Wenn sich jemand mit dem Grund beschäftigt, muss er sich mit Technik & Physik-Kenntnissen mit Architektur & Fertigung & deren Historischen Entwicklungen beschäftigen, um ein paar wage Vermutungen angeben zu können.
...

Ich werde schon deshalb immer nur Amateur in Sachen CPU-Architektur bleiben, weil es extrem unwahrscheinlich ist, dass ich in meinem Alter nochmals so was anspruchsvolles studiere und mir dann in diesem Bereich einen Job suche. :D
Computerei ist für mich nur ein langjähriges Hobby. (Ich arbeite zwar alltägich an einem Computer und habe sogar gewisse administrative Aufgaben in meiner Firma übernommen, bin aber weit entfernt, ein EDV-Profi zu sein.)

Aber ich bezweifele, dass auch allzuviele Profis aus dem Bereich CPU-Architektur den Kern der Ursachen für die Schwächen der ersten Bulldozer-CPUs wirklich erfassen können. Dieses Wissen haben, wenn überhaupt, eine Handvoll Entwickler bei AMD.

Um sich als Externer aus beruflichen oder gar rein privatem Interesse gründlich genug in diese Architeltur einzuarbeiten, fehlt doch wohl jedem Normalsterblichen die Zeit und selbst wenn man die aufbringt, fehlen einem immer noch die Insiderinformationen aus AMDs Entwicklungsabteilungen.

Wir können also alle nur auf Grund von Symptomen spekulieren.

Immerhin. Die physikalischen Zusammenhänge zwischen hoher Spannung und hohem Verbrauch kann sogar ich als Maschinenbauer halbwegs begreifen. ;)
Aber die Gründe, warum die Bulldozer-Cores in den Zambezis so viel mehr Spannung brauchen, als z.B. die Sandy Bridge, um höhere Taktfrequenzen zu erreichen, wissen wie gesagt nur ein paar AMD-Entwickler bzw. wahrscheinlich nicht mal die in vollem Umfang, denn die wissen ja nicht im Detail, was Intel an SB so viel besser gemacht hat und ebensowenig kennen sie alle Details der Fertigungsprozesse bei Intel oder auch nur bei GF usw.
Besonders was die neuen Prozesse der Chipschmieden angeht, kann man oft sowieso erst im Nachhinein sagen, wie gut eine bestimmte Architektur darauf laufen wird. Da heißt es Versuch und Irrtum und viele Itterationsschleifen mit Optimierungsversuchen.
 
aylano schrieb:
Indem die Vishera-Piledriver-Kerne keine echten Piledriver-Kerne sind?!!
und dafür gibt es keine quellen die das nur irgendwie andeuten würden.

ihr glaubt also das amd einen vishera ohne piledriver kernen macht obwohl es den opteron mit piledriver gibt.

es ergibt einfach keinen sinn das amd da eine extra maske hat für eine cpu die sie nicht brauen.
 
Herdware schrieb:
Computerei ist für mich nur ein langjähriges Hobby.

Aber ich bezweifele, dass auch allzuviele Profis aus dem Bereich CPU-Architektur den Kern der Ursachen für die Schwächen der ersten Bulldozer-CPUs wirklich erfassen können. Dieses Wissen haben, wenn überhaupt, eine Handvoll Entwickler bei AMD.
Computertechnik ist für mich auch nur Hobby.
Aber ich habe es mir mein Leben angewöhnt, nur das zu sagen, was ich geprüft/überprüft habe und verteidigen kann, wenn ich was zu sagen habe.

Außer ich sage eine Meinung. Die Muss man nicht prüfen, aber eine Meinung sagt man nur 1 mal und drückt sie anderen als Fakt nicht aufs Auge.

Wir können also alle nur auf Grund von Symptomen spekulieren.
Das Grund-Problem von dir & vieler anderer ist, dass sie sich mehr vertrauen als andere, obwohl sie offensichtlich weniger Wissen.

Ich hatte vor 5-6 jahren Null Ahnung über CPU-Technik. In den ersten Jahren gab es so gut wie keine Technik-Informationen zu lesen und zu finden. Mittlerweile gibts so viel Technik-Informationen, dass man sie im Vergleich zu früher viel leichter & schneller verstehen kann.

Mittlerweile kann man z.B. die AMD-GPU-Entwicklung sehr gut erkennen, wenn man sich die Mühe macht und die Generation der letzten Jahre vergleicht.
z.B. hat AMD 2 GPU-Architektur-Team, die sie jährlich jedes Jahr abwechseln.
Team A: Neue (Grund) Architektur(Struktur) --> R600 (DX10) --> R800 (DX11) --> R1000 (GCN)
Team B: Architektur/Einheiten-Optimierung --> R700 ( Primäre Shader-Effizienz) --> R900 (Primäre Front-End alias Dual-Grafik-Engine sowie Shader-Effizienz VILW-4 statt VILW-5)

Jetzt darfst du raten, welche Verbesserungen z.B: HD8800 und HD8900 haben wird, ohne gleich irgendwelche Gerüchte lesen zu müssen.

Aus dieser Logik wäre es nicht verwunderlich, wenn AMD diesen Weg auch in der CPU-Entwicklung eingeht, was primär mit automatischen Desgins geht. Aber da sie Bulldozer & Nachfolger noch nicht vollständig auf automatischem Desgin umstelltet wurden, wäre es nicht unlogisch, wenn Vishera nur eine kleine Entwicklung erhält, was auch als Bugfix verstanden werden kann.

Interessant ist die Modul-Entwicklung von AMD-GPU. Zwar bieten sie mit Low-End, Mainstream, Performance, High-End mehrere GPU-Designs an, aber alle dieser GPU-Desgins bestehen nur aus 2 oder 3 verschiedene Front-Ends, die aber über mehrere GPU-Generaitonen genutzt werden

R600 ....... 4 SIMD pro Grafik-Engine
R770 ....... 10 SIMD pro Grafik-Engine
R970 ....... 12 SIMD pro Grafik-Engine
RV1070 ... 16 CUs pro Grafik-Engine

Selbst bei diesen Unmengen von GPU-Dies der letzten paar Jahren, wird ständig diese eine Grafik-Engine seit R600 genutzt und auf die neue Architektur angepasst oder mit Einheiten-Verbesserungen (Tesselation-Unit-Generation 7 oder Rasterizer bzw. Gemetrie & Co)

Genauso so ähnlich würde das bei HotChips in der Bulldozer-Famlie angedeutet, wo die Fortschritte nur des FPU des Excavotur gezeigt wurde. Das riecht stark nach Baukasten-Prinzip, wo jeder Baukasten je nach Bedarf im jährlichen Verbesserungs-Rythmus entsprechned verbessert werden kann. Dieses Prinzip riecht stark nach dem GPU-Prinzip von AMD, wo 2 Teams jedes Jahr entweder einen neue Architektur rausbringt bzw. die Architektur im Grundprinzip ändert, während das andere Team eine Einheiten-Optimierung des Baukasten-Prinzip durchführt.

Mitlterweile sieht man sehr schön die Entwicklung, wenn man sich die Zeit nimmt und sein Hirn benutzt und nachsieht, anstatt immer die selben Benches miteinander zu vergleichen/widerkäuen.

Llano ... 5 SIMD pro Grafik-Engine (HD 5870 hatte 10 SIMD pro Rasterizer)
Trinity ... 6 SIMD pro Grafik-Engine (= Virgio) (HD 6970 hatte 12 SIMD pro Grafik-Engine)
Kaveri ... 7 CU Pro GE? oder 8 SIMD, weil das die Hälfte von 16 CUs des HD 7870 wäre.
Was man daraus lesen will, kann sich jeder selber überlegen
Das Grundproblem ist, dass die Menschen Schwierigkeiten haben ihr Hirn zu nutzen.

Immerhin. Die physikalischen Zusammenhänge zwischen hoher Spannung und hohem Verbrauch kann sogar ich als Maschinenbauer halbwegs begreifen. ;)
So habe ich auch begonnen. Aber ich habe eben nicht eine Generation oder zwei sonder 5 Generation verglichen. Später kam Perf-/-mm² hinzu. usw usw.

Besonders was die neuen Prozesse der Chipschmieden angeht, kann man oft sowieso erst im Nachhinein sagen, wie gut eine bestimmte Architektur darauf laufen wird. Da heißt es Versuch und Irrtum und viele Itterationsschleifen mit Optimierungsversuchen.
So ist es,
Deshalb schaut man sich auch hier einige Generationen an und schaut, welche Entwicklungen zu bestimmten Zeiten gemacht wurden.

Deshalb sage ich ja, dass selbst wenn Piledriver draußen ist, man noch lange nicht genau sagen kann, wie gut er wirklich ist. a) Wir wissen nicht, wie viele auf R&D-Ressourcen wirklich da verwendet wurden und b) wie es mit der Fertigung aussah.
Deshalb erkennt man eben sofort bei Leuten, die ihre Meinung für Zukunftsentwicklungen als Fakt darstellen, dass sie überhaupt nichts wissen, weil es einfach viel zu wenig Informationen gibt, wo man dann als Fakt sprechen kann.

Die AMD-Untergangs-Prognosen konnte man auch in der K10-B2 und K10-B3-Ära lesen. Mit K10-C2 sah die Welt sah, wie ich es vermutet habe, urplötzlich wieder komplett anders aus.

Elkinator schrieb:
und dafür gibt es keine quellen die das nur irgendwie andeuten würden.ihr glaubt also das amd einen vishera ohne piledriver kernen macht obwohl es den opteron mit piledriver gibt.es ergibt einfach keinen sinn das amd da eine extra maske hat für eine cpu die sie nicht brauen.
Mittlerweile ist das ganze momentan für mich etwas unübersichtilch geworden, da mit "APU", Bulldozer und Bobcat/Jaguar schon 3 Architekturen wie bei Intel (Larrabee, Core-Serie, 3 Atom-Desgin-Versionen) draußen sind und somit es teils eine Gerüchte-Flut gibt, wenn von all diesen Architekturen irgendwelche Gerüchte (Wahre + gestreute Fakes) herumschwirren.

Im Grunde ist es mir Schweiß egal, ob Vishera ein Bugfixerl ist, oder eine kleiner Verbesserung, oder was auch immer. Ich sagte seit Ewigkeiten, dass eine 15-30%-Performance-Steigerung zufriendenstellend sein kein. Und ob Vishera die +15% über Takt oder IPC oder beides bekommt, ist mir ziemlich egal.
Egal deshalb, weil mir die Entwicklungs-Geschwindigkeit (Jahresrythmus von Bulldozer, GPU und APU-Architekturen) und Entwicklungs-Philosophie (Umstellung auf Automatische Architektur-Entwicklung) sehr gefällt und ich keine Fehler im Bulldozer-Konzept (Shared-Units @ Modul-Konzept) sehe. Architektur-Konzepte-Fehler (wie Netburst) sind früher oder später zum Tode verurteilt.

Das Bulldozer-Modul-Konzept könnte eben sehr interessant werden, wenn vielleicht einmal zur FPU eine oder zwei GPU-CUs eingebaut wird. Mit so 6mm² @ 32nm entspricht eine GCN-CU eben fast eine FPU.

Mit Steamroller-Modul-Aufbau (2 Front-End und 2 Integer-Core (mit je 2 ALUs)) erinnert auch stark an HD6970, der da erstmals auch 2 Grafik-Engines mit je 12 CUs bzw. 12x64 ALUs nutzte. HD 7970 hat ja auch 2 Grafik-Engines (mit CPU-Front-End vergleichbar), aber halt mit 16 CUs pro Grafik-Engine.

So wie es momentan ausieht, gibt es neben CPU-Architektur-Only-Weg bald einen Fusion [CPU+FPU+iGPU(Vertex)]-Architektur weg. Während es bei Intel schon Xeon-Phi heißt, sollte Nivida in so 1-2 Jahren auch damit @ ARM kommen. Zwar weiß man noch nichts bei AMD, aber mit dem Modul-Konzept (2-ALU pro Core) würde das auch dem von Intel & Nvida-Echolon-ARM entsprechen. Wann und ob AMD eine oder 2 CUs (2-Integer-Core mit je eine CU und dazwischen eine Big-FMA-FPU) in eine Bulldozer-Modul einpflanzt ist unklar, aber die Zukunft könnte da sehr interessant aussehen, weil viele Parameter des Modul-Konzepts in so eine Zukunft passen würde.

Roger ende.
Den Roten Faden ist nur für Technik-Interessierte gedacht.

PS: Ist zwar nicht alles Piledriver, aber Piledriver könnte der Urvater davon werden.
 
Zuletzt bearbeitet:
Zurück
Oben