Notiz Mike Clarke: Chefarchitekt von Zen wird Corporate Fellow

Natürlich ist das nachweisbar. Im Multicore Bereich konnte man von Anfang an sehen wieviel Leistung verloren geht und für FMA4 gibt es zumindest Beispiele die Zeigen das dadurch nochmal gute 30% den Bach runter gehen.
Als der FX auf den Markt kam wurden von den Programmen idR. nur 1-2 der 8 verfügbaren Kerne genutzt was einer Nutzung von 12-25% entspricht, bei Intel waren es mit den max. 4 Kernen hingegen 25-50% und daran sieht man auch wo der Hund begraben lag. In dem Umfeld ist die recht geringe Einzelkern Leistung eben tödlich.

Das Lustige daran ist wieviel bei den Diskussionen komplett aus den Augen verlieren das dieses Problem der Unterauslastung letztendlich auch Intel betraf. Zumindest mich würde es ankotzen nur einen Bruchteil der gekauften Rechenleistung mit den Programmen auch wirklich nutzen zu können.
Inzwischen habe ich sogar den Eindruck das die Software Entwicklung im Smartphone Bereich weiter ist als die des Desktop Umfeldes. 10 Jahre weitestgehender Stagnation hinterlassen eben ihre Spuren.
 
  • Gefällt mir
Reaktionen: Thraker
rg88 schrieb:
Die Architektur war (ums in deinem Sprachniveau auszurdrücken) scheiße. Da hättest auch die Intelfertigung von heute nehmen können. Dann wär der Verbrauch niedriger. Leistung wäre immer noch nicht auf dem Niveau der Konkurrenz.


Das ich eine blaue Brille aufhabe wird mir hier zum ersten Mal vorgeworfen. :hammer_alt:
Wie wärs mal mit etwas Selbstreflexion?
Du erinnerst mich grad an:
Radio: "Achtung, ein Geisterfahrer auf der A9"
Du: "Einer? Hunderte!!!"



Das ist vollkommen egal. Das zeigt nur, dass die Arch auch mit besserer Fertigung nix gerissen hätte. ...

Ja, da bis heute jede Software auf Intel optimiert wurde.

1. Was alle vergessen ist das Budget was AMD zur Zeit der Entwicklung vom FX hatte, was ja eurem so *unschuldigem* Intel zu verdanken ist. Und jetzt kommt nicht wieder eh, AMD ist da genau so schuld dran, nein sind sie nicht. Stell Dir mal vor DU kannst 5 Jahre lang keine CPU verkaufen weil Dell, HP, Media Saturn, Lenovo u.s.w. nicht ganz legale Verträge mit der Konkurrenz unterschrieben hat, dafür war die Arch nicht schlecht.

2. AMDs Idee ging damals in die Richtung Mehrkernskalierung aber da der mit illegalen Machenschaften gewordener Marktführer Intel ja besser mit einem Kern Skalierte wurde alle Software wie OS in die Richtung hin optimiert und MT blieb auf der Strecke, so auch der FX.

Tada daraus entstand fast 10 Jahre stillstand. Bis Ryzen kam Max. 4 Cores:daumen:.

Ich weiß nicht wie sich die Blauen Boys das immer schönreden und ignorieren können.

P.S. Bin damals vom Athlon 2800XP Barton auf den Pentium 4 820D gewechselt und das war echt ne enttäuschende CPU dadurch und durch Intels illegale Machenschaften, bin ich nach dem P4 wieder zu AMD gewechselt da ich Intels illegale Machenschaften nicht auch noch belohnen wollte und das hat nichts mit roter Brille zu tun, sondern mit gesundem Menschenverstand. Genauso würde ich mir auch keine GPU von Nvidia mehr in den PC stecken, auch wenn sie 100% mehr Leistung bringt. Steh halt nicht auf Kundenverarsche.

Ach aber was versuch ich es überhaupt. Never ending Story. Aber ist immer wieder toll wie Fanboys andere beleidigen die einfach das Gesamtbild sehen und nicht einfach nur in der Farbe Ihres bevorzugten Herstellers denken. Das AMD es bis heute geschafft hat gegen zwei Giganten zu bestehen und dann auch noch mit einem fast gleichzuziehen, interessiert euch ja auch nicht, weil ihr ja so markenneutral seid. Das verdient Respekt und nicht ewig dieses Fanboy-Gebashe.

Mir schauderts wenn diese Generation unsere Zukunft sein soll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hill Ridge
DeathShark schrieb:
Stattdessen übernahm man nur die eine oder andere Idee und entwickelte Zen. Das wird einen guten Grund gehabt haben.
Das Problem war aber nicht das "Modul"-Design an sich, sondern einzelne Bestandteile des Modul-Designs, die aber auch nur zum Teil angegangen wurden. Das anfangs zu schmale und oft überforderte Backend. Die Cache-Probleme und noch weitere.

Aber all die kleinen Flaschenhälse hätte die allgemein IPC pro Integer-Core im Modul effektiv bekämpfen können, sondern hätte nur die allgemein Auslastung erst mal verbessert.

Für die IPC pro Integer-Core hat es den Bullis an ALUs und AGUs gefehlt. 2 ALU + 1 (ALU)/AGU + 1 AGU bei Bulli gegen über 4 ALUs + 2 AGUS.

Nur im Bereich der FP-Leistung stand Bulldozer sehr gut da, sofern man 1 Modul als einen Kern angesehen hat, da auch die FPU bedingt eben für beide Integer-Cores ausgelegt war.

Und ja, die Modul-Form lebt im gewissen Sinn auch in Zen weiter, man siehe sich die FPU an und deren "Teilung" in bestimmte Blöcke.
MiesMosel schrieb:
Leute - es lag ja auch daran, dass CMT softwareseitig kaum bis gar nicht unterstützt wurde.
Es war/ist ja das Meiste (an Compilern u.ä.) auf SMT fokussiert, natürlich auch Einiges noch auf Single-Core.
Ehrlich gesagt wäre es der Software egal gewesen ob die Threads jetzt per CMT oder SMT umgesetzt worden wäre. SMT und CMT verhalten sich nach außen relativ ähnlich.

Das Problem von SMT und CMT ebenso von Mehrkern CPUs allgemein ist bis heute, dass nur sehr wenig Software bis heute nicht wirklich mehre Threads nutzen können und selbst wenn, scheitert es oft auch an der allgemeinen Auslastung.

Es gibt Probleme in der Informatik, die lassen sich beliebig in Teilprobleme zerlegen und die auch entsprechend skalieren - man siehe Grafikberechnung. Es gibt aber eben auch Probleme die sich nicht in beliebig viele Unterprobleme aufteilen lassen. Es gibt da mehre definierte Gesetze, die auch darauf eingehen, wie viel Code sequenziell und wie viel parallel ausgeführt wird. Eines davon ist das Amdahlsches Gesetz, das andere Gustafsons Gesetzt. Das eine ist eher pessimistisch, das andere optimistisch. Gemein ist beiden: Die Wahrheit liegt in der Mitte.

Whiskey Lake schrieb:
CMT hätte nicht immer bei 2 ALUs pro Integer bleiben müßen!
Genau das ist der Punkt. Man hätte nicht bei 2 ALUs + 2 AGUs (eine davon war ja etwas mächtiger) bleiben müssen.

Die Frage ist aber ehrlich gesagt, wie anschließend die Skalierung und auch Auslastung gewesen wäre.

Wadenbeisser schrieb:
Das Lustige daran ist wieviel bei den Diskussionen komplett aus den Augen verlieren das dieses Problem der Unterauslastung letztendlich auch Intel betraf.
Im Endeffekt betrifft es ja auch bis Heute Intel und AMD. Es betrifft aber auch IBM und Co, es hat ja ein Grund, warum so viele CPUs heute neben einfachen SMT teilweise auch 2 oder gar 4 faches SMT unterstützen und auf einem Kern bis zu 4 Threads laufen lassen.

Wadenbeisser schrieb:
Inzwischen habe ich sogar den Eindruck das die Software Entwicklung im Smartphone Bereich weiter ist als die des Desktop Umfeldes.
Zum Teil ja, weil sie nicht so sehr mit Altlasten zu kämpfe hat.
Ergänzung ()

Thraker schrieb:
2. AMDs Idee ging damals in die Richtung Mehrkernskalierung aber da der mit illegalen Machenschaften gewordener Marktführer Intel ja besser mit einem Kern Skalierte wurde alle Software wie OS in die Richtung hin optimiert und MT blieb auf der Strecke, so auch der FX.
Das ist - freundlich ausgedrückt - Schmarrn. Im professionellen Bereich gibt es bis Heute entweder Software die wunderbar mit mehren Kernen skaliert, da sie bereits von Anfang an darauf ausgelegt wurde, oder die Wurzel der Software liegt soweit zurück und die Altlasten sind teilweise so groß, dass eine überzeugende Mehrkern-Architektur eigentlich mit einer vollkommen neuen Entwicklung gleichzusetzen ist.

Ich habe entsprechende Gesetzte in meinem vorherigen Beitrag auch verlinkt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Hill Ridge
Teralios schrieb:
Zum Teil ja, weil sie nicht so sehr mit Altlasten zu kämpfe hat.
Ergänzung ()


Das ist - freundlich ausgedrückt - Schmarrn. Im professionellen Bereich gibt es bis Heute entweder Software die wunderbar mit mehren Kernen skaliert, da sie bereits von Anfang an darauf ausgelegt wurde, oder die Wurzel der Software liegt soweit zurück und die Altlasten sind teilweise so groß, dass eine überzeugende Mehrkern-Architektur eigentlich mit einer vollkommen neuen Entwicklung gleichzusetzen ist.

Ich habe entsprechende Gesetzte in meinem vorherigen Beitrag auch verlinkt.

Ehm, ja. Sieht man ja auch an Games die wie die BF-Reihe mit mehr Kernen auch mehr FPS hinzaubern.Ist ja Gesetzt;)
 
Thraker schrieb:
Ehm, ja. Sieht man ja auch an Games die wie die BF-Reihe mit mehr Kernen auch mehr FPS hinzaubern.Ist ja Gesetzt;)
Dann hättest du das aber auch so schreiben können. Stattdessen hast du aber geschrieben, dass Software und OS in eben jene Richtung entwickelt worden, was aber so eben Schmarrn ist.
 
Teralios schrieb:
Das Problem war aber nicht das "Modul"-Design an sich, sondern einzelne Bestandteile des Modul-Designs, die aber auch nur zum Teil angegangen wurden. Das anfangs zu schmale und oft überforderte Backend. Die Cache-Probleme und noch weitere.
Das anfangs ein Decoder beide Kerne pro Modul versorgen musste mag wie ein Schwachpunkt aussehen aber später bekam jeder Kern einen eigenen aber dennoch kam nicht sehr viel mehr bei rum. Dessen Einfluss dürfte als relativ gring bei dem Problem der Architektur gewesen sein.
Für die IPC pro Integer-Core hat es den Bullis an ALUs und AGUs gefehlt. 2 ALU + 1 (ALU)/AGU + 1 AGU bei Bulli gegen über 4 ALUs + 2 AGUS.
Das war relativ egal denn selbst für das was vorhanden war kam zu wenig Grundleistung pro Kern rum.
Der größte Schwachpunkt der Architektur müsste also woanders gelegen haben.
Nur im Bereich der FP-Leistung stand Bulldozer sehr gut da, sofern man 1 Modul als einen Kern angesehen hat, da auch die FPU bedingt eben für beide Integer-Cores ausgelegt war.

Und ja, die Modul-Form lebt im gewissen Sinn auch in Zen weiter, man siehe sich die FPU an und deren "Teilung" in bestimmte Blöcke.
Das dürfte aber einen anderen Grund haben denn so wie ich es sehe ist die FPU wie beim Bulldozer zwar ebenfalls in 2x 128 Bit Blöcke aufgeteilt aber sie ist nicht mehr darauf ausgelegt von 2 Kernen versorgt zu werden. Es dient wohl nur noch dazu 2x 128 Bit oder 1x 256 Bit Code in einem Taktzyklus abzuarbeiten.
Ehrlich gesagt wäre es der Software egal gewesen ob die Threads jetzt per CMT oder SMT umgesetzt worden wäre. SMT und CMT verhalten sich nach außen relativ ähnlich.

Das Problem von SMT und CMT ebenso von Mehrkern CPUs allgemein ist bis heute, dass nur sehr wenig Software bis heute nicht wirklich mehre Threads nutzen können und selbst wenn, scheitert es oft auch an der allgemeinen Auslastung.
Der Knackpunkt ist das es ziemlich egal ist wie der Unterbau der virtuellen Kerne ausschaut, es läuft immer darauf hinaus das die Software sie erstmal ansprechen können muss. Ob es nun getrennte Kerne, CMT oder SMT ist ist dabei lediglich eine Sache der Komplexität des Unterbaust und der Skalierung.
Bei Software die erbärmlich mit den zusätzlichen (virtuellen) Kernen skaliert ist eine möglichst große Einzelkern Leistung mit SMT natürlich im Vorteil denn SMT dient dann nur noch zur Verbesserung der Auslastung, Beispielsweise durch zusätzliche Hintergrundprozesse. Da wo es die Leistung beim Hauptprogramm direkt verbessert profitieren auch mehr Kerne und CMT, letztere aber mit einer erheblich besseren und vermutlich auch stabileren Skalierung.

Im Endeffekt betrifft es ja auch bis Heute Intel und AMD. Es betrifft aber auch IBM und Co, es hat ja ein Grund, warum so viele CPUs heute neben einfachen SMT teilweise auch 2 oder gar 4 faches SMT unterstützen und auf einem Kern bis zu 4 Threads laufen lassen.

Zum Teil ja, weil sie nicht so sehr mit Altlasten zu kämpfe hat.
Nur ist das was so gern als Altlasten abgetan wird der mit Abstand größte Vorteil der Plattform, die Abwärtskompatibilität. Zudem dürfte sich der Flächenbedarf dieser Altlasten auf dem Silizium doch arg in Grenzen halten.

Das ist - freundlich ausgedrückt - Schmarrn. Im professionellen Bereich gibt es bis Heute entweder Software die wunderbar mit mehren Kernen skaliert, da sie bereits von Anfang an darauf ausgelegt wurde, oder die Wurzel der Software liegt soweit zurück und die Altlasten sind teilweise so groß, dass eine überzeugende Mehrkern-Architektur eigentlich mit einer vollkommen neuen Entwicklung gleichzusetzen ist.

Ich habe entsprechende Gesetzte in meinem vorherigen Beitrag auch verlinkt.

So falsch nun auch wieder nicht.
Die massiven Behinderungen die den Konkurrenten nachhaltig schädigten sind zwar schon ein Weilchen her aber Intel hatte im Verlauf der Core Architektur auch überhaupt kein Interesse daran die Multicore Unterstützung der Programme voran zu treiben denn sie lebten sehr gut von der Stagnation, erst recht zu Bulldozer Zeiten. Jetzt wo AMD vond er Architektur her wieder umgeschwenkt ist und beide eine ähnlich ausgelegte Architektur besitzen kommt auf einmal wieder Schwung in das Thema. Letztendlich hängt alles zusammen und wer weiss wie der Markt mit einem fairen Konkurrenzkampf heute ausgesehen hätte.
 
Wadenbeisser schrieb:
Nur ist das was so gern als Altlasten abgetan wird der mit Abstand größte Vorteil der Plattform, die Abwärtskompatibilität. Zudem dürfte sich der Flächenbedarf dieser Altlasten auf dem Silizium doch arg in Grenzen halten.
Dir ist aber schon klar, dass meine Altlasten sich auf ein anderes Thema bezogen haben? Ich habe mich da auf deine Aussage mit der Softwareentwicklung auf dem Smartphone bezogen, nicht Hardware.

Die Software, die ich in meiner vorhrigen Arbeitsstelle verwendet habe, ist über 30 Jahre alt und auch heute sind noch Bestandteile aus de späte 80er aktiv im Programm. ;) So etwas wird gerne über Jahre mit geschleppt. Bei den Smartphones wurde in der Regel alles vom Anfang an neu Entwickelt und konnte auch neu Konzipiert werden. ;)
 
@Teralios
Es ging doch um die Hardware oder nicht?
Altlasten sind Sachen die nicht mehr genutzt werden, was bei der Software allerdings nicht der Fall ist. Die Programmierung ist lediglich hoffnungslos veraltet und ist nicht in der Lage das effizient zu nutzen was bereits seit Jahren auf dem Markt ist.
 
  • Gefällt mir
Reaktionen: Thraker
Whiskey Lake schrieb:
Ja, zu diesem Schluss kommen Leute die bei dem Thema nicht so ganz fit sind:\

Wovon sprichtst du bitte?

Ganz einfach, Die FX Prozessoren waren 8 Kern CPUs, selbst AMD hat diese als solche vermarktet.

R7 1700 @ Stock (3,7GHz Boost) | Cinebench R15 SingleThread = 151 Punkte
R7 1700 @ Stock (3,2GHz Allcore) | Cinebench R15 MultiThread = 1403 Punkte
R7 1700 @ (3,6GHz Allcore) | Cinebench R15 MultiThread = 1580 Punkte


Also etwa eine ~10,47x Multicore Skalierung bei 8 Kernen und 16 Threads

AMD FX 8350 @ 4,2GHz Boost | Cinebench R15 SingleThread = 96 Punkte
AMD FX 8350 @ 4GHz Allcore | Cinebench R15 MultiThread = 665 Punkte sagen wir 680 Punkte @ 4,2GHz allcore


Also etwa eine ~7,08x Multicore Skalierung bei 8 Kernen? und 8 Threads.

So das Selbe jetzt noch mit einem i7 4 Kern und 8 Thread CPU

Intel i7 4790K @ Stock (4,4GHz Boost) | Cinebench R15 SingleThread = 169 Punkte
Intel i7 4790K @ Stock (4,0GHz Allcore) |
Cinebench R15 MultiThread = 854 Punkte @ 4,4GHz ~930 Punkte

Also etwa eine ~ 5,5x Multicore Skalierung bei 4 Kernen und 8 Threads ( Mehr als 4 aber weniger als 8)

Hoffe so wird einiges ein wenig deutlicher ;-)
 
  • Gefällt mir
Reaktionen: rg88 und Ozmog
Wadenbeisser schrieb:
Es ging doch um die Hardware oder nicht?
Du sprachst von der Software-Entwicklung im Smartphone-Bereich und darauf habe ich mich mit meiner Aussage mit den Altlasten bezogen.

Und nein, Altlasten sind nicht unbedingt nur Sachen, die nicht mehr genutzt werden, sondern Dinge, die in der Vergangenheit verursacht wurden und heute - auch ggf. damals schon - ein Problem verursachen, dass aber nicht einfach so gelöst werden kann.

Und das ist auch eben der Punkt. Schau dir mal viele der professionellen Datenbanken an - auch spezial Datenbanken - oder auch andere professionelle Software, die teilweise länger als 20 Jahre auf dem Markt ist. Du findest in so manchen Programmen noch Bestandteile die aus den späten 80er und frühen 90er stammen, als die ersten Versionen dieser Softwarepakete auf dem Markt kamen. Damals hat man an die Möglichkeiten, die heute existierten, nicht mal in den feuchtesten Entwicklerträumen gedacht und daher einfach nicht berücksichtigt. Dazu kommt, dass Software damals zum Teil auch massiv auf die Hardware als auch das Betriebssystem hin optimiert werden musste. Was heute hier viele als mangelnde Optimierung abtun (Arbeitsspeicher usw.) ist zum Teil aber auch der Tatsache geschuldet, das Entwickler heute sehr wohl die Zukunft auch im Blick haben und ihre Programme wesentlich flexibler auslegen, so dass man sie bei Bedarf besser anpassen kann.

Gerade im SmartPhone-Bereich ist man heute wirklich weiter in der Software-Entwicklung, da erste Multi-CPU-Systeme vergleichsweise schnell kamen. Ebenso wurde bei vielen Smartphone-Apps in der Regel von 0 angefangen und man konnte entsprechend die Softwarearchitektur auslegen.

Es macht sich halt schon bemerkbar, wenn du eine Software hast, die über Jahre historisch gewachsen ist und noch nach anderen Gesichtspunkten entwickelt wurde, oder du die Chance hast wirklich ohne alte Lasten anzufangen und ggf. auch neue Wege zu gehen.

Du glaubst nicht, wie konservativ viele Softwarenutzer sind. Ich möchte mal den Aufschrei erleben, wenn MS, Adobe und Co ihre Softwarepakete wirklich von 0 aus entwickeln.
 
@Teralios
Altlasten sind Müll den keiner haben will und nur belastet.
Sachen die technisch veraltet sind aber dennoch weiter genutzt werden sind einfach nur veraltet.
Grade im Software Bereich kann es aber einen Grund dafür geben solchen Code noch zu verwenden und das ist Abwärtskompatibilität um z.B. noch auf alte Datensätze zugreifen zu können. Da brauch man nicht das Rad ständig neu zu erfinden.
Im Smartphone Bereicht läuft das ein Stück weit anders. Die Dinger sind in meinen Augen eher Wegwerfprodukte die nur einpaar Jahre halten sollen und dann eh nicht mehr mit neuer Software versorgt werden. Da kümmert man sich im Geschichten wie die Abwärtskompatibilität herzlich wenig.
Das ist aber nicht der Punkt auf den ich hinaus will. Wenn im Zeitalter wo 8 Kerne/Threads halbwegs bezahlbar sind neue Programme noch nicht einmal in der Lage sind so viele zu nutzen das sich ein damaliger FX von den i3 bzw. Pentium Absetzen kann dann ist die technische Weiterentwicklung bei der Software praktisch tot und ohne Software ist Hardware nur ein nutzloser Briefbeschwerer. Von der Nutzung neuer und leistungsfähigerer Befehlssätze mal ganz zu schweigen.

Lange Rede, Kurzer Sinn.
Die Bulldozer Architektur mag so fortschrittlich gewesen sein das sie entsprechend gewürdigt wurde aber das half ihr herzlich wenig wenn die Produkte bei der rückständigen Software verhungern. Das sieht auch heute nicht deutlich anderes aus. Heute freut man sich zwar nen Kullerkeks das Spiele so langsam mal ernsthaft von 8 Kernen/Threads profitieren aber wir gehen inzwischen auch auf 32 Kerne bzw. 64 Threads auf der Hardware Seite zu und kann sich nur "freuen" das die Software nicht noch weiter zurück fällt als damals.
Man ist heute im PC Bereicht softwareseitig bestenfalls dort wo die Hardware vor 7-8 Jahren war. Im Smartphone Bereich würde man für so alte Modelle wohl noch nicht einmal mehr aktuelle Programme bekommen.
 
Ned Flanders schrieb:
Wie schon geschrieben, war das CMT design eine Antwort auf zunehmende Fertigungsprobleme und nicht konkurrenzfähigen Transistorbudget. Warum sollte man nach dem lösen dieses Problems durch Fremdfertigung daran festhalten.

Warum man daran festhalten sollte? Na weil es, wie einige versuchen zu erzählen, eine "gute" Architektur ist. Mit Lösen der Probleme in der Fertigungstechnik hätte man mit Bulldozer doch richtig durchstarten können.
Dass man es nicht gemacht hat, und stattdessen Zen entwickelt hat, war entweder ein Fehler (weil Bulldozer doch "gut" war), oder goldrichtig, weil die Bulldozerarchitektur eben nicht gut war.. Suchs dir eins aus. Beides geht nicht.

Ich weiß auch gar nicht warum es ein solches Problem ist einen Fehlschlag als solchen zu benennen. Intel hat bei Prozessoren auch Fehlschläge hingelegt. Netburst anyone?
 
Wadenbeisser schrieb:
Altlasten sind Müll den keiner haben will und nur belastet.
Sachen die technisch veraltet sind aber dennoch weiter genutzt werden sind einfach nur veraltet.
Beißen wir uns mal nicht an dem Begriff fest. Die Definition des Begriffes ist recht schwammig.

Du weißt ja worauf ich hinaus will und ich worauf du nun hinaus willst. Ich habe mir neben meinen 2 Studiengängen ein Teil meines Lebens in der Software-Entwicklung verdient und nun auch längere Zeit als Systembibliothekar und kenne entsprechende Programme und kann sagen: Es wäre schön, wenn es meistens nur um Kompatibilität gehen würde. Leider sieht die Realität oft anders aus. Da geht es oft auch einfach nur darum, dass der zuständige Mitarbeiter nicht mehr in der Firma arbeitet und die Dokumentation mies ist. Eine neue Programmierung zu teuer ist und ein paar andere Sachen.
 
@Teralios
Ja das Problem mit den "bloss nicht die grundlegenen Strukturen angehen, weiss ja keiner (mehr) was dann passiert." ist mir auch nur allso bekannt, auch wenn ich in dem Bereich icht arbeite aber da reden wir wieder über 2 paar Schuhe. ;)
Bei mir geht es eher um die normale Desktop Massen Software in die so wenig wie nur irgend möglich investiert wird, was wiederum eher zu einem sterbenen Breich passt nur wer stirbt schon über 10 Jahre lang?
Das offensichtliche Desinteresse für Qualität ist für den Bereich eben schon sehr bezeichnend.
 
Thraker schrieb:
...was ja eurem so *unschuldigem* Intel zu verdanken ist. Und jetzt kommt nicht wieder eh, AMD ist da genau so schuld dran, nein sind sie nicht. Stell Dir mal vor DU kannst 5 Jahre lang keine CPU verkaufen weil Dell, HP, Media Saturn, Lenovo u.s.w. nicht ganz legale Verträge mit der Konkurrenz unterschrieben hat, dafür war die Arch nicht schlecht.
....
Ich weiß nicht wie sich die Blauen Boys das immer schönreden und ignorieren können.
Ich check wirklich nicht, was du für ein Problem hast. Nur, weil ich Sachen neutral betrachten kann, bin ich also ein blauer Fanboy? :D

Hiermal zur Info mein aktuelles System:
HW#.PNG
BD hab ich übersprungen. Aufgerüstet wird mit Zen2, wenn die Kinderkrankheiten weg sind und weil ich die 7nm noch mitnehmen will. Vll wirds auf ein TR 3000. Vll wirds aber doch noch ein 2700x wenn ich nicht mehr warten will.

Thraker schrieb:
P.S. Bin damals vom Athlon 2800XP Barton auf den Pentium 4 820D gewechselt und das war echt ne enttäuschende CPU dadurch und durch Intels illegale Machenschaften, bin ich nach dem P4 wieder zu AMD gewechselt da ich Intels illegale Machenschaften nicht auch noch belohnen wollte und das hat nichts mit roter Brille zu tun, sondern mit gesundem Menschenverstand.
Das eine hat überhaupt nichts mit dem anderen zu tun. Das ganze was du schreibst hat eigentlich überhaupt nichts mit dem Thema zu tun, wenn mans genau nimmt.
Es ändert nichts daran, dass BD keine gute Architektur war. Die Entscheidung für dieses Design war einfach schlicht falsch. Das hat nichts mit Geld oder sonstwas zu tun. Das fehlende Geld zeigt sich dann halt daran, dass man nicht einfach nebenbei ne zweite Arch. entwickeln kann und die andere in die Tonne kloppen.

Thraker schrieb:
Ach aber was versuch ich es überhaupt. Never ending Story. Aber ist immer wieder toll wie Fanboys andere beleidigen die einfach das Gesamtbild sehen und nicht einfach nur in der Farbe Ihres bevorzugten Herstellers denken. Das AMD es bis heute geschafft hat gegen zwei Giganten zu bestehen und dann auch noch mit einem fast gleichzuziehen, interessiert euch ja auch nicht, weil ihr ja so markenneutral seid. Das verdient Respekt und nicht ewig dieses Fanboy-Gebashe.
Es ist echt köstlich. Ich bin und war schon immer pro AMD. Bulldozer hab ich aus gutem Grund übersprungen und ich kann bis heute nichts anderes sagen als damals.
Fanboy-Gelaber ist es, wenn man ein offensichtlich schlechtes Produkt gut redet und über den Klee lobt, indem man alles realtiviert und das Produkt als toll hinstellt, was es leider niemals war. (ich habe selbst große Hoffnung damals in das Modul-Design gelegt. Das wurde dann aber nicht annähernd eingehalten. Auch die nächsten Iterationen waren nicht so viel besser, dass ich diese gekauft hätte. Da hab ich mich lieber mit der Leistung meines alten abgegeben, als in einen BD oder gar Intel zu stecken)


Thraker schrieb:
Mir schauderts wenn diese Generation unsere Zukunft sein soll.
Mir schaudert, wenn Leute irgendwas reininterpretieren, weil man deren Weltbild ein wenig kratzt.
 
Bärenmarke schrieb:
Kann man so pauschal halt nicht sagen, wirtschaftlich aufjedenfall. Technisch gesehen lag es halt auch zum größten Teil an der Fertigung, muss man einfach auch ehrlich zugestehen.

Kann man schon so sagen, denn es lief nicht. Bulldozer war nicht wirklich Konkurrenzfähig. Und genau das sagte ich damit aus. Es ist unerheblich, wie toll der Ansatz geworden wäre, wenn der Prozess damals mitgemacht hätte, denn es kam so nicht. Es kann auch nicht bewiesen werden, wie gut sich die Architektur geschlagen hätte, wenn der Prozess gut genug gewesen wäre, es geht nicht, ohne Bulli mit besserem Prozess neu aufzulegen.

Der einzige echte Beweis ist, dass Bulldozer nicht gut genug war, um im Markt zu überzeugen. Niedrige IPC, hoher Verbrauch. Bulldozer ist in diesem Fall das Gesamtpaket der Architektur und des Prozesses, isoliert kann man sie ja auch nicht wirklich betrachten. Wie auch...

Die Bulldozer-Diskussion ist recht sinnbefreit in diesem Thread. Dazu ist er sowieso Geschichte und sämtliche Behauptungen, Bulldozer wäre eine gute Architektur können nicht mit Nachweisen belegt werden, da die Leistung und der wirtschaftliche Misserfolg klar dagegen sprechen.
Zum Glück konnte AMD die Bulldozer-Ära hinter sich lassen und wir schauen gespannt und voller Hoffnung in die Zukunft von Ryzen.
 
  • Gefällt mir
Reaktionen: rg88
Ozmog schrieb:
Der einzige echte Beweis ist, dass Bulldozer nicht gut genug war, um im Markt zu überzeugen. Niedrige IPC, hoher Verbrauch. Bulldozer ist in diesem Fall das Gesamtpaket der Architektur und des Prozesses, isoliert kann man sie ja auch nicht wirklich betrachten. Wie auch...

Da kann ich dir nur zustimmen, aber man sieht ja an Extravator, dass der Verbrauch zum Schluß hin doch sehr gut optimiert wurde und alles andere wie zu hoch war. Sprich die Architektur dann doch nicht ganz so mies war und das stört mich an der Sache auch, dass viele Leute hier rumposaunen die Architektur war ja so mies etc, aber den Prozess der einen großen Teil an der zu schwachen Performance trägt völlig außer acht lassen.
Wie nah sie damit letzendlich an intel rangekommen wären, wenn der Prozess gut genug gewesen wäre, kann man schwer einschätzen. Aber wenn die Architektur nicht der absolute Überflieger ist, welche sowieso alles von der Konkurrenz niederwälzt und man dann so einen Fertigungsprozess bekommt, dann kann es ja nur schief gehen.
Und genau deswegen war es auch kein wirtschaftlicher Erfolg, was jetzt glücklicherweise Zen und seine Iterationen ist. Aber ich würde es halt nicht unbedingt als einen Misserfolg wie Netburst werten, da man an den Iterationen Steamroller und Extravator ja durchaus gesehen hat, dass Potenzial vorhanden ist, es aber an einer anderen Stelle klemmt.
Aber diese Objektivität um dies klar trennen zu können, besitzen hier im Thread ja leider die wenigstens :(
Man kann dann nur gespannt sein, was AMD in Zukunft aus dem Ärmel schütteln wird :)
 
und sämtliche Behauptungen, Bulldozer wäre eine gute Architektur können nicht mit Nachweisen belegt werden
Das Gegenteil kann man aber auch nicht beweisen.

Ich kann aber beweisen, daß die Fertigung damals ein sehr sehr großes Problem war.

Also wenn man allein die Beweislage heranzieht, sind meine Aussagen plausibler!
 
Nureinnickname! schrieb:
Ganz einfach, Die FX Prozessoren waren 8 Kern CPUs, selbst AMD hat diese als solche vermarktet.

R7 1700 @ Stock (3,7GHz Boost) | Cinebench R15 SingleThread = 151 Punkte
R7 1700 @ Stock (3,2GHz Allcore) | Cinebench R15 MultiThread = 1403 Punkte
R7 1700 @ (3,6GHz Allcore) | Cinebench R15 MultiThread = 1580 Punkte


Also etwa eine ~10,47x Multicore Skalierung bei 8 Kernen und 16 Threads

AMD FX 8350 @ 4,2GHz Boost | Cinebench R15 SingleThread = 96 Punkte
AMD FX 8350 @ 4GHz Allcore | Cinebench R15 MultiThread = 665 Punkte sagen wir 680 Punkte @ 4,2GHz allcore


Also etwa eine ~7,08x Multicore Skalierung bei 8 Kernen? und 8 Threads.

So das Selbe jetzt noch mit einem i7 4 Kern und 8 Thread CPU

Intel i7 4790K @ Stock (4,4GHz Boost) | Cinebench R15 SingleThread = 169 Punkte
Intel i7 4790K @ Stock (4,0GHz Allcore) |
Cinebench R15 MultiThread = 854 Punkte @ 4,4GHz ~930 Punkte

Also etwa eine ~ 5,5x Multicore Skalierung bei 4 Kernen und 8 Threads ( Mehr als 4 aber weniger als 8)

Hoffe so wird einiges ein wenig deutlicher ;-)
Da haben wir das Dilemma, ich habe nie in meiner gesamten Zeit mit PCs Bilder gerendert. Solche Benchmarks sind mir genauso egal wie gamimg Benchmarks in extrem niedrigen Auflösungen. Alles ohne Praxis Bezug für mich jedenfalls. Nochmal der Kollege freut sich jetzt schon drauf auf unserer nächten LAN auf dem völlig mißratenen Bulldozer GRW in FHD mit hohen Einstellungen zu zocken.
 
Zurück
Oben