News Desktop-„Trinity“ erst ab Oktober? „Vishera“-CPUs detailliert

Gut, dann bin ich eben Anders. Kann ich mit leben. Mich interessiert die TDP, Effizienz und Leistungsaufnahme nämlich brennend.

Meine Rechner idlen nicht vor sich hin, da läuft boinc. Und wenn nun der eigentlich sympathische AMD Prozessor im Jahr mehr Strom schluckt, als ein Core i7 kostet, ist die Rechnung dann doch sehr einfach.

Und einen Prozessor anzudienen, der nur taugt, wenn er _nicht_ rechnen soll, weil er dann sparsam ist, halte ich für abartig.

AMD ist noch solange Chancenlos, bis die ATI Rechnenkerne als CPU-Teil angesehen werden und genutzt werden. Dann haben die APUs eventuell eine Performance / Watt Chance.

Würde mir nur all zu gerne einen Piledriver kaufen, aber bei den Verbrauchswerten, sorry, nein. Das kann ich nicht zahlen, die Stromrechnung. Nicht, dass die AMD Prozessoren schlecht wären. Nur, das Bessere ist der Feind des Guten. Und es gibt (leider) besseres.
 
LoRDxRaVeN schrieb:
Ob aber unterm Strich dann (Hausnummer) 65W reale Leistungsaufnahme in einem bestimmte Szenario für IB auf dem Blatt stehen und bsplw. 75W für ein Bulldozer-Äquivalent, also zwar wenige aber nennenswerte 10W mehr, kann man mMn nicht sagen.

IB müsste effizienter sein, alleine weil IB schon die 3. Generation der Intel Core Microarchitekur ist. Piledriver ist ja gerade die 2. Generation der Family 15h Microarchitektur. Piledriver kommt recht spät, keine Frage, aber um Fair zu sein, müßte man Piledriver eher mit SB vergleichen als mit IB.

LoRDxRaVeN schrieb:
Und dann stellt sich noch die Fragen, inwiefern ein "Zambezi", der für einen Intel 22nm Bulk Prozess entwickelt worden wäre, noch mit einem GF 32nm SOI Zambezi vergleichbar ist. Denn die Prozesse sind ja deutlich mehr als nur in Nuancen unterschiedlich

Da bin ich schon gespannt auf Kaveri, Trinity mit Piledriver ist 32nm SOI, Kaveri mit Steamroller wird 28 nm Bulk. Ich hab ja die Befürchtung, das man mit den Taktraten runtergehen muss.

RangnaR schrieb:
Meine Rechner idlen nicht vor sich hin, da läuft boinc.

Wie sieht es da eigentlich mit GPGPU support aus? Müsste doch wesentlich effizienter sein als ne Berechnung mit CPU egal ob von AMD oder Intel.
 
LoRDxRaVeN schrieb:
Der FX-8350, also das Vishera-Topmodell, soll 4GHz haben, d.h. "nur" 11% mehr Takt als der FX-8150 (nicht "10 bis 20%") Und die 15% IPC Zuwachs sind mMn wahrscheinlich auch eher ein besserer Fall, als die Regel.
Da aber IB gegenüber SB nur marginal zugelegt hat, bzw. Vishera gegenüber Zambezi vll. potentiell mehr, kann man darauf spekulieren, dass ein FX-8350 in guten Multithreadingfällen (also dort wo auch schon Zambezi gut war) sich vll. ein Stück vom genannten i7 absetzen kann. Dass man aber erwartet, dass sich Vishera auf breiter Basis deutlich (um bei deinen Worten zu bleiben) von einem i7-3770 setzt, ist großer Optimismus oder vll. eher Wunschdenken (oder eben Ironie).

Naja, ich denke die 11% Takt sind ja schon so gut wie sicher, demnach ist auch der Performancegewinn von 11% nahezu sicher.

Die IPC wird im Normalfall und durch das Optimierungspotential der Architektur auch um 5-10% zulegen, natürlich je nach Applikation.

Wenn es 20% werden ist das viel, und auch nötig, und auch nicht schlecht.

Mein "Wunschdenken" bezog sich natürlich nur auf den Optimalfall, also all8 Threads am Anschlag da hier das Leistungsmaximum zu erwarten ist, in LowThread Apps wird der FX8350 auch keine Chance haben, da wär es Wunschdenken.

Gut, hier

https://www.computerbase.de/2012-04/test-intel-ivy-bridge/15/

hängt der Bulldozer ~ 26% bei Anwendungen dem IB hinterher, Aber Anwendungen != das BestCase Szenario = alles am Anschlag.

Ich denke dass Vishera in Anwendungen wie PovRay
https://www.computerbase.de/2012-04/test-intel-ivy-bridge/39/
& x264
https://www.computerbase.de/2012-04/test-intel-ivy-bridge/43/

relativ deutlich vor die Konkurrenz schieben müsste, sich zwischen dem i7 3770K und dem SB-E platzieren sollte. In meinen Augen Anwendungen wo es genau auf diese CPU Leistung ankommt.

Dazu reichen auch 15% Mehrleistung zum FX8150. Alles Andere wäre angesichts der genau für diese Maximalleistung optimierte Architektur auch ernüchternd.

Edit: genau deshalb wars beim FX-8150 schon sehr ernüchternd, es stehen 4 Kerne mit ~170mm² in 32nm des Sandy Quads gegen 8 Kerne auf 320mm² des Bulldozers... und dieser schafft es in den oben genannten HotSpot Benchmarks kaum den Sandy in die Schranken zu weisen.
 
Zuletzt bearbeitet:
Matzegr schrieb:
IB müsste effizienter sein, alleine weil IB schon die 3. Generation der Intel Core Microarchitekur ist.

IB ist sogesehen die sechste Generation der Core Microarchitektur: Core2 (65nm), Core2 (45nm) (bei den beiden wollen wir keine passenden Codenamen einfallen), Nehalem (45nm), Westmere (32nm), Sandy-Bridge (32nm) und eben Ivy-Bridge (22nm).

Krautmaster schrieb:
Mein "Wunschdenken" bezog sich natürlich nur auf den Optimalfall, also all8 Threads am Anschlag da hier das Leistungsmaximum zu erwarten ist, in LowThread Apps wird der FX8350 auch keine Chance haben, da wär es Wunschdenken.
Aha, ok, das rückt deine Aussage gleich in ein ganz anderes Licht.

Gut, hier

https://www.computerbase.de/2012-04/test-intel-ivy-bridge/15/

hängt der Bulldozer ~ 26% bei Anwendungen dem IB hinterher, Aber Anwendungen != das BestCase Szenario = alles am Anschlag.
Genau so ist es. Diese dummen Indizes sagen nur darüber etwas aus, wie sich ein Prozessor in einem Mittel über genau die getesteten Anwendungen schlägt. Solche pauschalen Mittelungen sind mMn das blödeste was einem einfallen konnte, da es im Endeffekt für niemanden eine praxisrelevanten Aussagekraft hat.
Man will augenscheinlich Lesern ein Thema stark vereinfacht darstellen (um ein größeres Publikum zu gewinnen, was gleichbedeutend mit höheren Einnahmen ist), aber dass dann ein Großteil der Information vernichtet wird, weil das Thema einfach nicht so einfach darstellbar ist, wird einfach ignoriert.
 
@Krautmaster

Wie auch? IB ist die gefühlt 159te Generation Intel Pentium Pro.
(Pentium PRO 0,5 µm/0,35 µm ->PII 0,35 µm/0,25 µm->PIII Katmai 0,25 µm/Coppermine 0,18µm /Tulatin 0,13µm-> Pentium M Banias 0,13µm/Dothan 90 nm-> und dann das ganze Core Geschmäus
Core2 65nm/Core2 45nm->Core i Nehalem 45nm, Westmere 32nm, Core i zum zweiten Sandy-Bridge 32nm /Ivy-Bridge 22nm).
Mit angepasster Software, angepassten Compilern und ein gut optimierter Prozessor
in einem sehr fortschrittlichen Fertigungsverfahren.

gegen 1te Generation AMD BD, wo das OS nicht mit den Modulen umgehen kann,
alle Welt den AMD stark benachteiligenden Intel Compiler verwendet und wo noch viel
Optimierung nötig ist, die Fertigung immer noch deutlich besser wenden kann etc.

Ich wunder micht eh, dass er schon so gut mitgeht.

Wenn alles passt und BD (Steamroller?) und die Software richtig optimiert ist, dann ist
ein IB nur ein laues Lüftchen, im Vergleich zu einem Orkan.
 
Zuletzt bearbeitet:
naja das bringt nur wenig wenn sich die aktuellen CPU dann so schlecht verkaufen dass kaum Gewinn oder gar Verlust auf den Papier steht was in kaum Budget für Optimierung / Weiterentwicklung resultiert...

Ich mein Weiterentwicklung schön und gut, aber wieso kann Intel als Riese eine bestehende Architektur immer weiter optimieren und AMD muss mit Ach und Krach versuchen komplettes Neuland zu besiedeln, entwickelt 5-7 Jahre nun an Bulldozer und dann released man sowas.

Man sieht auch an den Chipsätzen wie Intel immer frei nach Motto lebt "wo wenig wie möglich, so viel wie nötig". Es braucht keine alleskönnende Wollmilchsau mit 32 PCIe Lanes im Mainstream Markt. Das machts nur teuer.

Die Frage die ich mir stelle ist... wann passt die Software richtig? Wann ist IB ein Lüftchen und wann wird der FX zudem Orkan... dann wenn ich den aktuellen PC ohnehin wieder entsorgen kann?

Edit:

In der Regel legt der Riese vor und der Kleine greift das auf und verbessert es um mit möglichst geringem Aufwand erfolgreich nachzuziehen. Bei Fertigung mag das nicht gelingen, aber Hallo, AMD hat keine Fertigung mehr ;)

Ich denke dennoch dass man auf einem guten Weg ist. fehlen noch die Mittel um die Optimierung zu pushen.
 
Zuletzt bearbeitet:
@ modena.ch

Bist du sicher, dass in absehbarer Zeit alles oder auch nur das Nötigste wirklich auf BD und Co. optimiert sein wird?

Selbst der x86-"Marktführer" Intel ist damit immer wieder gegen eine Wand gelaufen und musste schmerzhaft lernen, dass man Neues niemals auf Kosten des Alten/Etablierten bringen darf. Die Softwarebranche hat denen eiskalt gezeigt, wer hier den Markt wirklich "führt".
Der PPro z.B. ist gefloppt, weil er mit dem 1995 noch stark verbreiteten 16Bit-Code nicht gut zurecht kam und die Software entwickelte sich erst Jahre später durchgehend in Richtung 32Bit, als es für den PPro längst zu spät war.
(Der PII machte es dann besser, denn der war auch mit 16Bit-Software deutlich schneller als ein originaler Pentium.)
Itanium und auch davor die diversen anderen Versuche Intels, x86 abzulösen, sind noch viel spektakulärer gescheitert, weil die Softwareentwickler die einfach ignoriert haben.

Nein. Ein CPU-Hersteller darf niemals mit etwas Neuem kommen und dann vom Softwaremarkt erwarten, dass der sich mal eben schnell entsprechend anpasst.

Umgekehrt muss eine CPU vor allem an den derzeitigen Softwaremarkt angepasst sein und damit optimal laufen. (So wie z.B. beim Core 2 geschehen.)

Alle darüber hinaus gehenden Neuerungen und Erweiterungen sind dann nur optionale Features oben drauf. Entsprechend angepasste Software für den schon aufgrund seiner konventionellen Stärke erfolgreichen Prozessor kommt dann mit der Zeit ganz von selbst. (Siehe z.B. den Athlon64 und seine 64Bit-Erweiterung.) Aber auch so langsam, dass dann die ersten Generationen mit diesem neuen Feature normalerweise schon wieder längst museumsreif sind.
Aber das ist nicht schlimm, denn diese CPUs waren ja auch mit der alten Software gut bedient.

Deshalb wird es für Bulldozer und Nachfolger verdammt schwierig. Seine Probleme mit aktueller Software werden dafür sorgen, dass sich Bulldozer nur schlecht verkauft und für eine CPU-Architektur mit geringem Marktanteil optimiert keiner extra seine Software bzw. lässt sich damit zumindest alle Zeit der Welt. Das ist ein typisches Henne-Ei-Problem.

AMD hätte CPUs für die aktuelle, existierende Softwarewelt machen müssen, nicht für eine potentielle Zukunft, die vielleicht mangels Markterfolg dieser CPUs niemals kommt.
 
Zuletzt bearbeitet:
@Krautmaster

Ich sags mal so:

Wenigstens versucht AMD mal einen neuen Weg, eine neue Entwicklung
anstatt sich auf vergangene Lorbeeren auszuruhen. Intel glänzt vor allem durch
Fertigung, ansonsten sind sie nicht extrem innovativ.
Sie machen aber aufgrund der recht schwachen Konkurrenz (aufgrund von Illegalen Markteingriffen seitens Intel) einen recht guten, wenn auch leichten Job.

AMD hätte genausogut den K10.5 umkrempeln und in 32NM neu bringen können und wären zum jetzigen Zeitpunkt sicher besser dran. Aber langfristig gesehen ist K15 nunmal die deutlich potentere CPU, auch und vor allem für Server, wo auch so und jetzt Geld an BD verdient wird. Dieser hält im Serverbereich wo eben MT zählt, auch 3x so teure Sandy Xeons gut in Schach. Dann wäre da noch der Trumpf CMT.
Die Opteron-Abfälle landen eben im Desktop. Wenn jetzt noch die ST Performance gesteigert wird, werden beide Bereiche davon profitieren und man kann AMD auch wieder für den Desktop kaufen.

Was die Boards angeht, sorry aber das ist schlicht Blödsinn. Wenn ich mir ein übliches AMD FX Brett hole und dafür im schlimmsten Fall 150-170€ hinlege, bekomme ich Vollausstattung welche teilw. im 2011er Sockel gesucht werden muss, für 270-350€ natürlich.
1155er Bretter sind da keine Konkurrenz und einfach nur kastriert.

1155 equivalente Bretter bekomme ich bei AMD ebenso und das für unter 100€.

Wer will nicht soviele PCI-E Lanes wie möglich um Raid Contr (evtl Karten), Crossfire, USB 3.0 Geräte etcpp. anständig anbinden zu können? Wieso soll ich deswegen den Intelpremiumpreis zahlen wollen?

Wieso soll ich einen Xeon mit teurem Brett kaufen für eine potente Workstation mit ECC Ram, wenns jeder AMD FX mit FX Chipsatz genauso kann?
Aber lasst euch ruhig ausnehmen!

@Herdware

Da bin ich nicht sicher, aber zumindest erste Schritte in die richtige Richtung sind schon getan.
Siehe Win 7 BD Patches, siehe Win 8 wo die Module zum ersten Mal als Ganzes erkannt werden, welches den Turbo richtig nutzen kann und auch endlich nicht genutze Module schlafen schickt.
Somit ist hier schon etwas mehr Performance da.
Siehe AMD's Compiler und den von AMD unterstützten, welche auch immer mehr dort und da zum Einsatz kommen.

Es ist sicher einfacher einen Proz nach vorhandener Software zu bauen.
Aber dann ist der Fortschritt sicherlich gebremst.
Siehe den ersten AMD Phenom als nativer Quad. Wie gut läuft der alte Proz heute mit aktuellen Games welche endlich ein paar Threats haben? Alles Andere als lahm. Die Softwarelandschaft ist träge, aber wenn sie mal reagiert muss ein Feature am Markt vorhanden sein, damit es sich durchsetzt.
Eben wieder Henne und Ei.
 
Zuletzt bearbeitet:
naja was heißt ausnehmen, schau ich mir 50€ Bretter an so reichen für 99% der User sowohl ein AM3+als auch ein S1155 Board mehr als aus. Oft ist die USB / SATA Performance auf dem Intel sogar besser und sparsamer ist die Plattform auch.

Der Unterschied ist schlicht der, dass Intel daran besser verdient. Ich frag mich schon lange warum AMD keine eigenen Boards anbietet, oder gar Komplettrechner. Man halt fast alle relevanten Komponenten in House.

Einzig FM1 ist vergleichbar, muss aber schon wegen der höheren TDP diverser AMD CPU etwas teurer ausfallen bzw weniger Gewinn der abfällt. Und FM 1 stirbt mit Llano...

100€ Mainboards sind angesichts leistungsstarker 100€ CPUs in 99% der Fälle schlicht auch nicht mehr nötig. Die i3 IBs sind noch gar nicht draußen, warum? Weils schlicht nicht notwendig ist. Im Notebooksegment gibts die fertigen und praktisch gleichen CPU seit Wochen ja schon.


http://geizhals.de/623003

sowas reicht doch den meisten mehr als aus.

Der Pendant dazu:

http://geizhals.de/655707

schenkt sich also wenig, bis auf dass der H61 in der Entwicklung und Fertigung vermutlich deutlich günstiger kam als der A75 und Intel damit schön die alten Fertigungen auslastet.

Sowohl bei AMD als auch bei Intel kann man heute für wenig Geld ne gute Plattform aufbauen. Dazu noch Celeron 2x2,4 Ght G530 & 4 Gb Ram und fertig is die <85€ schnelle Kombi.

Dabei ist es einfach: Will ich CPU Leistung greif ich zum Intel System
Will ich GPU Leistung für wenig Geld dann zum AMD FM1 Setting.

Will ich noch mehr GPU Leistung greif ich zu ner dez GPU.

;)

Mit ECC Workstations und FX im Desktopbeereich rettet man sich nicht in die schwarzen Zahlen.
 
Zuletzt bearbeitet:
Nunja die AMD Chipsätze sind meist Pinkompatibel.
Also einfach mehr oder weniger eine SB850 oder SB950
auf ein FM1 Board geklatscht, welches auch Grafik ausgeben kann und fertig
ist A75.
Wobei das schon eine neue SB sein muss den sie kann USB 3.0 nativ.
Aber grossartig unterscheiden tun sie sich sonst nicht. Also Entwicklungskosten
gering. Wird aber im Desktop, HTPC, Notebooks und Netbooks eingesetzt.

Unterschieden wird bei AMD meist durch weniger PCI Lanes (790X, 890X z.B.)
oder durch die integrierte Graka (790GX, 890GX) das wars auch.

AMD wird genauso die alte Fertigung für die Chipsäteze gebrauchen.
Und die kleineren Bretter sind auch sparsam. Viel verbrauchen tut da nur die
FX Abteilung.


Bei den billigen Intelbrettern kann ich nicht übertakten, kann keine Multis ändern
es fehlt z.B. die Möglichkeit Cores freizuschalten, detaillierte RAM und Prozessoreinstellungen fehlen auch etcpp. Das kann bei AMD schon das billigste Schundbrett. Dazu kann ich die Bretter meist über mehrere Prozessorgenerationen verwenden.

Und so einfach billg AMD, teuer und schnell Intel ist es eben nicht.
Ich würd eher so schreiben, schnell genug im ST, sehr schnell im MT,
günstig->AMD. Sehr schnell bei ST, schnell bei MT und teuer->Intel.
 
Krautmaster schrieb:
Naja, ich denke die 11% Takt sind ja schon so gut wie sicher, demnach ist auch der Performancegewinn von 11% nahezu sicher.

Ist dir nicht aufgefallen dass der FX-8150 schon einen AllCore Turbo von 3,9 ghz hat?
Sollte der Allcore Turbo bei dem FX-8350 bei 4,2ghz liegen (wovon auszugehen ist), sind das keine 11% Steigerung.
Hinzukommt dass mehr Takt nicht 1:1 durchschlägt. Also nochmal 1 % ca anbziehen. Dann kommen wir auf 6 bis 7%.

Hinzukommt, dass die FPU kaum verbessert wurde, sondenrn weiterhin der Integer Bereich.
Rechne also bei Cinebench mit etwa 10% Mehrleistung.
Bei Spielen und Anwendungen die die FPU nicht übermäßig belasten, ist der Performancegewinn deutlich höher, eher Richtung 20%.

In den nächsten 2 Wochen erhalte ich ein Sample.
Ich bin schon gespannt wie hoch OC geht.
Beim Trinity Testmuster ging OC auf knapp über 5ghz unter Wasser mi einer moderaten V-core.
 
Zuletzt bearbeitet:
Das problem ist einfach nur was ich mit einer fast reinrassigen Server CPU im Desktop soll ? Die Leistung ist ja da, nur kann ich sie nicht voll nutzen da weder Spiele noch viele Anwendungen und schon so gut wie gar keine Benches dafür programiert sind,was das Abschneiden von AMD zum teil erklärt.
 
frage mich wie sich die kleinen visheras gegen die aktuellen kleinen bulldozer schlagen.
Der cache wird ja gekuerzt bei den visheras.
 
^^Nein?! Der Cache ist immernoch genau so groß. Beim FX 4XXX 4MB L2 und 8MB L3 (Der L3 ist übrigens bei allen FXs gleich.).
 
jumijumi
http://www.3dcenter.org/news/erneut-details-zu-weiteren-piledriver-basierten-vishera-prozessoren
Hm naja nicht ganz... CB steht zwar bei allen Modellen 8mb l3cache. Doch wenn man auf Fudzilla oder 3dcenter schaut, haben die 2 kleineren FX4 Modelle nur 4 MB l3 cache.

http://www.fudzilla.com/home/item/27951-three-amd-quad-core-vishera-parts-in-q4-12
The fastest quad-core from among them is called AMD FX-4350. It works at 4.2GHz native clock and 4.3 GHz turbo, has 12MB cache and 125W TDP.
This processor is set to replace currently available AMD FX-4170 clocked at the same clocks, but based on the older Zambezi core. The runner up is FX-4320 a 4GHz native clocked quad core with 4.2GHz turbo and 8 MB cache, all at 95W TDP.

This one should replace the AMD FX4150 quad-core with 12MB cache and 95W TDP and 3.9GHz / 4.1GHz with Turbo, naturally based on older Zambezi core. The last of three quad-cores is AMD FX-4300 clocked at 3.8GHz, but capable of hitting the magic 4.0GHz figure a dash of Turbo. It has 8MB of cache and 95W TDP.
12MB cache == 4mb l2 cache + 8 mb l3cache
8Mb cache == 4mb l2 cache + 4mb l3 cache.

(wobei sich die Frage stellt, ob das jz stimmt oder nicht, und ob die 4mb l3 cache nicht sowieso genug sind)
 
Zuletzt bearbeitet:
Also dann müssten Sie den Cache Bereich für die 4XXX ja erst neu designen, glaube nicht dass die das Machen. Aber der L3 sollte nun auch nicht so viel bringen.
 
Dass man L3-Cache offensichtlich einfach teilweise abschalten kann, sieht man ja bei den SB-E von Intel. Da hat der 3930K 3MB weniger als der 3960X und beide basieren auf dem selben Die.

Ich denke auch nicht, dass die Performance der 4-Core-Vishera darunter leiden würde. Große L3-Caches braucht man in erster Linie für die oft stark I/O-lastigen Server-Workloads. Bei typischen Desktop-Anwendungen bringt das herzlich wenig. (Auch das kann man an den SB-E sehen.)
 
naja aber bei den bisherigen FXs war der leider nicht zu deaktivieren . Trinity stärkt aber die Vermutung dahingehend, dass L3 in diesen Mengen im Desktopsegment eher überflüssig sind. Lieber ein Modul mehr ;)
 
Zumindest bei den Athlon II und Phenom II hat der L3 vor allem in eingen Spielen und
bei Anwendungen in denen der auszuführende Code in den Cache passt einiges gebracht.
Das wird hier nicht anders sein....
 
Speziell bei Multicore CPU´s ist L3 Cache extrem wichtig um den Datenaustausch zwischen den Kernen zu beschleunigen, wenn Multicore Anwendungen laufen. Die Core müssen ja bei Multicore Anwendungen synchron gehalten werden.
Umso mehr Ghz eine CPU hat, umso wichtiger ist L3 Cache um maximale Performance zu erzielen.
Wenn AMD gegen Intel konkurieren will, kommen die um L3 Cache nicht herum. Das ist schmerzlich, weil L3 Cache ja auch gut Strom braucht, der die TDP wieder hoch schraubt.
 
Zurück
Oben