News Erste Benchmarks zum „Vishera“-Desktop-Prozessor von AMD

@DinciVinci

na deine Rechnung mit den Angeblich so gefälschten Werten ;)

Coolaler hat nen Namen.

Zudem kannst du nicht einfach den Wert eine i7-3770K heranziehen, warum? Weil die Taktangabe in der Anzeige der Standardtakt ist, nicht der mit der gebecht wurde. Was meinst du wieso da ein 3770K auf 9.XX Punkte kommt.

Bei CB hat dieser @ stock 7.54.

Die Werte von Coolaler werden passen. Der verliert seinen guten Ruf nicht durch schlechte Fakes.
 
Zuletzt bearbeitet:
nanoworks schrieb:
Ich bin sowieso fest davon überzeugt, dass es für den Desktop Prozessor wie wir ihn heute kennen, keine Zukunft gibt. Das werden alles die APUs übernehmen.

Es ist doch in jeder Hinsicht besser, einen Chip zu verwenden, der aus vielen hochspezialisierten Recheneinheiten besteht, die alle nur die eine Aufgabe übernehmen, für die sie integriert wurden, anstatt einen hochgezüchteten Mehrkerner anzuheizen, der alles mit der Brechstange erledigt.

Für die Aussage empfehle ich dir ein bisschen Lektüre in Bezug auf Prozessorgeschichte. Vor allem hinsichtlich der Stichworte CISC und RISC.

Das was du vorschlägst gab es früher schon mal. Mit jeder neuen Prozessorgeneration wurden neue Befehlssätze mit neuen speziell dafür konstruierten Recheneinheiten eingeführt. Die Prozessorarchitekturen die darunter fielen, nannte man CISC (Complex Instruction Set Computing). Ergebnis des Ganzen war letztendlich eine Studie von glaub IBM die zu dem Schluss kam, dass die ganzen spezialisierten Anweisungen nur in ungefähr 1% aller Befehle verwendet wurden und der Rest auf die Grundfunktionen wie MAD und co. zurückgriff. Gleichzeitig machten diese Spezialisierungen einen Großteil der Die-Fläche aus.

Die x86 Architektur die wir heute noch für Desktopprozessoren verwenden gehört eigentlich zu CISC.
Es kam allerdings dann zu einem Umdenken und man entfernte vieler dieser Spezialisierungen wieder und steckte die Transistoren lieber in die Grundfunktionen um diese zu beschleunigen. (Das was du hochzüchten nennst) Erst das brachte wieder gute Geschwindigkeitszuwächse und die neuen RISC (Reduced Instruction Set Computing) CPUs hängten ihre alten CISC Kollegen um Längen ab.
Das Ende vom Lied ist heute, dass sämtliche x86 CPUs die du heute kaufen kannst, egal ob von Intel oder AMD, intern immer RISC sind, also nur relativ wenige Befehle unterstützen. Vor diese eigentliche Rechneinheit ist ein Interpreter geschaltet, der die alten und komplexen x86 Befehle in diese grundlegenden Befehle zerhackt. Nur dadurch sind die heutigen CPUs überhaupt so schnell.

AMD entwickelt jetzt mit ihrem ach so tollen APU-Ansatz genau in die gegenteilige Richtung und holt die ganzen Probleme die seit Jahren Geschichte waren, wieder mit ins Boot.

Da wäre das Problem, dass es praktisch unmöglich ist, die ganzen separaten mit verschiedenen Funktionen belegeten Einheiten, vollständig auszulasten. Wann braucht man schon mal die GPU + CPU auf einer APU genau in dem Maße, dass sich das genau ausgeht? In 99% der Fälle wird eines von beiden der Flaschenhals werden.
Sofern man die GPU überhaupt braucht. Wenn man gerade was macht, das die GPU überhaupt nicht gebrauchen kann, dann sitzt ein riesiger Teil des Dies blöde rum und trägt absolut nichts zur Rechenleistung bei. Die Transistoren die dann idlen hätten früher in der CPU gesteckt und dort die Rechenleistung immer erhöht.

Dass AMD zusätzlich noch immer absolut kein Konzept vorgelegt hat, wie sie das Problem mit den Speicherbandbreite bei den APUs lösen wollen, spricht Bände. Schon jetzt braucht man absoluten Top-RAM um wirklich die volle Leistung aus der APU zu holen, weil die mickrigen 2x64bit DDR3 eben nicht für GPU+CPU reichen.

Mehr Speicherkanäle gehen nicht, weil das den Pincount und die Komplexität der Mainboards nach oben donnert wie blöd, siehe Intels LGA-1366 und LGA-2011 Plattformen mit ihren schweineteuren Mainboards.

Schnellerer Speicher ist aber nunmal auch keiner in Sicht, weil DDR4 noch auf sich warten lässt. Und bis der dann mal in Masse auf den Markt kommt, wäre der wahrscheinlich auch schon wieder nicht schnell genug.

Es gibt schlichtweg einen Grund warum selbst meine mickrige GT425M hier im Laptop über eigene 128bit GDDR3 verfügt. Die Anbindung kann AMD aber über einen normalen Prozessorsockel nicht bieten.

Nur scheint das bei AMD keinen zu stören. Es kommt kein Piep darübe, wie man das Problem anzugehen gedenkt und gleichzeitig wird der GPU Part in den APUs immer weiter aufgeblasen, obwohl die Dinger jetz schon ins Bandbreitenlimit knallen.
 
Gut, mag sein, dass es der Standardtakt bei Cinebench in der Balkenanzeige ist und die Werte nicht gefälscht sind. Das bedeutet aber dann auch, dass der Vishera deutlich weniger zurückliegt, als es in der Grafik den Anschein hat. Darum gings mir ja. Er würde nach der Rechnung mit Standardtakt trotzdem über dem 2700k liegen.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@ dgschrei
Gibt es bezüglich der Speicherbandbreite bei AMD nicht Pläne, relativ große Speichermengen direkt mit auf die APU zu bringen?
So ähnlich wie der eDRAM-Framebuffer bei der XBox360.

Ansonsten gebe ich dir Recht. Ich sehe (abseits von kleinen Mobilgeräten oder bei kostengünstigem Low-End) nicht wirklich einen Vorteil darin, die GPU-Funktionen auf Teufel komm raus in die CPU zu quetschen. Es gab ja schon mal Zeiten, da hat man die CPU die Grafikberechnungen machen lassen und aus guten Gründen hat man die immer mehr auf dedizierte GPUs ausgelagert.

Spätestens, wenn es um echte High-End-GPUs geht, sehe ich auch gar keine Chance, die in eine CPU zu integrieren. Die heutigen High-End-CPUs sind mal eben doppelt so groß wie Quadcore-CPUs inklusive iGPU und haben auch doppelt so viele Transistoren.
Da wäre es dann schon eher angebracht, eine x86-CPU mit in die GPU zu packen. :lol:
 
@dgschrei

Ich glaube du verwechselst da was. Die Fusion Prozessoren von AMD werden ja weiterhin x86 Kerne besitzen, nur werden diese eben zusätzlich noch mit Streamprozessoren und ARM Kernen zusammenarbeiten. Aber aus dem x86 Piledriver wird nicht durch Zauberhand eine CISC Piledriver, nur weil er auf das Die einer APU gequetscht wird.

Die Full-Fusion (Excavator+ ARM + GCN mit Context Switching und HSA Memory Management Unit in 22nm) wird 2014 erscheinen und DDR4 vorraussetzen. In meinen Augen macht es da überhaupt keinen Sinn jetzt schon ein Urteil zu fällen, ob DDR4 genug Bandbreite besitzt oder nicht. Wenn DDR4 da ist werden wir es wissen.

Und deiner Argumentation zur Folge müssten Intel und AMD beide in die komplett falsche Richtung entwickeln. Das denke ich aber nicht. Ich denke die Chipdesigner in Santa Clara und Sunnyvale beherrschen ihren Job auch ohne ein paar Ratschläge von dgschrei... ;)
 
Engineering Sample, Stepping C0 wird wohl kaum verkauft werden,
oft sind Engineering Samples auch noch nicht voll funktionsfähig, also mittels Microcode teildeaktiviert,
aber es zeigt schon ein gewisses Mindestmaß an Verbesserung, welches aber wahrscheinlich in der finalen Version nochmals überboten wird.

Ich schätze also eher, dass der Vishera 25% schneller wird, auch wegen höherem Takt.
 
Wenn man das mal linear interpoliert kommt man für einen 4GHz Vishera auf 6.95 Punkte im Cinebench 11.5 (der übrigens wie schon oft genug erwähnt beim Kompilieren für Intel optimiert ist).
Somit liegt Vishera knapp hinter Ivy Bridge (allerdings bei vermutlich höherer Leistungsaufnahme):
https://www.computerbase.de/2012-04/test-intel-ivy-bridge/30/

Jetzt muss nur noch der Dekoder der neuen Architektur endlich vernünftig arbeiten, denn der ist der wichtigste Punkt, der Bulldozer lahmlegt, nicht etwa die Modulbauweise.
Wenn dann noch die Speicherlatenzen in Zukunft optimiert werden sieht es schon wieder besser aus.
 
Zuletzt bearbeitet:
Ich denke die Chipdesigner in Santa Clara und Sunnyvale beherrschen ihren Job

Ganz erlich , ich weiss nicht was sich der Designer in der AMD Bude bei dem Bulldozer Design gedacht hatte und ich glaube dort in den Fluren laufen bestimmt schon ein paar Jungs mit geballter Faust in der Hosentausche an dem vorbei wenn Sie sehen das durch mittlerweile jahrelanges Arbeiten in dem Haus immer mehr Stagnation in der Leistungungsfähigkeit des Produktes deutlich wird.
 
@Voyager10

Das ist kein einzelner Modedesigner, sondern hunderte Ingenieure die da zusammenspielen.
Und wie schon geschrieben ist das grundlegende Design sehr gut, nur gibt es noch an vielen Stellen Flaschenhälse.
Vorallem der Dekoder ist hier die Hauptbremse, das hat aber prinizpiell wenig mit den neuen Modulen zutun, sondern an der Arbeitsweise des Dekoders ansich.
 
Wie gesagt: Es kommt auf das Langzeitziel von AMD an.

Wenn AMD davon überzeugt ist, dass in Zukunft kein Weg an APUs vorbeiführen wird, dann stehen sie momentan alles andere als schlecht da.
 
Mit dem Unterschied , APU´s konnte man auch aus dem Phenom2 bauen , zumal dieser ja immernoch fast gleich schnell ist ...
 
Ja, aber vielleicht funktioniert die Full-Fusion mit Bulldozer+GCN besser als mit Phenom+VLIW4.
 
Das wird der Vishera FX-8300 (95 watt tdP) sein. Cinebench ist total FPU lastig, und ich finde das ergebniss nicht schlecht, wenn man bedenkt dass man Pro-Takt mit 4 FPUs einem X6 mit 6 FPUs schon sehr nahe kommt.

(hoher Chiptakt) statt Intelligenz (hoher IPC)
Ja !!! Weil 3,3 ghz ein massiv hoher takt ist xD haha

Jetzt muss nur noch der Dekoder der neuen Architektur endlich vernünftig arbeiten,
Steamroller soll ja "angeblich" deshalb pro Modul 2 bekommen.
Wenn man also noch mal so ein Sprung erreicht, könnte man die IPC des Phenom II erreichen.
Was viele aber nicht bedenken, trotz 32 nm erreicht man einen sehr hohen takt. Das heißt wenn man die Schritte einhalten kann, ist es trotz größerer Strunktur (aber höheren Verbrauch) AMD möglich Intel immer näher zu treten. Natürlich weiß man nicht wie Intel reagiert xD
Im Endeffekt ist egal wie schnell AMD ist xD Da sowieso Intel deutlich im Trend bzw Markt sind

Die Prozessorarchitekturen die darunter fielen, nannte man CISC (Complex Instruction Set Computing)
Man unterscheidet immer noch zwischen CISC und RISC.
Das C sagt ja alles aus Complex, wobei R für Reduced steht.

Erst das brachte wieder gute Geschwindigkeitszuwächse und die neuen RISC (Reduced Instruction Set Computing) CPUs hängten ihre alten CISC Kollegen um Längen a
Der Grund wieso man auf CISC ging, ist dass es damals wesentlich einfacher zu realisieren war und der Verbrauch noch eher nebensächlich (Jz mal aus der Sicht des CB-Forum).
RISC hat sicherlich durch ARM einen riesen Aufwind bekommen. RISC ist wesentlich effizienter, aber auch wesentlich komplexer, besonders wenn man mehr Performance gewinnen möchte.
Bei ARM-Prozessoren verändert sich bsp der Kern nur geringfügig.
 
Zuletzt bearbeitet:
Tach,

Sag mal, wie kommt es, dass auf dem Sample noch 2011 steht? Wurde die CPU damals produziert oder nur die Kappe? ^^
Nein, mal im Ernst: Warum steht dort 2011 drauf :freak:
 
DinciVinci schrieb:
@Rock Lee:

Was denn für ein Beispiel? Komme grad nicht mit. :(

Oh, ich meine natürlich deine Behauptung, dass die Werte von Cinebench nicht stimmen und eigentlich besser sein müssten. ;)
 
Das habe ich nicht gesagt, lies bitte genauer! Ich sagte, wenn man die Werte als korrekt annimmt und auf einen FX-8350 hochrechnet, kommt mehr raus als z.B. bei einem 2700k.

Ferner hielt ich die i7-Werte für gefälscht, weil sie zu hoch liegen. Aber anscheinend stimmt die Taktangabe neben den Punkten nicht. Das ist aber grundsätzlich ein anderes Problem, nämlich eins der Einordnung der Einzelleistungen.
Ergänzung ()

Voyager10 schrieb:
Mit dem Unterschied , APU´s konnte man auch aus dem Phenom2 bauen , zumal dieser ja immernoch fast gleich schnell ist ...

Nein, genau DAS geht nicht, weil die FPUs beim Phenom nicht als Co-Prozessor organisiert sind, was somit das APU-Konzept, das letzten Endes vorsieht, GPU-Rechenwerke zur Unterstützung der CPU heranzuziehen, unmöglich macht. Das würde die Bemühungen um HSA konterkarieren!
 
Zuletzt bearbeitet:
@DinciVinci:

Cinebench erkennt übertaktete CPUs nicht und gibt immer den Standardtakt an. Sei mal vorsichtig und informiere dich, bevor du Fälschungen unterstellst.
 
DinciVinci
http://i1-news.softpedia-static.com...vy-Bridge-Core-i7-3770K-CPU-Benchmarked-5.jpg

Hier erreicht der i3770k mit 3,5 ghz genau 7,52 punkte.
Was auch interessant ist der Prozessor erreicht bei 3Dmark06 genau 7170 punkte.
Auf der Seite von cooaler erreicht man mit den 3,3ghz FX 8300 4956 Punkte

VANTAGE hat der FX mit 3,3 ghz angeblich 18705 punkte (FX 8150 hat nur 18045, der mit 300 MHz mehr Taktet) der 2600k hat 20773 Punkte

Also soviel ich weiß sind viele Games sehr FPU lastig und ich sehe es als sehr positiv, wenn man beim gleichen Takt mit 4 FPUs den PII x6 (FPUs) sehr nahe kommt, und das in einem sehr FPU lastigen Programm.
Könnte das nicht bedeuten, dass man bei Games, die nur 2 oder 4 threads unterstützen, deutlich schneller sein sollte als mit dem PII.
Das soll jetzt eine gezielte Frage an die jenige sein die sich mit Games besser auskennen xD
 
Zuletzt bearbeitet:
Zurück
Oben