News AMD Bristol Ridge: 15 Modelle der letzten Modul-APU-Familie spezifiziert

Alles klar, danke dir Volker!
 
Nicht ich schrieb:
Das kannst du so nicht sagen, du musst das taktbereinigt betrachten, hier ist der V3 ganze 300 MHz höher getaktet, bei 2100 MHz Ausgangstakt sind 14 % der Leistungssteigerung alleine auf den höheren Takt zurückzuführen.

Nicht so ganz, das Komplettpaket muss man vergleichen. Das MHz-Vergleichen nur die kleinen Kiddies hier. Glaubst du irgendein in der Wirtschaft interessiert jetzt ob die CPU für selbes Geld nun 300 MHz mehr Takt hat und somit die Steigerung nur über den Takt erreicht wurde? Nö, denn die Leistung/Preis in Kombo mit Leistung/Verbrauch ist interessant und nur das. Ob die Leistung nun über eine bessere Fertigung erreicht wird, mehr Kerne durch bessere Fertigung, bessere Architektur oder Zauberei. All das bringt mehr Leistung zum vorherigen Produkt und genau das ist nur Interessant. Und nicht vergessen, bei CPU macht das Produkt eben nicht nur die Architektur aus sondern auch die Fertigung die wiederum Takt und Kerne beeinflusst. Warum das dann nicht mit gerechnet werden soll wobei das ja zum Produkt gehört und man es geliefert bekommt, konnte noch keiner begründen.
 
Willst du nicht lesen, oder kannst du nicht?
Ich hatte die größten Posten für die Leistungssteigerung in deinem Beispiel genannt. Ich habe nicht gesagt, dass es nicht einen Unterschied gäbe, aber von den 20-30 % Leistungssteigerung beruhen halt gut die Hälfte der einfach darauf, dass an der Taktschraube gedreht wurde. Intel hat halt aus Marketinggründen den gleichen Namen in v3 gewählt. Das ist aber Makulatur. Du stellst dich als jemand da, der dem Marketing voll und ganz ergeben ist und jede Parole glaubt.


Die 2,4 GHz hätte man auch bei einem Produkt der Generation v2 haben können und solange die TDP im üblichen Rahmen liegt, ist dem Business die Leistung pro Watt i.d.R. herzlich egal. Im Vergleich zu den Kosten für Anschaffung (Abschreibung 5 Jahre), Lizenzen f. Software, Wartungsverträge und Betriebsführung jucken ggf. die 3 w/h Ersparnis bei einem Generationswechseln überhaupt niemanden. Hast bislang nicht viel mit (großen) Geschäftskunden zu tun?

Ein bisschen was von den 20-30% sind der schnellere RAM und Optimierungen in der Architektur.
Meine Aussage zielte darauf ab, dass dein Post unreflektiertes Fanboy-Gelabere ist.
Du siehst die Leistungssteigerung zur Vorgängergeneration nur inkl. Taktsteigerung, das ist schlichtweg ein ungenauer Ansatz. Nicht umsonst vergleichen mittlerweile die meisten seriösen Reviews bei einem Generationenwechsel zusätzlich die Leistung bei gleichem Takt.
Da sieht man was tatsächlich bei rumgekommen ist. Wenn man ausreichend kühlen und mit Strom versorgen kann ist die höhe Taktrate fast willkürlich definierbar und daher nur sekundär aussagekräftig über die Leistungsfähigkeit einer CPU-Architektur. Man kann versuchen Designfehler durch höheren Takt auszugleichen, aber leistungsfähiger wird das Design dadurch auch nicht. Das haben Netburst und Bulldozer anschaulich gemacht.


Die Kiddies von denen du sprichst, die schauen nur auf die Absolute GHz Zahl und nicht auf die dahinter stehende Leistung, DIE kaufen sich auch einen FX weil er einen hohen Takt auf dem Papier haben (nicht verwechseln es gibt Leute die ihn aus anderen Gründen bewusst kaufen) und glauben "man ist der schnell". Die haben auch Intel zu Netburst-Zeiten gekauft.

Was die "alten" Architekturen angeht, in 5 oder 10 wird man das Gleiche über heutige Architekturen sagen
 
Zuletzt bearbeitet:
Jetzt mal im Ernst. Man kann doch nicht Fortschritt singulär über Leistung pro MHz oder auch die Taktfrequenz definieren. In der Betrachtung ist das zwar durchaus interessant, unterschlägt aber die Effizienz und die spielt bei verrichteter Arbeit immer eine wichtige Rolle. Erst recht da das klassische ATX Format welches grundsätzlich hohe Verlustleistungen abführen kann kaum mehr der große Verkaufsschlager ist. Die Masse definiert sich heute über Mobile und Small Form Factor. Anders formuliert: Der Schwerpunkt liegt bei der Effizienz.

Relationen: Cinebench 15

Skylake zu Haswell:
i7-6700K zu i7-4790K: 101% Performance bei 84% Leistungsaufnahme
i5-6600K zu i5-4690: 106% Performance bei 78% Leistungsaufnahme

Skylake zu Ivy Bridge:
i7-6700K zu i7-3770K: 133% Performance bei 104% Leistungsaufnahme

Skylake zu Sandy Bridge:
i7-6700K zu i7-2600K: 144% Performance bei 91% Leistungsaufnahme
i5-6600K zu i5-2500K: 131% Performance bei 76% Leistungsaufnahme


Relationen: Blender


Skylake zu Haswell:
i7-6700K zu i7-4790K: 102% Performance bei 65% Leistungsaufnahme
i5-6600K zu i5-4690: 98% Performance bei 77% Leistungsaufnahme

Skylake zu Ivy Bridge:
i7-6700K zu i7-3770K: 137% Performance bei 102% Leistungsaufnahme

Skylake zu Sandy Bridge:
i7-6700K zu i7-2600K: 147% Performance bei 89% Leistungsaufnahme
i5-6600K zu i5-2500K: 135% Performance bei 76% Leistungsaufnahme

Quelle: https://www.computerbase.de/2015-10/intel-core-i5-6500-5675c-4690-test/4/
 
Zuletzt bearbeitet:
Schön, dass du einen sythetischen Benschmarks anführst und einen mit Leuchtturmfunktion, schau dir mal im verlinkten test das Overall-Ergebnis an.
Es ist richtig, dass gerade mit Broadwell und Skylake Energie gespart wird, aber das liegt auch zum Großteil am 14nm Prozess, wäre bei Haswell, würde man ihn in 14 nm produzieren nicht viel anders.
Daher kein Kriterium, was besonders für Skyake spricht, zumindest als Architektur.
Die Mehrleistung erreichst du durch Mehrtakt. Wen wundert es, dass ein 3,4 GHz i7 einem 4 GHz i7 unterlegen ist.

Also wieviel sparsamer wäre denn nun der Skylake bei gleichem Takt und 22nm???? Da bleibt nicht mehr viel. Und wenn man die Fertigungsgröße weg lässt, damit es einigermaßen vergleichbar wird, sollte man der Effizienz nicht allzugroßen Gewicht geben. Bei Ivy und Haswell lässt es sich diesbezüglich gut vergleichen, weil die Fertigungsgröße gleich blieb.

Die Fertigungsgröße ist nicht unmittelbar an die Architektur gekoppelt, der Fertigungsprozess hinegen schon.

Und mir geht es hier um die spür- und messbaren Architekturverbesserungen bzgl. der Leistungssteigerung bei gleichen Bedingungen. Effizienz hat mit der reinen Leistungssteigerung nichts zu tun, denn die Leistungsaufnahme von CPUs steigt nicht linear an und wird mit dem relativ zunehmenden Takt schlechter.

Um am Ende zu sagen, welche CPU besser ist, sollte man natürlich auch die Effizienz betrachten, aber dein Getrolle in dem Post an dem ich mich störe auf der Seite zuvor vermischt genau beides. Du willst was zur Leistungssteigerung schreiben, schreibst aber nur was zur Gesamtbetrachtung und setzt beides gleich. Das heißt der Zugewinn der neuen CPU wurde durch einen höheren Takt primär erzielt und das sollte man beim Architekturvergleich berücksichtigen.

Bedenke es geht um den Architektur, nicht CPU Vergleich!

Der Kern meiner AUssage findet sich auch im Fazit des Tests:
.... fehlen dem Core i5-6500 nämlich schnell 200 MHz gegenüber dem Core i5-5675C, obwohl der maximale Turbo auf einem Kern derselbe ist. Das macht keine neue Architektur binnen einer Generation wett,....
.
und
Mit nur noch 3,3 GHz bei voller Last auf vier Kernen liegt der Takt des Core i5-6500 geringer als beim Core i5-2500K mit 3,4 GHz bei voller Last. Das Resultat zeigt sich in Spielen: Der Core i5-6500 ist am Ende nicht schneller als ein 2500K aus dem Januar 2011
Das heißt, die neue Architektur schafft es eben nicht mal eben so 200 MHz rein durch die Architektur auszugleich. Wie willst du dann die Behauptunghalten, dass eineneue Architektur innerhalb von einer Generation 20-30% Mehrleistung bringt? Das entsprächen je nach dem mal locker 200-300 MHz oder mehr.

Und genau da, bei der Architektur Entwicklung hat Intel es sich bisweilen gemütlich gemacht, insbesondere in der Zeit seit Sandy-Bridge. Sie schaffen ja bei einem Handicap von 100 MHz noch nicht mal eine 5 Jahre alte Architektur zu schlagen, und achja, an die Kondensatorzähler unter uns, der Sandy-Bridge ist deutlich schlechter bestückt.

Bei der CPU-Bewertung, wäre rein von der Leistung und Preis betrachtet, übrigens für mich der Broadwell der aktuelle Gewinner.
 
Zuletzt bearbeitet:
Volker schrieb:
Ne das sind Grafikchips, die kommen eher und vielfältiger. Da darf GF auch mal ran im kommenden Jahr. AMD sprach gestern nochmal schön durch die Blume:

We have taped out multiple products just in the last few months on FinFET and we will have volume production in FinFET products in 2016 at more foundry partner.

Könnte auch eine Ente sein. Zuzutrauen wäre es.
Also ich denke ZEN ist Taped Out..
 
Nunja, wir wissen jedenfalls das Grafikchips bei GF auch von AMD taped out sind. Und die kommen auch deutlich eher als neue CPUs, AMD hat ja mindestens zwei schon für das neue Jahr angekündigt. Also haben wir auf der einen Seite das, was sicher ist. Und auf der anderen die Wunschvorstellung. Aber gut, Ente hin oder her, es dauert noch ein Jahr bis Zen da ist. Und an dem Plan hat sich seit Mai auch nichts geändert.
 
VikingGe schrieb:
Ein i5-6200u erreicht laut Notebookcheck zum Beispiel dieselben Cinebench-Punkte wie ein A10-7700K, das ganze dann aber bei 15W TDP statt 95.

Der Vergleich hinkt vorne und hinten.
1. ist die Intel-CPU eine low-Voltage-CPU und lässt beinahe 0 Spielraum für OC zu, bei dem 7700K ist da auf jeden Fall ordentlich Spielraum
2. du vergleichst eine Notebook-CPU mit einer Desktop-CPU
3. Die höhere TDP des 7700K kommt größtenteils von der deutlich stärkeren iGPU im Vergleich zum 6200u

Äpfel mit Birnen und so, schon mal gehört? :freak:
 
Dazu Cinebench->komplett wertlos als Bench

@Volker
Bisher ging man doch davon aus, dass auch die künftigen GPU ausschliesslich von TSMC kommen werden.
GF wäre da eine Überraschung, weil die Yelds doch bisher ziemlich schwach waren.
 
modena.ch schrieb:
Dazu Cinebench->komplett wertlos als Bench
Das Benchmarks sinnlos sind, sagen immer alle denen die Ergebnisse nicht passen und die nicht verstehen wozu solche Benchmark gemacht sind, welchen konkreten Aspekt der Performance sie also abdecken. Das passiert eben bei den Banchmarks die keine Anwendungstests sind bei denen die Leistung des Gesamtsystems ermittelt wird, sondern welche die konkret die Leistung eines Teilbereiches ermittelt wird. Der Fehler den viele User dabei begehen ist, die Ergebnisse dann als Erwartung auf die Ergebnisse in konikreten Anwendungen / Spielen zu projezieren, was aber wegen der Anhängigkeit von anderen Komponenten natürlich i.d.R. nicht möglich ist und auch nicht der Sinn solcher Benchmarks von konkreten Teilakspekten der Performance es Rechners ist.

Den gleichen Ärger hat man auch immer wieder bei den SSDs, da erreicht eine schnelle PCIe SSDs wie die 950 Pro dann auch die fünffache seq. Leserate wie eine SATA SSD, aber am Ende bleibt beim Laden des Programmes oder Spiels nur wenig davon übrig, deswegen ist aber der Benchmark der die Leistung der SSD ermittelt nicht wertlos, es zeigt einfach nur, dass der Flaschenhals eben nicht die SSD ist, wenn die viel schnellere SSD dann bei der Anwendung ihr Performance nicht in eine größere Vorteil ummünzen kann.
 
bensen schrieb:
Mh verstehe den niedrigen Speichertakt bei den 15W SKUs nicht. Haben die Angst, dass die GPU die 15W sprengt wenn die nicht durch den Speicher ausgebremst wird?

Achtung, Vermutung: Wenn der Speicher nicht mehr so schnell angesprochen werden muss, kann der Speichercontroller und auch der dazugehörige "Bus" langsamer takten. Beides spart Energie. Dass man sich damit auch die GPU indirekt ausbremst und damit weniger Energie verbrät, halte ich für "ungeplant"... - Wobei ich manchmal durchaus zu sehr Optimist bin. ^^

Regards, Bigfoot29

Zusatz:
@Benchmark-Diskussion: Mal ganz ehrlich... Benchmarks sind e-Penis-Meter. Jeder versucht, den größten zu haben. Darauf hin werden mitunter sogar Teile der CPU optimiert. Und dass gerade Cinebench nicht unbedingt mit generischen Compiler-Flags optimiert wurde, ist wohl auch nix neues. Ein Benchmark ist immer nur ein relativer Vergleich. Letztlich ergibt ein auf das Zielpublikum zugeschnittenes Gesamtportfolio doch einen realistischeren Überblick. Was nützt es mir, wenn meine CPU in 7zip die Bude rockt, weil es dafür dedizierte Funktionen nutzen kann, dafür aber in Excel bei jeder Menü-Auswahl Bedenksekunden braucht oder in Spielen bei 800x600 Bildpunkten bei Minimum-Settings ins CPU-Limit läuft?
 
Zuletzt bearbeitet:
SSJ schrieb:
Ich erwarte von den Zen-CPUs nicht allzu viel.

Intel hat schon den Fahrplan für die nächste Dekade aufgestellt, und sollte wider Erwarten AMD doch mal etwas Konkurrenzfähiges rausbringen, kann Intel immer etwas rausbringen um die AMD CPUs wieder obsolet aussehen zu lassen.

Mit so einer Aussage wäre ich vorsichtig. Ist es sinnvoll, sich Dinge in der Hinterhand zu halten und diese nicht zu patentieren? Wie groß schätzt man die Gefahr ein, dass einem dann was vor der Nase "weggeschnappt" wird?
Kann mir kaum vorstellen, dass sich große Unternehmen wie Intel erlauben können, technologische Fortschritte so start in der Hinterhand halten zu können.
 
...nichtsdestotrotz hat Intel genug Möglichkeiten, bei den Quads (jetzige i5/i7) takttechnisch auch kurzfristig deutlich nach oben zu gehen und einfach die TDP raufzusetzen. Das Gleiche kann man machen, indem man die Kernzahl problemlos (innerhalb eines Jahres) hochsetzen kann. Marge gibts da genug, dass Intel keine Verluste einfährt.

Entsprechend glaube ich auch nicht, dass die Zen Intel links überholen. Wenn wir Glück haben, spielen die CPUs in der Leistung/Abwärme-Kategorie wieder gleich auf. Und das, ohne bei SingleCore-Anwendungen (WoT anyone?) allzu sehr abzukacken. Die technischen Daten legen das zumindest nahe, dass man DIESES Ziel erreichen könnte.

Warten wir es wohl einfach ab.

Regards, Bigfoot29
 
buergerkneifer schrieb:
Mit so einer Aussage wäre ich vorsichtig. Ist es sinnvoll, sich Dinge in der Hinterhand zu halten und diese nicht zu patentieren? Wie groß schätzt man die Gefahr ein, dass einem dann was vor der Nase "weggeschnappt" wird?
Kann mir kaum vorstellen, dass sich große Unternehmen wie Intel erlauben können, technologische Fortschritte so start in der Hinterhand halten zu können.

Wer spricht denn von wirklich neuer Technologie?
Intel wird höchstwahrscheinlich noch stärkere CPUs mit heutigen Architekturen in der Schublade liegen haben, kein Unternehmen verschießt sein gesamtes Pulver ohne Notwendigkeit, die ja bei der jetzigen Situation wirklich nicht gegeben ist.
Gibt es eine neue Technologie in einem verwertbaren Stadium, wird diese natürlich auch zeitnahe patentiert.
 
Bigfoot29 schrieb:
Achtung, Vermutung: Wenn der Speicher nicht mehr so schnell angesprochen werden muss, kann der Speichercontroller und auch der dazugehörige "Bus" langsamer takten. Beides spart Energie.
Das ist sicher richtig. Nur wäre es dann ziemlich traurig, dass nicht mehr geht.
Bei der GPU kann AMD Intel so richtig in den Arsch treten. Das klappt aber nur wenn die GPU nicht ins Speicherlimit rennt. Bei 1866 MHz wirds nicht leicht gegen Intels 15W Modelle mit GT3e. Gut ist auch wieder ein anderer Preosbereich, aber schon schade, dass sie den technologischen Vorsprung in Sachen GPU nicht nutzen können.
Sinnvollerweise nutzen die Hersteller die 35W SKUs mit einer cTDP von 25W und schnellem Speicher. Aber mir wäre es lieber gewesen AMD bringt direkt weitere Modelle mit dieser TDP. So weiß man immer nicht, wie der Hersteller die CPU jetzt konfiguriert hat.

Was weiterhin nirgends gelistet ist, ob die APUs auch LPDDR4 unterstützen. Bei "Ultrabooks" ist das schon eine interessante Sache, da ist der Gesamtstromverbrauch so gering, dass auch wenige W beim Speicher gut was ausmachen. Bei Intel wird schon breitflächig LPDDR genutzt und das nicht nur beim Core M sondern auch bei den 15W Modellen.
 
Zuletzt bearbeitet:
Holt schrieb:
Das Benchmarks sinnlos sind, sagen immer alle denen die Ergebnisse nicht passen und die nicht verstehen wozu solche Benchmark gemacht sind, welchen konkreten Aspekt der Performance sie also abdecken.

Cinebench ist nunmal ein wirklich eindimensional abbildender Bench.

Erstens geht er fast nur auf die FPU Leistung,
Zweitens mit dem Intel Compiler gemacht ohne die geringsten Optimierungen einer Architektur zu berücksichtigen.
Das heisst wenn ich die Software neu compiliere und ich mir die Mühe machen würde zwei lächerliche Flags zu setzen, einmal
eine AMD Architektur-Optimierung welche seit K10 greift, gibts schon mal 10-20% Mehrleistung auf einem BD und wenn ich mir dann noch die Mühe
mache den BD Flag zu setzen kann es sogar 60-70% Mehrleistung für jeden Bulldozer basierenden Chip geben.
Drittens basiert Cinebench auf die Maxon 4D Software, welche auf dem Markt keine Rolle spielt und keine Sau einsetzt.

Daher der denkbar schlechteste Benchmark den ich mir vorstellen kann.
 
Zuletzt bearbeitet:
Eindimensionale Benchmarks sind ja gerade um einen Aspekt der Pefermoance möglichst isoliert zu ermitteln, aber das begreifen eben viel nicht. Und bzgl. der Compilerflags: Dann nimm einen Open-Source Benchmark und kompiliere selbst, wie es ja bei Linux nicht unüblich ist. Aber da man gekaufte Windows-SW nicht selbst neukompilieren kann, gar das dann noch weniger über die Performance mit realer SW unter Windows aus also sowieso schon. Der Intel Compiler wird zwar gerne aber nicht nur in den Benchmarks eingesetzt und niemand hat AMD gehindert selbst einen Compiler zu bauen der vernünfitg optimiert, aber sie haben es nicht getan und stattdessen nur halbherzig am sehr unbekannten Open64 Compiler mitgearbeitet.
 
Das ist schon klar, aber was bringt mir so ein Bench wenn ich damit die Leistung der modernen Architekturen
gar nicht abrufe, da ich die Optimierungen ignoriere?
Ist doch kompletter Blödsinn...
ich geh mal stark davon aus dass sie die Optimierungen dann im 4D setzen. Sonst gehören sie in die
Noobcoder-Schule da sie nicht mal so simple und doch deutlich Leistungssteigerungen mitnehmen.

Ich wollte keinen Compilerstreit vom Zaun brechen, aber schon im Intel-Compiler kann ich diese
AMD spezifischen und auch Intel spezifische Optimierungen setzen wenn ich nicht zu faul/zu blöd bin ein paar Flags anzuhaken.
 
Wie viele Programme kannst Du denn in je einger Version mit Optimierung für AMD oder Intel CPUs kaufen?
 
Für CPU-spezfische Optimierungen bestimmter Codeteile braucht man nicht einmal zwei verschiedene Binaries, nur irgendeinen Mechanismus, der bei Programmstart ein paar Funktionspointer austauscht. Genau das tut der ICC, wenn man ihn dazu anweist, und genau das ist auch der Grund, warum Cinebench R... R10, glaube ich, mehr Punkte auf den AMD-Chips gebracht hat, wenn man dem vorgegaukelt hat, er liefe auf einem Intel.

Das Problem ist nur, dass das kein neutraler Compiler so ohne Weiteres unterstützt...
 
Zurück
Oben