News Intel-Fertigung: 14 nm verfehlt Prognosen, Ausblick auf 10 und 7 nm

aklaa schrieb:
Früher waren das riesige Fortschritte von ... 90nm>65nm>45nm>22nm Fertigung.

Das ist immer x/Wurzel(2). Der "Fortschritt" (= Maß der Verkleinerung) bleibt gleich, aber die "Sprünge" werden eben kleiner, weil die Strukturen kleiner werden.

45 (/1,41=) -> 32 (/1,41=) -> 22 (/1,41=) -> 16 bzw.

28
(/1,41=) -> 20 (/1,41=) -> 14 (/1,41=) -> 10 (/1,41=) -> 7
 
Zuletzt bearbeitet:
Thane schrieb:
In Cinebench fließen aber immer sehr viele Optimierungen ein, so weit mir bekannt.
Das sollte bei Anwendungssoftware aber auch der Fall sein, zumindest bei den wirkliich zeitkritischen Algorithmen.
Thane schrieb:
Außerdem müsstest du für einen optimalen Vergleich mit den gleichen Taktraten vergleichen, du willst ja wissen, wie sich die Performance zwischen den Generationen verändert hat.
Dann schau Dir meine Rechnungen noch einmal genau an, denn ich haben die Punkte jeweils durch die Taktraten geteilt. Klar ist das nicht 100%ig weil z.B. die RAM Performance ja nicht 1:1 mit dem Takt skaliert und Messung bei denen die CPUs mit dem gleichen Takt laufen wären noch genauer, aber ich muss mit dem Leben was CB in den Reviews veröffentlich hat und so ungefährt vergleichbar sind die Taktraten der getesteten CPUs ja schon, ebenso wurden vergleichbare Modell genommen und keine Exoten.
Thane schrieb:
Teilweise haben die neueren Modelle ja auch 15% oder noch mehr Takt. Da sind 20% Mehrleistung am Ende nicht mehr so gewaltig ;)
Nochmal: Die Ergebnisse sind schon durch den Takt geteilt, weshalb ich auch extra Pkt/GHz als Einheit dahinter geschrieben habe um das zu verdeutlichen. Wer das trotzdem nicht sieht oder versteht, der sollte sich dann beim komentieren besser etwas zurückhalten!

modena.ch schrieb:
Ausserdem ist Cienbench etwa so aussagekräftig wie ein Furz in der lauen Sommernacht.
Jeder Benchmark trifft immer nur eine Aussage über das, was er gemessen hat und ein synthetischer Benchmark versucht gezielt nur einzelne Aspekte der Performance zu ermitteln. Da ist Cinebench gegen denen die nur die reinen Integer-, Float- oder Speicherdurchsatzleistung ermitteln, schon recht breit aufgestellt. Aber es vermeidet eben auch Flaschenhälse wie I/O, damit man überhaupt eine Aussage über den ermittelten Aspekt bekommt.

modena.ch schrieb:
Da braucht man Vergleiche mit Produktiv-Software, bei gleichem Takt.
Das ist aber dann wieder etwas anderes und da Produktiv-Software meist auch von I/O und anderen Dingen abhängt die mit der CPU Performance nichts zu tun haben, benchmarkt man damit am Ende ein Komplettsystem und nicht mehr nur die CPU.

Das eine ersetzt das andere also nicht, sondern synthetische Benchmarks sind immer dann wichtig, wenn es darum geht die Performance der Komponenten zu ermittel, eben damit man weiß ob und wie viele eine CPU oder eine SSD schneller ist als die anderen. Die Anwendungsbenchmarks sind dann der zweiten Schritt um zu erkennen, wie sehr sich der Vorteil bei der Anwendung bemerkbar macht und wenn ein synthetischer Bechmark für eine CPU 10% mehr Performance verspricht, die Anwendung aber nichts davon merkt, dann erlaubt das halt die klare Aussage, dass diese Anwendung nicht von der Performance der CPU abhängt, die CPU also nicht auslasten kann und der Flaschenhals woanders liegt, sich mithin eine Aufrüstung der CPU auch gar nicht lohnt um bei der Anwendung einen Performancegewinn zu erzielen. Daraus aber abzuleiten die CPU wäre nicht schneller geworden, ist ebenso falsch und wie dumm, wird aber leider trotzdem sehr oft gemacht.

Nochmal: Synthetische Benchmark sind dafür da das Potential einer Komponente zu ermitteln, also wie die Leistung eines Teils des Systems ist und zwar so unabhängig vom Rest wie möglich. Reale Anwendungen zeigen dann für diese Leistungsänderung sich auf die getestete reale Anwendung bei dem konskreten Testsystem auswirkt, wobei teils schon eine Änderung an anderer Stelle, bei Games z.B. die Verwendung einer anderen Graka, die Ergebnisse wieder verändern kann, wenn sich dadurch der Falschenhals verschiebt. Das Problem welches die meisten damit haben, liegt in der Interpretation des Ergebnisse, also z.B. in der Erwartung Ergebnisse synthetischer Benchmarks dann 1:1 auf reale Anwendungen übertragen zu können, aber das geht eben praktisch nie, was aber das Ergebnis des synthetischen Benchmarks nicht zu einem Fehler oder als aussagefrei abstempelt. Der Fehler ist dann einfach nur die Erwartung diese Ergebnis zu auf etwas übertragen zu können, was aber eben nicht geht und was auch nicht der Anspruch so einer Benchmarks ist, die messen eben nur das was sie testen und sagen nicht aus, wie sehr sich das in realen Anwendungen auswirkt.

Man schau sich mal als Beispiel die integrierten Benchmarks von WinRAR oder 7-zip an, bei letzteren schafft ein i7-4790k 2,4 mal so viele Punkte wie eini 3-4330. Entpatckt man in einer RAM Disk oder von einer 950 Pro, könnte davon was zu spüren, sein, aber wenn man Dateien von einer USB2 Platte entpackt, wird wohl kein Unterschied zu spüren sein und das wird wohl auch keiner ensthaft erwarten, weil jedem klar sein sollte, wo da der Falschenhals ist. Ist deswegen das Ergebnis des Benchmarks falsch oder aussagefrei, nur weil es in diesem Fall eben nicht auf die Praxis übertragbar ist? Das wird wohl keiner behaupten, weil der Flaschenhals sehr offensichtlich ist, aber wieso wird es immer dann unterstellt, wenn der Flaschenhals weniger offensichtlich ist?
 
Oh Mann, wie war es noch damals?
"Unter 100nm ist Physikalisch nicht mehr möglich"
Unglaublich wenn die auf 10nm bald gehen.
 
Zurück
Oben