News 10-nm-CPUs: Intel Ice Lake nimmt mit 28 Watt TDP die 4-GHz-Hürde

An Ice Lake sieht man wie problematisch 10nm noch für Intel sind. Sie taugen nicht für den Desktop, denn die jetzigen "Hochfrequenzkerne" (das ich das auch mal sagen werde) sind wegen ihrem Mehrtakt schneller als die jetzigen 10nm + IPC + weniger Takt. Daher werden weder Ice-Lake noch der Nachfolger Tiger Lake als Desktop CPUs erscheinen. Für den Desktop kommen auf Seiten von Intel daher Comet-Lake und Rocket-Lake, beide noch in 14nm +++++ (weiß nicht mehr bei wie vielen + wir bereits sind) und beide noch Skylake Architektur.
 
Teralios schrieb:
Wobei man das Spiel auch nicht ewig spielen kann. Man munkelt ja, das Intel die x86-Instruktionen nicht umsonst einmal aufräumen möchte um so ggf. Funktionsblöcke usw. zu sparen.

Ich bin mal gespannt, was noch kommt und in wie weit Intel und AMD die IA-32 mit der Zeit aufräumen werden, wobei AMD hier immer nur nachziehen kann, der Spielball liegt bei Intel.
Dazu hat @Smartcom5 letztes Jahr schon mal was recht Aufschlußreiches geschrieben.
In kurz, hatte AMD vor 20 Jahren schon mal versucht, bringt nix.

… weiß TechFA
 
Mir sind vernünftige, stabile 14nm CPUs in den nächsten Jahren allemal lieber als Käufer-Betatester-7nm-CPUs des Mitbewerbers.
 
  • Gefällt mir
Reaktionen: tom77 und QuasarAI
TechFA schrieb:
In kurz, hatte AMD vor 20 Jahren schon mal versucht, bringt nix.
AMD hatte damals nur nicht die Marktmacht dafür und sie haben sie auch Heute nicht. Intel ist da in einer anderen Position.

Zudem muss man hier unterscheiden. Smartcom kann da noch so viel erklären: Wir wissen nicht was da Intel wirklich vorhat und wie sie es genau lösen wollen. Man merkt im übrigen an diesem Thema, dass hier - und auch er - viele Sachen durcheinander geworfen werden und man ganz genau trennen muss, wovon man denn nun spricht! Und da trennt sich dann die Spreu vom Weizen und genau da liegt das Kernproblem dieser Diskussion.

In dieser Diskussion wird oft Architektur des Befehlssatzes (ISA) mit der µArch. Es gibt hier nun mehre Gerüchte und eines davon besagt, dass Intel die ISA aufräumen möchte, nicht dass sie die IA32-ISA über Bord werfen wollen. Es geht primär darum, dass man alte ungenutzte Befehle und Erweiterungen nun aus der IA32-ISA entfernt und so die IA32-ISA schlanker macht, als sie aktuell ist und so Transistoren einsparen kann um die µArch durch das Weglassen entsprechender Funktionsblöcke zu entschlacken. So wie es nun eben AMD mit ihrem 3dNow! gemacht haben bei Zen. Dadurch kann man alte Funktionsblöcke raus streichen.

Wovon Smartcom spricht ist, dass AMD damals damit experimentiert hatte den CISC-Teil ihrer IA32-Implementation über Bord zu werfen und damit den Decoder der die CISC Befehle in die RISC µOPs übersetzt. Das war damals zum scheitern Verurteilt und AMD war sich auch dessen bewusst, denn selbst Intel ist, obwohl sie einen »Decoder« für IA32-Befehle hatten mit IA64 gescheitert, weil damals die Preformance nicht stimmte. AMD hätte sich mit diesem Alleingang damals die gesamte Softwarebasis entzogen die mindestens eine Neucompilierung benötigt hätte.

Es kommt halt drauf an, was Intel wirklich plant. Räumen sie die ISA auf und entfernen alte nicht mehr benötigte Module und Bestandteile, kann das helfen die Prozessoren wieder schlanker zu gestalten und damit eben verbunden eine neue µArch.
 
Tronado schrieb:
Mir sind vernünftige, stabile 14nm CPUs in den nächsten Jahren allemal lieber als Käufer-Betatester-7nm-CPUs des Mitbewerbers.

So wie damals die Käufer bei Intel die bei der ersten Skylake Generation zugeschlagen haben ?

So wie vermutlich die Käufer der ersten 10nm Desktop-Produkte ?

Jedes mal wenn Intel eine "veränderte" Architektur gebracht hat, gab es beim Launch Probleme.


PS: Ich bevorzuge die 7nm Produkte mit geringem Verbrauch und einer gewissen Sicherheit. Nicht den Schweizer Käse der da in 14nm produziert wird.
 
  • Gefällt mir
Reaktionen: Bigfoot29
eine sommerloch "news" halt... um die pause bis zu den ryzen 4000 leaks zu überbrücken ^^
 
aldaric schrieb:
PS: Ich bevorzuge die 7nm Produkte mit geringem Verbrauch und einer gewissen Sicherheit. Nicht den Schweizer Käse der da in 14nm produziert wird.
Geringem Verbrauch? Wo hast du dich denn informiert? Nur auf der AMD Homepage? :)
 
Ich schaue mir den Gaming-Test an, sehe das der 3700x nur ein paar Prozentpünktchen hinter dem 9900k liegt, dabei aber zwischen 20-40% weniger verbraucht.

Wo hast du dich denn informiert? Bei der TDP von Intel ?

"Noch viel beeindruckender ist die mit Zen 2 gestiegene Energieeffizienz beim AMD Ryzen 7 3700X mit ebenfalls 65 Watt TDP für 349 Euro: Über 15 Prozent mehr Leistung liefert der Prozessor gegenüber dem Vorgänger Ryzen 7 2700X in Apps ohne AVX und Spielen im CPU-Limit, und das System nimmt unter Vollast trotzdem 23 Prozent weniger elektrische Leistung auf. Der in Multi-Core-Apps vergleichbar schnelle Core i9-9900K für derzeit 480 Euro genehmigt sich auf seiner Plattform unter Vollast im Test knapp 40 Prozent mehr Strom".
 
  • Gefällt mir
Reaktionen: dalaidrama, or2k und Heschel
@Teralios Ich meinte ja auch nicht nur was @Smartcom5 da beschreibt, sondern was er/sie (?) verlinkt hat. Der Artikel bei Anand und das Interview beschreibt ja, daß AMD wohl schon vorher versucht hat, die Intelarchitektur zu renigen und daß es damals schon nix gebracht hat weil der Anteil am echten Platz auf Prozessor ja dort beim AMD K8 schon irre klein war und man nix einsapren tut.

Teralios schrieb:
So wie es nun eben AMD mit ihrem 3dNow! gemacht haben bei Zen. Dadurch kann man alte Funktionsblöcke raus streichen.
3DNow! war doch auch schon eine Erweiterung von MMX, oder? Der letzte Prozessor mit 3DNow! war ausserdem der Phenom und die A-APUs und Bulldozer hatte schon kein 3DNow! mehr und nicht erst der Zen.

Teralios schrieb:
Wovon Smartcom spricht ist, dass AMD damals damit experimentiert hatte den CISC-Teil ihrer IA32-Implementation über Bord zu werfen und damit den Decoder der die CISC Befehle in die RISC µOPs übersetzt. Das war damals zum scheitern Verurteilt und AMD war sich auch dessen bewusst, denn selbst Intel ist, obwohl sie einen »Decoder« für IA32-Befehle hatten mit IA64 gescheitert, weil damals die Preformance nicht stimmte. AMD hätte sich mit diesem Alleingang damals die gesamte Softwarebasis entzogen die mindestens eine Neucompilierung benötigt hätte.
Aber der x86 und AMD64-decoder ist doch schon seit Ewigkeiten bloß ein decoder, der die x86-Befehle in CISC in RISC übersetzt?! Intern sinds ja eh alle de facto RISC-prozzis.

… weiß TechFA
 
Hier der wohl häufigste Anwendungsfall, Teillast-Verbrauch (Office oder Surfen):

806565


Und bei nur leichtem oc geht der Vollast-Verbrauch auch durch die Decke. Keine wirklich sparsame CPU.
 
TechFA schrieb:
Anhang anzeigen 806469
Leak vom Jun 10, 2019 aus einem chinesischen Forum

Wow, 3733er RAM als Standard. Wenn Intel den Wert so konservativ ansetzt und so viel OC-Potenzial vorhanden ist wie in der Vergangenheit, geht da weit über 4000er.

Im Allgemeinen sollte man aber einfach abwarten, vor allem, was Tiger Lake bzw. 10mn+ anbelangt.
 
@Banned Standard ist glaube ich nur DDR4-3200, optional gehts aber rauf auf 3733, daß aber nur bei LPDDR4.

… weiß TechFA
 
Tronado schrieb:
Hier der wohl häufigste Anwendungsfall, Teillast-Verbrauch (Office oder Surfen):

Und bei nur leichtem oc geht der Vollast-Verbrauch auch durch die Decke. Keine wirklich sparsame CPU.

Achja, surfen ist nun der häufigste Anwendungsfall für einen i9. Da kann er mit wahnsinniger Effizienz punkten.

Glaub ich nicht. Vor allem sind die Ergebnisse mittlerweile ja nicht mehr aktuell, da grade der neue AGESA + Chipsatztreiber den Idle Verbrauch reduzieren.

Am häufigsten ist wohl für CPUs wie den 3700x oder 9900k eher Gaming-Last oder Vollauslastung als Arbeitstiere.
 
  • Gefällt mir
Reaktionen: TheBear1517, Mcr-King, or2k und 3 andere
HighPerf. Gamer schrieb:
Leider gibt es halt noch keinen Vergleich mit den neuen AMD APU's in 7Nm, aber von denen erwarte ich verdammt viel.
Das könnte schwierig werden, denn 7nm APUs gibt es bisher nicht. ;)
Jedoch ja, von denen erwarten sich Viele einiges.
 
  • Gefällt mir
Reaktionen: Mcr-King
Die Effizienz einer CPU mit 12 Kernen am Idle Teillast auf einem Kern schlechtzureden (10Watt) vor den neuen Treibern is halt schon wieder so beknackt das es cool ist :D
 
  • Gefällt mir
Reaktionen: aldaric
Ragnarrök schrieb:
AMD liefert, in 7nm, viele Kerne und bessere Preise!

Viele Kerne bringen in den meisten Spielen und Programmen überhaupt nichts und auf Nanometer zu gucken ist mindestens genauso sinnlos, da sie über die Leistung erstmal wenig bis nichts aussagen.
Aber ja ich wünschte auch Intel hätte das schneller in den Griff bekommen. Ich hab es immer sehr verteidigt dass Tick–tock so nicht mehr gehen konnte und der Shrink eben mal 2-3 Jahre länger dauert und man trotzdem noch vor AMD liegt. Bis zum Win7 Supportende wäre schon schön gewesen. Aber naja, zumindest ich kann auch mein i7-2600k gut mit einem i5-9600k für 230€ ersetzen.
 
Herdware schrieb:
Es sieht wirklich etwas so aus, als hätten die neuen Fertigungsprozesse unterhalb von 14nm ein generelles Problem mit hohen Taktraten. Deswegen sehen wir keine 10nm-Desktop-CPUs von Intel und deswegen hat Ryzen3000 Intel nicht komplett in dem Boden gestampft. Der 5GHz-Takt hat Intels 9000er zumindest in Spielen gerettet

Wieso? AMD hat doch von "14" zu "12" zu "7" nm bei den Taktraten zugelegt, oder vertu ich mich da? Und das jeweils gleich beim ersten Versuch?! Und auch Qualcomm hat jetzt mit dem 855+ jetzt nichmal ein Modell mit höheren Taktraten aufgelegt (um mal aufzuzeigen, wie weit Deine Pauschalisierung bzgl. der Prozesse in meinen Ohren reicht)! Ich weiß zwar jetzt gar nicht wie hoch der taktet und bin auch gerad googlefaul, aber ich bin mir sicher, es ist deutlich über Qualcomm 14nm, oder nicht?
Und dazu kommt ja noch, dass "14nm" usw. ja gar keine definierte Größe ist, spätestens sobald Du wie oben geschehen mehrere Fertiger ins Spiel bringst :o
Ergänzung ()

Jan schrieb:
Mit einer CPU, die eine TDP von 28 Watt aufweist, knackt Intel die 4-GHz-Hürde. Die 15-Watt-TDP-CPUs tun das nicht. Ich sehe da keinen Widerspruch. Da steht ja nicht, dass Intel bei 28 Watt Verbrauch 4,0 GHz erreicht. Auch mit der TDP-Definition steht der Titel damit nicht im Konflikt.
Ich dachte die Whiskey-Lake U könnten sehr wohl wenn auch nur bei guten Temps und ziemlich kurz ziemlich hoch boosten?
Edit: Also, was ich sagen will, diese "Hürde", so wie du sie jetzt hier beschreibst, war doch bereits geknackt mit CPUs in "14"nm, die längst aufm Markt sind und eben doch eine TDP von 15Watt aufweisen?!
 
Zuletzt bearbeitet:
hroessler schrieb:
Und AMD Produkte waren lange Zeit nicht konkurrenzfähig und somit auch kaum gefragt.

Spätestens seit Ende 2013 (XBone, PS4) waren AMD Produkte wieder konkurrenzfähig und Optimierungtarget.
Ergänzung ()

jackii schrieb:
Viele Kerne bringen in den meisten Spielen und Programmen überhaupt nichts

...eine Aussage die so schwammig ist dass sie gar nicht falsch sein kann. Und die im Umkehrschluß beinhaltet das viele Kerne in einigen Spielen und Programmen einiges, bis hin zu enorm viel, bringen.
 
Zuletzt bearbeitet:
@Hayda Ministral. Dann kannst du mir bestimmt auch sagen, welche AMD CPU(s) ab 2013 und vor Ryzen mit einer entsprechenden Core i Intel CPU der selben Klasse leistungstechnisch mithalten konnte.

Danke!

greetz
hroessler
 
Tronado schrieb:
Mir sind vernünftige, stabile 14nm CPUs in den nächsten Jahren allemal lieber als Käufer-Betatester-7nm-CPUs des Mitbewerbers.
Der Meinung kann ich mich nur anschließen. Ich wollte eigentlich meinen Ryzen 5 1400 in meinem Zweitrechner durch einen Ryzen 5 3600 ersetzen, aber was ich hier im Forum und auf anderen Seiten über die BIOS Probleme gelesen habe, das schreckt mehr als ab.

- Boot-Probleme, kein Bild, CPU taktet nicht runter, falsche zu hohe Spannung .....

Ich werde auf die neuen Intel CPUs warten und wenn die erst 2022 kommen, dann ist mir das auch egal. Und evtl. liegt ja der i9 9900K untern Weihnachtsbaum ;)
 
  • Gefällt mir
Reaktionen: Tronado
Zurück
Oben