News TSMC N4X: Neuer High-Performance-Prozess für PC-Chips

Für die Masse der Produkte die absolut falsche Richtung (darunter fällt für mich jegliche Art von Consumer Hardware und auch die meisten Enterprise Produkte). Für sehr spezielle Anwendungsszenarien ggf. eine akzeptable Lösung.
 
ModellbahnerTT schrieb:
Das sollte man aber schnellstens wieder ändern um damit die Umwelt zu schonen und den Geldbeutel der Verbraucher.
Umwelt und Geldbeutel, aber auch die Abwärme die da aus dem PC geblasen wird darf man nicht vergessen.
Ich sitze zur Zeit in einem 8,5 m² Arbeitszimmer Zuhause. Im Winter ist es ja mollig warm im Zimmer. Aber im Sommer wird es schnell nur noch heiß.
Und ich habe hier rund 400-500W Abwärme vom System dazu noch die Abwärme vom Monitor. Wenn ich mir aber vorstelle das alleine schon die GPU 400-600W Abwärme Produziert :skull_alt:

Ich finde diesen Trend in der IT einfach nur desaströs. Wo soll das enden? bei 2-3 KW für den Gamingrechner???
Ergänzung ()

GerryB schrieb:
Also das Review mit Verbrauchsangabe@144fps war doch schon richtungsweisend.
Die Gamer müssen halt mal ein bisschen umdenken und net vorschnell das NT wechseln.
Da wünscht man sich doch die gute alte Zeit mit der Radeon 5870 zurück unter lasst brauchte das Ganze System um die 300W. Das alleine braucht schon eine 6800xt.
 
Zuletzt bearbeitet:
the_ButcheR schrieb:
Für die Masse der Produkte die absolut falsche Richtung (darunter fällt für mich jegliche Art von Consumer Hardware und auch die meisten Enterprise Produkte). Für sehr spezielle Anwendungsszenarien ggf. eine akzeptable Lösung.

Niemand ist gezwungen den Prozess zu benutzten. Ich sehe aber ehrlich gesagt auch TSMC nicht als Problem an. Diese Firma hat es geschafft deutlich effizientere Chips als Intel und Samsung herzustellen. Das ist sehr sehr positiv.

Das größere Problem ist dann eher NVidia und AMD, die ihre Karten immer mehr Strom zum saufen geben. Das nächste Problem sind Wir, die Kunden, die genau diese Grafikkarten auch kaufen um nochmal 5% Mehrleistung zu haben. TSMC ist nicht dafür verantwortlich, dass wir bald bei 500 Watt sind. Grafikkarten kann man auch auf 100 Watt hin ausrichten. Wird aber nicht gemacht, weil die Kunden das nicht wollen.
Ergänzung ()

ThePlayer schrieb:
Da wünscht man sich doch die gute alte Zeit mit der Radeon 5870 zurück unter lasst brauchte das Ganze System um die 300W. Das alleine braucht schon eine 6800xt.

Die bauen die 6800xt so, weil DU sie kaufst und genau so haben willst! Mein System braucht mit 5800x + 1070 um die 200 Watt bei Spielen. Völlig ausreichend für FullHD.
 
fdsonne schrieb:
Theorie und Praxis ;) So funktioniert das aber halt nicht...
N4X ist hier nichts anderes als ein Marktangebot. Wer von den Herstellern da was benötigt, der kauft es. Es macht überhaupt keinen Sinn hier eine fette 600+mm² GPU in N4X zu bringen. Weil du sehr sicher mit mehr Hardware auf bisschen mehr Fläche mehr wie 4% mehr Performance raus bekommen würdest und gleichsam noch die Effizienz steigt.

Dieser Prozess hier ist für exakt einen Anwendungsfall sinnvoll. Und das ist bedingungslos maximale Performance in der Höhe. Sowas wie ein fiktiver Ultra HighClock Zen5 mit 5,5GHz im Boost oder sowas. Da ist es völlig irrelevant ob ein anderer Prozess 5,2, 5,3GHz in Effizienter könnte. Der erreicht halt die 5,5GHz nicht und ist damit für diesen Anwendungsfall ungeeignet. Es geht um maximale Performance um jeden Preis. Ob sowas aber im Massenmarkt in der Breite angewendet wird, ist äußerst fraglich...

Klingt erstmal plausibel, aber irgendwie kann ich mir nicht vorstellen, dass man einen extra Fertigungsprozess nur für sogenannte "Halo" Produkte nutzt. Zumal das dann ja auch nur für absolute Enthusiast Consumer relevant wäre.

Selbst für Server wäre doch am Ende Effizienz anstelle des letzten MHz sinnvoller. Da gehts schließlich auch um Betriebskosten und Kühlung, also um Wirtschaftlichkeit.

Für mich würde N4X also erstmal nur Sinn ergeben, wenn das auch für eine breitere Anwendung gedacht ist. Sprich z.B. alles ab Core i7 oder alles ab RTX xx70 usw...
 
Erkekjetter schrieb:
Das ist so ein Beispiel, was unterstreicht, warum Umweltschutz auch politisch betrieben werden muss. Denn der Markt regelt eben nicht

Atma schrieb:
Der nächste Schritt in die völlig falsche Richtung. Das geht solange gut bis die Politik das Thema für sich entdeckt und Regulierungen auf den Weg gebracht werden
Ab nächstem Jahr reglementiert die eu den Stromverbrauch von tvs, als ob der Großteil der Bevölkerung die viele Stunden täglich laufen lassen und jede Szene die Hdr Spitzenleistung komplett ausnutzen würde.
Da wütet doch wie zu erwarten eher wieder der Aktionismus, für modulare pc hardware kann ich mir das aber eher nicht vorstellen, aber mal schauen.
 
Eventuell muss man einfach Mal abwarten was dieser Prozess am Ende wirklich bedeutet. Eventuell geht's um 10 bis 20 Watt mehr bei einer CPU, dafür aber deutlich höherer Takt. Im Alltag spielt es dann wieder kaum eine Rolle bei normalen Usern (Idle kann so eine CPU genauso sparsam sein, bei Games im Teillast Bereich auch nicht), auch bei Leuten welche die Leistung abrufen können müssen, ja dort wird so ein Prozessor fressen, dafür ist er auch schneller fertig.
Auch bei vielen Serveranwendungen das selbe Bild.

Anders sieht es natürlich beim Crypto Mining aus, Dauervolllast ist dann natürlich übel.
 
Ayo34 schrieb:
Normal wird ein neuer Prozess immer mit dem alten verglichen bei gleichem Stromverbrauch. Der neue Prozess ist dann z.B. 112% schneller oder verbraucht 15% weniger Strom als der alte Prozess. Sonst würde der Vergleich und die Angaben ja gar kein Sinn machen. Ich bin jetzt erstmal davon ausgegangen, dass diese Vergleichbarkeit auch hier gilt.
Das mag in der Theorie stimmen, praktisch wie ich bereits angemerkt habe, kommen da ganz andere Faktoren bei ins Spiel. Denn der Prozess selbst verbraucht keinen Strom und liefert keine Leistung. Strom wird beim/im Endprodukt verbraucht und Leistung liefert das Endprodukt. Wie viel das in Relation zu was auch immer anderem bedeutet, steht auf einem komplett! anderen Blatt Papier, weil es einfach stark darauf ankommt, wohin man das Produkt ausrichtet. Du kannst sehr einfach in jedem Prozess für die letzten paar wenigen Prozent Performance obenraus drastisch den Stromverbrauch erhöhen. Nur aber wird es faktisch immer so sein, dass du an gewisse Grenzen oben anstößt, wo dann so ein Prozess wie hier der N4X helfen kann um das Limit auf Kosten anderer Faktoren noch etwas weiter zu pushen - eben in Regionen, wo du mit dem anderen gar nicht hin kommst.

Der Vergleich in der Theorie ist dann halt nur das eine - der Vergleich in der Praxis aber eine ganz andere Thematik. Denn klar kann man da auf dem Papier x mit y in Relation setzen. Aber was bringt dir das, wenn du x nie so hoch bekommst, um y zu toppen? Da ist doch total irrelevant, wo jetzt der Punkt ist, andem der Vergleich ansetzt. Sondern es zählt am Ende nur noch, wie viel mehr kann y. Genau das wird hier halt gemacht. Deswegen spricht auch keiner über die Energieaufnahme bei der Nummer.

B3nutzer schrieb:
Klingt erstmal plausibel, aber irgendwie kann ich mir nicht vorstellen, dass man einen extra Fertigungsprozess nur für sogenannte "Halo" Produkte nutzt. Zumal das dann ja auch nur für absolute Enthusiast Consumer relevant wäre.
Wieso Halo? Es gibt doch tonnenweise verschiedenste Anforderungen. Man sollte das denke ich eher von der anderen Seite aus sehen. N4X ist kein Prozess für den Massenmarkt. Da gehts nicht darum die nächste NV, AMD oder Intel CPU oder GPU zu fertigen. Sondern das ist ein Prozess für spezielle Produkte mit Anforderungen, die man in den anderen Prozessen so nicht abdeckt. Das hat dann sicher auch seinen Preis. Praktisch wird man aber nicht auf die Idee kommen den Prozess im Massenmarkt in bspw. 0815 CPUs zu nutzen, weil dort die Anforderungen ganz andere sind.

Ayo34 schrieb:
Diese Firma hat es geschafft deutlich effizientere Chips als Intel und Samsung herzustellen. Das ist sehr sehr positiv.
Das ist in erster Linie sehr sehr falsch, weil einfach pauschal nur dann gegeben, wenn man eine maximal günstige Vergleichspaarung anstrebt... ;) Der gleiche Chip kann auch deutlich ineffizienter als die Dinger von Intel oder Samsung sein - nämlich wenn man die Vergleichspaarung andersherum maximal positiv auslegt...

Nur was bringen solche Pauschalen!? Je nach selbst eingesetzter Basis will ich als Kunde doch mindestens mal irgendwie mehr Leistung haben, bevor ich da in Größenordnungen Geld hin blätter. Denn allein wegen Effizienz, hunderte bis tausende Euros raus pusten ergibt wirtschaftlich schlicht selten bis nie Sinn. So viel mehr steigt nämlich selten die Effizienz zwischen den Produkten, dass es irgendwo lohnt. Und genau das ist eben der Knackpunkt. Produkte werden auf bestimmte Punkte hin ausgerichtet. Das kann Effizienz sein, muss es aber nicht...
 
Erinnert sich eigentlich niemand hier mehr an die High-Power-Prozesse, die es damals gab? Bestes Beispiel GlobalFoundries, bis 32nm (der zugegebenermaßen schlecht war) benutzte AMD immer sogenannte SHP Prozesse. Wofür stand SHP? Super High Power.

AMD Hätte die FX Dinger standardmäßig mit 300W TDP rausbringen können, die sind so hoch skaliert. Haben sie das? Nein. Warum haben sie dann SHP haben wollen? Achtung, hier kommt mein Punkt: Weil der Sweet Spot auch höher liegt.

Desktop-Hardware, mittlerweile aber auch ein guter Teil der Notebook-Hardware, arbeitet weit über dem Sweet Spot aus Prozess und Architektur. Das liegt natürlich auch daran, weil die Hersteller das Silizium bis ans Limit treiben, aber auch daran, dass die Prozesse seit 14nm praktisch nur noch auf Mobile-Bedürfnisse zugeschnitten sind. Mobile-Chips haben viel geringere Anforderungen an die Geschwindigkeit einzelner Transistoren, aber wollen auf ihrer Optimalfrequenz natürlich die minimale Leistungsaufnahme. Das ist auch der Grund, warum man damals Sorgen um das Taktverhalten von Ryzen hatte (am Anfang waren 2.8 Ghz im Gespräch).

High-Power-Prozesse produzieren höhere Leckströme, skalieren aber besser. Das heißt in der Praxis, der Sweet Spot liegt höher. Produkte mit hohen Taktanforderungen laufen auf Taktoptimierten Prozessen effizienter.

Ergo verstehe ich die ganze Diskussion darum, was TSMC sich dabei gedacht hat, nicht. Wir sollten uns über den neuen Prozess freuen, dass AMD/Intel/Nvidia den Stromverbrauch immer weiter hoch drücken, steht auf einem anderen Blatt und hat hiermit nichts zu tun.
 
fdsonne schrieb:
Das ist in erster Linie sehr sehr falsch, weil einfach pauschal nur dann gegeben, wenn man eine maximal günstige Vergleichspaarung anstrebt... ;) Der gleiche Chip kann auch deutlich ineffizienter als die Dinger von Intel oder Samsung sein - nämlich wenn man die Vergleichspaarung andersherum maximal positiv auslegt...

Nur was bringen solche Pauschalen!? Je nach selbst eingesetzter Basis will ich als Kunde doch mindestens mal irgendwie mehr Leistung haben, bevor ich da in Größenordnungen Geld hin blätter. Denn allein wegen Effizienz, hunderte bis tausende Euros raus pusten ergibt wirtschaftlich schlicht selten bis nie Sinn. So viel mehr steigt nämlich selten die Effizienz zwischen den Produkten, dass es irgendwo lohnt. Und genau das ist eben der Knackpunkt. Produkte werden auf bestimmte Punkte hin ausgerichtet. Das kann Effizienz sein, muss es aber nicht...

Naja, als Verbraucher will ich möglichst viel Leistung und möglichst viel Effizenz und TSMC ist da eben führend. Man kann auch pauschal sagen, dass umso weniger nm das Verfahren hat, umso besser ist es für uns als Verbraucher.

Ohne TSMC und eingeschränkt Samsung wären wir jetzt wahrscheinlich noch bei einem 30nm Intel Verfahren...
 
Volker schrieb:
Jetzt bei Alder Lake ist erstmals wieder etwas Hoffnung zum Besseren.

Welche TDP hat das Ding nochmal?
IMHO irgentwas über 0,2 kW.
Ergänzung ()

xexex schrieb:
Grundsätzlich jedoch belastet sauber erzeugter Strom nicht die Umwelt

Grundsätzlich jedoch belastet sauber erzeugter Strom wenig die Umwelt
Ergänzung ()

ZeroStrat schrieb:
Hui, werden wir dann vielleicht Taktraten im Bereich von 6GHz sehen? Wenn der Boost für Mutlithreadszenarien moderat angesetzt wird, dann dürfte die Effizienz auch mit so einem Turbo-Prozess nicht allzu sehr leiden.

Eigentlich ist heute fast alles power-constrained.
 
Zuletzt bearbeitet:
fdsonne schrieb:
Ne, das eine hat mit dem anderen nix zu tun. Das hier ist ne "Verkaufsveranstaltung". Das gabs früher auch. nur wurde das Medial nicht rum getreten. TSMC wirbt hier mit einem Prozess, der in 2 Jahren in Risiko Produktion und in 3 Jahren dann in Serienfertigung gehen soll. Solche "Angebote" gibt es schon immer - die Auftraggeber vergeben dann Aufträge nach ihren Wünschen - und der Fertiger liefert, mit was er beauftragt wurde. Zudem ist am Ende auch noch viel Marketing drin. Denn was interessieren bitte die 4% mehr "Leistung" auf dem Papier, die hier der N4X ggü. dem N4P liefern kann - als Beispiel. Ein Epyc Chiplet im 64C mit Zen3 kann bei um die 3W pro Core laufen. Das gleiche Chiplet im 5950X kann gut auch mal 20+W pro Core saufen. DAS ist heute gängige Praxis allein durch Marktausrichtung des gleichen Produkts...
Der Unterschied zu früher ist doch gerade, dass früher Prozesse von TSMC stets mit Performance bei gleicher Leistungsaufnahme und gesenkte Leistungsaufnahme bei gleicher Performance beworben wurden, hier aber eben erstmals nur mit höherer Performance OHNE Aussage zur Leistungsaufnahme. Das ist doch gerade der Unterschied, um den es hier geht... :confused_alt:
 
CDLABSRadonP... schrieb:
Der Unterschied zu früher ist doch gerade, dass früher Prozesse von TSMC stets mit Performance bei gleicher Leistungsaufnahme und gesenkte Leistungsaufnahme bei gleicher Performance beworben wurden, hier aber eben erstmals nur mit höherer Performance OHNE Aussage zur Leistungsaufnahme.

Schau mal auf die Märkte die TSMC früher bedient hat und welche Märkte TSMC sich jetzt erschließen will.
 
foofoobar schrieb:
Schau mal auf die Märkte die TSMC früher bedient hat und welche Märkte TSMC sich jetzt erschließen will.
Muss ich nicht, denn: Darum geht es nicht. Bzw. es unterstreicht doch sogar, was ich im Kern gesagt habe:
@fdsonne stellt es so dar, als wäre alles wie immer. Dem ist nicht der Fall.
 
Mich würde ja mal eine Aufstellung interessieren was so der Antrieb für die Abkehr von Effizienz ist.
Hochfrequenzhandel, werbetaugliche Leistungskrone, irgendwelche hochkritischen Prozesse die sich nicht parallelisieren lassen ...? letztere sollten eher selten sein.
Allgemein gilt bei Software die einfache Faustregel dass Geschwindigkeit am ehesten durch
Single-Thread optimierung > Parallelisierung > mehr Hardware
zu erreichen ist. Ersteres interessiert heute kaum noch (wenn man sich so anguckt was spiele heute fressen und was die mehr liefern als solche von vor 10-20 jahren und bei Anwendungssoftware wirds auch nicht besser), zweiteres ist immer noch so ein bisschen black magic, häufig missverstanden und schnell ein neuer quell an fehlern.
Das was oft am wenigsten bringt, aber am meisten gemacht wird ist einfach mehr Geld=Hardware auf das Problem zu werfen bis es passt. Ist halt einfacher, kostet nur Geld und das versteht quasi jeder.

Zumindest meine Vermutung :/

Neodar schrieb:
In Zeiten in denen Strom immer teurer wird, hat der Endkunde mit Sicherheit kein breites Grinsen auf dem Gesicht, wenn die neue CPU 250W und die neue GPU 500W verballert.
Teuer ist der Strom ja nur für uns 'hier' und nur für die Privatleute da wir die Umlage für die davon befreiten Unternehmen mitbezahlen und aufgrund der sonstigen Zulagen auf den Preis. Wie Steuern, Gebühren ...
Dazu juckt das die leute die relativ locker 3k € für ihren PC ausgeben wohl eher weniger. Besonders wenn die nicht allzu lange davor sitzen.
Neodar schrieb:
An jeder Ecke wird von Klimawandel gesprochen und es wird vor noch krasseren Wetterkatastropehn gewarnt, als man sie jetzt schon weltweit sieht, aber gleichzeitig ballern wir immer mehr Strom in Rechnerhardware rein.
Der trick wird irgendwann sein einfach genug Energie umzusetzen. Dann sitzt man in einem zentralen Auge mit permanentem Aufwind und blauem Himmel. :D
andi_sco schrieb:
Ich frag mich dann eher, ob ich irgendwann eine Klimaanlage im Raum benötige, weil der Rechner prima als Heizlüfter fungiert
Die Empfehlung wird wohl eher richtung 'ruhige Gaminghütte in bester Lage im finnischen Wald' gehen. Da braucht man wenigstens halbjährlich keine Klimaanlage beim zocken. Im Sommer muss man nur aufpassen wenn der PC zu dicht an den Holzwänden steht und man keinen Schutz vor der Wärmestrahlung hat. Allerdings wird es wohl auflagen geben dass man das nicht mit dem Vorschlag oben kombiniert XD
 
Ayo34 schrieb:
Die bauen die 6800xt so, weil DU sie kaufst und genau so haben willst! Mein System braucht mit 5800x + 1070 um die 200 Watt bei Spielen. Völlig ausreichend für FullHD.
Ich hätte sie lieber mit nur 200W Verbrauch. Die haben mich vorher auch nicht gefragt wie ich sie haben will. Und die 300W sind so ziemlich das höchste der Gefühle. Ich glaube bei 400W und mehr bin ich dann bei der Oberklasse raus. Wenn sich diese nicht stark Undervolten lässt ohne zu viel Performance zu verlieren.
 
  • Gefällt mir
Reaktionen: Nagilum99
DoSBos_74 schrieb:
Für Desktop CPUs wahrscheinlich sehr interessant.
Leider nein, leider gar nicht.
Intel gönnt sich ja jetzt schon ~240 Watt. Wo soll das Enden und wer soll das noch kühlen?
Die WaKü demnächst beim Boxed-Prozessor enthalten?
 
Neodar schrieb:
Als "Kunden" sollte man hier klar die Aufträge vergebenden Unternehmen nennen!

Denn die tatsächlichen Endkunden, die sich Prozessoren und GPUs dann tatsächlich kaufen, wollen mitnichten nur mehr Leistung ohne Blick auf den Verbrauch bzw. die Effizienz.
In Zeiten in denen Strom immer teurer wird, hat der Endkunde mit Sicherheit kein breites Grinsen auf dem Gesicht, wenn die neue CPU 250W und die neue GPU 500W verballert.

Strom ist nur in Deutschland so extrem hoch - da führen wir tatsächlich mal eine Statistik an.

Aber ich stimme dir zu, um 10% mehr Geschwindigkeit herauszukitzeln, muss der Hersteller nicht 50% mehr Leistung (P=U*I) verbraten. Sweet spoot searching wurde scheinbar von den Herstellern verlernt.
 
Man will also nicht nur in 8K zocken, "nachhaltig" soll es auch noch sein.

Das ist wirklich der Gipfel aller First World Problems.
 
@Ayo34 ich habe wegen 10 % Leistungsunterschied bei CPU nen Upgrade gemacht. Also ja es gibt solche Menschen. Also ja gewiss mehr Menschen als ich es bin. Ich der wo so auf leistung pro Watt scharf ist. Die meisten würden es verrückt nennen. Die mehrleistung hat mich 300 € gekostet. Ja das ist wirklich wenig. Würde ich aber nicht mehr wieder machen weil es war echt nicht viel,dachte das 10 % mehr wären aber wohl falsch gelegen.
 
Zurück
Oben