News TSMC N4X: Neuer High-Performance-Prozess für PC-Chips

Ghostshield schrieb:
Dann sollen die auch für die zukunft Notebook GPUs mal echte namen geben.
Mit Pascal hat Nvidia das ja tatsächlich mal eine Generation eingeführt, dann aber gleich wieder untergraben. War aber schon damals eine blöde Idee, denn es ergibt einfach mehr Sinn, in Notebooks größere Chips runterzutakten. Es ist viel sinnvoller, einen GA102 auf 170W zu deckeln und daraus eine 3090 Mobile zu machen, als einen GA106 einer 3060 Desktop unverändert als 3060 Mobile zu bringen. Erstere ist nun einmal einfach schneller. (zwar teurer, aber das interessiert ohnehin bei den entsprechenden Geräten nicht mehr; das Gesamt-P/L von der GA102-Variante wäre dennoch höher)
 
evtl. ein Mechanismus gegen Miner höherer Stromverbrauch = weniger Profit:lol:
 
CDLABSRadonP... schrieb:
Mit Pascal hat Nvidia das ja tatsächlich mal eine Generation eingeführt, dann aber gleich wieder untergraben. War aber schon damals eine blöde Idee, denn es ergibt einfach mehr Sinn, in Notebooks größere Chips runterzutakten.


Hersteller machen gern effiziente Produkte - wenn sie keine Konkurrenz haben. Doch mit der am Start, müssen sie pushen und das geht am Ende eben am einfachsten über MOOAAAR POWER. Pascal war seinerzeit konkurrenzlos, also konnte sich Nvidia schön grün aufstellen. Jetzt ist das ganz anders. Intel genau so. Ivy Bridge und so alles super grün und effizient weil 0 Konkurrenz, seit 2017 geht es stetig bergab. Jetzt bei Alder Lake ist erstmals wieder etwas Hoffnung zum Besseren.
 
  • Gefällt mir
Reaktionen: paccoderpster, Ned Flanders, Celinna und 5 andere
ModellbahnerTT schrieb:
Das sollte man aber schnellstens wieder ändern um damit die Umwelt zu schonen und den Geldbeutel der Verbraucher.
Wenn wir die "Umwelt schonen" wollen, dann sollten wir als erstes Mining aus der Welt schaffen. Grundsätzlich jedoch belastet sauber erzeugter Strom nicht die Umwelt und wenn wir die Entwicklung im Automobilbereich als Vergleich heranziehen, oder den Strombedarf der Industrie, so machen ein paar Prozent Mehrverbrauch bei den Chips sowieso keinen Unterschied.
 
  • Gefällt mir
Reaktionen: Tzk
Volker schrieb:
Hersteller machen gern effiziente Produkte - wenn sie keine Konkurrenz haben. Doch mit der am Start, müssen sie pushen und das geht am Ende eben am einfachsten über MOOAAAR POWER. Pascal war seinerzeit konkurrenzlos, also konnte sich Nvidia schön grün aufstellen. Jetzt ist das ganz anders.
Wichtig ist halt zu sehen, dass Pascal Mobile auch damals schon kein Effizienzprodukt* war --- sondern ein Produkt, mit dem Kundenfreundlichkeit geheuchelt werden sollte. Geheuchelt**.
*es war, wie eben auch angerissen, sogar ein Antieffizienzprodukt.
**auch das ist aber natürlich eine typische Strategie für führende Firmen.
 
Zuletzt bearbeitet:
xexex schrieb:
Die Transistordichte für N7 liegt übrigens unter 100MTr/mm2, die für N7+ liegt bei den von dir genannten 110MTr/mm2, der Prozess wird aber für keine mir bekannten Chips verwendet, erst N6 soll wieder eine breite Verwendung finden.

https://en.wikipedia.org/wiki/7_nm_process
Gut zu wissen, danke! Mir waren nur die 110MTr/mm² (oder 100...?) von TSMCs Folien bekannt, aber nicht das quasi niemand mit einer so extrem hohen Dichte fertigt. Ich tippe das alles, was so eine Dichte benötigt mittlerweile einfach auf N5 gefertigt wird?! Also unter anderem mobile Chips.

Trotzdem glaube ich das N4X für GPUs und eventuell Zen5 interessant sein dürfte. Zen4 kommt ja vermutlich in N5, wenn Apple den Prozess im nächsten Jahr wechselt und so Kapazitäten bei TSMC frei werden.
 
Tzk schrieb:
aber nicht das quasi niemand mit einer so extrem hohen Dichte fertigt.
Das ist an dieser Stelle ganz simpel, eine CPU oder GPU besteht ja nicht nur aus gleich großen Transistoren. Die tatsächliche Dichte schwankt also erheblich und je kleiner die Strukturen werden, desto mehr Leerräume baut man ein, um Hotspots auszugleichen.
1639652529984.png

https://en.wikipedia.org/wiki/Transistor_count
 
  • Gefällt mir
Reaktionen: CyrionX und Tzk
Für mich der falsche Weg.

Zum Glück gibts undervolting. Die letzten drei Prozent da brauch ich nicht.
 
  • Gefällt mir
Reaktionen: Celinna, droogF, bad_sign und eine weitere Person
Neodar schrieb:
In Zeiten in denen Strom immer teurer wird, hat der Endkunde mit Sicherheit kein breites Grinsen auf dem Gesicht, wenn die neue CPU 250W und die neue GPU 500W verballert.

Nur weil bei uns Strom so teuer ist wie nirgends sonst in der Welt, bedeutet es eben nicht das überall auf der Welt die Leute bei der Stromrechnung das weinen anfangen.
Bitte nicht falsch verstehen, in all diesen Ländern werden halt die versteckten kosten ausgeblendet, wie Atommüll und Umweltverseuchung (so wie bei uns ja auch mit den noch anstehenden Kosten für den Atommüll die die Unternehmen ja schon an uns Steuerzahler abgetreten haben).

MMn geht es halt auch komplett in die falsche Richtung, ist ja nicht nur die Stromrechnung, sondern auch die Abwärme. Ich kann im Hochsommer kein Game zocken was meine 3080 anheizt, da wird der Raum jetzt schon zu warm! Klar wenn Kosten keine Rolle spielen und die Abwärme auch nicht.....

Bin schon gespannt ob die Kunden es mitmachen, muss im Normalfall dann auch ein (wahrscheinlich teueres) Netzteil mit ran.
Ich bin schon froh, dass mir das die nächsten Jahre erstmal am allerwertesten vorbeigeht......
 
Das ist so ein Beispiel, was unterstreicht, warum Umweltschutz auch politisch betrieben werden muss. Denn der Markt regelt eben nicht. Zumindest nicht ausreichend zuverlässig bzw. schnell genug. Wie Volker schon sagte, Effizienz ist nur dann gefragt, wenn keine Konkurrenz vorhanden ist und man sich auf dem Leistungsvorsprung ausruhen kann. Ansonsten ist es maximal 2. rangig, eher mehr oder minder irrelevant. Und das ist, angesichts welche Aufgabe global zu bewerkstelligen ist, eben so schlicht nicht wirklich akzeptabel.
 
  • Gefällt mir
Reaktionen: coral81
SV3N schrieb:
Für die Speerspitzen von RDNA 3 und Lovelace sind ja 400 Watt+ schon mehrfach im Gespräch gewesen.

Effizienz und ein möglichst geringer Stromverbrauch scheinen nicht mehr so angesagt zu sein. Bin echt gespannt, wo die Reise hingeht.
Es gibt ja jede menge Seiten, bei denen das Maximum an MHz ausgelotet wird.
OC mit Brechstange inkl. "Hardcore" Kühlmittel (Stickstoff o.ä.) und mit Weltrangliste und so ...
Weshalb nur gibt es dies NICHT mit Effizienz (FPS/Watt) ?!?
Das würde mich sehr freuen/interessieren, wenn es da diesbezüglich einen Wettbewerb gäbe !!

p.s. Sowie in etwa "Früher", da gab es einen Wettbewerb : Games unter 100 KB !!

https://de.wikipedia.org/wiki/.kkrieger


MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Cohen, PcFliege, v_ossi und eine weitere Person
xexex schrieb:
die für N7+ liegt bei den von dir genannten 110MTr/mm2, der Prozess wird aber für keine mir bekannten Chips verwendet,
Der Kirin 990 5G soll angeblich in N7+ gefertigt worden sein
 
  • Gefällt mir
Reaktionen: xexex
Hui, werden wir dann vielleicht Taktraten im Bereich von 6GHz sehen? Wenn der Boost für Mutlithreadszenarien moderat angesetzt wird, dann dürfte die Effizienz auch mit so einem Turbo-Prozess nicht allzu sehr leiden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo
SV3N schrieb:
Für die Speerspitzen von RDNA 3 und Lovelace sind ja 400 Watt+ schon mehrfach im Gespräch gewesen.

Effizienz und ein möglichst geringer Stromverbrauch scheinen nicht mehr so angesagt zu sein. Bin echt gespannt, wo die Reise hingeht.

"Angesagt" suggeriert, dass das gewünscht wird. Bisher kommt das aber nur von den Herstellern.

Hier bei den Endkunden erntet das ganze entweder Kritik oder wird zumindest hingenommen.
Leute die sich darauf freuen, dass jedes Jahr mehr Strom verbraucht wird und von ner 1500 Watt GPU träumen sind wohl stark in der Unterzahl möchte ich behaupten.


Nun, mir solls am Ende egal sein. Ich kaufe im 200-250 Watt Bereich. Wenn das künftig "nur" noch einer mittelklasse oder einsteiger Karte entspricht, dann soll es so sein... Juckt mich nicht.

Was ich aber weiß ist, dass 400 Watt alleine auf der GPU nicht ohne extremen Aufwand flüsterleise zu kühlen und aus dem Gehäuse zu befördern sind, vor allem nicht im Sommer. Sowas wird daher kategorisch von mir ausgeschlossen.

Der Stromverbrauch an sich wäre zwar ein Kostenfaktor aber dann doch eher nebensächlich. Für mich zählt der Geräuschpegel.

Auch Klimaschutz wäre natürlich erstrebenswert. Aber solange man nicht zugleich in anderen Bereichen sich etwas einschränkt kommt mir die Diskussion etwas heuchlerisch vor. Dann lieber die alte Karte noch etwas länger nutzen, anstatt alle 1-2 Jahre ne neue Karte kaufen unter dem Vorwand was gutes fürs Klima zu tun, weil sie ja effizient sei...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: v_ossi
SV3N schrieb:
Für die Speerspitzen von RDNA 3 und Lovelace sind ja 400 Watt+ schon mehrfach im Gespräch gewesen.

Effizienz und ein möglichst geringer Stromverbrauch scheinen nicht mehr so angesagt zu sein. Bin echt gespannt, wo die Reise hingeht.
Das ist leider schon wieder seit geraumer Zeit so.
Effizienz zählt nicht wirklich, nur Höchstleistung auf Kosten von unnötiger Abwärme und immensem Stromverbrauch.
Aber wenn es um die Krone in einer Disziplin geht, ist so ziemlich jedem Hersteller dieses Mittel recht
 
SV3N schrieb:
Für die Speerspitzen von RDNA 3 und Lovelace sind ja 400 Watt+ schon mehrfach im Gespräch gewesen.

Effizienz und ein möglichst geringer Stromverbrauch scheinen nicht mehr so angesagt zu sein. Bin echt gespannt, wo die Reise hingeht.
Ich frag mich dann eher, ob ich irgendwann eine Klimaanlage im Raum benötige, weil der Rechner prima als Heizlüfter fungiert
 
  • Gefällt mir
Reaktionen: Fritzler
B3nutzer schrieb:
Was ich aber weiß ist, dass 400 Watt alleine auf der GPU nicht ohne extremen Aufwand flüsterleise zu kühlen und aus dem Gehäuse zu befördern sind, vor allem nicht im Sommer. Sowas wird daher kategorisch von mir ausgeschlossen.

Der Stromverbrauch an sich wäre zwar ein Kostenfaktor aber dann doch eher nebensächlich. Für mich zählt der Geräuschpegel.
Ich würde so eine 500 Watt GPU zwar kaufen, aber im Alltag niemals so betreiben. Auch die RTX 3090 bekommt bei mir nicht mehr als 280W Saft.
 
Neodar schrieb:
Was angesichts der anhaltenden welteweiten Klimadiskussion total groteskt anmutet.

An jeder Ecke wird von Klimawandel gesprochen und es wird vor noch krasseren Wetterkatastropehn gewarnt, als man sie jetzt schon weltweit sieht, aber gleichzeitig ballern wir immer mehr Strom in Rechnerhardware rein.
Nein, daß "wir" lasse ich mal bei mir aussen vor. Ich habe schon immer viel auf Energieeffizienz gelegt.
Habe ich damals für eine 1070ti entschieden, weil der Verbrauch im Vergleich zur Vega- Konkurrenz geringer ausgefallen ist.
Stand by existiert bei mir nicht, Geräte werden mit einer schaltbaren Steckerleiste vom Strom getrennt.
Und das läßt sich zumindest bei mir noch in vielen Sachen weiter spinnen.
Aber ich mache das nicht erst seit gestern oder wegen dieser "Klimadiskussion", die ich persönlich für übertrieben halte, weil dieses kleine Deutschland die Welt nicht retten wird.
Sondern allein darum, weil man dadurch eben doch locker etliche Euronen sparen kann.
Kleinvieh macht auch Mist, so bin ich erzogen worden und aufgewachsen.

Das sag mal den heutigen Klimaaktivisten, die eigentlich alle Vorzüge des süßen Lebens genießen aber dafür
meine Generation beschimpfen, ich hätte ihnen eine verwüstete Erde hinter lassen oder ihnen die Zukunft geraubt.
 
  • Gefällt mir
Reaktionen: Col. Jessep, schneeland, Letigo und eine weitere Person
SV3N schrieb:
Effizienz und ein möglichst geringer Stromverbrauch scheinen nicht mehr so angesagt zu sein. Bin echt gespannt, wo die Reise hingeht.

Ist doch klar! Jetzt, wo endlich das Paradies des "grünen Stroms" bevorsteht, ist doch Effizienz scheißegal! Wir tun der Umwelt doch einen GEFALLEN, wenn wir möglichst viel grünen Strom verbraten. Also... hau raus die Gigawatts! Let's save the planet one watt at a time!
 
Tzk schrieb:
AMD. Die sind ja derzeit auch auf einem stark angepassen N7 unterwegs, der bei weitem nicht die Dichte des normalen N7 erreicht, sich höher takten lässt aber dafür (vermutlich?) auch weniger effizient ist.
Naja, so funktioniert die Rechnung nicht.
Wie schon angemerkt wurde, einerseits wird die Transistordichte auf einer extrem theoretischen Basis ermittelt - mit der Praxis hat das weniger gemein. Zum anderen kommt es natürlich am Ende drauf an, was das Problem überhaupt sein will.
Gerade AMD hat hier einen sehr großen Spagat zu liefern. Sie brauchen das selbe Chiplet mit ~80mm² im Epyc und TR (Pro) wie im Desktop Ryzen. Nur das bei Ersterem nur 1/2 - 2/3tel vom Takt gefahren werden. Stell dir nur mal vor, was bei 4,5, 4,6GHz in so nem nur 40, 50, 60mm² Chiplet los wäre, wenn man das noch enger packen würde? Wie willst du da die Wärme abführen?
Und nicht nur das - CPUs bestehen aus Logik. Wir wissen, dass IO nicht gut packbar ist. Der IO Die bei AMD benötigt Fläche für die Kontakte. Logik ist auch nicht soooo gut Packbar. Der Takt leidet bei höherer Packdichte meistens und die Wärme muss auch da raus. Cache hingegen ist gut packbar.
Am Ende kommt noch dazu, dass die CPU intern aus einzelnen Blöcken besteht - der Die aber Rechteckig sein muss. Auch das ist kein Zufall, dass die da keine Ecken raus fräsen ;) Da wird einfach Leerraum eingebaut um die Fläche zu füllen. Mal mehr, mal weniger offensichtlich.

Alles zusammen macht eine Gleichung auf realer Die Size zu Transistoranzahl ggü. der Theorie seeehr schwierig. Die Marktausrichtung und was man mit den Produkten vor hat, kommt dann auch noch oben drauf. Es wundert auf den ersten Blick bspw. warum AMD die APUs trotz IO, trotz weniger Cache, trotz mehr Logik (weil GPU) dichter packt als die Chiplets der CPUs. Auf den zweiten Blick aber wundert es nicht - weil wie gesagt, Fläche im Chiplet für die Kühlung, andere Marktausrichtung, wendiger notwendiger Takt, höherer Konkurrenzsituation im Mobile, allgemein mehr Output Menge im Mobile und damit mehr Druck nicht Geld liegen zu lassen usw.
SV3N schrieb:
Effizienz und ein möglichst geringer Stromverbrauch scheinen nicht mehr so angesagt zu sein. Bin echt gespannt, wo die Reise hingeht.
Doch natürlich - eher ist das Gegenteil der Fall. Nur lässt sich das lange nicht mehr am TopEnd finden. Was btw. auch nicht erst seit heute so ist. Leider gegehen die Redaktionen immer den selben Fehler - man misst gefühlt Fortschritt nur und ausschließlich am TopEnd. Siehe die permanenten Vergleiche des Core Counts - mehr = besser. Praktischen Bezug hat das leider nicht mehr so richtig.
Wenn du Effizienzvergleiche willst - dann musst du halt die richtigen Produkte dafür nutzen. So ein "schaumgebremster" 12900er Alder Lake oder ein eingedeckelter 5950X bspw. sind schon ne ziemlich effiziente Nummer. Damit gewinnst du aber obenraus logisch keinen Blumentopf ;)
 
  • Gefällt mir
Reaktionen: Tzk
Zurück
Oben