News Hopper & Lovelace (RTX 4000): Nvidias Next-Gen-GPUs sollen auf TSMCs N5-Prozess setzen

Ayo34 schrieb:
War doch schon immer so. Wenn dann der Prozess nicht funktioniert, hat man Probleme. Eine Alternative gibt es dazu aber auch nicht. Entweder es funktioniert oder es wird ein schlechterer Prozess benutzt.
Klar, aber mit "war doch schon immer so" kommt man nur solange so weit, bis es mal gehörig schief geht. Für alle Beteiligten dann. Also sicher ist was anderes.
 
Die Specs klingen sehr beeindruckend. Über Verfügbarkeit und Preisgestaltung wurde hier schon eingehend debattiert.

Was mich am der ganzen Sache stört, bei allem Verständnis für Leute, die 4K 144Hz wollen, ist die Tatsache, dass m.E. Spiele dadurch immer schlechter entweder portiert oder programmiert werden in Bezug auf Ausnutzung der Ressourcen der Graka.

Aktuelle Beispiele wurden bei CB und anderswo doch reichlich benannt: Horizon Zero Dawn, Jurassic World Evolution 2, Forza Horizon 5, Battlefield 2042 uvm. Dort ist die Grafik nicht unbedingt AAA tauglich und frisst dazu noch reichlich Leistung.
 
  • Gefällt mir
Reaktionen: ThePlayer
ThePlayer schrieb:
Ja da hast du Recht. Habe ich mir auch schon beim Lesen des Artikels gedacht.
Aber das würde dann ja Apple treffen. Für mich so richtig wie ein Reis sack in China.
Solange das nicht AMD tangiert ist mir das egal.

Nur hat Apple zur Not die finanziellen Mittel andere Big Player auszuspielen. Sollte sich ein scheitern oder eine große Verzögerung auch nur ankündigen, dürfte Apple ne ganze menge Geld auf den Tisch legen, um sich weiter Kapazitäten in den alten Prozessen zu sichern. Das würde zwangsweise weniger Kapazitäten für alle anderen Kunden bedeuten. Apple ist für TSMC ein riesen Kunde und Apple hat entsprechende finanzielle Mittel.
ThePlayer schrieb:
Wenn ich GloFo wäre würde ich versuchen wieder Anschluss zu finden bei der Marktlage die vorherrscht.

Ist in der Theorie so einfach, in der Praxis aber nicht. Sie sind schon bei deutlich weniger komplexen Prozessen gescheitert und das Knowhow fällt nicht vom Himmel. Vom finanziellen Risiko zu schweigen.

Mit Glofos aktueller Fertigung kann man einen Großteil der weltweit nachgefragten Chips fertigen. Investitionen sind da eher in der Kapazität gut angelegt. Ansonsten sind die bald weg vom Fenster, wenn alle anderen Hersteller Ihre Ausbaupläne umgesetzt haben.

@Topic: freue mich auf die neuen karten. Dann dürfte 4K High Refresh Gaming endlich so richtig zünden. Bei der CPU Leistung bin ich aktuell recht zufrieden. Aber gegen deutlich mehr GPU Leistung hätte ich nichts einzuwenden.
 
  • Gefällt mir
Reaktionen: ThePlayer und edenjung
Colindo schrieb:
@Cool Master @habla2k
Im Artikel steht doch, dass Apple sehr wahrscheinlich nächstes Jahr auf N3 zieht. Deren Belegung von N5 ist in dem Zusammenhang also irrelevant.
Naja, Apple wird neue Produkte auf N3 ziehen. Aber A15, M1 (Pro, Max) und co. werden auch noch was produziert werden - je nachdem, wie schnell da die Nachfolger der jeweiligen Produkte kommen, auch noch was länger. Ist also nicht so, als würde da plötzlich alles frei.
Klar, wenn der neue iPhone Chip auf N3 ist, hilft das auf jeden Fall.
 
TigerNationDE schrieb:
Das sind die selben Kommentare wie sie von Leutein in einem Fiat Punto kommen, wenn es um teure Sportwagen geht xD

1. fahre ich keinen Punto, zu klein und zu langsam... ;)
2. Hast du meine Anspielung nicht verstanden.
 
  • Gefällt mir
Reaktionen: edenjung
Dr.Pawel schrieb:
Allerdings bezweifle ich, dass im N5 für alle genug Platz sein wird!
Wieso nicht Apple hat vom iPhone 12 in 7 Monaten über 100 Mio. Abgesetzt das 13 soll sich laut Analysten angeblich besser verkaufen als das 12er. Dazu kommen noch die M1 Chips die ja auch noch in N5 gefertigt werden. Und nächstes Jahr wird der N5 bei TSMC noch besser laufen. Da kann ich mir schon vorstellen das dort genug Kapazität für AMD, Nvidia und Qualcomm drin ist.
 
LTCMike schrieb:
die m.E. nch wie vor größte Schwäche bei AMD ist und bleibt die Treiber-Architektur, mit der sie's partout nicht fertig bekommen, die Rohleistung auf die Straße, sprich den Bildschirm zu bekommen.

Ähm bist du noch bei der Hawaii r9 290x Generation?

Aktuell sind der Treiber und die Architektur gar so gut, dass die in der alten Nvidia Königsdisziplin (CPU overhead) gar deutlich einen Vorteil haben. Erst ab 4K kann Nvidia da Gegen halten.

Und der Treiber von AMD ist ein Traum.
Nicht nur gibt es alle paar Monate etwas mehr Leistung, nein es gibt oc/ uv sowie ein parameter overlay nativ im Treiber.

Seit dem brauche ich keine zusatzsoftwsre mehr.
Und nein aus mir spricht kein Fan, sondern meine Erfahrung. , siehe meine GPU Historie in der Signatur
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Hatch, frost21 und 4 andere
Autokiller677 schrieb:
Naja, Apple wird neue Produkte auf N3 ziehen. Aber A15, M1 (Pro, Max) und co. werden auch noch was produziert werden - je nachdem, wie schnell da die Nachfolger der jeweiligen Produkte kommen, auch noch was länger. Ist also nicht so, als würde da plötzlich alles frei.

Ja ist schwer einzuschätzen. Die iPhones dürften aber einen der größten teile ausmachen. Wir wissen auch nicht, was Apple auf Halde produzieren lässt. Mit einem Schlag wird man natürlich nicht alle Produkte umstellen. Die M und die A Chips sind aber stark verwand. Ich denke man wird die Produktion relativ zeitnah umstellen. Klar werden sie weiter 5nm nutzen, aber es dürfte relativ schnell nur noch ein Bruchteil von dem sein, was sie heute belegen.

Laut Gerüchten wird es aber auch bei AMD, Nvidia und anderen etwas dauern, bis sie komplett umsteigen.
 
https://newsroom.ibm.com/2021-08-23...Accelerated-Artificial-Intelligence-Processor



[...]Leadership in semiconductors

Telum is the first IBM chip with technology created by the IBM Research AI Hardware Center. In addition, Samsung is IBM's technology development partner for the Telum processor, developed in 7nm EUV technology node.

Telum is another example of IBM's leadership in hardware technology. IBM Research, among the world's largest industrial research organizations, recently announced scaling to the 2 nm node, the latest benchmark in IBM's legacy of contributions to silicon and semiconductor innovation. In Albany, NY, home to the IBM AI Hardware Center and Albany Nanotech Complex, IBM Research has created a leading collaborative ecosystem with public-private industry players to fuel advances in semiconductor research, helping to address global manufacturing demands and accelerate the growth of the chip industry.

For more information please visit www.ibm.com/it-infrastructure/z/capabilities/real-time-analytics

Daraus folgt: Samsung sollte man nicht abschreiben. AMD (mobile RDNA), Google, IBM haben großes Interesse, dass deren Fertigung läuft. Geld wird keine Rolle spielen.
 
Wer eine Karte der RX6000 oder RTX 3000 besitzt, der dürfte die nächste Generation guten Gewissens aussitzen.
Wenn man den Gerüchten traut, dann wird die zusätzliche Leistung vor allem durch zusätzliche Leistungsaufnahme erreicht werden.
Es ist einerseits beeindruckend, wenn dann 4K mit Raytracing und über 100 fps laufen wird, aber 600W GPU Leistung dafür...
 
LTCMike schrieb:
die m.E. nch wie vor größte Schwäche bei AMD ist und bleibt die Treiber-Architektur, mit der sie's partout nicht fertig bekommen, die Rohleistung auf die Straße, sprich den Bildschirm zu bekommen. Allein der auch mit der aktuellen Gen schwachbrüstige VR-Support seitens AMD (der m.E. nach ein reines Software-Problem sein dürfte), lässt mich da auf wenig Besserung mit der nächsten Gen hoffen - egal in welchem Node das aus wieviel Chips auch immer zusammengedengelt wird. Da kann sich NV weiterhin entspannt zurücklehnen und schon für ihre Einstiges-Modelle Enthusiastenpreise aufrufen ...
Du schreibst hier totalen Blödsinn zusammen. AMD hat mit RDNA2 seit Jahren das erste Mal zu Nvidia aufgeschlossen. In VR konnte ich mich weder über meine 5700xt noch jetzt über meine 6800xt beschweren. Hast du eigentlich die Tests zu der Radeon 6000er Reihe gelesen oder ist das hier nur geschwurbel und uninformiertes Trollen?
 
  • Gefällt mir
Reaktionen: Richy1981 und 5hred
Nebula2505 schrieb:
So RTX 3080 performance unter 450€ und RTX 3070 Leistung unter 350€ wär schon schön. Wenn man per SKU zwischen +40 und +60% Leistung rechnet, oder sogar mehr, könnte das aufgehen, Mal schauen wie sich der Markt und die Verfügbarkeit entwickelt. Sollte der Markt mit günstigen Ampere Karten geflutet werden durch günstige Miningkarten, sollten die Preise nicht zu hoch sein, sollte das nicht der Fall sein, dann wird's auf jeden Fall nicht günstig, kommt natürlich auch drauf an, ob AMD dieses Mal gewinnen kann, war ja jetzt schon knapp, aber möglich wärs.
Die aktuell Erfahrung zeigt eher, dass die Leistung Ende nächsten Jahres genauso viel kosten wird wie aktuell, nur dass du eben dann für 3000-4000€ noch eine Schippe drauflegen kannst.
In einem Anbietermarkt (Nachfrage übersteigt die Produktion) gibt es keinen Grund Preise nach unten anzupassen.
Ich würde mich sehr wundern, wenn eine 4060 mit der Geschwindigkeit einer 3080 günstiger wäre, als eine 3080.
 
Ben99 schrieb:
Sowas hab ich mir auch zusammen gereimt ;) gibt's dafür irgendwo was aussagekräftiges? Tests oder ähnliches? Ich hab auf Reddit anfangs (beim Launch der 6000 Series) vereinzelt(!) über Microstutter in VR gelesen, aber in jüngerer Zeit nicht mehr.
Wäre für mich sehr interessant, da ich mir eine 6800XT zulegen will und viel VR mache.
Also ich hatte weder mit meiner 5700xt noch mit der 6800xt Probleme oder Micro ruckler gehabt. Bei Dr 6800xt merkt man dann auch die Mehrleistung in VR.
 
  • Gefällt mir
Reaktionen: Ben99
Wie steht es denn um die Drosselung bzgl Strom und Wasser? Ist das wieder entspannter?
 
Die Nvidia Hater wieder so : Ich bin da skeptisch....das wird teuer für Nvidia.....5nm ist eh von Apple belegt.....ob man damit AMD's Gegenangriff abwehrt bleibt abzuwarten....


Am Ende alles wie immer. Nvidia zeigt AMD die Rücklichter, zu einem Preis, der Jenseits von allem ist was man noch erklären könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Wenn wirklich auf nur noch TSMC gesetzt wird, gute Nacht! Da kommt nie die Menge zusammen, die den Markt sättigt!
Hoffen wir einfach, dass China weiter nur blufft und nicht Taiwan überrennt!
Ich habe echt ein ungutes Gefühl!
 
Zuletzt bearbeitet:
Ben99 schrieb:
Sowas hab ich mir auch zusammen gereimt ;) gibt's dafür irgendwo was aussagekräftiges? Tests oder ähnliches? Ich hab auf Reddit anfangs (beim Launch der 6000 Series) vereinzelt(!) über Microstutter in VR gelesen, aber in jüngerer Zeit nicht mehr.
Wäre für mich sehr interessant, da ich mir eine 6800XT zulegen will und viel VR mache.
will hier nicht zu sehr OT gehen, deshalb nur kurz: es ist
a) meine persönliche Erfahrung von mir erst mit ner Vega64, dann aktuell ner 5700XT, die beide als "Steigerung" der VR-Leistung von einer 1060 kommend gedacht waren und im Vergleich ziemlich wenig mehr Performance bei nur ner Rift S liefern (trotz leistungsfähigem PC-CPU-Unterbau)
b) so einige Reports, v.a. im DCSW-Forum (ich betreibe VR nur noch bei FlugSim, weil es mir in Rennsims zu wenig Vorteil und zusätzliche Immersion brachte), wo zwar die VR-Performance an sich quer Beet seitens der Simulation schon nicht der Burner ist, aber dann bei vielen Usern mit aktueller AMD-Grafik-Hardware die Leistung nochmal im Vergleich zu NV-Anwendern deutlich schlechter ausfällt - und kann hier nicht nur am Game-Setting liegen, denn die AMDs performen in 2D ziemlich gleich auf mit NV, fallen aber in VR teils erheblich hinter leistungsmäßig eigentlich unterlegener NV Hardware zurück, weshalb ich unterstelle, dass die Treiber hier seitens AMD nicht entsprechend programmiert, optmiert o.ä. sind.
 
  • Gefällt mir
Reaktionen: Ben99
d3nso schrieb:
1. fahre ich keinen Punto, zu klein und zu langsam... ;)
2. Hast du meine Anspielung nicht verstanden.
Solang es keine komplett neue Generation wird, war es bei Grafikkarten und GPUs zum Ende hin oft so, das man mit der Brechstange und mehr Energiehunger versucht die Leistung zu steigern. Erst wenn ne neue (und dann auch meist nicht bei der ersten Version einer Generation) kommt, legt sich das idr. und zum Ende hin erleben wir das selbe Spiel erneut.

Siehe Intel, was haben sie mit der Brechstange und immer mehr Watt versucht noch mehr aus den letzten CPUs zu holen.

Das ist alles nicht neu. Das mit der Energieeffizient ist halt relativ schnell vergessen, wenn es am Ende darum geht Rohleistung zu erzielen :D
 
Colindo schrieb:
Also ich kann dazu nur sagen, dass mein Arbeitgeber in den letzten zwei Monaten eine deutliche Verschärfung der Lage gespürt hat. Kam für mich auch überraschend, da ich den gleichen Eindruck hatte wie du, aber zurzeit sieht es bei vielen Chips in alter Fertigung nach einer Katastrophe Anfang nächsten Jahres aus, die dann mit Glück Anfang 2023 nachlässt.
Wäre doch interessant zu wissen woher diese unstillbare Nachfrage kommt. Mir fällt da nichts wirklich ein. Klar das hier einige Faktoren zusammen laufen. Aber vieles was wegen der Pandemie nachgefragt worden ist sollte doch mittlerweile bedient worden sein. Automobilbranche sollte aus unser Computersicht ehr nebensächlich sein. Da dort nur wenig in unter 14nm gefragt ist. Und wir sind hier bei N5 bis N12 unterwegs. Also kommt man sich hier nicht in die Quere.
 
Phoenixxl schrieb:
Wer eine Karte der RX6000 oder RTX 3000 besitzt, der dürfte die nächste Generation guten Gewissens aussitzen.
Wenn man den Gerüchten traut, dann wird die zusätzliche Leistung vor allem durch zusätzliche Leistungsaufnahme erreicht werden.
Es ist einerseits beeindruckend, wenn dann 4K mit Raytracing und über 100 fps laufen wird, aber 600W GPU Leistung dafür...

Also wenn die Leaks auch nur ansatzweise stimmen, dann dürfte das bei AMD und bei Nvidia tatsächlich mal ein riesen Generationssprung werden. Ich hätte gerne deutlich mehr GPU Leistung. In UHD kann man mit RX6000 und RTX3000 schon arbeiten, aber gerade ohne DLSS tut sich AMD da noch teilweise ziemlich schwer.

Ich würde durchaus von einer 6800XT auf eine 4080(?) oder 7800XT wechseln. Mehr Leistungsaufnahme würde mich persönlich auch herzlich wenig stören. Ob die Karten nun 300 Watt, 450 oder auch 600 ziehen, ist mir relativ egal.
 
Zurück
Oben