News RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an

ThePlayer schrieb:
Bei Mercedes kostet eine A Klasse in der Herstellung auch nur so um die 8000 Euro und wird für das x fache verkauft.
Trotzdem liegt die Marge im Automobilbereich nur bei wenigen Prozent. Denn es gibt mehr Kosten zu decken als nur die Herstellung. Dementsprechend kann AMD auch keine High-End-Grafikkarte für 500€ verschleudern, wenn diese in der Herstellung 400€ kostet z.B..
 
Klar
McLovin14 schrieb:
Trotzdem liegt die Marge im Automobilbereich nur bei wenigen Prozent. Denn es gibt mehr Kosten zu decken als nur die Herstellung. Dementsprechend kann AMD auch keine High-End-Grafikkarte für 500€ verschleudern, wenn diese in der Herstellung 400€ kostet z.B..
Klar, die Frage ist jetzt wo liegen die tatsächlichen Kosten mit F&E sowie Marketing und Produktion? Vielleicht weiß jemand hier etwas im Forum. Und kann uns hier mit Infos versorgen.
 
chb@ schrieb:
Man munkelt AMD zieht auch an Nvidia vorbei, nicht nur beim release date ;)
?? 😆
denkst du Nvidia schläft und bringt keine neue und leistungsstärkere Generation heraus? wir werden nächstes Jahr sehen, wer mehr Leistung bietet zu welchem Preis.
 
Serandi schrieb:
?? 😆
denkst du Nvidia schläft und bringt keine neue und leistungsstärkere Generation heraus? wir werden nächstes Jahr sehen, wer mehr Leistung bietet zu welchem Preis.
Tatsächlich ist der Informationsfluss was Nvidia angeht relativ dürftig. Das riecht nach einer Strategieanpassung bei Nvidia meiner Meinung nach mit dem Ergebnis, dass wir absurde Auswüchse bei Verbrauch und Preis erleben werden in Bezug auf die Top-SKUs in 2022.
 
  • Gefällt mir
Reaktionen: Serandi
Beg1 schrieb:
Mag hier jemand eine Schätzung zum Stromverbrauch abgeben? 400 Watt dürften doch konservativ geschätzt sein oder?
Schätzen kann man aktuell nicht viel.
Nur grob vermuten auf dem was bisher passiert ist.

Eine 2080Ti war Standardmäßig glaub bei 250 Watt, die 3080 und 3090 haben da also nochmal 70 bis 100 Watt drauf gepackt.

Bei AMD sind es immerhin auch schon 300 Watt.
Man hat nun gesehen, die Leute kaufen es trotzdem und kühlen lässt sich das Ganze auch noch.

Wir können für die Topmodelle also ausgehen von:
Es wird sehr wahrscheinlich nicht weniger
Es wird sehr wahrscheinlich mindestens genauso viel
Es wird eventuell sogar erhöht, weil man Luft nach oben sieht.

Das schlimmste für uns ist mal wieder die Ungewissheit, das lange Warten.

Ich hoffe AMD hat an eine gute Raytracingleistung eingebaut.
 
SPB schrieb:
aus dem anderen Thread hier.
Ich hoffe das mehr Länder sowas einführen. Ich bin für maximal 300W für den ganzen PC. Das gleiche natürlich auch für Spielkonsolen (PS5, Xbox usw).

Das die GPU alleine 300W, nur zum zocken, verbrauchen ist nicht lustig.
 
PS828 schrieb:
Ich denke auch dass die Preise nur bei den großen GPUs verheerend ausfallen werden. Kleine GPUs lassen sich sicherlich günstig produzieren und kommen auch ohne Chiplets aus.

Was Intel betrifft: da passiert wohl erstmal garnichts. Aber sicherlich nicht so schlimm, da hier immer wieder nach 100 Euro GPUs geschrien wird können sie diese Lücke erstmal füllen.
Das könnte natürlich eine Chance darstellen für Intel. Während AMD und Nvidia Preise, Verbrauch und Transistorzahlen ins Absurde treiben, könnte Intel mit aggressiven Preisen im Low- und Midrange reingrätschen. Man stelle sich das mal vor, eine gute Midrange Karte für 350-400 Euro, die alles kann, was man braucht. Das wäre wirklich nice.
 
  • Gefällt mir
Reaktionen: PS828
_Cassini_ schrieb:
Lovelace ist wohl monolitisch. Hopper wird MCM, angeblich mit der dreifachen Leistung eines GA100 (vermutlich 3080?).

Hopper Leistung

Ob jetzt Lovelace noch kommt oder gleich Hopper, steht ja alles irgendwie auch noch in den Sternen. Auf jeden Fall hatte bekommt Hopper wohl sein Tape Out.

Tape Out 3dcenter
Lovelace wird sicher kommen da man nicht den Aufwand betreibt und dann nichts bringt. Wenn es nicht ganz reicht wird man es eben über den Preis regeln.

Die Frage ist eher ob dann 2 Jahre lang darauf gesetzt wird oder man Hopper oder Varianten davon das evtl. zuerst für den Profi Bereich gedacht ist dann schneller für Consumer adaptiert.
 
  • Gefällt mir
Reaktionen: _Cassini_ und Serandi
ZeroStrat schrieb:
Tatsächlich ist der Informationsfluss was Nvidia angeht relativ dürftig. Das riecht nach einer Strategieanpassung bei Nvidia meiner Meinung nach mit dem Ergebnis, dass wir absurde Auswüchse bei Verbrauch und Preis erleben werden in Bezug auf die Top-SKUs in 2022.
Ich bin echt gespannt ich glaube aber nicht dass die viel Wert auf einen niedrigen Verbrauch legen werden. Nichtsdestotrotz bist du ja selbst in der Lage die TDP je nach Auslastung einzustellen und zu beeinflussen.
Ergänzung ()

Matthias B. V. schrieb:
Lovelace wird sicher kommen da man nicht den Aufwand betreibt und dann nichts bringt. Wenn es nicht ganz reicht wird man es eben über den Preis regeln.

Die Frage ist eher ob dann 2 Jahre lang darauf gesetzt wird oder man Hopper oder Varianten davon das evtl. zuerst für den Profi Bereich gedacht ist dann schneller für Consumer adaptiert.
Wenn ich als Konsument weiß, dass diese Hopper Variante zeitnah an Lovelace anknüpfen wird, dann würde ich direkt auf Hopper warten, selbst wenn es ein halbes Jahr oder länger dauern würde.
 
Serandi schrieb:
Wenn ich als Konsument weiß, dass diese Hopper Variante zeitnah an Lovelace anknüpfen wird, dann würde ich direkt auf Hopper warten, selbst wenn es ein halbes Jahr oder länger dauern würde.
Ja nur wird man es halt nicht wissen. Denke eh dass Lovelace wettbewerbsfähig sein wird.

AMD verdoppelt zwar die Shader aber Nvidia geht auch um 70% hoch. Dazu sollte man taktmäßig mehr rausholen können da man von Samsung 8LPP zu TSMC N5 mehr Luft nach oben - was Takt und Verbrauch angeht - hat als AMD von TSMC N7 zu TSMC N5.

Beide werden sicher auch noch die IPC steigern aber insgesamt wird es so raus laufen dass AMD in Rasterizing vorne liegt aber Nvidia weiter bei Raytracing... Insgesamt werden beide deutlich besser als Ampere und RDNA2 was uns freuen kann.

Denke nicht dass man bei den Nachfolgern was überstürzt und erstmal abwartet was Intel mit DG3 bringt... Solange man gegen AMD oder Intel nicht deutlich zurück liegt wird keiner in Panik geraten. Auch kosten Designs von Generation zu Generation immer mehr was anreize gibt diese länger zu nutzen.
 
Inxession schrieb:
Ich geh aber stark davon aus das die Leute hierzulande, ... Deinen Infos und Aussagen mehr vertrauen als denen von diversen Twitter Nutzern die bisher genannt wurden.
Was unterscheidet mich von den anderen Twitter Nutzern? 🤨

Ich bin auf jeden Fall noch etwas vorsichtig mit meinen Informationen. Ich habe aber über 5 nm bisher nur Gutes gehört. 🙂
 
  • Gefällt mir
Reaktionen: Matthias B. V.
Greymon55 zeigt sich weiterhin unbeirrt optimistisch. Aber mal Hand aufs Herz und so, wer braucht denn 3x die Leistung einer RX 6900 XT, falls das Topmodell gemeint ist?! Bezogen auf Rasterisierungsperformance erscheint das mal abgesehen davon utopisch hoch. Die RT Performance könnte so eine Steigerung natürlich vertragen. Selbst Faktor 3 wäre hier für Brute Force Ansätze immer noch lächerlich wenig.

Gut, für 8K könnte man das einsetzen, aber wer spielt schon in 8K? Ich habe gefühlt ewig gebraucht, um auf 4K zu wechseln. Am Ende betrifft das eh nur ein unbezahlbares Halo Produkt. Ernsthaft darüber zu diskutieren macht nicht so viel Sinn.
 
@ZeroStrat es wären teure Beschleuniger für teure Hardware. Da Passt das dann auch wieder :D

Über FHD, WQHD und evtl UWQH brauchen wir nicht mehr diskutieren wenn die Leistung so käme ^^
 
PS828 schrieb:
Über FHD, WQHD und evtl UWQH brauchen wir nicht mehr diskutieren wenn die Leistung so käme ^^
Selbst für 4K@120Hz wäre das total overpowered, sogar wenn man kein DLSS oder FSR nutzt. :D Ich hoffe, damit ist eher die RT Performance gemeint.
 
  • Gefällt mir
Reaktionen: PS828
Mal sehen was draus wird. Mit Chiplets erhöht man natürlich enorm den Druck auf Nvidia weil ein 700mm² Klopper wohl sicher nicht billig zu produzieren ist und die Yields sicher nicht die besten sein werden. Das könnte wieder ein Gamechanger sein für AMD jedenfalls bis Nvidia nachziehen kann. Obs wirklich so kommt? Wer weiß.
 
@ZeroStrat ich denke mal das eine muss das andere nicht ausschließen.

Könnte doch einfach beides passieren. Also x-fache Rasterperformance und hinzu kommen die Verbesserungen bei RT. ^^

Und ja. Es würde DLSS und FSR in niedrigen Auflösungen komplett obsolet machen.

Ist doch aber auch nicht schlecht,. dafür funktioniert es auf den kleineren Karten weiterhin ausreichend. Die großen sind dann eben was für 8k und professionelle. Gaming war doch immer schon nur Beiwerk :D
 
Hier wird von 8K gesprochen und Spiele wie Cyberpunk laufen ohne DLSS noch keine 60FPS in 4K konstant.
Oder Metro Exodus Max Out in 4K keine Chance aktuell für 60FPS konstant !
 
Zuletzt bearbeitet:
Vielleicht kann mich jemand aufklären...

Als SLI und Crossfire noch aktuell waren gab es vermehrt das Problem 2 Karten gut ausgelastet zu bekommen bzw auch microruckler waren oft Thema.

Wenn man jetzt auf der GPU ein chiplet Design benutzt wird das nicht wieder genau die Probleme hervorrufen?
 
alne24 schrieb:
Vielleicht kann mich jemand aufklären...

Als SLI und Crossfire noch aktuell waren gab es vermehrt das Problem 2 Karten gut ausgelastet zu bekommen bzw auch microruckler waren oft Thema.

Wenn man jetzt auf der GPU ein chiplet Design benutzt wird das nicht wieder genau die Probleme hervorrufen?
Sollte so nicht sein wie mit AFR und SFR .
Die GPU sollte dann als Monolithischer Chip erkannt werden und auch so angesprochen werden.
SLI wurden zwei getrennte Karten erkannt und jede hatte ihren eignen Speicherpool.
Jede GPU hat ihr eigenes Bild gerendert die Ausgabe erfolgte dann nacheinander was zwar die FPS steigerte aber die Frametimes verschlechterte und Microruckler zu Folge hatte.


Bei dem dem neuen Ansatz von AMD und NV werden alle GPUs gemeinsam an einem Bild rendern so wie ich das verstanden habe und aus einem Speicherpool die Daten verarbeiten.
Vor einigen Jahren war das noch nicht möglich da die Schnittstellen limitiert haben es schein so als hätte man es nun geschafft!
 
  • Gefällt mir
Reaktionen: alne24
patrickschur schrieb:
Was unterscheidet mich von den anderen Twitter Nutzern? 🤨

Alleine die Sprachbarriere ...

und das du dich in deutschen Foren auch zeigst. Sicher vertrauenswürdiger als reines Twitter aus Asien oder sonst woher ..
 
  • Gefällt mir
Reaktionen: patrickschur
Zurück
Oben