News Gerüchteküche: AMDs RDNA-2-Serie besteht angeblich aus drei GPUs

Chismon schrieb:
Das obige PCGH Statement halte ich fuer ziemlichen Mumpitz oder Wunschdenken der dortigen Redaktion, denn traditionell kommen 70er und 80er nVidia Oberklasse-Karten (vermutlich beide mit GA104er Chips, Vollausbau und beschnitten) immer vor einer oftmals hinaus geschobenen 80Ti-Karte (abgespeckter GA102 Chip), mit der man hofft, dann noch einmal Zusatzverkaeufe bei neuen 80er Besitzern zu machen bzw. diese doppelt zu melken.

Ach es gab doch nun schon alles... vom 104er Chip, über den vollausgebauten Big Chip, den abgespeckten Big Chip etc. Man kann nicht unbedingt davon ausgehen, was früher war. Nvidia hat schon oft die Strategie gewechselt. Ob gleich eine TI kommt, mal sehen. Kommt drauf an, was die Karten allgemein so leisten. Wenn Nvidia neue Karten verkaufen will, können sie auch eine Refreshgeneration wie die 700er einschieben, wo man nur einen neuen Chip nach oben hin bringt.

Chismon schrieb:
Dazu waer eine bspw. 6 Monate spaetere Veroeffentlichung der RTX 3080Ti der Ausbeute mit neuer Node zutraeglich und somit den Gewinnen.

Da Nvidia den Chip auch mit fetter Margen als Quadro verkaufen wird, werden sie sicherlich nicht so super lange warten, bis sie den großen Chip an den Start bringen. Zumal die 7nm Yields ja recht gut sein soll. Zum Releasezeitpunkt ist der Prozess aber auch über 2 Jahre alt. Sie haben extrem Geld gespart, indem sie nicht wie AMD von Anfang an auf den Prozess gesetzt haben, sondern nun auf den gereiften 7nm Prozess setzen können.

Chismon schrieb:
zumal man bei nVidia vermutlich nicht weiss, was AMD/RTG maximal bieten kann mit RDNA2.

Ich glaube Nvidia ist die Firma, die neben AMD selbst und den Konsolenherstellern am besten wissen, was Sie von RDNA2 erwarten können. In der Größe kennt man seine Konkurrenz ziemlich gut, zumal Nvidia einiges an Know How hat um abzuschätzen, was AMD da werkeln kann. Sie werden wohl recht gut einschätzen können, wo RDNA2 im (für Sie) worst case landen könnte
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Shoryuken94 schrieb:
Ach es gab doch nun schon alles... vom 104er Chip, über den vollausgebauten Big Chip, den abgespeckten Big Chip etc. Man kann nicht unbedingt davon ausgehen, was früher war. Nvidia hat schon oft die Strategie gewechselt.
So oft nun auch wieder nicht.
Erst kam das kleinere Modell als neue Speerspitze und der große Chip wurde Monate später nachgeschoben.
Bei Turing lief das jetzt zwar etwas anders allerdings was blieb da auch schon anderes übrig?
Bereits der TU106 der normalen 2070 war ähnlich groß wie der GP102 der 1080Ti, kleinere Chips konnte man für Nachkäufer also knicken und die dollen "Super" Modelle nutzen immernoch die gleichen Chips. Neu ist da nur welcher Chip in welcher Ausbaustufe zum Einsatz kommt. Damit dürfte auch klar sein warum die 1080Ti so schnell abgesägt wurde.
 
Seit es die Ti gibt, kam sie eigentlich immer später, Turing war bisher die einzige Ausnahme und das auch nur, weil die Ti dort die einzige Karte war, die die alte Ti schlagen konnte und eine 2080 als kurzfristiges Topmodell mit ihren 8GB ein Downgrade gewesen wäre, vor Allem mit der Leistung die sie zum Release gebracht hat. Mittlerweile kann sie sich durch neuere Spiele besser gegen die 1080Ti behaupten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Taxxor schrieb:
Das Fazit: Diese Angaben auf den Folien sind bestenfalls Minimalwerte, realistisch betrachtet Durchschnittswerte und schlechtestenfalls sind es die bestmöglichen Werte.

Die Angaben der Zahlen beziehen sich halt auf einen von AMD gewählten Takt und einer von AMD gewählten "Geschwindigkeit" mit einer unbekannten festen Größe im Verbrauch.

So ist bei 100 Watt 50% Gewinn sehr ordentlich, da die Teile dort alle schon ziemlich effizient sind. Bei 500 Watt sind 50% überhaupt kein Problem, in diesem Bereich läuft keine HW mehr im SweetSpot.

Falls bei 200 Watt 50% Gewinn in Fps, TFlop oder von mir aus auch Erdumdrehungen erzielt werden, ist das ein ziemlich guter Wert.

Das sagt natürlich nichts aus, wie die Chips bei 50Watt laufen oder bei 500 Watt. Große Chips sind aber allgemein schwerer im niedrigeren Bereich sparsam, als kleine Chips.

So ein 80 CU Monster ist selbst mit 800Mhz nicht sparsam aber kein Stück schneller, als ein 40 CU Chip mit 1600Mhz.

mfg
 
Shoryuken94 schrieb:
Gerade in diesem Moment ist die 5700Xt von meinem Freund wieder abgeschmiert. Zur Abwechslung diesmal mit einem komplett grünen Screen auf einem Monitor, die restlichen Schwarz.

System:

i7 3960x, Asus x79 Rampage IV Extreme, 32GB DDR3 1600 im Quadchannel, Seasonic gx 850 Watt Netzteil, 2x Full HD Monitore, ein 4K Monitor und als Grafikkarte die 5700XT Red Devil. Treiber ist der aktuelle (20.4.2)
OK, in diesem Fall liegt es sicher nicht am Netzteil...

Von den Powercolor-Karten liest man anteilig mehr von Problemen. Zusätzlich halte ich nichts von kräftig ab Werk übertakteten Karten, zumal der große Navi-Chip ohnehin kein OC-Wunder ist.

Testoption 1) Mal ein wenig mit dem Takt runtergehen. Wenn es dann geht, hat Powercolor die Chips für die Red Devil nicht sorgsam genug ausgesucht.

Testoption 2) Mal eine andere RX 5700 XT einbauen, z.B. eine Gigabyte RX 5700 Gaming XT oder eine Nitro+ von Sapphire.

Testoption 3) Das Grundsystem ist ja schon relativ alt ("Sandy Bridge-E"). Mag damals zwar "Enthusiast Platform" gewesen sein, aber nützt ja nix. Ggfs. liegt es am Board, dass mit den wechselnden Lastzuständen der Navi nicht klarkommt. Alternativ gefragt: "Aktuelles" BIOS/UEFI für das Board installiert?
 
Trefoil80 schrieb:
Testoption 1) Mal ein wenig mit dem Takt runtergehen. Wenn es dann geht, hat Powercolor die Chips für die Red Devil nicht sorgsam genug ausgesucht.

Ich zeige jetzt einfach mal mit dem Finger auf den Ram auf der Graka.

Hier helfen 100Mhz weniger Wunder :D

mfg
 
  • Gefällt mir
Reaktionen: Colindo
howdid schrieb:
Ob sie die Treiber in den Griff bekommen werden? Tat schon brutal weh meine Radeon VII abzugeben nur damit ich ohne Probleme Zocken kann und um 100 Euro mehr eine 2070 super kaufen musste...
Ich hätte mit dir getauscht!
 
  • Gefällt mir
Reaktionen: bugmum und Onkel Föhn
so mal erklärt wie den die 50% energie effizienz erreicht wird
da strom zu Takt immer im Quadrat ansteigt bedeutet das schlicht bei 0,1v)=21w mehr verbrauch hat Man von eine vcore der gpu von max 1,2v aus würde es reichen wenn 0,3v @ Default bei 1,9ghz laufen
Das spricht zuerst für die Fertigung da hat amd nix an der Architektur geändert
bei 0,3v weniger hat man quasi 91w eingespart
gehen wir von der rx5700xt aus sind das mal schlappe 225 vs 136w
Wie gesagt das ist noch ohne Architektur Anpassung da sind nochmal etwas um die 10% drin
das könnte die n23 rx6600xt sein (dieselbe cu größe ohne dxr) und auf max 120w tdp hinauslaufen
High end wird da sich nix ändern
Der n21 mit 80cu wird sicherlich seine 375w fressen daher erwarte ich auch einen stark eingeschränkten takt von nur 1,5ghz und max 300w tdp
Was die gpu auf max niveau einer rtx2080s stutzen wird.
oder anders gesagt 5120*2*1,5=15,36tf -20% dxr Abzug 12,288tf
rtx2080s =3072*2*1,9=11,673tf
nvidia efizienz ist eben besser und das bei 12nm was auch an der chipfläche liegt weniger leckströme durch wärme.
reduziert man den takt wird navi10 extrem effizienter aktuell reichen da 300mhz
aber amd wird wieder die chips auf kante laufen lassen und somit 2,1ghz anpeilen und schwupps ist die Effizienz weg.
Zumindest beim n22 und n23
Da wo rdna2 glänzen wird ist bei notebooks. da man da kaum auf max takt gehen kann.
amd versaut sich jeden gpu Marktstart seitdem amd bei ati eingestiegen ist.
lediglich zu neueren Fertigung waren die chip bei amd mal besser als bei nvidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Mcr-King schrieb:
Doch im Prinzip werden diese für RTX Voice genutzt weil die andern Workouts noch nicht fertig sind und Entwickler heutzutage nichts mehr selbst machen. ;)



Gieb sie mir ;)


geht ja Leider noch nicht. Nichts passendes von amd da;)
wenn big navi da ist, kannst sie aber direkt haben;)
 
  • Gefällt mir
Reaktionen: Mcr-King
syfsyn schrieb:
da strom zu gtakt immer im quadrat abnsteigt

gut, dass du keine CPU´s baust.

JEDER versucht durch Fertigung die Kurve zu glätten.

Nach deiner Rechnung könnte man auch mit Ohmschen Widerständen arbeiten und Temperatur existiert sowieso nicht.

mfg

p.s.

Du kannst mit gleichem Strom mehr Takt erzielen oder mit weniger Strom gleichen Takt, wenn du alleine die Temperatur absenkst. So funktionieren Halbleiter.

Mit Fertigung kann man bei gleicher Struktur weniger Wärme erzeugen, ohne dass man irgend etwas am Stromfluss ändern muss....

Merkst du was?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teralios
Die aussage ist nicht von mir
Sehe da aber wieder Schreibfehler, wurst finger eben
 
@syfsyn Es ist sehr schwer zu lesen, was du schreibst, aber selbst wenn ich nur auf den Inhalt einginge, wären da immer noch ein Haufen Fehler.
Ein Anstieg um 0,1V kann alle möglichen Auswirkungen haben. Von 1,0V auf 1,1V sind das 10%, also steigt der Verbrauch um 21%. Aber eben nicht um 21W (außer du hast zufälligerweise vorher genau 100W gehabt). Also bevor deine Rechnungen stimmen, muss man da nochmal ordentlich nachbessern.

Wie @[wege]mini schon sagte, hängt auch nicht der Takt quadratisch an der Spannung.
 
  • Gefällt mir
Reaktionen: Teralios und [wege]mini
Colindo schrieb:
hängt auch nicht der Takt quadratisch an der Spannung.

Irgend wie ja schon. :D

Die Naturgesetze können wir auch nicht umschreiben, daher ist ja 0° K auch nur mathematisch möglich oder halbieren ^^

Wirklich gut sind Halbleiter nun einmal unter absolut lebensfeindlichen Bedingungen für Sauerstoff atmende Lebewesen, so bis 100° C schlagen sie sich aber ganz gut.

Je kleiner sie werden, desto weniger Hitze vertragen sie natürlich. 1nm Chips mit 60° C sind mMn z.B. unrealistisch.

Wenn es einfach wäre, könnte es ja jeder.

mfg

p.s.

Damit es noch richtig Nerd wird...Vom Druck haben wir hier noch gar nicht geredet....Da geht auch noch einiges, die Temperatur ist auch für Halbleiter vom Druck abhängig und ich rede hier nicht vom Anpressdruck des Kühlers :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, Teralios und Onkel Föhn
Das sowieso. Wird ja bei III V Halbleitern auch gemacht. Einstellen der bandlücke durch Zweidecks und Variation der gitterparameter durch die Zusammensetzung im InAlGaN stoffsystem. Da gibt's nen schönen kleinen Bereich höher Beweglichkeit an der Grenze.

Bei Silizium nimmt man ja Germanium als Streckungsmaterial um an der grenzfläche die Effektive Masse der Löcher zu reduzieren. Daher beim PMOS den stapel Si/Si_xGe_1-x/Si und zack.. Mehr takt und weniger Widerstand :D
 
Evtl ein Modulkonzept wie bei den CPUs wo man für Raytracing doch eine eigene GPU auferlegt und hier gleich ordentlich RT Leistung satt bietet. So könnte man den RT Kern auch einen eigenen Speicher zuweisen und vom Vram trennen.
Damit würden sich natürlich verschiedenste Konfigurationen anbieten.
Evtl auch eine 8gb vram und 4gb vram Bestückung.
Wobei ich keine Ahnung habe, ob so etwas Designtechnisch möglich und auch effizient ist - wäre.
 
Trefoil80 schrieb:
Was haben die für Systeme? Was haben die für Netzteile? Welchen Treiber setzen die ein?

Hab seit Jahren nur AMD Karten und eigentlich keine Probleme.

Mein letztes Problem lag an einem defekten HDMI Kabel, da kam der Bildschirm nach dem Standby nicht mehr hoch, bis ich ihn vom Strom getrennt habe.

Es gibt so viele Fehlermöglichkeiten...
 
  • Gefällt mir
Reaktionen: ThePlayer, Colindo und Mcr-King
GERmaximus schrieb:
Weil es nichts stärkeres gibt :D
Ich verstehe aber was du meinst.;)

Natürlich gibt es stärkeres...Titan RTX. Deshalb verstehe ich es auch immer nicht, wie sich alle damit rühmen sie wollen immer das Beste für Geld haben was es zu kaufen gibt. Wenn keine Titan RTX gekauft wurde ist es schlicht nicht das Beste. Und damit meine ich jetzt nicht im Speziellen dich. Habe nur deinen Kommentar als Beispiel für diese Haltung genommen. Und das Argument Preis-Leistung lasse ich von keinem gelten. Das Argument fällt ab 2080S flach spätestens.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Die titan ist auch nicht das beste was es zu kaufen gibt.
Das ist die Quaddro RTX 8000
 
syfsyn schrieb:
gehen wir von der rx5700xt aus sind das mal schlappe 225 vs 136w
Wie gesagt das ist noch ohne Architektur Anpassung da sind nochmal etwas um die 10% drin
das könnte die n23 rx6600xt sein (dieselbe cu größe ohne dxr) und auf max 120w tdp hinauslaufen
High end wird da sich nix ändern
Der n21 mit 80cu wird sicherlich seine 375w fressen daher erwarte ich auch einen stark eingeschränkten takt von nur 1,5ghz und max 300w tdp
Was die gpu auf max niveau einer rtx2080s stutzen wird.

Also mal nur auf diesen Part bezogen: Warum sollte der n21 auf 375W kommen, wenn du sagst, dass der n23 mit 40 CUs auf 120W kommen könnte?
Wenn n23 doppelt so groß ist und damit die CUs verdoppelt und den Takt der CUs gleich hält, dann kann er auch nur das doppelte verbrauchen, eher weniger, da die CUs ja nicht die ganze Karte ausmachen, an anderer Stelle durch ein größeres SI und mehr Speicher aber dann wieder mehr, sodass sich das vmtl. ausgleicht.

Wenn du die 50% Perf/Watt Angabe alleine auf niedrigeren verbrauch umrechnest, dann hätte die Karte mit exakt der Leistung der 5700XT 150W, die CUs verdoppeln bei gleichem Takt würde zu 300W führen.
Verdoppeln der CUs würde in dem Fall die Rohleistung ebenfalls verdoppeln, also 19,5TFLOPs.
Das ist aber nicht gleichzusetzen mit doppelter FPS Leistung, ich gehe mal von 75% aus, womit man trotzdem 15% über der 2080ti liegt und weit über einer 2080S steht.

Dann kommen noch die IPC Verbesserungen hinzu, wodurch die TFLOPs gleich bleiben, die FPS aber steigen, somit nochmal mindestens 10% drauf.
Ergänzung ()

[wege]mini schrieb:
So ein 80 CU Monster ist selbst mit 800Mhz nicht sparsam aber kein Stück schneller, als ein 40 CU Chip mit 1600Mhz.
Das kommt doch ganz darauf an, wo der Sweetspot des Chips liegt.
Die MHz in deinem Beispiel sind recht niedrig, ich gehe mal von 2GHz für 40CUs aus.
Wenn man die CUs nun bei gleichem Takt verdoppelt, dann verdoppelt man auch den Verbrauch.
Jetzt geht es um die Frage, ob das halbieren der Taktrate den Verbrauch mehr oder weniger als halbiert.

Davon ab würdest du aber 80CUs mit 800 oder 1000MHz denke ich sowieso nicht richtig auslasten können, somit würde die Leistung sehr stark einbrechen und die doppelte CU Zahl würde mit dem Takt eher weniger leisten als die 40CUs mit 1600-2000MHz.

Das war laut Cerny ja auch einer der Gründe, warum man sich bei Sony für 36CUs bei hohem Takt entschieden hat statt wie Microsoft für 52CUs bei niedrigerem Takt. Obs was gebracht hat, werden wir sehen.
 
Zuletzt bearbeitet:
thepusher90 schrieb:
Natürlich gibt es stärkeres...Titan RTX. Und das Argument Preis-Leistung lasse ich von keinem gelten. Das Argument fällt ab 2080S flach spätestens.

warum lässt du dieses Argument nicht gelten?. Nur weil ich bereit bin bis zu 1200€ für eine GPU zu bezahlen, bedeutet das doch nicht automatisch das ich auch das doppelte bereit bin zu bezahlen für 5-8% Mehrleistung. Einfach weil das p/l grottenschlecht ist. Klar ist es bereits bei der 2080s oder der Ti, da hast du recht. Jedoch sind 1200€ für zb 100fps was anderes als 2700€ für 108fps.

Das erinnert mich so ein bisschen an das Argument: wer einen Golf r fährt dem ist egal was der Sprit kostet.... WTF woher kommt diese dümmliche Ansicht (nicht auf dich bezogen sondern allgemein)
 
Zurück
Oben