News RDNA 2: Next-Gen-Radeon erscheint vor den Next-Gen-Konsolen

Status
Für weitere Antworten geschlossen.
ZeroStrat schrieb:
Es wird ja mit einer Art Iso Power gerechnet. Die Taktbarkeit selbst spielt bei GPUs im Grunde keine Rolle. Das Design selbst limitiert weit vor dem Prozess.
Aber bei einem Quasi-Shrink wie der Radeon VII sollte es doch dahingehend keine Einschränkungen geben? Bei gleichem Design und gleicher Leistungsaufnahme plus 25% Takt, oder bei gleichem Design und gleichem Takt 50% weniger Leistungsaufnahme. Das erwarte ich so von dem Prozess. Dass das Design mit reinspielt, ist mir schon klar, deswegen mein Kommentar anfangs, dass Nvidia bei höherer Dichte unter Umständen niedrigere Taktraten fahren muss.
 
Benji18 schrieb:
Die wichtigste Frage hier ist kann man den Bottleneck des HW Shedulers eliminieren od. nicht

Das Know-How sollte immer noch da sein, nur ist das Management der RTG seit Koduris Weggang leider immer noch relativ kopflos und durchwachsen organisiert (siehe suboptimale Navi RDNA1 Veroeffentlichungen) und auch aufgrund der groesseren finanziellen Einschraenkungen wird man sich bei der RTG im Vergleich zu nVidia vermutlich generell leider unter Wert verkaufen, befuerchte ich (die ganzen negativen Einwuerfe bzgl. der Navi RDNA1 Treiber sind auch eine Frage von Ressourcen/Belegschaftsstaerke).

Die Frage ist zudem, was nVidia in petto haben wird, von vielfach hoeherer RT-Raytracing Leistung mit Ampere koennen wird schon einmal ausgehen (auch wenn mich das nicht die Bohne interessiert, weil RT-Raytracing total ueberbewertet ist und vor 2022 wohl weiterhin die Ausnahme oder Nische bleiben wird, da finde ich die VR-Leistung bedeutend interessanter denn durch Half-Life Alyx und mit der HP Reverb G2, wird der VR-Markt wohl wieder ein Stueck weit interessanter), aber inwieweit wirkt sich der Fokus darauf auf die allgemeine (Rasterisierungs-)Rohleistung aus und was gibt es an neuen Features, die GeForce Ampere Karte haben werden, die bisher vorgestellten GA100 aber nicht (weil deren Schwerpunkt eher Compute und A.I.-lastig ist und nicht auf maximale Gaming-Leistung ausgerichtet ist)?

Die Architektur der RDNA2 Karten ist sicherlich etwas, welches extrem gut abgestimmt und optimiert sein muss, um an die Ampere Grafikkarten heran kommen zu koennen und diesen ernsthaft gefaehrlich werden zu koennen, das denke ich auch.

Dazu kommt das RT-Raytracing Raetsel bzgl. der Implementierung bei AMD/RTG, denn ohne Abstriche/Verluste anderweitig (wie bei nVidia) wird man das wohl auch bei RDNA2 GPUs nicht realisieren koennen und es bleibt zu hoffen, dass die Zusammenarbeit mit Microsoft und Sony da hilfreich war im ersten Anlauf eine ressourcenschonendere Umsetzung als bei nVidia zu finden, die in dem Gebiet ja schon kraeftig Erfahrung gesammelt und Vorsprung haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18
Iguana Gaming schrieb:
@Summerbreeze Die neue Mittelklasse, unteres High-End wird dann wohl ne RTX3060/3070 sein und bei 500€ für ne 3060 und 700€ für ne 3070 anfangen. Ist doch die jetzige 2060Super, mit im Schnitt 450€, gar net weit entfernt von.
Ich hatte mich jetzt zunächst an den aufgerufenen 5700XT Preisen orientiert. Dort spielt die Musik überwiegend bei 400 - 500€.
Mit Top Zuschlag könnte es evtl. in Richtung 500 - 600 gehen. Da ist für mich dann aber auch die Grenze. Immer voraus gesetzt, die Leistung stimmt.
Nvidia kann eben die Preise nehmen, weil sie seit einigen Jahren vorne weg sind und AMD sich dummerweise beim 5700 Design etwas verkalkuliert hat. Ohne die Super Karten könnte Nvidia die Preise auch nicht so aufrufen.
 
@Summerbreeze Wie gesagt du wirst ganz sicher keine Big Navi Karte mit 2080Ti Leistung für 400-500€ sehen. Mit der übernächsten Generation und RDNA3 vielleicht, aber ganz sicher nicht jetzt. Aber lasse mich dahingehend natürlich gerne überraschen.
 
scootiewolff22 schrieb:
AMD wird auch mit der nächsten Generation NVIDIA nicht knacken können. Deal with it
Es würde reichen, wenn AMD mit der 3080 mithalten kann und 2 GB mehr RAM bietet.
Gerüchte besagen, bei 3080 Max 10 GB ram.
Die meisten GPU Verkäufe sind bei pc Spielern die 60er, 70er und mit Abstand dahinter die 80er Reihe. 80 ti Reihe ist Enthusiasten Zielgruppe, die ist wesentlich kleiner.
 
sialickiz schrieb:
Ja, ja jetzt sind die Spiele schuld. :hammer_alt:

Es interessiert niemanden da draußen warum zb. Modern Warfare 2, Mafia 2 - Remastered, Half Life - Black Mesa usw. usw. auf AMD so schlecht performen.
Die leute sehen die Benchmarks und entscheiden sich für NV, verständlicherweise.

So gut wie niemand wird sich die Frage stellen, liegts jetzt an der Hardware oder der Software, hmmm ?

Viele Spiele laufen sehr bescheiden auf AMD-Gpu´s, end of the Story.

AMD hatte lange zeit nachzubessern und nichts ist passiert !
Der Overhead ist immer noch stark präsent.
DX11 gibt es nicht seit gestern.
Öhm.......ja?
Wenn du auf einer Straße kaum mit Tempo 30 voran kommst ist dann das Auto schuld oder nicht eher die alte, abgenutzte und mit Schlaglöchern übersähte Straße die hier in dem Vergleich für die API steht?
Klar, man könnte jetzt einen Geländewagen nehmen um darauf schneller voran zu komman aber die Ursache ist und bleibt die Straße.

Und natürlich durfte an der Stelle das Overhead Märchen nicht fehlen das noch nicht einmal einer ist denn ein Overhead bezeichnet einen Mehraufwand der benötigt wird um zum Ziel zu kommen. Die AMD GPUs verhungern aber an der durch die API unzureichend genutzten CPU Ressorcen.

Den größeren Overhead hat dabei witziger weise nvidia, was aber nicht auffällt weil durch deren Konstrukt mehr brach liegende CPU Ressorcen genutzt werden können und deshalb schneller ist, was ihnen ohne diese Limitierung bei voll genutzter CPU natürlich wieder auf die Füße fällt.
Damit haben sie sowas wie einen SUV im Stadtverkehr geschaffen. Frißt durch das Eigengewicht mehr als erforderlich wäre, kommt aber besser mit der abgenutzten Straße zurecht.


Hayda Ministral schrieb:
Da war AMD schon mächtig im Hintertreffen, verkaufte Elektroheizungen die nebenher, quasi wie ein Hobby, noch ein paar Pixel verschoben.
Eine 290x hat weniger gefressen als die aktuellen Intels aktuelle top CPUs im Benchmark Modus bei Vollast. ;)
 
  • Gefällt mir
Reaktionen: PS828, muzafferamg58 und Colindo
Taxxor schrieb:
Oder, wenn die 3070 langsamer, aber die 3080 etwas schneller als die 2080Ti ist, kommt eine 3070 für 1100€, eine 3080 für 1300€ und eine 3080Ti für 1500€?

Endlich hast Du es verstanden. Geht doch … ;-)

MfG Föhn.
 
Onkel Föhn schrieb:
Endlich hast Du es verstanden. Geht doch … ;-)
Wir werden sehen, ich gehe nicht von einer 3070 für über 600€ aus.
Und selbst mit 600€ läge sie schon 70€ über der UVP der 2070 Super.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
  • Gefällt mir
Reaktionen: Colindo und Onkel Föhn
Blueline56 schrieb:
Da wird sich nicht viel ändern, bei gerade zwei Hersteller für GPUs kann man nicht gerade von Marktbreite sprechen, da werden, wenn AMD wirklich auch mal wieder ganz oben mitspielt, nur geringfügige Preisveränderungen kommen und die aber auch nur im Hochpreissegment, weil in der Mittelklasse ist ja AMD wieder gut dabei und trotzdem sind die Preise von Nvidia aber auch AMD in diesem Segment zu teuer.
Zwei ebenbürtige Hersteller sind besser als einer. Das hat sich auch bei den CPUs gezeigt.
Natürlich wäre noch mehr Konkurrenz auf dem GPU-Markt wünschenswert (vielleicht wenn Intel hier auch mal ein guter Wurf gelingt?), aber aber mit Nvidia als Alleinherrscher ist das doch eine sehr einseitige Geschichte.

AMD spielt aktuell nur bis maximal in der (oberen) Mittelklasse mit, wo die Masse zwar groß ist, aber die Marge (für AMD) auch minimal. Deren GPUs sind hier schon an ihrer Grenze. Es sieht so aus, als könne Nvidia momentan locker auf alles reagieren, was AMD macht. Es wäre schön, wenn sich alle Hersteller mal wieder um die Gunst der Käufer bemühen müssten.
 
Iguana Gaming schrieb:
@Summerbreeze Wie gesagt du wirst ganz sicher keine Big Navi Karte mit 2080Ti Leistung für 400-500€ sehen. Mit der übernächsten Generation und RDNA3 vielleicht, aber ganz sicher nicht jetzt. Aber lasse mich dahingehend natürlich gerne überraschen.
Dreh mit doch bitte nicht das Wort im Hals um.
Aktuell spielt die Musik bei 4-500€. Die nächste Gen wird natürlich nicht auf dem Niveau bleiben. Daher gehe ich fest von 500+ aus.
Wir werden dieses Jahr aber auch einen Leistungssprung sehen, wie es ihn lange nicht gegeben hat.
Für die RX 6700 Karten ist alles was nicht deutlich über einer 2080S liegt eine Enttäuschung.
 
Ich hoffe sie wird gut und Nvidia muss mit ihren Preisen runter. Damit ich mir seit vielen vielen Jahren mal eine Nvidia Karte kaufen kann. So einen scheiß wie mit der 5700XT tue ich mir kein zweites mal an und wie die damit umgegangen sind war und ist eine frechheit. Auch wenn ich die letzte Nvidia Karte vor 2002 hatte, Ende gelände.
 
Colindo schrieb:
Aber bei einem Quasi-Shrink wie der Radeon VII sollte es doch dahingehend keine Einschränkungen geben? Bei gleichem Design und gleicher Leistungsaufnahme plus 25% Takt, oder bei gleichem Design und gleichem Takt 50% weniger Leistungsaufnahme.

Bei GPUs ist das komplizierter. Hier werden Transistoren extra dafür eingesetzt, um einen höheren Boost-Takt erreichen zu können. Auf der anderen Seite geht das aber auch auf Kosten des Power Budgets.

Das hängt alles irgendwie zusammen. Die Taktbarkeit bedingt durch den Prozesses spielt letztlich auch eine Rolle, aber deutlich gewichtiger ist die Effizienz, insbesondere dann, wenn die Anzahl der Einheiten erhöht wird bei einem Generationswechsel. Dann entscheidet die Effizienz darüber, ob der Takt gehalten werden kann. Von Erhöhen ist erstmal keine (praktischerweise eher kaum eine) Rede. Das macht sich dann bei den kleineren Modellen bemerkbar. Ich bin gespannt, ob so eine RTX 3060 die 2.4-2.5GHz knacken wird.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo
Benji18 schrieb:
"herumtrickens" ist eher schlecht gewählt, Sie haben die Karten bzw. die SW auf diese Art angepasst. Sprich ein Software Sheduler anstatt dies wie bei AMD in Hardware zu gießen, da dennoch genug Spiele nachwievor DX11 haben wird es wohl noch ne ganze weile dauern bis DX 12 od. Vulkan diese komplett verdrängt hat.

Meiner persönlichen Meinung nach sollte AMD hier im Treiber nachbessern nicht desto trotz funktioniert scheinbar der SW Sheduler auch bei DX 12 nicht mehr so "schlecht" wie zu anfang schaden würde es nicht wenn man die Treiber so extrapoliert das ein SW Sheduler optimal die HW Sheduler mit Datenfüttern könnte damit würde die Karten in jedem Szenario besser ausgelastet und die "rohleistung"würde nicht so brach liegen.
Ihr Konstrukt greift doch erheblich in den normalen Renderablauf ein, wie soll man es sonst bezeichnen? Kreative Auslegung der Specs?
Wie effizient ihr SW Sheduler arbeitet sieht man dann wenn die CPU auf Vollast fährt und damit wirklich zum limitierenden Faktor wird. Da die Spiele der letzten Zeit dazu aber kaum in der Lage sind geht dessen Overhead aber einfach nur in den freien CPU Kapazitäten unter.

Damit AMD das problem ähnlich angehen kann müßten sie ebenfalls entsprechende Abstricke im GPU Design machen und vergleichbare Eingriffe in den Renderablauf machen und einen entsprechenden Overhead in kauf nehmen, das wäre nichts anderes als Resignation vor dem Unwillen der Software Industrie ein grundlegenes Problem zu lösen.
 
Benji18 schrieb:
Meiner persönlichen Meinung nach sollte AMD hier im Treiber nachbessern nicht desto trotz funktioniert scheinbar der SW Sheduler auch bei DX 12 nicht mehr so "schlecht" wie zu anfang schaden würde es nicht wenn man die Treiber so extrapoliert das ein SW Sheduler optimal die HW Sheduler mit Datenfüttern könnte damit würde die Karten in jedem Szenario besser ausgelastet und die "rohleistung"würde nicht so brach liegen.

Ungefähr so? :D
 
  • Gefällt mir
Reaktionen: Benji18
Benji18 schrieb:
Warten wir es ab wie gut Navi 2 bzw. RDNA 2 performt, letzten endes gebe ich dir recht AMD wird sich nach dem Markt und nach der Konkurrenz richten thats it, das wird auch heißen Sie werden die Preise aufrufen die im Markt üblich sind.

Da gibt es nur die Frage, ob die Leute (gerade im Highend-Segment, das bisher nur Nvidia gehörte) auch bereit sind, diese Preise von AMD zu akzeptieren.

Gerade hier ist AMD seit langem eher "verpönt" - ich hätte eher die Vermutung, dass AMD in dieser Generation über den Preis verkaufen muss, um sich erst wieder das Vertrauen der Leute in deren Highend-Sektor aufzubauen, und dann mit der folgenden Generation preislich zu Nvidia aufzuschließen, wenn sie dann komplett wieder da sind.
 
@Wadenbeisser
prinzipiell würde ich dir da vollen und ganz zustimmen, jedoch hat gerade AMD die letzten Jahre mit Zen gezeigt das man hier in bereich der Kernanzahl stark in die Breite geht somit hat man definitiv heutzutage einen Kernüberschuss (wie man ja hinlänglich sieht schaffen es die meisten SW Entwickler nicht mal ordentlich mehr als die 4 Kern auszulasten).

Somit sehe ich hier keinerlei Problem damit, was ich hingegen durchaus sehe ist das der HW Sheduler definitiv ein Bottleneck ist und hier muss man schauen wie man das ganze optimiert um an NV ranzukommen, wie gesagt ein mix aus beiden Welten wäre interessant.

Am ende des Tages interessiert dem Kunden nur das Ergebnis nicht was im "hintergrund" steckt, damit hat AMD aktuell dennoch viel Rohleistung die brachliegt und wenn es Nvidia mittlerweile schafft das ihr Sheduler auch bei DX 12 ordentlich läuft wirds schwer ein "erfolgreiches Konzept" zu ignorieren wenn man langfristig am Markt bestehen bleiben will.

ZeroStrat schrieb:
Ich sag ja nicht das es perfekt funktioniert xD die Frage ist welche Auflösung habt ihr da gebenched? ist schon krass wie stark da die 5700 perfromed.

ChrisM schrieb:
Gerade hier ist AMD seit langem eher "verpönt" - ich hätte eher die Vermutung, dass AMD in dieser Generation über den Preis verkaufen muss

glaubst du, müssen wird AMD nichts und wenn man sich die Preise der 5700 anschaut sind sie jetzt nicht um "Welten" billiger od. Teurer als die Konkurrenz somit werden Sie definitiv Marktübliche Preise verlangen und die Kunden werden es zahlen, denn wie auch bei Zen wenn Preis/Leistung (im Gesamtkonzept) passt wird man zugreifen punkt.
 
Colindo schrieb:
Interessante Messungen. Das müsste 1:1 der Overhead vom Software-Sheduler des Nvidia-Treibers sein.

Ja, absolut. Segen unter DX11, Fluch bei DX12.
Ergänzung ()

Benji18 schrieb:
Ich sag ja nicht das es perfekt funktioniert xD die Frage ist welche Auflösung habt ihr da gebenched? ist schon krass wie stark da die 5700 perfromed.

Ich habe im CPU-Limit gebencht, also 720p. Das ist der Vorteil von korrekten CPU Tests. Dann gewinnt man nämlich solche Erkenntnisse.
 
  • Gefällt mir
Reaktionen: Taxxor und Benji18
Colindo schrieb:
Wenn es nicht die IPC ist, wie erklärst du dir dann die +1%? Bessere Speicherkompression? Höhö.

Wie hoch ist die IPC denn unter DXR Raytracing oder mit Einbezug der Tensor Cores, wenn man zum Beispiel DLSS nutzt? Wenn ich die Leistung mit Pascal vergleiche, dann ist die "IPC" unter DXR teilweise 5 bis 6 mal höher, wie schneidet da RDNA1 ab, oder wie siehts unter Directx12 Ultimate aus?
 
Zuletzt bearbeitet von einem Moderator:
Status
Für weitere Antworten geschlossen.
Zurück
Oben