Test PCIe Resizable BAR im Test: AMD SAM beschleunigt die RX 6800 XT teils deutlich

Shoryuken94 schrieb:
Und hier muss AMD nachziehen, wenn sie auf lange Sicht konkurrenzfähig sein möchten.
Eine Alternative hat AMD bereits angekündigt. Was sie leistet, werden wir sehen, wenn sie da ist.
 
  • Gefällt mir
Reaktionen: Maxxx800
begin_prog schrieb:
Die Performance-Gewinne waren aber schon ziemlich früh klar.

Umso komischer wirkt es, dass Computerbase die Radeon-Karten ohne Smart Access Memory getestet hat.

Lag wohl schlicht und ergreifend daran das es keine passende Testplattform gab ...
 
Colindo schrieb:
Wenn die GPU wegen eines leichten CPU-Limits vorher nicht auf Anschlag lief, wird sie nachher mehr verbrauchen. Es gibt aber auch Szenarien, da läuft die GPU schon auf 100%, hat aber intern irgendwelche Wartezeiten wegen der Kommunikation. Dann würde sie nicht mehr verbrauchen, weil sie schon vorher nicht runtergetaktet hat.
Ergänzung ()

@guggi4 Ich hätte es jetzt genau andersherum gesagt?

Es kann ja nicht so schwierig sein ein Strommessgerät anzuschließen und einmal mit und einmal ohne zu testen. Vielleicht bei einem Spiel, welches 10% mehr Frames schafft. 10% mehr Leistung umsonst und ohne höheren Stromverbrauch finde ich besser, als eine Grafikkarte, die mit deutlich mehr Strom z.B. 20% mehr schafft.
 
Ist schon teilweise goldig wie hier kostenlose (!) Features die auch Ausnahmsweise wirklich einen Leistungsschub ohne OC bringen, verächtlich abgetan werden.

Rafft euch.
 
  • Gefällt mir
Reaktionen: PS828, sifusanders, CuMeC und 7 andere
Wun Wun schrieb:
braucht es dann z. B. bei einem x470 immernoch einen Ryzen 5000 oder wäre das auch mit einem 3000er möglich?
Also ich musste bei meinen B450 von 3600 auf 5600x wechseln um es zu aktivieren.

Danke für den Test, bin gespannt wie es in einem Jahr aussieht mehr und stabilere “gratis” FPS kann ich nur begrüßen.
 
MasterAK schrieb:
Eine Alternative hat AMD bereits angekündigt. Was sie leistet, werden wir sehen, wenn sie da ist.

Ist schon klar, so langsam sollten sie aber auch was zeigen. Bislang hat man dazu Null gesehen., ehrend Nvidia in den letzten Monsten enorme Fortschritte gemacht hat und bereits die erste Engine native unterstützt. Um Konkurrenzfähig zu sein braucht es auch keine schlechte Alternative, sondern eine Alternative auf Augenhöhe. In zwei, drei Jahren wird die KI Rekonstruktion von niedriger auflösenden Bildinhalten eine große Rolle spielen und es macht auch enorm Sinn.

Hier muss AMD zeigen, dass sie auf Augenhöhe ist. Die reine GPU Leistung wird zukünftig weniger entscheidend sein, als das Featureset.

Die ersten Ausblicke sieht man mit DLSS schon heute. Was sind +- 10%, wenn man mittels DLSS hohe zweistellige Prozentzuwäche generieren kann.

Daher hoffe ich einfach mal, dass amd da Fuß fassen kann und etwas brauchbares liefert. Wir werden es sehen. In den nächsten 1-2 Jahren wird es weniger entscheidend sein, aber so eine Technik stampft man auch nicht von heute auf morgen aus dem Boden. Siehe Nvidia.
 
Wenn ich das richtig analysiere bringt es SAM vor allem im CPU Limit? Oder gar nur da?
Sieht man vor allem bei dem FHD Test, hier ist z.b. Valhalla, Cyberpunk und COD:CW CPU Limitiert und genau da bringt es SAM am meisten.
Was ja irgendwo auch Logisch ist, denn durch SAM wird die CPU umgangen und damit quasi entlastet und kann sich nun um etwas anderes kümmern -> FPS steigt.
 
  • Gefällt mir
Reaktionen: N0Thing
Ja, das deute ich auch so.

Mein Fazit: Kein Wundermittel, aber ein Baustein für konstantere Frameraten.
 
  • Gefällt mir
Reaktionen: C4rp3di3m
Laut einer neuen Investorenpräsentation (Planet3DNow) soll RDNA3 definitiv erst 2022 kommen, vermutlich erst im 3 oder 4 Quartal. Bis dahion kann man auch wieder RDNA2 kaufen und davon profitieren.
 
ZeroStrat schrieb:
Wie soll ein Feature, das nix mit AMD im Speziellen zu tun hat, "kopiert" werden können? ...

Asghan schrieb:
...
Erfunden hat AMD es nicht... Das ist schon lange Teil der PCIe Spezifikation...
...

SV3N schrieb:
...
Sowohl Raytracing als auch Resizable BAR sind weder Erfindungen von AMD noch von Nvidia und sowohl „RTX“ als auch „SAM“ sind reine Marketingbegriffe der jeweiligen Umsetzung.

Naja, Resizable BAR Capability wurde von HP und AMD zur PCI-E spec "hinzugefügt".
Also insofern ist AMD dann doch der "Erfinder". Klingt lustig, ist aber so.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Illithide und Viper816
Willi-Fi schrieb:
Also ist die 6800 XT eigentlich keine 4k karte, da RDN2 nicht auf 4k ausgelegt ist. Damit entfällt auch wohl das 16gb Argument.

Seid gegrüßt, im niederen ComputerBase-Forum, oh Baron der Logik und des klaren Verstandes.
 
  • Gefällt mir
Reaktionen: Fighter1993, - Faxe -, Illithide und 2 andere
Ich verstehe den Hype um DLSS nicht so ganz. Ja, es ist technisch cool und wird mit Arbeit und Investition auch bestimmt irgendwann die Zukunft, bzw. zukünftig helfen die Performance zu steigern. Mir hat die Technik aber aktuell einfach noch zu viele Nachteile.

Aus eigenen Tests: Manche Texturen und Oberflächen wirken plötzlich unnatürlich, verwaschen, oder gar wie aus alten Zeiten (Treppen werden plötzlich zu Rampen mit Treppentexturen). RTX Effekte werden weiterhin in der internen Rendering Auflösung gerendert, bedeutet das man zwar ein 2560x1440 Bild hat, aber mit DLSS Performance intern nur noch mit 720P gerendert wird. Ergo haben alle Reflexionen, Schatten und andere Dinge die von RT kommen ebenfalls die 720P als Auflösung und sehen entsprechend nicht mehr so geil aus.

Und in so einem Moment frage ich mich: Warum DLSS so vermarkten das es mit RTX dann wieder die Frames in einen Bereich bringt der spielbar ist, aber gleichzeitig die Qualität aller RTX Effekte runter regelt...?
Oh guck mal wie schön RTX IST! Achso, du musst noch flüssig spielen können? Schau mal wie geil DLSS IST! (RTX sieht wieder doof aus). Sry, aber da brauch ich nicht groß überlegen ob ich das Feature gerade geil finde, oder es einfach Potenzial hat, es aber noch etwas davon entfernt ist der Heilsbringer der FPS zu sein...
 
  • Gefällt mir
Reaktionen: PS828 und Illithide
@Zomb2k
Du redest garantiert nicht von DLSS 2.0^^
Ergänzung ()

janeeisklar schrieb:
HP und AMD zur PCI-E spec "hinzugefügt".
Nun müsste mal schauen welchen Anteil AMD genau daran hatte^^

Mal ganz im Ernst: Mir ist es scheissegal wer von wem kopiert solange wir als Kunden gewinnen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gesualdo
ZeroStrat schrieb:
Wenn man die Überschrift sieht, denkt man so "Wow, SAM ist ne Wucht!" Und dann die Ergebnisse in QHD und UHD: gääähhhn....
Ging mir genauso!
Wollte schon (fast) meine 3090 verkaufen - bei der Überschrift!! :D Und dann liest man im "Kleingedruckten", das SAM nur was in Mickeymouseauflösung bringt ... LUL!
 
Shoryuken94 schrieb:
Hier muss AMD zeigen, dass sie auf Augenhöhe ist. Die reine GPU Leistung wird zukünftig weniger entscheidend sein, als das Featureset.
Das Nvidia im Featureset meist etwas voraus ist, müssen wir anerkennen. Du kannst jetzt aber nicht behaupten, dass AMD auf der faulen Haut liegt. Gute Dinge benötigen Zeit - DLSS oder RTX sind auch nicht von heute auf morgen entstanden. Sei doch mal ganz entspannt. AMD hat glaube ich für diesen Monat noch was über ihre DLSS Alternative angekündigt.
 
@Zomb2k Hä? Ist doch logisch, dass mit DLSS alles in niedrigerer Auflösung berechnet wird. Warum sollte es auch anders sein? Was hast du denn erwartet? Wo soll sonst der Performancegewinn herkommen?

Der Punkt ist, dass für brauchbares RT DLSS notwenig ist, um gute Frameraten zu erzielen. Und das obwohl Nvidia mehr RT Leistung hat, als AMD.

AMD hat nun weniger RT Leistung und ein zugleich womöglich schlechteres Upscaling. Das in Kombination dürfte in der Praxis zu enormen Unterschieden bei Bildqualität und Performance führen.

Aktuell ist DLSS einfach die Schlüsseltechnologie die RT praktisch erst wirklich nutzbar macht.

Und ja, in manchen Spielen sieht auch DLSS 2.0 im quality Modus schlechter aus, als nativ. Trotzdem erzeugt es ergebnisse, die deutlich besser sind, als klassisches upscaling. Wer die Qualität weiter erhöhen will, der nutzt eben die „Auflösungsskalierung“, die viele Spiele bieten (damit kann man meist die interne Renderauflösung zwischen 50 und 200% regeln). Dann erhöht man eben die Renderauflösung um meinetwegen 10%, hat ein Bild dass dann wirklich wie nativ aussieht, aber hat immernoch vielleicht 30% Performance durch DLSS gewonnen.
Im Endeffekt kann sich das mit den Reglern dann jeder zurechtbiegen wie er es braucht.
 
Zomb2k schrieb:
RTX Effekte werden weiterhin in der internen Rendering Auflösung gerendert, bedeutet das man zwar ein 2560x1440 Bild hat, aber mit DLSS Performance intern nur noch mit 720P gerendert wird. Ergo haben alle Reflexionen, Schatten und andere Dinge die von RT kommen ebenfalls die 720P als Auflösung und sehen entsprechend nicht mehr so geil aus.
@.Sentinel. ist das tatsächlich so?
 
Nun da ich es geschafft habe eine 6800xt zu ergattern (steinigt mich ruhig.. wenn die in 2-3 Wochen 500€ mehr wert ist Verkauf ich sie wahrscheinlich wieder und zock auf der 1080ti weiter.. wollt zwar ne 3080.. aber naja .. ) konnte ich das auch Mal ausprobieren.

Tendenziell ist das ne nette Geschichte.. einige Spiele wie zb CoD (modern warfare und coldwar)
Und Assassin's Creed profitieren enorm davon.. andere Spiele gar nicht.

Okay.. CoD erkäuft sich seine Grafikqualität seit Jahren mit unheimlich vielen unkomprimierten Texturen...
Geh Mal davon aus daß man hier oft in n Bandbreiten bottleneck vom RAM und Vram hängt
Dafür spricht einfach das selbst mit guter Hardware und hohen FPS das Spiel lagt, ruckelt und zeitlich verzögert zu sein scheint während weder CPU noch GPU voll ausgelastet sind.

Es bringt in der Regel mehr bei den min fps als bei den maxfps.
 
cod ballert einfach nur den vram und den ram voll, aber deswegen laggs ist ein märchen.
ich lasse mir das bei cw schon seit über 100h anzeigen und es ruckelt einfach 0 wegen vollem vram oder ram.
dafür sorgt zudem der treiber!
das selbe märchen kam auch schon zu gtx 967,5 zeiten auf.

die laggs, die ich sehe, kommen rein durch das matchmaking. wenn man durchgehend gut spielt, bekommt man auch gute gegner - mit entsprechenden pings. sobald ich öfters mal mit absicht verliere, treffe ich die gegner auch wieder besser und das rubberbanding(zeitlich verzögert!) sinkt auf nullniveau.
vor allem bei ps4 lobbys suckt einfach nur alles. hier ist mehr das programmierteam schuld, als voller vram...

und das mit dem cpu/gpu limit sollte klar sein...
 
  • Gefällt mir
Reaktionen: foo_1337
ZeroStrat schrieb:
Nope. Das gilt nur, wenn sich die Workloads grundsätzlich Richtung CPU verschieben, aber das sieht nicht danach aus.
Ich weiß ja nicht, wie lange du aktiv dich mit IT beschäftigst und dem Coden, aber der CPU workload wird immer größer. Und dafür kann man sich gerne Mal die Multiplattform engines Anschauen, wobei Unity schon eher Ausnahme ist. Aber selbst die Frostbite engine Verhält sich so.
Manchmal Frage ich mich bei dir, wie du so selbstsicher solche Falschen Thesen niederschreibst. Du darfst das aber gerne mal mit einer Messereihe widerlegen.
In meiner Welt der IT, brauchen wir immer leistungsfähigere Tasks um den workload abzuarbeiten. Und das gilt gerade für Spiele.

Da sind bis zu 20% schon nicht schlecht, und es ist gut, dass BAR endlich Einzug findet.

Aber ich glaube du weißt dass schon, und verrennst dich Mal wieder. Wäre dem nicht so, würde man auch nicht immer weiter die Single Core Leistung sowohl bei ARM als auch in x86 Hochschrauben. Im HPC Bereich wäre deine Aussage übrigens richtig, da da die CPU unterstützend zum GPU Cluster arbeitet. Aber das ist auch angepasster Code, für den Workload.
Und engine und im allgemeinen Spiele Code, ist Sau mäßig geschrieben und optimiert. Da Lobe ich mir in der Tat OSX, weil es bei Apple wesentlich bessere Optimierungen gibt.

Aber egal ob zB ein Anno und selbst ein Stellaris / CiV, allesamt miserabel optimiert. Und stark von der CPU Power abhängig.
Shooter mögen da weniger anspruchsvoll sein, aber kein Wunder bei der Nutzung der Ressourcen. Dennoch unterliegen auch die Shooter engines der Prämisse immer stärkere Workload zu erzeugen. Vllt in 5-10 Jahren durch der Gang in die Breite vllt anders, aber das glaube ich nicht.

Hier wäre so ein Beispiel aus dem Bereich AI:
https://searchenterpriseai.techtarget.com/feature/CPUs-vs-GPUs-for-AI-workloads und gerade bei Themen wie Algorithmen, werden GPU noch lange die zweite Geige spielen was Effizienz und Ergebnis betrifft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sifusanders, - Faxe - und Che-Tah
Zurück
Oben