Vermutliche LEISTUNG der Karten 2020

derSafran schrieb:
Konsolen werden da immer die Nase vorne haben, da sie besser optimiert sind. Bisher mussten PC Nutzer in jedem Schweinezyklus (PS3 / PS4) für die selbe Grafik mit viel Rohleistung um sich werfen. Also auch wenn der neue PS5 Chip eine verbesserte RX5700XT sein sollte, wird auch eine RTX2080Ti voraussichtlich nicht die selbe Grafik darstellen werden
Ich kann mir kaum vorstellen, dass die neuen Konsolen die Leistung haben ein Grafikniveau wie die RTX 2080Ti zu erreichen. Ich glaube vielmehr, dass der Leistungsbereich einer RX5700 mit einem optimierten RX 5500 ähnlichen Chip angepeilt wird.
Auch Sony bekommt diese Chips nicht umsonst und ich glaube nicht, dass neben der SSD, einer 8C CPU und dem ganzen Rest bei 400€ Erlös pro Konsole noch viel Budget für einen High-End Chip übrig bleibt. Zumal soetwas auch erstmal gekühlt werden will. Die guten 5700er kommen mir dicken 2,3 Slot Kühlern. Das bekommt man in so nem Kästchen eher schlecht weg gekühlt.

Meine Blick in die Glaßkugel:
RX 5500 ähnlicher Chip der dank Optimierungen nah an eine Desktop RX 5700 rankommt. Dazu eine 8C Ryzen CPU die aus Temperatur und Verbrauchsgründen auf ~3Ghz gedrosselt wird. RAM schätze ich auf geteilte 16GB GDDR6. Dazu eine 1TB SSD.
 
@Xes
Ich glaube du hast mich missverstanden. Ich habe nicht von Rohleistung oder Leistungsbereichen gesprochen, sondern von der "graphic fidelity". Wie geil ist die Grafik?
 
derSafran schrieb:
sondern von der "graphic fidelity". Wie geil ist die Grafik?
Nö verstehe ich wirklich nicht:
Eine stärkere Grafikeinheit wird in allen Situationen eine bessere und damit "geilere" Grafik berechnen als ein deutlich schwächerer Grafikchip.
 
Da muss ich wiederum widersprechen. Wie "geil" die sichtbare Grafik auf dem Bildschirm ist, hängt ganz maßgeblich von der Software und nur zweitrangig auch von der Hardware ab. Sehr stark auf eine spezielle Hardware optimierte Software kann deshalb auch besonders "geile" Grafik realisieren. Nicht alles lässt sich mit Rohleistung erschlagen.
 
Will hier wirklich jemand argumentieren Entwickler würden einen großen Aufwand betreiben speziell für Konsolen zu optimieren, wenn es mehr als genug Vergleiche zwischen PC und Konsole mit ähnlicher Rohleistung und ähnlichem Ergebnis gibt. Vor allem bei wenn bei den meisten AAA Titeln zu Release noch viele Bugs bestehen. Teilweise sogar welche, die Spiele unspielbar machen.
Es gibt Spiele die laufen grundlegend gut, weil die Entwickler halbwegs ihr Fach verstehen. Dann gibt es noch Spiele die laufen grundlegend schlecht, wegen Zeitmangel und/oder Inkompetenz der Entwickler.
Es gibt keine Spiele die besonders auf ein System opimiert sind. Wäre auch kompletter Schwachsinn, wenn PCs fast exakt die selbe Hardware haben können und mit DX12/Vulkan ähnlichen viel programmiertechnisch bieten. (Zumindest ist mir hier kein Titel bekannt, wer einen nennen kann, gerne, dann gibt es eine Ausnahme, aber mehr als ne handvoll wird man nicht aufzählen können)
Was es gibt sind Ports die für Konsolen vom urpsprünglichen Entwickler gemacht wurden und dann die PC Portierung an ein schlechtes Drittstudio übergeben wurde. Wobei ich hiervon in letzter Zeit auch nichts mitbekommen habe.

Es ist schon lange nicht mehr das Jahr 2000, in dem Konsolen noch ne sehr spezielle Architektur besaßen und man Spiele auf diese angepasst hat.
Über Theorie zu sprechen bringt nunmal nichts wenn Theorie auch Theorie bleibt.
 
Ich glaube an eine "reine" performance optimierung (das Backend steht also wird am Frontend herumgeschraubt) mit Segmentierung (aka Intel und AVX512) mit gleicher node (12nm).
Im CPU Bereich hat ja die Intel "Fork" (desktop->HPC (Xeon-W) / Server) schon seit einem Jahr gefruchtet: nun wird sie 2020 auch im Nvidia GPU Segment kommen (desktop->quadro).


Mal schauen was sich Nvidia außer HDMI 2.1 noch so gönnen werden. Preis wird die Hauptrolle spielen (es wird nicht sonderlich viel mehr geben aber es wird billiger :)


/glaskugel end

Xes schrieb:
Meine Blick in die Glaßkugel:
RX 5500 ähnlicher Chip der dank Optimierungen nah an eine Desktop RX 5700 rankommt. Dazu eine 8C Ryzen CPU die aus Temperatur und Verbrauchsgründen auf ~3Ghz gedrosselt wird. RAM schätze ich auf geteilte 16GB GDDR6. Dazu eine 1TB SSD.

32CU@~1.4GHz, Zen@2Ghz. 1TB SSD wird wahrscheinlich nichts werden: eher Hybrid (storage HDD / OS - HDD/SSD). Ram: Sony 8GB (256Bit) und MS 10GB (Clamshell 320Bit).

Dünne Suppe :/

Aber endlich mal können wir specularmaps ohne highlights genießen (dank RT). Wenn ich mir RDR2 mal so anschaue (2019 Grafik) dann würge ich nur innerlich.
Diablo4 hat da mit dem "playerbased" area-lightning schon mal gezeigt was so 2022+ uns erwarten kann (positiv gemeint).
 
Zuletzt bearbeitet:
Zuerstmal grafik kann man erreiche durch 2 dinge
details und rastergenauigkeit afaik texturasuflösung oder durch beleuchtung schatten spiegelungen die genauer und echter sind

Das eine erreicht man mit mehr vram/ram das andere durch mehr teraflops und raytraycing

Dazu kann HDR deutliche vorteile bringen und genau das wird MS und sony hervorheben HDR und raytraycing

Der vram bedarf wird leider durch 8gb vram Minimum werden. weil die ps5 definitiv 20 oder 24gb vram hat
Das defkit hat 24gb ram
Die cu sind auf 48 afaik 3072shader
Es ist rdna2 mit raytraycing cores wie genau ist offen
Der takt liegt bei etwa 1,8ghz gpu und 3,2ghz cpu
8 Kern CPu zen2 1,6-3,2ghz
Das ergibt theoretische TF von etwa 11,2tf
Das entspricht einer rtx2080 derweil aber nur pascal ipc was etwa 5-10% hinter nvidia turing liegt
ich schätze die Leistung irgendwo zwischen pascal gtx1080 bis gtx1080ti
die gtx1080 hatte 2560shader und etwa 10,2tf bei 2ghz was so ziemlich alle mitmachten
und die gtx1080ti etwa 12,2tf
turing ist etwa 10% effizienter
3072shader mit 1,9ghz erreichen das was 3584shader mit 1,6ghz schaffen
Damit wird jede rtx2080 derzeit verglichen obwohl 80% der gtx 1080ti über 1,9ghz liefen.

Was bedeutet das
nun die Ps5 wird mehr vram etablieren das ist mal sicher
raytaycing wird durchstarten
Es wird definitiv auf checkerbording gesetzt, ähm Auflösungsskalierung (ai denoising marketingsprech)
man wird bei den neuen games ab 2021 auf 1440p designen da wird allein bei 512bit (oft ubisoft games) den vram auf 8gb anheben
vermutlich wird man ingame die texturstufen mit dem auflösuzngskalierunge koppeln
nutzt man 1080p wird man quasi gezwungen auf 60% skalierung zu gehen
eine option die Texturstufe anzupassen wird die Ausnahme sein
folge ist
Unschärfe bei den Texturen
Wir erinnern uns an ue3 Spiele die 720p Texturen skaliert auf 1080p bsp Hunted oder kingdom of amalur
Wie bei allen Interpolationen verliert man bei upskaling sowie downscaling an schärfe
das liegt weniger an der texturdichte als mehr an der Natur von lcd displays
Mit crt wäre das halb so schlimm
dagegen hilft nur mehr fps und hz
damit es nicht verwaschen aussieht.

Die folgende Schlussfolgerung wegen der gpu kauf ist
Wer zu viel geld hat nimmt eine titan rtx
Wer etwas spart nimmt eine rtx 2080ti
wer eine Überbrückung braucht bis 2022 nimmt eine gpu mit 8gb vram
Wer eine gpu hat mit nur 6gb vram wartet bis amd und nvidia 2020 die gen mit 12 und 16gb vram bringt
Die Leistung wird nicht sporadisch auf rtx2070s steigen sondern eher schleichend
erst ab 2023 erwarte ich ein min Leistung der rtx 2070s vorher nicht
und das wird dann bis 2025 anhalten
Die raytracinhg Leistung wird aber schon 2021 stark ansteigen das man sagen kann das eine rtx2070s nicht ausreichen wird.
solala wird man erst ab einer rtx2080ti Rtx Leistung benötigen.

Gründe
siehe UE4 die engine neben den exklusives die dxr ordentlich Leistung fordern wird.
Und daran wird man die games orientieren müssen
Ubisoft sowie square enix haben was eigenes und könnte effizienter sein
activision wird wie immer eine spar version von dxr anwenden bis ihre engines darauf designet werden.
bethesda wird sich auf UE4 verlassen und kein geld in dxr stecken.
EA verlässt sich auf frostbyte mal sehen wohin das führt
Der rest wird sich an was eigenes versuchen aber vorerst eher auf UE4 setzen
2D sowie 2,5D wird komplett auf dxr verzichten
Wer an unity denkt wird feststellen das dxr derzeit nicht in deren Entwicklungsplan enthalten ist
vulkan kann kein dxr und man experimentiert noch mit pathtraycing. bzw voxel grafik
Was dann die rt cores nutzen können ist aber komplett außerhalb deren specs
man wartet was amd rdna2 kann
und wie amd Lösung für dxr ist.

also derzeit ist warten angesagt allein weil man nicht weis wohin die Entwicklung geht
verzichtet man zukünftig auf die fake schatten und Beleuchtung und setzt komplett auf dxr
Das passiert wenn ue4 Implementierung erfolgreich ist und die gpu´s genug Leistung liefern
oder wird man dies als Kirsche für high end gpu behalten und als optionales feature anwenden.
letztere Spricht bis 2024 wenn nur noch ps5 und xbone4 gibt
Denn in first third person games würde das massig arbeit bei den designern sparen
in 2d bzw 2,5d bringt dxr kaum was gegen den klassischen fake methoden.
Hier muss man sogar alles per design ausarbeiten.
Sonst gibt es massig Fehler.
 
Vermutlich irgendwo zwischen 30-60% Mehrleistung bei vergleichbaren Modellen. Ist doch immer so.
 
@syfsyn Das ist schon eine ziemlich, ich sag mal, optimistische Betrachtungsweise.
syfsyn schrieb:
Die folgende Schlussfolgerung wegen der gpu kauf ist
Wer etwas spart nimmt eine rtx 2080ti
Du darfst nicht vergessen, dass in der breiten Masse noch sehr viele Leute mit einer GTX 970 oder vergleichbarem spielen. Die Pioniere reiten schon immer noch voraus, aber gerade weil es schlicht nicht mehr nötig ist alle 2-3 Jahre eine neue Grafikkarte anzuschaffen und viele Nutzer auch einfach mit FullHD zufrieden sind, bewegt sich der Massenmarkt ziemlich träge. Die Spieleentwickler versuchen stets eine breite Masse an Kunden anzusprechen. Unter diesem Aspekt werden die Mindestanforderungen nicht in der Geschwindigkeit steigen, die du prognostiziert hast mMn. Da wird auch eine PS5 wenig dran rütteln können.
 
  • Gefällt mir
Reaktionen: Laphonso
hier werden auch immer Äpfel mit Birnen in den Topf geworfen, sprich Konsolenversion verglichen mit PC Version @ max Sliders und >100FPS.

Für die 30 Konsolen FPS und Settings die optisch den Konsolen entsprechen reicht auch eine LowEnd Grafikkarte.
Wenn man natürlich alles auf Ultra stellt und 60FPS bei 4k erwartet da kommt dann auch mal eine 2080TI unter Druck. PS5 Grafik/Frames wird die selbst zum Ende der PS5 Lebenszeit noch stemmen aber damit gibt man sich meist auf dem PC nicht zufrieden.
 
@temnozor
In der IT Welt nennt man das TDP. Das gleiche worüber atm Intel und AMD Jünger sich in der Wolle haben.


Im Consolen SoC Bereich ist einfach bei ~180+Watt schluß. Fahnenstange. Also es geht nicht um überteuerte PC Graka's sondern wie developers am besten ihre Visionen umsetzten können: und da haben wir mit der PS5/Xbox next schon einmal einen guten Schritt gemacht.

Mehr kommt dann später.
 
Zurück
Oben