• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Star Wars Battlefront 2: AMD liegt in der Elite Trooper Deluxe Edition vor Nvidia

Wenn CB schon solche Titel wählt, dann sollten Sie zu liebe der ganzen Dümmlinge hier mal die 1080 Ti nicht ins Diagramm stellen oder zumindest ausblenden, manche scheinen echt nicht zu verstehen was gemeint ist. Aber die Bildungsqualität in Deutschland bietet jetzt uns ihre Früchtchen feil.

Wer macht denn VW einen Vorwurf das der Passat nur den A4 überholt aber den A8 nicht - da weiß doch auch jeder wieso weshalb warum.

btt:

Schön, da haben wir Spiel 2 das Vegas Rohleistung endlich in Reinleistung umwandeln kann. Auch wenn das Spiel aufgrund gewisser Gelddruckmachinerien nicht attraktiv ist - als Technikvorschau für Vega reicht es aber okay :)
 
Schnitz@ einzige Dümmling scheint woanders zu sein. Selbst das ausgrenzen von einer TI wäre die Überschrift falsch und die Autovergleiche sind mal wieder klasse! Mehr gibt es dazu nicht zu sagen. Warum soll ich ein Artikel lesen der mich nicht interessiert?
 
alxtraxxx schrieb:
Wo liegt AMD vor NVidia? 0O In euren Charts ist eine 1080 TI mit Standardtakt vor jeder AMD. Und eine TI hat noch mehr Luft nach oben als eine AMD. So langsam wird das AMD-Bejubeln um jeden Preis albern. Bis zur R390X war ich stets auf Seite von AMD allein wegen Preis/Leistung. Aber egal wie man es formuliert, die Vega schneidet hier mies ab.

Denkweisen wie diese, sind der Grund, weshalb Nvidia immer mehr GPUs verkauft, egal ob AMD besser oder schlechter ist. Ich kenne genug Menschen die ihre 4Jahre+ alten Mid sowie Einsteiger GPUs von AMD mit den neuesten GTX xx70, xx80 vergleichen und meinen AMD sei das schlechsteste vom schlechtesten. Wenn man sie versucht mit Benchmarks, Tests und Live Performance zu überzeugen, stößt man auf eine massive Wand, man könnte meinen solche Menschen sind mental behindert!
 
schade das in der November Empfehlung (Test) CPU und GPU bei Computerbase
die Spiele Wolfenstein 2 und ssassin's Creed: Origins fehlen,
denn dann würde Reyzen und Vega viel besser da stehen.

Hoffentlich sind aber bei den Dez. Empfehlungen diese 2 Spiele + Star Wars Battlefront 2 mit dabei ;)
 
Zuletzt bearbeitet:
Wieder ein Artikel, der sehr nach Werbung/Push aussieht.
Diese 80,- Eur-version sieht mir auch eher nach Alibi aus.
Nach dieser ganz EA-Geldgier-Diskussion habe ich sowieso keine Lust mejr auf solche Spiele.
Die Wale interessieren zudem 80,- gar nicht, die kaufen sowieso alles, bis zu 700,- EUR...
 
usb2_2 schrieb:
Verkauft AMD ihre Karten echt so unfertig? Oder werden die von NV wirklich mit der Zeit langsamer?

Ja und Ja. Da führen mehrere Faktoren dazu. Nvidia's Karten sind weitestgehend Treiberseitig ausoptimiert. AMD muss aufgrund des Konkurenzdrucks die Hardware teils zu früh auf den Markt werfen. Das Treiberteam ist auch deutlich kleiner. Ein weiter Punkt: Grafikkarten von Nvidia haben häufig weniger Rohleistung und VRAM. Beides in Kombination führt dazu, dass AMD Karten aktuell besser altern. AMD muss also die Hardware bei Release "unter Wert" verkaufen. Doof für AMD, toll für den Kunden.

Ein weiter sehr wichtiger Punkt ist: Nvidia setzt seit Kepler auf einen Software-Sheduler, welcher die Probleme von Dx11 angeht und die Threads in Software aufteilt und so den Mainthread entlastet. Dies hilft für höhere drawcalls. Da es jedoch eine Softwarelösungen ist und es das Aufteilen der Threads nicht umsonst gibt, verursacht diese Lösung mehr CPU-Last. Da nicht alle Spiele perfekt skalieren und häufig CPU-Leistung in der Breite brach liegt, sorgt dies in den meisten Fällen für mehr drawcalls. In einem Titel der bereits sehr gut skaliert, oder wenn die CPU zu 100% ausgelastet ist, kann das auch ein Nachteil sein. (Per Definition verursacht also der Nvidia Treiber einen höheren Overhead und nicht der AMD Treiber. Nvidias Lösung entlastet dafür jedoch den Mainthread)

AMD hingegen setzt auf einen Hardwaresheduler (ACE), welcher dies effizienter macht als es ein Software-Sheduler je könnte. Dies benötigt jedoch zwingend eine LowLevel-API, da dieser nicht mit dem Featureset von DX11 umgehen kann. Durch die Hardwarelösung kann AMD dies auch nicht per Software Mal eben wieder ändern.

Mit LL (LowLevel) hat AMD das Problem komplett gelöst, während nvidias Lösung nur ein Workaround für die Probleme einer veralteten API wie DX11 ist. Zudem kommt hinzu, dass bei nvidias Lösung derjenige gewinnt, der am Ende mehr "Menpower" bzw Geld in sein Treiberteam steckt. Wie alle Lösungen von Nvidia also wieder ein proprietärer Ansatz.

Die Entwickler sind also gefangen zwischen dem Marktführer, welcher am liebsten in der Vergangenheit bleibt und dem Underdog, welcher bereits die Lösung bereit hält an der alle ohnehin nicht vorbei kommen.

Keiner der beiden wird von seiner Strategie abweichen da es automatisch eine Stärkung des anderen wäre. Durch die ungleichen Marktanteile ist jedoch der Kunde der Leidtragende, da so Fortschritt zurückgehalten wird.

Zum besseren Verständins hilft folgendes Video:
https://youtu.be/nIoZB-cnjc0
 
Zuletzt bearbeitet:
Tronx schrieb:
und die Autovergleiche sind mal wieder klasse!

Wo kommt dieser Hass auf Autovergleiche nur her? Werden an Schulen heutzutage keine Metaphern mehr gelehrt?

Dann eben so: Wenn man schreibt "AMD Ryzen schlägt Intel Core" und dann wird ein Diagramm gezeigt in dem man erkennt das ein Ryzen 5 einen Core i5 schlägt, dann beschwert sich auch keiner das im selben Diagramm noch ein Core i7 oben drüber schwebt :freak:
 
na ja bei den Autovergleichsseiten sieht man viel mehr Kritik bei den Kommentaren, zurecht wenn bei atm und AB immer VW gewinnen muss :D
 
Wow echt starke Vega dieses mal, da passt ja mal die Leistung zum Stromverbrauch (in relation zu nvidia). Ich hätte ja gern was neues von AMD gekauft, es lohnt sich leider nicht für mich. Volta wird interessant und AMD hat wohl leider nichts neues so schnell.
 
G3cko schrieb:
AMD hingegen setzt auf einen Hardwaresheduler (ACE), welcher dies effizienter macht als es ein Software-Sheduler je könnte. Dies benötigt jedoch zwingend eine LowLevel-API, da dieser nicht mit dem Featureset von DX11 umgehen kann. Durch die Hardwarelösung kann AMD dies auch nicht per Software Mal eben wieder ändern.
Das "Problem" in dx11 ist damit aber nicht gelöst, sondern eher ignoriert. Die ganze Problematik wird durch die dx12/Vulkan only Unterstützung lediglich auf zukünftige Spiele vertagt. Außerdem erklärt das noch lange nicht schlüssig, warum man nicht a) einen Software sheduler einsetzt sobald dx11 erkannt wird und b) warum Spiele auf AMD Karten unter dx12 nicht signifikant schneller laufen als unter dx11.
 
alxtraxxx schrieb:
Wo liegt AMD vor NVidia? 0O In euren Charts ist eine 1080 TI mit Standardtakt vor jeder AMD. Und eine TI hat noch mehr Luft nach oben als eine AMD. So langsam wird das AMD-Bejubeln um jeden Preis albern. Bis zur R390X war ich stets auf Seite von AMD allein wegen Preis/Leistung. Aber egal wie man es formuliert, die Vega schneidet hier mies ab.

Dir ist bewusst das der Gegenspieler der Vega 64 die GTX 1080 ist? Und genau da liegt AMD vorne.
 
xoif schrieb:
warum Spiele auf AMD Karten unter dx12 nicht signifikant schneller laufen als unter dx11.

Tun sie, sofern es sich hierbei um eine brauchbare Umsetzung handelt.
Dass ist bei BF1 und Battlefront 2 nicht gegeben.
Das liegt aber auch an Async Compute usw.
Dazu brauchste halt anständig umgesetzes DX12 wie in Division, Hitman oder AOTS.
 
Zuletzt bearbeitet:
xoif schrieb:
Das "Problem" in dx11 ist damit aber nicht gelöst, sondern eher ignoriert. Die ganze Problematik wird durch die dx12/Vulkan only Unterstützung lediglich auf zukünftige Spiele vertagt. Außerdem erklärt das noch lange nicht schlüssig, warum man nicht a) einen Software sheduler einsetzt sobald dx11 erkannt wird und b) warum Spiele auf AMD Karten unter dx12 nicht signifikant schneller laufen als unter dx11.

Die AMD-Karten laufen doch in der Regel schneller in DX12/Vulkan. Man muss aber auch hier zwischen nativen DX12/Vulkan-Spiel unterscheiden und einem Spiel welches nur die neuen APIs anflascht und somit nicht auf komplette Altlasten verzichtet.

Wie gesagt ist Nvidias Lösung zwar klever, aber hat auch ihre Grenzen.

In dem neuen Need for Speed liegt zwischen einer 1070 und 1080Ti gerade einmal 12%. Klares CPU-Limit und das bei nicht einmal 100fps. Mit einem Intel 6 Core @ 4,4Ghz. Also mehr Singlethreadleistung als fast alle CPUs @ Stock. Nur eines von vielen Beispielen.
http://www.pcgameshardware.de/Need-...iew-Release-Test-Systemanforderungen-1243074/

Das AMD in DX11 eher im CPU-Limit landet ist zwar richtig, darum geht es aber nicht. Das ist nur ein Beispiel welches zeigt, dass DX11 am Ende ist. Und was würde wohl passieren wenn AMD eine ähnliche Lösung bringt? => Die Entwickler fahren beide gegen die Performance Wand. DX11 ist und bleibt eine Sackgasse.
 
Ich hätte gerne das spiel nur nicht so wie sie es gemacht haben :(
 
D708 schrieb:
Aber da erkennt man das Klientel. Hab noch nie einen Titanbesitzer jammern gehört...

Naja, es geht auch nicht primär um das Jammern, sondern darum, dass bei gewissen Leuten GPUs wohl Teil des Selbstwertgefühls sind ... "Erste-Welt-Probleme" eben ;) ...

Möglich, dass AMD/RTG mit den Refreshs (wenn in 7nm GF, zumal Vega20 dafür ja ehemals angekündigt war und es am Ende hoffentlich nicht nur den Profi und Prosumer-GPUs vorbehalten ist und die Gamer leer ausgehen) vermutlich Mitte kommenden Jahres (wenn der Zeitplan zu halten sein sollte) da einiges richten kann am bisher lädierten Image von RX Vega.

Gewiss gehört Star Wars Battlefront II zusammen mit der überraschend gut optimierten Forza 7 Motorsport Umsetzung und dem eher durchwachsen optimierten Wolfenstein II zu den AMD/RTG Vorzeigespielen. Ich bin gespannt was von Microsoft, Bethesda, EA und Co. im kommenden Jahr noch zu erwarten ist.

Obwohl Far Cry 5 als gut optimierter Vorzeigetitel für RX Vega Karten von einigen gehandelt wird, so habe ich aufgrund des Publishers (Ubisoft) da große Zweifel, dass man in dem Spiel leistungstechnisch überdurchschnittlich gut gegen die nVidia Pascal Konkurrenz aussehen wird.

Gespannt bin ich natürlich auch auf den Leistungssprung der im kommenden Jahr, angeblich schon für das frühe 2.Quartal, angekündigten nVidia Ampère Karten ("Ampère" klingt m.M.n. jedenfalls noch um einiges besser als "Volta" und natürlich war keine vordergründig tensor-basierende Volta Architektur bei der kommenden Gaming-GPU-Generation von nVidia zu erwarten, aber es ist jedenfalls dem Namen nach kein reiner Pascal-Refresh, was hoffen lässt).

Wenn die nVidia GV104 GPUs schon Ende März vorgestellt werden sollten, dann bleibt AMD/RTG wenig Zeit, auch in Anbetracht der ersten, breiteren Verfügbarkeit von Custom-Modellen im Januar (2 Monate vor den neuen nVidia GPUs).

Das könnte für RTG und deren Boardpartner richtig bitter werden bei den neutral gesinnten Käufern, die sicherlich noch 2 Monate warten werden, bis die ersten Ampère GPUs auf den Markt sind und sich die Preise der RX Vega Custom-Modelle dann eingependelt haben (und durch den Ampère Marktstart - mögliche Absenkung der Pascal GPU Preise - wohl dann massiv leiden könnten oder ziemliche Ladenhüter werden könnten).

AMD/RTG braucht in Spielen dringend positive Nachrichten abseits dieser eigentlich schon erwarteten guten Leistungen in Vorzeigetiteln, nur woher nehmen?

Gute/lohnende Low Level-API-Unterstützung/-Fokussierung durch die meisten (mittel-)großen Entwickler ist leider immer noch nicht Standard, geschweige denn die Implementierung oder Ausnutzung all der anderen Architektur-Features von RX Vega.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Die knapp 80 Euro Elite Trooper Deluxe Edition von Star Wars Battlefront 2 ist ab sofort auf dem PC spielbar und ComputerBase liefert erste Benchmarks. Weil es angepasste Treiber sowohl von AMD als auch Nvidia geben wird und die Redaktion auf deren Veröffentlichung wartet, lässt der Technik-Test wiederum noch auf sich warten.

Zur News: Star Wars Battlefront 2: AMD liegt in der Elite Trooper Deluxe Edition vor Nvidia

Sieh und klingt gut aus.

Und wenn mit der Treiber mehr rauszuholen ist, dann willkommen.

Für mich ist aber wichtiger ob die Treiber allgemein ein Leistungsplus bringt, oder nur in ausgewählte Titel.

Was nutzt mir super duper fps in die 2-3 aktuelle Spiele, wenn alle andere Bescheiden laufen.
 
Jedenfalls sollte Vega 56 über lang oder besser kurz nahe an die TI rankommen. Imho beides mächtige Chips um 500mm2 und teilaktiv.

Ampere wird interessant ob Nvidia auf 10nm TSMC setzen wird. Sollte das der Fall sein gibts wieder men größeren Sprung. März ist typische Titan Zeit. Ein ~5120 Shader Chip in 10nm als Titan mit 384Bit GDDR6 halte ich da für realistisch.

Der GP102 is da ja fast 2 Jahre alt.
 
Zuletzt bearbeitet:
Nun ja, ich möchte hier nicht den Aufschrei der AMD Fans sehen, wenn die Überschrift "Nvidia liegt in der Elite Trooper Deluxe Edition vor AMD" stehen würde, korrekt wäre es allemal, da die 1080Ti nun mal die schnellste Grafikkarte im Spiel ist. Natürlich war vielen klar wie die Überschrift gemeint war, aber der Einwand - für nicht so gut informierte User - ist nicht von der Hand zu weisen.
 
Zurück
Oben