Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

.mojo schrieb:
würde mich auch über die 1070 als vergleich freuen.
Steht leider nur bei Performance-Rating 1920x1080 drin. Wäre schön, wenn die GTX 1070 und/oder die GTX 1660 Ti sowie die Vega 56 auch noch in 2560x1440 reinrutschen.
 
  • Gefällt mir
Reaktionen: fox40phil, Valeria, .mojo und 3 andere
Danke für das Update.

Ihr unterstützt dadurch zwar meine Faulheit zu rechnen, hier sehe ich aber kurz, GTX 1080 Ti ist i.E. so schnell wie eine RTX 2070 Super, natürlich ohne RTX :D

Ehre wem Ehre gebührt, starke Leistung, hoher Preis, gut gealtert.

mfg
 
Allerdings auch nur bei dieser Auflösung!

1070.PNG
 
Wie groß ist denn der Abstand von 390 zu 390x? Gibt's da da überhaupt einen Unterschied?
 
Gibt's irgendwo eine Auflistung, welche Taktraten bei den Karten jeweils anliegen? Habe leider nichts dazu gefunden...
 
  • Gefällt mir
Reaktionen: bad_sign
Mir fehlt die 1660Ti im Test.
 
bumbklaatt schrieb:
Sind die AMD und Nvidia Treiber auf dem System parallel installiert?
Ich habe das Mal getestet....erst hatte ich eine Nvidia karte...dann bin ich auf AMD gewechselt und habe einfach den Nvidia Treiber installiert gelassen.

Dann habe ich munter hin und her gewechselt und hatte keine Probleme ...die Nvidia karte hat keine Leistung verloren durch den AMD Treiber und nachdem ich Windows neu aufgesetzt hatte, hat die AMD karte auch keine Leistung gewonnen, dadurch, dass sie jetzt den einzigen Treiber auf den system hatte.

Ist also völlig egal....CB kann einfach beide Treiber installiert haben und wechseln wie sie lustig sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Demon_666
Reset90 schrieb:
erreichen die AMD karten wenigstens den angegebenen boosttakt?
Die Frage ist eher: Besitzen die nVidia-Karten das beworbene Speicherinterface :D. 1-2% Differenz beim Takt interessiert mich eigentlich nicht, 12,5% beim Speicher (Größe + Transferrate) schon :evillol:.

@Wolfgang Danke fürs Update!
 
  • Gefällt mir
Reaktionen: JackTheRippchen und Baal Netbeck
Bei den Balkendiagrammen könnte man denken mit vielen Grafikkarten kann man auf 1440p gar nicht spielen weil sie gar nicht erst gelistet sind und einige die gelistet sind sind im 30-40 "Frametimes in FPS" Bereich.
 
Das ist das generelle Problem, wenn eben alles nur auf Ultra getestet wird, aber in der Praxis sich ja nicht jeder eine neue GPU kauft, sobald er nicht mehr alles auf Ultra stellen kann.

Auch wenn es den Aufwand verdoppeln würde, wäre es ganz schön, wenn man zu den Ultra Werten wenigstens noch eine zweite Tabelle bekommen würde, entweder alles High oder alles Medium.
Beim Anno 1800 Community Benchmark gab es das zuletzt.
Das muss nicht für jeden GPU Test sein, aber für die große Rangliste zumindest.
 
  • Gefällt mir
Reaktionen: Teeschlürfer, 1Pferdemädchen, Draguspy und 5 andere
Den Kampf mit den settings hat man generell immer. Ich kann meine Karte aber auch noch zu stabilen fps in UHD überzeugen wenn ich gewisse leistungsfresser wie Physik entsprechend senke. Texturen auf max oder hoch packt die heute noch ohne Probleme dank 8 GB VRAM.

Guter Wein undso.. Wollten ja gewisse Leute nicht wahr haben. Die Karte ist von 2015
 
  • Gefällt mir
Reaktionen: fox40phil
Dann lasst uns das doch so machen, dass CB immer die Ultra-Settings testet, und wir die High´s/Medium´s bei Communitybench.
 
Ich weiß die Platte hängt, aber ich muss es nochmal sagen: Es schockiert mich, dass die Vega 56 bei Performance per Watt nichtmal mehr bei 1440p geführt ist, weil halt keine Konkurrenz zu neuen Karten geboten wird in aktuellen Spielen. Da zeigt sich wirklich wie schnell AMD den Support für Vega hat fallen lassen, im Sinne von mehr dafür optimieren und außerdem auch die versprochenen Features liefern. Ich kann im Moment nur von Glück reden, dass ich maximal 3 Jahre ältere Spiele Spiele, da ich ein sogenannter "Patient Gamer" bin. Was soviel heißt wie warten bis ein Spiel durchgepatcht/mit Addons/DLCs versorgt ist und/oder den Bruchteil des Release Preises kostet. Denn in Spielen bis 2018 läuft die Karte super bis 1440p. Aber so langsam kommt ein leichter Hauch von Buyer's Remorse auf. Vega muss abgesehen vom überholen der damaligen Konkurrenz (GTX 1070(Ti)/1080) eine der am schlechtesten alternden GPU Architekturen (oder wie auch immer man das fachgerecht nennt) von AMD sein. Ich bin der Meinung, dass ich das noch länger selbst in aktuellen Spielen nicht merken werde dank Freesync (ich spiele nicht kompetetiv....eigentlich nur noch Story Games)., aber es wäre trotzdem schön, von Zeit zu Zeit die 144 Hz meines Monitors auszureizen mit Games wie Doom 2016. Aber naja...es wird dann wohl RDNA 2.0 werden, wenn das so weitergeht. Ich wollte eigentlich auf die Nachfolgegeneration warten um 40% Mehrleistung zur übertakteten Vega 56 für 400€ zu bekommen, aber das scheint nicht der Fall zu sein.

PS: Ich werde das Gefühl nicht los, dass mit der nächsten Konsolengeneration die Vegas aus Benches verschwinden werden...das nenne ich schnell.
 
  • Gefällt mir
Reaktionen: Chismon
Bob_Busfahrer schrieb:
Gibt's irgendwo eine Auflistung, welche Taktraten bei den Karten jeweils anliegen? Habe leider nichts dazu gefunden...

Das kommt wieder, (wenn es soweit ist, sprich frag nicht weiter 😅) habe @Wolfgang damit auch schon angeweint
 
  • Gefällt mir
Reaktionen: Bob_Busfahrer und bad_sign
Da sind alle Games dabei, wo Pascal richtig abkakt ggü Turing.
CoD, Control und RDR2

Und natürlich die FE von Pascal vs FE von Turing
Auf jede Pascal kann man +10% rechnen, da kaufbare Karten schneller takten:rolleyes:
Ergänzung ()

thepusher90 schrieb:
Ich weiß die Platte hängt, aber ich muss es nochmal sagen: Es schockiert mich, dass die Vega 56 bei Performance per Watt nichtmal mehr bei 1440p geführt ist, weil halt keine Konkurrenz zu neuen Karten geboten wird in aktuellen Spielen. Da zeigt sich wirklich wie schnell AMD den Support für Vega hat fallen lassen, im Sinne von mehr dafür optimieren und außerdem auch die versprochenen Features liefern.
Dir ist bewusst, das Vega in den neuen APUs vertreten sein wird und damit immer noch brand aktuell sind.
Vega wird und noch einige Jahre begleiten.
Außerdem ist das doch nur ein kleines Roundup. Vega 56 ist doch keine 5% langsamer als Vega 64. Man hat also weiterhin einen Referenzwert.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Das ist das generelle Problem, wenn eben alles nur auf Ultra getestet wird, aber in der Praxis sich ja nicht jeder eine neue GPU kauft, sobald er nicht mehr alles auf Ultra stellen kann.

Auch wenn es den Aufwand verdoppeln würde, wäre es ganz schön, wenn man zu den Ultra Werten wenigstens noch eine zweite Tabelle bekommen würde, entweder alles High oder alles Medium.
Beim Anno 1800 Community Benchmark gab es das zuletzt.
Das muss nicht für jeden GPU Test sein, aber für die große Rangliste zumindest.
Das nervt mich schon ewig! (Bin zu 99% nur auf CB unterwegs was Benches & Co angeht)
zB Metro Exodus...haste mit einer rx 580 bei dem Setting unter 1080p nur 25fps! Was bringt mir das jetzt als RX 480/580 User?^^ nichts eigentlich. Es kann einem nur suggerieren, kauf eine neue GPU!!!1 sie reicht nicht mal mehr für 30fps. Aber realistisch abschätzen wie viel es auf Mittel oder Niedrig sein wird ist quasi unmöglich. Müsste man in einen separaten Artikel zum Spiel gucken. Ich zock(te) viel GTA Online und dort kannst du auch auf Niedrig immer noch schlechte FPS haben...da man gar nicht so weit runter kommt vom Setting, wenn man grenzwertige FPS hat. (FPS wurden mit vielen Updates der letzten 2 Jahre immer schlechter)
 
@fox40phil Das gleiche bei Red Dead Redemption 2^^

Hier mal der Unterschied zu dem, womit meine Vega56 in 1440p getestet wurde und dem, was ich mit meinen Einstellungen in der gleichen Szene habe und dabei fast exakt die gleiche Optik habe, weil ich einfach nur viele Dinge von Ultra auf High runtergestellt habe, die kaum einen optischen Unterschied machen:

Screenshot_2020-06-1_18-40-27_CX_Analysis.png


Selbst in 1080p Max habe ich nur 5-6fps mehr als in 1440p Max, also immer noch sehr viel weniger als in 1440p High.
Ergänzung ()

thepusher90 schrieb:
Ich weiß die Platte hängt, aber ich muss es nochmal sagen: Es schockiert mich, dass die Vega 56 bei Performance per Watt nichtmal mehr bei 1440p geführt ist, weil halt keine Konkurrenz zu neuen Karten geboten wird in aktuellen Spielen. Da zeigt sich wirklich wie schnell AMD den Support für Vega hat fallen lassen
Das hat doch damit nichts zu tun. Die Vega56 wird dort nicht geführt, weil sie auch im Performancerating nicht in 1440p vertreten ist.
Und dort ist sie nicht vertreten, weil sie von CB mittlerweile als zu schlecht für 1440p gesehen wird, der schmale Grad dieser Entscheidung lag halt genau zwischen Vega56 und Vega64.
aus genau dem gleichen Grund wird auch ihr Gegenspieler, die GTX 1070 dort nicht geführt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Schade, dass nicht jeweils noch eine gute Custom verwendet wurden. So wirkt das Bild leicht verzerrt in meinen Augen. Niemand kauft sich wirklich eine AMD Retail...
 
@Plastikman Niemand kauft sich wirklich eine Nvidia Pascal FE. Mit Customs sähe es noch schlechter für AMD aus, da z.B. eine gute GTX1080 Custom locker 15-20% auf die FE drauflegt, während bei meisten Custom Vegas schon 5% schwer sind.
 
Zurück
Oben