Test Fortnite, LOL, PUBG & Co.: High-End-Grafikkarten von AMD und Nvidia im Benchmark

whatever93 schrieb:
Oh mein Gott.......
bin Raus gegen Fakten anstinknen dafür habe ich weder Lust noch sonst irgendwas.

Ne Bitte nicht;/ deine Post Unterhalten mich die letzten 2 Tage Köstlich!11 mehr davon
 
Biedermeyer schrieb:
- Grakas durften nicht uebertaktet werden, die CPU als Referenz und Anhaltspunkt aber doch?

Wenn es ein GPU Benchmark sein soll, ist es logisch dass die CPU so weit wie möglich übertaktet wird, bzw generell eine "überdimensionierte" CPU gewählt wird. Du willst ja nicht ins CPU Limit laufen, sonst wären deine Ergebnisse für die katz. Mit nem Phenom II 940 von vor 9 Jahren könntest du ja auch benchen. Bringt aber nix, weil die CPU nicht mal mehr 60 fps halten könnte in vielen Games, und sich selbst ne Grafikkarte für 200€ schon langweilen wird.
Das selbe anders rum. Wenn du CPUs miteinander vergleichen willst, ist es völliger Nonsense, wenn man games dabei in 4k und Hohen/ultra settings testet.



Mr.Smith schrieb:
keine bezahlbare, ich hoff der unsinn an ressourcenverschwendung durch cryptomining hört bald auf .. nur damit sich ein paar bereichern können ..

dazu die ganzen bullshit skripte im netz, andauernd muss man die cpu auslastung im auge behalten, was auch wieder unmengen an ressourcen verschwendet, was man damit alles gutes für die welt machen könnte ..


amd sollte sich was treiber und zusammenarbeit mit spielehersteller angeht so wie chinesen arbeiten..
alles kopieren und noch weiter verbessern.

Und.. der ganze stromverbrauch, weil ein paar nerds im Zimmer Pubg zocken 5 stunden am tag, ist keine Ressourcenverschwendung? was unterscheidet das denn genau von Kryptomining?

Jemand anderes nutzt seine grafikkarte(n), berechnet Zeugs, und verdient damit Geld.
DU hingegen, zockst Games, und verdienst garnix.
In beiden Fällen berechnet die Grafikkarte dinge.

Ist schon irgendwo scheinheilig, wenn man Kryptomining als ressourcenverschwendung betitelt, selbst aber nen Gaming PC zu hause stehen hat.

Und nein, ich nehme Kryptomining nicht in Schutz, oder bin positiv drauf eingestellt. Aber wenn man objektiv drüber nachdenkt, ist Gaming auch nicht gerade positiv für Mutter Natur.

megaapfel schrieb:
Ergibt doch überhaupt keinen Sinn. Während die meisten Leute sagen, dass sie einen Unterschied zwischen 60 FPS und 120 sehen können, bist du der erste der über 200 FPS haben will.
Solche Leute sollten mal zum Augenarzt, aber ganz schnell^^ Bevor sie noch das Augenlicht verlieren.
Der Unterschied zwischen 60 fps und 120 fps ist schon mehr als nur deutlich.

Es sind eher nur wenige ausnahmen, die da keinen unterschied zu sehen meinen. Der überwiegende Mehrteil sieht den sofort.

whatever93 schrieb:
Nein da keine Gamer Gpu, dass es hier um Gamer Gpus geht sollte Hausverstand sein, aber man mutet den leuten immer zu viel zu grad in Foren.
Irrelevant, was laut DIR eine Gamer GPU ist und was nicht. Oder laut irgendwelchem marketing.

Die Titan V ist eine Grafikkarte, die auch jeder normalnutzer kaufen kann, die auch nachweislich IN GAMES schneller ist (wenn auch nur etwas) als ne Titan Xp / 1080 ti.
Ergo, ist sie ne High end Grafikkarte.
Dass sie für einen Gamer völliger nonsense ist, spielt dabei keine Rolle ;-)

Aber ist eben auslegungssache.. oder wie pingelig man die Haarspalterei betreiben will.

Da musst du auch nicht gleich beleidigend werden, nur weil andere DEINE besondere Auslegung nicht teilen ;-)

Die Behauptung, die Titan V sei keine High End karte (oder gar Enthusiast) ist aber Objektiv falsch. Oder.. mute ich dir da auch zu viel zu? ;-)
 
Darkseth88 schrieb:

Damit kann ich leben. Trotzdessen ist eine 1080 oder weniger kein High End.


Unetrschied von 60 zu 120 sieht man nur in bewegung. Imo total überbewertet da zocke ich liber in 4k @ 60hz.
 
Zuletzt bearbeitet von einem Moderator: (Zitat des unmittelbar vorangestellten Beitrags entfernt)
Chismon schrieb:
Gar nicht, nur das man daraus keine grundsätzliche Schlußfolgerung ziehen kann, wie im Artikel geschehen (da es kein fairer Vergleich ist ... nur die aktuell meist gespielten/verkauften Titel herangezogen werden die überwiegend einen GPU-Entwickler begünstigen), und dass es wieder unnötige Werbung für die Produkte des Marktführer ist und die Preise nicht ohnehin schon daneben sind, sehe ich wenig Bedarf dafür aktuell ...

... aber hey, es müssen ja Empfehlungen zum Grafikkartenkauf basierend auf fragwürdiger Spielauswahl bei den für Verbraucher extrem nachteiligen Marktbedingungen gemacht werden, damit auch morgen...

... also GPUs zu den aktuellen Mondpreisen kaufen, kaufen, kaufen und zwar jetzt sofort basierend auf diesem Artikel, dann sind sie vielleicht schon morgen wieder teurer und man hat einen Gewinn gemacht :lol: ...

... die Nr. 1 Karte/Balkenlänge scheint Dich ja mehr zu interessieren, mir geht es eher darum dass man etwas damit anfangen kann...

... ob es ein paar fps mehr oder weniger sind, ist für mich auch nicht ausschlaggebend...
Um einen toten Sänger zu zitieren: Ich verstehe was Du sagst, aber nicht was Du meinst".

Vorsichtshalber zitiere ich hier auch das tl;dr des Artikels:

tl;dr: Dota 2, Fortnite, LOL, Overwatch und PUBG sind Titel, die Millionen von aktiven Spielern haben. Doch wie laufen die beliebten Multiplayer-Spiele überhaupt auf dem heimischen PC? Das testet ComputerBase in einer Artikelserie. High-End-Grafikkarten haben mit den Spielen zum Auftakt wenig Probleme.

Da liest sich wenig, worauf sich Deine Ausführungen beziehen könnten...
Ergänzung ()

@whatever: ich persönlich würde die 1070(ti) und v56 auch nicht zu 'high end' zählen, da ansonsten ja kaum noch eine breite Mittelklasse vorhanden ist und es wirklich nur das Sahnehäubchen darstellen sollte.
Aber wahrscheinlich würden sich dann zu viele hier in ihrer Ehre gekränkt fühlen und CB in einem legendären Shitstorm untergehen.

*Offenlegung:
Ich habe eine 1070.
Ich spiele just for fun.
Nein, ich will hier niemanden kränken.
Nein, die Grafikkarte hat für mich bei Menschen nichts mit der Ehre, der sexuellen Leistungsfähigkeit oder der persönlichen Qualitäten als Spieler zu tun
Nein, ich habe nichts gegen AMD
 
Zuletzt bearbeitet:
whatever93 schrieb:
Unetrschied von 60 zu 120 sieht man nur in bewegung. Imo total überbewertet da zocke ich liber in 4k @ 60hz.

Welches Spiel kommt denn ohne bewegte Bilder aus ? Standbild-Grafikadventures sind seit 31 Jahren veraltete Technik ;)

Bei eher gemütlichen Rollenspielen könnte ich auch mit 60 Hz leben, allerdings dann wirklich nur in Verbindung mit G-Sync oder Freesync. Vsync holpert, und Vsync off sieht bei 60 Hz einfach nur katastrophal schlecht aus, weil sich die zerrissenen Frames doppelt so lange in die Netzhaut einbrennen wie bei 120 Hz.
 
Wie die leute tun als würde tearin wsie umbringen.......weis nicht auf vsync fast und ich habe kein tearing in irgendeinem spiel.

120hz bringt echt nur was bei schnellen shootern, und komm mir jz nicht mit der desktopscheisse.
 
Zumindest 80 fps sehen selbst im Museumsmodus von AC Origins noch merkbar flüssiger aus als 60 - beides selbstverständlich mit G-Sync.

4k ist für mich völlig uninteressant. Es gibt noch keine Grafikkarte, die dafür auch nur ansatzweise schnell genug ist.
 
Was hat gsync mit flüssig zu tun? wtf es eliminiert nur das tearing das war es.

kompletter schwachisnn wer regler bedienn kann kann sehr gut in 4k speilen . lol weiter so mit euch verdient nvidia unmengen.
 
Zuletzt bearbeitet:
Natürlich sieht das Bild mit Tearing unruhiger aus als mit automatisch angepasster Bildwiederholfrequenz. Das Stolperproblem von Vsync verschwindet ja nicht durch das Abschalten, es verteilt sich nur auf mehrere Bildstreifen, die zu unterschiedlichen Zeitpunkten stolpern.

Und was habe ich von 4k, wenn ich dafür Sichtweite und andere Details opfern muss ? Da warte ich lieber noch ein paar Jahre, bis die Grafikkarten schnell genug, und 4k-Monitore mit 120+ Hz und G-Sync/Freesync verfügbar sind.
 
whatever93: Du darfst uns hier gerne erzählen, wie man einen 60Hz Bildschirm zur Ausgabe von 80Hz bewegen kann — ohne Overdrive natürlich. Nebenbei: Genau so einen 144Hz Bildschirm ohne irgendwelches Sync. Von den 80 Bildern pro Sekunde (von denen ich der Einfachheit halber mal als konstant ausgehe) kommen auf einem 144Hz Bildschirm wenns blöd läuft nicht alle ganz an.

Und jetzt bei einem G-Sync Monitor der mit 60 fps bzw. 80 fps (konstant) gefüttert wird: Der läuft dann mit 60 bzw. 80Hz. Insofern hat G-Sync sehrwohl was mit ‚flüssig‘ zu tun, denn der Unterschied zwischen 60 und 80Hz ist erkennbar. Aber vielen Dank für Deine herablassende Art, wo Du ja selber offensichtlich bestens im Bilde bist, was welche Technologie so kann.
 
whatever93 schrieb:
Was hat gsync mit flüssig zu tun? wtf es eliminiert nur das tearing das war es.
Ja, und das ist EXAKT der Grund, warum G-Sync das Game bedeutend flüssiger wirken lässt.

45 fps z.B. mit 45 Hz (dank G-Sync) fühlen sich deutlich flüssgier/sauberer an, als 55-58 fps bei 60 hz, die mit V-Sync stottern, oder tearen ohne V-Sync.

Dazu muss man Freesync/G-Sync natürlich mal objektiv ausprobieren, und nicht einen auf hater machen, und alles verteufeln.

G-Sync und Freesync sind eben ein Luxus für gamer. Nicht nötig, werten das optische aber deutlich auf. Bei G-Sync kostet es halt 100€, aber wayne.. Manche zahlen 80€ für ne Premium Collectors edition von nem Game, wo sie 2 Wochen durchzocken und dann ist vorbei. Den Monitor hast du locker 5+ Jahre. Gibt schlimmeres.
Die Alternative Vega + Freesync ist auch keine bessere alternative^^ Freesync ist oft etwas schlechter, Vega ist teurer + Langsamer, und verbraucht mehr strom. Über jahre hinweg kommt es auf +-0 raus.


Und ich muss Rage zustimmen. Ein wenig mal über deine herablassende Wortwahl nachdenken ;-)
Diskutieren und Meinungen austauschen geht auch wenn man sich nicht wie ein Arschloch benimmt.
 
Zuletzt bearbeitet:
Es scheint noch sehr viel Halbwissen bezüglich Bildwiederholungsraten zu geben.
Zunächst zur Anfangsprämisse, ab 24 FPS würde das menschliche Auge alles „gleich“ flüssig sehen.
Richtig ist, dass die Frametimes, also ZEITL. ABSTÄNDE zwischen jedem gerenderten Bild für die Wahrnehmung eines „flüssigen“ Bildes von immenser Bedeutung sind. Auch mit 120 fps kann es ruckeln... man möge nur die SLI–Besitzer fragen, die sich noch an Mikroruckler erinnern können. Da der Workload für die CPU und GPU während des Rendering Prozesses fluktuiert, je nach dem wie optimiert die Spielengine ist oder Auslastung des PCs, kann es auch auf dem heimischen NON—SLI Computer dazu kommen, dass es trotz 90 fps subjektiv intermittierend ruckelt. PUBG ist hierfür ein ausgezeichnetes Versuchskaninchen.

Ähnlich verhält es sich mit GSync, oder nicht—proprietären Adaptive SYnc Verfahren: wenn der Monitor immer nur genau die Bilder ausgibt, die von der GraKa gerendert wurden, dann lässt sich ebenfalls eine weitere Störquelle für „ruckelige“ Spielvergnügen eingrenzen. Experiment: zwei Ventilatoren hintereinander stellen und in unterschiedlicher Geschwindigkeit laufen lassen. Beim Blick durch den ersten Ventilator erscheinen die Umdrehungen des zweiten Ventilators abgehakt. Adapt. Sync. lässt nun beide Ventilatoren mit der gleichen Umdrehungszahl laufen und die Brwegungen erscheinen flüssig. Schönes Experiment für Zuhause. Wir befinden uns aber am Ende der Ausgabekette! Was heißt das? Dass heißt alle vorgeschalteten Störquellen für Ruckler werden durchgeschleift, also z. B. Frametime—Abweichungen.
 
whatever93 schrieb:
Was hat gsync mit flüssig zu tun? wtf es eliminiert nur das tearing das war es.
What? LOL?

G-Synch/FreeSynch können weitaus mehr wie "nur" Tearing eleminieren... :freak:
 
desnatavo schrieb:
Auch mit 120 fps kann es ruckeln...

This.

Ich spiele PUBG mit der 1070 und ab und zu stottert das Bild, oder fühlt sich unrund an. Bei einem Freund habe ich heute die Vega 56 in PUBG beobachten können, ein deutlich runderes Bild und ein eindeutig besseres Spielerlebnis. Und wie man sieht, belegt das der Test von CB auch eindeutig, die Frametimes auf Vega sind in PUBG deutlich besser als bei den nVidia Pendants.

Es ist ein riesen Unterschied ob die FPS gleichmäßig auf den Schirm kommen, oder ab und zu einfach kleine Mikroruckler hinzukommen, selbst wenn die "Average FPS Werte" höher ausfallen auf der Karte mit den Mikrostutters.
 
Zuletzt bearbeitet:
RedDeathKill schrieb:
Wenn du nach der Beschreibung im Duden gehst, dann liegst du falsch.

High End wäre dann nur eine Titan V.;)

Selber sagst du die Nutzer dürfen nicht entscheiden, aber selbst sagst du alles über der GTX 1080 Ti ist für Enthusiasten. Dies ist Ansichtssache. Für mich liegt alles über der GTX 1080 im Bereich für Enthusiasten. Du musst erst einmal definieren wo dieser Bereich anfängt.:)

Dann gehen wir nach dem Duden, noch besser. Dann hat diese “GTX 1070 High end“ von manchen Usern ein Ende. Titan V ist High End, Punkt :).
Ergänzung ()

whatever93 schrieb:
Wie die leute tun als würde tearin wsie umbringen.......weis nicht auf vsync fast und ich habe kein tearing in irgendeinem spiel.

120hz bringt echt nur was bei schnellen shootern, und komm mir jz nicht mit der desktopscheisse.

Sehr gut, du hast keinen Plan. 120Hz ist selbst für Tetris angenehmer. Der Beweis das du keinen Plan hast ist der, das du behauptest GSync verringert nur Tearing. Alter Falter...
 
Zuletzt bearbeitet:
whatever93 schrieb:
Damit kann ich leben. Trotzdessen ist eine 1080 oder weniger kein High End.

Was bist Du denn für ein Troll ?!

Natürlich ist eine 1080 Highend. Es ist die dritt schnellste Grafikkarte die man zum Zocken kaufen kann, wenn das nicht Highend ist was dann ? Es interessiert hier niemand was Du Dir in Deiner eigenen Welt zusammenreimst.

Faktisch sieht es so und nicht anders aus :

Einsteigerklasse:
1050/TI, RX560

Mittelklasse:
RX570/580
GTX 1060/1070

Oberklasse:
GTX 1070TI
GTX 1080/TI
Vega 56/64

Luxusklasse:
Titan V

whatever93 schrieb:
Was hat gsync mit flüssig zu tun? wtf es eliminiert nur das tearing das war es.

:lol: :lol: :lol: Alter lass es lieber bleiben du deklassierst Dich hier gerade total ins Lächerliche.
 
Zuletzt bearbeitet:
Ich würde noch die "gehobene Mittelklasse" für die 1070 hinzufügen. Da sie dort auch preislich ist (normalerweise).
 
Mittlerweile bei dem bescheidenen Preisgefüge auf jeden Fall, vorher eher nicht... Ein Bekannter hat die 1070 vor nem knappen Jahr für 370€ neu gekauft.
 
Zuletzt bearbeitet:
Zurück
Oben