Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für April

atlas77 schrieb:
[...] ich ziehe in jedem Falle die 1060 vor, für FHD das Wattmonster/Heißluftgebläse 580? sorry.
Ob Heißluftgebläse oder Speicherkrüppel, soll doch jeder für sich entscheiden. :p
 
immortuos schrieb:
Das war der klare Aufruf an alle Besitzer einer 980 Ti, 1080, 1080 Ti, RX 480/580, werft eure Wattmonster/Heißluftgebläse raus und kauft euch endlich was effizientes wie zB die 1030, damit wir alle endlich wieder in 720p mit mittleren Einstellungen spielen können :D
Kopf -> Tisch

Effizienz ist nicht gleichbedeutend mit geringem Verbrauch, sondern mit hoher Performance pro Watt und da spielt Nvidia aktuell in einer anderen Liga als AMD.
Bildschirmfoto vom 2017-12-05 19:21:18.png
 
Zuletzt bearbeitet:
Hab mir jetzt endlich eine Sapphire Vega 64 Liquid gegönnt, bin das warten auf Custom Karten leid, die Verfügbarkeit der Powercolor ist ja auch ein Witz.
 
Das stimmt leider, liegt in erster Linie aber an den viel zu vorsichtig gewählten Werkseinstellungen. Meine RX570s konnte ich alle ohne Taktminderung von 1150 mV auf 900 mV absenken, was den Stromverbrauch auf 85 Watt halbiert (vorher 180 Watt) hat. nVidias sind da von Werk aus besser eingestellt.
 
Mir ist bewusst, dass man auch nVidias untervolten kann. Aber auch so krass? Also bekäme man eine GTX 1070 bei Standardtakt unter 60 Watt? Wenn ja, habe ich beim Mining-Rig die falschen Karten verwendet. :D
 
Zuletzt bearbeitet:
acc schrieb:
nicht wirklich, auch bei nvidia kann man einiges rausholebn bei bedarf.

ja weil nvidia karten im notfall auch mit liebe statt strom laufen, die benutzen statt silizium nämlich zauberstaub :rolleyes: gtx 1080 lässt sich rein über pcie-slot betreiben, wenn man nur genug undervolted, während man die +2ghz oc potential rausholt.

dass amd hier in der grafikkarten ranglieste so schlecht abschneidet liegt daran, dass CB hauptsächlich nvidia dx11 spiele aus 2015/2016 bencht. man muss sich ja nur mal die letzten aktuellen spielebenches anschauen, da siehts ganz anders aus. aber wenn man halt anno und konsorten drin hat, in der die gtx 1060 fury x und vega 56 rasiert, kommt halt sowas raus.

bei watt/performance genau das gleiche. wenn bei dem stromverbrauch von vega keine fps rauskommen, wie bspw in anno, dann kommt da auch n schlechtes ergebnis raus. würde man bspw wolfenstein, battlefront 2 oder ähnliches für watt/performance heranziehen, wäre vega nicht so weit abgeschlagen.
 
Weltenspinner schrieb:
Das stimmt leider, liegt in erster Linie aber an den viel zu vorsichtig gewählten Werkseinstellungen. Meine RX570s konnte ich alle ohne Taktminderung von 1150 mV auf 900 mV absenken, was den Stromverbrauch auf 85 Watt halbiert (vorher 180 Watt) hat. nVidias sind da von Werk aus besser eingestellt.

Da musste nommal nachrechnen weil dann die GPU selbst nua noch 25 Watt in etwa brauchen würd, der Rest entfällt ja aufs Speicherinterface und den RAM. Kann also ned stimmen. Wie hastn das gmessen?

duskstalker schrieb:
dass amd hier in der grafikkarten ranglieste so schlecht abschneidet liegt daran, dass CB hauptsächlich nvidia dx11 spiele aus 2015/2016 bencht

Das hab i dir letztes mal scho widerlegt. Von 2015 sind nur 3 Spiele, zudem wird drauf geachtet dass Gameworks nicht aktiv ist.
Nvidia unterstützt mehr Spiele als AMD unterstützt, also gibt's auch mehr davon.
Gibt ja kaum was andres als Directx11 am Markt.

aber wenn man halt anno und konsorten drin hat, in der die gtx 1060 fury x und vega 56 rasiert, kommt halt sowas raus.

Auf den andern Seiten is die Leistung von Vega auch leicht unter ner 1080, kanns also ralle sein welche Spiele du da nimmst. Im Großen und ganzen ists überall dasselbe.
Du suchst nur nen Sündenbock fürs maue Abschneiden der VEGA.

bei watt/performance genau das gleiche.

Nö, für Performance/watt wird Witcher 3, Doom, BF1 und Rise of Tombraider genommen.
BF1 und Doom liegen AMD super, Witcher 3 ohne Gameworks auch, Tombraider bissl schlechter.

würde man bspw wolfenstein, battlefront 2 oder ähnliches für watt/performance heranziehen, wäre vega nicht so weit abgeschlagen.[/

Doom ist dabei und BF1 das sind eh Paradedisziplinen, da hättest mit Wolfenstein oder Battlefront nix verbessert.
 
Zuletzt bearbeitet:
Ich wage stark zu bezweifeln, dass 8 GB GDDR5 auf 900 mV mehr als 15 Watt braucht. Laut JEDEC darf 8 GB GDDR5 mit 1,5 Volt maximal 36 Watt beziehen. Lasse das Board mal 10 Watt in Wärme umwandeln. Es bleiben für die GPU mindesten 50 Watt.
Gemessen wurde am 8-Pin-Strang und am PCIe-Port; dann addiert. Real ist die Spannung sogar nur 875 mV.
Wenn ich künstlich alles auf der Karte voll belaste, braucht sie 107 Watt. Beim Mining sind 85 Watt, beim Zocken schwankt es zwischen 48 und 85 Watt (Frames auf 60 begrenzt).
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Das hab i dir letztes mal scho widerlegt. Von 2015 sind nur 3 Spiele, zudem wird drauf geachtet dass Gameworks nicht aktiv ist.

was hast du widerlegt? du hast unbelegte behauptungen aufgestellt. die anzahl der spiele ändert nichts am argument: 2015er titel in einem gpu roundup 3 wochen vor 2018 - das muss jeder für sich selbst entscheiden. das ist so als würde man far cry oder half life 2 (2004) und crysis (2007) zusammen benchen und von der relevanz her auf eine stufe stellen.
zudem wird nur in witcher 3 explizit auf hairworks verzichtet.

gameworks wird ein ewiger streitpunkt bleiben. ich bin absolut der meinung, dass ein nvidia gesponsorter titel mit tesselliertem wasser nicht sonderlich weit von "waveworks" entfernt ist, auch wenn hier nicht "gameworks" drei mal beim start beworben wird. und wie weit dann unsinnig stark tesselliertes gelände (siehe andromeda/wild lands) von gameworks entfernt ist, wenn tesselliertes wasser gameworks ist, kann sich jeder selber mal überlegen. hinterher besteht das aktiv für gaming relevante gameworks programm hauptsächlich aus tessellationseffekten - hier dann in einem nvidia "optimierten"/"gesponsorten" titel tessellation von gameworks zu trennen ist 1. als außenstehender kaum leistbar 2. irgendwie an der praxis vorbei. deine beurteilung von "ist gameworks / ist kein gameworks" basiert doch rein darauf, dass sich jemand erbarmt hat das von seiten nvidia/entwickler auch öffentlich kund zu tun - was wirklich hinter der technik in einem spiel steckt, kann nur das entwicklerstudio offenlegen.
wer dann aber auf amd entsprechend schlecht performende titel + tessellation/nvidia in google eingibt, bekommt zu 90% die info, dass der titel nvidia gesponsort und tessellationverseucht ist.

ich weiß, selber weiterbilden ist manchmal schwer, deshalb:

http://lmgtfy.com/?q=anno+2205+tessellation
http://lmgtfy.com/?q=call+of+duty+infinite+warfare+tessellation
http://lmgtfy.com/?q=dishonored+2+tessellation
http://lmgtfy.com/?q=for+honor+gameworks
http://lmgtfy.com/?q=ghost+recon+wildlands+tessellation
http://lmgtfy.com/?q=mafia+3+tessellation
http://lmgtfy.com/?q=mass+effect+andromeda+tessellation
http://lmgtfy.com/?q=mirrors+edge+catalyst+nvidia+spiel
http://lmgtfy.com/?q=rise+of+the+tomb+raider+geforce+tessellation
http://lmgtfy.com/?q=shadow+warrior+2+geforce
http://lmgtfy.com/?q=watch+dogs+2+waveworks

ob gameworks hier wirklich der entscheidende aufhänger oder nur potentiell inkonsistente marketing nomenklatur ist, kann jeder mal mit sich selber ausmachen; das ändert aber nix daran, dass die kombination nvidia + tessellation in den allermeisten fällen dazu führt, dass das spiel auf amd bescheiden läuft. ob das jetzt "waveworks" ist oder "einfach nur tesselliertes wasser", ist haarspalterei.

Gschwenni schrieb:
Nvidia unterstützt mehr Spiele als AMD unterstützt, also gibt's auch mehr davon.
Gibt ja kaum was andres als Directx11 am Markt.

"unterstützen" ist n sehr neutrales wort für das, was nvidia macht, um sich im markt festzubeißen. die optimierung auf nvidia ist hier dann natürlich die logische folge von 70-80% marktanteilen über die dauer von mehreren jahren.

durch die verbreitung ist auch nvidia dementsprechend in der position die entwicklung zu bremsen.

Nvidia’s Distinguished Engineer Tom Petersen
“We don’t know much about Mantle, we are not part of Mantle. And clearly if they [AMD] see value there they should go for it. And if they can convince game developers to go for it, go for it. It’s not an Nvidia thing. The key thing is to develop great technologies that deliver benefits to gamers. Now in the case of Mantle it’s not so clear to me that there is a lot of obvious benefits there.”
http://www.dsogaming.com/news/nvidi...will-not-support-it-no-real-benefit-using-it/

keine bindung an microsoft wäre mal n anfang - aber dann würde man ja alle vorteile von schon geleisteten DX optimierungen aufgeben. :rolleyes:

haben sie bei dx9 gemacht, bei dx10 und jetzt bei dx11 - weil nvidia immer nach hinten optimiert und amd/ati ihre hardware nach vorne ausrichtet.

When Valve and ATI came together to show us the first inklings of Half Life 2 performance last year, it did not look pretty for NVIDIA. NVIDIA’s highest end card at the time, the GeForce FX 5900 Ultra, could not even outperform a Radeon 9600 Pro in most tests – much less anything from ATI at its price point. Even though we haven’t shown it here (that’s coming in Part II), the situation has not changed for NVIDIA’s NV3x line of GPUs – they still must be treated as DirectX 8 hardware, otherwise they suffer extreme performance penalties when running Half Life 2 using the DirectX 9 codepath.
https://www.anandtech.com/show/1546/14

prominentestes beispiel ist das entfernen des dx10.1 supports für assassins creed, der amd/ati einen performancesprung verschafft hat (20% mit AA), nvidia aber nicht das nötige hardware level supportete - und da ubisoft und nvidia verheiratet sind, ist der dx10.1 support eben ersatzlos gestrichen worden - mit einem folgepatch entfernt und nicht wieder eingefügt worden.

https://www.bit-tech.net/news/tech/ubisoft-caught-in-assassin-s-creed-marketing-war/1/


Gschwenni schrieb:
Auf den andern Seiten is die Leistung von Vega auch leicht unter ner 1080, kanns also ralle sein welche Spiele du da nimmst. Im Großen und ganzen ists überall dasselbe.
Du suchst nur nen Sündenbock fürs maue Abschneiden der VEGA.

zwei dinge:

1. ist die aussage kompletter blödsinn. wer mal über den grünen tellerrand schaut wird feststellen, dass im schnitt selbst stock vega64 schon einen sehr soliden vorsprung vor der 1080 hat, nur ist der nvidia parkour auf CB nicht wirklich neutral.
2. verwurstet CB alle daten aus dem nvidia gpu parkour in alle möglichen graphen. solange anno und konsorten in die gesamtwertung einfließen (preis-leistung, watt-performance) und 2/3 aller spiele nvidia gesponsorte titel sind, kannst den ganzen krempel in den rauch pfeifen. es bleibt auch die frage, wieso immer nur fps in % und nicht fps in fps angegeben werden. ich würde gerne wissen, welche fps ich mit gpu X rausbekomme anstelle von "70% einer 1080 ti".

naja, wie auch immer, ich fahre fort:

1080 fe vs vega 64 referenz.
titel in denen vega in wqhd schneller ist, mit % angabe

Aots: 13%
BF1: 8%
DE:MD: 1%
DOOM: 12%
F1 2016: 7%
GoW4: 2%
TW3: 9%
titanfall 2: 6%
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440

wer bis hier her aufmerksam mitgelesen hat, wird festgestellt haben, dass wir jetzt alle CB gpu parkour titel durchexerziert haben, und alle titel, die nvidia sponsoring bei der googlesuche ausspucken, auch gleichzeitig die einzigen titel sind, in denen vega gegen die 1080 verliert.
oder andersherum formuliert - bei den titeln ist keiner dabei, der gpu hersteller neutral entwickelt wurde und gleichzeitig auf amd schlechter läuft.
eine große positive ausnahme gibts allerdings: titan fall 2. desweiteren bleibt zu erwähnen, dass the witcher 3, wie bekannt, ohne hairworks gebencht wurde und cod iw einzig in wqhd einen positiven ausschlag der vega zeigt - ansonsten auch hier gewohnt durchwachsenes bild - die zahlen gehen hier zwischen den unterschiedlichen auflösungen aber so weit durcheinander, dass man sich mal überlegen sollte, ob das spiel wirklich als performance index titel geeignet ist.

wolfenstein nc: 27%
https://www.computerbase.de/2017-11...-compute-2560-1440-anspruchsvolle-testsequenz
battlefront 2: 15%
https://www.computerbase.de/2017-11...2/#diagramm-star-wars-battlefront-2-2560-1440

hitman: 15%
https://www.hardwareluxx.de/index.p...-vega-64-und-rx-vega-56-im-test.html?start=18

hier gibts leider nur fps:

Warhammer_1440p.png
Division_1440p.png
RSS_1440p.png
QC_1440p.png
Dirt_1440p.png

https://www.techspot.com/review/1476-amd-radeon-vega-64/

vega 64 im schnitt etwas langsamer? ja in nvidia spielen im kleinen CB gpu parkour kosmos. aber ich weiß doch, jeder kauft sich ne 500€ gpu um anno0815 zu spielen, wen interessieren schon moderne spiele mit moderner technik :rolleyes:

Gschwenni schrieb:
Nö, für Performance/watt wird Witcher 3, Doom, BF1 und Rise of Tombraider genommen.
BF1 und Doom liegen AMD super, Witcher 3 ohne Gameworks auch, Tombraider bissl schlechter.

danke für den hinweis, dass es scheinbar (!) nur die 4 spiele sind - daraufhin habe ich mir mal die daten genau angeschaut, die CB hier erhebt:

die gtx 1080 in doom @4k im gpu bottleneck mit 148W verbrauch ist schon eher was fürs kuriositätenkabinett. nvidias tdp für die 1080 sind 180w - und dann soll die im größtmöglichen lastszenario 150w verbrauchen? das glaube ich nicht, tim.

ich habe deshalb bei toms hardware nachgeschaut, was die hier für eine leistungsaufnahme gemessen haben - und im zweifelsfall bin ich eher auf der seite von TH.

stromverbrauch.jpg
https://www.tomshardware.de/vega-be...ahme-temperaturen,testberichte-242382-16.html
https://www.tomshardware.de/nvidia-...fikkarten-roundup,testberichte-242137-20.html
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/#abschnitt_performance_pro_watt
https://www.tomshardware.de/vega56-...izienz-lautstarke,testberichte-242384-15.html (nicht in der grafik)

-16w für 1080FE, -19w 1080 gaming, +15w für vega 64, +10w für vega 56.

die abweichung nach unten + oben gibt n ordentliches delta von 26w für 1080fe vs v56 und 34w für 1080 oc vs vega 64 - nur "messungenauigkeit" oder messfehler oder wie man das nennen will.

das ist dann die basis für amd bashing auf CB - 60W mehrverbrauch bei gleicher leistung sind dann "welten" - aber wie siehts hier denn dann mit 35w delta aus dem nichts aus? auch welten? oder egal?

bei den daten gibts wohl kein richtig oder falsch, aber man sollte wirklich langsam mal aufhören die ergebnisse auf CB für bare münze zu nehmen.
 
Zuletzt bearbeitet:
Schrank schrieb:
Effizienz ist nicht gleichbedeutend mit geringem Verbrauch, sondern mit hoher Performance pro Watt und da spielt Nvidia aktuell in einer anderen Liga als AMD.
Anhang anzeigen 654950

Mag sein, dennoch fressen die genannten Karten allesamt gleich viel oder gar mehr als die RX 580, sind also nach seiner Definition auch Wattmonster und dürfen nicht mehr gekauft werden.
 
Beitrag schrieb:
Nachdem nun etliche User das Fehlen der 1070 Ti bemängelt habenn - vllt. reicht CB das ja noch nach. Wäre jedenfalls toll.

Da es sich um die letzte Grafikkarten-Rangliste von Weihnachten handelt, würde ich das Aufführen der GTX 1070 Ti, zumindest im Performancerating, auch begrüßen.

Die Abwesenheit der Karte im Preis/Leistungs-Diagramm versehe ich, da sich der Preis ja erst einpendeln muss.
 
@duskstalker

Du magst ja mit deinen Argumenten recht haben, wenn man sie lesen könnte. Aber dein Textbrei ist einfach unverständlich.
Ich bin bestimmt kein Rechtschreibfetischist, mache selber genug Fehler. Aber wenigstens Großschreibung am Satzanfang, das könnte doch wohl sein.

Danke :-)
 
duskstalker schrieb:
was hast du widerlegt?

Na in vielen Spielen in denen du behauptet hast Gameworks is drinn, war es nicht so und bei CB extra noch deaktiviert.
Auch waren deine genanntn Tess Level für Andromeda und Anno falsch.
Zudem Tesselation alleine nichts mit Gameworks am Hut und das war halt alles falsch und jetz machst dus wieder so aber da komm ich noch später drauf.

die anzahl der spiele ändert nichts am argument: 2015er titel in einem gpu roundup 3 wochen vor 2018 - das muss jeder für sich selbst entscheiden. das ist so als würde man far cry oder half life 2 (2004) und crysis (2007) zusammen benchen und von der relevanz her auf eine stufe stellen.
zudem wird nur in witcher 3 explizit auf hairworks verzichtet.

Naja es macht dei Argument halt komplett kaputt. Alte beliebe Titel brauchts immer in nen Testparcour und wers ned drinnhaben will, klick sie naus ganz einfach.
Du kannst das konfigurieren.

gamew ich bin absolut der meinung, dass ein nvidia gesponsorter titel mit tesselliertem wasser nicht sonderlich weit von "waveworks" entfernt ist

Und ich hab keine Meinung weil man es im Einzelfall gar ned weiß und deine Behauptungen zu Anno und Andromeda falsch waren, ich würd da eher vorher überlegen und das anschauen bevor man ne Meinung drüber hat.

und wie weit dann unsinnig stark tesselliertes gelände (siehe andromeda/wild lands) von gameworks entfernt n von gameworks zu trennen ist 1. als außenstehender kaum leistbar 2

Doch ist leistbar, Andromeda nutzt Tesselation maximal bis Faktor 16, steht im CB Test!

deine beurteilung von "ist gameworks / ist kein gameworks" basiert doch rein darauf, dass sich jemand erbarmt hat das von seiten nvidia/entwickler auch öffentlich kund zu tun

Ja darauf basiert das und das was du sagst is dann ne VT oder eben gelogen und jetzt hab i dich schon mindestens 3 mal dabei erwischt wie du Fake News machst.

ich weiß, selber weiterbilden ist manchmal schwer, deshalb:

Hattn wir letztens schon. Nur mal bissl was rausgegriffen!
Watch Dogs 2 nutzt kein Waveworks, hab ich durch dein Google gefunden.:p
Anno nutzt 8x Tess, Call of Duty, Dishonored, Tombraider nur sehr niedrige Tess Faktoren, Andomeda nutzt gar kein Gameworks außer Ansel und HDR.

Aus dem PCGH Test.

Diese wird dann wiederum genutzt, um den Schnee dynamisch zu tessellieren. Und zwar nur dort, wo es nötig ist, was Leistung spart, da nicht die komplette Oberfläche unterteilt werden muss. Über einen Zeitraum hinweg füllt sich die Height-Map wieder auf das ursprüngliche Level, was wiederum die Polygone für die vormals nötige Tessellierung spart und zudem den Eindruck erweckt, als würden sich die Fußspuren mit der Zeit wieder mit Schnee füllen - clever! Dass Tessellation eine schöne und keineswegs teure Aufwertung darstellt, zeigt der folgende, auf einer Radeon R9 290X angefertigte Vergleich. Beachten Sie auch die Bildrate rechts oben.

Hairworks hat CB abgeschalten, bei ghost Recon gibt's Godrays die x64 Tess nutzen.
Hier weiß man einfach ned was CB aktiviert oder deaktiviert hat, das is aber auch schon alles.
Also informier dich endlich mal und verzapf ned so nen Schmarrn.

ob das jetzt "waveworks" ist oder "einfach nur tesselliertes wasser", ist haarspalterei.

Nö das is ganz entscheidend für die Bewertung von Gameworks und da du Fakten ned eng siehst wenns darum geht sondern liaber Gschichtn erzählst, machts des noch schlimmer.

"unterstützen" ist n sehr neutrales wort für das, was nvidia macht, um sich im markt festzubeißen.

Meistens sinds nur Schatten, HBOA+ oder TXAA, thats all.

durch die verbreitung ist auch nvidia dementsprechend in der position die entwicklung zu bremsen.

Mir mi schauts anders aus.
AMD bremst die Entwicklung mit langsamen Karten und kommt ned in die Pötte.

haben sie bei dx9 gemacht, bei dx10 und jetzt bei dx11 - weil nvidia immer nach hinten optimiert und amd/ati ihre hardware nach vorne ausrichtet.

Genau und deswegn hatte AMD kein Directx12.1 Feature Leve und NV scho.:lol:

prominentestes beispiel ist das entfernen des dx10.1 supports für assassins creed,

Wenn ich mich recht erinner isses auch des einzige Beispiel für Nvidias Macht da wurd damals wirklich was umgepatched, da hast recht.

1. ist die aussage kompletter blödsinn. wer mal über den grünen tellerrand schaut wird feststellen, dass im schnitt selbst stock vega64 schon einen sehr soliden vorsprung vor der 1080 hat,

Is halt nur nirgends so. Du drammst vo weiße weißwürschtl.

nur ist der nvidia parkour auf CB nicht wirklich neutral.

Na welche Spiele außer die solltma denn sonst benchen?

kannst den ganzen krempel in den rauch pfeifen. es bleibt auch die frage, wieso immer nur fps in % und nicht fps in fps angegeben werden. ich würde gerne wissen, welche fps ich mit gpu X rausbekomme anstelle von "70% einer 1080 ti".

Du kommst einfach ned mit der Realität klar das ist denk ich das Problem.
Der Parcours is n guter Schnitt meist Directx11 bissl Directx12 und Vulkan.
Nvidia supported mehr Spiele als AMD also is da auch mehr dabei... logisch und ja in % sollte man die Angaben scho machen damit mans einordnen kann.

Aots: 13%
BF1: 8%
DE:MD: 1%
DOOM: 12%
F1 2016: 7%
GoW4: 2%
TW3: 9%
titanfall 2: 6%
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440

wer bis hier her aufmerksam mitgelesen hat, wird festgestellt haben, dass wir jetzt alle CB gpu parkour titel durchexerziert haben, und alle titel, die nvidia sponsoring bei der googlesuche ausspucken, auch gleichzeitig die einzigen titel sind, in denen vega gegen die 1080 verliert.

Jetzt isses bissl blöd, dass GoW4, TW3, Titanfall und COD Nvidia supported ist.:o
Also stimmt deine Aussage wieder ned.

oder andersherum formuliert - bei den titeln ist keiner dabei, der gpu hersteller neutral entwickelt wurde und gleichzeitig auf amd schlechter läuft.

Du kannst auch nen neutralen Titel entwickeln auch wenn Gameworks mit drinn is.
HBOA+, TXAA und so Dinge kosten auf AMD Karten ned mehr Leistung.

wen interessieren schon moderne spiele mit moderner technik :rolleyes:

Wenns diese Titel kaum gibt dann intressierts natürlich ned.


danke für den hinweis, dass es scheinbar (!) nur die 4 spiele sind - daraufhin habe ich mir mal die daten genau angeschaut, die CB hier erhebt:

Was heißt da danke fürn Hinweis, ich hab deine Behauptung einfach mal total zerstört, weil die sowas von nen Quatsch war und wieder lags daran dass du dich ned informierst und i was raushaust und kein Drop Down Menü bedienen kannst.

ich habe deshalb bei toms hardware nachgeschaut, was die hier für eine leistungsaufnahme gemessen haben - und im zweifelsfall bin ich eher auf der seite von TH.

Kenn ich die Seite aber du bist doch immer auf der Seite wo deine vorgefertigte Meinung am besten bestätigt wird.
Außerdem was ändert sich. Dann is halt Pascal nimmer doppelt so effizient , sondern nur noch 80ge.

bei den daten gibts wohl kein richtig oder falsch, aber man sollte wirklich langsam mal aufhören die ergebnisse auf CB für bare münze zu nehmen

Ja, die Lügner die! I glaubs ned.. unfassbar. Skandal!
Soo lächerlich von dia.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Genau und deswegn hatte AMD kein Directx12.1 Feature Leve und NV scho.:lol:

Schönes Märchen, vollen DX12.1 Feature Level haben bisher nur RX Vega GPUs und nVidia Grafikkarten eben mit Sicherheit bisher noch nicht, vielleicht dann endlich mit Ampere in 2018, daher, vielleicht erst einmal informieren, bevor Du so einen groben Unsinn verzapfst/schreibst ;) ...

... dass bei den CB Grafikkartenbenchmarks mittlerweile viel im Argen liegt, ob das bspw. nun an der altbackenen, wenig repräsentativen Spieleauswahl der Verantwortlichen liegt, den im Lauf der Zeit nicht nachvollziehbar sich verändernden eigenen Werte/Daten sowie im direkten Vergleich zu anderen (mindestens genauso glaubwürdigen) Webseiten/Magazinen (da hat Duststalker definitiv einen Punkt und sich löblicherweise Mühe gemacht das am Beispiel des Verbrauchs herauszustellen, dem Du offensichtlich aber argumentativ gar nichts entgegnen konntest) oder den angesetzten Messkriterien, ist schwer zu bestreiten.

Das macht natürlich auch nicht alles was von Duststalker behauptet oder hergeleitet wird auch zwingend richtig, zumal man die Wahl hat, eben o.g. andere Webseiten/Magazine ebenfalls in eine Kaufentscheidung einfließen zu lassen oder diese der CB Bewertung vor zu ziehen.

Außerdem gibt es die Möglicheit sich die Benchmarks für gewünschte Spieletitel einzeln abbilden zu lassen, auch wenn sich die Gesamtwertung natürlich als erste aufdrängt und viele Interessenten sich die Mühe nicht machen werden, das einzelnd zu recherchieren.

So gesehen sehe ich das etwas differenzierter (weniger schwarz-weiss und unterstelle CB keine Absicht), auch wenn ich ebenfalls denke, dass bei ComputerBase dringend eine Überholung/Umstellung bei den GPU Testbewertungen (etwa mit mehr Auskunft zu den Testparametern in den Benchmarks, denn andere Seiten/Magazine können das ja auch) und des Parcours von Nöten sind (ein Schnitt gemacht werden könnte, auch wenn das viel Arbeit machen würde), um eine gewisse Standardisierung/Reproduzierbarkeit, Transparenz und Glaubwürdigkeit der Daten gewährleisten zu können (die CB auch positiv von der Konkurrenz abheben würde).

Die Entscheidung zu so einer Reform/Umstellung liegt aber alleine bei der CB Redaktion, nicht uns, auch wenn wir dafür natürlich (wie hier geschehen) dafür werben können.

Des Weiteren würde ich Dir raten, Dir 'mal "eine Tüte Schriftdeutsch" zu kaufen anstelle weiter in Deiner betont umgangssprachlichen Lokaldialektik zu schreiben, es sei denn Du willst (mit Deinen Behauptungen) als wenig glaubhafter Komiker herüber kommen.

Gut, Dein Gegenspieler in diesem Thread, Duststalker, ist vielleicht auch z.T. schludrig in der Schreibweise (was ich aber persönlich wenig auffällig/störend fand), aber ein Bisschen mehr Niveau wäre hier schon angeraten, wenn man denn glaubwürdig argumentieren will.

Nur meine 5 Cents dazu ...
 
Zuletzt bearbeitet:
Chismon schrieb:
Schönes Märchen, vollen DX12.1 Feature Level haben bisher nur RX Vega GPUs und nVidia Grafikkarten eben mit Sicherheit bisher noch nicht, vielleicht dann endlich mit Ampere in 2018, daher, vielleicht erst einmal informieren, bevor Du so einen groben Unsinn verzapfst/schreibst ;)

Nvidia hat jedenfalls genug ghabt um diesem Featurelevel zu entsprechen, lies es bitte nach.
Bei AMD fehlte da was, auch bei ner RX480 im Sommer 2016. Features die Maxwell 2014 schon mit an Board hatte.;)

https://wccftech.com/directx-12-support-explained-maxwells-feature-level-12-1-gcns-resource-binding-tier-3-intels-rov/

Schau da die Tabelle an.

wenig repräsentativen Spieleauswahl der Verantwortlichen liegt

Joa und das wird jetzt halt einfach so behauptet, erneuer du mal in ner Redaktion jede paar Monate mal den Spieleparcours.
Und ich versteh ihn eh ned. Directx12 oder Vulkan gibt's kaum also wieso solls nen hohen Stellenwert darstellen.
Duskstalker findet es Müll dass so wenig AMD Spiele gebencht werden. Vergisst ebend dass es auch weniger AMD Spiele gibt.

Das macht natürlich auch nicht alles was von Duststalker behauptet oder hergeleitet wird auch zwingend richtig,

Er leitet nix her. Er behauptet was, man widerlegts und später sagt ers erneut und klatscht einem Links hin die er selba ned angeschaut hat, sonst würd er nämlich wissen, Watchdogs II nutzt kein Waveworks.

zumal man die Wahl hat, eben o.g. andere Webseiten/Magazine ebenfalls in eine Kaufentscheidung einfließen zu lassen oder diese der CB Bewertung vor zu ziehen.

Das bringt nix weil da das gleiche bei rauskommt. Er meint ja Vega sei schon deutlich schneller als ne 1080. Willkommen im Land der Träumer.

Es gibt glaub ich ne Seite die alle Tests zusammenfasst ich verlink sie wenns mir einfällt.

Des Weiteren würde ich Dir raten, Dir 'mal "eine Tüte Schriftdeutsch" zu kaufen anstelle weiter in Deiner betont umgangssprachlichen Lokaldialektik zu schreiben, es sei denn Du willst (mit Deinen Behauptungen) als wenig glaubhafter Komiker herüber kommen.

Weil ich statt ist oftmals is benutze, okay, wenn dich das stört, dann lässt sich das relativ einfach beheben.

Gut, Dein Gegenspieler in diesem Thread, Duststalker, ist vielleicht auch z.T. schludrig in der Schreibweise

Ich will hier nicht über andere Leute in dritter Person sprechen, aber besser schludrig in der Sprache als schludrig bei Quellennachweisen.
Er behauptet von sich selbst ja er sei Entwickler, was ich ihm so gar nicht abkaufen kann, vor allem nicht in der Art und Weise wie er völlig einseitig Firmen kritisiert und sich dort aufregt dass supportete Spiele mit dabei sind, aber sogleich Tests herauskramt die AMD bevorteilen oder die Mischung Spiele testen die er für neutral hält. Jeder testet halt dass was er gut findet.

Edit: Habs gefunden.

https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-vega/launch-analyse-amd-radeon-rx-vega-seite-2

Coole Seite jedenfalls, da kann er gleich überprüfen ob CB da was einseitig testet.
CB liegt genau im Soll. Toms Hardware hat Werte die AMD fürsprechen drum sucht er sichs raus.
1% schneller als ne 1080 bei Toms, das sind bei ihm dann große Unterschiede.

dass im schnitt selbst stock vega64 schon einen sehr soliden vorsprung vor der 1080 hat, nur ist der nvidia parkour auf CB nicht wirklich neutral.

Er erzählt halt einfach das was ihm in den Kram passt von Fakten willer nix wissen.
Wenn 1% n solider Vorsprung sind u. im Himmel ist Jahrmarkt.
 
Zuletzt bearbeitet:
Wann wird diese Tabelle mit der 1070Ti angepasst ??
 
Zurück
Oben