News AMD Radeon RX: Vage Gerüchte um Polaris 30 in 12 nm im 4. Quartal

Begu schrieb:
Wenn AMD so grottenschlecht ist und APU eh niemand gebrauchen kann, warum genau haben sie dann ein Quasi-Monopol bei Spielekonsolen?
Haben sie nicht. Nintendo verkauft mittlerweile genausoviele Nvidia Konsolen Pedants wie M$ Xbox'en...

Das Geschäft ist auch nicht besonders lukrativ, denn AMD bekommt ganze 100$ für Chipsatz, iGPU und CPU. Ich würde bald behaupten AMD zahlt drauf und der Effekt, besonders Spieleentwickler für AMD Hardware zu fazinieren, schient bei dediziertem Softareumfeld und BS der Konsolen unter der die Hardware dann Low Lewel programmiert wird nicht besonders gut aufzugehen. Die Impulse im PC Gamerbereich blieben jedenfalls bisher aus. Es sind nur wenige Titel die davon überhaupt profitieren, auf der anderen Seite stehen dann AAA Titel wie Tombraider wo sich das sogar negativ auswirkte und man die direkte Mitwirkung bei der Entwicklung verlor. Auf Konsolen flutschte es, am PC waren Ports gerade unter DX12 anfänglich ein Desaster. So zerstört man das vertrauen das man braucht, und einfach nur billig ist out.
 
ja, das problem ist, dass die leute immer denken, dass radeon karten immernoch 30% marktanteile in gaming rechnern haben, weil die blöde umsatzanalyse von JPR amd 30% des gesamtvolumens des dgpu markts anrechnet - ist doch alles top! leider sind aber in 2017 von den 30% mindestens 25% an miner gegangen - insgesamt hat amd massiv am zielmarkt verloren - und nicht gewonnen. der gewinner ist nvidia.

jetzt stellt man sich hin und erwartet, dass amd gefälligst ne neue "gute architektur/gpu" herausbringen soll, die die gameworks blackbox knackt, spieleentwickler davon überzeugt für radeon karten zu optimieren und dann am besten noch für die hälfte vom preis von nvidia.

und wenn das nicht der fall ist, ist man als kunde/konsumzombie gezwungen, nvidia ins monopol zu kaufen?
und was passiert, wenn amd mal wieder ein richtig guter wurf gelingt, aber die lederjacke mit einer geforce in der luft rumwedelt?
wie wärs, wenn man seine prioritäten mal checkt und statt das monopol zu füttern mal bissl was für open source und den fortschritt zu tun? die voraussetzung ist nicht schlechte hardware zu kaufen, sondern die comfortzone zu verlassen und andere hardware zu kaufen.

am cpu markt kann man sich anschauen, was amd als konkurrenz reißen kann - hier muss man sich doch einig sein, dass das im gpu markt auch wünschenswert wäre?

nvidia ist noch eine haaresbreite vom monopol entfernt - und das einzige, was sie noch davon abhält, ist der ständig gescholtene sündenbock amd.

wenn sich jeder nur um sein "bestes" bemüht, wieso ist polaris 20 dann in sachen verbreitung so weit von der 1060 abgeschlagen? die rx580 ist insgesamt die bessere karte. die karten liegen im schnitt in jedem benchmark dicht beeinander.
wenn man sich aber anschaut, dass die gtx 1060 nur in den spielen gewinnt, in denen auch eine vega 64 gegen die 1070 verliert, weil nvidia hier mal wieder nachgeholfen hat, und die rx580 in den spielen gewinnt, die generell technisch gut umgesetzt sind, wird eher ein schuh draus.
wer behauptet, dass die gtx 1060 die schnellere grafikkarte ist, akzeptiert auch, dass nvidia gameworks spiele eine faire basis für einen vergleich sind. und das ist absolut nicht der fall.

zu der potentiell höheren leistung hat die rx580 2gb mehr vram, bietet freesync und lässt sich trotzdem leise kühlen, bspw. rx580 nitro.

die gtx 1060 verbraucht mit weniger potenter hardware weniger strom *clap clap*

das muss der grund sein, wieso die gtx 1060 laut steam um den faktor 13 öfters in gaming rechnern ist, als rx480 und rx580 zusammen (DX12 GPUs). freesync? wer braucht das? strom sparen liebe leute!

dann natürlich schön mit OC 200w in die intel cpu drücken, aber bei der gpu schaut man seit dem öko kurs bei nvidia lieber drei mal hin - wenns keine guten gründe gibt, konstruiert man sich halt welche. wieso kauft man sich zu einer gtx 1060 dann keinen ryzen 3 1200? die luftreibung am cpu kühler erzeugt genug energie für das teil. stattdessen gönnt man sich dann die WLP-tauchsieder von intel, weils auf die letzten 10% fps ankommt - außer bei den gpus, natürlich. desseidenn die nächsten nvidia gpus brauchen wieder mehr strom, weil nvidia auf 12nm sonst keine 40% mehrleistung hinbekommt. "stromsparen? ich will zocken, nicht sparen! FFPPPPPPPSSSSSS"

das selbe an der cpu front: noch nie hat man so viel leistung fürs geld bekommen - 200€ für nen 8c/16t 4 ghz allcore prozessor - und die leute rennen intel die bude ein, weil intel jetzt mal gezwungen ist etwas mehr gegenwert für die kohle zu bieten. anstatt dass man sich bei amd bedankt, dass man jetzt zugang zu so einer tollen technik hat, wird bei intel eingekauft, weil man halt die letzten 10% mehr fps im cpu limit braucht.

intel ist weder effizienter, noch kühler, noch günstiger ganz zu schweigen von "kundenfreundlich" - aber jeder denkt er bekommt bei amd zu wenig.

das ist keine sache der produkte von amd - das ist eine mentalitätssache bei der potentiellen kundschaft, die immer gründe für intel/nvidia und immer ausreden gegen amd findet "wenn amd mal gute produkte hätte...".

nein, wenn auf amd mal intel bzw. nvidia draufstehen würde!
 
  • Gefällt mir
Reaktionen: Tanzmusikus, D0m1n4t0r, Beyazid und 2 andere
Derzeit kann man bei GCN Neuentwicklungen halt Treiberprobleme weitgehend ausschließen, dass spart Entwicklungskosten im Bereich, wo es seit längerem bei AMD hapert (egal ob Crimson - Adrenalin oder nicht). Siehe Vega Primitive Pixelshader. Man kann die verfügbare Rechenleistung oder Rohpower einfach nicht abrufen, dann helfen auch aufgeblasene Refresh's nichts.

Fiji gleich Vega, Vega gleich Polaris (m Vega-GPUs werden als Polaris 25 erkannt), Navi gleich Vega gleich Polaris je nach Leistungsbereich.

AMD MUSS von den Limitierungen durch GCN weg, nur geht das nicht wenn die Software fehlt, dass würde wie ein Bulldozer Rohrkrepierer werden. CMT ja, Softwareunterstützung fehlt in Consumerbereichen...
 
Zuletzt bearbeitet von einem Moderator:
amd kann für gaming nur mit monolithischen gpus weiter machen - eben das, was nvidia auch macht. bleibt halt die frage, inwiefern hier eine andere architektur als GCN mehr bringt. GCN ist durchaus leistungsfähig, das sieht man an einigen spielen immer wieder - sicherlich nicht optimal, aber das problem mit nvidia gameworks/nvidia spielen löst eine andere architektur auch nicht (desseidenn sie wäre eine exakte kopie einer nvidia architektur).

mcm/chiplets für gaming-gpus wären nur dann denkbar, wenn amd und vulkan (inkl. mcm-unterstützung) eine entsprechend große verbreitung hätte. aber es ist leider nvidia+dx11.
 
donend schrieb:
denn AMD bekommt ganze 100$ für Chipsatz, iGPU und CPU.
Meld dich wieder, wenn du dich informiert hast!

für einen Chipsatz bekommt AMD da genau nichts, die Southbridge für beide Konsolen kommt nichtmal von AMD...

Ich würde bald behaupten AMD zahlt drauf
Du kannst behaupten was du willst, damit machst du dich eh nur selbst lächerlich!
 
duskstalker schrieb:
wenn man sich aber anschaut, dass die gtx 1060 nur in den spielen gewinnt, in denen auch eine vega 64 gegen die 1070 verliert, weil nvidia hier mal wieder nachgeholfen hat, und die rx580 in den spielen gewinnt, die generell technisch gut umgesetzt sind, wird eher ein schuh draus. wer behauptet, dass die gtx 1060 die schnellere grafikkarte ist, akzeptiert auch, dass nvidia gameworks spiele eine faire basis für einen vergleich sind. und das ist absolut nicht der fall.

Immer die selben und zum Teil falsche Aussagen, läuft es auf AMD gut, ist das Game technisch gut Programmiert, läuft es auf Nvidia gut, ist die Programmierung unfair auf Nvidia optimiert, sicher gibt es Spiele die Gameworks von Nvidia verwenden und sicher gibt es mehr Gameworkstitel Titel, als AMD Optimierte Spiele, es gibt aber auch genügend Spiele, die weder Gameworks noch AMD Optimierungen haben und da hat derzeit Nvidia die besseren Karten.

Auch immer diese Versuch Nvidia Käufer generell als Konsumidioten dastehen zu lassen, die so blöd sind und letztendlich Nvidia zum Monopol verhelfen, finde ich mehr als Grenzwertig, schließlich sind die Grafikkarten von denen nun mal wirklich nicht schlecht und wenn ich eine Grafikkarte für 300€ und mehr kaufe, muss sie in erster Linie meinen Bedürfnissen und Kenntnissen genügen und nicht welche Farbe mir besser gefällt.
 
Beide Seiten sind hier etwas zu extrem man kann natürlich in manchen Fällen behaupten das Gameworks etwas schwierig ist, aber es kommt auch auf das Studio an, The Witcher 3 lief zum Beispiel auch auf AMD super und fair. Natürlich muss man sagen, das abseits der 1060 die Nvidia die bessere Palette zurzeit hat. Aber so schlecht sehe ich AMD nicht aufgestellt. Da mach ich mir erstmal keine Sorgen, die werden sich durchbeißen.
Des Weiteren bin ich der Meinung das die guten Verkaufszahlen insbesondere auch an den OEM liegt. Die sind einfach viel öfters verbaut als AMD , gerade die 1050er - 1060er. Ich selber hab kein Zweifel daran, das AMD zurückschlägt mit der Zeit, Ryzen etc. Hat ja auch massig Ressourcen geschluckt und das wurde auch damals so betont.
Man sollte das alles mal etwas nüchterner betrachten und weniger Emotionen mit einbinden.
 
Zuletzt bearbeitet:
Was weniger Emotionen und Hate? Ich bitte dich. Dazu sind doch die meisten schon lange nicht mehr in der Lage. :D

Wenn man es absolut nüchtern betrachten würde, dann würde es ja am Ende absolut egal sein ob Miner oder Gamer die Grafikkarten, besonders die AMD Grafikkarten, kaufen würden. Da es am Ende ja Umsatz+ wäre, weil alle GPUs weggehen würden.

Aber da viele es nicht nüchtern betrachten können und/oder wollen, ist AMD Doof, weil ihre Karten angeblich nicht gut sind, die doofen Miner alles weggekauft haben, dadurch nicht als Preisdrücker für nVidia Karten herhalten konnten und am Ende man mehr bezahlen musste.

Es ist am Ende ein undankbares Geschäft was AMD gerade im GPU Bereich führt. Auf der einen Seite immer neue Features einbauen und diese Open Source an zu bieten, auf der anderen Seite sich Jahrelang mit Spielen rumschlagen müssen die durch Gameworks nicht leicht zu optimieren sind. Und dann wird man auch noch dafür kritisiert von den Konsumzombies es ja nicht so toll wie nVidia zu machen. Schon echt geil wie manche hier und in anderen AMD Threads immer wieder beweisen wie unschön sich verhalten wird.

Objektiv betrachtet, kauft man ein Produkt nicht, wenn es einem nicht zusagt. Es ist aber deswegen kein schlechtes Produkt. Subjektiv betrachtet gehört das Produkt so wie die Firma per Rakete in die Sonne geschossen, weil es Majestätsbeleidigung ist gegen eben jene "Experten".
 
Blueline56 schrieb:
Immer die selben und zum Teil falsche Aussagen, läuft es auf AMD gut, ist das Game technisch gut Programmiert, läuft es auf Nvidia gut, ist die Programmierung unfair auf Nvidia optimiert, sicher gibt es Spiele die Gameworks von Nvidia verwenden und sicher gibt es mehr Gameworkstitel Titel, als AMD Optimierte Spiele, es gibt aber auch genügend Spiele, die weder Gameworks noch AMD Optimierungen haben und da hat derzeit Nvidia die besseren Karten.

wollen wir uns mal gemeinsam die spiele genau anschauen?

ich habe die daten aus folgendem benchmark entnommen, weil wir sonst keine realen fps zahlen haben:

https://www.computerbase.de/2017-12...marks_in_1920__1080_2560__1440_und_3840__2160

ich nehme die werte aus den wqhd runs und werte die spiele folgendermaßen:

gtx 1070 > vega 56 = pro nvidia
vega 56 > gtx 1070ti= pro amd

schaffen vega 56 / 1070 ti 60 fps? ja / nein

es gibt ein paar spiele, in denen die 1070 ti und vega 56 genau gleich schnell sind - hier habe ich die ergebnisse auf fhd und uhd verglichen und entsprechend kategorisiert. bei titanfall 2 ist es aber so, dass vega 56 in fhd schneller ist, in uhd aber die 1070 ti - daher neutral.

CB Parkour:
  • Assassin's Creed Origins - Pro Nvidia. Nein Nein
  • Battlefield 1 - Neutral - Frostbyte Engine. Ja Ja
  • Call of Duty: WWII - Neutral. Ja Ja
  • Dawn of War 3 - Pro AMD. Ja Ja
  • Destiny 2 - Pro Nvidia - nvidia sponsored. Ja Ja
  • Deus Ex: Mankind Divided - Neutral - Gaming Evolved. Nein Nein
  • Doom - Pro AMD - iD Tech 4 Vulkan. Ja Ja
  • Elex - Neutral. Nein Nein
  • F1 2017 - Neutral. Ja Ja
  • Gears of War 4 - Neutral - Nvidia beteiligt. Nein Nein
  • Ghost Recon Wildlands - Pro Nvidia - Gameworks + Tessellation. Nein Nein
  • Mass Effect Andromeda - Pro Nvidia - Gameworks + Tessellation. Nein Nein
  • Mittelerde: S. d. K. - Neutral - Gameworks (keine Tessellation). Nein Nein
  • Overwatch - Pro Nvidia - Blizzard. Ja Ja
  • Prey - Neutral - Gaming Evolved. Ja Ja
  • Shadow Warrior 2 - Pro Nvidia - Gameworks (keine Tessellation). Ja Ja
  • Star Wars BF 2 - Pro AMD - Frostbyte Engine - Gameworks - Tessellation. Ja Ja
  • The Evil Within 2 - Pro AMD. Nein Nein
  • The Witcher 3 - Neutral - Gameworks Tessellation. Nein Nein
  • Titanfall 2 - Neutral - Gameworks (keine Tessellation). Nein Nein
  • Wolfenstein 2 - Pro AMD - iD Tech 4 Vulkan. Ja Ja

Pro Nvidia: 6 - 60 fps: 50%
Pro AMD: 5 - 60 fps: 80%
Neutral: 10 - 60 fps: 40%

und jetzt schauen wir uns noch an, wie rx580, vega 64, gtx 1060 und gtx 1080 zueinander skalieren.

du behauptest, dass die aussage falsch ist, dass gute amd spiele, technisch gute spiele sind; und gute nvidia spiele technisch schlechter sind.

dann müssten wir ja jetzt gleich sehen, dass nvidia karten in nvidia spielen gut skalieren, und in amd spielen schlecht. schauen wir mal:

amd vs amd.jpg


Assassins Creed ist schon der erste nvidia titel - und da muss man leider feststellen, dass der prozentuale abstand zwischen gtx 1060 und 1080 am geringsten überhaupt ist - und das obwohl die rx580 nicht übermäßig weit hinten liegt. der nächste nvidia titel ist Destiny 2 - hier skalieren die karten der hersteller in einem normalen verhältnis zueinander. Ghost Recon Wildlands skaliert auf nvidia wieder schlechter als der durchschnitt. Mass Effect Andromeda ist der erste nvidia titel, in dem nvidia mal "gut" skaliert - overwatch folgt in dem selben schema. aber bei shadow warrior 2 ist der höhenflug wieder beendet und man landet unter dem durchschnitt.

jetzt sehen wir uns mal die amd titel für nvidia an:

dawn of war skaliert für nvidia genau so wie destiny 2 - nvidia benachteiligt? in doom skaliert nvidia überdurchschnittlich und sogar besser als amd, was aber auch daran liegt, dass die rx580 hier viel besser als die gtx 1060 ist und vega hier schlechter performt, als in wolfenstein und battlefront 2. in battlefront 2 kann sich die gtx 1080 wieder auffällig weit von der 1060 absetzen. und auch das biased wolfenstein zeigt das selbe verhältnis wie destiny 2.

die theorie besagt jetzt folgendes: je geringer der abstand von midrange zu high end ist, desto schlechter skaliert das spiel mit viel gpu leistung - ergo man zahlt nen haufen für teure gpus, die hinterher kaum mehrleistung ausspucken. wenn nur ein hersteller einen langen balken hat, heißt das, dass ein ungleichgewicht zwischen den herstellern herrscht. sind aber beide werte niedrig, heißt das im prinzip, dass das spiel ne gurke ist. welche spiele "Pro Hersteller Spiele" haben denn die niedrigsten werte für beide hersteller?

AC, Ghost Recon WL, Shadow Warrior 2, und The Evil Within - 3 mal nvidia, 1 mal amd.

die restlichen amd titel liegen alle deutlich drüber und skalieren für nvidia absolut durchschnittlich bis gut.

hier lässt sich jetzt festhalten:

nvidia spiele laufen zu 50% auch auf nvidia hardware beschissen, aber auf amd noch schlechter, weshalb das nicht auffällt.


amd vs nvidia.jpg


hier haben wir im prinzip den selben graphen, nur dass hier jeweils auf die karte des konkurrenten verglichen wird. hier kann man schön sehen, wie die rx580 zur 1080 grob einen schnitt von 65% abstand hält (grüne balken). das verhältnis von gtx 1060 auf vega 64 sieht erstmal chaotisch aus - aber man muss das ganze mal kurz auf sich wirken lassen - analyse:

sobald bei einem spiel nvidia die finger drin hat, skaliert vega nicht mehr nach oben und kommt kaum 50% von der 1060 weg - da ist der abstand zwischen 1080 und 1060 größer, und das obwohl die 1080 eigentlich langsamer als vega 64 ist.

in quasi jedem neutralen spiel skaliert die vega 64 auf die 1060 auf einmal stärker als die 1080 auf die rx580.

die großen abstände zwischen amd und nvidia bei doom, battlefront 2 und wolfenstein kommen da her, dass die gtx1060 gegen die rx580 mit 20-35% absäuft und hier polaris 20 überdurchschnittlich gut performt, was den abstand zwischen rx580 und gtx 1080 verringert - so einen großen abstand erreicht die gtx 1060 in nvidia spielen nicht mal ansatzweise.
man müsste noch mehr daten auswerten, um festzustellen, ob die gtx1060 mit ihrer vergleichsweise schwachen hardware gegen eine wand rennt und sich bspw. eine 1070 ti anders verhält - die scheint nämlich im verhältnis zur 1080 ti viel stabiler zu sein als eine 1060.

fassen wir mal zusammen:

in nvidia spielen performt vega mit abstand am schlechtesten, während die skalierung von den nvidia karten untereinander in amd spielen oft sogar besser ist als in nvidia spielen.

in einigen titeln schießt vega im verhältnis zur 1060 komplett durch die decke - das sind aber auch gleichzeitig immer titel, die auch auf nvidia->nvidia gut laufen, d.h. die skalierung nicht einschränken, wie es bspw. mit amd karten in nvidia spielen zu sehen ist. zudem sind alle pro amd titel insgesamt sehr performant und spucken viel fps für die gpu leistung aus (ausnahme ist the evil within).

es scheint keinen hinweis darauf zu geben, dass nvidia in amd titeln künstlich gebremst wird, viel mehr kommt das delta in den "amd spielen" von einer optimalen auslastung der radeon karten, die in anderen szenarien so nicht gegeben ist. würde nvidia blockiert werden, würden die karten zueinander vermutlich viel schlechter skalieren, wie es auch bei amd->amd in nvidia spielen der fall ist.

es scheint sehr starke hinweise darauf zu geben, dass amd in nvidia titeln künstlich gebremst wird.

es scheint hinweise darauf zu geben, dass nvidia in manchen nvidia spielen schlecht skaliert.

was war jetzt an meiner ursprünglichen aussage falsch? ein großteil der nvidia spiele sind technische unfälle.

Blueline56 schrieb:
Auch immer diese Versuch Nvidia Käufer generell als Konsumidioten dastehen zu lassen, die so blöd sind und letztendlich Nvidia zum Monopol verhelfen, finde ich mehr als Grenzwertig, schließlich sind die Grafikkarten von denen nun mal wirklich nicht schlecht und wenn ich eine Grafikkarte für 300€ und mehr kaufe, muss sie in erster Linie meinen Bedürfnissen und Kenntnissen genügen und nicht welche Farbe mir besser gefällt.

also wenn niemand die karten kaufen würde, würden die auch kein monopol bekommen - das ist nunmal der zwingende zusammenhang in der geschichte.

und wenn man immer nach objektiven maßstäben kaufen würde, und nicht nach "nvidia" oder "keine nvidia", müssten ATi / AMD ein paar fette jahre im buch haben. cypress und hawaii "der titan killer" waren zwei extrem starke gpus aus der jüngeren geschichte - wo sind da die nvida-like höhenflüge? ati hätte mit der terascale architektur eigentlich die marktführerschaft übernehmen müssen, aber aus irgendwelchen gründen hat sich fermi trotzdem prächtig verkauft. hawaii hat schlicht keinen platz an der sonne bekommen.

anandtech im schlusswort zum r9 290 review:

the Radeon R9 290 AMD has completely blown the roof off of the high-end video card market. The 290 is so fast and so cheap that on a pure price/performance basis you won’t find anything quite like it. At $400 AMD is delivering 106% of the $500 GeForce GTX 780’s performance, or 97% of the $550 Radeon R9 290X’s performance. The high-end market has never been for value seekers – the fastest cards have always commanded high premiums – but the 290 completely blows that model apart. On a pure price/performance basis the GTX 780 and even the 290X are rendered completely redundant by the 290, which delivers similar-to-better performance for $100 less if not more.

gleichzeitig wurde aber davon abgeraten die r9 290 zu kaufen, weil das referenzdesign zu laut war. davon kann man halten was man will.

https://www.anandtech.com/show/7481/the-amd-radeon-r9-290-review

das review war vom Q4 2013. *no one bats an eye*. nvidia maxwell kommt q3 2014 *everyone loses their mid*

jpr_q3_2016_amd_vs_nvda_SHARES.png


ironischerweise ist gerade die gtx 970 der auslöser des hypes, die mit falschen technischen daten angetreten ist. und noch pikanter: für das gtx 970 review war anandtech frei genug statt der referenzkarte die evga 970 ftw zu testen. https://www.anandtech.com/show/8568/the-geforce-gtx-970-review-feat-evga

ist natürlich ne nette geste, wenn man bei amd ein jahr vorher davon abgeraten hat eine gpu zu kaufen, weil das referenzdesign überraschenderweise zu laut ist.

maxwell ist eine hervorragende architektur, keine frage. aber ati hatte mit cypress einen ähnlichen effizienzvorteil vor fermi wie maxwell vor hawaii, mit dem unterschied, dass es da über der 5870 keine weitere single gpu karte mehr gab. da wurde dann argumentiert, dass die laute heiße gtx 480 n stückchen schneller war. hawaii war ebenfalls schneller als alles, was nvidia zu bieten hatte, mit maxwell war die effizienz dann wieder wichtig.

man kann es drehen wie man will, in jeder situation kommt nvidia als gewinner raus, obwohl beide das selbe machen.
 
  • Gefällt mir
Reaktionen: yummycandy, Cpt.Willard, Casillas und 7 andere
Du machst dir da viel zu viel Mühe. Es wird auch weiterhin behauptet das nVidia "Beste von Welt" ist. Da kannst du noch so viel Graphen einbauen, Analysen machen oder Testberichte zitieren. Es ist fest in den Köpfen eingebrannt. nVidia ist immer besser wie AMD und Gameworks bremst AMD Karten nie aus, weil Gameworks auch "Beste von Welt" ist.
 
  • Gefällt mir
Reaktionen: yummycandy und Cpt.Willard
@duskstalker
Du vergleichst da ständig Äpfel mit Birnen. Eine RX Vega Chip ist mit ~510mm² mehr als doppelt so groß wie einer der GTX 1060, der um die 200mm² hat. Das die unterschiedlich skalieren versteht sich von selbst, vor allem da Vega auf HBM2 zurückgreifen kann. Außerdem machen nicht die Spiele den Unterschied, sondern die unausgeglichene Architektur von Vega selbst.

Jeder weiß wie schlecht Vega trotz der immensen Chipgröße die Leistung auf die Straße bringt. Der ganze Computingballast zieht die Gamingleistung auf "nur" GTX1080 herunter. Die Karten wären durchaus zu mehr in der Lage und je nach Situation fluktuiert halt das Ergebnis.

Polaris ist auch nicht das wahre. Die Rx400/500er Series kämpft mit 232mm² trotz Gewichtsvorteil unter ihrer Klasse und schafft es geradeso mitzuhalten. Da bedarf es mehr als ein bißchen Feintuning. GCN ist quasi am Ende und benötigt dringend einen würdigen Nachfolger.

Ein solcher war seinerzeit Maxwell für Nvidia. Auch wenn man die GTX970 wegen den Spezifikationen immer wieder all zu gerne herunter macht, sie war dennoch ein Knaller. Im Vergleich zu deiner 290x im Beispiel hat sie ähnliche Grafikleistung aber bei 80-100W weniger Verbrauch als die 290x geschafft. Bei gleichem Fertigungsprozess wohlgemerkt.

Sollte der Nachfolger von Pascal ähnliche Verbesserungen bringen, war es das mit Polaris. Da reichen dann 10-20% mehr nicht einmal mehr für den Trostpreis aus. Das werden Ladenhüter wie seinerzeit Fiji-Chips.
 
Whiskey Lake schrieb:
Meld dich wieder, wenn du dich informiert hast!

für einen Chipsatz bekommt AMD da genau nichts, die Southbridge für beide Konsolen kommt nichtmal von AMD...

Du kannst behaupten was du willst, damit machst du dich eh nur selbst lächerlich!
Das sie die UNB und das UMI nicht an deine "Einzellersätze" anbinden, war mir schon klar. Nur weil etwas "on a chip" ausgelegt wird, heißt das nicht, dass es nicht existiert. Um's I/O und Microsoft IC ging es dabei überhaupt nicht...
Ergänzung ()

Dark_Knight schrieb:
Aber da viele es nicht nüchtern betrachten können und/oder wollen, ist AMD Doof, weil ihre Karten angeblich nicht gut sind, die doofen Miner alles weggekauft haben, dadurch nicht als Preisdrücker für nVidia Karten herhalten konnten und am Ende man mehr bezahlen musste.
Man muss für Nvidia aber nicht mehr bezahlen (genau das ist die Krux), wie sollen die AMD Karten dann als "Preisdrücker" dienen? Man zahlt für Nvidia weniger und das nicht erst als der Minningboom begann. Die UVP die AMD in homöopathischen Dosen unter die Jünger über 4 Shops in Deutschland streute, kannst du ehrlicherweise nicht als Preisdruck auf Nvidia bezeichnen.

Soviel zu "emotionlos...", die RX580 kostet seit Anbeginn bis auf wenige UVP Chargen von 100 Stück viel zu viel und bei Vega wars nicht anders, was immer noch so ist. Dazu verbrauchen die Karten halt mehr, werden damit wärmer und auch lauter, oder aber Kosten mehr - weil die Partner große Cooler in Eigenentwicklung draufschnallen müssen, was den Preis nach oben treibt.

Keine einzige Karte ist im direkten Vergleich billiger, eher drückt Nvidia derzeit die Preise...mit ihrem Überangebot, bzw. Abverkauf der alten Gen.

https://www.computerbase.de/thema/grafikkarte/rangliste/
 
Zuletzt bearbeitet von einem Moderator:
Botcruscher schrieb:
Was für Unsinn?!? Die Marketingoption starke iGPU existiert bei AMD seit Llano und gebracht hat es genau nichts. Prozessoren werden für Prozessorleistung gekauft und sonst nichts. Der Anteil der iGPU Nutzer dürfte hier im niedrigen einstelligen Prozentbereich liegen.

Belege das mal bitte mit den niedrigen einstelligen Prozenzbereich. Ich glaube schon, dass so einige Leute hier iGPUs nutzen. Sicher auch nicht nur die von AMD.

Wenn iGPUs so unerfolgreich wären wie du meinst, glaube ich nicht das ein Unternehmen wie AMD die ständig weiter entwickelt hätte.

Also eine Aussage für de Tonne
 
  • Gefällt mir
Reaktionen: Sephiroth51 und Hill Ridge
Hardware_Hoshi schrieb:
Du vergleichst da ständig Äpfel mit Birnen. Eine RX Vega Chip ist mit ~510mm² mehr als doppelt so groß wie einer der GTX 1060, der um die 200mm² hat.

also soll ich deiner meinung nach vega ausschließlich mit der titan v vergleichen? das sind halt die gaming karten, die wir haben. hier gibts nur äpfel und birnen.

Hardware_Hoshi schrieb:
Das die unterschiedlich skalieren versteht sich von selbst, vor allem da Vega auf HBM2 zurückgreifen kann. Außerdem machen nicht die Spiele den Unterschied, sondern die unausgeglichene Architektur von Vega selbst.

du hast recht! muss an vega liegen, wenn polaris und fiji auf die selben spiele reagieren.

wenn man den parkour von CB in zwei hälften teilt und man 9 spiele in einen "pro nvidia" und 12 spiele in eine "pro amd" kategorie einteilt und dann von der 1070 aus mal schaut, wie sich die karten zueinander verhalten, kann man nur zu einem schluss kommen, und das ist bestimmt nicht, dass es an vega und nicht den spielen liegt.

spieleskalierung.jpg


die nvidia karten verhalten sich in beiden kategorien quasi identisch. in pro nvidia ist die 1080ti 66% schneller als die 1070, in pro amd 65% - die 1060 erreicht jeweils 72% der 1070.

wenn man sich jetzt anschaut, wie das auf amd seite aussieht, könnte man meinen, hier werden andere karten gebencht - aber es sind andere spiele. die vega 56 geht von 1% rückstand auf 16% führung, vega 64 erreicht statt +13% einen vorsprung von +34% (21% verbesserung) - das delta von rx580 auf vega auf basis der 1070 zwischen pro nvidia und pro amd ist verglichen mit dem von nvidia riesig.

auf den grafiken sieht man nicht, wie das zwischen gtx 1060 und rx580 aussieht - kann jeder selbst nachvollziehen, aber hier die zahlen auf basis der gtx 1060:

pro nvidia: gtx 1060 > 3% rx 580
pro amd: gtx 1060 < 11% rx580

das ist ein delta von 14%.

auf basis der rx580 schrumpft der vorsprung der gtx 1070 auf die rx580 von 43% auf 26%.

würde die fury x nicht im vram bottleneck in doom und wolfenstein stecken, hätte man hier zwischen der 1070 und der fury x mittlerweile einen gleichstand.

spiele oder vega?

Hardware_Hoshi schrieb:
Jeder weiß wie schlecht Vega trotz der immensen Chipgröße die Leistung auf die Straße bringt.

nein, jeder glaubt etwas über vega zu wissen. das ist ein himmelweiter unterschied.

Hardware_Hoshi schrieb:
Polaris ist auch nicht das wahre. Die Rx400/500er Series kämpft mit 232mm² trotz Gewichtsvorteil unter ihrer Klasse und schafft es geradeso mitzuhalten. Da bedarf es mehr als ein bißchen Feintuning. GCN ist quasi am Ende und benötigt dringend einen würdigen Nachfolger.

ach der gpu architekt kennt mal wieder sämtliche bottlenecks von GCN. wie wärs mal mit einer bewerbung bei amd, die könnten sicherlich hilfe gebrauchen.
ne aber jetzt mal ernsthaft - wir sehen jetzt schon, dass in über der hälfte an spielen (die zufällig so gut wie keine gameworks und nvidia gesponsorte spiele enthalten) polaris 20 in einem 1/3 - 2/3 verhältnis zwischen gtx 1060 und gtx 1070 liegt. polaris braucht nen nachfolger, aber "unter ihrer klasse gerade so mithalten" ist übertrieben.

wie man an den spielen sieht, ist gcn nicht das hauptproblem - sondern die spiele. wenn die spiele keine generation rückstand mehr verursachen, kann man anfangen der architektur die schuld zuzuschieben. gcn hat probleme in gaming workloads - aber wären manche spiele nicht so extrem biased, wäre gcn mit polaris und vega schon sehr harte konkurrenz. wieviel hier eine neue / bessere architektur hilft, weiß keiner. wieviel pro-nvidia spiele leistung kosten, weiß man aber sehr wohl.

ich lese jeden tag "GCN suckt", aber nie "optimiert die spiele fair". das wäre doch mal was.

polaris ist die erfolgreichste gpu für amd seit cypress. "nicht das wahre" ist hier nicht unbedingt die richtige beschreibung.

Hardware_Hoshi schrieb:
Ein solcher war seinerzeit Maxwell für Nvidia. Auch wenn man die GTX970 wegen den Spezifikationen immer wieder all zu gerne herunter macht, sie war dennoch ein Knaller. Im Vergleich zu deiner 290x im Beispiel hat sie ähnliche Grafikleistung aber bei 80-100W weniger Verbrauch als die 290x geschafft. Bei gleichem Fertigungsprozess wohlgemerkt.

ein jahr später mit einem vielfachen des R&D budgets. wäre natürlich top, wenn amd zur 7nm fertigung bei tsmc noch mit einer neuen performanten architektur nachlegt, die so lange so gut über refreshes/shrinks skaliert wie maxwell - in absehbarer zukunft muss es aber weiterhin GCN richten.

Hardware_Hoshi schrieb:
Sollte der Nachfolger von Pascal ähnliche Verbesserungen bringen, war es das mit Polaris. Da reichen dann 10-20% mehr nicht einmal mehr für den Trostpreis aus. Das werden Ladenhüter wie seinerzeit Fiji-Chips.

maxwell ist im grunde wie sandy bridge. gute performance, extremer oc headroom. mit pascal hat man schon sehr viel von dem oc headroom mitgenommen - die verbesserungen in der architektur sind marginal.
wieviel mehr kann man über den takt und shrink von 16 auf 12nm herausholen?
ich denke nvidia muss für turing einen weitaus größeren hardwareaufwand (chipfläche) fahren, um nennenswerte steigerungen über pascal zu erreichen. nvidia ist in einer ähnlichen situation wie intel, nur mit dem unterschied, dass intel in einer node-sackgasse steckt, und nvidia nicht.

ich vermute, dass turing etwa 40% mehr leistung auf pascal packt, gleichzeitig aber der hardwareaufwand steigt und die effizienz sinkt. einen performance sprung von 70% wie von maxwell auf pascal kann man eigentlich ausschließen.

polaris in 14nm geht dagegen natürlich unter - aber polaris steht dann auch kurz davor von navi abgelöst zu werden. polaris 30 in 12nm lp ist ein lückenfüller bis navi kommt.

amd kann gegen nvidia erst mit 7nm wieder etwas ausrichten - hier kann man nur hoffen, dass 7nm schnell kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beyazid, yummycandy, Cpt.Willard und 3 andere
duskstalker schrieb:
also soll ich deiner meinung nach vega ausschließlich mit der titan v vergleichen? das sind halt die gaming karten, die wir haben. hier gibts nur äpfel und birnen.

Wer spricht von der Titan V?`
Vega ist nun einmal ein Sonderling. All diejenigen, die behaupten Vega wäre ein 1080 Konkurrent, belügen sich doch nur selbst. Die Architektur wurde nie primär für Gaming entwickelt, sondern für den Professionellen Bereich.

duskstalker schrieb:
du hast recht! muss an vega liegen, wenn polaris und fiji auf die selben spiele reagieren.

Ach, Quark!
Vega ist einfach zu unbeständig. Die RX Vega's reagieren in jedem Spiel unterschiedlich. Bei manchen sind sie näher oder um die 1080 und in anderen stärker. Das liegt weniger and den Spielen als vielmehr an der unausgeglichenen Vega Architektur selbst.

Vega ist im Grunde auch nur Fiji mit kleinerem Fertigungsprozess und HBM2 oben drauf.

duskstalker schrieb:
wenn man den parkour von CB in zwei hälften teilt und man 9 spiele in einen "pro nvidia" und 12 spiele in eine "pro amd" kategorie einteilt und dann von der 1070 aus mal schaut, wie sich die karten zueinander verhalten, kann man nur zu einem schluss kommen, und das ist bestimmt nicht, dass es an vega und nicht den spielen liegt.

Oh, bitte nicht schon wieder diese Fanboystories aus dem Keller holen. Der Parcour ist veraltet, dafür kann aber CB nichts. Aktkuell haben wir eine regelrechte Flaute an guten und grafisch intensiven Spielen. Die meisten Titel werden primär für die Konsolen entwickelt und dann notdürftig auf PC portiert. Dazu kommt, dass die wenigen AAA-Titel nur Grafikblender ohne Tiefgang sind. Entsprechend schnell sinkt die Unterstützung sowohl der Entwickler als auch der Spieler. Wenn Battlefield V genau so ein Desaster wird wie Mass Effect Andromeda, haben haben wir wieder so eine Spieleleiche im Parcour.

duskstalker schrieb:
auf den grafiken sieht man nicht, wie das zwischen gtx 1060 und rx580 aussieht - kann jeder selbst nachvollziehen, aber hier die zahlen auf basis der gtx 1060:

pro nvidia: gtx 1060 > 3% rx 580
pro amd: gtx 1060 < 11% rx580

das ist ein delta von 14%.

auf basis der rx580 schrumpft der vorsprung der gtx 1070 auf die rx580 von 43% auf 26%.

Die Rx580 und die GTX1060 schenken sich in der Regel nicht viel. Das sind höchstens minimale Ausreißer in die eine oder andere Richtung. Alles darüber leidet vielmehr an den schlecht skalierenden Titeln. Es wundert dabei oft, wieso eine Titan kaum schneller ist als eine 1070/1080. Selbiges bei AMD Polaris und Vega.

Ich hoffe das ädnert sich in Zukunft mit neuer Hardware wieder.

duskstalker schrieb:
würde die fury x nicht im vram bottleneck in doom und wolfenstein stecken, hätte man hier zwischen der 1070 und der fury x mittlerweile einen gleichstand.

Das hat jedoch nichts mit den Spielen zu tun. Die Anforderungen sind halt gestiegen und jeder wusste wie bescheuert die 4GB bei den Fiji-Chips waren. Deshalb lagen die karten auch wie Blei in den Regalen bis AMD den Stecker gezogen hat.

duskstalker schrieb:
nein, jeder glaubt etwas über vega zu wissen. das ist ein himmelweiter unterschied.

Ergebnisse sprechen nun einmal für sich. Ich habe selten so eine Fehlentwicklung wie Vega gesehen. Außér der berühmtberüchtigten HD2600 fällt mir keine andere Karte ein, die so kontrovers und unterentwickelt ist.

duskstalker schrieb:
wie man an den spielen sieht, ist gcn nicht das hauptproblem - sondern die spiele. wenn die spiele keine generation rückstand mehr verursachen, kann man anfangen der architektur die schuld zuzuschieben. gcn hat probleme in gaming workloads - aber wären manche spiele nicht so extrem biased, wäre gcn mit polaris und vega schon sehr harte konkurrenz. wieviel hier eine neue / bessere architektur hilft, weiß keiner. wieviel pro-nvidia spiele leistung kosten, weiß man aber sehr wohl.

GCN hat keine Probleme, GCN ist das Problem(!).
AMD hat für diese Dauer-Architektur herausgeholt was geht. Man ist dabei mittlerweile am Limit und es gibt kaum noch Zuwächse, außer natürlich mit Technologien wie HBM oder kleineren Fertigungsgrößen. Dafür kann man weder Nvidia noch sonstwen verantwortlich machen.

AMd braucht dringend einen Neuanfang. Das können sie sich aber wegen der Abwärtskompatibiltät zu den Konsolen nicht leisten.


duskstalker schrieb:
ich lese jeden tag "GCN suckt", aber nie "optimiert die spiele fair". das wäre doch mal was.

polaris ist die erfolgreichste gpu für amd seit cypress. "nicht das wahre" ist hier nicht unbedingt die richtige beschreibung.

Polaris ist regelrecht das einzige Produkt, das für AMD einigermaßen vermarkt- und verkaufbar ist. Die ominösen 10-20% mehr machen so spät im Produktzyklus allerdings wenig Sinn. Das hätte vor einem jahr passieren müssen, nicht Richtung 2019.

duskstalker schrieb:
ein jahr später mit einem vielfachen des R&D budgets. wäre natürlich top, wenn amd zur 7nm fertigung bei tsmc noch mit einer neuen performanten architektur nachlegt, die so lange so gut über refreshes/shrinks skaliert wie maxwell - in absehbarer zukunft muss es aber weiterhin GCN richten.

AMD entwickelt keine neue Archtiktur wie es momentan aussieht. Die meisten Neuentwicklungen haben sich auf Kerntechnologien wie HBM und halt die Fertigungsgröße beschränkt. Ein 7nm Prozess wird AMD nitch retten. Den bekommt Nvidia früher oder später auch und die Unterschiede sind dann genau so wie vorher, wenn nicht gar schlimmer für die Radeons.

duskstalker schrieb:
maxwell ist im grunde wie sandy bridge. gute performance, extremer oc headroom. mit pascal hat man schon sehr viel von dem oc headroom mitgenommen - die verbesserungen in der architektur sind marginal.
wieviel mehr kann man über den takt und shrink von 16 auf 12nm herausholen?
ich denke nvidia muss für turing einen weitaus größeren hardwareaufwand (chipfläche) fahren, um nennenswerte steigerungen über pascal zu erreichen. nvidia ist in einer ähnlichen situation wie intel, nur mit dem unterschied, dass intel in einer node-sackgasse steckt, und nvidia nicht.

Wir werden sehen. Die 12nm und DDR6 geben hoffentlich genug Spielraum für Verbesserungen. Bei Maxwell hatte auch niemand damit gerechnet, Nvidia würde im gleichen Fertigungsprozess im Schnitt+35% rausholen.

duskstalker schrieb:
ich vermute, dass turing etwa 40% mehr leistung auf pascal packt, gleichzeitig aber der hardwareaufwand steigt und die effizienz sinkt. einen performance sprung von 70% wie von maxwell auf pascal kann man eigentlich ausschließen.

Ausschließen würde ich vorerst garnichts.
Die 40% werden das Minimum darstelen. Ansonsten verkaut Nvidia sicherlich nicht so viele Karten wie in den Vorgängergenerationen. Dagegen muss man bemerken, dass +40% immer noch besser ist als die angeblichen 10-20% bei Polaris 3.0. Das wird für viele Käufer die Enteidung beeinflussen.

duskstalker schrieb:
polaris in 14nm geht dagegen natürlich unter - aber polaris steht dann auch kurz davor von navi abgelöst zu werden. polaris 30 in 12nm lp ist ein lückenfüller bis navi kommt.

Ein unnötiger Lückenfüller wohlgemerkt. Außer Kostenoptimierung macht die 2. Neuauflage von Polaris Null Sinn. Es sei denn Navi kommt wirklich erst 2019-2020.

duskstalker schrieb:
amd kann gegen nvidia erst mit 7nm wieder etwas ausrichten - hier kann man nur hoffen, dass 7nm schnell kommen.

Wozu das denn?
Soll AMD dann mit 7nm mit Nvidias 12/16nm auf gleicher Höhe agieren? Das wäre eine trügerische Sicherheit und würde sich spätesten beim nächsten Shrink von Nvidia rächen. Nein, AMD muss zurück ans Reißbrett und GCN von Grund auf neu entwickeln. Dass Navi nicht mehr GCN ist, glaube ich erst, wenn ich es sehe!
 
@duskstalker: Kannst du deiner Abhandlung von nicht belegbaren Ursache -> Wirkungsdarstellungen und gebiasten Annahmen bitte auch noch den Aspekt der Effizienz hinzufügen? Also die 40 bis 50% die nVidia da vor AMD liegt? Und der Einfachheit halber auch gleich in die Diagramme mit einarbeiten.

Dabei warst du schon so nah dran
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/3/

So viel Aufwand und so viel Herzblut und dann fehlt ein entscheidender Aspekt. tztztz
 
Botcruscher schrieb:
Scheintot ist doch untertrieben. Polaris ist Hawaii aka Ende 2013. Dazu ist er überteuert und noch immer kaum verfügbar. Failga war ja ein Totalausfall.

Und wieder eine Aussage für die Tonne. Polaris schlecht verfügbar? Wo?
Duskstalker hat es ja nun sehr klar bewiesen, dass die 580 ja sogar ein wenig fixer ist als die 1060. dazu gibt es 2 gb mehr ram und Freesync und das für vielleicht 30€? mehr? Passt doch.

Hardware_Hoshi schrieb:
@duskstalker
Du vergleichst da ständig Äpfel mit Birnen. Eine RX Vega Chip ist mit ~510mm² mehr als doppelt so groß wie einer der GTX 1060, der um die 200mm² hat. Das die unterschiedlich skalieren versteht sich von selbst, vor allem da Vega auf HBM2 zurückgreifen kann. Außerdem machen nicht die Spiele den Unterschied, sondern die unausgeglichene Architektur von Vega selbst.

Jeder weiß wie schlecht Vega trotz der immensen Chipgröße die Leistung auf die Straße bringt. Der ganze Computingballast zieht die Gamingleistung auf "nur" GTX1080 herunter. Die Karten wären durchaus zu mehr in der Lage und je nach Situation fluktuiert halt das Ergebnis.

Polaris ist auch nicht das wahre. Die Rx400/500er Series kämpft mit 232mm² trotz Gewichtsvorteil unter ihrer Klasse und schafft es geradeso mitzuhalten. Da bedarf es mehr als ein bißchen Feintuning. GCN ist quasi am Ende und benötigt dringend einen würdigen Nachfolger

Was denn nun? Polaris ist nicht das wahre. Wobei denn nun Chipfläche? Leistung?

nochmal. Die, wenn auch sehr kleinen Performance Vorteile der 580 gegenüber einer 1060 wurden ja nun dargelegt.
Nun ist die Chipfläche wieder zu groß. AMD nimmt nun die verbesserte Fertigung mit und bringt diese kleine Verbesserung auf den Markt. Chipfläche wird also auch kleiner. Verbesserung in Performance und/oder Effizienz gibt es eventuell auch. Und nun? Ist das auch wieder falsch und schlechtes Marketing oder in irgendeinem anderen Blickwinkel schlecht? Oder ist es „unfair“, um mal das Vokabular von Trump zu nutzen?

Nochmal. Ich habe es schon geschrieben. Mal ganz objektiv. Kann man sich das als Kunde, egal welcher Coleur, darüber beschweren wenn eim
Hersteller bei einem bestehenden Produkt fertigungsvorteile nutzt und das Produkt leicht verbessert nochmal auf den Markt schmeißt?


duskstalker schrieb:
:

pro nvidia: gtx 1060 > 3% rx 580
pro amd: gtx 1060 < 11% rx580

das ist ein delta von 14%.

Rein zur Leistung ist doch hiermit alles gesagt zur 1060 zur 580.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Hardware_Hoshi schrieb:
Ach, Quark!
Vega ist einfach zu unbeständig. Die RX Vega's reagieren in jedem Spiel unterschiedlich. Bei manchen sind sie näher oder um die 1080 und in anderen stärker. Das liegt weniger and den Spielen als vielmehr an der unausgeglichenen Vega Architektur selbst.

fällt dir wirklich nicht auf, dass vega immer dann schlecht ist, wenn ALLE radeonkarten schlecht sind - und vega immer dann gut ist, wenn ALLE radeonkarten gut sind?

schaus dir bitte selber an:

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

in 19 von 21 spielen verliert vega 64 gegen die gtx 1080, wenn die rx580 gegen die gtx 1060 verliert, und gewinnt gegen die gtx 1080, wenn die rx580 gegen die 1060 gewinnt.

von wegen unbeständig - das ist extrem konsistent.

Hardware_Hoshi schrieb:
Die Rx580 und die GTX1060 schenken sich in der Regel nicht viel. Das sind höchstens minimale Ausreißer in die eine oder andere Richtung. Alles darüber leidet vielmehr an den schlecht skalierenden Titeln. Es wundert dabei oft, wieso eine Titan kaum schneller ist als eine 1070/1080. Selbiges bei AMD Polaris und Vega.

also zuerstmal sind 14% delta keine "minimalen ausreißer", für sowas launcht nvidia gern auch mal ne neue gpu.

ja, das liegt an den spielen. wie oft noch :lol:

schau mal her:

nvidia vs amd benchmarks.jpg


https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

die 1080 ti skaliert in den amd spielen besser als in den nvidia gameworks spielen. den größten abstand zur 1080 erreicht sie in elex mit 36% - 29% ist aber der spieledurchschnitt von 21 spielen - etwa 30% vor der 1080 ist eben das leistungsniveau der referenz 1080 ti. die 1080ti wird in den sog. "amd benchmarks" nicht künstlich zur 1080 heruntergedrückt.

ganz im gegensatz zum "nvidia benchmark" - hier ist der abstand von jeder radeon gpu zur nächsten kleiner, besonders dramatisch fällt das zwischen rx580 und vega 64 aus: 54% vs 69% - und auch der abstand von 1060 zur 1080ti ist in den nvidia benchmarks geringer mit 211% zu 218%.

der vorwurf von "nicht skalierenden spielen für high end karten" ist also eher an nvidia spiele zu richten - nicht an die amd spiele.


Hardware_Hoshi schrieb:
Das hat jedoch nichts mit den Spielen zu tun. Die Anforderungen sind halt gestiegen und jeder wusste wie bescheuert die 4GB bei den Fiji-Chips waren. Deshalb lagen die karten auch wie Blei in den Regalen bis AMD den Stecker gezogen hat.

hbm 1 ging eben nur mit 4gb - und mit den 4gb kann man auch auskommen. doom läuft mit ultra settings auf wqhd absolut traumhaft und star wars battlefront 2 kommt scheinbar auch super mit 4gb aus. für den rest muss man halt die regler bedienen, wenn die spieleentwickler meinen, man muss den videospeicher mit allem möglichen kram zumüllen. am pc ist die versuchung halt groß schlampereien in der spieleentwicklung mit der hardware zu regeln.
wieviel leistung am pc verschenkt wird sieht man doch direkt im vergleich zu den konsolen. was ist denn in einer ps4 drin? für den gleichen preis schafft man am pc die performance einfach nicht - und das liegt nicht an der schwachen pc hardware, sondern daran, dass unglaublich viel rechenleistung in schlechter optimierung einfach so verpufft, weil sie im scheinbaren überfluss zur verfügug steht und man sich das leisten kann um als entwickler geld zu sparen.

Hardware_Hoshi schrieb:
Ergebnisse sprechen nun einmal für sich. Ich habe selten so eine Fehlentwicklung wie Vega gesehen. Außér der berühmtberüchtigten HD2600 fällt mir keine andere Karte ein, die so kontrovers und unterentwickelt ist.

also der teil deines postings ist offensichtlicher noch weiter unterentwickelt. das ist doch reines nvidia-fanboy-gebashe.

Hardware_Hoshi schrieb:
GCN hat keine Probleme, GCN ist das Problem(!).
AMD hat für diese Dauer-Architektur herausgeholt was geht. Man ist dabei mittlerweile am Limit und es gibt kaum noch Zuwächse, außer natürlich mit Technologien wie HBM oder kleineren Fertigungsgrößen. Dafür kann man weder Nvidia noch sonstwen verantwortlich machen.

woher willst du eigentlich wissen, dass bei GCN nichts mehr geht? das sind doch vollkommen unhaltbare, aus der luft gegriffene behauptungen.
pascal ist maxwell mit mehr takt - vega ist "fiji" mit behobenen fehlern mit mehr takt.

für ne taktoptimierte architektur ohne irgendwelche ipc gains wird nvidia in den himmel gelobt, und wenn amd beim takt von fiji ansetzt (der mit 1.0ghz sehr niedrig ist) wird rumgeflennt, wieso es nur geringe IPC gains gibt - wo man doch offensichtlich in den takt investiert. und das war zu 1000% die richtige entscheidung. nirgends kann man so viel leistungsplus rausholen wie bei 50-60% mehr takt.

deine äußerungen hierzu sind einfach nur biased.

Hardware_Hoshi schrieb:
AMd braucht dringend einen Neuanfang. Das können sie sich aber wegen der Abwärtskompatibiltät zu den Konsolen nicht leisten.

woher willst du wissen, dass konsolen nur mit GCN funktionieren? das ist wieder eine komplett aus der luftgegriffene behauptung. gibts für den schmarrn auch irgendwelche belege?

auf den rest will ich nicht anworten, ist nur verschwendete zeit meinerseits.

Hardware_Hoshi schrieb:
Wozu das denn?
Soll AMD dann mit 7nm mit Nvidias 12/16nm auf gleicher Höhe agieren? Das wäre eine trügerische Sicherheit und würde sich spätesten beim nächsten Shrink von Nvidia rächen. Nein, AMD muss zurück ans Reißbrett und GCN von Grund auf neu entwickeln. Dass Navi nicht mehr GCN ist, glaube ich erst, wenn ich es sehe!

ja, wieso soll amd bitte den node-vorsprung mit 7nm nutzen, wenns nvidia eh auch macht. bei so einer argumentantion fehlen mir die worte - ehrlich. sowas blödsinniges. natürlich muss amd die 7nm so schnell wie möglich für einen node-vorsprung nutzen, weil nvidia nicht so schnell nen 7nm refresh bringen kann. turing kommt in 12nm, und das nicht vor Q3/Q4 2018 - die 7nm von amd kommen nicht so viel später, evtl handelt es sich nur um wochen. wann soll nvidia bitte turing in 7nm refreshen? 2 monate nach release?

mit cypress hatte amd genau diesen vorsprung und das ist die einzige möglichkeit nochmal was gegen nvidia auszurichten.

DocWindows schrieb:
@duskstalker: Kannst du deiner Abhandlung von nicht belegbaren Ursache -> Wirkungsdarstellungen und gebiasten Annahmen bitte auch noch den Aspekt der Effizienz hinzufügen? Also die 40 bis 50% die nVidia da vor AMD liegt? Und der Einfachheit halber auch gleich in die Diagramme mit einarbeiten.

Dabei warst du schon so nah dran
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/3/

So viel Aufwand und so viel Herzblut und dann fehlt ein entscheidender Aspekt. tztztz

ich finde ich hab hier schon genug gemacht - wäre doch sicherlich auch ne schöne aufgabe für nen grünen fanboy wie dich. aber achtung - falls du das differenziert mit gut optimierten spielen machen willst und nicht die gegimpten fps aus den nvidia spielen für die performance/watt analyse heranziehst, könnte es sein, dass der letzte notnagel für so ein peinliches amd-gebashe etwas rost ansetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LyGhT, Colindo, Beyazid und 4 andere
@ duskstalker
Erstmal danke für die ganzen Statistiken! Ich muss ganz ehrlich sagen, dass diese wohl den Einfluss eines Marktbeherrschers ziemlich gut aufzeigen und das verursacht wirklich Magenschmerzen.

Was auch augenscheinlich ist, ist das AMD gut dagegen hält und zwar trotz dieser Umstände und da
finde ich es regelrecht peinlich, dass AMD-Hardware mitunter als Schrott bezeichnet wird und kann das kaum verstehen (ebenso den Intel vs. AMD-War^^), vor allem wenn wir im 10-20% Bereich unterwegs sind, was wenn wir 100FPS als Maßstab sehen, dann 90 oder 80 als Resultat sind... wohl gemerkt, dann witzigerweise mit Freesync :p

Wenn man nicht ganz dämlich ist, dann muss einem als Konsumenten UND PC-Fan doch klar werden, was eine Ausdünnung des Marktes bedeutet und wie man dann, trotz subjektivem Habenwollens ..., handeln muss.
Natürlich kann ich es verstehen, dass man keinen Schrott kauft, nur um einen Underdog zu supporten, der überhaupt keine Chance hat aber es ist ja nicht so, dass man nen Lada kauft, damit Porsche nicht Marktführer wird...

Dann immer diese fadenscheinigen Argumente wie Strom und Treiber^^ - Ich habe selbst eine 8800 Ultra gehabt und mir war das doch schei... egal, weil ich wusste, dass ich die evtl. nur 2-3 Jahre habe (es wurden 2, weil das Ding durch war, also wieviel Geld ist da verbrannt worden? ;) ) - doch jemand, der DAUERND aufrüstet - der muss einem doch nicht mit dem Argument "Stromverbrauch" kommen - lachhaft.

Mit den Treibern, muss ich ehrlich gesagt sagen, hab ich seit meiner 9800 Pro nie schlechte Erfahrungen gemacht und fand es eigentlich sogar angenehmer als mit meinen Ausflügen zur FX5950, 6600 oder 8800 - und wie oft "pfuscht" man da wirklich rum?!

Die Sache ist doch klar... gibt AMD den GPU-Markt für Gamer auf, kann Nvidia uns die Lada zu Porschepreisen verkaufen und da nehm ich lieber den Maserati (denn das ist AMD im Vergleich).
 
Zurück
Oben