News AMD Radeon RX: Vage Gerüchte um Polaris 30 in 12 nm im 4. Quartal

Rock Lee schrieb:
Und die PS5 ist jetzt eine Spielekonsole, oder ein Mini-Computer fürs professionelle Segment?
Kann sich doch nur positiv auswirken?

Ich werde das weiter unten beantworten.
Prinzipielel ist "Spiele... nicht gleich Spiele"

Darüber hinaus frage ich mich, was ein "Mini-Computer fürs professionelle Segment" ist. Kannst du mir das genauer erklären?

Rock Lee schrieb:
Jetzt kann natürlich das Argument kommen, warum Nvidia trotzdem beim PC-Gaming besser performt, obwohl in der PS4 und Xbox One ein AMD-Chip werkelt.
Hier ging es in erster Linie wohl nur um Semi-Custom und deren Kostenvorteile. Die Architektur dahinder war wohl nebensächlich solang der Preis stimmt.

Kosten sind aber genau das Stichwort.
Wenn eine Plattform nur für Kosten getrimmt ist, wird da wohl kaum das non-plus-Ultra an Leistung dabei herauskommen.

Die Ergebnisse sind von vorher herein ein Kompromiss. Beim PC-Gaming hast du die diese Beschränkungen nicht, weil die Käufer bereit sind für Leistung auch mehr Geld zu investieren.

Rock Lee schrieb:
Kommt drauf an in welchem Zeitraum. In den nächsten 1,5 Jahren mindestens 2.

Eine gute Frage!
Ich weiß es eherlich gesagt nicht. AMD hat im Laufe der Zeit die Produktpalette verkleinert. Es gab immer weniger Chips pro Generation. AMD hat vieles Recycled und z.B. als Rebranding erneut gebracht.

Sie haben finanziell eine ziemliche Durststrecke hinter sich. Das hat sich ebenfalls auf die Entwicklung ausgewirkt. Da die Variannten pro Chip weiter in Gaming- und Profisegment unterteilt sind, befürchte ich, AMD bevorzugt die Profiseite. Einfach weil dort mehr Geld zu erwirtschaften ist. Im schlimmsten Fall hat man halbgare Hybriden, die nicht wirklich für die Gamingseite gemacht sind, sondern hauptsächlich die Profis bedienensollen.

Heißt kurz gesagt also, nicht jede Variante ist automatisch gut.

Rock Lee schrieb:
Vega hat zwar nichts verschlimmert, aber wenn der generelle Architekturaufbau gleich bleibt, kann auch nicht wirklich was verbessert werden. Volle Zustimmung!

Du musst das anders sehen.
Es fängt damit an, wenn eine Architektur wie Fiji mit Schwächen und kleinere Unzulänglichkeiten zu kämpfen hat. Vergrößert man diese Architektur weiter und pumpt sie in z.B. Takt und Chipgröße weiter auf, verschlimmern sich logischerweise auch die Probleme.

Bei Vega ist das passiert und es kamen sogar neue Probleme wie überproportionaler Stromverbrauch und Abwärme hinzu.

Rock Lee schrieb:
Quelle? Und warum ist Konsole = schlecht?

Schlecht ist vielleicht nicht der richtige Ausdruck. Konsolen sind lediglich nicht für das Maximum oder das Beste gemacht. Du hast z.B. kleinere Texturen, oft keine Filtertechniken wie AF und MSAA / SMAA schon garnicht. Der Speicher ist prinzipiell kleiner .. usw....

Wenn du das alles auf dem PC nicht hättest, wäre das eine Katastrophe.

Rock Lee schrieb:
So wie es aussieht wird man das wohl auch. Vega und dessen Nachfolger wird weiter in Richtung Profi-Segment fixiert und spätestens der Navi-Nachfolger wird wohl die professionellen Eigenschaften zugunsten von Gaming-Performance verlieren.

Ich wage diesbezüglich keine Prognose, da selbst Navi zurzeit noch Zukunftsmusik ist. Es wäre jedoch logisch, wenn AMD sich mehr auf die professionellen Eigenschaften konzentriert. Vega war da ein Hinweis. Jetzt mit Vega 20 konzentriert sich AMD auf Felder wie Machine Learning. Solche Felder nutzen dem Gaming quasi nichts. Zumindest soweit wir heut wissen.

AMD wird sich darauf konzentrieren müssen um nicht vollständig den Anschluss zu verlieren. Nvidia gibt hier die Marschrichtung mit unerhörten Wachstumsraten vor.

Rock Lee schrieb:
Warum ist es kompletter Unsinn zu erwarten, dass es H1 2019 einen ~200mm² Chips fürs Consumer-Segment geben wird, wenn jetzt schon ein ~300mm² Vega 20 fürs Profi-Segment in 7nm gezeigt wurde?

7nm ist nach momentanem Stand nicht ausgereift und jeder will ihn haben. Die kleineren Geräte wie IoT und Smartphones melden bereits Bedarf an, wie es letztens hieß. Neben den technischen Aspekten spielen auch die Kosten, die Yields und Verfügbarkeit ganz sicher eine entscheidende Rolle. AMD ist nicht alleine auf dem Markt.

Vega 20 wird wohl auch nicht in großer Menge produziert werden. Man sollte eher damit rechnen, diese Chips kämem wie einst Fiji stark limitert.

Alle anderen technischen Möglichkeiten von 7nm zu besprechen, wären leider nur pure Theorie.

Rock Lee schrieb:
Quelle? Unter einer Mischarchitektur gegenüber zwei spezialisierten Architekturen leiden meiner Meinung nahc beide Marktsegmente. Daher gilt es auch sich auf beide Segmente gleichermaßen zu konzentrieren.

Du kannst meine Kommentare gerne nachlesen. Ich sprach speziell vom P100 und V100 - zwei Nvidia Tesla, die wahrliche Spezialisten sind. Eine solche Speziallösung wid die Mischarchitektur in der Regel immer schlagen. Es gibt darin keine Kompromisse, sondern den Drang zur puren Aufgabenerfüllung dieses Segments.

Nvidia hat das frühzeitig erkannt und Gaming sowie Profi getrennt. AMD leidet jetzt darunter, weil dieser Wechsel für den Konzern finanziell nicht machtbar ist. Zusätzlich rennt AMD die Zeit davon. Je länger man wartet oder neu entwickeln muss, desto mehr Abstand gewinnt Nvidia. Das ist eine regelrechte "Alles oder Nichts"-Situation. Das ist wie beim Glücksspiel, man kann sehr leicht alles verlieren.
Ein Fehlgriff und man verliert im Schlimmsten Fall Jahre in der Entwicklung bis ein Nachfolger kommt.

Rock Lee schrieb:
2022 sind 4 Jahre. Da hast du schon 5nm bei TSMC.
Nvidia kann auch nicht zaubern und ist abhängig von den Fertigungstechnologien ihrer Zulieferer.

Ihr versteift euch alle zu sehr auf die Fertigungstechnologie. Zwar hat diese zugegebnermaßen einen großen Einfluss, doch mittlerweile wird die darunter liegende Architektur immer wichtiger.

Diverse Kerntechnologien sind natürlich wichtig. Ich kann dir allerdings das genaue Gegenteil aufzeigen. Sieh dir an, wie wenig AMD "die Wundertechnik HBM" gebracht hat. Wurde überall über alle Maße hochgelebt. Trotzdem gelang es Nvidia mit technischer Finesse die wesentlich unterlegenen GDDR5 und GDDR5X gleichwertig oder sogar besser hinzubekommen.

Spätesten hier sollte man hellhörig werden. Da die Entwicklungszeiten für GPUs im Durchschnitt irgendwo zwischen 4-5 Jahren liegen, kommt der Nachfolger von Navi wohl irgendwann 2020-2022. Navi ist wohl oder übel in den letzten Entwicklungsphase. Das Konzept kann man derart spät nicht mehr ändern. Würde es nicht passen, hätte sich AMD in den Sand gesetzt wie bei ... sagen wir Bulldozer.

Rock Lee schrieb:
Das gab es jetzt genau einmal. Eine Schwalbe macht noch keinen Sommer ;)

Natürlich!
Sie zeigen trotzdem was technisch möglich ist, wenn man genug Zeit, Geld und Personalaufwand investiert. Die richtige Kombination aus Technik und Konzept kann Wunder bewirken. Dafür muss man halt auch entsprechend investieren, um sämtliche Möglichkeiten auszuschöpfen.

Rock Lee schrieb:
Jetzt vergleichst du Business-only mit einer Gaming-Architektur mit Business-Anhang ;)

Nein, ich meinte folgendes:
-Volta hatte viele Verbesserungen und Tricks auf Lager. Was bisher nicht wirklich bekannt ist, dass Volta ein Async Compute Monster ist.

Nvidia hat in diesen Businessmodellen die Lösung für die Async Computeschwäche unter DX12 & co. gefunden. Nennt sich "Independent Scheduling"


warp_pascal_volta.png


Das heißt Nvdia muss die Tasks/Threads nicht mehr in 32er Stacks stapeln, sondern jeder Shader (CUDA-Core) kann sich die Aufgaben beliebig selbst zuordnen. Das ist besser als die Async Compute Lösung von AMD, weil diese auf ihrem GPU-Chip überall die ASync Compute Shader einbauen müssen, also extra Hardwareeinheiten. Nvidia spart sich diese Chipfläche, regelt alles per Software und ist wahrscheinilch troztdem schneller.

Du kannst Gift darauf nehmen, dass diese Technik in ähnlicher Weise auch für die Gamingarchitekturen kommen wird. Das wäre ein Beispiel wie die Businesssegmente die Gamingseite beinflussen können.

Nimm noch ein paar andere solche Entwicklungen wie z.B. GDDR6 hinzu und das Ergebnis kann sich bestimmt sehen lassen. In Summe können viele solcher kleineren Techniken sogar einen Vorsprung in Fertigungsgröße ausgleichen. Anstelle von Bruteforce kontert man mit intelligenten Lösungen.
 
Zuletzt bearbeitet:
Guten Morgen,
da war aber jemand schon früh fleißig ;)

Hardware_Hoshi schrieb:
Darüber hinaus frage ich mich, was ein "Mini-Computer fürs professionelle Segment" ist. Kannst du mir das genauer erklären?

Gerne,
du hast gesagt, dass die Entwicklung von VEGA aufgrund der Entwicklung des PS5-Chips gelitten hat.
Die PS5 wird ja die Navi-Architektur beinhalten. Daher sagte ich, dass dies für den Desktop-Navi doch nur gut sein kann. Denn die PS5 ist ja eine reine Spielekonsole (kein professioneller Mini-Computer, der von Double-Prescision profitieren würde) und wenn AMD den Grafikchip extra für Sony angepasst hat, sollte das für PC-Gaming gute, bzw. auf keinen Fall negative Auswirkungen haben.


Hardware_Hoshi schrieb:
Kosten sind aber genau das Stichwort.
Wenn eine Plattform nur für Kosten getrimmt ist, wird da wohl kaum das non-plus-Ultra an Leistung dabei herauskommen.
Moment. Konsolen sind ein Massenprodukt. Den Hauptanteil der Kosten machen die Materialkosten aus.
Die Entwicklungskosten machen innerhalb einer Konsolengeneration da nicht den Hauptanteil aus.
Sony zahlt für den Semi-Custom Chip von AMD. Der wird teurer je größer er ist. Wenn Sony also sagt: "Der darf maximal XY EURO kosten", dann ist auch die maximale Chipgröße fix und es wird folglich wichtig das Ding so effizient wie möglich zu machen. Also Leistung/Chipgröße.
Am Ende leistet ein kleiner Chip mit der gleichen Architektur weniger als ein großer Chip. Zb GP108 und GP102.
Wenn aber die Architektur dahinter gut ist, ist es doch egal?
Hätte Nvidia als erstes die Geforce 1030 rausgebracht, hättest du ja auch nicht gesagt. "Das ist nur auf Kosten getrimmt, da kann ja mit späteren Produkten kaum das non-plus Ultra an Leistung dabei herauskommen"


Hardware_Hoshi schrieb:
Die Ergebnisse sind von vorher herein ein Kompromiss. Beim PC-Gaming hast du die diese Beschränkungen nicht, weil die Käufer bereit sind für Leistung auch mehr Geld zu investieren.
Korrekt. Was hindert also AMD daran (in zeitlichem Abstand) mehrere Chips zu fertigen, die jeweils dem entsprechen, was der Käufer bereit ist auszugeben? Angefangen natürlich mit einem kleineren Chip, aufgrund der teuren 7nm-Fertigung.

Hardware_Hoshi schrieb:
Eine gute Frage!
Ich weiß es eherlich gesagt nicht. AMD hat im Laufe der Zeit die Produktpalette verkleinert. Es gab immer weniger Chips pro Generation. AMD hat vieles Recycled und z.B. als Rebranding erneut gebracht.
Sie haben finanziell eine ziemliche Durststrecke hinter sich. Das hat sich ebenfalls auf die Entwicklung ausgewirkt. Da die Variannten pro Chip weiter in Gaming- und Profisegment unterteilt sind, befürchte ich, AMD bevorzugt die Profiseite. Einfach weil dort mehr Geld zu erwirtschaften ist. Im schlimmsten Fall hat man halbgare Hybriden, die nicht wirklich für die Gamingseite gemacht sind, sondern hauptsächlich die Profis bedienensollen.

Du sagtest ja schon, dass das ganze Rebranding und die Verzögerungen mit AMDs finanzieller Lage zu tun haben. Jetzt wo sich die Lage wieder erholt und und nächstes Jahr wohl durch das Prozessor-Segment nochmal steigern wird, glaube ich nicht, dass sich AMD ein Segment mit ~7 Mrd EUR Umsatz in 2019 entgehen lassen will (siehe Nvidia Umsatzgrafik aus meinem letzten Post).
Da haben wir beide jeweils unsere eigene Meinung. Und das ist auch OK so.


Hardware_Hoshi schrieb:
Du musst das anders sehen.
Es fängt damit an, wenn eine Architektur wie Fiji mit Schwächen und kleinere Unzulänglichkeiten zu kämpfen hat. Vergrößert man diese Architektur weiter und pumpt sie in z.B. Takt und Chipgröße weiter auf, verschlimmern sich logischerweise auch die Probleme.
Bei Vega ist das passiert und es kamen sogar neue Probleme wie überproportionaler Stromverbrauch und Abwärme hinzu.
Naja, ich sehe es eher so, dass die Probleme offensichtlicher wurden. Sie waren ja vorher schon da.
Der hohe Stromverbrauch resultiert ja nicht nur durch die Architektur, sondern auch die die Positionierung im Markt. VEGA musste bestimmte Taktraten erreichen, um mit 1070 und 1080 mitzuhalten.
Die Chips laufen eigentlich durch die Bank weg mit viel zu hoher Spannung. Undervolting wirkt ja grade bei VEGAs Wunder.
Warum AMD soviel Spannung angesetzt hat, weiss ich leider auch nicht. Vermutlich war die Chipgüte zu divergierend.


Hardware_Hoshi schrieb:
Ich wage diesbezüglich keine Prognose, da selbst Navi zurzeit noch Zukunftsmusik ist. Es wäre jedoch logisch, wenn AMD sich mehr auf die professionellen Eigenschaften konzentriert. Vega war da ein Hinweis. Jetzt mit Vega 20 konzentriert sich AMD auf Felder wie Machine Learning. Solche Felder nutzen dem Gaming quasi nichts. Zumindest soweit wir heut wissen.
AMD wird sich darauf konzentrieren müssen um nicht vollständig den Anschluss zu verlieren. Nvidia gibt hier die Marschrichtung mit unerhörten Wachstumsraten vor.

Ich gönne jedem seine Meinung, wenn er nachvollziehbar argumentiert, was du auch machst. Du bist skeptisch. Das ist OK.

Was mich meiner Meinung nach positiv stimmt ist ein Interview von Lisa Su von der CES 2018. Kann ich jedem empfehlen. Ich denke doch man wird sich auf beide Segmente konzentrieren.
https://www.anandtech.com/show/1231...n-exclusive-interview-with-dr-lisa-su-amd-ceo
LS:On the GPU side, we have multiple teams that are looking at how to improve the instruction set as you go forward and I would say that we are thinking on the compute aspect of GPUs. How do we think about sort of the traditional GPU engines to special accelerators, things like that.

Q: Does that mean that there is room in the future for GPU bifurcation, between a gaming focus and a compute focus?

LS: I think there is. You will see us move on this, and we’re very committed to gaming so that’s not going to change, but you will see us do some more purpose-built products for the compute side of things.

Hardware_Hoshi schrieb:
7nm ist nach momentanem Stand nicht ausgereift und jeder will ihn haben. Die kleineren Geräte wie IoT und Smartphones melden bereits Bedarf an, wie es letztens hieß. Neben den technischen Aspekten spielen auch die Kosten, die Yields und Verfügbarkeit ganz sicher eine entscheidende Rolle. AMD ist nicht alleine auf dem Markt.
Vega 20 wird wohl auch nicht in großer Menge produziert werden. Man sollte eher damit rechnen, diese Chips kämem wie einst Fiji stark limitert.
Alles korrekt. Das Stichwort ist "momentan". Ich sage ja auch nicht, dass in Q3 18 ein 200mm² Chip in größeren Mengen produziert werden kann, sondern grob 1H 2019
In 6-9 Monaten kann sich sehr viel ändern. Siehe Grafik
intel-moores-law-client-costs.jpg


Hardware_Hoshi schrieb:
Du kannst meine Kommentare gerne nachlesen. Ich sprach speziell vom P100 und V100 - zwei Nvidia Tesla, die wahrliche Spezialisten sind. Eine solche Speziallösung wid die Mischarchitektur in der Regel immer schlagen. Es gibt darin keine Kompromisse, sondern den Drang zur puren Aufgabenerfüllung dieses Segments.
Das war keine Antwort auf meine Frage. Du hast geschrieben:" Anstatt etwas konkurrenzfähiges zu bringen, hat AMD den hybriden Vega erschaffen, der weder das eine noch das andere gut kann.Jetzt gilt für AMD die Businessseite irgendwie zu retten. Dafür wird höchstwahrscheinilch der Gamingbereich erneut leiden müssen. Außer Konsolen und APUs interessiert sich AMD wohl nicht mehr sonderlich dafür. "
Ich wollte lediglich eine Quelle auf diese Behauptung, da unter einer Mischarchitektur beide Segmente leiden.



Hardware_Hoshi schrieb:
Nvidia hat das frühzeitig erkannt und Gaming sowie Profi getrennt. AMD leidet jetzt darunter, weil dieser Wechsel für den Konzern finanziell nicht machtbar ist. Zusätzlich rennt AMD die Zeit davon. Je länger man wartet oder neu entwickeln muss, desto mehr Abstand gewinnt Nvidia.
Die Trennung war zu dem Zeitpunkt, wo Nvidia ihn durchgeführt hat nicht machbar. Korrekt.
Das Interview zeigt, dass aufgrund höherem R&D Budgets diese Trennung aber wohl kommen wird.

Hardware_Hoshi schrieb:
Ihr versteift euch alle zu sehr auf die Fertigungstechnologie. Zwar hat diese zugegebnermaßen einen großen Einfluss, doch mittlerweile wird die darunter liegende Architektur immer wichtiger.
Diverse Kerntechnologien sind natürlich wichtig. Ich kann dir allerdings das genaue Gegenteil aufzeigen. Sieh dir an, wie wenig AMD "die Wundertechnik HBM" gebracht hat. Wurde überall über alle Maße hochgelebt. Trotzdem gelang es Nvidia mit technischer Finesse die wesentlich unterlegenen GDDR5 und GDDR5X gleichwertig oder sogar besser hinzubekommen.
Ich wollte damit ausdrücken, dass Nvidia auch nur über die Architektur kommen kann. Wenn man sich nicht wie wohl bei Turing bewusst für eine ältere Fertigungstechnologie entscheidet, haben beide Hersteller den gleichen Zugang zu Fertigungstechnologien. Und obwohl Nvidia das viel höhere Entwicklungsbudget hat, gibt es logischerweise nur das,was zur Verfügung steht.
Du sagst ja selbst, dass die Architektur enorm wichtig ist. Nvidia hat allerdings bereits den Schritt zu "Gaming only" durchgeführt. Bei AMD steht dieser noch aus. Klar kann in 2 Jahren der nächste "Maxwell" kommen, aber ich bin erstmal skeptisch, ob der technologische Vorsprung in diesem großen Maße gehalten werden kann.


Hardware_Hoshi schrieb:
Natürlich!
Sie zeigen trotzdem was technisch möglich ist, wenn man genug Zeit, Geld und Personalaufwand investiert. Die richtige Kombination aus Technik und Konzept kann Wunder bewirken. Dafür muss man halt auch entsprechend investieren, um sämtliche Möglichkeiten auszuschöpfen.
Wie gesagt. Maxwell war beeindruckend, aber ich frage mich ernsthaft, ob man so einen Schritt in absehbarer Zeit wiederholen kann.


Hardware_Hoshi schrieb:
Nein, ich meinte folgendes:
-Volta hatte viele Verbesserungen und Tricks auf Lager. Was bisher nicht wirklich bekannt ist, dass Volta ein Async Compute Monster ist.

Nvidia hat in diesen Businessmodellen die Lösung für die Async Computeschwäche unter DX12 & co. gefunden. Nennt sich "Independent Scheduling"


Anhang anzeigen 692461

Das heißt Nvdia muss die Tasks/Threads nicht mehr in 32er Stacks stapeln, sondern jeder Shader (CUDA-Core) kann sich die Aufgaben beliebig selbst zuordnen. Das ist besser als die Async Compute Lösung von AMD, weil diese auf ihrem GPU-Chip überall die ASync Compute Shader einbauen müssen, also extra Hardwareeinheiten. Nvidia spart sich diese Chipfläche, regelt alles per Software und ist wahrscheinilch troztdem schneller.

Du kannst Gift darauf nehmen, dass diese Technik in ähnlicher Weise auch für die Gamingarchitekturen kommen wird. Das wäre ein Beispiel wie die Businesssegmente die Gamingseite beinflussen können.

Nimm noch ein paar andere solche Entwicklungen wie z.B. GDDR6 hinzu und das Ergebnis kann sich bestimmt sehen lassen. In Summe können viele solcher kleineren Techniken sogar einen Vorsprung in Fertigungsgröße ausgleichen. Anstelle von Bruteforce kontert man mit intelligenten Lösungen.

Vielen Dank für den kleinen Exkurs ;)
Schaun wir mal, was kommt und was nicht.
Krass, dass Maxwell schon wieder 4 Jahre her ist. Vielleicht hat sich AMD ja in der Zeit was abgeschaut ;)
 
Dark_Knight schrieb:
@DocWindows
Dann kauf doch eine nVidia Karte (also eine der neuen dann), erfreue dich an der Leistung und angeblichen Energieeffizienz (Die bei Custom Karten die man auch noch selber OCed auch nicht mehr gegeben ist, aber das interessiert nicht) und lass die armen Irren die lieber eine AMD Karte haben wollen oder haben einfach in Ruhe.
Denn scheinbar bist du auf deinem Standpunkt so festgewachsen, das du es einfach nicht akzeptieren kannst, wenn es andere eben nicht so sehen wie du.

Nochmal (wie auch schon im letzten Beitrag): Es geht um die Art der Argumentation und um die Kombination von Informationen die nicht kombiniert werden können. Weiß daher gar nicht warum du deswegen jetzt so nen bockigen Mimimi-Post verfassen musst. Von mir aus kann jeder ne AMD Karte kaufen wenn er will.
Das ist überhaupt nicht der Punkt. Wenn man ne Argumentationskette verhaut oder sich verrennt, dann erlaube ich mir einfach das zu kommentieren.
 
Mal ein kleiner Einwurf zur Effizienz: Man darf bei Vega nicht vergessen dass dort deutlich Effizienterer HBM-Speicher zum Einsatz kommt, wodurch der Energiebedarf des Speichers in Relation zum Chip nochmals deutlich niedriger ausfällt - Die GPU zieht also nicht bloß die ~140 Watt mehr als eine 1080, die CB in den Tests bescheinigt, sondern auch nochmal den durch HBM eingesparten Strom oben drauf.

Persönlich bin ich der Meinung, und ich betone dass ich kein Fachmann auf diesem Gebiet bin, dass AMD versuchen sollte die zu Grunde liegende Architektur etwas modularer zu gestalten. Viele Computingfeatures könnte man bestimmt als separate Einheiteten intigrieren, so wie NV das bisher mit FP64 handhabt. Klar, die Computingchips wären dann etwas größer und teurer in der Herstellung, aber das kann man Problemlos beim Verkaufspreis drauf schlagen. Die Gamingkarten selbst könnten dann komplett auf Gaming ausgerichtet werden. Außer ein paar Fanboys, und natürlich den Minern, werden wenig Leute einer außergewöhnlich großen Computingleistung nachtrauern - wenn aber dafür die Gamingleistung und Effizienz steigt, dann wäre das doch schon einmal aus Sicht der Gamer eine tolle Sache. Nebenbei kannibalisiert man so auch nicht die eigenen Profikarten, denn wenn der Anschaffungspreis nicht unerheblich ist verzichte ich doch lieber auf die letzten paar Prozent Leistung und nehme die viel günstigere Consumerkarte.
Wie gesagt, das sind Gedankenspiele wie ich es versuchen würde anzugehen. Mit GCN als Architektur ist das natürlich nicht möglich, da dort jede Einheit ja alles kann.

Edit: Kleiner Nachtrag zu Vega: Ein >500mm² Chip, der doppelt so viel Strom braucht wie die Konkurrenz, die dabei nur ~300mm² groß ist, ist wirtschaftlich natürlich alles andere als rosig. Dann kommt noch der teure HBM dazu, und es ist klar dass Vega für AMD zumindest im Gamingsektor ein klarer Fehlschlag ist. Wenn ich einen "BigChip" brauche um mit der Brechtange mit der Mittelklasse der Konkurrenz mithalten zu können, ist das einfach kein gelungenes Produkt für diesen Markt.
 
@Thanok
Bitte?
Zum einen ist doch die modulare Bauweise, die von AMD schon angestrebt wird und entweder mit Navi kommen wird oder spätestens mit der Generation danach. Zum anderen würde sich auch kein Fanboy daran stören, wenn auf den Gamingkarten von AMD die Computingleistung geringer wäre, würde es ja bedeuten, das der Chip kleiner ausfallen würde und dementsprechend auch weniger Strom gezogen werden würde.
Und wo bitte brauch AMD einen Big Chip um in der Mittelklasse mithalten zu können? Die Mittelklasse ist immer noch Polaris gegen 1060 und darunter. Nur weil hier wieder "Experten" etwas anderes behaupten, ist es noch lange nicht richtig.

@DocWindows
Du erlaubst dir also zu sagen: Du liegst falsch und deine Argumente passen nicht zusammen, weil ich das so sehe.

Dann erleuchte uns doch mal, wie man eine richtige Argumentationskette aufgebaut wird, wo auch alle Argumente zueinander passen. Denn verweigerst du ja energisch.
 
Rock Lee schrieb:
Gerne,
du hast gesagt, dass die Entwicklung von VEGA aufgrund der Entwicklung des PS5-Chips gelitten hat.
Die PS5 wird ja die Navi-Architektur beinhalten. Daher sagte ich, dass dies für den Desktop-Navi doch nur gut sein kann. Denn die PS5 ist ja eine reine Spielekonsole (kein professioneller Mini-Computer, der von Double-Prescision profitieren würde) und wenn AMD den Grafikchip extra für Sony angepasst hat, sollte das für PC-Gaming gute, bzw. auf keinen Fall negative Auswirkungen haben.

Lass uns vorher die Grundlagen durchgehen.
Next-Gen Konsolen haben bestenfalls Mittelklaseschips verbaut. Die PS4 Pro z.b. ist leitungstechnisch etwas afu Stand von Polaris. Man sagt etwa RX 470 Niveau.

Navi ist angeblich auf Vega / 1080 Niveau. Das Erscheinugnsdatum der PS5 ist grob geschätzt 2020. Bis dahin ist diese Leistung seit längerem Mittelklasse. AMD kann demnach einen kleinen kostengünstigen chip für die Konsolen bauen. Mit dieser Technik von quasi Gestern wird AMD jedoch keine Bäume ausreißen. Der meiste Aufwand wird sich darum drehen, die ganze Nummer kleiner und kostengünstig zu entwickeln.

Dabei geht es garantiert nicht darum das maximale an Leistung herauszuholen. Das hat mitunter garantiert Auswirkungen auf die Desktopkarten mit Navi.

Rock Lee schrieb:
Korrekt. Was hindert also AMD daran (in zeitlichem Abstand) mehrere Chips zu fertigen, die jeweils dem entsprechen, was der Käufer bereit ist auszugeben? Angefangen natürlich mit einem kleineren Chip, aufgrund der teuren 7nm-Fertigung.

Forschung und Entwicklung ist wie ein Fluss. Du steckst Geld und Personal über eine gewisse Zeit und erhältst dann Ergebnisse. AMD hat diesen Fluss gedrosseln müssen und von allem weniger benutzt. Dadurch verlängert sich die Zeit, um vernünftige Ergebnisse zu erzielen.

Du kannst mit derart limiterten Ressourcen nicht unendlich viele Projekte gleichzeitig unterhalten. AMD hätte zum Beispiel die Wahl einen Chip in beispielsweise 7nm zu schaffen, der hoffentlich gut wird. Oder alternativ zwei oder drei Chips entwickeln, die dann bestenfalls mittelmäßig werden.

Das ist jetzt keine Bewertung, sondern reine Logik. Die 7nm alleine garantieren auch nicht, ob die Ergebnisse gut werden oder nicht Das hängt auch von der Entwicklungsarbeit selbst ab.

Rock Lee schrieb:
Du sagtest ja schon, dass das ganze Rebranding und die Verzögerungen mit AMDs finanzieller Lage zu tun haben. Jetzt wo sich die Lage wieder erholt und und nächstes Jahr wohl durch das Prozessor-Segment nochmal steigern wird, glaube ich nicht, dass sich AMD ein Segment mit ~7 Mrd EUR Umsatz in 2019 entgehen lassen will (siehe Nvidia Umsatzgrafik aus meinem letzten Post).

AMD schielt immer gerne auf die üppigen Umsatzkuchen anderer Konkurrenten oder Märkte. Natürlich will AMD ein großes Stück davon abhaben. Leider hat sich AMD in den letzten Jahren nicht sonderlich geschickt angestellt und verdient diese Kuchen aufgrund eigener (nicht-)erbrauchter Leistungen nicht.

Also sucht AMD nach anderen Süßigkeiten, die diese Kuchen für AMD ersetzen. Ist fast ein Märchen geworden, aber ich hoffe du erkennst, was ich meine.

Rock Lee schrieb:
Naja, ich sehe es eher so, dass die Probleme offensichtlicher wurden. Sie waren ja vorher schon da.
Der hohe Stromverbrauch resultiert ja nicht nur durch die Architektur, sondern auch die die Positionierung im Markt. VEGA musste bestimmte Taktraten erreichen, um mit 1070 und 1080 mitzuhalten.
Die Chips laufen eigentlich durch die Bank weg mit viel zu hoher Spannung. Undervolting wirkt ja grade bei VEGAs Wunder.
Warum AMD soviel Spannung angesetzt hat, weiss ich leider auch nicht. Vermutlich war die Chipgüte zu divergierend.

Nein, der Stromverbrauch von Vega kommt nur durch die Architektur und von sonst garnichts. Der erscheint nicht aus der Luft. Vega kann sich in diesem Aspekt gegenüber keinem Konkurrenten am Markt behauptetn. Weder der 1080 noch der 1080 Ti.

Wir können um den heißen brei herum erden so viel wir wollen. Fest steht Vega war nicht gut genug. Die Spannungen hebe AMD prinzipiel an, damit sie eine möglichst hohe Menge an Chips ohne Ausschuss durch die Produktion bekommen. Das liegt teilweise auch an Kostenersparnissen im Qualitätsmanagement.

AMD könnte sicher bessere Ergebnisse bringen, dafür müssten sie aber die Kosten erhöhen, was sie sich nicht leisten können. Das ist das Dilemma in dem AMD steckt.

Rock Lee schrieb:
Ich wollte damit ausdrücken, dass Nvidia auch nur über die Architektur kommen kann. Wenn man sich nicht wie wohl bei Turing bewusst für eine ältere Fertigungstechnologie entscheidet, haben beide Hersteller den gleichen Zugang zu Fertigungstechnologien. Und obwohl Nvidia das viel höhere Entwicklungsbudget hat, gibt es logischerweise nur das,was zur Verfügung steht.

Ältere Fertigungstechnologie hat auch ihre Vorteile. Unter anderem hat Nvidia längere Erfahrung mit 12nm, weil der Prozess ausgereift ist und man mit Business Volta bereits weiß was er kann. Die Kosten für 12nm Chips drüften ebenfalls geringer sein als die 7nm-Versionen.

Anders als AMD kann es sich Nvidia leisten auf Nummer sicher zu gehen. Sie müssen nicht die Alles-oder-Nichts Lösung wählen, sondern können ihren Vorsprung stetig ausbauen. Ich würde 12nm auch nicht unbedingt als "alt" bezeichnen. Kennst du eine Gamingkarte mit 12nm? ;)

Rock Lee schrieb:
Du sagst ja selbst, dass die Architektur enorm wichtig ist. Nvidia hat allerdings bereits den Schritt zu "Gaming only" durchgeführt. Bei AMD steht dieser noch aus. Klar kann in 2 Jahren der nächste "Maxwell" kommen, aber ich bin erstmal skeptisch, ob der technologische Vorsprung in diesem großen Maße gehalten werden kann.

AMD hat seit Jahren das Problem, dass sie nur noch hinterher hecheln. Nvidia macht etwas, AMD ahmt es mit zeitlicher Verzögerung nach. So wird man aber nicht Klassenerster, sondern ewiger Zweiter. Solange Nvidia immer mindestens einen Schritt voraus ist, wird sich der Vorsprung wohl eher stetig vergrößern.

Die AMD-Ingenieure können sich die Lösungen auch nicht aus den Fingern saugen. Vor allem unter dem Punkt wie viel weniger Ressourcen sie gegenüber Nvidias Forschung aufwenden können.

Rock Lee schrieb:
Wie gesagt. Maxwell war beeindruckend, aber ich frage mich ernsthaft, ob man so einen Schritt in absehbarer Zeit wiederholen kann.

Maxwell hatte durchschnittlich "nur" 35% Mehrleistung gegenüber Kepler. Gemessen an den Zuswächen von Volta im Businessbereich hätte Turing ein Potential von 50-100% Mehrleistung. Da die Gamingkarten wohl oder übel keine oder weniger Tensorcores verbaut haben werden, sinkt das selbstverständlich. Schätzungen mancher Redakteure bewegen sich im Schnitt von 50-60%.

Das wäre einiges und würde Maxwell komplett in den Schatten stellen. Was glaubst du, warum die AMD-Fans so nervös sind. Ihr eigener Verein steckt in der Krise und Nvidia setzt zum überrunden an.
 
die lobhudeleien auf nvidia sind kaum auszuhalten. innovation, fortschritt und kundenfreundlichkeit sind genau die drei eigenschaften, die nicht auf nvidia zutreffen.

als nvidia ageias physx aufgekauft hat, wurde nicht etwa mehr geld in die technologie gesteckt, damit jeder bessere physik in den spielen hat - sondern die technologie wurde ausschließlich dazu genutzt ATi user auszusperren.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Physx-off-696067/

als das nicht mehr salonfähig war, hat man physx auch auf "nicht-geforce" systemen zugelassen, die berechnung wurde aber in einem möglichst ineffizienten weg auf die cpu verlagert. jeder spieler, der nicht nvidia kauft, wird dadurch benachteiligt.

abseits davon hat doch physx nie was erreicht. physx wurde nie standard, es gab aufgrund von physx nie irgendwelche bahnbrechende physik in spielen, die keiner mehr missen wollte. vielmehr steht physx für irrelevante spielereien, die viel performance kosten, und aufgesetzte effekte - die einfach nur drin sind, damit sie drin sind.

gameworks macht im prinzip das selbe wie die physx geschichte - durch proprietären müll die spieler auf geforce zwingen, weil radeon karten dadurch gebremst werden. das ist ein schmutziges ausnutzen der marktmacht um der konkurrenz zu schaden.

gsync das selbe in grün: user in ein ökosystem zwingen, das es sehr unangenehm macht auf einen anderen hersteller zu wechseln. adaptive sync ist das beste, was in den letzten jahrzehnten in diesem bereich passiert ist, und nvidia verschließt diese technologie hinter einer paywall. das schadet nicht nur dem fortschritt, sondern auch den spielern. gäbe es kein freesync, wäre die technologie womöglich schon lange wieder verschwunden, weil es in irgendwelche unbezahlbaren nvidia high end lösungen vor sich hergammeln würde.

alles, was nvidia macht, zielt nur auf maximalen gewinn und maximale marktmacht ab. nichts, was nvidia macht, bringt die branche voran, und nichts was nvidia macht, nützt den spielern.

deshalb sollten nicht nur "amd-fans" nervös sein, weil ihr "verein" in einer krise steckt - das ganze pc gaming steckt in einer krise - nur die "nvidia-fans" beklatschen den untergang. man ist anscheinend wirklich davon überzeugt, dass die gängelungen von nvidia gegen amd UND die spieler aufhören, wenn nvidia mal das vollkommene monopol hat - aber das wird nicht passieren. man wirds nur nicht merken, weil alles, was nicht mit nvidia kompatibel ist, garnicht mehr auf den markt kommt. ein schöner, goldener käfig.
 
  • Gefällt mir
Reaktionen: Denniss und Cpt.Willard
@duskstalker Das liest sich jetzt so als wären alle NV Technologien grundsätzlich nur da um die Konkurrenz auszubremsen und alle AMD Technologien soll allen besseres Gaming ermöglichen. Nur zur Info, falls deine Intention eine andere war.
Dein Beispiel PhysX passt gut zu vielen Technologien von AMD: Im Prinzip eine tolle Sache, aber kaum einer nutzt es. Was nützen mir heute die ganzen tollen Features in die AMD Geld investiert, wenn diese am Ende nur von 2 Spielen genutzt wird? Und was nützt es mir wenn ich heute eine Karte mit Technologie für morgen haben kann, diese Technologie aber nie benutzt wird? AMD sollte im Gamingmarkt erstmal schauen dass sie HEUTE gute Produkte bringen und nicht dauernd darauf setzen dass die Karten in Zukunft vielleicht von neuen APIs besser ausgelastet werden. Ich kaufe eine Karte weil ich die Leistung Jetzt brauche, nicht weil ich in 2 Jahren eventuell mehr Leistung bekommen könnte.

Außerdem: Du bist also der Meinung dass es Innovativer, Kundenfreundlicher und Fortschrittlicher ist das gleiche Produkt 3 mal zu veröffentlichen und dabei nur leichte Optimierungen mitzunehmen? Polaris 3.0 bringt laut dir also mehr Innovation als z.B. Maxwell seiner Zeit? Ich bitte um eine Erklärung.

Ich finde es auch nicht gut was NV derzeit macht. Ich hätte gerne mal einen würdigen Nachfolger für meine GraKa, und am liebsten auch für humane Preise. Aber angesichts der aktuellen Konkurrenz gibt es für ein Wirtschaftsunternehmen keinen Grund alles zu überstürzen, oder zu schnell zu agieren . Pascal bringt mir persönlich auch zu wenig Verbesserungen in die Architektur, es ist ja gefühlt nur Maxwell mit mehr Takt.

@Dark_Knight
Das was ich meine ist wirklich die Möglichkeit viele der Computingfähigkeiten auszugliedern wie NV es z.B. mit den Tensor-Cores bei Volta gemacht hat. So könnte man, wenn das einmal entwickelt ist, problemlos eine Profi-Karte mit Power unter der Haube bringen, deren Chip auch gerne etwas größer sein darf da Profis mehr zu bezahlen bereit sind.
Die Gamingchips wären dann klein und ohne unnötigen Ballast, was der Effizienz schonmal gut tun würde. Wenn AMD schon an sowas arbeitet - gut! Dann habe ich das nur nicht auf dem Schirm gehabt.
Und meine Erklärung aus dem vorigen Post bezog sich darauf dass man hier oft liest: "Ja, die RX [Name einfügen] ist vielleicht langsamer im Gamen, aber die ist im Computing viel besser!" - bei reinen Gamingchips wird diese Argumentation natürlich nicht mehr funktionieren.
 
Dark_Knight schrieb:
@DocWindows
Du erlaubst dir also zu sagen: Du liegst falsch und deine Argumente passen nicht zusammen, weil ich das so sehe.

Ja, weil man z.B. Benchmarks bez. Perf/Watt von TomsHardware und CB eben nicht vergleichen kann, weil weder die Testhardware noch die Testsoftware noch die Testmethode identisch ist.

Dark_Knight schrieb:
Dann erleuchte uns doch mal, wie man eine richtige Argumentationskette aufgebaut wird, wo auch alle Argumente zueinander passen. Denn verweigerst du ja energisch.

Ich will doch gar keine Argumentationskette aufbauen. Ich will weder für noch gegen irgendetwas argumentieren. Und natürlich verweigere ich mich auf ne Wall of Text zu argumentieren weil der ganze Kram erstens nicht Thema des Threads ist und zweitens schon tausendmal durchgekaut wurde. Wozu immer alles widerholen wenns dann doch nichts bringt?

duskstalker schrieb:
die lobhudeleien auf nvidia sind kaum auszuhalten. innovation, fortschritt und kundenfreundlichkeit sind genau die drei eigenschaften, die nicht auf nvidia zutreffen.

gsync das selbe in grün: user in ein ökosystem zwingen, das es sehr unangenehm macht auf einen anderen hersteller zu wechseln. adaptive sync ist das beste, was in den letzten jahrzehnten in diesem bereich passiert ist, und nvidia verschließt diese technologie hinter einer paywall. das schadet nicht nur dem fortschritt, sondern auch den spielern. gäbe es kein freesync, wäre die technologie womöglich schon lange wieder verschwunden, weil es in irgendwelche unbezahlbaren nvidia high end lösungen vor sich hergammeln würde.

Aprospros Innovation. War es nicht nVidia das zuerst eine Adaptive V-Sync Technik namens G-Sync am Desktop etabliert hat? Ist AMD hier nicht der Nachzügler der in Zusammenarbeit mit der VESA Adaptive Sync eilig aus dem Notebookbereich auf den Desktop brachte?
Und weil die beiden das jetzt gemacht haben soll nVidia ihr G-Sync einmotten und auf Vesa Active Sync umschwenken? Also im Prinzip das gleiche tun was AMD mit Mantle gemacht hat? Ich glaube nicht dass das sinnvoll oder realistisch ist.
Ich halte es auch nicht für realistisch dass wir jetzt überhaupt irgendein AS am Desktop hätten wenn NV nicht die Initiative ergriffen hätte. Die VESA AS Technik war bis zum Release vor G-Sync nie ein Thema.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardware_Hoshi
duskstalker schrieb:
die lobhudeleien auf nvidia sind kaum auszuhalten. innovation, fortschritt und kundenfreundlichkeit sind genau die drei eigenschaften, die nicht auf nvidia zutreffen.

Über Kundenfreundlichkeit könnte man durchaus streiten. Bei den anderen beiden widerspreche ich dir. Nvidia steckt Unmengen in Innovation und Fortschritt. Anders als AMD jedoch, versuchen sie das ganze auch bezahlbar zu machen.

Anstatt sich in Technik wie HBM zu verrennen und finden Lösungen wie GDDR5X oder demnächst GDDR6.

duskstalker schrieb:
als nvidia ageias physx aufgekauft hat, wurde nicht etwa mehr geld in die technologie gesteckt, damit jeder bessere physik in den spielen hat - sondern die technologie wurde ausschließlich dazu genutzt ATi user auszusperren.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Physx-off-696067/

als das nicht mehr salonfähig war, hat man physx auch auf "nicht-geforce" systemen zugelassen, die berechnung wurde aber in einem möglichst ineffizienten weg auf die cpu verlagert. jeder spieler, der nicht nvidia kauft, wird dadurch benachteiligt.

Was ein langer RANT.
Dennoch frage ich dich, wieso "Nicht-Kunden" einen Anspruch haben sollten von den Techniken eines Fremdherstellers zu profitieren? Erzähl mir bitte in welchem IT-Bereich das so der Fall ist. Nvidia hätte das nicht geändert. Es war EPIC, die es in iherer Unreal Engine jedem Nutzer frei zur Verfügung gestellt hatte.

AMD ist auch ein toller Verein. Wollen alles für umsonst. Nvidia arbeitet aber nicht kostenlos. Daher kam die Umstellung. Seltsamerweise meckern manche User wie du immernoch darüber. Man kann es also niemandem recht machen!

duskstalker schrieb:
abseits davon hat doch physx nie was erreicht. physx wurde nie standard, es gab aufgrund von physx nie irgendwelche bahnbrechende physik in spielen, die keiner mehr missen wollte. vielmehr steht physx für irrelevante spielereien, die viel performance kosten, und aufgesetzte effekte - die einfach nur drin sind, damit sie drin sind.

Performance kommt mit der Zeit. Spätestens eine Generation später ist alles flüssig spielbar und sieht fabelhaft aus.

Ich persönlich mochte die Effekte in beispielsweise Sacred 2 und Serien wie Witcher und Batman klasse. Ist vielleicht nicht jedermanns Sache, wie gesagt mir gefällt es.

Wenn u.a. Intel und danach Microsoft die HAVOK Physikengine aufkauft, beschwerst du dich komischerweise nicht. Das war ein Standard der seither nicht mehr großartig weiter entwickelt wird und fast nur noch über Software läuft.

Da nehme ich es Firmen wie Nvidia nicht übel, wenn sie auf ihre eigene Kosten eine Neulösung entwickeln.

duskstalker schrieb:
gameworks macht im prinzip das selbe wie die physx geschichte - durch proprietären müll die spieler auf geforce zwingen, weil radeon karten dadurch gebremst werden. das ist ein schmutziges ausnutzen der marktmacht um der konkurrenz zu schaden.

Gamworks bringt zumindest neue Effekte. Unter den Spieleentwicklern gibt es mehr als genug Designer, die nie auf Code-Ebene arbeiten. Wenn die Gameworks-Effekte den Studiosstudios hilft, einen tollen Titel nach eigenen Visionen zu erschaffen, was spricht dagegen?

AMD ist nur eine kleine Nummer. Nicht alles dreht sich nur um diese Firma. Ironischerweise sprichst du die üblichen AMD-Fanboythemen an. Hast du auch eine eigene Meinung oder plapperst du das nur alles nach?

Die Karten von AMD werden nicht gebremst, sie sind einfach zu langsam ;)

duskstalker schrieb:
gsync das selbe in grün: user in ein ökosystem zwingen, das es sehr unangenehm macht auf einen anderen hersteller zu wechseln. adaptive sync ist das beste, was in den letzten jahrzehnten in diesem bereich passiert ist, und nvidia verschließt diese technologie hinter einer paywall. das schadet nicht nur dem fortschritt, sondern auch den spielern. gäbe es kein freesync, wäre die technologie womöglich schon lange wieder verschwunden, weil es in irgendwelche unbezahlbaren nvidia high end lösungen vor sich hergammeln würde.

Das wiederum klingt eher nach einer Werbetour. In anderen Foren ist immer von "Shills" die Rede, die nach dem gutdüngen bestimmter Hersteller entgeltlich Werbung für diese machen.

duskstalker schrieb:
alles, was nvidia macht, zielt nur auf maximalen gewinn und maximale marktmacht ab. nichts, was nvidia macht, bringt die branche voran, und nichts was nvidia macht, nützt den spielern.

Als Firma nach Gewinn zu streben ... oh nein, wie können sie nur. Ist zwar nur ein betriebswirtschaftlicher Grundsatz, aber OK.

Die Branche? Welche Branche genau? Die Spieleentwickler arbeiten nicht aus Spaß mit Nvidia zusammen. Es spart ihnen wertvolle Zeit und Entwicklungsressourcen, wenn sie alles alleine machen müssten. Gerade Gameworks und PhysX, die von dir genannt wurden, enthalten Features und Techniken, die nicht jeder alleine erstellen könnte.

Nützlich sind ehrenamtliche Vereine. Kunden zahlen für Gegenleistung. Simpler geht es nicht!

duskstalker schrieb:
deshalb sollten nicht nur "amd-fans" nervös sein, weil ihr "verein" in einer krise steckt - das ganze pc gaming steckt in einer krise - nur die "nvidia-fans" beklatschen den untergang. man ist anscheinend wirklich davon überzeugt, dass die gängelungen von nvidia gegen amd UND die spieler aufhören, wenn nvidia mal das vollkommene monopol hat - aber das wird nicht passieren. man wirds nur nicht merken, weil alles, was nicht mit nvidia kompatibel ist, garnicht mehr auf den markt kommt. ein schöner, goldener käfig.

AMD wäre aber Schuld an genau diesem Monopol.
Wenn eine Firma über mehrere Jahre hin im PC-Bereich keine vernünftigen bzw. ausgereiften Produkte mehr bringt, müssen sie sich nicht wundern. Ganz im Gegenteil sogar. Anstatt ihrer Bemühungen zu intensivieren, konzentriert sich AMD lieber auf die next-Gen Konsolen und hecheln Träume von üppigen Umsatz im Businessbereich nach.

Golende Käfige sind nichts neues. Das gibt es mindestens seit Atari, Sony/Nintendo, Microsoft und Apple, nur um eine paar Beispiele zu nennen. Dieser Punkt ist regelrecht heuchlerisch.
 
Zuletzt bearbeitet:
ich frage mich, ob ich darauf überhaupt antworten soll.

ich könnte jetzt artikel zusammensuchen, gameworks benchmarks, äußerungen von verschiedenen personalien und so weiter und so fort - aber wozu?

das einzige, was hier passiert, ist, dass die üblichen 2 verdächtigen sich hinstellen und behaupten "ist doch garnicht so, sondern so".
wenn niemand die quellen und artikel liest, und immer nur behauptet, dass er recht hat - ohne das mit quellen zu belegen, und kein argument gelten lässt, kann man sich so eine diskussion auch sparen. oder ich mir zumindest meine zeit. anstatt der recherche, die als "wall of text" abgetan wird, könnte ich auch einfach genau das selbe gesabbel zusammenschreiben wie das, was hier von der grünen seite kommt.

an der stelle kann man eigentlich nur eins sagen: hut ab vor nvidia; so einen mindshare zu generieren. oder seid ihr etwa von nvidia bezahlte influencer, wie hier beschrieben?


jaja, ich weiß, alles verschwörungstheorien von den armen amd-boys, die es nicht leiden können, dass nvidia den längeren balken hat.
 
  • Gefällt mir
Reaktionen: Hurricane271
Die einzigen Behauptungen die ich hier immer lese ist dass eine Fraktion behauptet AMDs Karten wären im Gamingsektor voll Konkurrenzfähig bzw. sogar besser als die Konkurrenz und die anderen mit Verweis auf die Tests dem widersprechen.

Solltest du Belege haben dass Vega 64 eine bessere Karte für Gamer ist als z.B. die 1080Ti, dann bin ich sehr dankbar für deine Erläuterungen. In meinen Benches ist sie nämlich sowohl bei der Leistung als auch beim Verbrauch deutlich hinten dran.
 
Blueline56 schrieb:
Auch immer diese Versuch Nvidia Käufer generell als Konsumidioten dastehen zu lassen, die so blöd sind und letztendlich Nvidia zum Monopol verhelfen, finde ich mehr als Grenzwertig, schließlich sind die Grafikkarten von denen nun mal wirklich nicht schlecht und wenn ich eine Grafikkarte für 300€ und mehr kaufe, muss sie in erster Linie meinen Bedürfnissen und Kenntnissen genügen und nicht welche Farbe mir besser gefällt.

Naja, sehr viel scheint Nvidia den (eigenen) Kunden ja nicht zuzutrauen, wenn man die Begründung für das unsägliche GPP liest:
"Letztlich sei es stets das Ziel des Nvidia GPP gewesen, für den Kunden klar erkennbar zu machen, was er kauft und somit eine klare Wahl zu treffen. "

Cunhell
 
  • Gefällt mir
Reaktionen: Rock Lee, duskstalker, Hurricane271 und eine weitere Person
Thanok schrieb:
Die einzigen Behauptungen die ich hier immer lese ist dass eine Fraktion behauptet AMDs Karten wären im Gamingsektor voll Konkurrenzfähig bzw. sogar besser als die Konkurrenz und die anderen mit Verweis auf die Tests dem widersprechen

Verkehrte Welt lol, es ist genau anders herum. Lies dir mal die letzten 3 Seiten durch, zähle die links und Referenzen in meinen Beiträgen und dann schau dir die Argumentation der Gegenseite an, die es gerade mal auf eine nvidia werbefolie bringt, und ansonsten aus unbelegter, persönlicher Meinung besteht.


Thanok schrieb:
Solltest du Belege haben dass Vega 64 eine bessere Karte für Gamer ist als z.B. die 1080Ti, dann bin ich sehr dankbar für deine Erläuterungen. In meinen Benches ist sie nämlich sowohl bei der Leistung als auch beim Verbrauch deutlich hinten dran.

Und dann würde ich noch gerne die Stelle zitiert haben, an der ich behaupte, dass Vega 64 schneller und effizienter als eine 1080ti ist.

Das Problem ist, dass hier die Beiträge weder vollständig gelesen, noch verstanden werden. Hier wird einfach nur widersprochen des widersprechens wegen.
 
  • Gefällt mir
Reaktionen: Colindo, Rock Lee und LyGhT
Wow @Thanok , also doch nur ein weiterer nVidia Troll. Am Ende auch noch die Vega64 gegen die 1080Ti stellen, die erwiesener Maßen eine Stufe drüber steht. Bist ja fast du gut wie PCGH, die auch genau so Tests durchführen.

Wie wäre es, wenn du dich erst mit dem Thema welche GPU von AMD gegen welche GPU von nVidia Antritt beschäftigst.
Und ja je nach Spiel ist sogar eine AMD Karte durch aus schneller als eine nVidia Karte derselben Leistungsklasse. Das zeigt sich nämlich komischerweise immer dann, wenn das Spiel eben für beide GPU Hersteller optimiert ist. Wahrscheinlich ist das dann nur irgendeine AMD Blackbox Software die nVidia künstlich ausbremst. :rolleyes:
 
  • Gefällt mir
Reaktionen: LyGhT
Dark_Knight schrieb:
Wahrscheinlich ist das dann nur irgendeine AMD Blackbox Software die nVidia künstlich ausbremst. :rolleyes:

Made my day :D
 
  • Gefällt mir
Reaktionen: Colindo
Ich bezog mich lediglich darauf dass es immer noch einige gibt die behaupten dass die Radeons im Gamingbereich dank Vega konkurrenzfähig sind - an dem „z.B.“ konnte man auch erkennen dass ich keinen Vergleich mit der 1080Ti angestellt, sondern nur darauf verwiesen habe dass diese auch noch existiert. Wobei ein Vergleich zweier BigChips, falls man GP102 überhaupt so nennen darf, doch eigentlich fair ist?

Karten wie die RX290 oder auch die GTX480 haben zwar gesoffen wie ein Loch und waren unfassbar laut, aber die haben noch Performance geliefert so dass man sich das schön reden konnte. Polaris und Vega schaffen ja noch nicht mal das, man kann mit einem Chip der eine Stufe oberhalb dem der Konkurrenz angesiedelt ist gerade mal so mithalten. Das ist traurig, aber wenn ihr weiterhin nur NV die Schuld gebt weil sich alle gegen AMD verschwören wird es nicht besser.
 
duskstalker schrieb:
Lies dir mal die letzten 3 Seiten durch, zähle die links und Referenzen in meinen Beiträgen und dann schau dir die Argumentation der Gegenseite an

Ich habe mir tatsächlich nochmal alle 3 Seiten durchgelesen und wollte Stichpunktartig nochmal auf alles eingehen. Hab mir im Notepad Notizen in Form einer Zusammenfassung der Aussagen gemacht und der Herleitungen. Aber nach #122, #124 und #125 hat mich echt die Motivation verlassen weil ich eingesehen habe dass man allein das gar nicht alles in zumutbarer Zeit geraderücken kann und es immer noch mehr Posts dazu gab. Bleib einfach bei deiner Meinung. Sie ist sicherlich richtig, auch wenn du sie beinahe exklusiv hast.

Thanok schrieb:
Wobei ein Vergleich zweier BigChips, falls man GP102 überhaupt so nennen darf, doch eigentlich fair ist?

AMD hat aber in der Tat gesagt dass sie mit der Vega64 die 1080 angreifen wollen und nicht die Ti. Sie haben natürlich selbst genau gewusst dass das nichts wird. Das ist natürlich jetzt auch ne gute Argumentationsgrundlage fürs Schönreden. Noch besser wäre gewesen wenn AMD die Vega64 gegen die 1070 und die Vega56 gegen die 1060 gestellt hätte. Dann wären die Vegas wahre Wunderkarten in mancherleut Augen.
 
@Thanok
BS. Dein Forenaccount ist von 2009. Du hast 6008 Posts und vergleichst noch immer Karten unterschiedlicher Stufen mitteinander.
Also entweder bist du echt so unwissend, trotz deiner langen Zeit hier, oder du versuchst wirklich hier gerade hart zu trollen.

Zum einen bist du nicht in der Lage Tests zu lesen, egal ob Hardware oder Software. Sonst wäre dir ja aufgefallen das immer wieder mal die GTX 1080 (der Gegenspieler der Vega64) und mal die Vega64 schneller ist in den Benchmarks.
Zum anderen ist es eigentlich nicht so schwer, die GTX1080Ti hat keinen Gegenspieler, da AMD keine GPU in der Leistungsklasse auf dem Markt hat. Somit ist es klar, das diese in 99% der Fälle eben an der Spitze steht. Ist nicht so schwer, wenn man sich nicht wie ein Troll hinstellt.
Und wo zur Hölle schaffen Polaris und Vega bitte keine Performance? Sie schlagen oft genug ihre jeweiligen Gegenparts von nVidia und verbrauchen einfach eben nur mehr Strom (Das ist ja DAS Auschlußkriterium bei vielen blinden nVidia Anhängern, aber auch erst seit Maxwell [davor war es Scheißegal wieviel Strom eine GPU genuckelt hat]). Hier davon schwafeln, das die Karten keine Performance bringen ist einfach nur trolling.
Und wo zur Hölle ist der Chip eine Stufe oberhalb der Konkurrenz angesiedelt? Kannst du so eine absolute Falsche Aussage auch mit Fakten belegen?
Und natürlich, dass nVidia mit schon verschiedensten Methoden versucht hat die Konkurrenz aus zu bremsen bzw. vom Markt zu treiben (wo wir wieder beim Thema langjähriger Forenaccount aber trotzdem Keine Ahnung von irgendwas sind). Wenn man die Hände vor die Augen hält und sich gleichzeitig die Ohren zuklebt. Dann hört und sieht man die Realität nicht und alles ist schön in der eigenen kleinen Welt im Kopf. Wäre aber noch ganz cool, wenn du dir den Mund auch noch zukleben würdest. Dann müsste man nicht deine Wirre Ansicht auch noch hier lesen. Weil etwas vernünftiges kommt da ja leider nicht bei rum.

Edit:
@DocWindows
Natürlich, du wolltest jetzt ganz sicher noch mal alles haar klein aufdröseln. Hast dich dann aber nach längerer Arbeit dazu entschieden es doch nicht zu machen. Natürlich ;)
Und dann AMD wieder zu unterstellen das sie ihre Chips eine Klasse tiefer angesiedelt haben, weil sie gesehen haben, das es nicht funktioniert, einfach nur wieder das typische Wunschdenken eines kleinen nVidia Fanatikers. Du hast nicht einmal einen Beweis für deine Unterstellung.
Aber woher auch.
Hör doch einfach auf mit deinen "Experten" Posts und geh wieder an deinen nVidia Schrein um da zu beten.
 
Naja, Vega64 orientiert sich oberhalb der 1080, guck mal auf den VK. Und dafür performt sie nicht gut genug. Der Chip selbst orientiert sich an der 1080Ti, und wird vom GP102 mit Leichtigkeit überholt.
Aber die Trollkeule zu schwingen ist bekanntermaßen einfacher als sich einzugestehen dass bestimmte Produkte einfach nicht liefern. Ich glaube auch nicht dass AMD an Vega so viel verdient, der HBM kostet ja schon ein kleines Vermögen. Mal ehrlich: Vega ist eine Mittelklassekarte (ist mir egal wenn NV meint es sei High-End, die 104 sind für die Mittelklasse gedacht) die mehr verbraucht als so manche Dual-GPU Karte - und das trotz effizientem HBM. Da kann man sich als Gamer doch nicht wirklich was schön reden, außer dass AMD den Holzweg HBM für Gamer weiter geht.

Und ja, ich denke dass HBM langfristig die Zukunft für Gamer ist - aber erst wenn die Kosten fallen und der Nuten größer wird. Derzeit kann man ja problemlos mit konventionellem Speicher arbeiten, NV macht es (leider) vor.

Ich könnte jetzt auch AMDs Marketing anführen und behaupten dass Vega Volta als Gegner hat und diese deutlich schlagen sollte - aber wir wissen ja wie gut AMDs Marketing ist.

Abschließend mal ein Hinweis: Ich finde vieles was NV macht auch bescheiden. Mein Highlight war das GPP. Das macht die Produkte aber nicht schlechter. Wobei ich finde dass Pascal im Vergleich mit Maxwell gar nicht mal so gut ist, aber mangels Konkurrenz immer noch gut genug.
 
Zurück
Oben