News Grafikkarten: AMD verliert im „schlechtesten Quartal seit über 10 Jahren“

Das zum Thema: "Mimimimi Die Zahlen von Steam sind nicht repräsentativ". Egal wo Polaris und Vega gelandet sind, bei Spielern war es auf jeden Fall nicht!
 
@kisser
Du zeigst mir jetzt den Test von genau 1 Spiel um zu widerlegen, das der 6GB Speicher nicht bei allen Spielen reicht um in FHD ohne Einschränkungen spielen zu können mit den neuesten nVidia Karten der 60er Reihe.

Respekt zu so viel Einfältigkeit. :D

@KlaraElfer
Oh tut mir leid, habe ich dir all deine Argumente genommen, in dem ich halt klar sage welche Vorraussetzungen eine Innovation für mich haben muss? Gut war jetzt nicht so schwer, da mir ja schon klar war was kommen würde.
Ist halt doch nicht so einfach, wenn jeder davon einen Nutzen haben sollte, dann noch etwas zu finden was von nVidia kommt. 🤪

@rico007
Hätte hätte Fahrradkette. Hast du auch nur einen Beweis für solch eine Aussage? Wäre schon sehr interessant diese zu sehen.

@Botcruscher
Ist ja eine sensationel neue Erkentniss die du da bringst. Zum einen sind eben die Zahlen auf Steam nicht repräsentativ, denn dafür müssten sie alle Steamnutzer erfassen. Was ja nicht geschieht, da man dazu a) eingeladen werden muss von Steam und b) die Angaben dann auch noch machen muss. Somit bietet Steam nur ein Indiz und das noch nicht einmal vollständig.
Und wer hätte es gedacht nachdem schon zu Begin des Miningbooms durch Tests belegt wurde, wie gut die AMD Karten für das Mining von bestimmten Coins geeignet sind und es spätestens dann offensichtlich wurde, als fast keine AMD Karten mehr zu vernünftigen Preisen kaufbar waren, das die meisten Karten eben nicht mehr bei Gamern gelandet sind.

Aber sind wir doch mal ehrlich, selbst ohne Miningboom und die dementsprechend hohen Preise, würden sich doch die meisten die sich hier "auskotzen" so oder so nie eine AMD Karte in den PC klemmen. Also wieso plustern sich hier immer gerade die am meisten auf, die am wenigsten die Produkte von AMD kaufen würden? Achja, weil ohne vernünftige AMD Karten, die Preise ihrer geliebten und heiligen Firma nVidia nicht tief genug fallen würden. Sieht man ja an den RTX Karten und wie schlecht sich diese im Gegensatz zu den Generationen davor verkaufen. Ja ist schon ärgerlich für die Träger der grünen Brille, NICHT.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Ich würde an deiner Stelle mit dem Wort "Einschränkungen" vorsichtig umgehen, denn bisher hast du nirgends hier auch nur eine annähernd deine Behauptungen belegt.

Was muss ich denn belegen? Ich habe doch die Behauptung gar nicht aufgestellt, Nvidia bietet keine Innovationen, denn das ist ja grundfalsch, wie jeder weiß.
Grundsätzlich implementieren beide Hersteller jede Menge an neuer Funktionen bei jeder Grafikgeneration.
Man kann lange Listen erstellen und innovative Features einer jeden Karte aufzählen, sei es bei Nvidia oder AMD.
Nur der Fan des einen oder anderen Lagers wird halt dagegen feuern, also wieso erst damit beginnen?
Man kann auch ganz weit zurückgehen, zum Beispiel zu transform und lighting vor knapp 20 Jahren bei der Geforce 256, oder man argumentiert mit heutigen Verbesserungen wie shading-rate Anpassungen in Echtzeit, AI Cores oder DXR. Whatever, da findet man bei jedem Hersteller viele Innovationen, AMD´s trueform zu Beispiel oder die Schnittstelle Mantle die in Vulkan aufging, oder oder oder.
 
  • Gefällt mir
Reaktionen: TheUngrateful
Ozmog schrieb:
Das Argument wird so oft angeführt, dabei ist es alles andere als sicher und erst recht nicht nachweisbar. Hätte, könnte, sollte...

Was hat den AMD damals zu Athlon 64 Zeiten gemacht?
Die FX Prozzis hatten den gleichen Preis wie die P4 Extreme Edition, da hätte AMD schon seine Gutherzigkeit zeigen können und die FX Prozzis zu "schnäppchen" Preisen anbieten können. Haben sie aber nicht, weil die auch nur Maximal abkassieren wollen. Zu verschenken hat keiner was, weder die Hersteller nach wir Kunden


Ozmog schrieb:
Das Geldverdienen ist ja der sinn einer Firma, genauso wie du selbst bestimmt auch nicht einfach nur aus Nächstenliebe arbeiten gehst. Schwarz/Weiß brauch man nicht anführen, sondern verschiedene Graustufen und gerade da hat AMD nun mal das hellere Grau. Es ist auch egal, warum sie das hellere Grau haben, ob Bewusst oder gezwungener Maßen, Hellgrau bleibt Hellgrau.

Aus dieser Situation heraus kann man eben eines mit Sicherheit sagen, ein Monopol oder zumindest eine überstarke Marktmacht eines Unternehmens ist schlecht für uns. Und das beweist uns Nvidia mit ihren proprietären Maßnahmen immer wieder auf´s Neueste. Es wird deutlicher, wenn tatsächlich Intel als dritter Spiele in den Grafikkarten-Markt aufkreuzen sollte.

Ich persönlich will zocken, es ist mein Hobby.
Ich kaufe daher das Produkt welches mir am meisten Leistung bietet und das ist seit Jahren Nvidia. AMD kaufe ich weil ich wissen will wie gut / schlecht deren Produkte wirklich sind und weil meine Frau dank FreeSync Monitor AMD Karten bevorzugt.
Zudem finde ich dass es mit Nvidia GPUs unkomplizierter ist, deren Treiber sind meist ausgereifter (gut in letzter Zeit schleichen sich da auch paar Fehler ein), die Karten sind leiser und effizienter.

Und ich habe in keinster Weise ein Monopol befürwortet.
Nur hat Nvidia wenn man es so sehen will doch schon ein Monopol, es liegt an AMD dies zu ändern, nur das erfordert Ressourcen (Man Power und Geld).
 
Aldaric87 schrieb:
Wusstest du das ich eine Intel-CPU (4790k) und eine GTX 1070 von EVGA im System habe ?

Ich messe das nicht an der Hardware, sondern an den Aussagen eines Users.
Und gelinde gesagt sind deine Aussagen an den Haaren herbeigezogen, denn Nvidias Marktanteil lässt sich ganz besonders durch Innovationen begründen. Ohne Innovationen kein Fortschritt, das gilt für jede GPU Arch, die ohne neue Technik und Features Rastergrafik gar nicht schneller berechnen könnte.
Nennen wir doch mal Nvidias "culling" aka DSBR oder die Fortschritte in der delta-colour-compression.

Denkst du das sind keine "innovationen"?
Wie gesagt die Diskussion ist müßig, da beide Hersteller regelmäßig sehr viele Innovationen in ihren Produkten die von Ingenieuren Jahre zuvor geplant und entwickelt werden, einsetzen.

@Selanius
Wenn diese Vorraussetzungen gelten, dann kannst du auch AMD ausnehmen.🤤
Aber mal ohne Witz, natürlich brachten Nvidia und auch AMD Innovationen die den Fortschritt ankurbelten.
 
Zuletzt bearbeitet von einem Moderator:
kisser schrieb:
Keine Argumente mehr? Dachte ich mir doch.

Und wofür genau sollte ich Argumente liefern?
Du hast nach Beispielen gefragt, hab ich genannt.
Dann hast du relativiert, was nichts mit dem eigentlichen Sinn meiner Aussage zu tun hat.

Weiter meine Zeit dafür zu verschwenden und hier alles aufzählen was in den letzten 50 Jahren wer entwickelt hat... Dazu hab ich jetzt ehrlich keine Lust.
 
rico007 schrieb:
Zu verschenken hat keiner was, weder die Hersteller nach wir Kunden

Natürlich hat keiner was zu verschenken, habe ich auch nie behauptet. Es geht doch viel mehr darum, dass Maßnahmen ergriffen werden, um die Konkurrenz künstlich auszustechen, den genau dafür ist Gameworks da. Unter Wert braucht sich da keiner verkaufen.

Dazu schriebst du auch noch, kostete so viel wie ein P4, war aber sogar besser.

rico007 schrieb:
es liegt an AMD dies zu ändern, nur das erfordert Ressourcen (Man Power und Geld).

Rate mal, woher sie die Ressourcen bekommen sollen... Wenn alle nur auf eine Firma setzen, dann ist es am Ende schlecht für alle. "Ich kaufe das, was am Besten ist" erscheint zwar auf dem ersten Blick logisch ist aber insgesamt betrachtet zu kurzsichtig. Denn gerade das fördert eben ein Monopol, dann ist es eben egal, ob man es befürwortet oder nicht.

Bei mir ist PC auch nur ein Hobby, sogar nicht einmal das Kostenintensivste. Gerade weil es ein Hobby ist, habe ich auch genug Spielraum, um eben nicht unbedingt ein Unternehmen auf dem Weg zum Monopolisten zu fördern und ganz bestimmt nicht, wenn diese Unternehmen auch noch dreckige Methoden dazu aufwenden.
Gameworks und G-Sync sind schon Sachen, die eben Nvidia dauerhaft beforteilen auch wenn sie eigentlich nicht mehr besser sein sollten. Die angedachten Exklusivmarken, die Nvidia bei den Boardpartnern durchsetzen oder erzwingen wollte, war auch eine schöne Methode, ein gutes Beispiel, warum man möglichst einen Bogen um diese Firma machen sollte, wenigstens für eine Weile, um sie abzustrafen.

Ich will damit natürlich keinen sagen, was sie zu kaufen haben, nur dass man sich ein bisschen Gedanken darüber machen sollte, was man kauft, statt nur den längsten Balken zu bewundern. Wer in Richtung UHD mit hohen Details geht, den bleiben quasi nur die schnellsten (und teuersten) Karten, aber wer so wie ich nicht so viel für eine Grafikkarte ausgeben will, hat auch die Wahl auf AMD zurück zu greifen, schlecht sind sie nicht.

Vor Polaris hatte ich übrigens eine Maxwell, irgendwo liegt die immer noch rum. War eine GTX960 2GB. Danach hab ich mich irgendwann entschlossen, um Nvidia einen Bogen zu machen, Intel sogar noch etwas früher. Letzter Intel war im Surface Pro 2 mit Hasswell. Alles immer nach Möglichkeit, Nvidia zu meiden, ist sogar recht einfach, Intel zu meiden weniger, weil auch NIC und SSDs, gerade wenn es um Mobile und Mainboards geht, nicht immer sofort ersichtlich oder vernünftig vermeidbar sind....
 
Tammy schrieb:
Habe ich weder bestritten, nöch ändert das etwas an meiner Aussage :)

du hast auch nichts bestritten sondern nen doppelmoppel mit verneinung. lies einfach nochmal den text deines vorredners. er hat genau das gleiche geschrieben wie du. und dann sagst du aber, dass das was er schreibt ja gar nicht das groesste problem ist, sondern dass, was du schreibst viel mehr gewicht hat. obwohl es ja das gleiche ist :)
 
KlaraElfer schrieb:
Nennen wir doch mal Nvidias "culling" aka DSBR oder die Fortschritte in der delta-colour-compression.

Denkst du das sind keine "innovationen"?
Wie gesagt die Diskussion ist müßig, da beide Hersteller regelmäßig sehr viele Innovationen in ihren Produkten die von Ingenieuren Jahre zuvor geplant und entwickelt werden, einsetzen.
Das eine (culling) macht die GPU nicht schneller sondern erhöht die Framerate indem sie weniger berechnet und das andere (Kompression) ist zwingend erforderlich um die Knauserrei beim Speicherinterface nicht in massiven Frameraten Verlußten enden zu lassen.
Nun die Preisfrage, wo ist hier die Innovation für den Spieler?

Die Kompression mit einher gehender Knauserei beim Speicherinterface erhöht am Ende nur die Gewinne des Herstellers und der Spieler hat herzlich wenig davon.
Beim Culling könnte man es anrechnen wenn der Spieler damit mehr Leistung für sein Geld bekommt aber letztendlich blieb genau dieser Punkt aus weil die Preise fröhlich kletterten und dieser Fortschritt am Ende erneut nur die Gewinne des Herstellers bei der fortlaufenden Produktion erhöhte. Damit ist es letztendlich keine Innovation sondern lediglich Evolution.

Auch liegt die Vermutung nahe dass das aggressive culling in der Vergangenheit bereits für Probleme bei der Berechnung der Grafik sorgte, man denke da an fehlende Elemente bei "Ashes of the Singularity" (was von der Fan Fraktion wieder schön geredet wurde) oder die defekte Skybox bei Wolfenstein in einem Abschnitt der nur allso of für Benchmark Vergleiche genutzt wurde. Beides waren Probleme die sich deutlich auf die Grafik auswirkten aber so gut wie nicht untersucht wurden.
Ohnehin scheint sich die Fachpresse recht wenig für die Auswirkungen von nvidias knauser Strategie auf die Grafik zu interessieren, denke ich da hingegen an die Unterfilterung bei AMDs VLIW GPUs zurück wo förmlich mit der Lupe nach abweichenden Pixeln gesucht wurde empfinde ich das als äußerst fragwürdig.

Als Innovation würde ich eher nvidias Workaround für die Probleme mit der Berechnungseffiziens von DX11 und Co. bei aktueller Hardware einstufen, nur wirkt sich das am Ende sogar kontraproduktiv aus weil dadurch die lange überfällige Ablösung dieser APIs hinausgezögert wird und somit letztendlich auch nur wieder zur aktuellen Stagnation beiträgt.
 
Schade das Posts einfach ins Aquarium verschoben werden, die eben nicht dem Meinungsbild der Moderatoren entsprechen. Wenigstens die User informieren, das Post XY verschoben wurde aus Grund AB.
 
MOS1509 schrieb:
Das Moduldesign war eine Neuerungen, aber eben keine Gute.

Auch das war keine Neuerung. Man hat hier den Ansatz von DEC mit dem Alpha21064 aus den 90ern gewählt.

According to AMD, Bulldozer-based CPUs are based on GlobalFoundries' 32 nm Silicon on insulator (SOI) process technology and reuses the approach of DEC for multitasking computer performance with the arguments that it, .......

https://en.wikipedia.org/wiki/Bulldozer_(microarchitecture)

https://en.wikipedia.org/wiki/Alpha_21264#/media/File:Alpha_21264.png
Ergänzung ()

TheUngrateful schrieb:
Du hast nach Beispielen gefragt, hab ich genannt.

Das sind aber keine Beispiel für Innovationen von AMD.
Ich habe da nichts relativiert, sondern korrigiert!
 
Deiner Logik zufolge gäbe es dann keine Innovationen denn alles war irgendwann, irgendwie und irgendwo schonmal da.
 
  • Gefällt mir
Reaktionen: TheUngrateful
Mir ist die Grafikkarte eigentlich wurscht. Die Radeon VII mag ich eigentlich sogar, Performance einer 2080 ist ja ok. Nur wenn diese teurer als eine NVidia Karte ist (wenn auch nur wg. des RAMs, den man erstmal voll bekommen muss), nehme ich lieber Features mit, die ggf. ja doch noch was bringen (Raytracing, DLSS). Statt 50€ mehr sollte die Karte eher 100€ darunter liegen oder ebenfalls diese Features liefern. DLSS finde ich prinzpiell ja ein gutes Feature, wenn es denn mal funkioniert. in BFV es ja eher eine herbe Enttäuschung, in Metro wiederum gut.
 
  • Gefällt mir
Reaktionen: Infi88
geringe lieferbarkeit = Preis hoch. war anfangs mit den RTX ebenso.
Die momentane implementierung von RT ist zu lahm, DLSS eher ein Weichzeichner denn eine Bereicherung in Leistung/Qualität.
 
@KOKOtm
Die Argumentation ist lustig weil man dann auf die Preislage von Karten mit einer ähnlichen Speicher Ausstattung verweisen kann und die Radeon damit noch viel zu billig wäre. :D
Dazu kommt noch die Leistung bei Berechnungen mit doppelter Genauigkeit, da kommen die Geforce Modelle nichtmal ansatzweise ran, inkl. der Titan. Das sind ganz einfach nur unterschiedliche Auslegungen der Hardware.
 
Dann hätten die vielleicht lieber eine 8GB Variante planen oder die Verfügbarkeit erhöhen sollen. So lockt man jedenfalls keinen aus dem NVidia Lager heraus. Mich interessieren keine Berechnung der doppelten Genauigkeit, sondern die Berechnung der FPS, und da steht sie halt nicht besser da. Ich spiele ich 3440x1440 und habe es bisher noch nicht geschafft, die 8GB Speicher voll zu bekommen, weder Anthem, Division 2 oder Battlefield 5.
 
Schiffe können nicht fliegen, mit nur 8GB wäre es nur eine leicht schnellere Vega64 die extremst an der Speicherbandbreite hängt.
Wenn du in 3440 die 8G Speicher nicht voll bekommst dann hast du die Qualitätsregler aber reichlich runtergestellt
 
@KOKOtm
Nur war die Radeon VII offenbar nicht geplant und der Chip sollte dem professionelen Markt vorbehalten sein.
Den eher kurzfristige Start merkt man ja auch anhand des eher unrunden Zustandes von Kühlsystem und Co., selbst die DP Leistung wurde sehr kurzfristig aufgrund des Kunden Feedbacks noch angehoben.

Wenn ich das richtig verstanden habe dann dürfte der Chip eher für ein Konkurrenzprodukt zur Tesla V100 entwickelt worden sein. Bei den Dingern kannst du preislich nochmal eine 0 hinten dran hängen und die FPS Leistung ist bei denen herzlich egal weil sie ohnehin keine Display Ausgänge besitzen.

Der einzige Grund warum es sie dennoch gibt ist dass die Preislage der entsprechenden Leistungsklasse hoch genug gestiegen ist um sie zumindest kostendeckend zu produzieren.
 
Denniss schrieb:
Wenn du in 3440 die 8G Speicher nicht voll bekommst dann hast du die Qualitätsregler aber reichlich runtergestellt
Bis auf Motionblur habe ich alles Max. Ja, es wird langsam knapp, habe auch schon mal 7.5 GB Auslastung gesehen (RTSS habe ich meistens mitlaufen), aber meistens zwischen 6 und 7GB. 4K ist ja nochmal eine Ecke mehr, da sind die 8GB vermutlich tatsächlich zu knapp.
 
Zurück
Oben