News GeForce-Grafikkarten: Nvidia sprengt Erwartungen mit Rekordzahlen

Richthofen schrieb:
Die Software gehör nunmal dazu. Das Ganze ist und bleibt ein Gesamtprodukt. Hardware + Software. Und von Bremsen zu sprechen ist schlichtweg Quatsch.

Einseitige Software Optimierungen haben in Spielen nichts verloren, das ist was für Grafik Demos.
Wenn das als normal empfunden wird ist der Wettbewerb ohnehin schon tot und man brauch sich nicht zu wundern wenn entsprechende Produkte beim Konkurrenten keine Priorität haben.

Ich sage es gern nochmal, wer keinen Wettbewerb wünscht, nein preisdrücker Produkte ohne Kaufabsicht sind kein Wettbewerb, brauch sich auch nicht darüber beklagen wenn er keinen mehr bekommt.
 
BestinCase schrieb:
AMD muss die Zahlen veröffentlichen, die stehen auch iwo auf der AMD Seite, ist der RTG Bereich, kann es aber immo nicht finden...

Eben nicht. AMD muss gar nichts, wie man sieht. Hauptsache anderen Unsinn unterstellen aber die Aussage dahinter nicht verstehen. Liefere aufgeschlüsselte Zahlen.
 
Wadenbeisser schrieb:
Auch wurden Features bei der Vega nachgeliefert oder deren Nutzbarkeit ist höchstens fraglich

Primitive Shader und der HBCC sind standardmäßig deaktiviert, weil sie Probleme machen und für ersteres gibts im besonders keine Extensions für eine API und auch keine Treiberlösung was den Verdacht bestätigt dass dieses Feature gar nicht umzusetzen ist.

Im Gegensatz dazu existiert keine GTX970 mit den Daten mit der sie vorgestellt wurde. Das Ding war von Anfang an eine Täuschung des Kunden und was du treibst ist der Versuch das zu zerreden

Ich zerrede gar nix, das is doch bloß eine Erfindung von dir weil du nicht klarkommst dass ich auch AMD kritisiere. Die Welt ist halt nicht Schwarz-Weiß sondern hat auch seine Grautöne und du glaubst doch nicht ernsthaft dass ich es gut finde wenn ein Hersteller eine Karte mit geschummelten Daten verkauft.:freak:

Und ob 0,5GB über eine halbwegs funktionierende Crossbar schlimmer sind als fehlende beworbene Features die im Treiber dann nicht aktiviert sind oder gar nicht aktiviert werden können, da kannst du ganz alleine drüber philosophieren.

Ich hab nur gesagt es ist das selbe Verhalten. Versprochenes nicht liefern.

r4yn3 schrieb:
Primitive Shader wurde ja schon öfters erwähnt. Es war seit den ersten Gerüchten bei jeden Technik Preview mit dabei. Jetzt schiebt man den schwarzen Peter zu den Entwicklern. Wie oft hat man Maxwell an den Pranger gestellt, weil man kein richtiges asynchronous compute konnte. Und hier bei AMD greift der Underdog Bonus um zu sagen "Hey schon gut AMD, ihr habt es ja versucht"?

Das ist das beste Beispiel für eine himmelschreiende Doppelmoral, aber das merken die halt eben nicht wirklich dabei war asynchronous compute nun wirklich ein unnützes Feature das kaum Leistung gebracht hat und der Aufwand in keinem Verhältnis zum Nutzen stand und wenn ich mich recht erinnere kann async compute auf Maxwell gar ned funktionieren, weil die den Cache immer leeren müssen bevor man etwas anderes abarbeitet, bin da aber nicht auf dem neuesten Stand.
Mit Preemption auf Pascal wurde es dann besser, aber bei der geringen Verbreitung von Directx12 is das ganze eh nicht wichtig, aber klar Nvidia ist mit seinen Versprechungen da unehrlich gewesen.

Dark_Knight schrieb:
Ebenso ist es halt das übliche nicht Wissen was verbreitet wird. Fakt ist das die Geforce Karten eben beschnitten sind um in genau 1 Bereich zu funktionieren: Gaming.
Mehr können die Karten eigentlich nicht wirklich gut.

Komisch dass dann Polaris genauso wie Vega hinter Pascal hinterherhinkt. Und der erstere soll ja laut dir ein Gamingchip sein und Vega ein professioneller Computechip sein.
Das sind nur Ausreden. Vega ist genauso ein Gamingchip wie Polaris, hat ein Double Precision zu Single Precision Verhältnis von 1:16, keine Tensor Cores, keinen ECC RAM.

Hätte man Vega als Compute-Chip gewollt, hätte man sich die Transistoren für gesteigerte Taktraten, HBCC, DSBR, Primitive Shader uvm. sparen können das kann keine Ausrede sein.

Hawai hatte ein DP Verhältnis von 1:2 und war effizienztechnisch mit Kepler gleichauf.

Sebbi schrieb:
sry aber da muss ich sagen, nivida hat nur starke karten durch die Optimierung auf diese und durch propitäre Bibliotheken wie Gameworks. Genau das bremst auch die AMD karten auf der anderen Seite aus. Diese Bremsen umgeht AMD in neuren Treibern dann.

Gameworks wird in Spielen nicht nachteilig für AMD eingesetzt, Ausnahmen bestätigen die Regel (Witcher Tesselation)
AMD hat ein Monopol im Konsolenmarkt und alleine dafür werden die Spiele für AMD entwickelt, nvidia hat da null Vorteile.

Wadenbeisser schrieb:
Einseitige Software Optimierungen haben in Spielen nichts verloren, das ist was für Grafik Demos.

Dann bitte Doom und Wolfenstein streichen, die haben einseitige shader instrinsics die nur auf AMD Grafikkarten laufen.
 
Zuletzt bearbeitet:
@Gschwenni
Wenn primitive Shader vom jeweiligen Spiel gezielt angesprochen werden muss, was willst du dann (de)aktivieren?
Und HBCC im Treiber Menü zu aktivieren dürfte wohl das kleinste Problem sein.

Das du jetzt bei der Speicher Geschichte um die GTX970 die nicht dokumentierte Kastration des L2 und der ROPs ignorierts, was ja letztendlich die Ursache des Problems war, spricht mal wieder Bände. Das Ding wurde von Anfang an mit falschen Daten raus gebracht und die Ursache, die Kastration der Hardware, wurde nie behoben...Punkt.
Dieser Betrug am Kunden hatte zudem auch noch 0 Auswirkungen auf den Absatz und damit auf das Unternehmen, weshalb man auf die nächste Runde warten kann.
Du gibst nur das typische Marketing Geblubber ab das ich ehrlich gesagt auch erwartet hatte.
 
Wadenbeisser schrieb:
Wenn primitive Shader vom jeweiligen Spiel gezielt angesprochen werden muss, was willst du dann (de)aktivieren?

Ob die gezielt angesprochen werden müssen, dann müsste AMD eben erklären wie das geht.;)

Und HBCC im Treiber Menü zu aktivieren dürfte wohl das kleinste Problem sein.

Es bringt aber keine Vorteile selbst dann wenn der RAM knapp wird, deswegen ist es aus.

Das du jetzt bei der Speicher Geschichte um die GTX970 die nicht dokumentierte Kastration des L2 und der ROPs ignorierts, was ja letztendlich die Ursache des Problems war, spricht mal wieder Bände.

Ich ignoriere gar nichts, stimme dir da voll zu, das wurde kastriert und falsch angegeben.:)

Das Ding wurde von Anfang an mit falschen Daten raus gebracht und die Ursache, die Kastration der Hardware, wurde nie behoben..

Richtig und jetzt zeige mir mal wo ich was anderes gesagt habe.
Strohmann Argument nennt man das.

Dieser Betrug am Kunden hatte zudem auch noch 0 Auswirkungen auf den Absatz und damit auf das Unternehmen, weshalb man auf die nächste Runde warten kann.

Der hatte 0 Auswirkungen weil die Karten schon getestet und für gut befunden wurden.
Es ist Betrug, dennoch hatts einfach wegen fehlender Auswirkungen niemanden interessiert.
Ich hätte mir ja eine Verurteilung gewunschen, aber das Leben ist halt kein Wunschkonzert.

Du gibst nur das typische Marketing Geblubber ab...

Eigentlich überhaupt nicht nein, nur wenn du AMD mal kritisierst bist du halt ganz ganz schnell auf der Seite des bösen, da hilfts auch nix wenn du hier AMD Hardware verkaufst und AMD Hardware besitzt.:freak:
 
Zuletzt bearbeitet:
Was juckt den Kunden wie das geht wenn das vom Spiel angesprochen werden muss? Schon bist du wieder im Zerredemodus....
Hättest du die Geschichte um HBCC mal verfolgt dann hättest du auch mitbekommen das es vom Spiel abhängt ob es was bringt oder nicht, da gab es ja schon diverse Tests zu und wieder...Zerredetaktik denn entgegen deiner Aussage ist es vorhanden und nutzbar.

Da du aber mal wieder in den "ignore, retry & spam" Modus verfällst kann ich mir aber jegliche weitere Kommentare dazu sparen da das schon zig mal in deiner Anwesenheit durchgekaut wurde. Du versuchst Sachen anzudichten (z.B. es gäbe kein HBCC & primitive Shader) um die Verfehlungen von nvidia schön zu reden oder zumindest zu relativieren und das war es auch schon.
 
Was hats den Kunden gejuckt wieviele ROPs eine GTX970 hatte oder wie groß der L2 Cache war? Man hat sich sogar die Mühe gemacht den Treiber dahingehend anzupassen, dass man die schwachen 0,5GB kompensiert. Ich konnte Doom auf meiner 970 mit Nightmare Texturen flüssig spielen. Zugegeben, ich konnte es mit etwas herumspielen schon erzwingen, dass der Treiber versagt und die Leistung schlecht war. Out of the Box aber hat das funktioniert.

Bezüglich Primitive Shader, laut der reddit Diskussion (ja man mag reddit nicht) https://www.reddit.com/r/Amd/comments/8gaklo/can_we_get_an_official_statement_regarding/ hat AMD selbst noch nicht mal eine Dokumentation darüber wie man PS implementiert.
Ernst gemeinte Frage, warum veröffentlicht man keine Tech Demo die genau auf Primitive Shader abzielt, um zu zeigen was möglich wäre?

AMD ist da was die Features angeht schon etwas eigen. HBCC hat bis heute kaum einen nennenswerten Vorteil oder liegt fast schon in den Messtoleranzen. Wie effektiv der DSBR arbeitet kann man eigentlich bis heute nicht sagen, da man noch nicht mal weiß ob er überhaupt bei jedem Spiel läuft (die Karte kann ja selbst entscheiden ob an oder aus). Und zu den PS hat man sich auch ewig lang nicht geäußert.

Ich kann hier zwar nur für mich sprechen, aber für mich waren das 3 Features die mich vor meinen Vega kauf hoffen ließen man könne richtig was bewewgen. Game changer halt. Dass die Karte am ersten Tag nicht ihr volles Potential hat, gut, das war mir klar. Aber dass ich hier Treibertechnisch fast 1 Jahr später kaum Fortschritte sehe tut schon weh.
 
Überrascht mich nicht, dass Nvidia so gutes geschäft gemacht hat. Bei dem Mining-Wahnsinn waren die ganzen GTX Karten Ruck Zuck ausverkauft, die konnten nicht mal schnell genug nachproduzieren um die Nachfrage zu sättigen. :D
 
r4yn3 schrieb:
Ich kann hier zwar nur für mich sprechen, aber für mich waren das 3 Features die mich vor meinen Vega kauf hoffen ließen man könne richtig was bewewgen. Game changer halt. Dass die Karte am ersten Tag nicht ihr volles Potential hat, gut, das war mir klar. Aber dass ich hier Treibertechnisch fast 1 Jahr später kaum Fortschritte sehe tut schon weh.
Jup. Gerade Primitive Shader war bei der Vorstellung ein Riesending. Bevor die Treiber-implementierung seitens AMD ausgeschlossen worden war. Da hat das große Grübeln begonnen, wie viel die Karten noch leisten können werden, wenn die Treiber weiter sind. Stand heute sieht es aber so aus, als haben diejenigen Recht behalten, die nicht an den "Wundertreiber" geglaubt haben. :D

Ich persönlich muss sagen: Ich bin weniger von dem enttäuscht, was aus Vega geworden ist, sondern vielmehr davon, wie unsäglich lange es gedauert hat. Ich hab noch den Werbespot mit den Trommeln und dem Warnschild "Poor Volta" im Kopf.
Tja, war wohl nichts. ¯\_(ツ)_/¯
Einziger dicker Pluspunkt, der den Karten noch bleibt ist Freesync. Kein Mensch will sich die riesige Einschränkung mit G-Sync antun, wenn er nicht muss. Aber kaufen kann man die Karten zurzeit ja eh nicht (bei Verstand).
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Was juckt den Kunden wie das geht wenn das vom Spiel angesprochen werden muss? Schon bist du wieder im Zerredemodus..

Es juckt den Kunden auch nicht, der sieht nur es geht nicht, genau das meinte ich auch.
Wenn es nicht geht, dann geht es halt nicht.

Wadenbeisser schrieb:
Hättest du die Geschichte um HBCC mal verfolgt dann hättest du auch mitbekommen das es vom Spiel abhängt ob es was bringt oder nicht, da gab es ja schon diverse Tests zu und wieder...Zerredetaktik denn entgegen deiner Aussage ist es vorhanden und nutzbar.

Ja hin und wieder bringt es minimal was und hin und wieder bringt es nichts und dann schlechte Frametimes.
Im Schnitt bringt das gar nichts und wenn wirklich V-ram gebraucht wird, ist HBCC nutzlos, weil der RAM zu langsam ist.
Nutzen tut hier nur AMD´s internes Speichermanagement, wenn das vom Spiel schlecht umgesetzt ist.
Unterm Strich bringt der HBCC gar nichts, was glaubst du wieso AMD das Feature deaktiviert.


Wadenbeisser schrieb:
Da du aber mal wieder in den "ignore, retry & spam" Modus verfällst kann ich mir aber jegliche weitere Kommentare dazu sparen

Schön wärs wenn ich mir das nicht immer anhören müsste.
Glaube einfach an daran dass ich Nvidia huldige und gut ist.

Wadenbeisser schrieb:
Du versuchst Sachen anzudichten (z.B. es gäbe kein HBCC & primitive Shader) um die Verfehlungen von nvidia schön zu reden

Das hier ist immernoch ein Nvidiathread und eigentlich geht es um die Wirtschaftszahlen.
Und nein GPP oder die Sache mit der GTX 970 sind nicht mit AMD´s Verfehlungen entschuldbar, aber AMD hat sich nunmal ähnliches geleistet.
FineWine, DSBR, HBCC, Primitve Shader, Halfprecision etc... und was das alles bringt und wie geil das ist.
Wie lange ist man auf dem fehlenden Async Compute Treiber für Maxwell rumgeritten...und hier ist das fehlen von wichtigen Features die man als Gamechanger bewarb dann egal.

Wadenbeisser schrieb:
oder zumindest zu relativieren und das war es auch schon.

Nein darum gehts mir nicht. Nur du machst das.
 
Zuletzt bearbeitet:
Beitrag schrieb:
Ich persönlich muss sagen: Ich bin weniger von dem enttäuscht, was aus Vega geworden ist, sondern vielmehr davon, wie unsäglich lange es gedauert hat. Ich hab noch den Werbespot mit den Trommeln und dem Warnschild "Poor Volta" im Kopf.
Tja, war wohl nichts. ¯\_(ツ)_/¯

Die hängen mangels Testmöglichkeit genauso in der Luft wie die anderen.

@Gschwenni
Da du Gebetsmühlenartig doch nur immer wieder das selbe runterleierst ohne dich damit zu beschäftigen (könnte ja das Gegenteil bei rauskommen) schenke ich es mir weiter auf dich einzugehen.
 
auch mit "alten Karten"/Technik lässt sich Geld verdienen :rolleyes:
 
flappes schrieb:
...schon ist deine These absolut falsch ... letzten ~12 Jahren, hatte ich von nvidia 3 Karten und von AMD 4 ... die 1070 ist der nicht vorhandenen AMD Konkurrenzkarte überlegen, sowohl, Leistung und als auch beim Stromverbrauch.

Deshalb schrieb ich "vielleicht eine gewagte Gegenthese" ;), immerhin 3 nVidia GPUs und zuletzt eine GTX 1070, der Trend passt jedenfalls bzw. Du scheinst ja kein Problem mit einem Quasi-Monopol und steigenden GPU-Preisen zu haben.

So so, eine GTX 1070 ist einer RX Vega 56 überlegen, worin denn außer dem geringeren Stromverbrauch (?) ... genau in sonst gar nichts, sondern durch die Bank unterlegen, denn aus dem Grund hat nVidia erst eine GTX 1070Ti aufgelegt, egal wie schön Du Dir Deinen GPU-Kauf auch reden möchtest :p.

Ach ja, mittlerweile ist es auch der Preis der eine angestaubte GTX 1070 scheinbar attraktiver macht, aber für den Mining-Boom und dass die RX Vega GPUs sich so exzellent zum Mining eignen, kannst Du sicherlich eben nicht AMD verantwortlich machen (dafür sind diese nicht primär entwickelt worden bzw. über die 4-6-jährige GPU-Entwicklungsdauer ist so eine Entwicklung nicht eingepreist worden).

flappes schrieb:
... warum sollte ich einen technisch schlechteres Produkt kaufen? Nur um dem süßen Underdog zu helfen?
Nochmal zum Mitschreiben: AMD hat es selber verbockt, aus vielen Gründen.

Technisch/basierend auf der Architektur ist die RX Vega 56 der GTX 1070 (die nicht einmal komplett das DX12.1 Feature-Set abdeckt, denn das machen die RX Vega GPUs als erste) deutlich überlegen, auch wenn das bisher leider nur vereinzelnd ausgenutzt wird von den Entwicklern.

Neben dem Stromverbrauch und der durch die Nachfrage von Minern extrem angestiegenen Preise, kannst Du wirklich gar nichts auf Seiten einer GTX 1070 hier anführen, dann müsstest Du schon mindestens eine GTX 1070Ti oder eine GTX 1080 anführen.

Dass AMD/RTG sicherlich einiges bis vieles falsch gemacht hat, habe ich ja bereits selber verlauten lassen, aber das ist kein Grund dafür nVidia über den grünen Klee zu loben.


flappes schrieb:
... meine Mutti bezahlt mir nicht den Strom, den bezahl ich selbst, von daher finde ich das Argument nicht lächerlich. Und? Sinds halt 30 Euro im Jahr, 30 Euro sind 30 Euro! Ist ja nicht jeder so ein Geldbonze wie du. Netter Nebeneffekt des geringen Verbrauchts: geringe Wärmeentwicklung und leise Lüfter. Aber hey, total lächerlich.

Mir zahlt den Strom aktuell auch keiner und ich gurke mit einer deutlich älteren GPU umher als Du (soviel zum Thema Bonze, oder ist Dein PC System auch im Schnitt 6 Jahre alt(?) ... nicht(?), nun gut, da lagst Du mit Deinen Mutmaßungen aber kräftig daneben), aber bei einer unteren Oberklasse GPU fängt das Argument Stromverbrauch schon an ein wenig lächerlich zu werden, aber wenn man sonst nichts ins Feld führen kann, dann muss man es eben damit versuchen, nich' ;).

flappes schrieb:
... TROTZ Mining-Boom verdient AMD kein Geld.... ist das die Schuld von nvidia??? Komische Ansichten hast du.

Wie kommst Du darauf, dass AMD/RTG kein Geld verdient? Natürlich machen die Boardpartner und Händler die größten Gewinne durch den Mining-Boom, aber insgesamt hat die GPU-Sparte durch die gute Umsatzlage in Sachen Marktanteilen sogar gegenüber nVidia im letzten Quartal zugelegt (wenn auch eben durch den Mining-Sondereffekt und nicht wegen der Gamer).

So schlecht können die Polaris und RX Vega Produkte also nicht sein, wie hier oft genug geunkt/behauptet wird, auch wenn sie für Dich nicht in Frage gekommen sein sollten.

flappes schrieb:
... AMD hatte monatelang Lieferprobleme (Mining) und in den Bilanzen ist trotzdem kein immenser Gewinn.

Der immense Gewinn landet bei anderen (s.o.) und wenn Du Apple, OEMs, Intel und Boardpartner zu bedienen hast und nebenher die HBM2-Fertigung alles andere als reibungslos läuft, dann ist das ebenso.

Natürlich hätte es besser organisiert/gemanagt werden können und der Marktstart nicht so in den Sand gesetzt werden können für die RX Vega Gaming-GPUs (typisch AMD/RTG eben), aber in Anbetracht was da alles zusammen kommt und dass dann auch nicht der Chef der Grafisparte zu Intel wechselt, ist das aktuell sicherlich kein Zuckerschlecken für AMD/RTG und nicht alle Probleme sind hausgemacht.

flappes schrieb:
... Das interessiert mich als Gamer einen sch... ... ich schrieb ja auch extra "Gaming".
Für Compute finde ich die gut, aber als Zocker juckt mich das nicht..

Tja, aber das Gaming ist für AMD/RTG eben nicht der Nabel der Welt, insbesondere dann nicht wenn über Jahre hinweg die Leute bei der Konkurrenz/dem Marktführer kaufen (AMD nur gerne als Preissenker für nVidia Produkte am Markt sehen wollen ohne bereit zu sein, erstere auch zu kaufen ... so eine Milchmädchen-Rechnung geht auf Dauer nicht auf), selbst wenn die eigenen Produkte besser/überlegen waren.

Dann gibt es eben mehr Compute und weniger Gaming und woher sollen auch die Finanzen kommen um eine reine Gaming-GPU Serie aus dem Boden zu stampfen, wenn jahrelang nur der Marktführer einseitig gekauft wird ... irgendwann muss dann das Forschungsbudget zusammen gestrichen bzw. minimiert werden und ja, das liegt dann auch in der Verantwortung der Konsumenten (wenn diese nicht fähig sind strategisch, im Sinne eines Marktgleichgewichts (gleichwertige Produkte) einzukaufen) und nicht nur alleinig beim Hersteller.

Als Zocker juckt es Dich jetzt - kurzfristig gesehen - vielleicht nicht, aber wenn AMD/RTG vom Markt verschwinden sollte bzw. nur noch Halbgenerationen (mit Schwerpunkt auf Einsteiger -und Mittelklasse-GPUs) heraus bringen sollte, dann kann ich Dir versprechen, dass es Dich irgendwann preislich gewaltig jucken wird und PC Gaming dann wohl auch (noch mehr) an Boden gegenüber Konsolen-Gaming verlieren könnte.

flappes schrieb:
... bisher kauften Leute nach ihren Ansprüchen, Gamer Karten zum Zocken und Compute-Nutzer halt Karten die ihren Zweck am besten erfüllt.

Die Abspeckung im Bereich Compute und alleinige Ausrichtung auf Gaming ist von nVidia auch immer mehr vorangetrieben worden, früher war das noch nicht so und natürlich braucht eine Karte mehr, die eine ordentliche Compute Leistung mitschleppt, aber das wird in GPU-Tests (hier auf CB wie auch anderweitig) ja auch nie reflektiert ;).

AMD/RTG verfolgt den Ansatz beides, also eine vollwertige GPU-Architektur für Allrounder, bieten zu wollen (die natürlich dann auch mehr Saft ziehen muss), wohingegen nVidia jeden Bereich einzelnd bedienen will und dabei natürlich dann auch die Gewinnmargen höher ausfallen (der Konsument aber eigentlich weniger für das Geld bei nVidia bekommt, da dessen Horizont nicht über mehr als einen Anwendungsbereich hinausgehen soll und man so gezwungen wäre sich 2 oder mehr GPUs für verschiedene Anwendungsbereiche zu kaufen).

flappes schrieb:
... Wie hat AMD davon profitiert? Warum nicht? Schuld von nvidia?
Hätte AMD doch richtig schön ausschlachten können.

Eine Frage der Unternehmenskultur und zudem sind viele Leute leider zu (marken-)verblendet und lassen sich gerne von nVidia durch den Kakao ziehen, wissen nicht darum bzw. kennen sich in der Materie nicht aus ... Gründe dafür gibt es einige, das würde den Rahmen sprengen.

Also ja, Schuld von nVidia (nicht, dass AMD/RTG die Unschuld vom Lande ist, aber dennoch um einiges besser als das was nVidia in Sachen Kundenpolitik abzieht, wohl auch aufgrund der Marktposition und weil sie es dadurch meinen (den Kunden und Boardpartner aufdrücken) zu können), aber Dich scheint das ja nicht zu kratzen bzw. in Deine Kaufentscheidung scheint das nicht einzufließen.

flappes schrieb:
... Schließt sich bei Firmen per se aus. Gewinnorientiert, egal ob nvidia oder AMD..

Wenn man es sich ganz einfach macht, vielleicht, aber dann gehörst Du zu den allerletzten die ein Recht haben sich über die Markt- und Preisentwicklung bei GPUs zu beschweren, denn durch Dein Kaufverhalten berücksichtigst Du das eben überhaupt nicht ;).

Für mich gehört als mündiger Konsument das Auftreten und Kundenpolitik einer Firma genauso dazu wie die Produkte, die diese Firma anbietet ... was würden andere wohl geben, wenn sie diese Wahlfreiheit hätten, die in manchen Gegenden der Welt eben nicht gegeben ist.

Wenn eine Firma versucht die Kunden auf Teufel komm raus zu verkackereiern - wie das bei nVidia schon etliche Male der Fall war, vor kurzem mit deren GPP Initiative - dann kannst Du mit Deinem Kaufverhalten auch darüber abstimmen bzw. dem entgegen wirken (in dem Du zu Produkten der Konkurrenz greifst oder einfach deutlich länger bei dem bleibst was Du aktuell nutzt) und das gilt für jeden anderen Hersteller natürlich auch, egal in welchem Marktsegment/-bereich ... egal, ob das nun der VW-Konzern wegen der Dieselaffaire und ausbleibender Entschädigung Betroffener und gleichzeitig Spitzengehälter- und -abfindungen von deren Managern ist oder weil Facebook die eigenen Nutzer nach Strich und Faden ausspioniert hat.
 
Zuletzt bearbeitet:
Killer1980 schrieb:
Wenn man keine Konkurrenz hat ist es auch verständlich. AMD muss aus dem quark kommen sonst sehe ich schwarz.
Ich will wieder AMD karte um freesync Monitor kaufen zu können. Und ich möchte den wattman. Und ich will nvidia kein Geld mehr in den rachen schmeißen.
Nicht nur die Leistung ist bei Nvidia besser, sondern auch die Verfügbarkeit, zum
Teil auch der Preis. Da wird in diesem Jahrzehnt nicht mehr viel passieren.
 
Wenn Konkurrenzprodukte bei der Produktsuche nicht zur Debatte stehen ist auch nicht an Konkurrenz interessiert und brauch sich nicht zu wundern oder gar darüber beklagen wenn es keine mehr gibt.

Die Radeons sind deshalb so teuer und schlecht verfügbar weil sie ganz einfach vergriffen weil ausverkauft sind.
Nur eben nicht von Spielern die sie nur als Preisdrücker sehen sondern von Leuten die sie nutzen und damit Geld verdienen wollen.
 
Wadenbeisser schrieb:
Da du Gebetsmühlenartig doch nur immer wieder das selbe runterleierst ohne dich damit zu beschäftigen (könnte ja das Gegenteil bei rauskommen) schenke ich es mir weiter auf dich einzugehen.

Na Gottseidank, dann kann ich in Zukunft also etwas schreiben ohne sofort von der AMD Armada niedergemacht zu werden.

Wadenbeisser schrieb:
Wenn Konkurrenzprodukte bei der Produktsuche nicht zur Debatte stehen ist auch nicht an Konkurrenz interessiert und brauch sich nicht zu wundern oder gar darüber beklagen wenn es keine mehr gibt.

Wo steht denn bitte eine Vega56 oder 64 bei den Preisen zur Debatte? Die RX580 war auch lange Zeit einfach viel zu teuer.

Nur eben nicht von Spielern die sie nur als Preisdrücker sehen sondern von Leuten die sie nutzen und damit Geld verdienen wollen.

Spieler sehen AMD Karten nicht als Preisdrücker, sondern würden sie auch kaufen wenn sie durch die Bank gut wären.
Hör doch mal auf immer irgendwem die Schuld zu geben, da ist AMD schon selber verantwortlich.
 
Zuletzt bearbeitet:
@Pizza-König
Dann teile mir doch mal mit, welcher Part meines Posts für dich so beleidigend ist.

Auch das du mir schon wieder unterstellst das ich ein Fanboy bin der nur hier postet um Kleinkriege zu führen ist merkwürdig. Denn ich schreibe doch offen, das nVidia gute Karten für den Gamingbereich hat. Wie kann ich da bitte ein Fanboy sein? Dann müsste ich ja entweder nVidia Produkte oder AMD Produkte immer schlecht reden. Mache ich aber nicht. also erkläre mir mal wie das mit Fanboy vereinbar ist?

@Sebbi
Ich weiß, kommt vielleicht nicht in meinem Post rüber. Aber mir ist durchaus bewusst warum die Geforce Karten so gut abschneiden.
Naja eigentlich schneiden sie sogar sehr schlecht ab, wenn eine reine Gamingkarte sich nicht wirklich von einer Allroundkarte absetzen kann. Und das trotz der vielen Spiele die auf nVidia optimiert sind. Aber das würde nur wieder andere User verunsichern wenn man ihnen dies vor Augen führt. ;)
Aber für das was von den meisten Spielen verlangt wird, damit diese flüssig laufen, reicht es halt sehr gut.
 
andererseits kann man sagen, das amd sehr schlecht abschneidet, wenn man mit gut 80% mehr transistoren im chip gerademal mit der konkurrenz mithalten kann.
 
r4yn3 schrieb:
Eben nicht. AMD muss gar nichts, wie man sieht. Hauptsache anderen Unsinn unterstellen aber die Aussage dahinter nicht verstehen. Liefere aufgeschlüsselte Zahlen.

Kann er eben nicht. Da wird er lange suchen und nichts finden eben weil AMD diese Zahlen in den eigenen Quartalsberichten nicht mehr rausgibt. Ich verfolge Quartalszahlen von Intel, Nvidia und AMD seit über 15 Jahren. Ich weis wie man diese Dinger lesen muss und was bestimmte Verklausulierungen bedeuten. Und das AMD die GPU Zahlen nicht mehr gesondern herausgibt liegt einfach daran, dass diese nach wie vor im historischen Vergleich mies sind. AMD hat genau just in dem Moment damit angefangen diese mit CPUs zusammenzufassen als es mit dem GPU Geschäft abwärts ging. Würde AMD die Zahlen exakt aufgeschlüsselt angeben, müsste sich AMD ne Menge hässlicher Fragen von Analysten und Investoren anhören, denn die würden sofort sehen, dass es weniger ist als selbst die eigenständige ATI mal gemacht hat. Das wird insbesondere dann unangenehm, wenn der Markt in Summe für GPUs brutal gewachsen ist. Dann würde jeder sofort sehen, dass ein Großteil dieses Wachstums und der zu vergebenden Dollars 1:1 bei Nvidia in der Tasche gelandet ist.

Solches Tarnen und Vertuschen ist legal und an der Tagesordnung. Hat Nvidia auch mal gemacht, als es der Tegra SParte nicht besonders ging. Da ist die auch von einem aufs andere Quartals einfach von der Bildfläche in den BErichten verschwunden, damit nur niemand vergleichen kann. Das ist alles konform und legal. Heißt aber nicht, dass man den Käse dann einfach vom Unternehmen abkauft. Und bei AMD geht der überwiegende Teil der Erholung auf die CPUs und nicht die GPUs. Das ist einfach fakt. Sollte die GPU Abteilung mal wieder glänzen, gehe ich jede Wett ein dass wir diese dann plözlich in den Berichten wieder schön aufgeschlüsselt sehen werden. Bis dahin müssen sich alle mit dem allgemeinen Bla Bla zu den Quartalszahlen zufrierden geben. Die richtigen Schlüsse daraus kann man trotzdem ziehen.
 
acc schrieb:
andererseits kann man sagen, das amd sehr schlecht abschneidet, wenn man mit gut 80% mehr transistoren im chip gerademal mit der konkurrenz mithalten kann.

würde gerne wissen wie du auf die 80% mehr transistoren kommst? die 1080ti hat 12000M transistoren vs Vega 12500M. nach deiner rechnung hätte die vega 21600M Transistoren oder wie ist das gemeint.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben