News Quartalszahlen: Nvidia dank Pascal-GPUs erneut mit starkem Quartal

kachiri schrieb:
AMD hat in dem Sinne also auch viel dafür getan, dass NV die Karten so lange so teuer verkaufen konnte..

Sehe ich nicht so. Wir reden hier von GraKas für Spiele und nicht von Karten, mit denen man Geld verdient.
Es braucht also niemand die Mehrleistung, er möchte sie einfach aus hobbygründen haben. Wenn er dafür jeden Preis zahlt ist also nicht AMD (ja noch nicht einmal Nvidia) schuld, sondern einfach der Käufer selbst. Er könnte die Preise bestimmen, bzw zumindest lenken.

Edit: das der Kunde den Preis beim Monopol bestimmt, hast du ja auch geschrieben, grade noch einmal deinen post gelesen.
 
Zuletzt bearbeitet:
Caramelito schrieb:
Die 1070er zw 440 und 500 - Preis einer 1080 eigentlich.. (also früher X80 Karte - das X steht für eine beliebige "Serie" wie zB 980) - Da 0 Konkurrenz.

das ist falsch, es braucht keine Konkurrenz wenn das Unternehmen mit Intelligenten Kunden zu tun hätte,
dies bedeutet nichts anderes als würde keiner bzw. sehr wenig dieses Produkt kaufen würde der Preis nach unten korrigiert werden.


Wobei ich das Forum auch interessant finde, da posen User mit ihrer Position im Job usw. haben aber die einfachsten Dinge im Leben nicht gecheckt.
 
neofelis schrieb:
Was denn nun? Hat AMD denn nun die Chance aus den eigenen Fehlern zu lernen, oder muss AMD (aufgrund der von Dir aufgezählten Nachteile) doch jedes mal wieder mit hohem Risiko pokern, um mit seinen beiden überlegenen Konkurrenten mithalten zu können?

Haha :), nicht wirklich, es bedurfte der riskanten Innovation/Erstentwicklung (HBM1) um dann (auf Basis von HBM2) noch mithalten zu können und somit später daraus (der Speicherlimitierung von HBM1) klug (größeres Speichervolumen und als mögliche, zusätzliche Risikorendite den HBCC Effekt) zu werden ;).

Aus der anfänglichen Fehleinschätzung bei HBM1 hat man also gelernt und davon im Nachfolgeprodukt HBM2 - dass vorerst auf bis zu 16 GB erweiterbar ist - Konsequenzen gezogen und evt. sogar zusätzlich durch das Risiko profitiert und sich kluger Weise mit HBCC einen Vorteil verschafft, das "sowohl als auch" passt schon so und ist nicht zwangsläufig widersprüchlich ;).
 
Terixa schrieb:
das ist falsch, es braucht keine Konkurrenz wenn das Unternehmen mit Intelligenten Kunden zu tun hätte,
dies bedeutet nichts anderes als würde keiner bzw. sehr wenig dieses Produkt kaufen würde der Preis nach unten korrigiert werden.


Wobei ich das Forum auch interessant finde, da posen User mit ihrer Position im Job usw. haben aber die einfachsten Dinge im Leben nicht gecheckt.

ich möchte mich dieser theorie anschliesen. nimm Intel. sie hatte jetzt ein halbes jahrzent? keine konkurrenz. haben jedes jahr 2-5% mehr leistung gebracht, ergo: habe ich keinen neuen Intel gekauft. ganz unabhängig davon das sie ganz alleine den markt beherrschen habe ich dennoch nichts von ihnen gekauft.
 
@Chismon: Ich bewundere immer wieder wie präzise du sämtliche AMD Fehleinschätzungen und daraus resultierende Fehler gekonnt zusammenfasst und dann mit wundersamen Argumenten ins Positive drehst. Alle Achtung. Und ich beziehe mich hier mal konkret auf Post #58. Da kann man nur erstaunt den Kopf schütteln.

Die Nummer mit HBM ist auch so ne Sache. AMD entwickelt es zusammen mit Hynix und nVidia verbaut es dann und fährt die Gewinne ein.
 
Chismon schrieb:
Was alle jetzt neuerdings meinen über HBM - der faktisch dem über etliche Jahre optimierten GDDR - Speicher haushoch überlegen ist, herziehen zu müssen :)?
HBM ist kein Wunderding. Videospeicher hat eigentlich nur drei Bedingungen zu erfüllen: Er muss günstig und dabei gross und schnell genug sein. Mit der Betonung auf genug: Unnötig großer oder schneller Speicher nutzt genau gar nichts und kostet nur unnötig. HBM(2) ist eine (von mehreren) Möglichkeiten, GDDR5X eine andere. Dabei ist GDDR5X günstiger und eben schnell genug. HBM(2) dagegen schießt über das Ziel hinaus und ist, bei unbestrittener potentieller Leistungsfähigkeit, letztlich (zumindest gegenwärtig für den Consumerbereich) einfach nur exotisch und zu teuer.
Fakt ist, dass du zu kurzsichtig/oberflächlich mit Deinen Ausführungen denkst. Also, HBM bietet erstens Platzersparnis, dadurch viel mehr Platz für Shader, etc., ergo Mehrleistung, dann geringerer Verbrauch und daraus resultierend Temperatur, des weiteren höhere Geschwindigkeit/Bandbreite (auch in Zukunft wo bei GDDR bald Schluß mit lustig sein dürfte ohne größere Einschnitte) und "last, but not least" wohl überlegene Adressierung/Nutzungseffizienz dann mit HBCC.
Da liegst du doch etwas daneben: HBM sitzt neben der GPU auf dem Interposer, d.h. die Abwärme muss zusätzlich zu der von der GPU über den Heatspreader abgeführt werden. Platzersparnis auf dem PCB ist zwar gegeben, aber war und ist auch kein Problem, die Grakas werden eher immer kleiner (abgesehen vom Kühlsystem). HBC (und nicht HBCC, HBCC ist nur ein Teil von HBC, nämlich der HBC-Controller)ist nichts neues sondern nur eine Krücke um HBM2 und damit Kosten zu sparen ohne allzu dramatisch an Leistung zu verlieren, da es sich wohl inzwischen wohl sogar bei AMD herumgesprochen hat, dass HBM2 für den Konsumermarkt einfach zu teuer ist. Das ganze ist nur ein Aufguss einer von Billigkarten bekannten Technik aus dem Jahre 2005, damals unter den Namen Turbocache bzw. Hypermemory bekannt.

kidlon schrieb:
Ohne das rote Lager würdest du noch mehr für deine grüne GPU hinlegen.
Andersrum wird ein Schuh draus: AMD müsste ca. 20% höhere Preise nehmen, um wenigstens eine schwarze Null zu schreiben. Können sie natürlich nicht, da sie dann gegenüber der Konkurrenz viel zu teuer wären. Dass du also momentan Grafikkarten so preiswert kaufen kannst liegt also hauptsächlich an den günstigen Preisen von Nvidia.
 
Terixa schrieb:
Und?, kann mir egal sein.
Ich als Kunde kauf die beste Performance/Euro die mir geboten wird.

Ob jetzt Duo oder Monopol ist auch nur egal, solange die Performance pro Euro für mich als Kunde passt.

Keine Sorge, an dieser wird sich NICHTS MEHR ÄNDERN!!!:lol::lol:

Terixa schrieb:
Ne hat sie nicht, Mono oder Duopol macht genau 0,000000% Unterschied.

Wenn Nvidia nicht zu selben Preis mehr Leistung liefert, werden sie auch keine neuen Grafikkarten absetzen,
da ist das vollkommen egal ob da ein Amd ist.


Es wird überall Performance pro Kosten gerechnet.

Ja deswegen hat man die Hawaii Chips auch quasi hinterher geworfen bekommen verglichen zur damaligen Keplers.

Nur hat AMD gemerkt das es so oder so keine Anteile bringt, siehe Fiji und Polaris Preise.


Es ist aber auch kein Wunder, die 1070 steht alleine dar, und hat noch paar Reserven für FHD.
AMD wird mit Vega garkeine Anteile generieren wenn sie sich Preislich an NV Orientieren.
Die Leistung ist mehr oder minder bekannt.
 
Zuletzt bearbeitet von einem Moderator:
DocWindows schrieb:
... bewundere immer wieder wie präzise du sämtliche AMD Fehleinschätzungen und daraus resultierende Fehler gekonnt zusammenfasst und dann mit wundersamen Argumenten ins Positive drehst. Alle Achtung. Und ich beziehe mich hier mal konkret auf Post #58. Da kann man nur erstaunt den Kopf schütteln. AMD entwickelt es zusammen mit Hynix und nVidia verbaut es dann und fährt die Gewinne ein.

Bei einer komplett neuen Speichertechnologie - die Jahre im voraus mit der dazugehörigen GPU Architektur bzgl. des Bedarfs geplant werden muss, auch unter Einbeziehung der knappen Budgetdecke AMDs - kann es natürlich Fehleinschätzungen kommen, da sehe ich nichts verwerfliches darin ... Fehler machen alle ('mal).

Entscheidend ist, ob diese Technologie sich doch mittel- bis langfristig bezahlt macht und kann man das jetzt schon beurteilen bzw. sollte man jetzt schon basierend auf der Gerüchtelage (denn mehr ist es ja nicht) unken und mit dem Abgesang beginnen (?), ich denke nicht ;).

Guter Punkt, wieso wird eigentlich immer nur AMD angeprangert und SK Hynix nicht? Ist denn bewiesen, dass AMD und nicht SK Hynix für das 4GB Limit bei HBM1 verantwortlich war ... soweit ich weiss eben nicht ... wie gesagt, abwarten und Tee trinken, ich bin auch kein Prophet, aber die GPU-Entwicklung ist nun einmal mittel- bis langfristig ausgelegt.

Ja, bei Vega kann man nach vielleicht 4-jähriger Entwicklung nicht 'mal kurz aus Jux und Tollerei den Schalter umlegen und GDDR5X auf die Karten packen anstelle des seit Jahren eingeplanten HBM-Speichertyps ... das ist auch so eine Sache ... so einfach stelle ich mir das jedenfalls nicht vor und ich biete nur vorausschauende Erklärungen an, die halbwegs Sinn machen dürften und nein, ich bin kein Insider und arbeite nicht für AMD (auch, wenn ich bizarrer Weise sogar schon einmal eine Anfrage eines AMD Headhunters auf LinkedIn hatte).

Ich biete lediglich eine Gegenposition zu den hanebüchenen, z.T. auf Gerüchte basierenden Unkenrufen bzgl. AMDs Ausrichtung/Investition in die HBM-Technologie an bzw. biete Argumente zur deren Widerlegung der unbewiesenen Gerüchte an, damit die Atmosphäre hier nicht so ganz einseitig und verschwörerisch herüber kommt :D ... nicht mehr und nicht weniger, aber danke für das (ambivalente) Lob ;).

Tja, nVidia ist momentan noch der Nutznießer für die P100 GPUs, aber außerhalb des Profimarkts ist es ihnen noch nicht gewinnbringend genug und erst wenn AMD sich damit erfolgreich etablieren sollte (und man HBCC abgekupfert hat und an nVidia Jünger als eigene/bessere Innovation verkaufen kann) und dadurch Konkurrenzdruck entsteht, wird auch nVidia dem Kunden diese bessere Speichertechnologie - trotz damit verbunden geringerem Gewinn - bieten müssen.

Ähnlich läuft es doch auch mit DX11 und DX12, nVidia spielt auf Zeit und gewinnmaximierend die marktbeherrschende Position aus, wird dafür von Fans, Aktionären und Presse noch bejubelt ... sehr clever aber auch sehr unsympathisch und irgendwie schon verkehrte Welt ...
 
naja gut , Wert Schuld an Verzögerungen von HBM (2) hat ist erstmal nebensächlich. Fakt ist zum jetzigen Zeitpunkt der dass HBM Vorteile gegen 0 geht, die Nachteile bezüglich Kosten und TimeToMarket überwiegen.

Ja, Vega hat die Möglichkeit das zu ändern. Dazu wäre eine gute Leistung (ne Ecke über GTX 1080 TI OC Niveau) nötig kombiniert mit höheren Verkaufspreisen die man dann verlangen kann. Leistung auch abseits des Balkens spielt da mit rein, zb astronomisch gute minFrames oder Frametimes oder sonstwas wo HBM vielleicht "DEN" Unterschied machen kann. Was das genau sein kann, mal sehen HBCC wird ja oft hergenommen. Ob der zaubern kann und HBM in neuem Glanz erstrahlen lässt wird sich zeigen.

Habs ja eben in den GDDR6 Thread geschrieben. Angesichts der Vorteile von HBM wundere ich mich das AMD nicht 4 Stacks mit Vega kombiniert. Mit 16GB und doppelter Bandbreite wäre die wichtige VRam Größe entschärft und vielleicht die Karte schon am Markt. Vega hat nach jetzigen Kenntnisstand eher zu wenig als zu viel Bandbreite. Nämlich maximal die von Fiji bei deutlich mehr Leistung.

Gut Kompression usw kann das ausgleichen, aber den einstigen Vorteil gegenüber GDDR hat man bei Bandbreite mit nur 2 Stacks nicht. Dazu braucht es 4 wie bei P100.

Auch das mag bei AMD eine wirtschaftliche Entscheidung gewesen sein. Zeigt wie knapp man kalkulieren muss.

Nicht zuletzt wegen dem Zugzang in dem sich AMD seit über einem Jahr befindet ist das Vega Release so spannend. Auch weil man in der Tat einige Marketing Schwergewichte wie HBCC und Tiled rendering kombiniert mit neuen Shader genannt hat. Kann der Überknaller werden oder im dümmsten Fall auf einen Patt GTX 1080 TI / Vega rauslaufen. Und bei letzterem produziert Nvidia mit günstigem Ram, kleinerer DIE, ohne Interposer und Kram, höherer Stückzahl usw einfach massiv günstiger. Das zeigt auch die Marge die Nvidia fährt.

Und klar, preislich mögen beide nachher gleich auf sein. Aber Nvidia gibt dann klar die Preise vor und kann AMD immer locker unterbieten (sofern sie müssten). Man kann dann so steuern dass AMD nicht vor die Hunde geht (also relativ wenig Gewinn / Karte einstreicht) und zeitgleich den eigenen Gewinn relativ hoch halten. Schaut man sich die Zahlen an macht das Nvidia seit Jahren.

Aber malen wir den Teufel nicht an die Wand. Vega kann auch 10-30% vor der GTX 1080 TI liegen. Die Rohdaten geben das her.
Ergänzung ()

Shrimpy schrieb:
Die Leistung ist mehr oder minder bekannt.

mehr oder minder bekannt seh ich bei Vega aktuell nicht gegeben. Was geleaked wurde ist ein 3D Mark zu einer offensichtlich kleinen Vega Karte, vielleicht 3072 Shader, vielleicht niedrigen Takt von 1200 Mhz.

Wenn die große Vega ihre 4096 Shader linear auf die Straße bekommt sind das schon 25% mehr, mit 1500-1600 Mhz wären das nochmal 20% on Top. Relativ zum Leak also 100*1,25*1,2 = 50% mehr. Immerhin.
 
Zuletzt bearbeitet:
jbauer schrieb:
HBM ist kein Wunderding. Videospeicher hat eigentlich nur drei Bedingungen zu erfüllen: Er muss günstig und dabei gross und schnell genug sein. Mit der Betonung auf genug: Unnötig großer oder schneller Speicher nutzt genau gar nichts und kostet nur unnötig. HBM(2) ist eine (von mehreren) Möglichkeiten, GDDR5X eine andere. Dabei ist GDDR5X günstiger und eben schnell genug. HBM(2) dagegen schießt über das Ziel hinaus und ist, bei unbestrittener potentieller Leistungsfähigkeit, letztlich (zumindest gegenwärtig für den Consumerbereich) einfach nur exotisch und zu teuer. Da liegst du doch etwas daneben: HBM sitzt neben der GPU auf dem Interposer, d.h. die Abwärme muss zusätzlich zu der von der GPU über den Heatspreader abgeführt werden. Platzersparnis auf dem PCB ist zwar gegeben, aber war und ist auch kein Problem, die Grakas werden eher immer kleiner (abgesehen vom Kühlsystem). Das ganze ist nur ein Aufguss einer von Billigkarten bekannten Technik aus dem Jahre 2005, damals unter den Namen Turbocache bzw. Hypermemory bekannt.

Das habe ich auch nicht behauptet, aber mittel- bis langfristig ist HBM ein bedeutender Bestandteil von AMDs Produktportfolios und somit Produktestrategie, höchstwahrscheinlich nicht nur im Bereich von GPUs, und ich denke nicht, dass man jetzt schon von Erfolg oder Misserfolg von HBM oder AMDs und SK Hynix Investition darin reden kann.

Des Weiteren lehne ich mich gerne aus dem Fenster und behaupte 'mal kühn, es gab keinen besseren Zeitpunkt (oder eine zweite Chance/Alternative) für AMD um HBM-Speicher zusammen mit SK Hynix zu realisieren und ein wundersamer finanzieller Aufschwung/Segen für AMD war nicht absehbar der das irgendwie besser/billiger gemacht hätte, sondern ohne diese Investition stünde man jetzt bedeutend schlechter da im Vergleich zur Konkurrenz.

Außerdem, ändern kann es hier doch sowieso keiner mehr, was soll also das künstliche Anprangern hier? Findet Euch einfach damit ab, dass es so ist, es muss Euch ja nicht alles gefallen bei AMD und alles was Euch bei AMD stört an die große Glocke gehängt werden, oder?

Angeblich wollte nVidia Micron dazu bekommen HMC anstelle von HBM für sie zu entwickeln und verfügbar zu machen, aber das hat nicht geklappt aus welchen Gründen auch immer und man ist kurzer Hand auf HBM2 umgestiegen. So schlecht ist der Speicher bestimmt nicht wie er hier von einigen geredet wird und in Sachen Erweiterbarkeit und Geschwindigkeit GDDR wohl auch überlegen, welcher bald an die Grenzen mit GDDR6 stoßen dürfte, was die Effizienz und Geschwindigkeiten angeht.

Nur weil Dir oder anderen GDDR5X und im kommenden Jahr noch günstiger GDDR6 reicht muss das ja nicht für alle anderen gelten und ja, nimm an Du irrst Dich und HBM2+HBCC ist ein Meilenstein und schlagkräftiges Kaufargument (weil nVidia nichts vergleichbares bietet) für die AMD Oberklasse-GPUs gegenüber den bisherigen Pascal GPUs mit veralteter/DX11-optimierter Architektur, was ist dann?

Natürlich ist solch eine Investition am Anfang teuer, aber es war zu dem Zeitpunkt als man sich für die Investition und Entwicklung zusammen mit SK Hynix entschieden hat auch nicht abzusehen, dass wie durch ein Wunder die finanzielle Lage AMDs ändern würde und ja, man hat mit HBM2 und HBC Controller als entscheidendes Element - wenn er denn so funktionieren sollte wie von Raja Koduri angepriesen - ein Alleinstellungsmerkmal und natürlich damit auch Kaufanreiz für Kunden, die AMD neutral und aufgeschlossen/unvoreingenommen gegenüber stehen und nicht nur Fans des Unternehmens AMD oder der Markennamen Radeon oder Vega oder nVidia abgeneigt sind.

Und ja, nichts gegen Dich und Deine Argumentation, aber derzeit glaube ich Dir oder irgendwelchen Experteneinschätzungen dazu (aus der Presse) noch weniger als dem AMD RTG Chefarchitekten bzgl. HBM2 und HBCC, das muss ich gestehen und ich hoffe Du siehst mir das nach.

Bis dato machen Su und Koduri auch einen weitaus seriöseren (und authentisch lockereren, ganz zu schweigen von sympathischeren) Eindruck auf mich als nVidias Zampano Huang, der bestimmt auch ein guter Autoverkäufer wäre.

Wenn es nichts bringen würde, dann würde sich AMD nur lächerlich machen und ich hoffe diese Zeiten sind vorbei ... die (Ry-)Zen CPUs waren doch schon einmal ein guter Schritt in die richtige Richtung und sehr positiv für den Kunden/Verbraucher allgemein.

Derzeit sehe ich noch keine tragfähigen Indizien die gegen RX Vega oder HBM2/HBCC und die neue GPU-Architektur sprechen. Falls es aber dann doch so sein sollte in ca. 3 Wochen, dann ginge davon die Welt auch nicht unter, schließlich sind weder Du noch ich mit AMD verheiratet (und selbst wenn das möglich wäre, dann ginge davon die Welt nicht unter :D).

Also, ruhig Blut und abwarten und Tee trinken, in 3 Wochen wissen wir hoffentlich mehr und die Hoffnung stirbt bekanntlich zuletzt und ja, es ist im Interesse aller, egal ob AMD oder nVidia GPU-Besitzern, dass der RX Vega Marktstart glückt und AMD die Produkte gut absetzen und Marktanteile zurück gewinnen kann.
 
Zuletzt bearbeitet:
Bei der ganzen Diskussion hier, das einzige was zählt sind die Zahlen für die Aktionäre und nicht ob man die schnellste Karte hat.
 
Beeindruckendes Ergebnis zu Lasten des Wettbewerbs. Für nvidia eine gute Nachricht, für den Verbraucher leider nicht.
 
Dem uninformierten Kunden (und das ist der Großteil der Käufer) ist es völlig wuppe was für eine Technologie hinter den Grafikkarten steht, die muss funktionieren, möglichst schnell und einigermaßen bezahlbar sein, ob da jetzt HBM oder GDDR5X als Speicher zur Verfügung steht, spielt keine Rolle, hingegen wer die schnellste hat schon, zumindest aus der Sicht der Werbung, denn wer die schnellste Grafikkarte hat, muss ja gut sein.
Die meisten hier in Forum denken da sicher deutlich differenzierter, was ja auch richtig ist, aber die Mehrheit der Käufer eben nicht und die sind wohl die weit aus größere Zahl der Käufer...
 
Schön, gut so. Ja, AMD, es gibt auch noch die echte Welt, in der sich Menschen auch nach eigenen Zeitplänen richten.
 
Chismon schrieb:
Ja, bei Vega kann man nach vielleicht 4-jähriger Entwicklung nicht 'mal kurz aus Jux und Tollerei den Schalter umlegen und GDDR5X auf die Karten packen anstelle des seit Jahren eingeplanten HBM-Speichertyps ... das ist auch so eine Sache ... so einfach stelle ich mir das jedenfalls nicht vor

Es verlangt auch keiner dass man mal kurz nen Schalter umlegt. Es geht um Weitsicht. Nicht mal um elend lange Weitsicht, sondern um mittelfristige. AMD macht den Eindruck als würden sie immer Kopf voraus nach vorn preschen, ohne jenen Kopf auch mal einzuschalten. Man hätte schon ahnen können dass HBM zu Anfang teuer wird und Gamer nicht unbedingt gewillt sind Extrapreise dafür zu zahlen, wenn es gleichzeitig alternativen Speicher für weniger Geld und ausreichender Performance gibt. Wer wenn nicht AMD sollte das bitte wissen? Ergo: HBM für Profikarten, GDDR für Consumerkarten.

Chismon schrieb:
Ähnlich läuft es doch auch mit DX11 und DX12, nVidia spielt auf Zeit und gewinnmaximierend die marktbeherrschende Position aus, wird dafür von Fans, Aktionären und Presse noch bejubelt

nVidia spielt nicht auf Zeit, sondern richtet sich nach der aktuellen Situation. Leute die öfter zu Grafikthemen und DirectX lesen müssten eigentlich auch wissen, dass DirectX 11 nicht durch DirectX 12 ersetzt, sondern ergänzt werden soll. Zumindest auf einen gewissen Zeitrahmen im Jahresbereich. Ein Zeitrahmen der locker dafür ausreicht den Lebenszyklus von einer oder zwei Grafikkartengenerationen zu durchlaufen. Am Ende zählt aufm Platz und nicht aufm Papier.

Nur um nochmal zwei Absätze zu kommentieren. Zu den anderen würde mir aber auch noch was einfallen.
 
Zuletzt bearbeitet:
Chismon schrieb:
Ähnlich läuft es doch auch mit DX11 und DX12, nVidia spielt auf Zeit und gewinnmaximierend die marktbeherrschende Position aus, wird dafür von Fans, Aktionären und Presse noch bejubelt ... sehr clever aber auch sehr unsympathisch und irgendwie schon verkehrte Welt ...

Also dass die Aktionäre jubeln ist vollkommen normal - alles andere wäre bescheuert. Fanboys, die die Produkte nicht objektiv betrachten gibt es bei jeder Firma. Naja, was soll die Presse berichten wenn AMD längere Zeit im High-end Bereich nicht mitspielt.

​War bis Ryzen im CPU Bereich sehr gut vergleichbar.
 
Und Nvidia macht zurecht den Umsatz und Gewinn. RSie liefern aktuell die beste GPU technik am Markt. Pascal ist effizient und trifft genau die aktuelle Marktsituation. Die DX12 schwäche ist nicht wirklich ein problem, bis DX12 wirklich relevant ist, gehört Pascal zum alten Eisen. Dazu haben sie ein gutes marketing und auch im Enterprisebereich liefern sie viel Rechenleistung bei einer vernünftigen Effizienz.

Kepler war damals ein super genialer Wurf für Nvidia, die daraus abgeleiteten und stark verwandten Maxwell und Pascal Chips zeigen dies mit erfolg. Dazu haben sie es in dieser generation endlich geschafft, Notebooks mit ordentlichen leistungsstarken karten auszustatten.

man darf gespannt sein, was vega im markt bewegen wird und ob AMD damit endlich wieder an Nvidia anknüpfen kann. GCN ist einfach am Ende, noch größere Chips und taktungen sind mit der Effizienz einfach nicht drin
 
Shoryuken94 schrieb:
Die DX12 schwäche ist nicht wirklich ein problem, bis DX12 wirklich relevant ist, gehört Pascal zum alten Eisen.
Und wenn sich jetzt "alle" dank Ryzen (und entsprechender Preisanpassungen bei Intel) flottere CPUs zulegen, sinkt auch der Druck, DX12 zur Entlastung der CPU zu verwenden. ;)
 
Terixa schrieb:
Beachtlich, Nvidia macht nur mit der Primären GPU Sparte um einiges mehr, wie AMD als gesamte Firma:lol:


Tja so recht sich das ganze;
zuerst werden die 120 euro Kunden verarscht mit einer 460, wo selbst eine 950 schneller ist
im Highend bringt man gleich gar nichts mehr

Bei den Cpus geht man nur an Oberklasse ran
(Wo selbst Intel bei Desktop das meiste Geld nur bis 189 Euro macht)
Hä? Ich habs jetzt 3x gelesen, aber ich versteh immer noch kein Wort.
 
Zurück
Oben