News Nvidia schließt Geschäftsjahr mit Rekordumsatz

Zum ersten mal seit längerer Zeit bringt nvidia eine Serie schneller auf den Markt als AMD und schon heißt es das sie nicht mithalten können. Faszinierend.

Andere würden vielleicht sagen das sie sich mit den Neuerscheinungen regelmäßig abwechseln.
 
Ferax schrieb:
Das war der letzte Thread den ich hier zum Thema Grafikkarten gelsen habe.

Bereits auf Seite eins wird durch die Wortwahl und Unsachlichkeit klar das hier die wenigsten die Reife besitzen objektiv und technologisch zu differenzieren.

Ist wirklich schade was manche für eine Brille aufhaben und welche harten Worte sie in ihren Text einbauen müssen um andere Mund tot zu machen oder sollte ich sagen - Holz ins Fanboy Feuer zu schmeißen?


Musst Du nicht, die Nachricht fällt unter das Thema "Wirtschaft, Recht und Forschung"...;)
 
Dr.Pawel schrieb:
Hier liegt dann auch der wahre Vorteil von Nivida, die Chips sind klein und billig in der Herstellung im Gegensatz zu denen von AMD.

Blödsinn.
GK110 530mm² GK110B 560mm²
Hawaii 440mm²

Ähnliche Leistung. Deine Kausalität ist falsch.

AMD kann es sich gar nicht leisten große Chips zu bauen. nVidia hat den Großteil der TSMC Kapazität (was GPUs angeht) gepachtet, d.h. AMD musste bisher mit deutlich weniger Waferfläche fast gleich viele Chips herstellen.

AMD macht es sich dadurch ja auch eben so schwer, da kleine kompakte Chips schwerer zu kühlen sind als großflächige.
 
Mac_Leod schrieb:
Die Frage ist doch wo geht das alles hin?
Ich hab das Gefühl es dauert nicht mehr lange bis die Spieler Karten von NV mal so richtig teuer werden, weil es gibt ja nur noch wenig Konkurrenz, was immer Gift für Konsumenten ist.
Wie schön wäre es wenn die nächste Generation mal von AMD dominiert werden würde *träum*, nur woher sollen das Geld kommen, wenn keins da ist.

Das ist ja gerade das schöne, die Karten sind ja schon richtig teuer, schau dir einfach mal die Preisverläufe der letzten 7 Jahre an und die Einteilung der Chips in Low-, Mid-,Highend.
AMD hat seit vielen Jahren kein Geld und hat es zumindest im GPU-Bereich seit der 5er Gen immer geschaft gute Karten zu Entwickeln. Das Problem ist Markting und Image, von AMD wird irgendwie in allen Bereichen erwartet billig zu sein. Ich hab z.B. meine 7950 vor fast 2 Jahren für 180€ mit 5 Games bekommen! Jetzt schau dir mal die Chipgröße und das PCB an und es wird schnell klar warum da nur wenig Kohle bei übrig bleiben kann. Umgekehrtes Beispiel die 770 oder jetzt die 960, viel viel kleinere Chips und einfachere PCBs. Das gleiche gilt auch für die 290/x, ja sie sind Leistungsmäßig noch Konkurrenzfähig, die höhre Leistungsaufnahme mal außen vor, aber der Gewinn pro Karte ist deutlich deutlich kleiner als bei Nvidia.
Aber auch Nvidia ist natürlich, wie sie mit Thermi ja gezeigt haben, nicht unfehlbar. Klar ist aber das sie ganz andere Ressourcen im Hintergrund haben, da sie keine x86 CPU-Last mit sicher hertragen und halt dominant in den richtig Gewinnträchtigen Bereichen sind wie z.B. dem Enterprisemarkt. Wie erfolgreich Nvidia ist sieht man ja an ihren Zahlen jetzt, ein GPU (ARM) Hersteller macht mehr Umsatz (vom Gewinn ganz zu schweigen) als ein CPU&GPU Hersteller. AMD hat mMn 2-3 riesige Fehler gemacht die sie quasi runiert haben. Der größte Fehler war der ATI kauf zum damaligen Preis, wenn man sich die Umsätze und Gewinne mit GPUs bei AMD anschaut wird schnell klar das sie das nie wieder reinholen werden, solange Nvidia derartig stark ist. Darüber hinaus wurden sie natürlich von Intel mit "unfairen" Mitteln bekämpft, aber viel wichtiger ist das AMD niemand gekannt (Markting) hat zu den Zeiten in denen ihre CPUs deutlich besser waren als die von Intel. Außerdem ist in der Wirtschaft alles erlaubt solange man damit Erfolg hat und den hatte Intel. Da kann man noch sehr wettern, am Ende zählt nur der Erfolg. Drittens, was GPUs betrifft, hatten sie ihre starken Momente immer zu falschen Zeit, sowohl die 5er als auch die 7er Serie waren Dominant zum start, aber schlicht zu teuer und viel wichtiger nicht verfügbar.

Insofern darf man gespannt sein auf die neuen AMD Karten. Ich erwarte, dass sie Leistungsmäßig konkurrenzfähig sind, die Frage ist eher ob sie auch beim Chip- und PCB-design mithalten können, sprich endlich mal wieder vergleichbar Gewinnträchtig sind und am wichtigsten auch gescheit verfügbar sind. Im Gegensatz zu Nvidia haben sie mMn nicht mehr die Ressourcen um sich einen Flop wie z.B. Thermi zu erlauben, ebenso im CPU-Bereich da muss die nächste Architektur einfach was werden! Wie gut oder schlecht die Zeichen sind, das AMD so lange braucht für die neue GPU Gen kann jeder selber beurteilen, bisher war es bei beiden Lagern immer kein gutes. Thermi war damals auch spät dran und wie wir alle wissen totaler mist bis er optimiert wurde. Ich hoffe hoffe sehr für AMD, sonst gehen die Preise wie bei den CPUs von Intel stück für stück immer weiter nach oben ohne das der Kunde irgendwas machen kann.

Mfg
PaWel
 
Visualist schrieb:
Bei den neuen Karten läuft es dieses mal wohl zu gunsten von NV bei mir wenn der GM 200 mit 6GB kommt da AMD dieses mal wohl nur mit 4GB HBM daher kommt was auch wieder viel Anlass zu Kretik geben wird gerade in Verbindung mit Multi GPU ein K.O Kriterium für mich und viele andere.

Wobei ich hier doch recht gespannt bin, wie schnell sich HBM Speicher im Vergleich zu GDDR5 wieder auffüllen lässt. Klar limitiert das ganze weiterhin der PCI und der Hauptspeicher ect. Aber wie HBM zum Beispiel reagiert, wenn der Speicher voll ist, wissen wir noch gar nicht.


lllllll schrieb:
beim Rhythmus der Neuerscheinungen können sie zurzeit nicht mithalten.

Das könnte nicht am HBM Speicher liegen ? Kannst du das zu 100% sagen ? Oder gehörst du zu den Profis die jetzt schnell nachschauen was HBM Speicher überhaupt ist :D ?

Dr.Pawel
Im Schnitt hatte NV in der Vergangenheit immer den größeren Chip. Das hat sich bei Kepler leicht geändert und mittlerweile hat NV und AMD die Rollen getauscht. Bei AMD spielt GPGPU eine große Rolle. In meinen Augen kann AMD im besten Fall jetzt nur über Mantle MS dazu bringen eben mit DirectX12 ebenso GPGPU in Games (Compute Shader) zu fördern, sodass die AMD Karten mehr ihrer Rohleistung ausnützten können.

Sonst wie erwähnt. Die-Size ist nicht alles. Es kommt auf die Verträge an die AMD hat, besonders wird AMD ja in Zukunft bei GF dertigen lassen. Hier hat man bei den CPUs sogar nur für den funktionierend Chip gezahlt.

Außerdem kann die Entwicklung eines Chips sehr teuer sein. Umso mehr mit Hand designt wird, macht es die Entwicklung immer teurer, sodass selbst Einsparungen von ungefähr 20% des Die-Size eines Semi Costum Design gegenüber eines Full Costum Design oft ignoriert werden. Das ist auch ein Grund wieso man bei den Konsolen zu AMD gegriffen hat.
AMD entwickelt nun mal nur ein GCN für deren Biblothek und diese GPU Cluster muss dann nicht nur für den Desktop passen, sondern auch in den APUs, HPC Markt ect. Deshalb ist GCN mehr der Allrounder.

Maxwell ist allgemein eine Gaming Karte für den aktuellen Standard optimiert. Interessant wird es ja, wie es in 1-2 Jahren aussieht. Klar, dass interessiert dann hier keiner mehr. Aber ich bin ja gespannt, wenn zum Beispiel viele Spiele mit Compute Shader programmiert werden, ob dann Maxwell immer noch so gut abschneider (kann ja sein) oder eben auch nicht.
Bis dahin hat man aber eine neue Titan die dann GPGPU wieder als was ganz großes und neues vorstellt :p

Zusammenfassend. NV hat echt eine gute Generation die super an jetzigen Games optimiert sind (wobei in letzter Zeit auch zugegeben viele Gameworks Games gab). Aber wir wissen, dass sie mit Fermi schon mal in einer anderen Richtung waren.
Was aber auffällt, als wird oft gern getan, als ob AMD nicht kontern "könnte". Erinnert mich ein wenig wie Provokation zur Schulzeit um an Information zu kommen.
Naja, dass es an völlig neue Technologien liegen könnte, fällt wohl den wenigsten auf. Aber ja, eventuell hätte AMD selbst noch auf GDDR5 setzten sollen. Um das abschätzten zu können muss man nun eben warten.
 
Zuletzt bearbeitet:
pipip schrieb:
Das könnte nicht am HBM Speicher liegen ? Kannst du das zu 100% sagen ? Oder gehörst du zu den Profis die jetzt schnell nachschauen was HBM Speicher überhaupt ist :D ?
Hmmm was?
Ich glaube du hast etwas falsch zitiert, du kannst mich nicht gemeint haben, inhaltlich spricht nichts dafür das es einen Inhaltlichen Zusammenhang zu meinem Text hat, oder du leitest etwas her wo ich dir nicht folgen kann.
Naja, Hauptsache du weißt was gemeint ist.
 
lllllll

Der Unterschied ist recht simpel, Nvidia macht Gewinn und AMD macht Verlust.
Das liegt an der Strategie von AMD, verkaufen würden sie genug bei Grafikarten, aber der Preis ist zu gering, dadurch generieren sie nicht genug Gewinn, und beim Rhythmus der Neuerscheinungen können sie zurzeit nicht mithalten.

AMD bringt seine neue Generation erst im Mai. Dass das so ist, könnte an einer komplett neuen Speichertechnologie liegen. Hier hat AMD nicht viel Einfluss wie gut GF das gerade bewerkstelligen kann. Außer man wünscht sich ein Paperlunch, dann steht AMD auf dem Papier weit oben, kaufen kann man dann aber nicht viel.
 
Zuletzt bearbeitet:
Herzlichen Glückwunsch.

Vielleicht reicht es ja, um in Zukunft nicht mehr auf unlautere Werbepraktiken zurückgreifen zu müssen. Ich drücke euch alle Daumen.
 
pipip schrieb:
Aber ich bin ja gespannt, wenn zum Beispiel viele Spiele mit Compute Shader programmiert werden, ob dann Maxwell immer noch so gut abschneider (kann ja sein) oder eben auch nicht.

Was erhoffst du dir davon? Dass die Spielefirmen hergehen und ihre ganzen Physikeffekte usw. selbst programmieren? Die gleichen Firmen die heute schon ihre Bäumchen und sonstige Vegetation nicht mehr selbst erstellen, sondern dies Speedtree überlassen?
Oder dass jemand hergeht und eine auf allen Grafikkarten laufende (und dadurch zwangsläufig suboptimale weil unoptimierte) Lösung baut?
Oder dass ein allgemeiner Standard für sowas geschaffen wird und jeder Hardwarehersteller eine entsprechende Bibliothek dafür entwickelt?
Das Vorhandensein von Compute Shadern alleine helfen nichts. Genauso wenig wie das Vorhandensein von z.B. TressFX dazu führt dass es auch verwendet wird.

Ich glaube die Spielehersteller sind die falschen Adressaten. Die Enginehersteller müssen das verwenden und aktiv supporten. Mit Codebeispielen, Dokus, etc.
 
http://www.gamephys.com/game-physics/sony-unveils-playstation-4-with-gpu-accelerated-havok-physics/
The Graphics Processing Unit (GPU) has been enhanced in a number of ways, principally to allow for easier use of the GPU for general purpose computing (GPGPU) such as physics simulation. The GPU contains a unified array of 18 compute units, which collectively generate 1.84 Teraflops of processing power that can freely be applied to graphics, simulation tasks, or some mixture of the two.


Wozu, AMD, Sony ect arbeitet mit Havok zusammen, welche sicherlich nicht wenig verbreitet sind.
Des weiteren eigene "GPGPU" Features ? Tja, die meisten Publisher machen sowieso Konsolen Games und porten sie dann auf den PC.

Ich glaube die Spielehersteller sind die falschen Adressaten. Die Enginehersteller müssen das verwenden und aktiv supporten. Mit Codebeispielen, Dokus, etc.
Alien Isolation ist bereits das erste Game, mit den man das demonstriert hat. Die Engine ist bereits damit kompatibel.

Btw, GPGPU hmm, da war doch was bei den neuen Engine :
https://www.youtube.com/watch?v=4qGK5lUyCwI


Und wie sieht es mit Frostebite aus ?

Es gibt einen Grund, wieso ich Mantle und den Konsolen Deal als wichtig für AMD anerkenne. Nicht weil es AMD in erster Linie mehr Werbung oder Geld bringt, nein weil sie Einfluß nehmen können gewisse Standards einzuführen und damit ist AMD übrigens nicht alleine, denn offensichtlich haben auch einige Studios selbst interesse daran, gewisse Features auf den Markt zu bringen.


Gegenfrage, bist du der Meinung das sich Compute Shader früher oder später nicht durchsetzten wird ? Dass Sony oder MS deren eigene Konsolen die auf GPGPU aufbauen nicht ausnützten werden ? Nur weil, sie dann Engine anpassen oder entwickeln müssen, was sie für kommende Games aktuell sowieso machen.

Aber sagen wir es so, Hoffnung mache ich mir keine, wozu auch. Haben möchte ich es gerne, denn wer will nicht, dass die Software mehr aus der Hardware holt ?
Ich weiß, wenn dann auch die NV Grafikkarten profitieren, wird MS mit dessen DX12 bejubelt, aber who cares, man bekommt mehr für seine gekaufte Karte, denn aktuell kauft man bei AMD als auch NV oft Features, die aktuell kaum genützt werden. Compute Shader würde ich at least als einheitlichen Standard sehen, wenn es in DX12 integriert wird, an die sich Engine, Grafikkarten-Hersteller und Studios richten werden.

Auch wenn ich sehr AMD nahe bin, habe ich auch schon oft genug Intel und NV verbaut. Ich selbst hatte auch nach 3dfx ein paar NV High-End Karten.


Wenn es aber um SFR und Compute Shader geht, dann hoffe ich sehr wohl, dass sich das überall durchsetzt und deshalb erwarte ich mit auch viel von DX12.
Wäre doch super wenn ich 2017 nur eine neue Grafikkarte kaufen müsste um up to date zu sein oder eventuell gebraucht eine zweite Karte für CF oder SLI um die Performance zu erhöhen.

Das hat dann alles nichts mit AMD oder NV zu tun, das wünsche ich mir als Kunde. Ob das aber in Erfüllung geht, ist eine andere Sache und hängt in meinen Augen in erster Line an MS ab. Aber ich bin optimistisch, dass sie mit DX12 einen großen Sprung machen werden.
 
Zuletzt bearbeitet:
Nice one Dr. Pawel, sehr gut zusammengefasst.

Wie gut oder schlecht die Zeichen sind, das AMD so lange braucht für die neue GPU Gen kann jeder selber beurteilen, bisher war es bei beiden Lagern immer kein gutes.
Eine 380X bzw. die ersten Generation mit HSA VRam schafft mit ach und Krach max. 8GB Vram, eher 4GB. Das ist viel viel viel zu wenig. Kann ich jetzt schon sagen das das nix wird. 2016 oder wann auch immer dann die nächste HSA Generation aufschlägt könnte es schon besser werden, Pascal wird die gleichen Probleme haben. Darum gleich mal eine Warnung an alle die auf Pascal warten. Könnte nach hinten los gehen.
 
pipip schrieb:
Gegenfrage, bist du der Meinung das sich Compute Shader früher oder später nicht durchsetzten wird ? Dass Sony oder MS deren eigene Konsolen die auf GPGPU aufbauen nicht ausnützten werden ? Nur weil, sie dann Engine anpassen oder entwickeln müssen, was sie für kommende Games aktuell sowieso machen.

Die Frage ist nicht ob sie sich durchsetzen werden, sondern wozu und auf welchem Level der Spieleentwicklung.

Ich glaube nicht dass sich angesichts immer schnellerer Releasezyklen und immer mehr Ports sich der Spielehersteller hinsetzt und sagt "So, jetzt programmiere ich mir mal alle Effekte selber weil ich Compute Shader zur Verfügung habe".

Wirds der Engineentwickler machen? Weiß nicht. Derzeit machen es einige und einige nicht. Man wird sehen.

Was mit Havok ist, weiß ich nicht. Als noch allen die Kinnlade beim Namen Havok runtergeklappt ist, war Half-Life 2 aktuell. Dessen Physik ist mittlerweile aber eher lächerlich als gut. Aber ich gehe mal davon aus dass Havok sich auch sehr viel weiterentwickelt hat. Allerdings hab seit dieser Zeit aber auch nicht mehr viel davon gehört.

Ich denke durchsetzen wird sich eine Lösung die bei minimalem Aufwand den maximalen Effekt auslöst. Das heißt weniger dass diese Lösung auf allen möglichen Hardwareplattformen gleich gut oder überhaupt laufen muss, sondern dass der Entwickler durch guten Support, gute Doku und viel Einsatz attraktiv für die Kunden sein muss.

pipip schrieb:

Was soll das bedeuten? Etwa ausnutzen? ;)
 
DocWindows

Da brauch ich nicht viel erklären, da reicht ein Beispiel. Mantle versus DX11 nützt eine Karte mehr aus, wenn man eine 60-100 Euro CPU hat.

Jetzt stell dir vor, mit Direct Compute, würde die Performance auf einer NV Karte weniger einbrechen, als wenn ich Physik X verwende. Das wäre ein Beispiel ausnützten, auch wenn es kein Beleg dafür gibt und eher ein theoretisches Beispiel.

Bei AMD ähnliches. Da gibt es Einheiten, die bei Games kaum genützt werden.

Interessant wäre aber, wenn man dann Engine entwickeln könnte, die Physik X ähnliche Effekte erlaubt, aber auf allen Plattformen, AMD, NV, XBOX One, PS4 läuft.

Für AMD selbst gibt es in Vergleich zu NV sowieso nur zwei Optionen. Wenn dann macht AMD es ähnlich wie NV und kürzt alles weg, damit die Karte bei jetzigen Games effizienter ist, oder man erhoft sich, dass die Software sich anpassen wird. Das steht und fällt eben mit MS DX12.

Aktuell ist der Weg von NV vielversprechender. Nur muss ich als Kunde fragen, welche Entwicklung für mich besser ist. Das kann man, denk ich, nur für sich selbst beantworten.
 
Zuletzt bearbeitet:
Nvidia kann nichts dafür, dass AMD nichts neues bringt, das sie unter Druck setzt. Und so wurde es unweigerlich ein Rekordquartal für sie.
AMD muss endlich nachlegen, sonst hört der Reibach bei Nvidia nicht auf.
 
ein zuerwartendes ergebnis ;)
 
Inflationsbereinigt ist wohl immer noch das vierte Quartal 2008 der Spitzenreiter bei nVidia.
 
Mourinho schrieb:
-Nvidia hat natürlich keine Not, auch wenn Sie mal etwas Stromhungriger werden als die Konkurrenz zwischendurch. -Da zählt halt die TOP Performance, mag Sie auch manchmal +2FPS sein, aber dann ist der Stromverbrauch egal.

Schon lustig. "GTX480 war top hauptsache höchste Performance." 7970 wird runtergebuttert, weil ja schlechtere Effizienz, obwohl zudem noch deutlich preiswerter.

Ich glaube das Beste was AMD machen kann ist die Karten grün färben und "Nivea" drauf zu schreiben. Anscheinend kaufen die meisten eh nach Farbe und Nvidia wird ohne hin in 1000 Varianten geschrieben. :evillol:
 
pipip schrieb:
Da brauch ich nicht viel erklären, da reicht ein Beispiel. Mantle versus DX11 nützt eine Karte mehr aus, wenn man eine 60-100 Euro CPU hat.

Jetzt stell dir vor, mit Direct Compute, würde die Performance auf einer NV Karte weniger einbrechen, als wenn ich Physik X verwende. Das wäre ein Beispiel ausnützten, auch wenn es kein Beleg dafür gibt und eher ein theoretisches Beispiel.

Das kann ich mir leider nicht vostellen, denn das alleinige Nutzen von Direct Compute bringt noch gar nichts. Schon gar keine Physikeffekte oder sonstiges.

pipip schrieb:
Interessant wäre aber, wenn man dann Engine entwickeln könnte, die Physik X ähnliche Effekte erlaubt, aber auf allen Plattformen, AMD, NV, XBOX One, PS4 läuft.

Ja, das wäre interessant. Im Prinzip bräuchte man ein allgemeingültiges PhysX. Das bekommt man aber nur durch eine Standardisierung, denn wenn alle Grafikkarten damit umgehen können sollen, muss ein Funktionsumfang und eine Funktionsbeschreibung vorhanden sein.
Da stellt sich die Frage: Wer soll das definieren? Machen die Grafikkartenhersteller da mit? Man bräuchte wohl ein Konsortium ähnlich OpenGL. Vielleicht sogar OpenGL (als Institution) direkt. Denn da sind die Grafikkartenhersteller eh schon vertreten. Dann stellt sich aber wieder die Frage ob man Direct Compute oder doch lieber OpenCL nehmen sollte, oder beides.
 
Aber so eine Sündhaft teure Titan mit 12 GB werde ich nicht kaufen das unterstütze ich einfach schlichtweg nicht .
@Visualist

Doch ich schon,bitte davon zwei Stück und das V Ram Fiasko der letzten Jahre gehört der Vergangenheit an..;)
 
Zurück
Oben