Warum AMD oder Nvidia und was haben beide für Vor- und Nachteile?

Performanceunterschiede hängt von den Karten ab. Eine 380 gegen 960 ist auch in gameworks Titeln sehr nah dran. Klar Ausnahmen sind vorhanden. Leider hat die fury gegen 980 aktuell öfters mal das nachsehen.
Die 390 ist erstaunlicherweise immer schneller, lohnt sich. Das liegt jedoch eher an den Treibern. Mit dem neuen omega Treiber muss man nochmal vergleichen, ist ja nicht mehr lange hin.

Ich hatte bis Dezember 14 eine nvidia Karte im Notebook, die soweit gut lief. Jedoch dann einfach durchknallte. Treiber war gegenüber amd überhaupt nicht besser, sondern gleichauf zur der Zeit. Bedienung und Performance waren nicht besser wie einige meinen.

Qualität ist bei beiden ähnlich gut. Die Effizienz ist auch nicht unbedingt viel besser, wenn man wie tomshardware mal richtig misst. Maxwell ist leicht effizienter, passt sich bloß Schwankungen schneller an. DirectX12 wird interessant, da könnte amd wieder mit älteren Karten davonziehen. Nvidia für dx11 und kurzfristige Anschaffung und amd für längerfristige käufe ist so meine Meinung.
 
Momentan kommt für mich nur Nvidia in Frage wegen Shadowplay. Raptr ist ein Witz dagegen.

Ansonsten hätte ich keine Probleme zu AMD zu wechseln, habe auch schon mal eine 7870 und 7950 besessen.
 
Hab mich schon gefragt wann die ersten Fanboys um die Ecke kommen. :lol:

Von den angeblich so vielen grünen Fanboys seh ich bisher keinen. Dafür 2 rote.:rolleyes:


Vor nem Jahr, als die 970 rauskam, habe ich mich für diese entschieden. Und ich bereue es bisher nicht.
Würde ich jetzt eine neue kaufen, würde ich vermutlich eine 390 kaufen.
Da mein 2 jährige Rhythmus allerdings dann nächstes Jahr auf Pascal fällt, kommt dann wohl wieder nVidia.
Es sei denn AMD hat nächstes Jahr zum gleichen zeitpunkt etwas, was genauso gut ist.
 
Zuletzt bearbeitet:
Drummermatze schrieb:
Von den angeblich so vielen grünen Fanboys seh ich bisher keinen. Dafür 2 rote.:rolleyes:

Bist du blind?
Auf der ersten Seite hab ich 4 gezählt :D

Welche Karte ist immer subjektiv. Aber wenn man will, dann findet man immer Argument für oder gegen etwas.
Im Endeffekt sollte man auf P/L achten und versuchen die richige Karte für sich zu finden.

Und das möglichst bevor die Balkenwerfer kommen, die kann man, wenn überhaupt, nur mit anderen Balkenwerfern vertreiben :D

mfg,
Max
 
Ohje, ich sehe schon wie dieser Thread geschlossen werden muss
Aber schon ein wenig amüsant was bisher geschrieben wurde :D
 
max_1234 schrieb:
Auf der ersten Seite hab ich 4 gezählt

Auf der ersten Seite vertreten doch fast alle (CvH, PongLenis, Spillunke, Nai, SSJ und ich) einen absolut neutralen Standpunkt. Zwei (trockenerToast und Smartbomb) sind relativ neutral mit roten Tendenzen. Nur Strikerking ist ganz klar ein roter Fanboy. Wer, und vor allem warum ist denn deiner Meinung nach grüner Fanboy?!
 
So ein Thread entwickelt sich immer in eine solche Diskussion ;)
Habe vor einem Jahr eine 970 gekauft und bin zufrieden. Heute würde ich aufgrund dem Speicher lieber eine AMD 390 nehmen.

Hatte davor zwei AMD Karten (270X und 5850). Shadowplay finde ich aber super und würde ich vermissen. Ansonsten: Beim nächsten Upgrade gewinnt die für mich bessere Karten, Marke ist mir egal. Mal schauen was es in 1-2 Jahren wird.
 
ch1w4y schrieb:
Hallo liebe Community,
man hört ja immer wieder, dass Nvidia besser sei als AMD oder AMD besser als Nvidia.

Benutzt Nvidia und AMD unterschiedliche Technik beim Bau ihrer Grakas?
Wie ist die Qualität im Bereich Gaming`?
Welche ist für gaming allgemein besser geeignet?
Warum sind Nvidia Karten meistens teurer?
Welche Vor und Nachteile haben beide Hersteller im Bereich gaming?
Wofur würdet ihr AMD oder Nvidia mehr empfehlen?
Was ist ausschlaggebend für eine gute Grafikkarte?

Image spielt heutzutage eine große Rolle.
Gerüchte halten sich auch ewig, egal welche Branche.

Man kann es fast mit Apple vergleichen. Egal was NV/Apple released wird als super, toll, awesome angepriesen. Preislich hoch und an sich auch wirklich zu gebrauchen.
AMD hat hier und da in der Vergangenheit Fehler gemacht. Stichpunkt Treiber. Bessert sich.

1. NV und AMD releasen fast immer im gleichen Takt, Strukturenbreite ist auch immer auf Augenhöhe.
Nächstes Jahr soll Pascal von NV im 16nm Prozess kommen, AMD Artic Island entweder 14 oder 16nm oder beides.

2. Qualität:
Bauteile der GPU's sind teilweise minderwertig: Spulenfiepen der GTX900 Serie am Anfang oder schlechte Kühler der R9 290.
Treiber können bei beiden Top oder Flop sein, mittlerweile ebenbürtig.

3. Je nach Anforderung und Budget ergibt sich unterschiedliches Bild.
Fury X vs 980ti - 980ti zu wählen außer man hat kleines Gehäuse.
Fury vs 980 - immer die Fury, leiste Karte auf dem Markt
390 vs 970 - Glaubensfrage, aber ob man 3,5GB Krüppel will?!
usw...

4. teurer, weil Image. Sie können sich so gut wie alles erlauben.
5.-6. geklärt
7. GPU sollte hochwertige Komponenten verwenden und zukunftssicher sein.
Power sollte auch ein Gen ausreichen.
 
Tappy schrieb:
1. NV und AMD releasen fast immer im gleichen Takt, Strukturenbreite ist auch immer auf Augenhöhe.
Gleicher Takt - ok. NV ist aber die letzten Generationen sehr sehr viel früher gewesen als AMD. Überleg mal wieviel Zeit vergangen ist zwischen dem Release von Big Maxwell und Fury X, oder zwischen Big Kepler und 290X. Und nicht nur, dass NV so einen massiven zeitlichen Vorsprung hatte, nein, AMD hat es auch nicht geschafft leistungsmäßig klar an NV vorbeizuziehen.
4. teurer, weil Image. Sie können sich so gut wie alles erlauben.
Das gute Image ist nicht unbegründet! NV kann sich die Preise leisten, weil der Abstand zu AMD zumindest zeitweise so extrem groß ist. Was hatte denn AMD anzubieten, als NV mit den 1000€ Titans angefangen hat? Nichts! Nur deswegen konnte NV diese Mondpreise verlangen und trotzdem verkauften sie sich blendend.
 
Das Problem ist auch das NVIDIA den Markt mit Ihrer Marktmacht und Gameworks blockiert. In non Gameworkstiteln ist NVIDIA garnicht so gut! Da hinken die AMD meist sogar hinterher.

Die Titan x ist für mich ein Reinfall. Bei 4K Schaft sie es oft nicht die fury x zu überholen und das für 1000 Euro. Also 400 Euro mehr als für AMD.

Wenn man sich die GTX 980 zur 290x anschaut fragt man sich auch was NVIDIA so die letzte Zeit getrieben hat. Bis auf Stromsparen ist die gtx980 kein deut besser als eine 3 Jahre alte 290x. Amds 3 Jahre alte Karten haben alle Dx12.0. nvidias Keppler haben nur Dx12 mit DX 11 Features. Zumal Kepler in den Treibern Eiskalt fallen gelassen wurde während heute bei AMD noch die 5 Jahre alten 7970 sehr gut wegkommen in Tests und die GTX 680/770 meist immer weitab schlagen.

Hinzu kommen die ganzen Werbelügen von NVIDIA. Dx11.1, 4GB Vram, Async Compute etc.,
 
Zuletzt bearbeitet:
Die Titan x ist für mich ein Reinfall. Bei 4K Schaft sie es oft nicht die fury x zu überholen und das für 1000 Euro. Also 400 Euro mehr als für AMD.

Dann schau dir mal an wann die Titan X auf den Markt kam und wann die Fury X kam. Merkste selber oder?
Damals hatte AMD nichts um mit der Titan X zu konkurieren. Mittlerweile ist der Hauptkonkurent der FuryX die 980Ti. Und die ist meistens schneller. (Dafür etwas teurer)

Wenn man sich die GTX 980 zur 290x anschaut fragt man sich auch was NVIDIA so die letzte Zeit getrieben hat. Bis auf Stromsparen ist die gtx980 kein deut besser als eine 3 Jahre alte 290x.

Die 980 ist so gut wie immer schneller als eine 290X, verbraucht dabei weniger und ist kühler und leiser.

Wenn einer die letzten Jahre geschlafen hat ist es AMD. Und das beziehe ich auf die Releasezyklen ihrer Karten.
Denn die kamen im Gegensatz zur Konkurenz immer zu spät. Die 3XX hätten spätestens mit Maxwell zusammen released werden müssen. Und die Fury X zusammen oder vor der GTX 980Ti. Sämtliche AAA Spielereleases wurden verschlafen. So gewinnt man keinen Blumentopf.

Amds 3 Jahre alte Karten haben alle Dx12.0. nvidias Keppler haben nur Dx12 mit DX 11 Features.

Dann nenn mir mal ein Spiel was DX12 unterstützt.
Wenn DX12 so richtig am Spielemarkt angekommen ist und man auch daraus profitieren kann, gibt es längst ein oder zwei neue Grafikkartengenerationen.

Was nVidia da teilweise abgezogen hat mit dem Speicher der GTX970 finde ich ebenfalls unter aller Sau!

Aber das du, ampre, ein kleiner AMD Fanboy bist, ist denke ich hinlänglich bekannt hier und das zeigt auch (mal wieder) dein überhaupt nicht objektiver Post.
 
Zuletzt bearbeitet:
Einfach immer die Karte mit bestem P-/L Verhältnis im Budget kaufen und gut ist. Thema erledigt.
 
ampre schrieb:
Die Titan x ist für mich ein Reinfall. Bei 4K Schaft sie es oft nicht die fury x zu überholen und das für 1000 Euro. Also 400 Euro mehr als für AMD.

Wenn man sich die GTX 980 zur 290x anschaut fragt man sich auch was NVIDIA so die letzte Zeit getrieben hat. Bis auf Stromsparen ist die gtx980 kein deut besser als eine 3 Jahre alte 290x. Amds 3 Jahre alte Karten haben alle Dx12.0.
,

also dann ist jetzt die 290x die 280x die 7970 die 6970 alles der totale müll den die verlieren alle gegen eine 980 ti xD

komisch das amd ewig und 3 tage gebraucht hat um die titan X zu attackieren.
der witz ist eher die Fury X

neuste karte auf dem markt aber langsamer als die alten 980 ti und titan X
king of the hill will sie sein als 3 beste karte nein
king of the hill wen man kaum oc hinbekommt der vram sogar null oc kann nein das können die alten besser.
dazu noch vram opfer mit 4gb was eher so 2014 noch top war.

also gepennt hat nur 1 AMD.

jetzt heißt es auf 2016 hoffen evtl kann da amd direckt mit nvidia ihre karten zeigen und evtl dann sogar mithalten oder vorbei zihen.

bitte dann auch einen echten king of the hlll mit oc und single gpu krone :)
 
Sehe ich ganz genau so. NVidia bringt die Titan immer sehr früh und wer zu dem Zeitpunkt die Leistung haben will, der legt auch ohne Probleme die 1000 Euro dafür auf den Tisch. Von der Anzahl der verkauften Titan und den Margen träumt AMD. Soll man jetzt NVidia für cleveres Timing und Marketing anklagen?

Bei der GTX 970 fand ich die 3,5GB auch nicht in Ordnung aber habe die trotzdem gekauft, weil mir der Speicher für meine Spiele in FHD vollkommen ausreicht. Schaut man sich die Leistung, den Stromverbrauch und die Lautstärke meiner EVGA GTX 970 SSC an, dann ist das schon eine richtig tolle GPU.

2016 werden die Karten eh Neu gemischt und ich bin einmal gespannt, ob AMD es schafft die Leistung bei moderatem Stromverbrauch zu bringen und vor allen Dingen, ob AMD es schafft Ihre GPU's vor NViida zu launschen. Das ganze mit DX12 wird sicher sehr spannend werden.
 
Mich bindet aktuell ein (ok, zwei..) spezifische Features an AMD.

1. FreeSync (Okay, es gibt G-Sync, welches sogar mehr bietet, dafür aber auch teurer ist.)
2. Mixed Resolution Eyefinity in Kombination mit einer der oben genannten Adaptive Sync technologien ist für mich persönlich das Argument.


Beides wird aber vermutlich nur temporär sein. Ich schätze es ist bloß eine Frage der Zeit bis Nvidia

a.) einen Geforce Treiber mit Adaptive Sync Unterstützung auch ohne G-Sync bringt und
b.) ebenfalls Mixed Resolution Surround anbietet.



Grundsätzlich finde ich es aber albern die Hersteller gegenüber zu stellen.
Sinnvoller wäre der Vergleich zwischen einzelnen Produkten für den jeweiligen Verwendungszweck.
 
Nai schrieb:
Ist schon etwas kurios soetwas zu behaupten, da AMD seit Jahren seine DP-Performance auf Consumer-GPUs künstlich beschneidet. Bei GCN 1.2 wurde die DP-Performance sogar nicht künstlich beschnitten sondern die "DP-Einheiten" zum Teil vom DIE entfernt oder verlangsamt (kA was von beiden), damit der DIE kleiner und effizienter wird. Aber AMD-Fanboys würden auch jede beschnittene GPU kaufen. Oder eventuell ist die DP-Performance ja auch für die meisten User komplett egal. Wer weiß.

AMD beschneidet gar nix am Chip. GCN hat keine eigenen DP-Einheiten. 2-16 normale Recheneinheiten (von Firepro bis runter zu den Entry-Consumer-Karten) arbeiten zusammen, um DP-Berechnungen auszuführen. Wie viele Einheiten gleichzeitig arbeiten ist vom Treiber abhägig - der professionelle Treiber der FirePros erlaubt dass im Verhältnis 1:2 die Einheiten sich um DP kümmern, bei einer low level Karte à la R7 360 dürfte es grade mal ein Verhältnis von 1:16 sein, dadurch sind sie einfach durch ihren Treiber daran verhindert, DP ordentlich zu berechnen.

nVidia hat bis Maxwell eigene DP-Einheiten, diese wurden bei Maxwell jedoch stark beschnitten, um diese, für Gaming ausgelegte, Architektur effizienter zu machen. Jedoch hat man damit den Professionellen Kunden vors Bein getreten, denn diese konnten mit Maxwell nichts anfangen.

Übrigens soll Pascal sich dann beim DP an der Funktionsweise von GCN orientieren.
 
Zuletzt bearbeitet:
Afaik geschieht die künstliche Limitierung (wie bei GCN 1.0, 1.1, Fermi oder GK110-Keplers) nicht mehr durch Treiber (zumindest bei NVIDIA, bei AMD weiß ich es nicht 100 \%), da man dies ja durch GPU-Bios-Hacks oder Treiberhacks umgehen konnte. Zumindest bei NVIDIA wird die DP-Performance gedrosselt, indem dem DIE durch seine externe Verkabelung mitgeteilt wird, ob er nun DP verwenden darf oder nicht. Ich nehme einfach einmal an, dass AMD einen ähnlichen Weg beschreitet, um ein ungewolltes Umgehen der künstlichen Limitierung zu vermeiden.

Des Weiteren ist mir durchaus bewusst, dass GCN keine spezialisierten DP-Einheiten sondern nur kombinierte DP-SP-Einheiten besitzt, weshalb ich es auch in Anführungsstriche gesetzt habe. Ich meinte es so: AMD hat ja bereits laut einigen News-Seiten wie CB verlautbart, dass die GCN-1.2-DP-Performance z.B. auf den Furys nicht künstlich reduziert sei, sondern bei GCN 1.2 allgemein nur 1/16 der SP-Peak betragen würde. Dementsprechend gibt es dafür zwei Möglichkeiten wie AMD das umgesetzt haben könnte:
-Die Anzahl der Processing-Elements reduziert, die DP berechnen können. Bei dem vorhandenen Verhältnis von 1/16 könnte nur jedes achte Processing-Element von den 64 Processing-Elements eines GCN-Kerns DP berechnen.
-Die Anzahl der Takte erhöht, die ein Processing Element für eine DP Operation benötigt.
Ich tippe darauf, dass sie ersteres gemacht haben, es könnte aber auch eine Kombination von beiden sein. Hier finde ich aber keine Quelle die eins von beiden belegt.

Aber ingesamt ist es m.E. für die Beschneidung auch irgendwie irrelevant wie genau sie stattfindet, nur das Ergebnis der reduzierten DP-Performance zählt (oder auch nicht wenn man kein DP braucht)
 
Zuletzt bearbeitet:
Nai schrieb:
Zumindest bei NVIDIA wird die DP-Performance gedrosselt, indem dem DIE durch seine externe Verkabelung mitgeteilt wird, ob er nun DP verwenden darf oder nicht.
Nein, das ist totaler Blödsinn. Früher war das vielleicht mal so, aktuell sind auf Maxwell keine DP-Einheiten, die auf den Consumer-Karten deaktiviert sind. Wäre das so, dann gäbe es auch Profi-Karten, wo DP freigeschaltet wäre.
 
Zurück
Oben