Test Early Access mit AMD & Nvidia

Status
Für weitere Antworten geschlossen.
AMD braucht viel länger, um die Treiber anzupassen. Zudem hat AMD chronisch Probleme mit Rennspielen. Vor allem dann, wenn das Rennspiel nicht auf eine der großen Engines basiert, also keine Optimierung greift. Da 3 Rennspiele mit einer hauseigenen Engine getestet wurden, verwundert das Ergebnis kaum.
 
Witziger Test mit Wreckfest,
i7 + 290X - 720p = 45fps?

mein sys @ 720p = 52fps:evillol:
-------------------------------------------------
@pitschpatsch
geschlossener kram ala nv hat in einem rechner nichts zu suchen:p
 
Zuletzt bearbeitet:
Die Ergebnisse zu wreckfest kann ich auch nicht nachvollziehen. Habe einen 3570k und eine HD7950 im Rechner und das Spiel läuft bei 1080p Butterweich auf höchsten Einstellungen.
 
gmc schrieb:
AMD braucht viel länger, um die Treiber anzupassen. Zudem hat AMD chronisch Probleme mit Rennspielen. Vor allem dann, wenn das Rennspiel nicht auf eine der großen Engines basiert, also keine Optimierung greift. Da 3 Rennspiele mit einer hauseigenen Engine getestet wurden, verwundert das Ergebnis kaum.

nun das ist auch leider wieder normal. denn NV gestattet es nicht, dass der Entwickler wenn er mit der gameworks plattform arbeitet gamecode vor release zu veröffentlichen. Daher muss Intel oder AMD dann, wenn das Game released ist mit der Optimierung anfangen, quasi reverse engineering um den bremsenden Faktor zu finden und für einen optimaleren Lösungsweg per Treiber zu beseitigen. NV braucht nix tun außer nen paar bugs beseitigen. Gleiches Spiel mit DirectX und Linux :( oder Microsoft compiler vs Linux compiler, oder 32bit vs 64 bit, ... das kann beliebig fortgesetzt werden. und geht zurück auf die Zeit als Intel und IBM anfingen erfolgreich zu sein. x86 vs RISC vs Power PC vs ARM.... bis zu Browsern und mit java und html 5
So ist das nunmal. leider ist das so. daher hoffe ich auf offene standards wie Freesync und DP 1.2a, openCL, mantle anstatt wieder nur einem System ausgeliefert zu sein.

oder soll man sich dann alle paar jahre neue komplett hardware incl monitoren kaufen?

mein erstes VPA 1 "smartphone" von 2005 hatte schon eine miniusb Buchse, heute haben wir micro usb das ist kompatibel dazu

überall..


ach ne es gibt da eine Firma wo zwischen den Modell 3,5 und Modell 6 3x der Stecker gewechselt werden durfte, nur mit den gechipten kabel funkjtioniert und immer viel Geld kostet - Docking Station im Wohnzimmer, Schlafzimmer, 2 Autos und am PC alles auszutauschen.... ... lightning ;)
 
Zuletzt bearbeitet:
Tatsache ist:
Nvidia ist in fast allen gameschmieden erste wahl, weil nvidia die eigene hardware auf diesem weg subventioniert abgibt.
Das führt dazu, dass eine opti?ierung auf amd hardware nur aufwand ist, der nicht betrieben wird.
Gameworks geht sogar noch nen schritt weiter und verhindert, dass ein treiber auf sourcecode angepasst werden kann.
Das is in meinen augen einfach nur erbärmlich sich auf diesem weg bessere leistung zu erkaufen.
Würde mir dennoch im moment ne 970 kaufen, da die einfach das beste pl hat
 
Buttermilch schrieb:
nun das ist auch leider wieder normal. denn NV gestattet es nicht, dass der Entwickler wenn er mit der gameworks plattform arbeitet gamecode vor release zu veröffentlichen.


Das hat in den hier getestet Rennspielen absolut nichts mit Gameworks zu tun. Zudem braucht es kein Gamecode um ein Spiel zu optimieren, und es ist auch unüblich.
 
wenn ein entwicker mit code von NV arbeitet nennen wir es Cuda oder bei intel AVX2 und diese verfahren sind geschützt dann wird ein anderer anbiete die nicht bekommen.
http://www.extremetech.com/extreme/...surps-power-from-developers-end-users-and-amd das prinzip ist immer das gleiche. Egal ob ich Visual Basic, Java oder C programmiere. wenn ich auf gewisse Erweiterungen nicht zugreifen kann dann wird code lang, unständlich und sehr unübersichtlich. (Spaghetti Code)
http://www.extremetech.com/extreme/...surps-power-from-developers-end-users-and-amd lesen und verstehen.

hier geht es auch nochmal darum als der Catalyst Omega release wurde http://ht4u.net/reviews/2014/amd_catalyst_treiber_14_12_omega_mit_vsr_im_test/index10.php

http://www.bernd-leitenberger.de/intelstory.shtml
ob das jetzt gamecode, sourcecode oder maschinencode ist.
kennst du die Patentklagen von Intel gegen Cyrics und AMD? das ging fast 20 Jahre lang....
da gehts es genau darum. zurück zur zeit von 286 bis 386. das hat intel versucht. PS daher hießen die Prozessoren danach Pentium was man patentieren konnte und nix mit den alten Verträgen zu tun hatte ;)
 
Zuletzt bearbeitet:
Danke für den tollen Test Computerbase!
Ich weiß, solche tests sind unglaublich aufwendig und permanent die grafikkarten zu wechseln nervt sicherlich, aber dennoch hätte ich mal ne frage: Könntet ihr nicht an eurem Testsetup einfach mal euer Voltcraf (Strommessgerät) dran lassen und irgendwie eine Möglichkeit finden, den Stromverbrauch MIT in die Leistungstabellen fließen zu lassen?

Gerade bei "Wie funktioniert der treiber-A da und der treiber-B dort?" wäre das für mich sehr interessant. Ihr sprecht ja bei einigen spielen die mangelnde GPU-Auslastung an.
 
Nvidia investiert sehr viel in die Spieleunterstützung. Und wenn ich Geld in ein Spiel stecke und eigene Entwickler kostenlos zur Optimierung sende, dann möchte ich sicher nicht das mein Konkurrent besser dahsteht. Evt. hat AMD gar nicht die Recourcen um so viele Spiele zu unterstützen. Dort wo sie es tun sieht es für AMD genau so gut aus. Der einzige Unterschied ist, das Nvidia hier eben deutlich mehr Geld investiert und dementsprechend fallen diesbezügliche Tests auch aus. Eigentlich war das Ergebnis wie jedes mal vorhersehbar.
 
Ich kenne das Problem schon lange und habe meine HD7970 vor einiger Zeit gegen eine GTX770 getauscht. Hat bei meinen Spielen einen Leistungszuwachs von ca. 50% ausgemacht, obwohl die fast gleich stark sein sollten.
Mein Rat ist seitdem, wer Games abseits vom Mainstream spielt, ist mit AMD nicht besonders gut aufgestellt.
 
Nitschi66 schrieb:
Könntet ihr nicht an eurem Testsetup einfach mal euer Voltcraf (Strommessgerät) dran lassen und irgendwie eine Möglichkeit finden, den Stromverbrauch MIT in die Leistungstabellen fließen zu lassen?
Gerade bei "Wie funktioniert der treiber-A da und der treiber-B dort?" wäre das für mich sehr interessant. Ihr sprecht ja bei einigen spielen die mangelnde GPU-Auslastung an.

Die MEssungen sind sehr komplex mit den aktuellen karten. glauibe nciht das CB da die technik noch das know how besitzt. guck bei Speziealseiten wie HT4U oder Toms Hardware. http://www.tomshardware.de/leistung...chselwirkung-messung,testberichte-241622.html
 
Numrollen schrieb:
294€ vs. 485€ zu vergleichen, top!
was für ein Unsinn....es geht um die Leistung der Karten und nicht deren Preis. Und hier wurden die beiden Top Single GPU Modelle der beiden Hersteller gewählt. Wieviel die Hersteller für ihre Karte fragen ist dabei doch komplett irrelevant...die Entwickler bevorzugen bestimmt nicht eine Karte weil die 200€ mehr kostet, wenn dann gehen sie eher nach der Verbreitung und in dem Fall würde das für die günstigere 290X sprechen
 
Buttermilch schrieb:
wenn ein entwicker mit code von NV arbeitet nennen wir es Cuda oder bei intel AVX2 und diese verfahren sind geschützt dann wird ein anderer anbiete die nicht bekommen.
http://www.extremetech.com/extreme/...surps-power-from-developers-end-users-and-amd das prinzip ist immer das gleiche. Egal ob ich Visual Basic, Java oder C programmiere. wenn ich auf gewisse Erweiterungen nicht zugreifen kann dann wird code lang, unständlich und sehr unübersichtlich. (Spaghetti Code)
http://www.extremetech.com/extreme/...surps-power-from-developers-end-users-and-amd lesen und verstehen.


http://www.bernd-leitenberger.de/intelstory.shtml
ob das jetzt gamecode, sourcecode oder maschinencode ist.
kennst du die Patentklagen von Intel gegen Cyrics und AMD? das ging fast 20 Jahre lang....
da gehts es genau darum. zurück zur zeit von 286 bis 386. das hat intel versucht. PS daher hießen die Prozessoren danach Pentium was man patentieren konnte und nix mit den alten Verträgen zu tun hatte ;)


Das ist eine völlig andere Thematik, ist aber auch belanglos. Wreckfest und Assetto Corsa gehören gar nicht zum Gameworks Programm und pcars läuft schon seit den ersten Builds 2011 so viel schlechter auf AMD, als Steamworks noch gar nicht existierte. Zudem verwendet pcars (noch) gar keine Steamworks Features. Ganz davon abgesehen gehen die Gameworks Features praktisch nur auf die GPU. Wenn es daran liegen würde, müsste der Unterschied pro nvidia bei GPU Last höher werden. Nein, es liegt hier zum einen an der höheren Treiberlast von AMD (Nvidia konnte die Treiberlast mit r337 in vielen Spielen enorm senken. Pcars hat dadurch deutlich profitiert im CPU Limit. AMDs Omega Treiber brachte dagegen nichts) und zum anderen läuft AMD wie gesagt chronisch in Rennspielen meist deutlich schlechter auf AMD.

Das ist nicht erst jetzt so, schon zu DX9 Zeiten war das zu beobachten. Simracer haben deswegen schon immer gerne Nvidia bevorzugt. Gameworks dient gerne als Allgemeinausrede für Unzulänglichkeiten von AMD. Hier haben wir das nächste Beispiel. Vielleicht ist es so, dass Nvidias Treiber robuster arbeitet, also ohne Optimierungen bei den kleinen Engines besser zurechtkommt. Rennspiele sind meist von kleinen Entwicklerstudios, die keine der großen Engines einsetzen.
Ergänzung ()

mospider schrieb:
Mein Rat ist seitdem, wer Games abseits vom Mainstream spielt, ist mit AMD nicht besonders gut aufgestellt.


So sehe ich das auch.
 
Wie geil, Star Citizen rennt in 1080p in's CPU-Limit... da wird mantle oder wenigstens DX12 wohl pflicht werden, es sei denn Intel zaubert noch was aus dem Hut. Die miese Skalierung mit HT spricht aber für keine gelungene "Interpretation" der CryEngine - das hat man schon ganz anders gesehen. Und weckt Zweifel ob dieses Spiel, wenn es schon bei 1080p mehr oder weniger in's Limit von Takt*IPC (welches derzeit käuflich zu erwerben ist) rennt, überhaupt mit einem Sechs- oder Achtkerner zu mehr frames überredet werden kann. Klar, alles noch work in progress, aber bitte... Mut macht das nicht.

P.S.: Könntet ihr bitte solche speziellen Testergebnisse wie bei wreckfest besser herausarbeiten? Der reine GPU-benchmark suggeriert eine klare nVidia-Dominanz, wobei diese lediglich dann zustande kommt wenn man einen übertakteten Vierkerner nutzt. Findet einer der in diesem Forum gern genommenen und empfohlenen Xeons Verwendung, kann AMD auf dieser Plattform ordentlich Boden gut machen. Sollte man der Wahrheit halbe doch mal mit einfliessen lassen da es das GPU-ranking für Besitzer von nicht-K-CPUs welche dafür mit HT ausgestattet sind doch etwas anders aussehen lässt.

Ach ja: die Werte der AMD-Karte (290X) aus dem Prozessortest stimmen mit der aus dem GPU-Test überein. Was man zumindest von den Werten der GTX980 nicht behaupten kann.

Diese legt vom CPU-Test zum GPU-Test um schlappe 9 FPS zu, was Pi mal Daumen knappen 20% Leistungszuwachs entspricht. Die 60 frames aus dem GPU-Teil erreicht sie im CPU-Test lediglich unter 1280*720.

Jetzt kann man sich entscheiden: entweder ist da ein massiver Fehler unterlaufen oder die "Versuchsdokumentation" ist fehlerhaft. Was beides nicht erst seit KT zu Guttenberg eine gern genommene Ausrede für Betrug wäre.
 
Zuletzt bearbeitet:
oh man wieder Nvidia Boys hier ohne Ende

hier bevorzuge beide. Beide haben Probs mit Treibern
Doch AMD hat das klar bessere Preisleistungsverhältnis.
Meine Erfahrung.

Auch Nvidia hat Probs. Wenn ich an BF2 denke damals und die Fermis
Da ruckelte es fast ein halbes Jahr lang drauf. Immer kleine Miniruckler
Mit meiner 5870 lief es ruckelfrei und dazu noch fast 40% schneller zur gtx 470 damals
 
Tresenschlampe schrieb:
Hauptsache im CB Kaufberaturngsforum werden von den Pseudoprofis zu 75% und mehr "Schrott AMD" Lösungen à la R9 290/280 "empfohlen"... weil's billiger ist!

Sowas sollte mit Forenban bestraft werden...

Wer von euch kennt sich denn im Kartellrecht aus?
Was passiert nach EU Recht mit Unternehmen mit marktbeherrender Stellung und Wettbewerbsbeschänkung?

Strafen, Zerschlagung... Intel mobile, intel x86, intel Server, intel Grafik.... / NV mobile, NV professional, NV entertainment und Consumer

was passiert nach US Recht mit diesen Firmen? Antritrust ist ganz einfach und brutal...
Zerschlagung.
Dann wird aus einer Firma wie Intel oder Nvidia eben mehrere kleine, die weder Räumlich, Personnel, Wirtschaftlich noch technisch miteinander kooperieren dürfen. Vorbei sind die Synergien, economies of scale und scope und die Marktmacht.

Gewinnen tun nut wir verbraucher denn Wettbewerb führt auf einem Markt zu einem Gleichgewichtspreis, Monopole zu einem Cournotschen Punkt und damit einem Marktversagen, welchen preis zahlen wir verbraucher dann nur..... mehr oder weniger ;)
Das weiß jeder Student im ersten Semester Microökonomic.

Aber macht nur weiter so kauft nur bei den großen, lasst die kleinen kaputt gehen.
Denn ohne Wettbewerb Gewinnnen wir.... sehen wir ja an den Bezinpreisen.....
der Rohölpreis fällt um 50% und der Sprittpreis um 30%, der Rohölpreis steigt um 10% der Benzinpreis um 15%. der Michel ärgert sich und tankt trotzdem voll.... am besten Shell V Power das mach mein Auto viiiiiiiiieeeeel Schneller :)

ja alle findet es normal das eine Company wie Intel, Microsoft und NV die kurz vor erneuten Trust Verfahren stehen noch größer werden. Hey dann kostet die nächste GTX 1080 eben wieder 700Euro aufwärts der Gamer wird es schon kaufen... und die GTX 1080TI dann 1000€ why not. wir haben ja keinen Wettbewerber mehr oder ist intel HD jetzt ein gegner für uns ...
 
nschlichtmann schrieb:
Warum ist NVIDIA eigentlich so verhasst? Was machen die denn schlechter bzw. anders als z.B. AMD, das sehr oft als benachteiligtes Kind dargestellt wird?

So verhasst ist Nvidia gar nicht, betrachtet man die Verkaufszahlen.

Viel eher gibt es lediglich -wie so oft- laute Minderheit einfach gestrickter, welche einen Seelenlosen Großkonzern für ein lebendiges Wesen hält und es sich zur Aufgabe gemacht hat ihn zu verteidigen.
Dies ist leider kein ganz neues oder einzigartiges Phänomen sondern mittlerweile vielerorts zu finden (beispielsweise auch bei den unreflektierten Apfel-Anbetern).

Ich persönlich will praktisch umgesetzte Leistung für mein Geld sehen und werde bestimmt nicht aus falscher Idealisierung anfangen das schwächere Unternehmen zu supporten.
Wenn AMD GPU´s und CPU´s baut die den Markt Leistungstechnisch anführen (und das praktisch und nicht anhand von Rohdaten auf irgendwelchen AMD-Sheets) werde ich -wie vor Jahren- auch wieder dort kaufen. So lange bleibe ich bei NV und Intel. So einfach ist das.
 
Zuletzt bearbeitet:
Tresenschlampe schrieb:
Hauptsache im CB Kaufberaturngsforum werden von den Pseudoprofis zu 75% und mehr "Schrott AMD" Lösungen à la R9 290/280 "empfohlen"... weil's billiger ist!

Sowas sollte mit Forenban bestraft werden...

Hmm, man merkt das Ferien sind. Müssten die Kids sonst nicht langsam ins Bett? :rolleyes:
Wen sich alle so eine beschnittene Mainstreamkarte wie die 970er reinbauen sollen, .... bitteschön!
Noch besser wenn es Leute wie dich glücklich macht. :o
Den wahren Wert der 970er wird man wohl in wenigen Wochen nach Release des BigMaxwell auch in diesem meist "grünlastigen Forum" wieder anders einschätzen.
Hab mir übrigens diese Woche eine 290x mit 8GB entgegen aller Kaufberatungstipps geholt, und kann dank Supersampling auch auf 1080p noch Spass haben wo der 970er schon längst die Puste ausgeht.
Aber stimmt schon, Nividia ist der angebissene Apfel und Messias unter den Grafikkarten, und der Pöbel huldigt diesem Verein.
...sorry, musste mal sein!
 
@CB-Team: Hättet ihr eventuell auch noch nen 6-Kerner zum Testen von Star Citizen parat? Wenn das Spiel wirklich so CPU-Kernabhängig ist, fände ich es interessant zu erfahren ob es bei 6 order gar 8 Kernen nochmal zulegen kann oder ob es eventuell konkret auf 4 Kerne ausgelegt ist.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben