News AMD: Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$

Liegt sicher auch daran, dass man nach der Vorstellung von AMD nicht wirklich etwas weiß und weiter im dunkeln steht. Ist ja nicht mehr lange bis Ende des Monats und das Mysterium wird aufgelöst. War doch bei der Fury genauso. Monatelanges herumraten.
 
Del Torres schrieb:

danke.. das ist dann ja aber janz weit wech von den auf den folien proklamierten "bis zu" 2,7 Fach..
naja, vielleicht hat der Entwickler es auch einfach nicht drauf oder nicht richtig implementiert. Abwarten
 
DocWindows schrieb:
Dann hätte man auch sagen können "RX 480 schneller als 380 CF" oder so.
Ach Doc, einmal noch, damit es hier im Thread nur trölfzigmal wiederholt wurde:
Die Marketingaussage dahinter lautet: 250$ sind schnell genug für VR. Und wenn ihr Premium haben wollt, dann reichen auch 500$ für 2 anstatt 700$ für 1 und die sind dann obendrein noch schneller.
Der Trick dahinter: Man bekommt 2 für billiger als 1 UND es ist sogar besser! Das wird auf der Metaebene kommuniziert und das bleibt bei der avisierten Zielgruppe hängen. CF und dieses ganze gedöhns, interessiert hier nicht.

Wie gesagt, seit langem mal wieder ein Marketing-Coup von AMD. Habe schon lange nix mehr gesehen von denen das so gut war.
 
so isses...
wenn der Punkt erreicht ist, das 4gb benötigt werden, funtkioniert das eben nicht/vollständig.
Hätten Sie es den Käufern vorher mitgeteilt ,hätte jeder die Wahl gehabt sie dennoch zu nehmen und damit zu leben.

Stichwort "versteckter Mangel".. hier ist vom Hersteller entweder vorsätzlich (da gewußt aber eben nicht publik gemacht) oder Schludrig (nötige fehlende Sorgfaltspflicht beim internen Produkttest) gehandelt worden. Für versteckte Mängel gibt es eine Rügefrist. Die ist bei den meißten wahrscheinlich abgelaufen bevor es gemerkt worden ist.
 
-Spectre- schrieb:
Es geht um Gaming und die Hauptsache sollte sein, dass jeder seine Lieblingsspiele in voller Grafikpracht genießen kann und zwar egal mit welcher Marke.

Du Narr! ""Es geht um Fußball und die Hauptsache sollte sein, dass jeder seinen Lieblingssport in voller Pracht genießen kann und zwar egal welcher Verein spielt""

Was die Leute immer vergessen und was ich absolut legitim finde: man kauft sich mit einem Produkt auch ein Gefühl das frei von jedweder Rationalität ist. Genau genommen ist es genau dieses Gefühl warum wir überhaupt überlegen ob Produkt X besser ist als Produkt Y. Es ist ein Gefühl weswegen wir überhaupt auf die Idee kommen zu spielen.

Und dann kommt ein Typ im Forum und will uns dieses Gefühl streitig machen. Da geht der Spass doch erst richtig los :-)

Arm sind die die meinen Rationalität sei der Weg zum Glück!

Und übrigens: Nvidia User haben kleine ****

So long :-)

Ned
 
ampre schrieb:
Spätestens jetzt wird die Doppelmoral von vielen Nvidia Anhänger sichtbar. Erst maulen weil sie denken das AMD bescheißt. Dann stellt man aber fest das Nvidia der ist der bescheißt. Und dann wird aus einem Bug ein Feature. :freak:

du kannst dir sicher sein, das beide bescheissen. wie gesagt, bleibt abzuwarten, wie es bei praxisbezogenen tests aussieht und nicht bei einem game, das eh das steckenpferd von AMD ist, auch vor der polaris;)
 
Unnu schrieb:
Warum sieht dann NVidia auch noch besser / schärfer aus?
Das wäre interessant zu wissen wie sie das hinbekommen.

Weil sie die falschen Shader verwenden, nämlich angeblich jene, die das Terrain mit weniger Schnee und mehr Reflektionen darstellen, was zur Folge hat, dass Bodendetails dunkler und schärfer erscheinen und somit zu dem subjektiven Eindruck führt, es seien mehr Details vorhanden, während in der von der RX 480 berechnet Szene mit mehr und vor allem matten Schnee (wie vorgesehen), viele Details gedämpft werden. Den Effekt sollte jeder kennen, der mal einen Reshade verwendet und mit den Kontrast- und Schärferegler gespielt hat. Aus dem gleichen Grund spielt auch so mancher Gamer lieber auf (semi-)glossy Displays. Sieht einfach schärfer und knackiger aus, auch wenn sich der Detailgrad nicht verändert.

Das ist aber kein wünschenswertes Verhalten des NVidia-Treibers. In anderen Szenen kann das optische Resultat ganz anders wirken, weil der NVidia-Treiber nicht das macht, was er soll, und so beispielsweise die Abstimmung der Lichtverhältnisse nicht mehr zu den verwendeten Shadern und deren Reflektionsverhalten passt. Ich finde übrigens, dass nicht jede Szene in der Demo auf der NVidia-Karte besser aussieht. Es gibt einige Bilder, in denen der Lichteinfall relativ gering ist, so dass das Reflektionsverhalten der vom NVidia-Treiber verwendeten Shader nicht mehr so stark hervor tritt. In diesen Momenten sieht die korrekt berechnete und dargestellte Schneebedeckung in der von der RX 480 berechneten Szene für mich subjektiv besser und schöner aus.

Seltsam finde ich nach wie vor, warum man für diesen Vergleich überhaupt ein Spielszene heran gezogen hat, von der man wusste, dass der NVidia-Treiber diese Szene falsch berechnet. Klar, AoS ist ein Vorzeigespiel für die Radeon-Karten, aber das ist auch Hitman, und mit diesem Spiel hätte man die gleiche Aussage erzielen können, nämlich dass die RX 480 bis zu 60 Prozent der Leistung einer GTX 1080 zu rund einem Drittel des Preises erzielen kann. Erspart hätte man sich aber diese unsägliche Diskussion und den Eindruck, dass die Probanden nicht den gleichen Test zu absolvieren hatte. Außerdem ist Hitman für viele wahrscheinlich das interessantere Spiel und weniger belastete Spiel.


moquai schrieb:
Lies Dich schlau, es muss nicht unbedingt etwas fehlen, was bei der 970 ja eh nicht der Fall ist, denn der fehlen keine 0,5 GB.
Warum hat NVidia dann nicht von Anfang an gesagt, dass die letzten 0,5 GB nicht performant und damit kaum bis garnicht nutzbar angebunden sind? Wenn die GTX970 keine Mogelpackung in der Form "Es ist weniger drin, als die Verpackung vermuten lässt!" ist, dann hätte NVidia diesen Umstand auch nicht verborgen. Aufgeflogen ist erst, als die Spieler bemerkten haben, dass nicht ganz das bekommen haben, was versprochen wurde.
 
Zuletzt bearbeitet:
Disco STFU schrieb:
Wieso muss ich mich schlau lesen? Du vergleichst Bulldozer mit der GTX 970.
Über den damaligen Vorgang mit der Bulldozer-CPU, aber den kennst Du ja schon, sonst hättest Du nicht widersprochen. Und man kann sehr wohl diesen Vergleich anstellen.

Beide Firmen haben Dreck am Stecken, sie haben Mist verzapft, aber dieser Mist muss ja nicht aus identischen Sparten entspringen. Einer baut Mist im Lager von Firma A, der andere im Büro von Firma B.

Disco STFU schrieb:
Und der Ram der GTX 970 ist so langsam angebunden dass er effektiv nicht nutzbar ist.
Sicher, aber Du hast geschrieben, ob irgendwo 0,5 Kerne fehlen. Ein Wink zur 970, denn viele schreiben heute immer noch, die 970 hätte keine 4 GB, was aber nicht so ist.
 
DocWindows schrieb:
So Wie ich das ....

Sind das die gleichen AMD Fans, die sich günstige AMD Karten wünschen, um ebenfalls günstig an NV Karten zu kommen?

Ich würde es auch sehr begrüßen, wenn diese dämlichen Rot-Grün vergleiche aufhören und wieder sachliche Diskussionen zustande kommen.

Selbst bei den präsentierten Themen kann man das tun, zb kann man auch sachlich die BQ Unterschiede erörtern.
Hier wurde ja auch viel mehr als nur deins/meins besprochen, nur eben leider nicht sachlich genug

Ich habe den Verdacht schon länger, aber so langsam ist mir klar, was eure Angie mit Neuland meinte. Denn (sehr) vielen Menschen fehlt einfach die Erfahrung im Umgang im öffentlichen Netz und daraus resultieren nun solche "Shitstorms" und "Flamewars" und etc
Außerdem war Internetzugang bis vor kurzem noch einem "elitären" Kreis vorbehalten, mittlerweile kann jedes Smartphone ins Netz
 
oldmanhunting schrieb:
Liegt sicher auch daran, dass man nach der Vorstellung von AMD nicht wirklich etwas weiß und weiter im dunkeln steht. Ist ja nicht mehr lange bis Ende des Monats und das Mysterium wird aufgelöst. War doch bei der Fury genauso. Monatelanges herumraten.
So sehe ich es auch. Am Ende wurde nicht viel gesagt und auch nicht viel gezeigt. Der Preis ist vielversprechend, aber auch erst im Kontext realer Performancevergleiche
aussagekräftig. Vor allem Details zu den VR Funktionen wären toll.
 
Ich frage mich ja warum man ein neues Produkt zeigt und es primär gleich gegen ein mehr als doppelt so teures antreten lässt. Hat man den nichts bei dem die 480 massiv überlegen gegenüber einer 960 oder 970 ist? Bei dem Kunden kommt doch wieder nur an, dass eine NV = 2 AMD wenn es um Leistung geht.
 
Muss ich denn Fan sein um etwas gut zu finden oder nicht? Ich will ne Karte die nicht so teuer ist und schön kühl bleibt weil ich ein kleines Gehäuse habe, mir egal von wem - Problem ist nur dass die AMDs so heiß werden und dadurch sehr laut in meiner Bude.
 
issenia schrieb:
Na wie erlärst Du denn sonst, dass GTX 1080 unter DX 12 in 4K Leistung gegenüber DX 11 verliert.
Sicher wieder durch überragende DX 12 Fähigkeiten von nVidia und noch bessere unter DX11.
https://www.computerbase.de/2016-05...agramm-ashes-of-the-singularity-async-compute
Anhang anzeigen 562254

Hab ich zb in einigen Posts hier erst kürzlich erklärt. Ein Verlust von wenigen % halte ich da durchaus für logisch. Man spart nicht generell Berechnungen ein, man entlastet bei DX12 die CPU was zu höherer GPU Auslastung führen kann, nicht muss. Diese CPU Entlastung kostet offensichtlich wenige % GPU Leistung durch den Mehraufwand der da berechnet werden muss. Lag die Auslastung der GPU durch ein vorherrschenden CPU Limit bei zb 75%, so fällt dieser Mehraufwand nicht auf wenn die GPU danach auf zB 100% ausgelastet wird. Lag sie aber schon bei quasi 100% kosten diese CPU Entlastung eben ein paar % da weniger für die eigentliche Grafikberechnung über bleibt.



Edit: Beispiel:

Stell es dir in GFlops vor und vergleiche die meistens recht gleich schnellen Karten GTX 980 TI und Fury X. Nehmen wir an dass GFlops 1:1 in In Game Leistung umgesetzt werden können.

Fury X -> 8.601 GFLOPs
GTX 980 TI -> 6.770 GFLOPs

Angenommen beide wären genau gleich schnell (aktuell, DX11), Nvidias Auslastung wäre bei 100% und Spieleleistung würde sich 1:1 aus den Flops abrufen lassen... läge die Fury X Auslastung bei etwa 78%.

Die CPU wäre mit 200 GFLOPs (etwa ein Skylake 4 Kern) belastet und angenommen die Verlagerung CPU Last -> GPU Last (mittels DX12) erfolgt 1:1, zugleich steigt die GPU Auslastung auf ein Maximum.

Dann bliebe der Fury X noch 8.401 GFLOPs, der GTX 980 Ti noch 6.570 GFLOPs für die Produktion der Bilder, in Summe würde sich die Performance

der Fury X um 24% verbessern, 124% vom Ausgangswert
der GTX 980 TI um 3% verschlechtern, auf 97% der Ausgangsleistung

Ziemlich genau also das, was wir aktuell sehen.

Ganz ohne Async Shader usw.. diese treiben AMDs Auslastung im besten Fall näher gegen die 100%.
 
Zuletzt bearbeitet:
moquai schrieb:
Über den damaligen Vorgang mit der Bulldozer-CPU, aber den kennst Du ja schon, sonst hättest Du nicht widersprochen. Und man kann sehr wohl diesen Vergleich anstellen.

Beide Firmen haben Dreck am Stecken, sie haben Mist verzapft, aber dieser Mist muss ja nicht aus identischen Sparten entspringen. Einer baut Mist im Lager von Firma A, der andere im Büro von Firma B.


Sicher, aber Du hast geschrieben, ob irgendwo 0,5 Kerne fehlen. Ein Wink zur 970, denn viele schreiben heute immer noch, die 970 hätte keine 4 GB, was aber nicht so ist.

ich würde da mal ganz frech behaupten , das das keine Rolle spielt ob die fehlt oder nicht nutzbar sind.
Ein Gericht würde den Zweck eines Produktes bewerten und ob die angegeben Eigenschaft bzw deren Einschränkung den Zweck beinträchtigt.

Ich verkaufe dir einen PC mit 16gb arbeitssprecher, aber sage dir nicht dazu, das der Speciher nicht zum Board paßt, ergo nicht nutzbar ist. Arglistige Täuschung ?
 
mfJade schrieb:
Muss ich denn Fan sein um etwas gut zu finden oder nicht?.
Tja, Fan, das ist so eine Sache, was mich angeht, ich sehe etwas, teste, probiere, fahre oder was auch immer.
Das wiederholt sich, weil ich es für gut befunden habe. Und irgendwann wird man wohl Fan genannt oder sieht sich als solcher.

F4711 schrieb:
Ein Gericht würde den Zweck eines Produktes bewerten und ob die angegeben Eigenschaft bzw deren Einschränkung den Zweck beinträchtigt.

Würde? Was sagtest Du noch gleich, wie man die Sache geregelt hat?
 
ich finde es immer wieder erstaunlich was für geier sich bei (pre)launches in foren rumtrieben.

die versuchen dann vorab zu sehen wo die neuen produkte preislich landen werden und welche leistung sie haben werden um sich bestätigt zu sehen für ihre gebrauche hardware noch einen halbwegs hohen preis abzugreifen...da werden jetzt 970er, 980er (ti) verschärbelt um sie ja die neuerscheinungen leisten zu können...

...und dann halten einige davon noch hochschwingende reden über konsumhörigkeit und preistreiberei.... :rolleyes:

wird das jetzt auch bei amd besitzern so? also jetzt noch schnell seine r9 xyz loswerden?
 
Ned Flanders schrieb:
Was die Leute immer vergessen und was ich absolut legitim finde: man kauft sich mit einem Produkt auch ein Gefühl das frei von jedweder Rationalität ist. Genau genommen ist es genau dieses Gefühl warum wir überhaupt überlegen ob Produkt X besser ist als Produkt Y. Es ist ein Gefühl weswegen wir überhaupt auf die Idee kommen zu spielen.

Und dann kommt ein Typ im Forum und will uns dieses Gefühl streitig machen. Da geht der Spass doch erst richtig los :-)

Arm sind die die meinen Rationalität sei der Weg zum Glück!

Und übrigens: Nvidia User haben kleine ****

So long :-)

Ned

Haben kleine vier Sterne? Dann ist es aber kein Premium :D

Ich will niemanden verbieten etwas besser zu finden oder etwas schlechter. Es ist mittlerweile einfach nur anstrengend hier irgendwas zu lesen. Warum muss man alles niedermachen, was man nicht mag. Ich mag z.B. AMD, Nvidia finde ich aber auch nicht schlecht; fahre BMW, finde aber MB auch nicht schlecht usw. Außer französische Autos, die sind nun mal wirklicher Schrott :D (nicht ernst nehmen).

Ich finde einfach man kann auch sachlich über etwas diskutieren ohne sich gleich auf das Niveau eines pubertierenden Teenagers zu begeben. Und das sucht man in diesem Thread leider vergebens.
 
feidl74 schrieb:
du kannst dir sicher sein, das beide bescheissen. wie gesagt, bleibt abzuwarten, wie es bei praxisbezogenen tests aussieht und nicht bei einem game, das eh das steckenpferd von AMD ist, auch vor der polaris;)

Ein Steckenpferd von AMD war/ist es doch nur, weil NV seine DX12 Treiber (wie versprochen) bis dato für Maxwell nicht auf Vordermann gebracht hat respektive nicht kann, weil einfach verschieden Funktionen bei der Maxwell Architektur nicht in Hardware gegossen sind.
Ihr solltet einmal aufhöhren dem falschen den schwarzen Peter zuzuschieben.
Die Jungs von Oxide haben doch damals offen publiziert das sie mit NV und AMD zusammenarbeiten. Haben damals soweit ich mich erinnern kann die Kommunikation offen gelegt.
Das das bei AMD besser funktioniert liegt offensichtlich schlicht an deren Hardware.
Was soll Amd dann bitte schön machen ? Asynchroneous Compute per treiber bei sich selbst deaktivieren, damit NV nicht so doof dar steht bei diesem Benchmark ?
wtf
 
@Oldmanhunting:
Manchmal frage ich mich echt, glaubst du selber den Mist den zu verzapfst oder machst du das zum Spaß oder aus Unwissen..WO Gab es denn vor 2 Jahren mehr Leisten für etwas mehr Geld?

Nehmen wir mal die Startpreise der letzten Gens:
Geforce 970 (Startpreis:) 2014: 303€ für 4GB Verbrauch im Schnitt bei 140W (2x 6-Pin PCIe)
Geforce 980: 544€ für 4 GB Verbrauch im Schnitt bei 159W (2x 6-Pin PCIe)
(P10 Leistung in etwa bei 980@ 8GB, denn 4 GB ist Custom also hat AMD ne 8GB gezeigt) (1x 6-Pin PCIe) (265€ nach UVP bei 249$)
Radeon 390X: 449€ für 8GB, Verbrauch im Schnitt bei 290W (1x 8-Pin PCIe, 1x 6-Pin PCIe)
Radeon 390: 344€ für 8GB, Verbrauch im Schnitt bei 250W (1x 8-Pin PCIe, 1x 6-Pin PCIe)

Also nun sage mir mal: WO gab es bitte soviel Leistung in der Mittelklasse? Eine 970 kostete schon 40-50€ Mehr und hat weniger VRAM, und weniger Leistung. Eine 980/390X sind viel zu teuer gewesen und auch ne 390 war zu teuer UND selbst Nvidias tolle 970 und 980 hatten 2 mal 6 Pin Pcie, um Lastspitzen abzufangen.
Die Custons sind ein garant für eine miese Effizienz und ganz ehrlich. Selbst HWluxx und PCGH haben bewiesen dass man 2Ghz OC nicht ohne Powerlimit heben erreichen kann und schon schlßuckt sie keine 180W mehr. Man kann sich sein Weltbild auch so lange zusammenrücken und -lügen bis man selber daran glaubt. Fakt ist.. NOCH Nie gab es soviel leistung in der Mittelklasse, wenn man von 6870 zu7870 zu 280 zu 380 und 260 zu 470 zu 570 und 670 geht. Die 970 ist ein Sonderfall, da sie schon Bald nicht mehr Nutzbar sein wird, sobald man die vollen 4GB VRAM Adressiert. Bisher sorgen diese "gameready Treiber ja noch dafür, dass es nicht passiert) Aber es wird passieren.

http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-20.html

Achja eines noch.. die 380X und die Tahiti Chips sehen auch nicht besser aus gegen P10. Das könnte eben doch AMDs neuer Pitcairn werden.
 
Zurück
Oben