News AMD verrät Termin für Radeon R9 290X BF4 Edition

sorry, aber ich kauf von einem gemüsehändler auch kein fleisch, auch wenn es ein feature ist. wenn amd sich mehr auf grafikchip entwicklung konzentrieren würde und weniger auf tolle audio gimmicks, die am ende wahrscheinlich genausoviel wert haben, wie ein realtek onboard chip, dann können die es auch gleich lassen. nur weil es geschenkt ist, muss es nicht gut sein.

wer sich für 100€ ein gutes headset oder mehr für gute lautsprecher ausgibt, kann sich auch für 60-100€ eine richtige soundkarte kaufen, die sicher nochmal um welten besser ist, als das tolle trueaudio.

ist ja nicht so, das zusätzliche chips und features keine leistung kosten oder die abwärme senken würden.. erstmal das eine in den griff kriegen, dann über das andere nachdenken. niemand kauft sich außerdem eine AMD karte, weil die jetzt endlich trueaudio hat, wo jeder jahrekang drauf gewartet hat
 
Panerai schrieb:
Du kannst davon ausgehen dass mehr als 50% der Leute die eine Graka um € 600,-- kaufen auch eine Soundkarte drin haben.
Das bezweifel ich aber mal ganz stark das mehr als die Hälfte dieser(!) Gamer eine seperate Soundkarte ala X-Fi, Xonar oder gar Auzentech besitzen... Der Anteil dürfte eher geschätzt bei max 20% liegen, eher noch darunter.
 
Ich persönlich habe mir zwar jetzt die Zotac GTX 780 AMP gegönnt, bin aber jetzt schon gespannt was mit den Preisen der Titan passiert wenn die R9 290X auf gleichen Niveau liegt und wahrscheinlich zwischen 550-650 € kosten wird. Man sollte nicht vergessen das immer mit der Standard Varianter der TITAN gemessen wird und in der ne Menge Leistungsreserven stecken was die Taktung usw. angeht. Sollte der Preis dementsprechend fallen ( auf R9 290X Niveau ) wäre diese auch gleich wieder interessant. Da Verbrauch, Speichergröße und eben die Leistungsreserven reizen. Wobei ich denke das sich NVIDIA da dann im Bezug auf die GTX 780 nen kleines Eigentor schiesst. Oder leichter gesagt zwei Karten auf dem Markt wirft die Preislich und Leistungsmäßig sehr sehr nah zusammen liegen und für das Highend Segment stehen.
 
mackenzie83 schrieb:
sniemand kauft sich außerdem eine AMD karte, weil die jetzt endlich trueaudio hat, wo jeder jahrekang drauf gewartet hat
Hat das jemand behauptet?
Aber unter Umständen ist TrueAudio besser als so mancher Realteksound.

Ob es der Fall ist wird sich zeigen, Du allerdings weißt genausowenig wie gut oder schlecht True Audio ist... Ich auch nicht, aber ich rede es nicht gleich schlecht.
 
Panerai schrieb:
So eine tolle Karte, unglaublich was die kann: 1% schneller als Titan, 60 Watt mehr, über 90° heiss aber dafür kostet sie NUR € 600,--.


Die Leistungsaufnahme bei Furmark kann man in die Tonne treten!

Bei AMD Karten liegt bei Furmark der volle Takt und max. Spannung an. Bei Nvidias Titan und GTX 780 bei weiten nicht!
Die Titan liegt bei Furmark bei max. 836MHz und 0.998V (bei Spielen taktet sie bis 993 MHZ und 1,148V).
 
Matzegr schrieb:
Die Leistungsaufnahme bei Furmark kann man in die Tonne treten!

Bei AMD Karten liegt bei Furmark der volle Takt und max. Spannung an. Bei Nvidias Titan und GTX 780 bei weiten nicht!
Die Titan liegt bei Furmark bei max. 836MHz und 0.998V (bei Spielen taktet sie bis 993 MHZ und 1,148V).

Ist das so?
Dann wäre das ja mal wieder ein Treibercheat von NV. Kann dass CB bestätigen?
 
Volker schrieb:
Nein keinesfalls, sonst hätte ich wohl kaum ne AMD-Karte. Nur die hab ich 18 Monate schon. Und 2 Jahre keine echte neue Karte und am Ende liegt der Neuling nichtmal 20 Prozent über dem was ich jetzt hab. [...] Nach 22 Monaten erwartet man schlichtweg mehr.

Die Erwartungshaltung teile ich, aber ich habe die Hoffnung noch nicht aufgegeben. (Ich hoffe, dass Volker hier nicht schon aufgrund von besserem Wissen spricht, sondern auch noch spekuliert bzw. sich auf unsichere Quellen bezieht.)

30% Leistungszuwachs (in Spielen, synthetische Benchmarks sind unwichtig) gegenüber einer HD7970GE erhoffe ich mir mindestens von der R9 290X. Das würde zu den vermuteten Hardware-Spezifikationen passen und es gibt ja auch einige inoffizielle Benchmarks, in denen es danach aussieht. Und das bitte für nicht mehr als ca. 600€.
Dabei habe ich allerdings schon die Kröte geschluckt, dass sich die Produktzyklen auf das Doppelte verlängert haben und die (Einführungs-)Preise kräftig steigen. Aber wenigstens der Leistungszuwachs gegenüber den Vorgängern sollte bei dieser neuen Generation passen.

Ob die 290X unter Last 250W, 270W oder 300W verbraucht, wäre mir ziemlich schnuppe, solange die Leistung stimmt. So eine Karte kaufe ich mir nicht zum Stromsparen.
Dass der Referenzkühler, der augenscheinlich dem alten Modell der HD7970 entspricht, höchstwahrscheinlich hinten und vorne nicht ausreichen wird, um die größeren Hawaii-GPUs leise und effizient zu kühlen, wäre egal, wenn es zeitnah auch gute Custom-Designs gibt. Es wundert mich aber, warum AMD diesen offensichtlich völlig untauglichen Kühler überhaupt vermarktet. Temperaturen jenseits von 90° bei lärmenden Lüfter wären ein PR-Desaster, das den Karten ewig anhängen wird.

Wie gesagt, noch hoffe ich trotz allem darauf, dass mit der R9 290X endlich eine interessante Karte für 2560x1440 in guten Qualitätseinstellungen kommt.
Nvidia hätte längst die Chance gehabt, sowas anzubieten, aber sie haben sich entschieden, uns lieber allen den Stinkefinger zu zeigen. Sie haben die GK110-Karten erst ewig zurückgehalten (bzw. nur als Tesla vermarktet), dann in beschnittener Ausführung zu einem einfach nur lächerlichen Preis als vermeintliches "Luxusobjekt" angeboten und dann nochmal später, nochmals stärker beschnitten und zu einem für normales High-End immer noch 150€ zu hohen Preis, gebracht.
Die GTX780 ist, wenn man z.B. die Maßstäbe der 500er-Generation anlegt, eigentlich sowas wie eine GTX760Ti und die Titan eine GTX770!

Obwohl ich genug Geld hätte, um mir die trotz allem technisch recht guten Karten (zumindest gibts ja nichts besseres :( ) zu kaufen... wenn mir eine Firma derartig ins Gesicht spuckt, dann kaufe ich aus Prinzip nicht. :mad: (Und das sage ich als langjähriger Nvidia-Kunde.)
Auch wenn Nvidia jetzt kräftig die Preise senken würde, hätte ich immer noch dieses dreiste Verhalten im Hinterkopf und außerdem wären auch z.B. 500€ für eine Karte mit GK110-Vollausbau (was ja nach den letzten Erfahrungen geradezu absurd optimistisch ist) angesichts der schon über ein Jahr alten GPU immer noch heftigst überteuert.

Ich setze deshalb mangels Alternativen alle meine Hoffnungen auf AMD.
 
Ja, Furmark ist tatsächlich sinnlos - dennoch sollte es mich wundern, wenn die AMD-Karten einen geringeren Verbrauch als die derzeitigen nVidia Top Karten hätten - aber warten wir es ab, richtige vertrauenswürdige Testergebnisse habe ich eh noch nicht gesehen!
 
mackenzie83 schrieb:
ja genau, dann haben die leute das tolle trueaudio, aber immernoch ihre billig-pc-lautsprecher und was bringt das dann? gar nichts! richtig!

Genau, alle spielen nur auf billigen Aldi Lautsprechern. :rolleyes::
Also ich hab einen Receiver und ~800Euro an Lautsprechern am PC, dazu einen 300€ geschlossenen Denon und 400€ In Ear Monitore.
Am Fernsehr nochmal Receiver und 2000€ Quadrals.

Pausalisierung ist schon was tolles.
 
black90 schrieb:
Wenn sie etwas hätten, würden sie damit in der Werbung prahlen.
Geheimnistuerei = Flop, egal bei welchem Produkt.

Meine Meinung. Ich würds zwar nicht als Flop bezeichnen, aber was hier abgeht, deutet ganz klar auf eine Karte hin, die, wenn überhaupt, mal wieder nur ganz knapp die Krone der schnellsten Single-GPU holt.

Dr.Duschlampe schrieb:
Ganz im Gegenteil. Die Karte ist schneller, um 300€ günstiger, hat mehr Features als nieWiedas Titan und BF4 ist das Sahnehäubchen oben drauf. Mantle kommt bei BF4 noch zum Einsatz. Damit wird man jeden Titan-User so derb ownen. Ich freue mich drauf.

Dir ist schon bewusst, dass Du da von einem Produkt sprichst, das über ein Jahr später auf den Markt kommt als die Kepler-Chips? Da ERWARTE ich das, was Du da als so besonders lobst...

aivazi schrieb:
Wenn man aber dem unteren Diagramm Beachtung schenkt scheint es so als ob die GCN 2.0 Architektur wesentlich besser mit dem Takt skaliert als die Kepler Architektur (wenn man denn annimmt dass die anderen Diagramme mit dem 1 % plus gegenüber der Titan stimmen) also das würde ein echter Kampf mit der Titan Ultra werden wenn diese dann auch mal rauskommt ^^

Iwie scheinen wirklich alle Leute zu vergessen, dass AMD da mit der neuen Karte gegen ein veraltetes Modell antritt. Und trotzdem wird es in den Himmel gelobt. Also nochmals:

nVidia hat den Kepler am 22. März 2012 eingeführt. Wenn nun also AMD 17 Monate (!!!) später eine "GCN" Architektur einführt, welche den Kepler Chip auf der Titan um paar Prozentpunkte schlägt, so ist das NICHT revolutionär, es ist NICHT eine gute Leistung und schon gar NICHT beeindruckend.

Ich verstehe echt nicht, was daran so schwer zu begreifen ist. AMD macht alles richtig in Bezug auf die Preispolitik und den Gamebundles, aber für das, was sie hier mit der R9 290X abliefern, verdienen sie keinen Applaus. Ausser vielleicht, wenn der Preis tatsächlich deutlich unter den nVidia Karten zu liegen kommt.
 
Wie der Verbrauch bei künstlicher Extrem-Last auf Basis von OpenGL (-> Furmark) ist, ist für Consumer doch überhaupt nicht interessant. Diese Zielgruppe spielt in erster Linie Games auf Basis von DirectX (und bald Mantle, haha). Kompetente Magazine mit realer Direktmessung unter Spielelast wie HT4U, PCGH und allen voran TechpowerUP werden uns da bald mehr verraten.

Edit: Wenn schon Volllast, dann auch bitte mit MSI Kombustor (Auswahl Direct3D 11), die ganzen Magazine die Furmark nutzen, messen komplett am Markt vorbei.
 
Zuletzt bearbeitet:
AnkH schrieb:
... für das, was sie hier mit der R9 290X abliefern, verdienen sie keinen Applaus. Ausser vielleicht, wenn der Preis tatsächlich deutlich unter den nVidia Karten zu liegen kommt.

Also gerade das würde ich nicht als besonders hervorzuhebende Leistung ansehen, angesichts der absurden Preispolitik, die Nvidia seit fast 2 Jahre fährt.

Besonders die Titan darf man meiner Meinung nach in eine Preis/Leistung-Betrachtung überhaupt erst gar nicht mit einbeziehen. Die ist derartig lächerlich weit entfernt von Gut und Böse, dass sie außerhalb jeder Skala liegt.
AMD muss mit der R9 290X nicht den symbolischen $999-Preis der Titan unterbieten, sondern den des regulären High-End-Modells GTX780 (die ihrerseits mit einem 650€-Einführungspreis schon überteuert war). Dass die R9 290X dabei auch wesentlich schneller als die GTX780 sein sollte, versteht sich wie gesagt von selbst, für eine über ein Jahr modernere GPU-Generation.
 
Das gleiche hatten Wir doch auch bei der GTX 480, was haben sich die Leute darüber aufgeregt, sie war zwar schnell, laut, viel Verbrauch usw. und trotzdem kam dann irgendwann der Refresh 580, tja, da wird AMD wohl auch bald einen Refresh bringen müssen wenn die Daten stimmen. (WENN). Aber ich verstehe das auch nicht, wieso macht man das mit der r9 290x (warum solch eine Karte, wer testet die im Labor und gibt das GO für die Maßenentwicklung?) Damit man den dicksten in der Hose hat? Was ist mit den Endverbrauchern? Man orientiert sich ja gar nicht mehr danach, man will nur noch den dickeren haben. PEINLICH!°
 
Ich hab hier auf CB noch in keinen Thread so viel Scheisse auf einmal gelesen. unglaublich was hier abgeht.

1. Bevor AMD die 290/X vorgestellt hat hat NIEMAND auch nur im entferntesten geglaubt, dass diese Karte bis auf 10% an die Titan rankommt. Und jetzt wird FAIL geschrieben wenn man die Titan Leistung ca. 300€ günstiger bekommt...
2. AMD hat kein Release Datum genannt, die bisherigen Termine waren Spekulationen
3. Die AMD Marketing Abteilung verdient einen Extra-Preis in der Apple Kategorie. Wenn auf allen Seiten im Web seit Tagen nur über die Grafikkarten diskutiert wird und die Spannung immer weiter steigt, hat AMD eindeutig was richtig gemacht.

Zu den Extra-Features wie TrueAudio und Mantle wird man mit dem Release, bzw. auf der APU13 Mitte November mehr erfahren.

Was man bisher weiß:

TrueAudio ermöglich das direkte Positionieren von Audio aus den auf der Grafikkarte eh schon vorhandenenen 3D Daten der Scene anstatt diese Positionen nach den Rendern nochmals nachzurechnen. Durch dedizierte Hardware-Einheiten können auch mehr solcher Streams mit geringerem Aufwand ausgegeben werden. Zudem wurde mit GenAudio eine Möglichkeit geschaffen auch auf Stero-Kopfhöhrern eine 3D Audio Umgebung ziemlich gut zu simulieren.

Mantle ermöglicht es die für die Konsolen XBox One und PS4 bereits auf GCN-Architektur optimierten Spiele mit weniger Änderungsaufwand als bisher auch unter Windows auf dem PC zu bringen. Dazu wird ein alternativer Renderpfad vom Treiber zur Verfügung gestellt, der diese hardwarenahen Optimierungen auch für Systeme mit AMD GCN Grafikkarten ab HD7000 ermöglicht. Ob Mantle auch unter Linux unterstützt werden wird, ob Nvidia ebenfall einen Mantle Renderpfad zur Verfügung stellen wird oder ob die Steamboxen Mantle unterstützen steht in den Sternen. Als erstes PC-Spiel wird BF4 den Mantle Renderpfad unterstützen und damit aus den hardware-nahen Optimierungen entweder mehr Performance oder mehr Effekte rausholen. Weiter DICE-Spiele wollen in Zukunft Mantle unterstützen.

Ansonsten geb ich auf die Leaks GAR NIX. Wenn das Ende des NDA durch das NDA gedeckelt ist ist das eben so. Sobald die Grafikkarte offiziell von AMD released wird werden sich Tests finden. Dann kann man immer noch meckern.

Greetz,
GHad
 
Ich hätte lieber eine R9 290X Ultra gesehen, mit 7.000Mhz Baseclock, Boost auf 14.500Mhz, 32GB-VRAM, 70.000 Shadereinheiten, mit integriertem Ölkühler, der das Öl auf 60 Grad Celsius hält und man nebenbei noch das Lager des Lüfters schmieren kann, einer integrierten Herdplatte für den Fall eines Lagerwechsels, die Startgeräusche einer Antonov fürs bessere Spielerlebnis und zu guter letzt noch ein Stromverbrauch von 2 Watt unter Last und 0,1 Watt im Idle.
 
Also ich weiss nicht ob das eine gute Idee von AMD war die Veröffentlichung des Erscheinungstermins so weit rauszuzögern. Viele werden sich wahrscheinlich schon beim Start der Beta eine Grafikkarte fuer BF4 gekauft haben und fallen als potenzielle Käufer raus.
 
Die GTX Titan ist vor gut einem halben Jahr vorgestellt worden, nicht vor anderthalb.

Das GCN in der 290(X) ist auch nicht so groß verändert gegenüber dem ursprünglichen. Der GK110 weicht da schon deutlich stärker vom GK104 ab, also würde ich den Generationsbonus nicht unbedingt ausspielen.
 
WARTET gottverdammt nochmal!
Es kann ja wohl nicht sein dass ihr alle so rummault obwohl ihr (pardon) NICHTS wisst!

Dass Amd NICHT am 15. die Tests freigegeben hat ist nur verständlich, wenn sie das ganze n paar Tage später machen sind sie länger Gesprächsthema und die Spannung wird größer

Und es ist auch gut möglich dass die bisherigen Tests kastriert wurden (reine Theorie) was für Amd grundsätzlich auch nicht schlecht wäre, denn wenn eine R9 290X mit 20% mehr Leistung gegenüber der Titan (reine Theorie) rauskommt, ist Amd die Wochen danach auch noch Gesprächsthema

ICH als Amds Marketingchef würde versuchen den Release so lang zu ziehen, dass man nahtlos mit Steamroller anschließen kann, damit endlich mal über AMD geredet wird, und NICHT immer über die anderen, das ist nur gut für den Ruf, der ja nicht gerade der beste ist.
 
Zurück
Oben