Test AMD Radeon R9 290X im Test

Dann will ich nix gesagt haben ;-) Mein Fehler.

Eine Empfehlung hätte die Karte (GTX780) von mir schon aufgrund des Preises keine bekommen, aber das ist ein anderes Thema, damit will ich nicht schon wieder anfangen.

Für mich fällt das Fazit so aus.

R9 290x ja aber nicht mit Stock Kühler. Alles andere ist für mich persönlich nebensächlich (bis auf den Preis und der wird hoffentlich noch etwas fallen). Mal sehen wie sich die R9 290 ohne x schlägt.
 
Sorry für den langen Post - aber es ist mal wieder so Hahnebüchern was hier an zeug geschrieben wird und fakten gedreht werden wie es der Wind (eigene Meinung) braucht....

Zealord schrieb:
Na super bei den ersten amis treten schon Artefakte etc. auf. Glaube AMD hat zu stark versucht diese Karte hochzudrücken. Größerer Die + besserer Kühlkörper hätten der Karte sehr sehr sehr gut getan. Schade Schade.

Kann doch wirklich nicht wahr sein, dass AMD so verzweifelt ist die Karte so rauszuprügeln. Einfach nur erbärmlich wie diese Karte auf Tester/Reviewer getrimmt ist. Schön höher Basistakt, weil kaum Reviewers OC testen und wenn überhaupt, dann nur kurz am Rande erwähnen. So könnte man direkt denken die Karte ist sehr sehr flott, aber ganz im Gegenteil. OC ist absolut garnicht möglich. Gethrottelt wird schon auf Basistakt und nach längeren Sessions ist man ganz schnell bei 95° mit 50% lüfter und auf unter 800 MHZ.
Da geht doch die ganze Leistung flöten. Selbst eine 5 Monate alte 780 mit bisschen OC schlägt die 290X und bleibt dabei kühl und leise. Frag mich echt was das soll. AMD war wohl zu sehr auf Konsolen fixiert als das sie Zeit haben vernünftige GPUs auf den Markt zu bringen.

Einfach nur erbärmlich - da bringt wieder einer irgendein Gewäsch, ohne Links, Beweisführung etc. von wegen schlechter Qualität - peppt das dann noch ein wenig mit diffamierenden Rhetorik auf.

Oder hättest du die Güte uns aufzuhellen ?
Hättest du Link zu "Bei den Amis gibts schon Artefakte"?
Temperaturbedingtes Auftreten oder Treiberfehler?

Ansonsten ist das nur reines Gewäsch, das kann ich auch. Nvidia Karten rauchen mit Standard treibern in Spielmenus reihenweise ab wegen eines Bugs....

Natürlich folgt der Diffamierung sofort ein Verweis auf das total "überlegene" Produkt des Konkurrenten - das noch nicht mal erschienen ist.

Würde mich nicht wundern, wenn die 780 Ti für 650€+ auf den Markt kommt. Nicht weil Nvidia wie gewohnt einen hohem Premiumbonus verlangt für Geforce Physx, Geforce Shadowplay, Geforce G-Sync, besseren Treibersupport, flüssigeres und smootheres Spielen, reibungsloseren und kopfschmerzfreien Ablauf, sondern weil die 290X einfach nicht einschlagen kann.
Die 780 Ti wird auf den markt kommen und stock die 290X schon schlagen. Von OC brauchen wir garnicht erst reden.

Ne leider nicht. die Abteilung die für die Kühllösung verantwort war, war wohl leider abwesend als Gott Gehirn verteilt hat.

Ja - die Referenzkühlung ist nicht gut für den Performance Mode. Aber im Quiet ist sie durchweg OK mit sehr guter Gesamtkartenleistung.

Zu guter letzt darf dann wieder ein User (z.B. ich) solche Forenbeiträge kommentieren und geraderücken - speziell das Gewäsch mit JEDE 780 Ti wird die R9 290X in den Staub werfen....oder man lässt den Fanboys eben freien Lauf auf dass sie die Meinung aller Käufer in die richtige Richtung lenken.

Stand Gerüchteküche: http://www.3dcenter.org/news/angebl...780-ti-als-neuen-kontrahent-der-radeon-r9-290
Die 780 Ti wird evtl. ~ Titan @Max PT/TT sein...eher weniger - außer alle bislang bekannten infos sind Humbug.

Kommen wir zurück zur Welt der Fakten der R9 und der GTX780 bzw. der Custom GTX 780:

Ne 780 Super JetStream, Kostenpunkt 515€
http://www.heise.de/preisvergleich/...uper+JetStream&v=e&plz=&dist=&xf=1439_GTX+780

Ist allein im CB-Test https://www.computerbase.de/artikel...rce-gtx-780-super-jetstream-test.2171/seite-2
@Stock ~3% schneller als stock Titan. (nur mal 2560@4x AA betrachtet da wir in diesem Setting genau mit dem aktuellen Test vergleichen können)
@MAX OC ~9% schneller als stock Titan (und somit leicht schneller (1%) als Titan @PT/TT Limit)

Die R9 290X im QUIET mode ist: 1,6% (sagen wir 2%) langsamer als Titan@Stock
im Performance mode ist sie 10% schneller als Titan Stock und im aktuellen Test aber wiederum 1% langsamer als Titan@PT/TT limit. Welche laut altem SuperJetStream Test wiederum ~1% langsamer ist als SJS @Max OC.

1-2% sind LOCKER Messtoleranz in solchen Tests - wie die Erfahrung und die Benchmark quervergleiche mit anderen Seiten Zeigen sogar eher ~5%.

Somit könnte man rein performance mäßig schliessen eine R9 Quiet ~ so schnell, minimal langsamer (3-5%) als eine SJS @stock.
R9 @Performance ist dann wiederum ~ so schnell wie Titan@PT/TT Limit bzw. SJS @Max OC.

Das heisst:
Gethrottelt wird schon auf Basistakt und nach längeren Sessions ist man ganz schnell bei 95° mit 50% lüfter und auf unter 800 MHZ.

Selbst in DIESEM FALL ist ne R9 also so schnell wie ne Titan ? Warum ist also das throttlen so ein Problem ?

Nur so nebenbei. Die Postulierte 780 TI soll gemäß der Gerüchteküche etwa 10-15 % vor einer Stock Titan Liegen => etwa Titan@PT/TT Limit bzw. 780SJS @Max OC (siehe 3dcenter.org news).

Und ne SJS 780 ist eine Karte mit non-referenzkühler - warte doch mal ab was die R9s mit customkühlern leisten werden...bei der 7970 GHz hats auch keiner für möglich gehalten 10-15% Leistung bei BESSERER Lautstärke und niedrigeren Verbrauch rauszuholen nur durch einen besseren Kühler....

Ganz nebenbei ist der Preis einer R9 @485€ (ohne BF4)
http://www.heise.de/preisvergleich/...&bpmax=&asuch=&v=e&plz=&dist=&xf=1440_R9+290X

Somit ist man also 6% Billiger als die SJS - welche @stock in etwa gleiche Leistung hat.

Argument Lautstärke:

Leider wurde im SJS Test in AC3 gemessen im aktuellen Test in Crysis 3.
Aber die Datenlage (nur CB betrachtet) ist wie folgt:
Titan@stock bei AC3 = 48,5 dB
Titan@stock bei crysis3 = 46,0 dB
Titan@max TT/PT crysis 3 = 56,0 dB
Titan@max TT/PT AC 3 = 55,0 dB
SJS@stock bei AC3 = 44,5
SJS@max OC AC3 = 49,5 dB
R9@Quiet mode bei Crysis3 = 50,0 db

Auch hier ist anzunehmen das +-1 dB allein schon Messtoleranz bei CB ist - vergleiche mit anderen Seiten sind umso schwerer Möglich da die Messung in dB umgebungsabhängig ist.

Fakt ist nur dass @stock die Karte etwas leiser ist als eine R9 aber faktisch Gleich schnell.

@OC ist sie nicht leiser dafür aber schneller bzw. gleich schnell wie eine R9@Performance (welche dann aber wieder lauter ist)
ABER einen @OC vergleich eines CUSTOMkühler designs mit einem Referenkühler design verliert sogar der an sich SEHR gute kühler der Titan....wo also wäre da die Angemessenheit im Vergleich mit der R9 @Performance mit referenzkühler ?

Leistungsaufnahme:

SJS 307 W @stock
SJS 347 W @Max OC
Titan 304 W @Stock (bzw. 306W im aktuellen R9 Test)
Titan 375 W @TT/PT Limit (bei beiden Tests)
R9 337 W @Quiet
R9 423 W @Performance

Jepp - das Gesamtsystem brauch mit ner R9 etwas mehr Saft um die Leistung zu erreichen. 30W bei Stock speeds und 46W bei OC.

Macht ja gemäß unserer Beispiel rechnungen zu den Stromkosten also irgendwas zwischen 0-13,95€ / Jahr aus.

Bezogen auf den Gesamtpreisunterschied von 30€.....naja.

@MikelMolto:

Der nächste der wieder nur Witzvideos linken kann...
Sieh mal nVidia Karten sterben aber dafür wenn man Starcraft 2 spielt:
http://www.google.de/url?sa=t&rct=j...=qCDa0qlOWuNeIB-SLxdL9w&bvm=bv.55123115,d.Yms

Wer den Witz findet darf ihn behalten.


@Unyu:
Deine Grafikkarte verbraucht keinen Strom. Entschuldigung, aber das tut in den Augen weh.

Wenn einem die Argumente ausgehen wird wie immer eine hier und überall gebräuchliche Redewendung, von der die allermeisten wissen wie sie physikalisch korrekt ist (was nur in der Allgemein deutschen sprache leider so nicht / kaum verwendet) wird, diffamiert um die ansonsten völlig korrekte ausführung als "lächerlich" und "unwissend" blosszustellen.

Mir tun die Augen weh wenn ich solche Contraargumente in Diskussionen lesen muss. Oder wird etwas irgendetwas an den Leistungsaufnahme vergleichen dadurch weniger wahr wenn man statt "aufnahme", "Verbrauch" schreibt ? Ändern sich vielleicht plötzlich und völlig überraschend die Wattzahlen durch das verwenden eines nicht korrekten Wortes ?

Klassischer Unyu-Fail. Was soll also diese Korinthenkackerei ?

Genauso:
Ich betrachte nur lieferbares Zeug. So wie die 525€ GTX 780. Die billigste lieferbare R9 290X liegt nunmal bei 570€.

Gestern abend war die Karte noch für 502 € lieferbar...das ändert sich doch bei solchen Preisvergleichsseiten speziell bei Kartenrelease doch stündlich ? Fällt dir mal wieder nichts besseres ein als Scheinargumente und Spiegelfechterei...
Wenn du es genauer analysieren willst um uns alle zu belehren dann mach doch mal ne Grafik wo man die Preisentwicklung der verschiedenen Produkte sehen kann (mit 1h Intervallen).

Ich muss mich wiedermal wiederholen: Was soll also diese Korinthenkackerei ?
Übrigens: Preis Stand 27.10.2013 16:00 Uhr 531 € + BF4 edition.
http://www.heise.de/preisvergleich/...&bpmax=&asuch=&v=e&plz=&dist=&xf=1440_R9+290X

Was entgegnest du nun ? dass der preis um 17 Uhr wieder bei 540 € ist oder vielleicht nur bei 520€ ? ROFL - krieg dich ein.

Nach dem GTX 680 Launch wurde die 7970 stetig günstiger, bis sie bei Titan Launch bei ~3xx€ war. Die GTX 680 hingegen hat sich nur sehr zögerlich Richtung 400€ bewegt.

Und nein die 500€ 7970 waren nicht als teuer bewertet. Eher als bedauerlich, das AMD übliche High-End Preise verlangt, nicht so wie bei der 5870.

Update:
Schmück dir doch die Wand mit deinen theoretischen Preisen. Ich bleibe bei praktischen Preisen. Da bleibt die R9 290X bei 570€ und die GTX 780 bei 525€. Sofort lieferbar, sofort einsetzbar. Nicht irgendwann.

Aktuell schon nicht mehr gültig dein Vergleich - siehe oben http://www.heise.de/preisvergleich/...&bpmax=&asuch=&v=e&plz=&dist=&xf=1440_R9+290X
531€ + BF4 vs. 494€ GTX780

Offenbar sind die GTX780 Preise seit vorgestern im "freien Fall" - woran das wohl liegen mag ?

Und was genau willst du damit aussagen ? Dass die ~3 Monate ältere Karte "schneller" im Preisverfallen ist ? Denke mal wenn man den Preis in Abstand zum Releasedatum aufträgt in eine Grafik dann wird CA. das gleich dabei rauskommen.
Aber auf die Idee wärest du wohl nicht gekommen - das wäre ja noch ein sinnvoller Beitrag zur Diskussion geworden sonst von dir und das wäre ja wohl völlig fehl am Platze.

Und noch ein unyu-fail:
Ich nenne es Vergleich der Realität. Die Leistung deiner 500€ Papier R9 290X liegt bei 0%. Sie ist nicht nutzbar, erst irgendwann. Sie ist nicht nutzbar, erst irgendwann.
HAst du schon mitbekommen das Karten aktuell stetig ausgeliefert werden ? Ja allein hier im Topic haben 2 User eine bekommen...die Shops listen aktuell auch wieder mehrer Karten als sofort lieferbar. Also Papier(launch) sieht für mich anders aus.... eher rel. hohe Nachfrage der man kaum hinterher kommt.

@SheldonCooper:
Unfähig zu lesen?! Ich schrieb davon, nur an drei Tagen die Woche zu zocken, und im Urlaub / WE / Krankheit nur 70 % und auch nicht viel am Tag.

Komisch wenn ich zocken könnte während ich krank bin, könnte ich auch arbeiten. Andererseits jemand der bei der Berechnung seiner Freizeit explizit krankheitstage im Jahr schon miteinrechnet....

@-jerico-: Danke für deinen Erfahrungsbericht mit R9.

Danke @user mit Customkühler und R9 Karten für die Infos zu OC Fähigkeit. In summe geht da also wohl faktisch immer was bis ~1100MHz....

@Fire'fly: Ja das Video das du linkst wurde vorher schon 5x verlinkt und sagt genau nichts aus - außer das man Parodien auf nahezu jedes Thema finden kann ? Schon mal was von Nuss-Püree-mit-Dill gehört ? Youtube => Die Deutsche Küchenshow....
UND was lernen wir daraus ?

@Sinthuria: Was du noch verstehen musst ist das ALLE reviewer seiten nur den REFERENZKühler (und AFAIK mit Lüfter @55% Limit) benutzten...Kabuiak hingegen ist der ERSTE (von dem ich es lese) der berichtet wie es ist wenn man einen NON-REFERENZKühler benutzt.

Genau das ist es ja auch was die Customdesigns besser und OC-Freundlicher macht. Nur deshalb weil ein besserer Kühler zumeist noch mehr Takt erlaubt gibt es ja Karten wie z.B. die 780 SuperJetStream mit OC ab Werk überhaupt.

@Zealord:
Nvidia konnte dann direkt eine super "billige" GK 104 680 rausbringen, welche zum release 10% schneller war als eine 7970 dazu leiser, stromsparender und kühler. Erst als die Treiber der 7970 verbessert wurden und AMD die 7970 GHZ auf den markt gezwungen hat wurde die Karte "gut".

1. Wo war denn eine 680 zum release billiger als eine 7970 ?
HD 7970 Preis im MAI 2012 (willkürlich 1 Karte ausgewählt) 440€ - @Release 557€
http://www.heise.de/preisvergleich/?phist=723345&age=9999
GTX 680 Preis im MAI 2012 @Release 549 €
http://www.heise.de/preisvergleich/?phist=774765&age=9999

Faktenlage nach Gemüt zurechtgedreht mal wieder...
 
Stimme Iscaran zu, hat sich mal die Mühe gemacht strukturiert und nachvollziehbar zu argumentieren.

Die 290X wird nvidias Preise ordentlich drücken, und davon profitieren alle. Zudem dürfte R290X die selbe Entwicklung durchmachen wie die 7970. Mit verbesserten Treibern und ordentlichen Kühllösungen (= u.a.höherer Takt) werden wir in den kommenden Monaten eine Performancesteigerung von ~15% erleben. Die GTX 780 bzw. Titan war zwar 8 Monate früher auf dem Markt, hat aber auch 8 Monate Vorsprung für bessere Treiber und Kühllösungen gehabt.
Wenn wir im Februar 2014 diesen Vergleich machen, sollte die R290X nochmal einen deutlichen Sprung nach vorne machen und sich deutlich vor einer Titan positionieren.

Mit 1070/3000 Mhz ist die 290X in den getesten drei Spielen schon ~ 10% schneller als der Uber-Mode.
Also sind wir von den 15% Leistungszuwachs nicht weit entfernt.
 
Zuletzt bearbeitet:
Iscaran schrieb:
Wenn einem die Argumente ausgehen wird wie immer eine hier und überall gebräuchliche Redewendung, von der die allermeisten wissen wie sie physikalisch korrekt ist (was nur in der Allgemein deutschen sprache leider so nicht / kaum verwendet) wird, diffamiert um die ansonsten völlig korrekte ausführung als "lächerlich" und "unwissend" blosszustellen.
Falsch.
Wenn mich jemand wegen einem Rechtschreibfehler "blöd anmacht" und dabei selbst Fehler macht, kommt soetwas zurück. Der Smilie tut seinen Teil zur Entspannung der Lage. Les den Kontext bevor du mich wegen so einer Kleinigkeit beleidigen musst.

Gestern abend war die Karte noch für 502 € lieferbar...das ändert sich doch bei solchen Preisvergleichsseiten speziell bei Kartenrelease doch stündlich ? Fällt dir mal wieder nichts besseres ein als Scheinargumente und Spiegelfechterei...
Tut mir Leid nicht den Preisvergleich aufzuzeichnen. Wenn dem so wäre hätte es aylano erwähnen können. Doch stattdessen greift er an wie du es tust.
Doch warte, die billigste GTX 780 liegt gerade bei 515€, von teurer kann immer noch nicht die Rede sein.

Offenbar sind die GTX780 Preise seit vorgestern im "freien Fall" - woran das wohl liegen mag ?
Denkst du ich fände das schlimm? Wie auch immer, vergess die GTX 780, wenn du meinen Post gelesen hast, ist dir bekannt dass sie nicht mit der R9 290X verglichen werden darf.

Und noch ein unyu-fail:
Versuchs nochmal wenn du eine Antwort willst.

Bei Release hat die GTX 680 500€ gekostet. Lieferbar natürlich. Kurzeitig sogar weniger, aber die waren schnell vergriffen, wenn der Laden überhaupt geliefert hat. Überarbeite deine Geizhals Kompetenzen, wenn dir die damalige Situation nicht bekannt ist.
 
Haldi schrieb:
..... die Graka vebraucht nicht immer gleich viel Strom blos weil sie immer den gleichen Takt hat.
Danke für die Info, hab das gerade mit nem Stromkostenmessgerät ausprobiert. Du hast vollkommen recht. Bei manchen Spielen seh ich nen Mehrverbrauch von etwa 100 Watt wenn ich VSync ausmache, bei manchen aber auch gar keinen. Damit ich nen Unterschied seh muss ich aber mit den Einstellungen soweit runter, dass der Rechner deutlich mehr als 60 fps macht. Wenn ich alles so weit aufdreh, dass ich ohne VSynch knapp über 60 fos bin, dann machts (fast) keinen Unterschied obs an ist, oder nicht. Was ich auch sehr interessant fand war, dass der Verbrauch im Menü über 100W weniger war als im Spiel und dass ich mit OC & OV auch nicht mehr verbraucht hab. Beim Spielen hab ich so 250 - 350W und im Windows so 175-200 Watt, wenn ich nichts mache. Hätte nicht gedacht, das das nen Unterschied macht. Kann jemand erklären warum das so ist?
 
Fire'fly schrieb:
Sehr schön wenn man auch mal über sich selber lachen kann. :)

AMD macht auf sich aufmerksam... Mission geglückt.

herrliches Vid ;) 100x besser als zb dieser AMD GPU Zerstörer Rotz ^^
 
Iscaran schrieb:
Komisch wenn ich zocken könnte während ich krank bin, könnte ich auch arbeiten. Andererseits jemand der bei der Berechnung seiner Freizeit explizit krankheitstage im Jahr schon miteinrechnet....
Was machst du wenn du ne ansteckende Erkältung hast? Sollen alle im Büro auch krank werden? Man kann aber trotz Erkältung zocken, oder? Und warum sollte man in so eine Rechnung die Krankheitstage nicht mit einrechnen? Mach die Rechnung doch nur genauer, wenn man realistisch rechnet, oder?
 
Unyu schrieb:
Wenn du mir antwortest geht es nicht um andere Leute. Danke für deine Kooperation, du darfst weitermachen.
Es ging da nicht um Kooperation, sondern dass ich belegen konnte, dass deine Aussagen & Unterstellungen dazu falsch waren.

Ich nenne es Vergleich der Realität. Die Leistung deiner 500€ Papier R9 290X liegt bei 0%. Sie ist nicht nutzbar, erst irgendwann. Irgendwann wird auch die GTX 780 billiger oder die Ti herausgebracht. Irgendwann wird die 500€ R9 290 nichts mehr wert sein.
Du weißt nicht was Realität bedeutet, weil jeder eine eigene aus seiner Sicht hat.
Ich fasse es nicht. Solche verzweifelten Rosinen-Argumenten hatte ich beim Grafikkarten-Start noch nie erlebt.
Hohe Preise zeigen blöderweise, dass die Nachfrage höher ist als der Bedarf, sodass die Preise der lieferbaren Karten steigen.
Witzig, wie so manche etwas als Negativ "sehen", obwohl sowas ein klares Positivies Indiz für die R290X ist.
 
Unyu schrieb:
Falsch.
Tut mir Leid nicht den Preisvergleich aufzuzeichnen. Wenn dem so wäre hätte es aylano erwähnen können. Doch stattdessen greift er an wie du es tust.
Doch warte, die billigste GTX 780 liegt gerade bei 515€, von teurer kann immer noch nicht die Rede sein.

Interessant dass du darauf angesprochen dass sich die Preise ändern nun so reagierst obwohl du noch zuvor Aylano wegen nicht "korrekter" Preis voll angegangen bist...denke hierzu ist kein weiter Kommentar mehr nötig => Argumente drehen sich wie die Meinung im Wind.

Bei Release hat die GTX 680 500€ gekostet. Lieferbar natürlich. Kurzeitig sogar weniger, aber die waren schnell vergriffen, wenn der Laden überhaupt geliefert hat. Überarbeite deine Geizhals Kompetenzen, wenn dir die damalige Situation nicht bekannt ist.

Wie wärs wenn du einfach mal deine Geizhals Kompetenzen spielen lässt und die von dir gerade beschriebene Situation aufzeigst ? Ich habe in 2 minute 2 willkürlich gewählte Produkte aus der Zeit Anfang 2012 gefunden und den Preistrend verglichen - was hast du gemacht außer mit einem hohlen Kommentar dem zu erwidern (bei dem ich nebenbei noch persönlich als unfähig bzw. inkompetent dargestellt werde) ?

Wie auch immer, vergess die GTX 780, wenn du meinen Post gelesen hast, ist dir bekannt dass sie nicht mit der R9 290X verglichen werden darf.

Lustig wie du gegen aylano argumentierst dass die R9 290X nicht mit der Titan verglichen werden sollte, sondern mit der GTX780, nun vergleiche ich die R9 290X mit der GTX780 und es ist wieder falsch ?

Ja was denn nun ? Meinung wie sie der Wind streut....

@SheldonCooper
Was ich auch sehr interessant fand war, dass der Verbrauch im Menü über 100W weniger war als im Spiel und dass ich mit OC & OV auch nicht mehr verbraucht hab. Beim Spielen hab ich so 250 - 350W und im Windows so 175-200 Watt, wenn ich nichts mache. Hätte nicht gedacht, das das nen Unterschied macht. Kann jemand erklären warum das so ist?

Das ist so weil selbst wenn der Takt zu 100% anliegt aber die Transistoren eben "nichts" machen eben auch weniger Verlustleistung anliegt da weniger "geschaltet" wird. Vereinfacht ausgedrückt. Das ist natürlich rel. Viel Leistung wenn man 6 Mrd. Transistoren An/Aus macht oder aber eben nur auf leerlauf konstant schaltet.
Zumindest würde ich es so erklären.

Hohe Preise zeigen blöderweise, dass die Nachfrage höher ist als der Bedarf, sodass die Preise der lieferbaren Karten steigen.
Witzig, wie so manche etwas als Negativ "sehen", obwohl sowas ein klares Positivies Indiz für die R290X ist.

Erklärungsversuch: Eine hohe Nachfrage an R9s mit einhergehender Preiskonstanz bzw. Steigerung muss ja negativ zu sehen sein, weil dann der erhoffte Preisverfall bei Produkten des eigenen favorisierten Herstellers zwansweise ausbleibt (vorläufig).
 
Iscaran schrieb:
@Sinthuria: Was du noch verstehen musst ist das ALLE reviewer seiten nur den REFERENZKühler (und AFAIK mit Lüfter @55% Limit) benutzten...Kabuiak hingegen ist der ERSTE (von dem ich es lese) der berichtet wie es ist wenn man einen NON-REFERENZKühler benutzt.

Genau das ist es ja auch was die Customdesigns besser und OC-Freundlicher macht. Nur deshalb weil ein besserer Kühler zumeist noch mehr Takt erlaubt gibt es ja Karten wie z.B. die 780 SuperJetStream mit OC ab Werk überhaupt.

Die Grenzen der Übertaktbarkeit hängen ja nicht nur von der Temperatur ab. In den Reviews waren Lüfterdrehzahl und Testaufbau so gewählt, dass man nicht über die 95 Grad hinaus kam. Die Temperatur schien dabei also nicht das Problem gewesen zu sein. Zumal die Karten ja nicht throttelten, sondern schon recht früh Bildfehler zeigten, obwohl man eben noch bei 95 Grad lag. Daher zeigen die Tests die Tendenz auf, dass AMD bei der 290x den Chip deutlich näher ans Limit getrieben hat, als noch bei der Generation zuvor. Zumal man bei der Auswahl der Testsamples ja oft auch ausgewählte Chips verschickt. Aber vielleicht haben die Redaktionen einfach nur Pech mit ihren Samples gehabt. Aber wie bereits geschrieben, zeigen die bisherigen Reviews trotz der Verwendung der Referenzkarte eine Tendenz auf, die sich ja nicht bewahrheiten muss.
Daher gehe ich davon aus, dass es bei den Customdesigns nicht so stark übertaktete Karten geben wird, wie bei der 7000er Reihe oder wie bei der 780 GTX.
 
Zuletzt bearbeitet von einem Moderator:
Seufz, Leute, muss denn dieser Schwachsinn immer sein?
Warum müssen sich die Leute immer benehmen wie kleine Kinder auf dem Schulplatz? (ich hasse zwar diesen Vergleich, aber da ich das als angehender Lehrer immer genug mit bekomme passt das irgendwie)

Es ist vollkommen egal welche Firma welche tolle, bessere Grafikkarte hat. Es ist vollkommen egal ob die Karte von AMD dort besser ist, die von Nvidia dort usw. Es ist ebenso egal ob ihr diese Firma verteidigt.

Es zählt einzig das ihr mit der Karte zufrieden seid, die ihr besitzt, nichts weiter. Und wenn einer der Meinung ist, dass eure Karte schrott ist, dann ignoriert das doch einfach.
Wenn ihr Probleme mit einer Karte habt, dann postet das und fertig. Wo ist das Problem bei euch allen? Fühlt ihr euch direkt persönlich angegriffen? Wenn ja, dann ist das argh... schwach.

Zum Himmel, es wird immer schlimmer.


Oder mal anders (Achtung, das ist alles NICHT ernst gemeint):
AMD:
- immer höherer Stromverbrauch
- die jetzige Karte liefert das was Nvidia schon vor 3 Monaten brachte
- Treiberprobleme
- ich mag die Farbe Rot nicht
- Nvidia ist ja viel besser! Weil Baum!
- TrueAudio und Mantle braucht eh keiner und wird eh nicht funktionieren!
- TressFX hahaha nur in Tomb Raider gabs das!

Nvidia:
- immer so viel teurer
- Nvidia rebrandet öfter Karten als AMD
- Treiberprobleme
- ich mag die Farbe Grün nicht
- AMD ist ja viel besser! Weil Baum!
- G-Sync geht nur mit Monitoren die die Chip-Platine hat und wird eh nicht funktionieren!
- PhysiX hahaha nur eine handvoll Spiele unterstützen es und der Großteil ist schon älter!


... merkt ihr was? Das ist nur eine Handvoll von "Argumenten" die dauernd gebracht werden von den jeweiligen Seiten und dauernd verhalten sich die Leute einer Seite elitär, wobei kein Grund dafür besteht da BEIDE! Firmen ihre jeweiligen Deifizte haben, ob die eine oder andere ein/zwei mehr oder weniger hat ist vollkommen egal.

Ich hab in nun 15 Jahren immer abwechselnd Nvidia und ATI/AMD Karten gehabt, mehr Nvidia Karten und da auch mehr Probleme, aber mich nie beschwert oder gedacht: mist! andere Firma ist besser oder sonst was... beide wollen unser Geld, beide liefern gute Produkte, welche immer mal wieder Probleme Verursachen.

Lasst doch einfach diesen Schwachsinn, euch wie Fanboys aufzuführen oder sonst was, seid zufrieden mit eurer Karte und gut ist. Ka, ich finde solches gehabe einfach nur Armselig, Schwachsinnig und völlig irrational.


@ Topic: Schade das die Karte im Uber-Mode so laut wird, ansonsten ein sehr hübsches Teil, vllt. sinken die Preise in den nächsten Wochen auch noch durch die mögliche Konkurenz von Nvidias Gtx780/Ti auf knapp 400/450€.
 
Der Preis der 290x wird sicher noch ein ganzes stück fallen,so wie bei der 7970 die es jetzt für 280,-gibt! Da kackt die Titan ganz schön ab wenn man sich die Benches und den preis so ansieht :evillol:
 
aylano schrieb:
Es ging da nicht um Kooperation, sondern dass ich belegen konnte, dass deine Aussagen & Unterstellungen dazu falsch waren.
Gerade ging es noch um andere Leute.

Hohe Preise zeigen blöderweise, dass die Nachfrage höher ist als der Bedarf, sodass die Preise der lieferbaren Karten steigen.
Witzig, wie so manche etwas als Negativ "sehen", obwohl sowas ein klares Positivies Indiz für die R290X ist.
Da wird dir deine Falschaussage zum Preis so unangenehm, da gehst du wieder zu den Verkaufszahlen. Nächstes Mal liefer vergleichbare Verkaufszahlen vor. Nur nicht vor mir, mich interessiert gerade nur die Endkundensicht. Steigende 290X Preise sind ein klares Indiz für die niedrigeren Preise der GTX 780.

Ich fasse es nicht. Solche verzweifelten Rosinen-Argumenten hatte ich beim Grafikkarten-Start noch nie erlebt.
Du verweigerst den GTX 780 Vergleich und hälst mir vor die Nase 1% vergessen zu haben.
Stattdessen kommen nur Phrasen wie: "Genau dieses 7%, die jetzt plötlich nur Messungenauigkeit sind, waren bis vor Kurzem noch die Rechtfertigung um 400 Euro mehr auszugeben."

Iscaran schrieb:
Interessant dass du darauf angesprochen dass sich die Preise ändern nun so reagierst obwohl du noch zuvor Aylano wegen nicht "korrekter" Preis voll angegangen bist
Kein Wunder, er hat behauptet die R9 290X sei schneller und günstiger als die GTX 780. Das stimmt, wie du selbst erforscht hast nicht. Zugegeben sehr knapp zugegeben, aber hier wird auch wegen 6% gestritten.
Halte mir ruhig morgen die neuen Preise vors Gesicht, der Post ist ebenfalls nur eine Momentaufnahme.

Wie wärs wenn du einfach mal deine Geizhals Kompetenzen spielen lässt und die von dir gerade beschriebene Situation aufzeigst ? Ich habe in 2 minute 2 willkürlich gewählte Produkte aus der Zeit Anfang 2012 gefunden und den Preistrend verglichen - was hast du gemacht außer mit einem hohlen Kommentar dem zu erwidern (bei dem ich nebenbei noch persönlich als unfähig bzw. inkompetent dargestellt werde) ?
Wozu Geizhals, ein Blick auf die Rechnung genügt. Gut fangen wir an: Der Release war am 22. März, diese Spezial super Toll Editionen kommen immer später und sind teurer. Für dich der Link: http://geizhals.at/de/?phist=753710
Überdenke mal ob deine "Kompetenz" in allen Bereichen gilt, statt weiter zu beleidigen.

Lustig wie du gegen aylano argumentierst dass die R9 290X nicht mit der Titan verglichen werden sollte, sondern mit der GTX780, nun vergleiche ich die R9 290X mit der GTX780 und es ist wieder falsch ?
Knapp daneben. Der Titanvergleich stört mich nicht, ich möchte nur den Vergleich ausbauen: Ich würde auch eine HD 4870 mit einer HD 4850 vergleichen oder eine 7970 mit einer 7970 Ghz. Sehr bezeichnend, wenn dich soetwas stört.
 
hmm die R9 290X ist immernoch überall lagernd. sogar die BF4 Editionen. Scheinbar sind die Deutschen etwas klüger und lesen die Tests gründlich bevor sie in die Falle tappen.
 
Das mag am Preis über UVP liegen, am Kühler der zurecht kritisiert wird (nicht jeder will Hand anlegen) oder dass man noch auf R9 290 /GTX 780ti wartet.

Ansonsten sind die negativen Erst-Eindrücke der Leute im einstelligen Bereich (auch wenn das sicherlich nicht reprsentativ ist):

http://www.3dcenter.org/umfrage/wie-ist-der-ersteindruck-zu-amds-radeon-r9-290x

Ich warte auch noch auf den kleinen Bruder und Customlösungen.
 
Zealord schrieb:
hmm die R9 290X ist immernoch überall lagernd. sogar die BF4 Editionen. Scheinbar sind die Deutschen etwas klüger und lesen die Tests gründlich bevor sie in die Falle tappen.

und wäre sie nicht lagernd, würdest du "papierlaunch" schreien und weiterätzen.
du findest immer was ...
 
Unyu schrieb:
Kein Wunder, er hat behauptet die R9 290X sei schneller und günstiger als die GTX 780. Das stimmt, wie du selbst erforscht hast nicht. Zugegeben sehr knapp zugegeben, aber hier wird auch wegen 6% gestritten.
Halte mir ruhig morgen die neuen Preise vors Gesicht, der Post ist ebenfalls nur eine Momentaufnahme.
Die STOCK R9 IST SCHNELLER als die STOCK GTX 780 wie ich schon ZIGFACH hier belegt habe. Dass du immer nur Custom vs STock vergleich anstellst ist NICHT mein problem oder Fehler.

Wozu Geizhals, ein Blick auf die Rechnung genügt. Gut fangen wir an: Der Release war am 22. März, diese Spezial super Toll Editionen kommen immer später und sind teurer. Für dich der Link: http://geizhals.at/de/?phist=753710
Überdenke mal ob deine "Kompetenz" in allen Bereichen gilt, statt weiter zu beleidigen.

Toll. Geizhals.AT - lebe ich in Österreich vielleicht ? Ist das hier ein AT-basiertes Forum ? Aber egal ob AT oder DE. Gut dass du 1 Karte gefunden hast....jetzt gehts also weiter mit der Rosinenklauberei statt dass du deine Kompetenz zeigst und mal irgendwie den mittleren Preis für einige Modelle mit deiner Geizhalskompetenz raussuchst.
Aber gut ich hab auch eine Beispiel gefunden:

HD 7970 referenz (die obige war wie ich jetzt gesehen habe ja ein custommodell)
http://www.heise.de/preisvergleich/?phist=724074
Preis @29.2.2013 498€
Preis @22.3.2013 503,70€
Also wo bitte waren die AMD dann teurer ?!?

Und bevor wir hier jetzt weiter einzelne Karten gegeneinder stellen im vergleich mach dir lieber die Mühe und veranschaulich dein allgemeines Statement "Die GTX680 war @release billiger als die HD7970". Womit du ja implizierst dass sie im allgemeinen billiger war und nicht nur irgend ein sample.

Im übrigen hast du angefangen zu beleidigen - daher rufe ich nur zurück wie es mir entgegenkommt.

Du bist wahrlich ein Meister der Rhetorik und Diffamierung...nur möglichst spärlich wenn überhaupt mit Fakten rüberrücken.

Schön zurücklehnen und mit irgendeinem dahergesagten Argument (und als Nebengriff eine persönliche Anfeindung oder unterstellung schreiben) und dann sehen wie der "angegriffene" seine Zeit dafür verbraten darf deine willkürlichen Argumente zu widerlegen. Und wenn man dich widerlegt behauptest du schlicht man habe dich nicht richtig verstanden oder das Argument verdreht.
Dann schreib doch klarer und deutlich was du sagen willst statt immer mit persönlich Kommentaren Beleidigungen zu provozieren.
 
Oha, eine R9 290X von Sapphire für 490€ lieferbar. Da juckt es selbst in meinen Fingern. :/ Aber ohne Wakü-Kühler, no Way.
 
@Zealord
Naja, lt. Tomshardware Test ist die 290X sehr wohl für 4k Gaming geeignet. Dort ist sie auch bei fast allen getesteten Spielen schneller oder auf ähnlichem Leistungsniveau wie die Titan. Glaube nur in einem Spiel hat die AMD Riege versagt. Höhere Auflösungen schmecken der Karte. Deine Aussage stimmt vielleicht für die Zukunft. Dann gibt es aber Maxwell und Pirate Islands.

@verkacktes GCN
Gerade diese Architektur hat AMD wieder konkurenzfähig gemacht. Somit nicht verkackt.

@bald wird die 780Ti den Boden aufwischen
Mag sein, aber nicht lange. Die 290X wird die nächsten Monate viel stärker von Treiberoptimierungen profitieren als die nv Karten. GCN 2.0 ist immerhin nagelneu. Die Custom Designs werden diesen Effekt noch verstärken. Wenn ich die Kristallkugel befrage, sehe ich bis Maxwell die Single GPU Krone hauptsächlich bei AMD.

@topic
Muss nochmal unterstreichen, dass die Leistung der Karte toll ist. AMD ist nun auch mal wieder im Hochleistungsbereich dabei. Das haben sich viele lange gewünscht. Natürlich gibt es viele AMD typische Mankos zum Start (Speicher taktet sich nicht runter und führt somit zu höherem Stromverbrauch, eigenartiger Einbruch der Tesselationsleistung, noch immer kein ansprechender Referenzkühler,...), aber trotzdem ist es ein schöner Erfolg. Ich vergönne es AMD. Nvidia ist in meinen Augen ein aroganter Haufen und verdient Gegenwind in allen Leistungsbereichen.
 
Zurück
Oben