Test AMD Radeon R9 290X im Test

Andregee schrieb:
Wenn bei 90% Effizienz eines Netzteils ein Unterschied von 10% im Verbrauch an der STeckdose gemessen wird, so ist die Differenz abzüglich Netzteileffizienz etwas geringer und nicht höher.

Absolut betrachtet - ja. Aber es ging ja um den Prozentualen Unterschied und dieser wird durch die Messung aller Komponenten verringert. Nehmen wir mal an unser hypotetischer PC verbraucht in der Testsequenz, ohne GraKa, 150 Watt. Wenn nun GraKa a auf 250 Watt Verbrauch kommt und GraKa b auf 300 ergibt das beim Gesamtsystem 400 bzw. 450 Watt und somit eine Differenz von 12,5%. Betrachtet man nur die Karten an sich sind es allerdings schon 20%.
Wenn wir nun mit einer 90%igen NT Effiizienz kalkulieren sind das dann 440 und 495 Watt an der Steckdose - es bleibt aber bei den 12,5% Unterschied, nur die absolute Differenz steigt um 100-Effizienz % an.

Dabei wird aber doch recht deutlich wie frickelig eigentlich die Messung des Gesamtsystems ist. Je nach Auslastung des NTs steigt oder fällt der Wirkungsgrad und somit der Verbrauch, außerdem werden die realen Abstände durch die Effizienz des NTs verfälscht. Da wäre es wirklich schön wenn CB mal den Verbrauch der Nackten Karte messen würde.
----

Um einmal auf die Leute einzugehen die meinen dass sich Titankunden nun aufregen werden:
Als ein Titan Käufer kann ich nur sagen: Nein. Ich bin froh die Titan gekauft zu haben und habe den Kauf nicht bereut. Das P/L war bei der Karte schon zu beginn grottig und gewinnt heute ebenso keinen Blumentopf wie bei Release. Allerdings habe ich mir die Titan zu dem Zeitpunkt gekauft wo ich für mich ein Upgrade für sinnvoll/nötig gehalten habe - es gab einfach kein besseres Produkt. Dafür habe ich die Leistung der 290x aber auch schon seit 8 Monaten im PC.
Wenn ein Titan Kunde ernsthaft gedacht hat dass nichts in den Titanbereich kommen wird gehört dieser Kunde in die Obhut eines Psychaters.

Übrigens sind die hier häufig zu lesenden Aussagen bezüglich der sinnvollen Auflösungen totaler Murks. Wer bei seinen Games (Pong ausgenommen) im CPU-Limit hängt, weiß einfach nicht wie man die Grafik hochdrehen kann. Ich habe derzeit kein Spiel auf dem PC wo ich nicht wenigstens auf 95% GPU-Last komme - auf FullHD.
Zum anderen wird immer gerne vergessen dass es auch Monitore mit mehr als 60Hz gibt - und für 120 Hz benötigt man auch doppelt so viel Rechenleistung für VSync.
Es ist alles eine Frage der Settings.

@Topic: Ich bin wirklich mal auf die Customdesigns gespannt. AMD tut sich keinen Gefallen damit so ein Monster mit dem 7970 Kühler (mit neuem Design und) mit limitierter Drehzahl laufen zu lassen. Sobald Asus, Gigabyte & Co eigene Kühlkonstrukte darauf gesetzt haben dürfte die 290X eine Titan dauerhaft hinter sich lassen - eventuell sogar bei verringertem Verbrauch (da geringere Leckströme). Entsprechend kann ich auch nicht nachvollziehen wieso AMD nicht den Kühler nicht einfach etwas vergrößert hat um noch die letzten 2 oder 3% herauszukitzeln damit man, auch wenn der Gegner offiziell 780 heißt, gleich noch die Titan hinter sich lässt. Psychologisch wäre dies jedenfalls bei einigen Kunden eine Menge wert.
Nun gut, die Customdesigns werden das ja richten. Insofern wird AMD also, wie schon bei der 280X, Wort halten und die nächsten Kühler besser machen. Hoffen wir dass bei den 3xx Karten dann auch das Ref-Design etwas mehr Kühlpower bekommt.
 
schöner test und eine karte mit gemischten gefühlen. die (derzeitig geteste) idle-leistungsaufnahme, bei 2 monitorbetrieb und beim blu-ray schauen sind enttäuschend. aber sonst eine gute karte. einen ordenlichen kühler drauf und die rennt noch besser.

warum waren im test nur 1070Mhz möglich? ein problem der chipgüte, dem temperaturtarget oder ist sie abgeriegelt? -da dürften doch künftige AB-versionen abhilfe schaffen.

in den letzten 2 generationen hat AMD auch ein paar monate gebraucht, um deren treiber zu optimieren und die leistung der karten im schnitt deutlich zu steigern. mal abwarten, was noch kommt. auf die R9 290 bin ich auch sehr gespannt, ich schätze diese wird eine 780 in die schranken weisen und für 400€ verkauft werden. im november kommt dann noch die 780Ti, bei der ich gar nicht einschätzen kann, wo sie sich von der leistung und vom preis her platziert. ist sie nur im einstelligen prozentbereich schneller und wird wieder ein 1000€ monster, oder ist der vorsprung schon zweistellig und geht für 550€ raus? oder gar noch zwischen titan und 780?

sehr interessantes jahresende für nerds :D
 
Zuletzt bearbeitet:
SheldonCooper schrieb:
Die Xbox 1 basiert doch auch auf RISC, oder? Die x86 sind doch schon lange RISC.
Ich würde mich wirklich sehr wundern, wenn die neuen Konsolen die GK110 schlagen. Hältst du das für realistisch? Bitte begründen.

Ich hab geschrieben vor der XBOX 1, denn diese hat einen Intel Mobile Celeron. Aber auch in dieser Ära gab es RISC basierte Konsolen, die PS2 und den GameCube. Die XBOX 360 und PS3 hatten auch RISC Architektur. Die XBOX 1 habe ich eben genau deshalb erwähnt, weil beim Markteintritt von MS eben x86 genutzt hatte, weil sie eben keine Erfahrung in der Gaming-Welt hatten sondern bis dahin nur mit Desktop PCs zu tun hatten.

Ich würde mich wirklich sehr wundern, wenn die neuen Konsolen die GK110 schlagen. Hältst du das für realistisch? Bitte begründen.
Und, wo habe ich das geschrieben ? Weiteres ist das sowieso realitätsfremd. Wie kann man bitte eine Titan, eine Grafikkarte, mit einem ganzen System vergleichen, besonders wenn das Teil nur ein Bruchteil kostet ? Interessant ist auch, wann wird es eine Grafikkarte geben, mit der Performance einer Titan aber um die 400 Euro, realistischer wäre eher 200 Euro, wenn man annimmt man würde noch andere Komponenten außer einer Grafikkarte zum Zocken brauchen.

Und selbst wenn, der große Vorteil ist ja, dass die "Treiber" auf der Konsole besser sind (absichtlich Treiber, weil das kennt ja ein jeder PC-Gamer). Nein noch schlimmer, durch hardwarenahes Programmieren kann man die Engine auf die APU völlig anpassen.

Der Entwickler geht also völlig anders ran, wenn er für einen PC oder für eine Konsole ein Spiel entwickelt.

Klar kann man. Das geht ganz einfach: du nimmst die Konsole und spielst, dann nimmst du den PC und spielst das selbe Spiel am selben Fernseher und schon kannst du sie vergleichen. Was interessiert es denn welche Hardware verbaut ist? Hauptsache das Spiel ist besser.
Klar kannst du das machen. Wieso nimmst du aber eine 7870 stellfretretend für eine PS4 ?

Nvidia hat den GK110 ja auch schon seit Anfang letzten Jahres fertig gehabt, aber da die AMDs so schlecht waren kamen erst in diesem Jahr entsprechende GK100-Karten auf dem Markt. Und die kommenden Konsolen haben beide AMD drin - es ist das erste Mal, seit ich mich erinnern kann, dass eine neue Konsole einem zwei Jahre alten PC unterlegen ist.
Soviel ich einschätze, wurde der GK110 von Anfang an für den professionellen Markt entwickelt.
Der Chip war fertig klar und es lag an AMD dass die GK110 auch anfangs nur bescheiden auf den professionelen Markt kamen. Weil AMD hatte dort sicherlich auch Einfluss. Dass GK110 einfach ein fetter gpgpu Chip ist und die Fertigung nicht so wollte wie NV es wollte ist dir wohl nicht in den Sinn gekommen. Sowas wie Wirtschaftlichkeit oder Fertigung ist für dich wohl ein Fremdwort. Somit verstehe ich wieso auch einige der Meinung sind, NV wird jetzt den GK110 so billig wie den neuen Hawaii Chip anbieten und massig OC.
Es kann aber sicherlich sein dass der GK110 von Anfang an für den Desktop geplant war, aber die Fertigung hat eben einen Strich durch die Rechnung gemacht und man musste auf GK104 setzen. Es kann aber auch sein, dass AMD dann stärker war als gedacht und den GK104 noch optimieren musste.
Für beides gibt es keine Belege.
Weil AMD es nicht besser kann, hat man auch nur einen kleineren Chip bringen können der "billig" ist und nur die Performance einer Titan hat.
Dann muss man das alles natürlich unterstreichen, dass AMD es nicht schafft eine größere GPU als eine 7870 in der PS4 APU zu integrieren ?

Sry, aber vllt habe ich dich falsch verstanden, aber ich bin mir sicher dass du das am Anfang so ausdrücken wolltest.
 
Zuletzt bearbeitet:
SheldonCooper schrieb:
Genau das ist das Problem, nur so schnell wie die alte Titan. Selbst die billige 780 ist mit OC schneller als die Titan. Und dann gehen nur 7% OC bei der AMD?! Also schlägt eine 780 OC eine 290X OC; toll gemacht AMD.

Ist Dir entgangen, dass schon seit der AMD HD5xxx Generation AMD nicht mehr auf die Krone der schnellsten single-GPU hinarbeitet?

Das ist für Typen wie Dich, die auf Prestige abgehen, natürlich ein Grund in Fäkalsprache unterwegs zu sein. Das ändert aber nichts an der Tatsache, dass AMD bei der schnellsten Single-GPU nVidia das Feld überlässt.

AMD hat andere Sorgen und muss Geld erwirtschaften. Mit Prestige-Karten, die mal 2% des Marktes ausmachen, geht das aber nicht.
 
Alienate.Me schrieb:
warum waren im test nur 1070Mhz möglich? ein problem der chipgüte, dem temperaturtarget oder ist sie abgeriegelt? -da dürften doch künftige AB-versionen abhilfe schaffen.

Die Karten laufen am Anschlag. Im Uber-Mode, den man für OC benötigt(!), werden schon 310W geschluckt. Nur zum Vergleich: Meine Titan brauch +-300W mit 1164MHz (1,21V) und 6660MHz Speichertakt und ist dann nochmal 16% schneller als Titan@MaxPerf.

Die Karten sind am Ende, weil man unbedingt schneller sein wollte.
 
Schöner Test und eigentlich ganz tolle Karte mit einem super P/L.

Aber eins stößt mir immer wieder bitter auf bei AMD Karten... der Verbrauch im Multi-Monitor-Betrieb, vorallem bei zwei gleichen Monitoren... es kann doch nicht sein das dieser Modus so unbändig viel mehr Strom benötigt wie bei der Konkurrenz. Da wird doch wohl mal einer sich hinsetzen können und das entsprechend lösen...

Da ich meinen Strom (und damit verbunden auch Abwärme und Lärm) selbst zahlen muss und die zwei Monitoren immer aktiv sind kann ich das bei täglicher Nutzung von ~ 8 Stunden so nicht hinnehmen... solange AMD das nicht in Griff kriegt, werd ich weiter Grün kaufen.
 
Doppelt so teuer wie eine 280X und ca. 20% schneller, sieht dann doch nicht mehr so blumig aus.
Es hießt mal, dass die 290X 30% schneller als eine Titan werden sollte, war wohl nix.
Aber trotzdem im Vergleich zur grünen Konkurrenz ein gutes Angebot.
 
Und das Umwelt Argument zieht auch nicht der GK110 bietet ein größeres Die, heißt weniger Chips pro Wafer ergo wird bei der Produktion pro Chip mehr Energie verbraucht als beim Hawaii-Chip.
Ihr kommt euch wieder ganz schlau vor mit euren größerer DIE = die komplette Grafikkarte = mehr Umweltverschmutzung. Was ihr mal wieder(wie THG so oft) überseht ist das eine Grafikkarte nicht nur aus der DIE beseht. Das PCB und derer Komponenten sind auch noch mit dabei. Und was hat ein 512 Monster SI an Layern auf dem PCB. Richtig viel mehr Schichten, ergo mehr Energieverbrauch bei der Herstellung. Ergo kann man euer Argument gar nicht richtig aufschlüsseln solange man nicht den CO2 Ausstoß von jeder einzelner Komponente der Grafikkarte kennt und dann zusammen rechnet.

Des weiteren muss man am Ende auch die Laufzeit der Karte mit einrechnen, welche Karte hält länger durch und muss schneller ausgewechselt werden. Eine 6GB Karte oder eine 4GB Karte. Die Antwort habe ich schon gegeben. Es könnten Jahre Unterschied werden.

Ergo die 2. THG ähnliche Michmächenrechung heute. Langsam reicht es.
 
Zuletzt bearbeitet:
pipip schrieb:
Ich hab geschrieben vor der XBOX 1.
Das war ja der Fehler, es war eben nicht nur vor der XBox 1 sondern auch die XBox 1 und die danach...
pipip schrieb:
Weiteres ist das sowieso Realitätsfremd.
Also stimmst du mir zu, dass die neuen Konsolen schlechter sind als PCs? Ok, dachte du hättest mir da widersprochen.
pipip schrieb:
Wieso nimmst du aber eine 7870 stellfretretend für eine PS4 ?
Hab ich nicht.
pipip schrieb:
Sowas wie Wirtschaftlichkeit oder Fertigung ist für dich wohl ein Fremdwort.
Hätte AMD damals bessere Karten gebaut wäre es für Nvidia wirtschaftlich gewesen den GK110 als Gamerkarte rauszubringen, deswegen finde ich es ja so schade, dass AMD nichts auf die Reihe kriegt.
pipip schrieb:
Sry, aber vllt habe ich dich falsch verstanden, aber ich bin mir sicher dass du das am Anfang so ausdrücken wolltest.
Was ich am Anfang ausdrücken wollte war eher, dass wir alle davon profitieren würden wenn AMD bessere Produkte liefern würde, weil das dann auch die Konkurrenz zwingt bessere Produkte zu bringen und man dann mehr Leistung für weniger Geld bekommt ;) Zur Zeit ist es ja so, dass AMDs Konkurrenz (Intel/Nvidia) nur wenig bessere Produkte auf den Markt bringt, die Preise dafür aber ganz schön steigen.
 
moshkopp schrieb:
interessant wird die karte ja eh erst richtig, wenn mantle in den ersten spielen genutzt wird.
.

Denk ich nicht, es wird nicht von allen unterstützt werden.Physx is auch nur eine Marletingblase ohne Wert.
 
Für den Preis und gemessen an der derzeitigen Konkurrenz
ist das wirklich eine Hammer Karte!

Aber ich Stimme zu nicht das was man erwartet hat
Aber das Ding kostet immer noch gut die Hälfte einer
Titan und schlägt sie fast überall und ich denke mal
wenn die Treiber dann noch mitmachen ist sicher
auch noch was drin.

Ich denke der Preis wird in diesem Fall einzig
von der VIEL zu teuren nVidia Konkurrenz
angeheizt.
Aber wenn das dann vernünftige Bereiche annimmt und
es ein paar custom Karten gibt werd ich mich
wohl kaum zurück halten können!
 
Zuletzt bearbeitet:
tick-tock schrieb:
Ist Dir entgangen, dass schon seit der AMD HD5xxx Generation AMD nicht mehr auf die Krone der schnellsten single-GPU hinarbeitet?
Ist es nicht. Genau das finde ich doch so scheiße. Ich fände es viel besser wenn AMD mal wieder gute Produkte liefern würde. Beim Bulldozer war alles im Vorfeld nur dummes Gelaber und bei der R9 290x ja auch.
 
SheldonCooper schrieb:
Du raffst es net. Erst die G80 war schneller als die 360
Punkt eins. Bitte mäßige dich in der Ausdrucksweiße. Es ist völlig unangebracht sich hier so profilieren zu wollen. Haben wir uns verstanden? Es geht um einen toten leblosen Gegenstand. In dem Fall eine Xbox.
Pumkt zwei. Wie dir pipip schon ausführlichst dargelegt hat ist die konsole ein geschlossenes System wo gezielt für genau diese Hardware+SW programmiert werden kann. Der Pc hat etliche Möglichkeiten der Hardwarekonfigurationen mit samt SW. Vergleiche sind hier in meinen Augen nicht möglich ausser du betrachtest Einzeln die reine Rohleistung der Komponenten. Was aber reiner Blödsinn ist. Und das habe ich schon verstanden. Du hast das aber leider wohl noch nicht richtig verinnerlicht. Oder gibt es Tests wo die reine PC-Hardware mit der hardware der Konsolen verglichen wird? Ich kenne ausser Grafiktests, wo auf Bildern die gleichen Szenen gegenübergestellt werden, in der PCGH und ähnlichen keine Veröffentlichungen dahingehend.

Auch denke ich das diese System nicht miteinander verglichen werden können oder sollten. Sie bedienen u.a. mindestens 2 verschiedene Klientel.

Aber dies wurde dir ja über diesem Post schon eingehend und ausführlich erklärt.

Leider lassen deine verbalen Entgleisungen vermuten das du dies nicht so wahrnimmst wie es getippt steht.

ich wünsche dir noch noch einen schönen Abend.
 
Nimmt man die reine Performance der 290x (im Uber-Mode), ist die Karte sicher ein Preis/Leistungs Kracher. Allerdings erkauft sich das AMD auch mit einer ziemlich hohen Temperatur sowie einer hohen Leistungsaufnahme. Mir kommt es bezüglich der Leistungsaufnahme zwar nicht auf den Strompreis an, aber geht diese gepaart mit hohen Temperaturen doch meist zu Lasten der Übertaktbarkeit. Daher scheint die 290x nicht mehr so viel Luft nach oben zu haben. Inwieweit die Custom-Karten hier besser sind, wird sich noch zeigen müssen.
Im Quiet Modus scheint die Karte ja nicht mehr ganz so stark zu sein. Zumindest sehen die Reviews sie performancetechnisch zwischen leicht unter der 780GTX bis leicht darüber. Mein Fazit ist jedoch zwiespältig. Die Leistung ist zu dem Preis sicher klasse, aber der Rest hinterlässt doch einen faden Beigeschmack.
 
dirky8 schrieb:
Punkt eins. Bitte mäßige dich in der Ausdrucksweiße.
Sag mal, geht's noch? Zeig mir mal eine Stelle wo ich was Schlimmes gesagt haben soll.
dirky8 schrieb:
Haben wir uns verstanden?
Junge, mäßige DU dich mal! Das kommt rüber wie ne Drohung!
dirky8 schrieb:
Ich kenne ausser Grafiktests, wo auf Bildern die gleichen Szenen gegenübergestellt werden, in der PCGH und ähnlichen keine Veröffentlichungen dahingehend.
Das ist doch genau das was ich auch sage...
dirky8 schrieb:
Auch denke ich das diese System nicht miteinander verglichen werden können oder sollten.
Dann denkst du falsch. Richtig ist, dass man beide Systeme miteinander vergleichen KANN und MUSS. Mit beiden Systemen kann man zocken, also muss man, wenn man zocken will, beide Systeme vergleichen.
dirky8 schrieb:
Leider lassen deine verbalen Entgleisungen vermuten das du dies nicht so wahrnimmst wie es getippt steht.
Welche verbalen Entgleisungen?! Ich bin an keiner Stelle beleidigend gewesen und ich hab auch nicht gegen die Netiquette verstoßen. Hast du vielleicht nen schlechten Tag gehabt? Lass das bitte nicht an anderen aus.
dirky8 schrieb:
ich wünsche dir noch noch einen schönen Abend.
Gleichfalls!
 
Sinthuria schrieb:
Mein Fazit ist jedoch zwiespältig. Die Leistung ist zu dem Preis sicher klasse, aber der Rest hinterlässt doch einen faden Beigeschmack.

So fühle ich ebenfalls. Eine sehr gute P/L Karte mit sehr schlechten Kühler für dieses Kaliber. Da bleibt einem nur übrig auf dritt. Kühler zu setzen.
 
Also wieso AMD so einen Schrottigen Kühler montiert, würde ich gerne mal wissen, nur damit die anderen Hersteller es leichter haben, etwas besseres zu entwickeln.

Da montier ich gleich ein Formrohr mit 3mm Stärke über die ganze Karte, mach darunter noch ein paar Kontaktflächen aus Kupfer, bring ein paar Lamellen darin an, und davor stell ich 2x30mm Lüfter hin, die da durch pusten, und das könnte theoretisch funktionieren...

An und für sich gut, aber mit dem Ref. Kühler einfach nicht zu empfehlen.
 
SheldonCooper schrieb:
Das war ja der Fehler, es war eben nicht nur vor der XBox 1 sondern auch die XBox 1 und die danach...
Okay noch einmal. Bis jetzt hat man für Konsolen üblicherweise RISC Architektur verwendet. Lediglich MS beim Markteinstieg, hat augrund seiner Erfahrung im Desktop einen X86-Konsole auf den Markt gebracht. Man sieht aber, dass man mit der XBOX 360 wieder Umgestiegen ist.
Jetzt setzten aber die neuen Konsolen auf X86 und GPUs mit Shader mit GCN, welche auch im Desktop-PC vorhanden sind.

Das hat eben Vor und Nachteile und ich behaupte, bsp Ports sind günstiger, 3rd-Party Developer müssen sich weniger auseinandersetzen. Hier ist aber auch der Nachteil, es kann passieren, dass es weniger Optimierungen gibt, weil die Entwickler nicht dazu gezwungen werden. Zu mindestens am Anfang. Das heißt PS4 kann viele Games bekommen wie die PS2 damals, davon kann aber auch viel Dreck dabei sein.
Wie also Games in der Zukunft aussehen, kann ich nicht sagen, die Unterschiede wird man aber sicherlich in exklusive Games sehen.
Auch dass die Grafikperformance einer Konsole nicht das wichtigste ist, wird dadurch untermauert, dass die Wii sich am besten verkauft hat und dass sich momentan die PS3 sehr gut verkaufen lässt. Konsolen sind keine PCs, sie sind eine eigene Gattung die fürs Gamen und Unterhaltung gedacht sind. Man könnte behaupten, viele machen ihren PC nur zur Konsole, deshalb sagt man auch "Gaming"-PC.

Den Vergleich GK110 und Konsolen habe ich nicht gemacht. Ich hab lediglich gesagt, Rohpower ist nicht alles, es ist wichtig dass alle Komponenten zusammenpassen und dass man soviel Performance wie möglich aus der Konsole rausholen kann. Das ist weit auswichtiger einen Fokus auf eine fette GPU zu legen, die man dann am Ende kaum nützen kann, nur Stromm frisst und für einen früheren Hardwaretot steht. Siehe Cell-Prozessor der Genial ist, aber selten sein Potential zeigen kann, weil er schwer zu beherrschen sein soll.

Was die R9 290X vs Titan angeht. Es wird an dingen gemeckert um die Karte schelcht zu machen. Viele habens ich über die Titan lustig gemacht, das war aber selten die Technik mehr der Preis. Bei der R9 290X fällt eben genau das Gegenteil auf. Hier wird der 40 Watt höhere Verbrauch und der schlechte Referenzkühler bemängelt, über den Preis meckert keiner.
Jetzt stellt sich nur die Frage, was ist einen wichtiger, der etwas höherer Verbrauch + schlechterer Referenzkühler und der höherer Preis. Jeden steht es frei selbst zu entscheiden.
Auffällig ist nur, dass wieder Aussagen gemacht werden wie, ja NV kann ja die 780TI auch auf 499 setzen. Klar kann NV das, nur die Frage ist machen sie das nur damit sie ein besseres Preis/Leistung Verhältnis haben, obwohl es genug Leute gibt, die tortzdem mehr zahlen, weil es eben NV ist und teuer sowieso besser sein muss.
Auch verstehe ich dich nicht. Wieso soll AMD einen fetteren Chip um das gleiche Geld bringen nur damit man schneller ist und NV dazu zwingt dessen Produkt billiger auf den Markt zu bringen ?
Das ist weder für AMD noch für NV eine gute Situation.
Es wäre eben wieder diese Kalte-Krieg Situation. Beide haben gelernt, es kommt auf wesentlich mehr dinge an, als nur die schnellste GPu zu haben. Zum Beispiel Spiele-Bundle, Features, ect.
Die teuersten Karten bringen bei den Gamer sowieso am wenigsten ein, weil sie sich nicht sooft verkaufen, sie sind eher aus werbetechnische Sicht interessant.

Deshalb bin ich auch auf die R9 290 interessant. Vermutlich um 399, da die 280X 299 kostet und wahrscheinlich auf dem Niveau einer 780 GTX. Das ist die günstigste neuste GPU. Die 770GTX ist ja eine umgelabelte 680GTX. Die R9 290 hat alle neuen Features, der neuen Karte und basiert auf GCN 2.0. Hier wird es für NV schwer werden zu kontern.

Übrigens, was du von AMD forderst, kannst du von anderen Firmen genauso fordern. Intel könnte auch bessere Grafikkarten machen. NV bessere Prozessoren, ect.

SheldonCooper schrieb:
Ist es nicht. Genau das finde ich doch so scheiße. Ich fände es viel besser wenn AMD mal wieder gute Produkte liefern würde. Beim Bulldozer war alles im Vorfeld nur dummes Gelaber und bei der R9 290x ja auch.
Ja das bringt sicherlich uns Kunden was. Nur haben wir dann nichts davon wenn AMD dadurch kein Geld verdient und Pleite geht. AMD ist momentan auf den Kurs, dass man mit seinen Produkten so wirtschaftlich wie möglich ist. Das ist sicherlich auch der Grund wieso man 28nm genommen hat und nicht auf einen 20nm Chip mit niedrigeren Takt.
https://www.computerbase.de/news/grafikkarten/amd-bestaetigt-hawaii-gpu-in-28-nm.42077/
Der genaue Wortlaut des AMD-Mitarbeiters lässt vermuten, dass ein 20-nm-Produkt zwar durchaus im Bereich des technisch Möglichen liegen würde, man aktuell mit der 28-nm-Technologie aber noch eine bessere Ausbeute, höhere Taktraten und insgesamt auch eine bessere Leistung bei einer „enthusiast GPU“ erzielen könnte.
Was das Gelaber angeht, verstehe ich dich nicht. Es ist ja nicht so, als ob andere Firmen nicht mehr versprechen.
 
Zuletzt bearbeitet:
Die Leistung ist sehr gut, der Rest gefällt mir nicht so. Mal Abwarten ob meine nächste Karte eine R290X mit ordentlichem Kühler oder eine GTX 780ti wird.
 
Zurück
Oben