Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Radeon R9 290X im Test
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: AMD Radeon R9 290X im Test
Oromis
Lt. Commander
- Registriert
- Dez. 2011
- Beiträge
- 1.999
Ich würd so lachen wenn Amd nächste Woche ne R9 295x mit ner DieGröße wie der Titan abliefern würde...
...und ja, es ist unwahrhscheinlich
die Karte ist nett geworden, nur leider kann man Mantle halt noch nicht austesten, ich glaube dass da noch mindestens 5% mehr drin sind...
...und ja, es ist unwahrhscheinlich
die Karte ist nett geworden, nur leider kann man Mantle halt noch nicht austesten, ich glaube dass da noch mindestens 5% mehr drin sind...
D
dirky8
Gast
8. Nov. 2006 Geforce 8800 GTX
Aber die Xbox war ja so gut... . Die kam vllt am 2.12.2005 auf den Markt, aber verbugt ohne Ende. Die G80 mit dem Xenos ati chip zu vergleichen...das passt nicht wirklich^^Microsoft musste im Bereich „Heim und Unterhaltung“ in den Geschäftsjahren zwischen 2005 und 2007 einen operativen Verlust von 3,8 Mrd. US-Dollar verbuchen, der in erster Linie auf die Xbox 360 zurückgeht.[14] Auch im vierten Quartal 2007 hat der Konsolenbereich wieder den Gewinn von Microsoft gedrückt, diesmal aufgrund der bekannt gewordenen großen Hardware-Probleme der Xbox 360.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.557
SheldonCooper schrieb:Schau dir doch einfach die letzte Generation an. Die 360 kam vor dem G80 raus.
Erstens kann man einen PC nicht 1 zu 1 mit einer Konsole vergleichen. Denn vor der XBOX 1 basierten die jeweiligen Chips auf RISC Architekturen. Wieso auch nicht, denn bei Konsolen kann man optimieren bei PCs wird es aufgrund der Vielfalt wesentlich schwerer.
Der GameCube oder die Wii hatten zum Beispiel noch eine GPU die auf TEV-Einheiten nicht auf Shader basierten (von AMD).
Das nächste ist, in der damaligen Zeit gab es wesentlich schnellere und häufigere Grafikkarten-Generationen Wechsel. Die 7870 in der PS4 wäre in der heutigen Grafikkarten Generation eine R9 270X, aber auch nur Vvergleichbar, denn was viele Gamer-Kiddies nicht verstehen, sowohl Sony, MS können am Design noch mal was ändern. Nur weil die Karten/IGPs gleich viele Shader haben, bedeutet es nicht dass es der gleiche Chip ist.
Nintendo zum Bsp lizenziert immer schon GPUs und ändert diese völlig um.
Somit dein Vergleich ist interessant, nur lebst du scheinbar in einer Welt wo noch der Kalte-Krieg vorherscht. Aber keine Angst du bist nicht der Einzige. Viele die meinen, Rohpower sei alles, werden sich wundern, wenn die zukünfitgen Chips zwar weniger oder gleich viel Rohpower haben, aber mehr auf den Tag bringen können als die vorherigen Generationen.
Ein gutes Bsp sind APUs. Anstatt etwas mit roher Gewalt auf einer CPU oder auf einer GPU abarbeiten zu lassen, Verteilt man die Aufgaben auf verschiedene Einheiten. Somit machst du den Fehler, denn viele bei den APUs schon gemacht haben. Sie sehen die APU nicht als APU sondern als CPU mit einer IGP.
Nach der PS3 und XBOX 360 hatte man wohl die Erkenntnis errungen, es ist wesentlich wichtiger dass die Entwickler aus den Chips etwas herausholen können als dass sie theoretisch viel Rohleistung haben, die man auf Grund eines Flaschenhalses dann icht nutzen kann. Deshalb wird man wohl bei der PS4 auch mehr den Fokus auf die GPU gelegt haben. Im Vergleich hat MS scheinbar die CPU mehr eingebunden (sie 32MB ESRAM und DDR3 Anbindung).
Bestes Beispiel ist die Wii, deren Potential die 3rd-Party Developer nicht mal im Bruchteil ausgenützt haben. Statt ein ordentliches programmiertes Game das TEV-Einheiten ausnützen kann, gab es lediglich PS2 Ports, weil es schneller, billiger war und sich mit TEV nicht weiter auseinandersetzen musste. Also nicht verwunderlich, dass man bei Nintendo jetzt auf Shader umgestiegen ist.
Dass Sony und MS jetzt auf x86 setzen verwundert auch keinen. Das machen beide Firmen nicht für ihre exklusive Games. Der eigentliche Grund ist bestimmt deshalb, weil man den Third-Party Developer unter die Arme greifen möchte. Denn diese wollen Ihre Games auch auf den PC portieren und sind alles andere als riskiofreudig. Für die zahlt sich ein neues Spiel mit neuen Konzept erst dann aus, wenn sie wissen dass sie auch die gefordeten Stückzahlen verkaufen können.
Das wichtigste der neuen Konsolen war also wie Kasmopaya schon sagte, die Konsole soll günstig sein, sie sollen kühl bleiben und sie soll einfach zu programmieren sein . Das alles hat seine Vorteile aber auch Nachteile.
Die Konsole lässt sich erst ab dieser Generation mit einen PC vergleichen (mit der Ausnahme der XBOX 1). Der einfache Grund dafür ist, dass es Third-Party Developer geben könnte, die die Konsole wie einen billigen PC Port behandeln. Das wäre auch der Grund dafür, wieso manche Games auf der PS4 auf 1080p und viele Games auf der XBOX One nur auf 720-900p laufen.
Denn ein billiger PC Port hat momentan nichts von einem 32MB Cache, von einem GDDR5 Cache aber schon. Sobald aber die Entwickler wissen wie sie den 32MB ESRAM ordentlich nützen wird auch der Vorteil wegfallen und sich wieder etwas anpassen. Deshalb sprechen auch einige Entwickler davon, dass man bei der XBOX One momentan mehr optimieren müsste und beim PS4 die Games früher, schneller laufen. Das wird fix nicht an der CU-Einheit liegen.
Wer aber glaubt, die Sony Konsole hätte wegen AMD nicht auf einer 7970 bassieren können, sollte sich nicht so weit aus den Fenster lehnen. Aber oft bedenken manche User eben nicht, dass eine größerer Chip eine teurere Kühlung benötigt, ein höheres Risiko mit sich bringt, vllt ein Markteintritt verzögern könnte ect. Des weiteren wollen die Firmen, besonders MS, sicherlich nicht wieder dutzende Konsolen gegen Garantie tauschen müssen nur weil eine GPU durchgebrannt ist.
Ich wage es sogar teils zu wetten, dass viele Kunden, und ich rede hier nicht vom CB-Leser, den Unterschied zwischen 720p, 900p oder 1080p nicht bemerken. Das liegt daran weil viele keine Vergleichswerte oder beide Konsolen zuhause haben werden.
Es sind eben nur die richtigen Core-Gamer und PC Gamer die was zum Meckern haben werden und die machen die kleinste Käuferschicht aus. Somit einige Vergessen dass sie nicht der Mittelpunkt der Welt sind.
Zuletzt bearbeitet:
SheldonCooper
Banned
- Registriert
- Mai 2011
- Beiträge
- 938
dirky8 schrieb:Die G80 mit dem Xenos ati chip zu vergleichen...das passt nicht wirklich^^
Du raffst es net. Erst die G80 war schneller als die 360. Als die 360 in 12/05 rauskam war die X1800 die schnellste Karte. Wenn man Spiele, die es für den PC und für die 360 gab vergleicht und der PC nur ne X1800 drin hat, dann gewinnt die 360
Den hohen Stromverbrauch der Titan mit 3 Monitoren kann ich nicht nachstellen... Bei mir komme ich immer auf etwas unter 45W (ganzer PC), egal ob ein Monitor, drei Monitore oder 3 mit Surround. Ich verwende verschiedene Monitore, aber Auflösung ist immer 1920*1080 bei 60 Hz.
Beefsupreme
Lt. Commander
- Registriert
- Mai 2009
- Beiträge
- 1.285
schade, dass sie den dual monitor verbrauch nicht reduzieren konnten.
Satzzeichen
Lieutenant
- Registriert
- März 2013
- Beiträge
- 669
sudfaisl schrieb:Satzzeichen: Die Luft wird von oben in den Lüfter gesaugt. (Oben heißt hier, die Karte liegt auf ihrer Rückseite) Nicht durch die winzigen Öffnungen an der Seite.
Ah OK, klingt logisch, Denkfehler meinerseits... Danke dir ^^
SheldonCooper
Banned
- Registriert
- Mai 2011
- Beiträge
- 938
Klar kann man. Das geht ganz einfach: du nimmst die Konsole und spielst, dann nimmst du den PC und spielst das selbe Spiel am selben Fernseher und schon kannst du sie vergleichen. Was interessiert es denn welche Hardware verbaut ist? Hauptsache das Spiel ist besser.pipip schrieb:Erstens kann man einen PC nicht 1 zu 1 mit einer Konsole vergleichen.
Die Xbox 1 basiert doch auch auf RISC, oder? Die x86 sind doch schon lange RISC.pipip schrieb:Denn vor der XBOX 1 basierten die jeweiligen Chips auf RISC Architekturen
Ich würde mich wirklich sehr wundern, wenn die neuen Konsolen die GK110 schlagen. Hältst du das für realistisch? Bitte begründen.pipip schrieb:Viele die meinen, Rohpower sei alles, werden sich wundern
- Registriert
- Jan. 2011
- Beiträge
- 2.633
anima322 schrieb:Ich frage mich, ob sich bis mai 2014 da noch was tut?
Ich glaube, da tut sich nicht mehr viel.
Es wird noch irgendwelche 290X OC Partnerkarten geben.
Bei Nvidia kommt ne leicht schnellere 780Ti, Titan wird eingestellt und dann beginnt das Warten auf die 20nm Generationen, da rechne ich frühestens im Spätsommer mit.
Das einzig Spannende was dieses Jahr im GPU Sektor noch passieren wird ist der BF4 Mantle Support, mal sehn was der bringt. Wenn Mantle draußen ist wird dann im Q1 2014 Nvidia ihr G-Sync noch Mal groß präsentieren.
Schöner Test, gute Karte mit ein paar Macken, die für jeden mal mehr mal weniger ins Gewicht fallen. Auf jedenfall hat AMD doch hinreichend geliefert. Und nach meiner Meinung ist die 780GTX der Gegner und nicht die Titan. Die 780GTX wurde geschlagen, dafür ist diese ja auch schon etwas älter.
Also alles wie gehabt und wie üblich würd ich sagen...
Also alles wie gehabt und wie üblich würd ich sagen...
Dai6oro
Admiral
- Registriert
- Okt. 2006
- Beiträge
- 9.876
Also dann wirds aufgrund des Preises wohl doch ne X mit Customkühler. Fein Fein.
Mal sehen was Nvidia bis dahin auf die Beine stellt.
Das haben SIe nie. Auf der AMD Präsentation haben sie von Ihrer schnellsten GPU geredet und den Firestrike Bench mit >8000 angegeben, zudem in Ihren Benches mit der GTX780 verglichen. Im Gegenteil das Markting hat eher versucht den Ball flach zu halten.
Das es keine Überkarte wurde war klar das wird aber auch Maxwell nicht wenn der auch noch in 28n kommen muss.
Mal sehen was Nvidia bis dahin auf die Beine stellt.
Ich komme mit einer GTX 780 gerade so aus und hätte mir gern eine 290X angesehen, wenn sie denn die Über-Karte geworden wäre, welche das AMD Marketing suggeriert hat.
Das haben SIe nie. Auf der AMD Präsentation haben sie von Ihrer schnellsten GPU geredet und den Firestrike Bench mit >8000 angegeben, zudem in Ihren Benches mit der GTX780 verglichen. Im Gegenteil das Markting hat eher versucht den Ball flach zu halten.
Das es keine Überkarte wurde war klar das wird aber auch Maxwell nicht wenn der auch noch in 28n kommen muss.
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
? Kepler ist eine komplette Neuausrichtung der Shader. Und zwar Richtung AMD und weg von den 1D Shadern mit hohen ineffizienten Takt.oder Kepler das ungenutzte Potential von Thermi nutzen konnte,
Kann ich schon, die Frage ist ob dir das wieder schmeckt? Ich hab da mehrere Faktoren im Visier. Der Hauptfaktor ist wohl viele Kerne auf großer Fläche perfekt zu kühlen und den Takt so niedrig wie möglich zu halten. Ergo maximale Parallelität gepaart mit minimaler Vcore. Ein weiterer Faktor ist der Vram, der schon der HD 6000 dann freien Lauf gegeben hat und die GPU voll entfalten lässt. Ein GTX 680 2GB läuft über und verliert somit wertvolle Rechenleistung, die Titan wird ihre GPU immer und zu jeder Zeit so effizient wie möglich mit Daten füttern können. Zusätzlich dazu die hochwertigsten Spannungswandler die man finden kann, dann noch die Architektur/Treiber perfekt auf das Konzept abgestimmt und der Drops ist gelutscht.Und warum die GK110-Effizienz so viel besser ist als GK104-Effizienz, konntest du ja auch nicht erklären.
Das sind allerdings keine belegten Fakten, sondern wie gesagt meine Sicht der Dinge.
Natürlich kann es das. Es ist jedes mal von top bis Flop alles drin. Wärst du schon länger hier dabei würdest du das aber wissen. Sogar ein Thermi II ist bei NV möglich, muss nur wieder was schief gehen bei der Architektur und der Fehler so schwer zu korrigieren sein wie leztes mal und das ganze geht von vorne los. Hat der CEO ja schon gesagt, jederzeit wieder möglich. Und da die Teile immer Komplexer werden von Generation von Generation, steigt die Chance auf einen kompletten Fehlschlag von Jahr zu Jahr.Solange wir den Grund nicht wissen, solange können wir keine genaue langfristige Tendenz geben, sodass die positive Überraschung bei AMD eben schon wieder in 20nm kommen kann.
Tja, nicht zuletzt hängt da mein Ruf mit drin.Dachte ich es mir, seit Titan ist alles unter 6GiB VRAM ein Krüppel, AMD hätte gefälligst 8GiB liefern sollen.
Aber 8GB wären dann schon wieder zu viel, wobei geht das überhaupt zu viel Vram? Neee, nehmen wir alles mit.
Zuletzt bearbeitet:
Nova eXelon
Commander
- Registriert
- Jan. 2011
- Beiträge
- 2.563
Objektive Antwort: Guck mal aufm Kalender, wie lange es her ist, dass einige ihr Geld wegschmeißen konnten *wink²*Dr.Duschlampe schrieb:Muss weh tun, wenn man sein ganzes Geld für eine überteuerte GTX 780 rausgeschmissen hat und dann kommt eine 290X, die sie wegbläst, sowohl von der Performance, Features wie auch vom Preis.
Subjektive Antwort: Du kannst nicht von dir auf andere schließen, nur weil dir das Geld weh getan hätte!
Das ist eben das Problem! Die meisten Menschen sind wie schlechte Verkäufer: Sie können nur über den Preis argumentieren.txcLOL schrieb:Ihr ganzen P/L-Fanatiker versteht einfach nicht, dass es auch Leute gibt, die bereit sind für mehr Leistung mehr zu zahlen.
Satzzeichen
Lieutenant
- Registriert
- März 2013
- Beiträge
- 669
SheldonCooper schrieb:Klar kann man. Das geht ganz einfach: du nimmst die Konsole und spielst, dann nimmst du den PC und spielst das selbe Spiel am selben Fernseher und schon kannst du sie vergleichen. Was interessiert es denn welche Hardware verbaut ist? Hauptsache das Spiel ist besser.
Die Xbox 1 basiert doch auch auf RISC, oder? Die x86 sind doch schon lange RISC.
Ich würde mich wirklich sehr wundern, wenn die neuen Konsolen die GK110 schlagen. Hältst du das für realistisch? Bitte begründen.
Du willst damit sagen eine Konsole z.B. PS4 / XBONE schlägt einen GK110 ? Und zweitens, wenn du einen PC gegenüber eine KONSOLE stellen willst dann muss aber auch das Game für genau diesen PC optimiert werden wie das Spiel für die Konsole optimiert wurde, und dann sage ich dir das der PC Grafisch die Konsole schlägt! SO EIN QUARK
Weder Leistung, noch Temperatur, Lautstärke oder die Verlustleistung sind überraschend, fast alles schon bei Leaks gesehen/vermutet. War bei einer Referenzkühlung auch nicht anders zu erwarten. Erst Custom-Designs werden zeigen, was in der 290X steckt. Mit einem dicken Kühler (3-Slot) wird die Temperatur und damit auch die Verlustleistung noch deutlich sinken.
Die einzige Überraschung ist der Preis... und der ist für die Leistung einfach nur top. Grob gesagt: Titan zum halben Preis.
Die einzige Überraschung ist der Preis... und der ist für die Leistung einfach nur top. Grob gesagt: Titan zum halben Preis.
SheldonCooper
Banned
- Registriert
- Mai 2011
- Beiträge
- 938
Ich sag genau das GegenteilSatzzeichen schrieb:Du willst damit sagen eine Konsole z.B. PS4 / XBONE schlägt einen GK110 ?
Das muss nicht sein, aktuelle Karten bieten so viel mehr Rohleistung, dass selbst optimierte Konsolenspiele das Nachsehen haben werden. Und optimierte Spiele kannst du zum Release noch nicht erwarten.Satzzeichen schrieb:Und zweitens, wenn du einen PC gegenüber eine KONSOLE stellen willst dann muss aber auch das Game für genau diesen PC optimiert werden wie das Spiel für die Konsole optimiert wurde
heckstrahler
Cadet 3rd Year
- Registriert
- Dez. 2004
- Beiträge
- 56
Die Leistungsaufnahme geht ja mal überhauptnicht. :X
Bluescreen
Lt. Commander
- Registriert
- Sep. 2001
- Beiträge
- 1.501
ok grafikkarte eben bestellt 
Ähnliche Themen
- Antworten
- 102
- Aufrufe
- 6.646
- Antworten
- 607
- Aufrufe
- 57.171
- Antworten
- 1.704
- Aufrufe
- 168.419
- Antworten
- 132
- Aufrufe
- 9.150
- Antworten
- 10
- Aufrufe
- 673