Test Test: AMD Radeon HD 7950 (CrossFire)

Naja, diese Grafiken sagen mir das in der Realität wohl Skyrim auf GTX flüssiger läuft als auf HD

dies widerspricht aber viele andere tests inkl. den von CB,
wo ist denn der link zu diesem test,

ohh.. die haben sogar mit 2560x 1600 gemessen.. :D

je nach einstellung und auflösung ist das ergebnis verschieden, mal ist die gtx 5** reihe beser in BF3
mal ist die HD besser in Skyrim und umgekehrt..
man sollte daher mehr darauf achten, welche auflösungen und spile und einstellungen man selber hat/haben will und danach entscheiden.
 
Zuletzt bearbeitet:
Finde ich sehr interessant, da dadurch die Unterschiede in der Warnehmung von Spielbarkeit bei scheinbar gleichtollen FPS ganz verständlich erklärt ist, ....

... aber auf Seite 9 von dem Artikel http://techreport.com/articles.x/21516/11
wird doch in dem Schaubild gezeigt das FPS bei T-Render abgreift. Also lange vor der Bearbeitung durch die GPU(s). Diese haben wohl schon mindestens seit den G80, so Nvidia in dem Artikel, zusätzlich auch noch einen Latencyangleicher. Hauptsächlich für Multi-GPU, aber müsste man nicht eigentlich direkt am Monitor messen/filmen damit man die "wirklichen" Framezeiten ermitteln kann?
Außerdem haben schnellere GPUs auch mehr Frames in der gleichen Zeit, und dadurch evtl. mehr schlechte Frames.

Das heist für mich das die tatsächliche zeitliche Abfolge am Monitor evtl. doch nochmal anders aussehen könnte.

Habe ich das so richtig verstanden, oder liegt das nur an meinen begrenzten Englischfähigkeiten?
 
Kartenlehrling schrieb:
Sie können schliesslich nicht jeden Test neu durchführen nur weil ein neuer treiber rausgekommen ist.

Naja, im Falle der 7970 fände ich den Aufwand schon sinnvoll, doch. Immerhin geht es ja ständig um die Frage, wie schnell ist die 7950 verglichen mit der 7970. Das rückt die kleinere Karte jetzt unter Umständen unrealistisch nahe an das Topmodell.
 
@Wattana

Genau sozusagen, der Hinweis das man erst das Signal am anfang der Berechnung abgreifen kann aber ansonnsten das Konzept stimmt, müssen die HW hersteller noch die API liefern um wirklich die Daten des Out signal zu bekommen.
 
Von der Lautstärke war die PowerColor ja leiser als eine GTX570. Wie verhält sich das ganze denn bei einer GTX570 Phantom?

Ich stehe momentan vor einer kleinen Zwickmühle, ich möchte drei Monitore an meine Graka anschließen, das geht aber nur mit einer ATI. SLI geht bei der Phantom nicht und ne Turbine will ich auch nicht im Gehäuse
 
Merlin-.- schrieb:
Überflüssiges Zitat entfernt *klick*

Heisst das jetzt, die 7950 ist in BF3 kaum schlechter als die 7970 vom effektiven Spielgefühl her oder wie kann ich das interpretieren?
 
Zuletzt bearbeitet von einem Moderator:
Hmpf. Da ich nur BF3 spiele, wäre das dann ja vllt doch eine Überlegung wert? Eben weil die 7970 aktuell nur zu Apotheker Preisen lieferbar ist.

Wobei ich gestehen muss, ich verstehe diese 99th percentile Angabe nicht so ganz. Wenn ich z.b. eine übertaktete PCS+ nehmen würde, wäre die dann bei diesem Benchmark ja vermutlich gleichwertig oder gar stärker als die 7970?

Hab gestern die PCS+ vorbestellt auf VK, das wären inkl. Versand 420€, die günstigste 7970 auf Nachnahme bestellt, inkl. für 461€. Sind nur 40€... aber ungewiss wann die 7970 lieferbar wird..mhhm
 
Zuletzt bearbeitet:
Wattana schrieb:
... aber auf Seite 9 von dem Artikel http://techreport.com/articles.x/21516/11
wird doch in dem Schaubild gezeigt das FPS bei T-Render abgreift. Also lange vor der Bearbeitung durch die GPU(s). Diese haben wohl schon mindestens seit den G80, so Nvidia in dem Artikel, zusätzlich auch noch einen Latencyangleicher. Hauptsächlich für Multi-GPU, aber müsste man nicht eigentlich direkt am Monitor messen/filmen damit man die "wirklichen" Framezeiten ermitteln kann?

Habe ich das so richtig verstanden, oder liegt das nur an meinen begrenzten Englischfähigkeiten?

Man hat bei der Methode ja immer komplette Zyklen. Das die Intervalle bei Berechnungsauftrag beginnen und wieder bei Berechnungsauftrag enden ist doch egal. Hauptsache der Intervall wird regelmäßig gleich angesetzt.
 
Es heisst ja, dass die 7950 auch mit 1,5GB Ram kommen wird und das reicht für alles bis FullHD.
Ich habe eine 6950 2GB @6970 und bei BF3 @Ultra @FullHD habe ich laut GPUZ eine Ram-Belegung von 1600MB.
Da wären doch aber die 1,5GB von der 7950 viel zu wenig, oder sehe ich da was falsch?
 
hoffe nvidia lässt sich nicht zu lange zeit, würde sehr gern sinkende preise sehen!

wenn die karte bei 300 euro ist schlag ich auch zu, aber derzeit ist mir der zuwachs von einer 6950@6970 in betracht zu den mehrkosten noch zu gering.

Wobei es angesichts der OC-Möglichkeiten schon in den Fingern juckt :D

weiß schon jemand ob man die karte zur 7970 unlocken kann?
 
@Amando: ISt dir noch nie aufgefallen das mind. seit der 5er Serie AMD immer vor NV released hat
 
und das letzte mal davor wo nv schneller war mussten sie als die Karten von AMD erschienen mal eben die Preise halbieren und den Kunden Gutscheine schenken ^^
 
@Knuddelbearli

Made my Day...:D


Warum gibt's bei Geizhals eigentlich keine Verlinkung zum CB Test der HD 7950?:(

Mittlerweile gibts schon verschiedene Links zu osteuropäischen Seiten, aber der CB

Test fehlt immernoch.

Finde ich nicht so toll.
 
Benutzt doch einfach Google zum Thema Flashen. Ist nix mit Shadern aktivieren. Wurde getestet
 
Zurück
Oben