News Radeon HD 6950 zu Radeon HD 6970 freigeschaltet

Was mich sehr interessieren würde ist der tatsächlich geänderte Leistungsverbrauchanstieg und der damit verbundene Temperaturanstieg.

@die Leute die schon erfolgreich von 6950 auf 6970 geflasht haben:

wie ist euer vorher / nacher Verbrauch und Temperatur ? (wenn möglich sowohl im idle mode alsauch im last mode angeben)


danke schonmal


best greetz
 
War da nicht auch schon was mit den 68er Karten?
Da war doch auch was mit dem Computerbase Test hier, wo man Testergebnisse revidieren musste, weil auf der kleineren Karte seitens Sapphire das Bios der größeren Karte drauf war....
 
radeon-6900-specs.jpg


Jetzt eine runde Call of Juarez gespielt und auch hier ruckelte es deutlich stärker als zuvor.

Das HD6970 8-Pin braucht erfahre ich erst jetzt, werde heute Mittag nach der Arbeit das BIOS direkt wieder zurückflashen.
Da ich extrem aufwendige Spiele zocke die von der Grafikkarte alles abverlangen, wäre mir das Abrauch-risiko zu gross.
 
Zuletzt bearbeitet:
muss nicht daran liegen.

die 2x6pin plus 75watt pcie bringen 225 watt evtl auch mehr zur Katze.

Somit wäre evtl nur gefahr wen Afterburner auf max gwedreht wird.
 
KainerM schrieb:
Edit: furmark sollte man aber wohl bleiben lassen - laut ht4u geht die HD6970 dort auf 260 W hoch, das wär zu viel für die zwei 6-Pin.

Du Hast gelesen, dass HT4U die Karte unter Furmark mit PT@+20% getestet hat?

[ ] Ja [ ] Nein [ ] Häh, was ist PT?


Wenn man die Karte @Standard betreibt, kommt sie nur etwas über 200W:
http://www.pcgameshardware.de/aid,8...rklasse-Grafikkarten/Grafikkarte/Test/?page=2
http://www.technic3d.com/article-1196,15-amd-radeon-hd-6970-grafikkarte-im-test.htm


Edit:
@eimer_MS
Ja ein echtes Armutszeugnis wenn sich AMD die Kosten für einen Lasercut spart... ganz zufällig scheint die Karte ja nicht 2 BIOSe an Bord zu haben.
 
Zuletzt bearbeitet:
Toll für alle Besitzer einer 6950, bei denen das klappt, aber eher nen Armutszeugnis für AMD, ich bezweifle, dass das so geplant war. :D
Aber wie gesagt für alle Käufer/Besitzer einer 6950, wenns denn bei allen Karten funzt echt nice. :)
 
an die leute, die geflash haben und wo es ruckelt: probiert mal bisl mit powertune rum. je höher, desto wenige sollte es ruckeln...
 
eimer_MS schrieb:
Toll für alle Besitzer einer 6950, bei denen das klappt, aber eher nen Armutszeugnis für AMD, ich bezweifle, dass das so geplant war. :D
Aber wie gesagt für alle Käufer/Besitzer einer 6950, wenns denn bei allen Karten funzt echt nice. :)

Wieso sollte das ein Armutszeugnis sein, bist du in der Marketingabteilung von NVidia? xD

Es gibt immer kleine feine Sachen die man nutzen kann um wieder ins Gespräch zu kommen.

Denke nicht das bei solch großen Konzernen etwas NICHT geplant abläuft.

Nur ob das geplante Erfolg liefert darauf haben auch große Konzerne keinen Einfluss.

Es sei denn man haut solange mit der Geldkeule drauf bis es die Reinkarnation von RICHTIG ist. xD

Der Vorteil bei solch einer Vorgehensweise liegt doch klar auf der Hand. Eine Fertigungsstraße und mehrere Produkte am Ende. Anders machen das Intel und AMD doch bei den Prozzies auch nicht.

Nachteil, wenn diese Tweaks zu früh rauskommen verkaufen se halt keine "teuren" Modelle mehr. xD

Aber das ist das Risiko das der Konzern tragen muss. Mal von den verärgerten Käufern der teureren Modelle vor dem Tweak. xD
 
naja 6970 bleib ja weiterhin stärker in sachen max leistung mit oc und co.

ausserdem wird man woll mit der flash 6970 (Cayman Pro 6970) hab mahl ein namen ins rennen geworfen.

nicht alle OC Profile fahren können was die 6970 haben wird.

zb Super Oc oder FTw oder so was wird woll die 6950 nicht Schaffen weil die stromversorgung nicht reicht.
 
dann ist die 69er serie ja zum glück nicht völlig uninteressant.

aber erstmal abwarten und gucken, was die gtx560 macht.
 
und wo ist der Schalter, welches die Bildqualität verbessert AA etc?? und wo ist der Umschalter für einen stabielen Treiber??
solange es da keinen switch gibt bleibt die Karte /die Karten dieser Firma uninteressant für mich. Ich hoffe eher auf einen Preiskampf der Hersteller.
 
McSnoop schrieb:
Nachteil, wenn diese Tweaks zu früh rauskommen verkaufen se halt keine "teuren" Modelle mehr. xD

Aber das ist das Risiko das der Konzern tragen muss. Mal von den verärgerten Käufern der teureren Modelle vor dem Tweak. xD

Was glaubst du wie hoch der prozentuale Anteil von Overclockern ist?
Verschwindend gering und deshalb zu vernachlässigen.
Ich für meinen Teil kauf mir lieber gleich das schnellere Modell wenns denn nicht unbedingt das doppelte kostet und spar mir die Nerven und den Aufwand die Grafikkarte zu pimpen.
Bei CPUs ist das was anderes, dort spart man sich richtig Geld, aber wegen 80-100 Euro würde ich mir das nicht antun - ausser das entspricht einem monatlichem Taschengeld. :D

Eine Frage hab ich dennoch - was genau bringt das PowerTune im CCC zu verstellen und wann greift das wirklich im Spiel ein - gibt's Szenarien wo man wirklch an diese Grenze kommt?
Danke.
 
Rollkragen schrieb:
und wo ist der Schalter, welches die Bildqualität verbessert AA etc?? und wo ist der Umschalter für einen stabielen Treiber??
solange es da keinen switch gibt bleibt die Karte /die Karten dieser Firma uninteressant für mich. Ich hoffe eher auf einen Preiskampf der Hersteller.

deswegen sagte ich ja auch nicht mehr völlig uninteressant.

p.s wer probs mit dem strom hat, der soll halt einfach nur die shader freischlaten und den takt nicht erhöhen, oder zumindest nicht overvolten.


man müsste halt mal ausrechnen, was von beidem mehr leistung bringt. die vollen shader, oder 100mhz mehr takt. wobei ati user ja eigenlich eher volle schader bei weniger takt (also geringeren verbrauch, abwärme etc) haben wollen müssten.


edit: bei cpus spaar man richtig geld, im gegensatz zu grafikkarten?
also ich weiß ja nicht, wie das bei dir ist, aber bei mir war die graka um einiges teurer als die cpu.

und wenn wenn man nicht gerade das intel top modell kauft, wird man auch selten über den preis einer high-end grafikkarte kommen.
was spaarst du ziwschen nem x3 und x4 oder x4 und x6? imho weniger als 100 euro
 
Zuletzt bearbeitet:
AMD Powertune rechnet bei einer geflashten 6950 wahrscheinlich damit, dass die Versorgung für 300W ausgelegt ist.
Furmark wird daher eine geflashte 6850 killen, da die Leistungsaufnahme dabei deutlich über die spezifizierten 225W gehen (über 260W).

Wer seine Karte noch länger behalten möchte, kann seine 6850 daher auf die Shaderanzahl der 6870 freischalten, jedoch empfehle ich eine Senkung der Spannung auf 1,1V (damit ist höchstwahrscheinlich eine Taktfrequenz zwischen (810 und 870Mhz möglich).

@Dr4ven:
Zu Powertune findet man einige Tests im Netz.

mfg dorndi
 
Zuletzt bearbeitet:
die 2x6pin plus 75watt pcie bringen 225 watt evtl auch mehr zur Katze.

die arme Katze :D

Naja, bleib bei meiner 6870. Werd mir sehr wahrscheinl. eh noch ne 2. innen Rechner hauen...
 
Moin,
mir is grad aufgefallen das meine Originale 6970 nur 70,4 Texture fillrate anzeigt unter gpu-z 0.4.9.
Aber sollte ich ned um die 84 haben?oder einfach nur ein Auslesefehler was aber komisch wäre.der rest stimmt.:(

grakad.gif
 
Lade dir mal diese Version herrunter. Version 0.4.9. Unterstütz die 6900 noch nicht richtig.
 
Ist es überhaupt sinnvoll?
Sind die deaktivierten teile nur deaktiviert oder sinds sie wirklich defekt?

Wenn sie defekt sind, nützt es ja nicht viel sie freizuschalten, wegen 10% möchte ich je nach Nutzung keine falsche Ergebnisse bekommen. Bei einem Spiel ist eine minimal falsche Darstellung ja zu verkraften.
 
Zurück
Oben