News Komplette Spezifikationen zur HD 7970 aufgetaucht

Ameisenmann schrieb:
3W Idle kann ich mir nicht vorstellen, es würde ja schon reichen wenn PP funktioniert und im 2D Betrieb bzw. Surfmodus/Film entsprechend sparsam läuft (unter 20W)

Die 3 Watt Stromverbrauch beziehen sich zu 100% darauf, das kein Bild angezeigt wird, denn alleine der PCIe Bus usw. braucht schon 3 Watt ^^

Wenn kein Bild angezeigt wird, sprich der Monitor aus ist, kann die Karte sich komplett abschalten, hat ja nix mehr zu tun, dann sind 3 Watt realistisch.

Die Radiallüfter von AMD waren bisher immer schlecht, da bin ich auch sehr skeptisch das der jetzt besser sein soll.
 
Ameisenmann
Ich hab meist Referenzdesign so laut sind die Dinger nicht das man sich gestörrt fühlt.
Wieso sind 3 Watt nicht möglich, von Stromsparmodi bzw Architektur ist noch gar nichts bekannt.
Fraglich ist nur ob es bei den VLIW4 also 78xx und alles drunter auch die 3 watt im idle schaffen.

Jolly_Jumper
Die HD 6000 frießt 24 watt wenn der Monitor abgeschalten ist ???
http://geizhals.at/599146
muss man nur klären was Maximaler Verbrauch: 250W (Betrieb), 20W (Leerlauf) bedeutet auf geizhals

http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index22.php
idle 21 watt.

Naja ich nehme stark an dass idle für den normalen Desktop betrieb ist, oder täusch ich mich da ???

Ein Freund hat mir mal erzählt er hat einen PC von Siemens gesehen, 0 watt rechner hieß der, angeblich, der friert immer den Desktop ein, und bei einer aktivität wird berechnet, kA wie genau das geht, aber der Verbrauchsoll gegen 0 gehen
 
Zuletzt bearbeitet:
Yuuri schrieb:
Warum wurde mein Post ins Aqua verschoben? Was hat nun die Passage Active mDP auf Folie 6 zu bedeuten (um die Frage mal auszuformulieren)?

Active mDP - Aktiver Mini Displayport Adapter.

Diese Adapter sind notwendig um 3 Monitore mit DVI/HDMI an eine HD 6000 Serie anzuschließen. Vermutlich ist der Adapter nun direkt dabei, kost eh nur 2-3 $ so ein Ding.
Ergänzung ()

pipip schrieb:
Ameisenmann
Ich hab meist Referenzdesign so laut sind die Dinger nicht das man sich gestörrt fühlt.
Wieso sind 3 Watt nicht möglich, von Stromsparmodi bzw Architektur ist noch gar nichts bekannt.
Fraglich ist nur ob es bei den VLIW4 also 78xx und alles drunter auch die 3 watt im idle schaffen.

Jolly_Jumper
Die HD 6000 frießt 24 watt wenn der Monitor abgeschalten ist ???
http://geizhals.at/599146
muss man nur klären was Maximaler Verbrauch: 250W (Betrieb), 20W (Leerlauf) bedeutet auf geizhals

http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index22.php
idle 21 watt.

Naja ich nehme stark an dass idle für den normalen Desktop betrieb ist, oder täusch ich mich da ???

IDLE Modus bedeutet, dass die Karte den Desktop anzeigt aber keinen 3D Modus und auch sonst nichts weiter, sprich der PC ruht mit aktivem Bild. Auch keine Videos und nichts.

Dabei verbraucht eine 6970 21 Watt eine 7970 verbraucht vielleicht etwas weniger 15-16 Watt. 3Watt sind in diesem Modus nicht zu machen, denn alleine das Betreiben des PCIe Bus der Karte usw. würde schon 3 Watt brauchen und dann ist noch kein Bild da und nichts.

Die 3 Watt beziehen sich zu 100% auf einen abgeschalteten Screen, daher auch "long Idle" Dann wäre der Bildschirm aus und die Karte müsste überhaupt nichts mehr tun und könnte komplett abschalten.
 
Zuletzt bearbeitet:
Jolly_Jumper
klingt logisch, doch ist das trotzdem ein großer unterschied, wenn man den PC übernacht anlässt, weil man gerade was bearbeitet oder ähnliches oder nicht ?
 
vielleicht wenn man die ganze Nacht einen Download laufen lässt oder irgend eine Primzahl ausrechnet ^^

Ansonsten überflüssig, denn wer seinen Rechner über nacht an lässt, dann geht der Rechner am besten in in den Suspend to Disk oder Supend to RAM und schaltet eh ab ;)

Das is maximal interessante wenn man mal den Rechner für 1 Stunde verlässt, dann spart man halt 10-15 Watt. Wenn man bedenkt was die Karte kostet, spielt das auch keine Rolle ;)
 
Swissjustme schrieb:
Laut OBR findet der Release nun am 22. Dezember 2011 statt:
http://www.obr-hardware.com/2011/12/radeon-hd-7970-paper-launch-next-week.html

Ausserdem bei 3dcenter.org gefunden:
slajd2rvkky.png

winziger Fehler: ATI HD 6970 statt AMD HD 6970? (gab ja schon ne ähnliche Folie, damals ATI HD 5870 und AMD HD 6970)

War zu dem Zeitpunkt doch erst der Wechsel von ATI zu AMD bezeichnung, von daher nicht tragisch ;) ...siehe auch: WIKI zu ATI

Knuddelbearli schrieb:
najadie GTX 680 kommt wohl erst im Sommer erstmal muss eine GTX 660 TI reichen...

Also da nehm ich doch lieber ne 7950er und im Sommer dann ne zweite :D

birday schrieb:
40-50% mehrleistung ist einfach nur hirnloses wunschdenken. IMO! no offense btw!

Wieso, AMD hats doch schon öfters geschafft, ich würd sogar sagen viel mehr als 40-50% :king:
 
bei einer Karte, die vielleicht 200W und mehr ziehen wird spielen nun +-15W keine große Rolle. Mich würden wie gesagt die Lüfter stören. Ich bin da eben etwas anspruchsvoller. Die ATI Referenzpropeller sind käse, selbst wenn sie nicht laut sind, stört das Geräusch bzw. ist aufdringlich oder klappert. Die XFX 6870 zeigt wie es gehen sollte, die ist relativ leise oder eben Sapphire, HIS Customlösungen. Soll ja diesesmal angeblich verbessert worden sein, da sind wir mal gespannt.
 
Ameisenmann
Aufdringlich ist Geschmacksache, aber klappern ist etwas übertirieben, und btw lässt deine grafikkarte doch ned 24/7 benchmarks jagen oder xD ???
Mir passiert es eher dass ich ab und zu vergesse den PC abzuschalten ^^

Die XFX 6870 zeigt wie es gehen sollte, die ist relativ leise oder eben Sapphire, HIS Customlösungen

Ist damit die 6870 boxed kühler version gemeint ?? weil die habe ich nämlich...
 
Mich würde mal interessieren, für welche Spiele man so eine Grafikkarte brauchen wird.

Für die leidigen Consolen-Ports sicherlich nicht.
 
Naja um ein BF3 auf nem 27" zu zocken sollte man die shcon gut gebrauchen können. Auf Ultra versteht sich.

MfG
 
Jaja...Leistungsaufnahme 3W blabla - das ist mir doch komplett wumpe :rolleyes:

Für einen angeblich angepeilten Preis von 500-550 € für die HD 7970 interessiert mich die Leistungsaufnahme genau NULL :rolleyes:

das einzige, was für mich zählt ist die Leistung der neuen Karten im Vergleich zur Vorgängergeneration, sonst nix.
Und in der Hinsicht erwarte ich von (angeblich) 500-550 € die Leistung von 2 x HD 6950 CF (= ca 500 €) und nichts geringeres.

Aber dann liest man so Sachen von wegen: "...HD 7970 schneller als GTX 580..." - ACH NEE - kann ich da nur sagen - da wäre ich ja nie drauf gekommen :lol:
Wäre auch eine ziemlich heftige Blamage, wenn die neue Generation keinen deutlichen Leistungssprung machen würde...
 
3W Idle Verbrauch und die neue Generation liegt in den gezeigten Benchmarks mindestens 150% über der alten High End Karte.

Wenn die Zahlen auch nur zur Hälfte stimmen, wäre das schon eine Sensation.
 
naja ich sehe darin bisher noch keine Sensation. Die 3 W sind ohne Zweifel gut, aber ob 3 oder 18W idle juckt mich bei einer Karte Karte wie dieser wirklich 0.

Die 3W lenken allenfalls von der eigentlichen Performance der Karte ab.

Die bisher gezeigten Benchmarks beziehen sich allein auf Tessellation oder?

150% (in GPU limitierten Spielen, nicht Rohleistung) wäre gerade so okay, nicht aber wirklich gut da die Leistungaufnahme wohl mindestens gleich bleiben dürfte (In den Folien ist klar von 6+8Pin die Rede).

Cool ist natürlich, dass wir eventuell noch vor Weihnachten Zahlen von CB bekommen. Das wäre natürlich klasse!


Verfügbarkeit interessiert mich wneig weil ich eh nicht so bescheuert bin und zum Release ne HE GPU kaufe... da kann man gut 1-2 Monate warten oder eben auf Kepler, dann drücken sich die Preise auf ein festes Niveau. Wenn man dann kauft ist man bis zum nächsten Shrink gut aufgestellt. Wer die letzten 3 Monate eine 200€ gekauft hat ist in meinen Augen selber Schuld da man vor 2 Jahren auch eine HD5850 für ähnliches Geld bekommen hat die Leistung auch heute noch pro € extrem gut dasteht (für ne 2 Jahre alte GPU).

Grafikkarten kauft man am besten direkt nach Shrink - nicht zum ReleaseTag, aber dann wenn die Peise fix sind
 
Zuletzt bearbeitet:
Mir würden die 50% mehr Performance zu GTX580 reichen.
Mit der 580 habe ich in BF3 40 FPS @maxout.
+ 50 % wären hier also 20 FPS mehr.
= 60 FPS wenn man dann HBAO noch auf SSAO umstellt, sollten die 60 FPS konstant drin sein.

Meine momentanen Einstellungen für 60 FPS sind alles High und 2xMSAA und HBAO/SSAO ist aus.
Und selbst dann schafft es meine 580 @900 Mhz ncht, auf den neuen Maps, konstant 60 FPS hinzubekommen.
 
Hallo zusammen,

ich juckel noch mit meiner HD4870 512MB rum und werde mit der neuen Generation einen gewaltigen Leistungsschub merken.

Die 5xxx Reihe ist direkt an mir vorrüber gegangen, genauso wie die 6xxx Reihe. Jetzt wirds mit der 4870 aber wirklich eng. von daher ist für mich diese Karte mehr als interssant, die wird gekauft.

Anfängerfrage:
was heist "Karte kauft man direkt nach Shrink"? Welcher Zeitpunkt wird hier genannt. Sorry, habe ich noch nicht gehört.

Grüße

Edit: Sind damit die ersten Custom-Kühler Lösungen gemeint?
 
And.! schrieb:
Ich kann mir aber vorstellen, dass manchen Leuten die aktuell gebotene Leistung reicht und sie dann auf eine neue, bei gleicher Leistung, sparsamere Karte umsteigen. Und m.M.n. ist das der eigentliche Fortschritt: die Steigerung der Effizienz.

Das werden wir wahrscheinlich erst mit dem Test der kleineren Chips (Achtung Namensgebung reine Spekulation) alias HD68xx erfahren. Diese Karten, sind die wirklich Interessanten, für die "Masse" gemachten Grafikbeschleuniger. Darum verstehe ich auch nicht, warum so viel Wirbel um die Flaggschiffe jeder Grafikkartengeneration gemacht wird, obwohl nichtmal geschätzte 5% der Leser dieser News eine solche Karte kaufen werden.
Die Modelle HD6950/6970 denke ich wurden schon recht viel gekauft, aber auch da sie für Highend Karten recht "günstig" sind.
Mir würde auch die Leistung einer HD68xx reichen mit deutlicher Stromersparnis.

ultravoire schrieb:
Wenn die 3 Watt stimmen sollten, dann würde sogar für mich große Karten in Frage kommen! Das wäre echt cool. Ein komplett passiver Betrieb wäre im Idle dann problemlos machbar, in einem sehr kelienn Gehäuse und unter Last kann der Lüfter dann angehen^^. Die 3 Watt sollten ohne Lüfter machbar sein, zumindest im Idle!
Ameisenmann schrieb:
3W Idle kann ich mir nicht vorstellen, es würde ja schon reichen wenn PP funktioniert und im 2D Betrieb bzw. Surfmodus/Film entsprechend sparsam läuft (unter 20W)
3W müssen es gar nicht sein, aber mir wäre auch mal wichtig, dass die Karten mit anschließen und benutzten eines 2. und 3. Monitors nicht gleich von 20W Idle auf 40-50W Idle hochgehen.
Mein Idle Verbrauch ist entgegen meiner Hoffnungen nicht wirklich gesunken, da HD5770 und nochmehr die HD6850 ordentlich hochtakten - da ist eine HD4830 mit 2 Monitoren sparsamer gewesen.

Jolly_Jumper schrieb:
Active mDP - Aktiver Mini Displayport Adapter.

Diese Adapter sind notwendig um 3 Monitore mit DVI/HDMI an eine HD 6000 Serie anzuschließen. Vermutlich ist der Adapter nun direkt dabei, kost eh nur 2-3 $ so ein Ding.

Wenn der Active mDP bei allen Karten dabei ist, wäre dies sehr zu begrüßen, denn so ein Adapter kostet mindestens 20€, und dann gibt es auch noch Displayport und MiniDisplayport - ist also keine günstige Angelegenheit.
 
Zuletzt bearbeitet:
tomatoes schrieb:
Anfängerfrage:
was heist "Karte kauft man direkt nach Shrink"? Welcher Zeitpunkt wird hier genannt. Sorry, habe ich noch nicht gehört.

Grüße

Edit: Sind damit die ersten Custom-Kühler Lösungen gemeint?

Damit ist die Umstellung auf einen kleineren Fertigungsprozess gemeint, in dem Fall von 40nm (HD5000/HD6000) auf 28nm (HD7000).
 
jetzt nicht ;)

Am Besten wäre es wohl wenn du noch die HD 7950 im Januar abwartest. Wenn die Karten eine gute Figur machen und die Preise sich einpendeln würde ich ein Modell mit ausreichend RAM nehmen und das hält dann auch wirklich lange und gut.
Wann Kepler (Nvidia Shrink auf 28nm) kommt steht ja noch mehr oder weniger in den Sternen. Sonst würde sich wegen Preisdruck und Konkurrenz der Zeitpunkt nach Kepler Release auch für einen Kauf anbieten.

Sofern aber der HD8XXX in ca einem Jahr - 1,5 Jahre kommt wäre diese wohl nur ein kleiner Aufguss (ebenfalls in 28nm) und würde wohl nur kleine Optimierungen mit sich bringen wie die HD69XX gegenüber der HD58XX.
 
Zuletzt bearbeitet:
Zurück
Oben