News Komplette Spezifikationen zur HD 7970 aufgetaucht

menzer45 schrieb:
die sind etwas schneller als computerbase.also schon ein alter hut die sache hier.

Sorgfalt geht vor Geschwindigkeit. Und so viel Neues ist nun auch nicht da. Außer das OBR mal wieder angebliches NDA-Material fröhlich rausposaunt.
 
Swissjustme schrieb:
Einige der Fehler in diesen Folien:
TDP bei 200W und ned bei 300W
Der Chiptakt ist niedriger.

was macht dich da so sicher... ? ;)

@Effe

jep aber wie gesagt meistens handfestes NDA Zeugs. Mal sehen was noch so kommt.

Er sagt ja dass die Folien etwas älter sind, wohl unter 900 Mhz Chip Takt default werden und somit auch die TDP etwas geringer ausfällt.
 
Zuletzt bearbeitet:
dnils schrieb:
Da komme ich ja ins Grübeln, ob meine Gigabyte GTX 570 SOC die heute angekommen ist noch die richtige Entscheidung war. Läuft zwar problemlos, schnell und leise, aber ich ging daovn aus, das die ATI Karten sowieso wieder erstmal nicht verfügbar sind. Was meint ihr, wann ist da mit Modellen im Bereich von 250-375€ zu rechnen?

Mit der 570 wirst du auch eine Weile reichen.

Grundsätzlich würde ich in dieser jetzt folgendes machen: Abwarten bis die NDA gefallen ist und vergleichen. Dann nochmal warten, ob in absehbarer Zeit NV nachzieht mit Kepler. Und dann nochmal vergleichen ^^.

Meine GTX460 wird vorerst nicht getauscht. Sehe keinen Bedarf drin.
 
@PiPaPa ig bin nicht pissig, wenn dan würde ich ganz anderes schreiben.
und was hat cpu oc mit graka Verbrauch zu tun, nur weil man sein cpu OC tut, heißt es gleich " sich aber aufregen weil graka so viel Strom verbraucht"
du musst doch nicht drauf antworten wenns dir nicht gefällt ,was ich schreibe. so damit hat sich des thema für mich gegessen.




hier @Dr4ven machst richtig wird gekauft.
und da gibt es nichts weiter drüber zusagen.
 
DVI is nunmal auch schon "alt" und für Eyefinitiy braucht man min einen DP.


@ELMOKO

so Aussagen wie "Wird gekauft" halte ich für fehl am Platz.
Die kann man treffen wenn das Produkt auf dem Markt ist und getestet wurde.
 
Dafür gibts Adapter. Bei guten Karten liegen solche auch bei.

@Krautmaster: Ich finds merkwürdig, daß OBR sich um kein NDA schert, aber trotzdem immer an das Zeug rankommt. Narrenfreiheit nennt man das. Warum?
 
Ich bin Skeptisch, nach den Bulli gerüchten, bin ich geimpft :)

Die Frage ist, wieviel unwahrheit CB noch posten würde, eigentlich kann man es sich nicht erlauben etwas zu bringen wovon man weiß das relevantes nicht stimmt, bzw. nur kleinere abweicherungen sind okay.

Ich werde mal in Seelenruhe abwarten, auch bezüglich Keplar, bin eigentlich nicht mehr bereit sehr Tief in den Geldbeutel zu greifen, auch die GTX280 habe ich nur gekauft weil ich sie für 190€ bekam als sie neu war ... ich denke mit 200-250€ muss es wirklich getan sein.
Daher liegt meine Hoffnung darauf das die 7950 in diesen Bereich fällt, zu schön wäre wieder das Freischalten zur 7970 ...

Und dann abwarten wann der q9450 nicht mehr kann :)
 
Auf OBRs Blog steht nun das:

ATTENTION: It seems this slide is legit but little bit old, GPU clocks and Load TDP are on real cards lower! GPU clocks are probably under 900 MHz and Load TDP +/- 200W.

Zudem hat auf Anfrage einiger User OBR bereits eingeräumt, dass er selbst keine der neuen Karten besitzt.
 
Bin ich eigentlich der einzige, den hier auch der Verbraucht beim Zwischenschritt zwischen Idle und Last interessieren würde?
Ich meine ist ja schön und gut, dass hier 3Watt angegeben werden...
Aber starte ich z.B. vlc, DVBViewer...oder sogar Firefox geht die Grafikkarte ja teilweise vom Idle in den, sagen wir mal, Multimedia Modus über...
 
Ich freue mich auf die neuen GPUs...^^
Aber erst mal werde ich noch auf Kepler warten, und dann wird eine neue Karte gekauft.
3 W im Idle klingen sehr gut.
Dazu einen deutlichen Leistungssprung, dann könnte es wieder eine AMD/ATI-Karte werden.
Meine 6950 ist nicht schlecht, aber dieses Mal möchte ich ein Grafikmonster haben...^^
Entweder eine 7970, oder eine 680 wird es werden, wenn die Bezeichnungen so weitergeführt werden.
 
Dass auf OBR jetzt schon von Gaming-Performance weit unter Erwartungen gesprochen wird, finde ich sehr schade. Wird wohl die Krone erneut an nvidia gehen und ich noch länger auf ein flüssiges Battlefield3 mit einer Karte warten müssen :(
 
PiPaPa schrieb:
Ich möchte euch nur mal an die HD 6870 erinnern, bei der es hieß TDP 225W und dieses wurde auch gleich wieder mit dem Verbrauch gleich gesetzt.... :rolleyes:
Und dann kamen die Tests und sie verbrauchte gerade mal ~ 125W bei realistischen Bedindungen wie Spielen und 170W unter Furmark.
In der Folie steht nichts von TDP und wenn der Chipausbau wirklich so groß ist, wie die Folie anpreist, wird die sicherlich nicht unter 200W liegen.
 
Auch wenn ich Aussagen anderer nur wiederhole ... bei machen hilft nichts anderes:

ELMOKO schrieb:
300W unter Last lol. das bringt mir nichts 250 watt wären ok aber mehr auch nicht. daran sollten sie lieber mal arbeiten.

Wie schon geschrieben wurde, es sind keine 300W, der Verbrauch liegt unter 300 Watt. Und wenn dir 300W zuviel sind, kauf dir ne 7950, 7870 oder ähnliches. Dann liegst du ggf. sogar weit unter 200 Watt.
Sofern der Verbrauch in einem guten Verhältnis zur Leistung steht, ist es vollkommen ok, das solche Grafikkarten angeboten werden.
Genau DIESE zu kaufen, dazu zwingt dich keiner, denn es gibt Alternativen in Massen.


ELMOKO schrieb:
3 watt im idle hört sich schön an, da isses mir aber auch schnuppe..ob wenn es da auch noch 10, 20 watt sein könnten. die last watt zahl ist 100% die die runter muss.

Nicht jeder Käufer nutzt die Hardware gleich, aber nehmen wir mal dich als Beisipel;
alleine hier im Forum hast du ca. 1700 Beiträge seit Februar 2010, das macht laut Statistik 2,6 Beiträge pro Tag.
Wie viel Stunden glaubst du also, läuft dein Rechner wohl im Leerlauf, und wie viel Stunden die Grafikkarte unter Last?
Ich kann von mir sagen; zur Zeit sind es 100%, weil ich nicht mehr Spiele. Und wo ich noch spielte mindestens im Verhältnis 5 zu 1 für Leerlauf.
Sicher retten 3 statt 13 Watt bei AMD Grafikkarten nicht das Klima, erfreulich ist es trotzdem.
Würden weder Kunden noch Hersteller auf geringen Leerlaufverbrauch Wert legen, läge sie möglicherweise noch immer bei 50 Watt und mehr.

ELMOKO schrieb:
ja warum nicht wenn ich die cpu OCe auf 3,5 und ? muss ja nicht auch nocht de grafikkarte ?300 watt oder was weiß ich verballern. und das geht dich doch nichts an.. also schreibe ich des rein was ich meine.

Weil deine Aussagen nicht glaubwürdig und nachvollziehbar sind. Den Idleverbrauch einer Grafikkarte als weniger relevant abtun, jedoch den Lastverbrauch der Spitzenkarte kritisieren - OBWOHL dies nur eine von vielen Grafikkarten sein wird - und gleichzeitig seine eigene CPU Übertakten, was den Verbrauch SOWOHL unter Idle ALS AUCH Last erhöht, das passt nicht zusammen.

Du schreibst rein was du meinst? Die Leute schreiben, was sie über deine Aussagen meinen. Lass sie doch. Jeder schreibt, was er möchte.

ELMOKO schrieb:
und was hat cpu oc mit graka Verbrauch zu tun, nur weil man sein cpu OC tut, heißt es gleich " sich aber aufregen weil graka so viel Strom verbraucht"
du musst doch nicht drauf antworten wenns dir nicht gefällt ,was ich schreibe. so damit hat sich des thema für mich gegessen.

Fass dir mal an die eigene Nase. Warum regst du dich darüber auf, was andere über deine Aussagen schreiben? Du mußt doch nicht darauf antworten?

Für nen Mittdreißiger bist du ganz schön uneinsichtig.
 
ExcaliburCasi schrieb:
Die Frage ist, wieviel unwahrheit CB noch posten würde, eigentlich kann man es sich nicht erlauben etwas zu bringen wovon man weiß das relevantes nicht stimmt, bzw. nur kleinere abweicherungen sind okay.

Du kannst ja mal suchen, wie oft wir von XDR2 als Grafikspeicher für die HD 7000 geschreiben haben: https://www.computerbase.de/suche/?bereich=news&q=XDR2
Exakt, einmal lediglich um es entgültig als Fake abzuhaken, nicht wie dutzende andere Seite, die den Fake erst in Umlauf brachten. So, jetzt zähl 1+1 zusammen und ordne das neue Gerücht ein ;)
 
Effe schrieb:
Dafür gibts Adapter. Bei guten Karten liegen solche auch bei.

@Krautmaster: Ich finds merkwürdig, daß OBR sich um kein NDA schert, aber trotzdem immer an das Zeug rankommt. Narrenfreiheit nennt man das. Warum?

irgend einen mit Narrenfreiheit gibts immer. ... wie viele Leute kommen stand heute an ES von Intel IB ran ohne nen NDA zu unterschreiben...

@Volker

Joa, wenn man bisschen gesondert drauf schaut kann man schnell abschätzen wie glaubwürdig ein Gerücht ist. Die Quellen mögen im Falle von OBR etwas "komisch" rüberkommen, aber alles in allem kann man mehr reininterpretieren und mehr Glauben schenken als in eine dahergepostete Folie in irgend nem Forum.

@milamber!

kein Grund sich wieder aufzuregen, natürlich sind sinkende idle Werte ein Schritt in die richtige Richtung, ich denke auch dass ers begriffen hat ^^
Bei dir meint man gleich wieder man hat was verbrochen und wird dafür abgestraft :D
Zerpflückst Posts die mit einem kurzen 3 Zeiler ruhig und verständlich beantwortet wären. =)

Bin auf die 3 W gespannt, habe Hoffnungen dahingehend, dass auch MultiMonitor stark sinkt, da bei AMD hier mehr Potential da ist. Ich selbst zähle zu den Usern die hier profitieren würden - wobei bei mir der X58 der Verschwender ist.

@Swissjustme

jep ich weiß. Naja, wenn von <300W dann auf <200W fallen sollte, dann müsste der Takt aber massiv gekürzt worden sein wenn 925 Mhz erst angepeilt waren.

Ich denke in die Anschlüsse der Leakbilder kann man mehr reininterpretieren. 6+8 Pol bei 7970 und 2x6 Pol bei der 7950. Letztere eventuell knapp unter 200W. Die HD7970 selbst eher um 250W TDP bei ~900 Mhz.
 
Zuletzt bearbeitet:
matty2580 schrieb:
Meine 6950 ist nicht schlecht, aber dieses Mal möchte ich ein Grafikmonster haben...^^
Entweder eine 7970, oder eine 680 wird es werden, wenn die Bezeichnungen so weitergeführt werden.

Was hast du von einem Grafikmonster, außer viel Geld bezahlt zu haben?
Das dickst mögliche im Rechner stecken zu haben, mag sicher für manche ne Genugtuung sein, aber nach der ersten Freude ist es auch wieder nur ne Grafikkarte, die wie alle anderen mit Wasser kocht. Und ein paar Augenblicke später ist sie dann auch schon wieder veraltet.

Wer so was "braucht" bitte - dafür werden sie angeboten. Ökologisch und Ökonomisch sind High End 'Monster' jedoch unvernünftig.

Im übrigen ist deine 6850 für meien Verhältnisse schon ein Grafikmonster - ich hab ne Midrange von 2007 ... und konnte bis ende letzten Jahres trotzdem ALLES damit spielen, was ich wollte.

nospherato schrieb:
Bin ich eigentlich der einzige, den hier auch der Verbraucht beim Zwischenschritt zwischen Idle und Last interessieren würde?
Ich meine ist ja schön und gut, dass hier 3Watt angegeben werden...
Aber starte ich z.B. vlc, DVBViewer...oder sogar Firefox geht die Grafikkarte ja teilweise vom Idle in den, sagen wir mal, Multimedia Modus über...

Ganz und gar nicht; der Verbrauch im Multidisplay Setup und bei der Video Dekodierung ist auch mir sehr wichtig. Hier hat AMD in den letzten Generationen deutlich geschlampt meiner Meinung nach.
 
Zuletzt bearbeitet:
Torquemada4 schrieb:
Warum hat die nur noch einen (1) DVI Anschluss? Ich brauche eigentlich beide :(
Schade

Verbaute DVI Stecker verbrauchen zuviel Platz, der obere DVI verbaute eine gute Abluft, nvidia hat es schon mit der gt5xx Reihe besser gemacht.

Die HD6xxx hatten sowieso schon nur einen voll belegten DVI, der obere war nur noch DVI-D und mit 2x miniDP kann man eigentlich alles bedienen.
 
Zuletzt bearbeitet:
Zurück
Oben