News Komplette Spezifikationen zur HD 7970 aufgetaucht

Servus Krautmaster,

naja Januar werde ich dann auch noch schaffen. :)
Ich werde das nach Lust und Laune entscheiden, und wenn tatsächlich die HD 7970 verfügbar wäre könnte man sich ja selber "beschenken". :)

NVIDIA kommt mir aufgrund der Preisgestaltung nicht ins haus (momentan). Das die 560Ti 60,-€ teurer als die 6870 ist und beide Karten quasi gleichschnell sind will mir nicht runter. Das unterstütze ich nicht.
Genut OT (werde bestimmt gleich versenkt).

Grüße
 
Zuletzt bearbeitet:
www.obr-hardware.com/ automatische Goolgeübersetzung:
PS. Was sagt der OBR, ist, wie das Wort Gottes ... sofort erstreckt sich auf die Welt ... nur ein paar Minuten. Und Stachuj? Was er sagt, niemand weiß, und die blábolům nicht einmal glauben, die Kinder auf seinem blogýsku ...

Haha, wo er auch irgendwie Recht hat :-)
-.-
 
Haha, wo er auch irgendwie Recht hat :-)
-.-
Ja, leider leider.
Das von OBR herausgegebene Material dürfte wieder hübsch manipuliert sein.
Zumindest die Folie mit den Spezifikationen wurde garantiert "überarbeitet".
Denn, vom Stil her passt sie überhaupt nicht zu dem Design der anderen Folien,
und taucht auch nicht in der von Donaninhaber geleakten Folienübersicht auf.

Eine Leistungsaufnahme von < 3W idle wäre natürlich excellent,
aber solange die Information nur von OBR stammt glaub ich auf jeden Fall nicht daran.
 
Hört sich ja alles soweit gut an. Warten wir mal auf die ausgereiften Kühllösungen der verschiedenen Hersteller. Dann wird das eventuell im nächsten Jahr was mit uns zwei ;)
 
Ich bin jetzt nicht so der experte, und dass ne 7950 stärker ist als meine 6950 liegt in der Logik der Sache - ausserdem ist die ja in einem kleineren Fertigunsprozess gebaut und effizienter. Aber muss ich jetzt als normal-user davon ausgehen, dass ich nächstes jahr ne neue Karte kaufen darf (weil neue Generation und Funktionen?) oder werden kommende Spiele (soweit vorraussehbar / einschätzbar) nachwievor gut auf meinem System funktionieren (bzw. was die GPU angeht?)
 
0laf schrieb:
[...]
Denn, vom Stil her passt sie überhaupt nicht zu dem Design der anderen Folien,
und taucht auch nicht in der von Donaninhaber geleakten Folienübersicht auf.
[...]

Der Stil passt nicht wirklich, da hast du recht, aber "slide21" sieht auf jeden Fall von der Graphik her sehr sehr ähnlich aus!
 
Direct X 11.1 ... hmmm vielleicht genau so sinnfrei wie Direct X10.1
 
greeny112 schrieb:
WARUM nur schafft es AMD nie mal ein einigermaßen akzeptables Referenzdesign zu schaffen wie Nvidia es getan hat?!
Etwa so, wie die flüsterleise GTX480? ;)
Ich kann mich lediglich an die GTX560ti erinnern, die gelobt worden ist. Gleichwohl wäre sie für wirklich anspruchsvolle Zeitgenossen trotzdem noch zu laut gewesen. Da bin ich mir sicher. Um einen Umbau kommt man in meinen Augen nie herum, wenn man wirklich gar nichts von der Karte hören will.

Ich bin absolut gespannt, in welcher Länge die neuen Karten dann aufschlagen, wieviel Strom sie ziehen werden und ob sie womöglich eine gute alte G80-Bohrung aufweisen.

oder werden kommende Spiele (soweit vorraussehbar / einschätzbar) nachwievor gut auf meinem System funktionieren (bzw. was die GPU angeht?)
Klar werden sie das. Bis dann halt die neuen Konsolen raus kommen.
 
agor schrieb:
Der Stil passt nicht wirklich, da hast du recht, aber "slide21" sieht auf jeden Fall von der Graphik her sehr sehr ähnlich aus!
Ja, das stimmt auf jeden Fall. Ich meinte jetzt lediglich die erste Folie, auf der
die technischen Spezifikationen aufgeführt werden. :)
 
Die Kepler Folie würde ich auch nicht unbedingt als Fake abtun (aber natürlich ebenfalls Hersteller Benches). Die Frage ist eher wann Kepler kommt.

Die Spezifikationen liegen noch im Dunkeln, es ist aber anzunehmen, dass Nvidia ein wuchtiges 512 Bit breites Speicherinterface und eventuell 1.024 Shader-Einheiten in einen monströsen Chip packt. Die Karte dürfte aber erst im zweiten Quartal in den Handel kommen, wenngleich Nvidias Igor Stanek sich freimütig äußerst und bestätigt, dass man 28-Nanometer-Silizium im Haus habe; die Yields seien besser als erwartet.

halte ich für realistisch in Anbetracht der Tatsache, dass man heute bereits 384 Bit fährt und 28nm eine Verdopplung der ShaderZahl ermöglichen sollte. Nvidias Vorteil ist wohl, dass sie die Shader mit hohem Takt (vergleichen mit Chip) ansteuern.

Natürlich würde der Chip nochmal deutlich massiver als der der HD7970, sicher auch was den Verbrauch angeht.
 
Zuletzt bearbeitet:
http://www.tweakpc.de/news/22913/amd-radeon-hd-7970-neuer-luefter-und-3-bildschirme-ohne-adapter/Schade die HD 79xx kommt nur mehr mit einem DVI-Anschluss dafür gibts grösseren Lüfter.

224.jpg


Quelle: TweakPC
 
So wie ich das sehe, ist alles dabei, was man zum Anschluss von drei Monitoren per DVI/HDMI braucht.
 
Gibt es irgendwelche Vorteile für den DP statt DVI? Bildqualität?

Für 3 Monitore reicht die Leistung einer Karte eh nicht!
 
CompuChecker schrieb:
Für 3 Monitore reicht die Leistung einer Karte eh nicht!
Gibt genug, denen die Leistung einer Radeon HD 5770 für drei Monitore gereicht hat, warum sollte die HD 7970 dafür zu langsam sein? Der Hauptgrund für DP statt DVI ist, dass man nur durch Nutzung von DP mehr als zwei Monitore gleichzeitig und unabhängig ansteuern kann. Außerdem erlaubt DP eine erweiterte Farbtiefe gegenüber DVI.
Und schau mal, mit welchen GPUs Matrox bis zu 8 Monitore mit einer Karte unabhängig voneinander ansteuern kann. 3D-Monster sind das nicht gerade. Trotzdem ist die Kundschaft offenbar zufrieden, sonst würde man solche Lösungen nicht an Börsen und bei ähnlich finanzstarker Kundschaft sehen.

Ich kann mir vorstellen, dass viele potentielle Käufer einer HD 7970 drei Monitore daheim haben, die sie auch anschließen würden. In der Mitte den großen Gaming-Bildschirm, daneben den alten, kleinen Bildschirm als Erweiterung zum Arbeiten bzw. als Statusmonitor für Instant Messaging, Hardwareüberwachung und ähnliches. Und dann noch ein paar Meter weg den LCD-TV oder Beamer zum Filme schauen.
 
Zuletzt bearbeitet:
Die sollen endlich mal aufhören mit diesen Frickelgrafiken "So schnell ist die karte....BLABLABLA"
solangsam werde ich echt aggressiv! Gestimmt hat es noch nie, und beim Bulldozer war es sogar das Argument, weswegen alle gesagt haben "Der Prozessor ist schrott", dabei ist das P/L garnichtmal so schlecht.

Die sollen einfach mal entwickeln und schauen was sie hinkriegen! Und vielleicht kommt dann mal ein echter Überraschungs-Bulldozer dabei rum, so völlig aus dem nichts.
 
Ich bin jetzt vom zocken auf drei Monitoren ausgegangen.

Dass reine beteiben von drei Monitoren kann ja fast jede Karte.
(ist nichts besonderes)


So wie es aussieht, muss man wieder einen Schalter für das übertakten betätigen oder?
D.h. übertakten ohne die Garantie zu verlieren geht nicht mehr!
Welchen Hersteller kann man bei AMD empfehlen?
Hatte früher immer Sapphiere oder so ähnlich.

Ich freu mich auf die 50% mehr Leistung zu meiner GTX580.
 
CompuChecker schrieb:
Dass reine beteiben von drei Monitoren kann ja fast jede Karte.
(ist nichts besonderes)
Bei Nvidia können es nur die Dual-GPU-Karten oder irgendwelche herstellerseitigen Sonderversionen mit zusätzlichem Verteilerchip drauf.
 
Mich stört bei meiner NV, dass die Karte einfach nicht runtertaktet wenn ich zwei Monitore mit unterschiedlichen Auflösungen dran habe.
Die fährt mit voller Spannung und Leistung und verbraucht dadurch 30-40 Watt mehr. Und das für gar nichts....
 
Zurück
Oben