News Spezifikationen der HD 6990 (nicht) enthüllt

Wenn das mit den 1.920 Stream-Prozessoren stimmen sollte,bin ich mal
gespannt wie weit die Cayman XT Karte der Nvidia Geforce GTX 580 auf die Pelle rücken
wird.Das wird ein spannender Dezember.Was die Radeon HD6990 angeht,ist
das mal wieder Leistung on Mass,für mich total Overload,aber für den Hardcore
Gamer bestimmt der richtige Tritt in den Rücken. ;)
 
unglaublich, also wen die wirklich so wenig schlucken sollte und dann noch so schnell wäre, das wäre echt gut. Von der Leistung her wird sie abe rnicht mit den neuen nvidia karten mithalten können oder?
Also mit der Doppel-GPU Karte von nvidia, dafür aber viel weniger strom:)
 
Arch-Angel schrieb:
Was mich jedoch stutzig macht, ist die sehr geringe Leistungsaufnahme. 300 Watt bei der Dual.GPU würde ja bedeuten, dass eine Single GPU mit höherem Takt zwischen 160 und 180 Watt liegen würde. Also nur minimal über einer 6870, die mit 151 Watt spezifiziert ist. Irgendwie finde ich das komisch und hoffe mal, dass diese Folie nicht nur Wunschdenken ist.
Aber in 3 Wochen ist es dann mal wieder interessant nen Test zu lesen.

Rechnen wir mal nach, ohne Spannungserhöhung:

Takterhöhung von 775Mhz auf 890Mhz, macht einen Faktor von (890/775)^2=1,148

150W pro GPU bei 775Mhz Takt, bei 890Mhz Takt also 150W * 1,148 = 172W.

Dabei ist eine erhöhte Spannung noch nicht berücksichtigt, wenn man da so 0,1V (z.B. von 1,05V (6990) auf 1,15V (6970)) nochmal mit reinnimmt werdens 206W.

Wenn man dann jetzt noch annimmt, dass bei der 6990 selektierte Chips eingesetzt werden, denke ich, dass so 220-230W nicht unwahrscheinlich für eine 6970 erscheinen.

Was meint Ihr?
 
Sollten die Werte stimmen, wovon ich mal ausgehe, dann würde die HD 6990 mit 5 GFLOPS/Watt (double precision) in etwa soviel Leistung/Watt bieten, wie Nvidia bei "Kepler" (2011 in 28 nm) plant. :eek:
 
ich will mir ja ne HD6970 kaufen und umso mehr erfreut mich die vermutung richtung 1920SP - fette single-gpu-karten sind einfach toll :]
 
Umso schärfer bin ich auf die HD7000-Serie, wenn die Chips auf 32nm schrumpfen und nicht nur die neuen 4D-Shader zum Einsatz kommen, sondern auch die ganze Anbindungs- und Steuerlogik ihr Update bekommt. :D

Was jetzt noch fehlt ist ECC für die AMD-Karten, damit die auch für wissenschaftliche Berechnungen und Anwendungen benutzt werden können.
 
Ich denke dass 300W keines Falles "wenig" für eine Grafikkarte sind. Das ist um die Hälfte mehr als mein ganzer Rechner unter Last braucht. Es ist mehr das doppelte des Verbrauchs eines 6-Kern-Prozessors. Es ist einfach Wahnsinnig. Und ja, mir ist klar dass eine GTX 580 auch so viel Strom verbraucht. Aber es ist trotzdem nicht "wenig".

Was die Daten angeht hilft eh nur abwarten und Tee trinken. Sicherlich wird der Stromverbrauch niedriger sein als bei den nVidia Karten, das ist klar.
Was auch klar ist, ist dass es niemanden gibt der so eine Karte zum Spielen wirklich braucht. Selbst auf drei 24ern wird noch Leistung im Überfluss vorhanden sein.

Es bleibt zu hoffen, dass AMD wieder mal was für die Bildquali tut, nicht nur für die Leistung.

mfg

edit: Ich sehe aber keinen Grund warum die 4D-Shader effektiver sein sollten. 480 4D-Shader sind sicherlich langsamer als 480 5D-Shader, da sie ja zusätzliche Arbeit verrichten müssen. Allerdings sind die 4D Shader kleiner als die 5D, daher effektiver was den Platzverbrauch angeht. Schließlich ergeben 480 4D-Shader 1920 SP, bei 5D-Sahdern erhielte man 2400 SP. Ich vermute dass 480 4D-Shader in der Höhe von etwa 384 5D Einheiten liegen werden, etwas darüber halt - das wird auch der Grund für die 1536SP sein, die man öfter hört.
 
Zuletzt bearbeitet:
das freut mich ja dass die 1.920 Shader wahrscheinlich doch vorhanden sind stat 1.5xx

das ist echt genial denn ich hatte mit den alten gerüchten schon die hoffnung aufgegeben :D
 
klingt nach einer mächtigen karte :-O
etwas schneller als die 580 ist wohl nicht mehr so unrealistisch.
 
Eggcake schrieb:
Weil es ein Fake sein MUSS. GPU-Z besitzt noch keine Informationen zur HD6900 Serie. Wenn du eine richtige HD6970 hättest, würde da der Name stehen und sonst garnichts.

Alles was GPU-Z macht ist (sehr vereinfacht) :

- ID der Grafikkarte auslesen
- In der eigenen Datenbank nach den Informationen zu ID XY suchen
- Informationen anzeigen

Die Informationen in der Datenbank müssen vom GPU-Z Entwickler selbst eingetragen werden, anders funktioniert es nicht. Und wenn die da drin wären, könnte man's aus der .exe herauslesen. Kann man aber nicht, da sie, wie gesagt, natürlich noch nicht drin sind. Was man aber machen kann ist, selber Zeugs reinzuschreiben - und das Resultat ist der von dir gepostete Screenshot.

Ist ironischer Weise möglich seit 0.4.6, siehe der Changelog bei techpowerup.

Ich glaube aber, dass es Fake ist, weil alle Textboxen ihren Inhalt zentriert darstellen bis auf den Namen.
 
wie wie Graka hat kein HDMI AUSGANG?
 
Zuletzt bearbeitet von einem Moderator: (Multiple Satzendzeichen (!!!, ???) entfernt. Bitte Regeln beachten!)
@MichaG

Sollten die Werte stimmen, wovon ich mal ausgehe, dann würde die HD 6990 mit 5 GFLOPS/Watt (double precision) in etwa soviel Leistung/Watt bieten, wie Nvidia bei "Kepler" (2011 in 28 nm) plant.

Ja auf dem Papier. Aber die Architektur ist bislang pro TFlop nicht so effizient wie die von NVidia, das wird sich durch die 4D Shader zwar leicht bessern, aber sicher nicht in den Bereich von skalaren Shadern vordringen. Speziell dann wenn die Aufgabe etwas komplexer ist als eine Matrixmultiplikation oder ähnliches (Raytracing zum Bsp.).
 
Seit der 4er-Reihe gibt es DVI-HDMI Adapter, die in der Regel im Lieferumfang enthalten sind, und auch Sound über DVI übertragen...
 
klingt bald so, als würden meine beiden HD4890 bald in rente gehen ^^ wenn sich alles so bewahrheitet, wird das endlich mal ne graka die sich lohnt und die ich nicht getrost überspringen kann! ;)
kann man ja fast schon vorfreude nenne :D jetz noch nen paar € günstiger als die GTX580 und dann steht mein weihnachts-einkauf schon fest ;)
 
Seit der 4er-Reihe gibt es DVI-HDMI Adapter, die in der Regel im Lieferumfang enthalten sind, und auch Sound über DVI übertragen...

aber dadurch geh doch die "hdmi" leistung verloren durch das zurück wandeln ins dvi oder?
ich will die hmdi karte an meinen fetten LG fernseher stecken der auch HDMI eingänge hat :( o0
 
KainerM schrieb:
Ich denke dass 300W keines Falles "wenig" für eine Grafikkarte.....

Da hast du recht ...weniger ist immer besser ,alledings ist mir der idle verbrauch um einiges wichtiger . Es gibt nur wenig leute wo der rechner ein halben tag lang auf volllast läuft .
Bei den meisten usern wird die volllast zeit bei max 1-3 std am tag betragen .
Von daher ...wenn der gegenwert stimmt immer rein mit dem strom ;)

P.S gut das doch keine zweite 5870 gekauft habe :).....6970 im crossfire verbund :daumen: ....
"schon mal den sparstrupf such :king: "
 
Zuletzt bearbeitet:
ix.tank schrieb:
...
Ja auf dem Papier. Aber die Architektur ist bislang pro TFlop nicht so effizient wie die von NVidia, das wird sich durch die 4D Shader zwar leicht bessern, aber sicher nicht in den Bereich von skalaren Shadern vordringen. ...

Das gilt für Single-Precisionberechnungen. Die genannten 5GFlops/W beziehen sich auf DP.
Hier arbeitet der 5-D oder auch 4-D-Shader im Prinzip skalar, d.h. als 1d-Shader mit der Möglichkeit 1 64bit FMA pro Takt zu berechnen.
Insofern sind bei DP die theoretischen Flops-Werte zw. Nv und AMD durchaus vergleichbar.

Gruß
Raubwanze
 
Jetzt so kurz vor Weihnachten ballern die beiden Firma aber endgültig aus allen PowerPoint-Rohren ^^

Aber... dürften bei der Leistung 4 GB Speicher nicht ein bisschen knapp bemessen sein? Zukünftige Spiele werden ja nicht unbedingt den Speicherbedarf reduzieren.
 
@ flakes dann verkauf deine 5870 :D je nachdem würd ich se auch nehmen :D
 
Zurück
Oben