News Komplette Spezifikationen zur HD 7970 aufgetaucht

Jedoch stimmen nicht alle Zahlen auf den Folien,

es sind zu viele seiten um die durchzulesen, vllt wurde es schon erwähnt? kann es sein das die anzahl der rops (32) nicht stimmt. es war mal von 64 die rede, wobei bei einem 1,5-fachen speicherinterface auch die rops um 50% zulegen müssen. also wäre sogar 48 möglich. es ist zwar eine andere architektur, aber gewisse regeln gelten für alle produkte wie zb das rops immer proportional zum speicherinterface sind.
 
CompuChecker schrieb:
Mich stört bei meiner NV, dass die Karte einfach nicht runtertaktet wenn ich zwei Monitore mit unterschiedlichen Auflösungen dran habe.

Athlonscout schrieb:
Da hilft nur das Bios der Karte zu optimieren.

Das kann dir leider bei jeder Karte eines jeden Herstellers und aus jeder Generation passieren. Es gibt einfach Hersteller, die mangelhafte BIOS-Versionen auf die Kunden los lassen. Eventuell können sie damit mehr "Ausschußware" an den Endkunden bringen, weil die Chips dann ja ohnehin mit nominell zu hoher Spannung betrieben werden im 2D oder low-3D-Modus.

Die Frage kam mir und anderen hier schon in den Sinn. Die angeblichen 3 Watt Stromverbrauch idle sagen rein gar nichts über Videowiedergabe udglm. aus.

>>

Gerade fiel mir was Lustiges ein:
Was macht man eigentlich 2013? Eine Nomenklatur mit einer HD8800 wird irgendwie unglücklich. Ob es da Probleme mit Nivida geben würde? :)
Aber eventuell heißt sie dann einfach HD8870. Ich sehe die Treiberkonflikte schon auf uns zukommen. Genauso wie die Ebay-Angebote mit uralten 7900GT Grafikkarten.
 
Zuletzt bearbeitet:
Zum Thema ob die Folien Fake sind oder nicht - was hier ja einige immer wieder mal anmerken - hilft eine einfache logische Überlegung.

Alle Medien sind Sensationsgeil-> weil das Zugriff und damit Geld bringt. Besonders die großen Webseiten sind da besonders schlimm.

Selbst wenn die Karte erst am 9.1 kommt und sie kommt ja wohl am 22.12, dann sind alle großen Medien bereits über das Produkt informiert. Das heißt sie wissen genau Bescheid und kennen alles, dürfen nur darüber nicht schreiben. (Manche tun es aber eben doch)

Wenn nun einer kommt und veröffentlicht "Fake Folien" weises jeder von den Redakteuren, dass diese Folien Fake sind, weil alle schon die echten haben. Keiner würde es sich also nehmen lassen zu schreiben, dass die Fake sind, um die Zugriffe abzugrasen und dem der sie veröffentlicht hat eins auszuwischen und in als unglaubwürdige Quelle darzustellen.

Es ist sowieso immer lächerlich, dass noch ein paar Tage vor dem Launch noch von "Gerüchten" geredet wird, wo doch alle die Karten schon vor sich liegen haben und den richtigen Artikel dazu schreiben!
 
wenn mir einer Schwarz auf Weiß geben würde, das meine Technisat TV Karte mit der HD7XXX läuft, würde ich auch mal wieder zu einer ATI äh AMD greifen. Meine letzte war nämlich eine 9700Pro
 
Es ist sowieso immer lächerlich, dass noch ein paar Tage vor dem Launch noch von "Gerüchten" geredet wird, wo doch alle die Karten schon vor sich liegen haben und den richtigen Artikel dazu schreiben!
Solange man sich darauf beruft, auf Seite XYZ hätte dies oder jenes gestanden, ist es keine NDA-Verletzung. Verlinken und zitieren ist ja nicht verboten.

Damit hat jeder noch ein paar Klicks mehr, die Spannung wird fröhlich weiter aufgebaut und die wenigen, die es wirklich besser wissen, amüsieren sich dann bei Kaffee und einer Nougatkugel über die zum Teil ganz niedlichen Spekulationen. Es ist wirklich erstaunlich, wie viele verschiedene Ansätze es bei der Begründung des Für oder Wider gibt. Und einige sind wirklich albern. Aber eben nicht alle ;)
 
Jolly_Jumper schrieb:
...
Wenn nun einer kommt und veröffentlicht "Fake Folien" weises jeder von den Redakteuren, dass diese Folien Fake sind, weil alle schon die echten haben. Keiner würde es sich also nehmen lassen zu schreiben, dass die Fake sind, um die Zugriffe abzugrasen und dem der sie veröffentlicht hat eins auszuwischen und in als unglaubwürdige Quelle darzustellen.
...

es würde mich nicht überraschen, wenn in der nda auch drin stehen würde, dass man falsch informationen nicht als solche zu erkennen geben darf.

aber wie es auch sein mag, wir werden es nicht erfahren, denn nda sieht (üblicherweise) auch vor, dass man nicht mitteilt, dsas man die nda unterzeichnet hat...
 
Krautmaster schrieb:
halte ich für realistisch in Anbetracht der Tatsache, dass man heute bereits 384 Bit fährt und 28nm eine Verdopplung der ShaderZahl ermöglichen sollte. Nvidias Vorteil ist wohl, dass sie die Shader mit hohem Takt (vergleichen mit Chip) ansteuern.

Natürlich würde der Chip nochmal deutlich massiver als der der HD7970, sicher auch was den Verbrauch angeht.

nein, es wird vermutlich keinen hot clock mehr geben
 
greeny112 schrieb:
WARUM nur schafft es AMD nie mal ein einigermaßen akzeptables Referenzdesign zu schaffen wie Nvidia es getan hat?!

Damit die Hersteller dann ihre Karten aussehen lassen wie das Referenzdesign, aber innendrin an Kühlkörper usw. sparen?
Solange die Hersteller nicht draufschreibenmüssen, ob es Referenzdesign ist oder nicht, habe ich auf das spielchen keine Lust.

Haldi schrieb:
Ist bestimmt echt! Die Folie geht von 0.8 bis 1.8, sowas kriegt nur AMD hin :evillol:

Das macht Nvidia auch ständig ;)

Sidewinder9000 schrieb:
das einzige, was für mich zählt ist die Leistung der neuen Karten im Vergleich zur Vorgängergeneration, sonst nix.

Tja gott sei dank und anscheinend denkt nicht jeder so ;)

Krautmaster schrieb:
Wann Kepler (Nvidia Shrink auf 28nm) kommt steht ja noch mehr oder weniger in den Sternen. Sonst würde sich wegen Preisdruck und Konkurrenz der Zeitpunkt nach Kepler Release auch für einen Kauf anbieten.

Nach dem Fermi Desaster wo die HD5k Reihe VOR Fermi Release am günstigsten waren, ist diese Entscheidung noch schwieriger geworden...^^


BadLuck schrieb:
Direct X 11.1 ... hmmm vielleicht genau so sinnfrei wie Direct X10.1

DX 10.1 war absolut nicht Sinnfrei. Denn es lief auf Karten die es unterstützt haben schneller als DX10, allerdings war das Problem, das Nvidia nicht mitgemacht hat und es sogar blockiert haben.
(Siehe Assassin's Creed, wo ein gut funktionierender DX 10.1 Modus auf einmal wegen angeblicher Probleme rausgepatcht wurde. Seltsamerweise fand in dem Spiel Nvidias Logo auch seinen Platz...)


Zwirbelkatz schrieb:
Etwa so, wie die flüsterleise GTX480? ;)
Ich kann mich lediglich an die GTX560ti erinnern, die gelobt worden ist. Gleichwohl wäre sie für wirklich anspruchsvolle Zeitgenossen trotzdem noch zu laut gewesen. Da bin ich mir sicher. Um einen Umbau kommt man in meinen Augen nie herum, wenn man wirklich gar nichts von der Karte hören will.

Vielleicht hast du ein Fake-Referenzdesign erwischt...

CompuChecker schrieb:
Dass reine beteiben von drei Monitoren kann ja fast jede Karte.
(ist nichts besonderes)
Von den Gaming Grakas können das nur AMD/ATI Graks ab HD5k und Nvidia Karten die im SLI laufen.
Fast jede ist das für mich nicht^^
 
CompuChecker schrieb:
Gibt es irgendwelche Vorteile für den DP statt DVI? Bildqualität?

Siehe Wikipedia.

CompuChecker schrieb:
Für 3 Monitore reicht die Leistung einer Karte eh nicht!

Natürlich reicht die Leistung zum Spielen. Das tat sie schon bei einer 5770.
Vorausgesetzt man gibt der Karte auch die Chance dazu;
ein Spiel das die Grafikkarte unter bestimmten, hohen Qualitätseinstellungen mit nur noch wenigen FPS darstellt, läuft im Triple Display Setup natürlich nicht schneller, tut es in 3D oder beim Downsampling aber auch nicht.
Selbstverständlich ist es gerade bei den neusten Spielen dann ggf. nötig die Qualitätseinstellungen ein wenig zu senken, aber deswegen ist die Hardware ja nicht generell untauglich dafür.
Es gibt mehr Spiele, als nur die hardware hungrigsten, die in der Regel in Tests und Berichten ausgewählt werden.
Und es wird immer die Möglichkeit geben, Hardware von heute - mal angenommen es käme nächste Woche eine GPU und CPU Konbination mit 10 facher Grafikleistung - mit einem Spiel oder zumindest Benchmark von Morgen komplett in die Knie zu zwingen.

CompuChecker schrieb:
Dass reine beteiben von drei Monitoren kann ja fast jede Karte.
(ist nichts besonderes)

Die Liste der Grafikkarten, die in den letzten 2-3 Jahren raus gekommen sind, die für sich allein keine 3 Monitore ansteuern können, ist um ein vielfaches länger als derer, die es können.
 
endlich kommt mal wieder Leben in den GPU Markt :D bin mal auf erste echte Benchmarks gespannt :)
 
http://www.obr-hardware.com/

neue Folie...

was geht denn da ab, scheint voll das private Ding zu sein :D Alle n Schatten oder was^^

PS. Until Bruno Murzyn will be at AMD, i WILL destroy any AMD product launch in future, like Bulldozer + HD 7900! Rory, if you prevent it, fire that homoguy ... then i will sign NDA and will keep it! Marry Christmas Bruno ...

sowohl lustig als auch selten dämlich.
 
Ja, der Typ hat irgendwie ne krasse persönliche Fede mit denen. Aber er hat halt Zugang zu den meisten PDFs und Pressinfos. Und wenn wir am NDA hängen, leaked er. Manchmal leaked er auch odentlichen Shit, aber es dürfte ja schon aufgefallen sein, dass wir hier nicht jede Folie von ihm publizieren ;)
 
Die "ZeroCore Power Technology" ist eine Abschaltung des Grafikchips unter einer äußerst geringen Energieaufnahme von unter 3 Watt . Dann wird nur noch PCI Express mit Strom versorgt und die Karte wartet auf ihren Aufwachbefehl. Sinnvoll ist dies unter zwei Situationen: Zum einen Systeme mit mehr als einer Grafikkarte wie CrossFire-Systeme oder auch Multimonitor-Systeme, wo aktuell nicht benötigte Grafikkarten sich wirklich Schlafenlegen können, anstatt im Idle-Modus doch noch ein wenig Energie zu verbraten. Und zum anderen Systeme mit integrierter Grafiklösung, wo die extra Grafikkarte nur für Spiele herangezogen wird , während die integrierte Grafik den Windows-Betrieb macht. Die 3-Watt-Angabe bei der Radeon HD 7970 hat somit aber eben nichts mit der wirkliche Idle-Stromaufnahme zu tun, diese dürfte weiterhin höher im Bereich irgendwo zwischen 13 und 23 Watt liegen.

Wurde so ähnlich bei 3dcenter.org berichtet.
 
Zuletzt bearbeitet:
Und nun kommt wieder die 120Hz Story.... wo ich wette das du kinen Unterschied merkst zwischen 60 und 120FPS!
Oh ja es ist wie Tag und Nacht Spiel mal 3 Tage auf 120 Hertz und dann steig mal um auf 60.
Ich kann ja alles anwählen mit dem Moni.

Und wenn 670W kein hoher Verbauch sind dann weiß ich auch nicht.
Ja das liegt in jdem seinem ermessen.
Ohne V sync 1GHZ Crysis 2 bis zu 920 W da sage ich dann auch scho ui mit den HD7970 würde der Verbrauch wieder Fallen aber ich werde wieder Ocen:D
 
MichaelLeopold schrieb:
Die "ZeroCore Power Technology" ist eine Abschaltung des Grafikchips unter einer äußerst geringen Energieaufnahme von unter 3 Watt . Dann wird nur noch PCI Express mit Strom versorgt und die Karte wartet auf ihren Aufwachbefehl. Sinnvoll ist dies unter zwei Situationen: Zum einen Systeme mit mehr als einer Grafikkarte wie CrossFire-Systeme oder auch Multimonitor-Systeme, wo aktuell nicht benötigte Grafikkarten sich wirklich Schlafenlegen können, anstatt im Idle-Modus doch noch ein wenig Energie zu verbraten. Und zum anderen Systeme mit integrierter Grafiklösung, wo die extra Grafikkarte nur für Spiele herangezogen wird , während die integrierte Grafik den Windows-Betrieb macht. Die 3-Watt-Angabe bei der Radeon HD 7970 hat somit aber eben nichts mit der wirkliche Idle-Stromaufnahme zu tun, diese dürfte weiterhin höher im Bereich irgendwo zwischen 13 und 23 Watt liegen.

Zu erwähnen wäre noch, daß AMD mit der Radeon HD 7000 Serie ein neues Feature namens "ZeroCore Power Technology" einführt, welches eine faktische Abschaltung des Grafikchips unter einer äußerst geringen Energieaufnahme von unter 3 Watt ermöglicht. Dafür wird dann nur noch PCI Express mit Strom versorgt und lauscht die Karte an diesem Interface auf ihren Aufwachbefehl. Nutzvoll ist dies unter zwei Situationen: Zum einen Systeme mit mehr als einer Grafikkarte wie CrossFire-Systeme oder auch Multimonitor-Systeme, wo aktuell nicht benötigte Grafikkarten sich wirklich schlafenlegen können, anstatt im Idle-Modus doch noch ein wenig Energie zu verbraten. Und zum anderen Systeme mit integrierter Grafiklösung, wo die extra Grafikkarte nur für Spiele herangezogen wird und sich ansonsten auch richtig schlafenlegen kann, während die integrierte Grafik den Windows-Betrieb schultert. Die 3-Watt-Angabe bei der Radeon HD 7970 hat somit aber eben nichts mit der wirkliche Idle-Stromaufnahme zu tun, diese dürfte weiterhin höher im Bereich irgendwo bei 20 Watt liegen.


http://www.3dcenter.org/news/2011-12-16

fast 1:1 kopiert oO

einfach Frech sowas ...
 
CompuChecker schrieb:
Ich bin jetzt vom zocken auf drei Monitoren ausgegangen.

Dass reine beteiben von drei Monitoren kann ja fast jede AMD Karte.
(ist nichts besonderes)


.

Fixed for you
.
 
Was schätzt Ihr? Wann kann man sich in der Praxis eine 7970 kaufen? Also ab wann kann Ich in einen Laden gehen und der gibt mir für mein Geld eine HD7970? Man kann da bestimmt aus Erfahrungswerten berichten wie es in älteren Grafikkarten-Generationen mit dem Release von statten ging. Ich muss im Prinzip nur wissen ob Ich jetzt noch bin März warten muss oder ob ich schon in 4 Wochen meine HD7970 in den Händen halten darf. Was schätzt ihr?
 
3 watt IDLE verbrauch bin gespannt aufn Verbrauch bei h264 dann fliegt die Karte in einer leicht abgespecktere Variante in mein HTPC :-) bin gespannt wie NVIDIA konkuriert anständige quallität bei H264 schaffen die bis heute noch nicht das ganze Grafikmenü ist tutal lame und nur auf spiele ausgelegt viel zu wenig Video H264 Einstellungen... :D
 
Zurück
Oben