News Spezifikationen der HD 6990 (nicht) enthüllt

Warum AMD auf den HDMI Anschluss verzichtet bleibt mir ein Rätsel. Klar, den brauch keiner, aber für die Masse an unwissenden Endkunden ist das ein Muss, oder dürfen die trotz Adapter HDMI auf die Verpackung schreiben?
 
ja denk mal schon. lässt sich ja mit dem erworbenen produkt nutzen.
 
Displayport 1.2 wurde doch jetzt zum Standard erhoben, HDMI reicht schon nicht mehr aus ...

AMD setzt auf die Zukunft.

Schon seit Version 1.1a kann der Displayport-Standard auch 3D-Signale übertragen. Mit der neuen Version 1.2 wird, wie bereits angekündigt, zusätzlich die Bandbreite von 10,8 auf 21,6 GBit/s erhöht. Sie soll dann ausreichen, um 3D-Signale für beide Augen bei 120 Hz und Full-HD zu übertragen. Alternativ bietet der Standard auch eine Auflösung von 3.840 x 2.160 Pixeln an.
 
@estros: Über Displayport-Anschlüsse kann über passive Adapter auch HDMI ausgegeben werden. Umgekehrt funktioniert es nicht. (Vom GK-Hersteller abhängig. AMD und nVidia unterstützen das und um AMD gehts hier)
Displayport hat die höhere Bandbreite.
Displayport hat auch miniDisplayport-Anschlüsse die kleiner und platzsparender sind, der normale Stecker verriegelt
Displayport unterstützt neben HDCP auch DPCP
usw.

/edit: Siehe auch Kartenlehrling.
DP hat viele kleine Vorteile. Oft geht es nicht um große, geile Features, sondern um durchdachte kleine Vorteile, die sich summieren.

Und man hat prinzipiell keinen echten Nachteil.

Von wikipedia:
Vorteile gegenüber DVI (Anmerkung: HDMI ist abwärtkompatibel zu DVI und trägt dementsprechend leider die ein oder andere Schwäche mit)

Basiert auf einem Mikropaket-Protokoll:
Erlaubt eine einfache Erweiterung des Standards
Design zur Unterstützung einer internen "chip-to-chip"-Kommunikation:
Kann das Displaypanel direkt ansteuern. Damit entfallen Skalierungs- und Kontrollschaltkreise, preiswertere und dünnere Bildschirme sind möglich
Als Ersatz für interne LVDS-Verbindungen zu Notebookpanels durch eine allgemeine standardisierte Schnittstelle
Kompatibel mit low-voltage Signalumgebung, die in der 45-Nanometer-CMOS-Fertigung Anwendung findet
Unterstützt sowohl RGB- als auch YCbCr-encodierte Formate
Zusatzkanal kann für berührungsempfindliche Bildschirme, USB-Verbindungen, Kamera, Mikrofon, etc. verwendet werden
Weniger Leitungen mit eingebettetem Taktsignal, dadurch reduzierte RFI (Funkstörungen)
Kleinerer Stecker mit optionaler Verriegelung, der keine Verschraubung benötigt
 
Zuletzt bearbeitet:
So langsam glaube ich das ich meine HD3870 endlich mal in den Ruhestand schicken sollte was schon mit dem erscheinen der HD5870 geplant war...

Und ob es die schnellste Grafikkarte auf dem Markt ist, ist mir sowas von egal solange Preis/Leistung stimmt.
 
Hört sich doch schon besser an als die Negativgerüchte zur 6970 der letzten Tage. Ich bin jedenfalls davon überzeugt, dass sie deutlich besser wird als die Gerüchte der letzten Woche hier bei CB vermuten lassen könnten. Es werden sich wohl einige in den Hintern beißen, die jetzt noch von der GTX580 völlig überzeugt sind. Wie schon selbst im CB Test der GTX580 gesagt hat, muss man die 6970 abwarten um die GTX580 einordnen zu können.
Wie auch immer sind es ja sehr gute Nachrichten wobei für mich eine DC Grafikkarte nicht in Frage kommt.
 
@raubwanze

Hier arbeitet der 5-D oder auch 4-D-Shader im Prinzip skalar, d.h. als 1d-Shader mit der Möglichkeit 1 64bit FMA pro Takt zu berechnen.

Hast du da eine(oder gern auch mehrere) Quelle(n) für, ein Paper von AMD oder so etwas, hab jetzt bei Google auf die Schnelle nichts gefunden. Würde mich aber schon interessieren, wie AMD die DP Leistung realisiert.

Insofern sind bei DP die theoretischen Flops-Werte zw. Nv und AMD durchaus vergleichbar.

Sollte es so sein wie du sagst kommt das dann aber auch nur hin wenn das Load Balancing mit NVidia mit halten kann. (Und L2 Cache gibts leider auch nicht.)
 
ix.tank schrieb:
Hast du da eine(oder gern auch mehrere) Quelle(n) für, ein Paper von AMD oder so etwas, hab jetzt bei Google auf die Schnelle nichts gefunden. Würde mich aber schon interessieren, wie AMD die DP Leistung realisiert.

Rechne mal folgendes, die HD 5970 hat 4640 SP GFlops und 928 DP GFlops
4640/5 = 928

Die HD 5870 hat 2720 SP GFlops und 544 DP GFlops
2720/5 = 544

Und die HD 6990 soll nunmal 6000 SP GFlops haben und setzt auf 4D Shader...
6000/4 = 1500

Verstanden? ;)
 
Milchmädchenrechnung:

HD 5870: 850MHz / 1600 Shader (320 5D)
HD 6970: 890MHz / 1920 Shader (480? 4D)

Bei einer 20% verbesserten Shaderleistung ergibt sich 1920+20% eine theoretisches Äquivalent von 2304 Shadern zu den 1600 Shader der 5870, rechnet man noch den Takt ein ergäbe das eine Mehrleistung von 2304 * (890/850) = 2412 / 1600 = 1,507 => ca 50% Mehrleistung im Vergleich zur HD5870, mögliche sonstige optimierungen außer acht gelassen.

In den Leistungsrating des CB GTX580 tests ist diese in den Leistungsratings ca 45-55% einer HD5870 Voraus.
Lt. dieser Rechnung wäre die GTX580 geschlagen. :cool_alt:
 
@Egnutz


Das der Schluss nahe liegt ist mir schon klar! (Ein Beweis ist es aber nicht, es könnten ja extra DP Units in diesem Verhältnis auf dem Chip sein oder etwas ganz anderes.) Aber ich hätte gern mal ein Paper gesehen in dem erklärt wird wie AMD die Doppelte-Genauigkeit erreicht.

@radoxx

Da nimmst du aber überall das Maximum an, die Karte wird mit Sicherheit nicht zu 100% mit der Anzahl der Shader-Prozessoren skalieren. Und die 20% Mehrleistung wird es auch nicht geben, denn das würde bedeuten, dass die 5D Prozessoren immer nur zu max. 80% genutzt wurden, dies wird sicher nicht immer der Fall gewesen sein.
 
Zuletzt bearbeitet:
ich-halt schrieb:
@Egnutz: Dass die 1920 SP' s stimmen halte ich schon so gut wie sicher. Hier im forum hat nämlich schon jemand eine hd 6970. Schau dir mal den gpu-z screenshot am ende dieses post an https://www.computerbase.de/forum/threads/offizieller-amd-hd6800-overclocking-and-undervolting-thread.803518/#post-8674941 ,( besonderes augenmerk auf die verwendetete grafikkarte)

Man sieht schon das es ein Fke ist alleine weil bei den ROPs zwischen der 6 und der 4 zwei Pixel sind statt ein
 
omg und ich hab noch über den Screen die Texte von einem selbstgemachten GPU-Z Screen drübergelegt um das zu prüfen. Zwar mit demselben Endergebnis, aber das mit der 64 hätte mir auch so auffallen können. -.-
 
Euch Spezialisten ist aber noch nicht eingefallen, dass Abweichugen durch ein schlecht abfotografiertes Bild auftreten können?
 
Da die Karte bekanntlich auf zwei „Cayman“-GPUs (HD 6970/6950) setzen wird, lässt sich daraus schließen, dass „Cayman“ nun doch mit bis zu 1.920 Stream-Prozessoren (480 4D-Einheiten) ausgestattet sein wird.
Fermi zieh dich mal noch wärmer an als sonst. Cayman XT wird dem dir sowas von einheizen. :D

Wenn das mal kein würdigen Nachfolger der 8800GTX wird(vorallem bei der Effizienz, wenn die die Folie stimmt!), dann weis ich auch nicht. AMD machts aber auch spannend, die Hammer Specs leaken und den Start verschieben. Zum Haare raufen! Das Ding ist sogut wie gekauft!


Was auch klar ist, ist dass es niemanden gibt der so eine Karte zum Spielen wirklich braucht. Selbst auf drei 24ern wird noch Leistung im Überfluss vorhanden sein.
Ha, Crysis + 4xSGSSAA ich garantiere dir den Einbruch der Karte. Oder Empire Total War. Überhaupt kein Problem die doppelte Leistung einer HD 6970 in Bildqualität umzuwandeln. Würde es so eine single GPU geben zum doppelten Preis, ich würde sie kaufen.


Aber... dürften bei der Leistung 4 GB Speicher nicht ein bisschen knapp bemessen sein? Zukünftige Spiele werden ja nicht unbedingt den Speicherbedarf reduzieren.
Man hat 2x2GB also 2GB effektiv und wenn man es drauf anlegt mit HD Mods dann kann man die 2GB locker überfüllen. Wenn ein single GPU Cayman schon 2GB braucht und nutzen kann, kann man sich ja denken was man mit 2x Cayman alles anstellen kann. Trotzdem hat die Karte vorerst ausreichend Speicher und ist kein Vram Krüppel(erst die 2. Multi-GPU Karte überhaupt nach der HD 4870 X2), Leute die sich so eine Bauernfänger Karte kaufen, haben in spätestens einem Jahr die HD 7990 drin...
 
nur ums mal klar zu stellen: Ja das bild ist bearbeitet, die karte hat auch keine 64 ROPs sondern 32!

mein gott! ne 5800 kann man schlecht nehmen für nen 6800 & 6900 OC thread


sry fürs OT, aber geht ja mal langsam garnet mehr klar.
 
eine Karte mit 3000 Shader auf SingelChip Basis wär mir eher reingelaufen, dennoch sprechen die zahlen schon für sich. Sofern 1920 Shader stimmen, wovon man ausgehen kann, dann wird es wirklich ein sehr interessanter Dezember. Mit 1 Ghz + bei 1920 Shader @ 2Gb VRam könnte ich leben...
 
hat AMD uns absichtlich hinters Licht geführt und wollte dass sich Nvidia sicher fühlt?
aber dann hätte man die Infos doch auch kurz nach dem Start der GTX580 raushauen können, damit sich keiner die Nvidia kauft. Naja ich bin und bleibe gespannt.
Was klar sein sollte: Dass wird mal wieder ein (richtiger) Kampf der Giganten nachdem aus der HD2xxx serie nicht wirklich was wurde =)
 
Zurück
Oben