Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Spezifikationen der HD 6990 (nicht) enthüllt
- Ersteller MichaG
- Erstellt am
- Zur News: Spezifikationen der HD 6990 (nicht) enthüllt
Kartenlehrling
Admiral
- Registriert
- Apr. 2010
- Beiträge
- 8.377
Displayport 1.2 wurde doch jetzt zum Standard erhoben, HDMI reicht schon nicht mehr aus ...
AMD setzt auf die Zukunft.
AMD setzt auf die Zukunft.
Schon seit Version 1.1a kann der Displayport-Standard auch 3D-Signale übertragen. Mit der neuen Version 1.2 wird, wie bereits angekündigt, zusätzlich die Bandbreite von 10,8 auf 21,6 GBit/s erhöht. Sie soll dann ausreichen, um 3D-Signale für beide Augen bei 120 Hz und Full-HD zu übertragen. Alternativ bietet der Standard auch eine Auflösung von 3.840 x 2.160 Pixeln an.
@estros: Über Displayport-Anschlüsse kann über passive Adapter auch HDMI ausgegeben werden. Umgekehrt funktioniert es nicht. (Vom GK-Hersteller abhängig. AMD und nVidia unterstützen das und um AMD gehts hier)
Displayport hat die höhere Bandbreite.
Displayport hat auch miniDisplayport-Anschlüsse die kleiner und platzsparender sind, der normale Stecker verriegelt
Displayport unterstützt neben HDCP auch DPCP
usw.
/edit: Siehe auch Kartenlehrling.
DP hat viele kleine Vorteile. Oft geht es nicht um große, geile Features, sondern um durchdachte kleine Vorteile, die sich summieren.
Und man hat prinzipiell keinen echten Nachteil.
Von wikipedia:
Vorteile gegenüber DVI (Anmerkung: HDMI ist abwärtkompatibel zu DVI und trägt dementsprechend leider die ein oder andere Schwäche mit)
Basiert auf einem Mikropaket-Protokoll:
Erlaubt eine einfache Erweiterung des Standards
Design zur Unterstützung einer internen "chip-to-chip"-Kommunikation:
Kann das Displaypanel direkt ansteuern. Damit entfallen Skalierungs- und Kontrollschaltkreise, preiswertere und dünnere Bildschirme sind möglich
Als Ersatz für interne LVDS-Verbindungen zu Notebookpanels durch eine allgemeine standardisierte Schnittstelle
Kompatibel mit low-voltage Signalumgebung, die in der 45-Nanometer-CMOS-Fertigung Anwendung findet
Unterstützt sowohl RGB- als auch YCbCr-encodierte Formate
Zusatzkanal kann für berührungsempfindliche Bildschirme, USB-Verbindungen, Kamera, Mikrofon, etc. verwendet werden
Weniger Leitungen mit eingebettetem Taktsignal, dadurch reduzierte RFI (Funkstörungen)
Kleinerer Stecker mit optionaler Verriegelung, der keine Verschraubung benötigt
Displayport hat die höhere Bandbreite.
Displayport hat auch miniDisplayport-Anschlüsse die kleiner und platzsparender sind, der normale Stecker verriegelt
Displayport unterstützt neben HDCP auch DPCP
usw.
/edit: Siehe auch Kartenlehrling.
DP hat viele kleine Vorteile. Oft geht es nicht um große, geile Features, sondern um durchdachte kleine Vorteile, die sich summieren.
Und man hat prinzipiell keinen echten Nachteil.
Von wikipedia:
Vorteile gegenüber DVI (Anmerkung: HDMI ist abwärtkompatibel zu DVI und trägt dementsprechend leider die ein oder andere Schwäche mit)
Basiert auf einem Mikropaket-Protokoll:
Erlaubt eine einfache Erweiterung des Standards
Design zur Unterstützung einer internen "chip-to-chip"-Kommunikation:
Kann das Displaypanel direkt ansteuern. Damit entfallen Skalierungs- und Kontrollschaltkreise, preiswertere und dünnere Bildschirme sind möglich
Als Ersatz für interne LVDS-Verbindungen zu Notebookpanels durch eine allgemeine standardisierte Schnittstelle
Kompatibel mit low-voltage Signalumgebung, die in der 45-Nanometer-CMOS-Fertigung Anwendung findet
Unterstützt sowohl RGB- als auch YCbCr-encodierte Formate
Zusatzkanal kann für berührungsempfindliche Bildschirme, USB-Verbindungen, Kamera, Mikrofon, etc. verwendet werden
Weniger Leitungen mit eingebettetem Taktsignal, dadurch reduzierte RFI (Funkstörungen)
Kleinerer Stecker mit optionaler Verriegelung, der keine Verschraubung benötigt
Zuletzt bearbeitet:
So langsam glaube ich das ich meine HD3870 endlich mal in den Ruhestand schicken sollte was schon mit dem erscheinen der HD5870 geplant war...
Und ob es die schnellste Grafikkarte auf dem Markt ist, ist mir sowas von egal solange Preis/Leistung stimmt.
Und ob es die schnellste Grafikkarte auf dem Markt ist, ist mir sowas von egal solange Preis/Leistung stimmt.
ATI Soldat
Banned
- Registriert
- Juli 2010
- Beiträge
- 570
Hört sich doch schon besser an als die Negativgerüchte zur 6970 der letzten Tage. Ich bin jedenfalls davon überzeugt, dass sie deutlich besser wird als die Gerüchte der letzten Woche hier bei CB vermuten lassen könnten. Es werden sich wohl einige in den Hintern beißen, die jetzt noch von der GTX580 völlig überzeugt sind. Wie schon selbst im CB Test der GTX580 gesagt hat, muss man die 6970 abwarten um die GTX580 einordnen zu können.
Wie auch immer sind es ja sehr gute Nachrichten wobei für mich eine DC Grafikkarte nicht in Frage kommt.
Wie auch immer sind es ja sehr gute Nachrichten wobei für mich eine DC Grafikkarte nicht in Frage kommt.
ix.tank
Lieutenant
- Registriert
- Sep. 2010
- Beiträge
- 909
@raubwanze
Hast du da eine(oder gern auch mehrere) Quelle(n) für, ein Paper von AMD oder so etwas, hab jetzt bei Google auf die Schnelle nichts gefunden. Würde mich aber schon interessieren, wie AMD die DP Leistung realisiert.
Sollte es so sein wie du sagst kommt das dann aber auch nur hin wenn das Load Balancing mit NVidia mit halten kann. (Und L2 Cache gibts leider auch nicht.)
Hier arbeitet der 5-D oder auch 4-D-Shader im Prinzip skalar, d.h. als 1d-Shader mit der Möglichkeit 1 64bit FMA pro Takt zu berechnen.
Hast du da eine(oder gern auch mehrere) Quelle(n) für, ein Paper von AMD oder so etwas, hab jetzt bei Google auf die Schnelle nichts gefunden. Würde mich aber schon interessieren, wie AMD die DP Leistung realisiert.
Insofern sind bei DP die theoretischen Flops-Werte zw. Nv und AMD durchaus vergleichbar.
Sollte es so sein wie du sagst kommt das dann aber auch nur hin wenn das Load Balancing mit NVidia mit halten kann. (Und L2 Cache gibts leider auch nicht.)
- Registriert
- Aug. 2005
- Beiträge
- 1.167
ix.tank schrieb:Hast du da eine(oder gern auch mehrere) Quelle(n) für, ein Paper von AMD oder so etwas, hab jetzt bei Google auf die Schnelle nichts gefunden. Würde mich aber schon interessieren, wie AMD die DP Leistung realisiert.
Rechne mal folgendes, die HD 5970 hat 4640 SP GFlops und 928 DP GFlops
4640/5 = 928
Die HD 5870 hat 2720 SP GFlops und 544 DP GFlops
2720/5 = 544
Und die HD 6990 soll nunmal 6000 SP GFlops haben und setzt auf 4D Shader...
6000/4 = 1500
Verstanden?
Milchmädchenrechnung:
HD 5870: 850MHz / 1600 Shader (320 5D)
HD 6970: 890MHz / 1920 Shader (480? 4D)
Bei einer 20% verbesserten Shaderleistung ergibt sich 1920+20% eine theoretisches Äquivalent von 2304 Shadern zu den 1600 Shader der 5870, rechnet man noch den Takt ein ergäbe das eine Mehrleistung von 2304 * (890/850) = 2412 / 1600 = 1,507 => ca 50% Mehrleistung im Vergleich zur HD5870, mögliche sonstige optimierungen außer acht gelassen.
In den Leistungsrating des CB GTX580 tests ist diese in den Leistungsratings ca 45-55% einer HD5870 Voraus.
Lt. dieser Rechnung wäre die GTX580 geschlagen.
HD 5870: 850MHz / 1600 Shader (320 5D)
HD 6970: 890MHz / 1920 Shader (480? 4D)
Bei einer 20% verbesserten Shaderleistung ergibt sich 1920+20% eine theoretisches Äquivalent von 2304 Shadern zu den 1600 Shader der 5870, rechnet man noch den Takt ein ergäbe das eine Mehrleistung von 2304 * (890/850) = 2412 / 1600 = 1,507 => ca 50% Mehrleistung im Vergleich zur HD5870, mögliche sonstige optimierungen außer acht gelassen.
In den Leistungsrating des CB GTX580 tests ist diese in den Leistungsratings ca 45-55% einer HD5870 Voraus.
Lt. dieser Rechnung wäre die GTX580 geschlagen.
ix.tank
Lieutenant
- Registriert
- Sep. 2010
- Beiträge
- 909
@Egnutz
Das der Schluss nahe liegt ist mir schon klar! (Ein Beweis ist es aber nicht, es könnten ja extra DP Units in diesem Verhältnis auf dem Chip sein oder etwas ganz anderes.) Aber ich hätte gern mal ein Paper gesehen in dem erklärt wird wie AMD die Doppelte-Genauigkeit erreicht.
@radoxx
Da nimmst du aber überall das Maximum an, die Karte wird mit Sicherheit nicht zu 100% mit der Anzahl der Shader-Prozessoren skalieren. Und die 20% Mehrleistung wird es auch nicht geben, denn das würde bedeuten, dass die 5D Prozessoren immer nur zu max. 80% genutzt wurden, dies wird sicher nicht immer der Fall gewesen sein.
Verstanden?
Das der Schluss nahe liegt ist mir schon klar! (Ein Beweis ist es aber nicht, es könnten ja extra DP Units in diesem Verhältnis auf dem Chip sein oder etwas ganz anderes.) Aber ich hätte gern mal ein Paper gesehen in dem erklärt wird wie AMD die Doppelte-Genauigkeit erreicht.
@radoxx
Da nimmst du aber überall das Maximum an, die Karte wird mit Sicherheit nicht zu 100% mit der Anzahl der Shader-Prozessoren skalieren. Und die 20% Mehrleistung wird es auch nicht geben, denn das würde bedeuten, dass die 5D Prozessoren immer nur zu max. 80% genutzt wurden, dies wird sicher nicht immer der Fall gewesen sein.
Zuletzt bearbeitet:
feldwebel-Chief
Lieutenant
- Registriert
- Jan. 2007
- Beiträge
- 526
ich-halt schrieb:@Egnutz: Dass die 1920 SP' s stimmen halte ich schon so gut wie sicher. Hier im forum hat nämlich schon jemand eine hd 6970. Schau dir mal den gpu-z screenshot am ende dieses post an https://www.computerbase.de/forum/threads/offizieller-amd-hd6800-overclocking-and-undervolting-thread.803518/#post-8674941 ,( besonderes augenmerk auf die verwendetete grafikkarte)
Man sieht schon das es ein Fke ist alleine weil bei den ROPs zwischen der 6 und der 4 zwei Pixel sind statt ein
Dr. Greg House
Banned
- Registriert
- Mai 2010
- Beiträge
- 909
omg und ich hab noch über den Screen die Texte von einem selbstgemachten GPU-Z Screen drübergelegt um das zu prüfen. Zwar mit demselben Endergebnis, aber das mit der 64 hätte mir auch so auffallen können. -.-
Blediator16
Lt. Junior Grade
- Registriert
- Okt. 2010
- Beiträge
- 363
Euch Spezialisten ist aber noch nicht eingefallen, dass Abweichugen durch ein schlecht abfotografiertes Bild auftreten können?
Dr. Greg House
Banned
- Registriert
- Mai 2010
- Beiträge
- 909
Wir reden von dem Screenshot hier "Spezialist":
https://www.computerbase.de/forum/t...-and-undervolting-thread.803518/#post-8674941
https://www.computerbase.de/forum/t...-and-undervolting-thread.803518/#post-8674941
P
p1skop4t
Gast
meine 5970 bleibt auch noch drin 
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Fermi zieh dich mal noch wärmer an als sonst. Cayman XT wird dem dir sowas von einheizen.Da die Karte bekanntlich auf zwei „Cayman“-GPUs (HD 6970/6950) setzen wird, lässt sich daraus schließen, dass „Cayman“ nun doch mit bis zu 1.920 Stream-Prozessoren (480 4D-Einheiten) ausgestattet sein wird.
Wenn das mal kein würdigen Nachfolger der 8800GTX wird(vorallem bei der Effizienz, wenn die die Folie stimmt!), dann weis ich auch nicht. AMD machts aber auch spannend, die Hammer Specs leaken und den Start verschieben. Zum Haare raufen! Das Ding ist sogut wie gekauft!
Ha, Crysis + 4xSGSSAA ich garantiere dir den Einbruch der Karte. Oder Empire Total War. Überhaupt kein Problem die doppelte Leistung einer HD 6970 in Bildqualität umzuwandeln. Würde es so eine single GPU geben zum doppelten Preis, ich würde sie kaufen.Was auch klar ist, ist dass es niemanden gibt der so eine Karte zum Spielen wirklich braucht. Selbst auf drei 24ern wird noch Leistung im Überfluss vorhanden sein.
Man hat 2x2GB also 2GB effektiv und wenn man es drauf anlegt mit HD Mods dann kann man die 2GB locker überfüllen. Wenn ein single GPU Cayman schon 2GB braucht und nutzen kann, kann man sich ja denken was man mit 2x Cayman alles anstellen kann. Trotzdem hat die Karte vorerst ausreichend Speicher und ist kein Vram Krüppel(erst die 2. Multi-GPU Karte überhaupt nach der HD 4870 X2), Leute die sich so eine Bauernfänger Karte kaufen, haben in spätestens einem Jahr die HD 7990 drin...Aber... dürften bei der Leistung 4 GB Speicher nicht ein bisschen knapp bemessen sein? Zukünftige Spiele werden ja nicht unbedingt den Speicherbedarf reduzieren.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.418
eine Karte mit 3000 Shader auf SingelChip Basis wär mir eher reingelaufen, dennoch sprechen die zahlen schon für sich. Sofern 1920 Shader stimmen, wovon man ausgehen kann, dann wird es wirklich ein sehr interessanter Dezember. Mit 1 Ghz + bei 1920 Shader @ 2Gb VRam könnte ich leben...
Pyroplan
Commander
- Registriert
- Juli 2007
- Beiträge
- 2.714
hat AMD uns absichtlich hinters Licht geführt und wollte dass sich Nvidia sicher fühlt?
aber dann hätte man die Infos doch auch kurz nach dem Start der GTX580 raushauen können, damit sich keiner die Nvidia kauft. Naja ich bin und bleibe gespannt.
Was klar sein sollte: Dass wird mal wieder ein (richtiger) Kampf der Giganten nachdem aus der HD2xxx serie nicht wirklich was wurde =)
aber dann hätte man die Infos doch auch kurz nach dem Start der GTX580 raushauen können, damit sich keiner die Nvidia kauft. Naja ich bin und bleibe gespannt.
Was klar sein sollte: Dass wird mal wieder ein (richtiger) Kampf der Giganten nachdem aus der HD2xxx serie nicht wirklich was wurde =)
Ähnliche Themen
- Antworten
- 82
- Aufrufe
- 5.780
- Antworten
- 61
- Aufrufe
- 3.668
- Antworten
- 30
- Aufrufe
- 6.231
- Antworten
- 17
- Aufrufe
- 1.364
- Antworten
- 56
- Aufrufe
- 14.864