News PowerColor Radeon HD7970 X2 Devil 13 erscheint „demnächst“

AbstaubBaer

Redakteur
Teammitglied
Registriert
März 2009
Beiträge
11.053
Obwohl AMD seit der Einführung von GPUs im 28-nm-Fertigungsprozess in einigen Bereichen immer noch einsamer Spitzenreiter ist, fehlt noch ein Modell im Portfolio: Das entsprechende Flaggschiff mit zwei Grafikkernen. Dieses sollte zwar vagen Gerüchten zufolge im August erscheinen, hat sich bisher aber nicht blicken lassen.

Zur News: PowerColor Radeon HD7970 X2 Devil 13 erscheint „demnächst“
 
3x 8Pin ist ja schonmal heavy für eine Karte
ebenso die preisvorstellung - ist ja wie bei der Asus karte vor einiger zeit

aus P/L sicht würden sich da dann wohl doch eher 2x einzlene 7970 lohnen,
wäre auf nen Test gespannt
7970² vs. 2x 7970 vs. 7990
 
schönes Ding. Wem µRuckler kein Begriff sind und wer den Pries nicht scheut greift sicher zu ;)

Die offizielle HD7990 / 7970 X2 wurde offiziell gecancled?
 
Die offizielle HD7990 / 7970 X2 wurde offiziell gecancled?

Vielleicht gibt es ja kein Referenzdesign, wie wir es von der HD6990 kennen. Vielleicht auch ein guter schritt, den Boardpartnern freie Hand über das Design zu lassen.

Bin gespannt wie die Thermische Belastung aussieht, wenn der OC Button zum Einsatz kommt. Wahrscheinlich wird die Karte wie bei der Sapphire 7970 Toxic richtig dick aufdrehen um die Karte Kühl zu halten.
 
Ich denke mal das es sich für AMD nicht lohnt eine HD 7990 zu entwickeln, da die Karte praktisch unnötig ist
& auch keinen so großen Käuferkreis besitzen würde.
 
Diese Karte wird die GTX690 überrollen für Multimonitoring oder sehr hohe Auflösungen sind 3GB bei 2GPUs Pflicht.
Wäre schön wenn AMD die 7990 bald zeigen könnte.

Ganz ehrlich wenn bitte interessiert bei solchen Grafik monstern die Leistungs Aufnahme.
Schönes Teil die Devil 13.
 
AMD hat sogar schon daran gearbeitet, die "Brücke" zwischen zwei (oder mehr?) GPUs auf einer Karte nicht mehr umständlich über PCIe zu realisieren, sondern direkt über eine in der GPU integrierte Schnittstelle namens "Sideport". Damit hätten sich viele Probleme von Multi-GPU erledigt gehabt.

Aber diese Schnittstelle wurde aus Platzgründen aus den RV870/Cypress-GPUs (HD5800-Reihe) wieder herausgeschmissen, nachdem sie in den RV770-GPUs sogar schon vorhanden, aber wegen Problemen mit dem Stromverbrauch deaktiviert war.
Die Story dahinter gibt es auf AnandTech.

Angesichts des Erfolges der HD5800er kann man natürlich schlecht sagen, dass das ein Fehler war, aber langfristig hätte so eine Schnittstelle in den High-End-GPUs Multi-GPU-Karten wohl zu einem richtigen Durchbruch verhelfen können und solche "Brücken"-Probleme wie jetzt wären längst Geschichte.
Vielleicht kommt Sideport ja noch irgendwann wieder... :rolleyes:
 
Macht doch kein Sinn. Die 690 ist sparsamer, weniger Microrückler und evtl gleich teuer. Verstehe ich einfach nicht wie man mit so eine Karte kommen kann.
 
Sorry, aber wer braucht sowas? Selbst die 690er Nvidia ist ja der "Verkaufshit". Wer gibt heute 1000€ für eine Monsterkarte aus, die nach einem halben Jahr schon wieder komplett veraltet ist?
 
@nebukadnezar.ll
Es ist eine sehr gute Möglichkeit für Crossfire ohne zu viel Platz auf dem Mainboard zu verschwenden
Bei der GTX 690 gebe ich dir recht da mit 2GB in absehbarer Zeit der Offen aus ist.
Bei der HD mit 3GB kann man locker mit Länger fahren.
Zu mal die nächsten Karten die noch in 28 NM kommen nicht an diese Leistung heran reichen werden.
Denn 22 NM Prozess werden wir erst mitte Ende 2014 sehen bei Highend Karten das heisst man hätte die nächsten 2 Jahre mit solch einer Karte aus gesorgt.
Das einzigst gute an der GTX 690 ist das NV sich bei der Microruckler Thematik Mühe gibt.
 
Zuletzt bearbeitet:
Visualist schrieb:
Bei der GTX 690 gebe ich dir recht da mit 2GB in absehbarer Zeit der Offen aus ist.
Bei der HD mit 3GB kann man locker mit Länger fahren.


Du weist natürlich dass die 2GB nicht reichen :rolleyes:
Immer diese "Profis" die null Plan, aber eine feste Meinung haben.
 
@rico
Und du findest also nicht das die 2 Gb für so eine teure Karte recht eng bemessen ist?
 
Du weist natürlich dass die 2GB nicht reichen
Immer diese "Profis" die null Plan, aber eine feste Meinung haben.

Und du hast "den Plan"? :rolleyes:

Warum wohl zieht die HD7970 der GTX680 in hohen Auflösungen davon? Weil der 680er der Speicher irgendwann ausgeht.

Ist bei der dual GPU genau so der fall.


ALso solltest du erstmal richtig nachlesen bevor du irgendwelche sachen hier postest.
 
Gerade bei dual GPU sind 2 GB V Ram einfach crap da man damit ganz andere Settings fahren kann. Und der V ram Verbrauch dann steigt.
 
rico007 schrieb:
Du weist natürlich dass die 2GB nicht reichen :rolleyes:
Immer diese "Profis" die null Plan, aber eine feste Meinung haben.

Wenn ich mir so eine karte kaufe, will ich damit auch mit maximalen AA und sonstigen Qualitätseinstellungen Spielen, und Je nach Spiel reichen da die 2GB einfach nicht. Bei Quad SLI ist das Problem ja noch gravierender. Relativ viel Rohleistung aber viel zu wenig VRAM.
 
Motkachler schrieb:
Gerade bei dual GPU sind 2 GB V Ram einfach crap da man damit ganz andere Settings fahren kann. Und der V ram Verbrauch dann steigt.


Zeig doch mal ein setting dass die 690 nicht packt.
Blöd schreiben kann jeder.
 
@rico007
Jap weil ich viel mit Downsampling Teste z.b 2880*1620 oder 3840*2160 was in richtigung Multimonitoring geht.

Aber ich werde das hier nicht weiter aus führen glaub den 25 Sekunden Benchmarks und gut ist Ingame sieht es bei hohen Settings ganz anders aus wenn der ram erst mal an fängst über zu laufen.

Für das was man mit der GTX690 alles machen könnte von der GPU Leistung her wird durch die Ram wieder zu nichte gemacht.
Echt schade das NV den Speicher immer so genügsam auf ihre Karten verbaut.
 
Ich glaube das was mir 690 User berichten, der Benchmark war nur als Beispiel.
 
Zurück
Oben