News Gigabyte, Sapphire und MSI zeigen Radeon HD 6990

Zudem wird sie ebenfalls über ein Dual-Bios für Overclocker und Enthusiasten verfügen, das sich über einen Schalter neben der CrossFire-Schnittstelle umschalten lässt. In der Grundeinstellung läuft die Radeon HD 6990 mit den Standardtaktraten. Schaltet man das Dual-Bios um, wird der Chiptakt der Grafikkarte auf 880 MHz angehoben und die Spannung von 1,17 auf 1,175 Volt erhöht, was eine höhere TDP von 450 Watt zur Folge hat.
http://www.hartware.de/news_51100.html
 
Krank ohne Mist, wie die Alle aufeinmal ausrasten....
die TDP explodiert förmlich, mich würde eine positive Entwicklung im Performance Segment, ein Preisrückgang und vor allem eine Reduzierung dieses Stromhungerwahnsinns eher reizen
 
RattenLord schrieb:
Krank ohne Mist, wie die Alle aufeinmal ausrasten....
die TDP explodiert förmlich, mich würde eine positive Entwicklung im Performance Segment, ein Preisrückgang und vor allem eine Reduzierung dieses Stromhungerwahnsinns eher reizen

TDP ist der Thermal design power und beinhaltet die maximal ausführbare Abwärme und NICHT den Verbrauch...
 
wie gleich alle wegen der TDP austicken, obwohl das die klassifizierung der abzuführbaren wärme ist, nicht der tatsächliche stromverbrauch
man könnte einer 8400GS auch ne TDP von 500W geben, das ist dem hersteller überlassen^^
TDP sagt in etwa soviel aus wie Profiltiefe eines Rads von einem Auto über dessen geschwindigkeit :D
 
Pickebuh schrieb:
Bei einer MGPU-Karte ist der Stromverbrauch nicht so hoch wie bei zwei Einzelkarten.
Es ist einfach effektiver zwei GPUs auf einem PCB zu betreiben. Auch kann man dort besser die nicht benötigte GPU abschalten ect. So wie es die HD5970 gemacht hat. Auch ist der maximale Stromverbrauch geringer, was durch die selektierten GPUs ermöglicht worden ist.
Wie es nun bei der HD6990 aussieht, bleibt abzuwarten.

Ich sage einfach mal falsch..
Die GPU Abschaltung ist beim Lastbetrieb irrelevant.
Und hier noch ein paar Beispiele warum die Aussage Falsch ist das eine Multi GPU Karte weniger frisst als 2 entsprechende Single GPU Karten....bei Last Betrieb versteht sich:
http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index4.php
ATI HD4870 = 148-158W
ATI HD4870 X2 = 302W

ATI HD5850 = 110W
ATI HD5970 = 216W
 
Übrigens:

die 6990 wird man per BIOS-Schalter von 800 auf 880 MHz übertakten können, damit steigt TDP lt Hersteller auf 450 W :lol:

Die offizielle Vorstellung folgt in wenigen Tagen...
 
Zum Thema Mikroruckler...

Ich hab heute auf der Cebit die Dirt3 pre Alpha auf 3 Full-HD Monitoren gespielt. Außerdem waren auch sonstige Grafikeinstellungen auf Maximal...

Fazit: Keine Mikroruckler... zumindest hab ich keine gesehn^^
 
Einmal möchte ich mich mal über die TPD äussern.Ich weiß nicht wer hier davon angefangen hat, aber die 375 Watt ist weder die TPD noch Hersteller Angabe sondern resultiert aus den 2 x 8 Pin Anschlüssen plus PCIe Port.

Ein 8 Pin Anschluß stellt 150 Watt zur Verfügung davon haben wir hier zwei plus PCIe Port mit nochmal 75 Watt - da sind wir bei 375 Watt was die Karte aufnehmen könnte.

Das ist schon eine Menge Holz, aber man sollte sich bewußt sein, daß diese Karten nicht viel mehr als Prestige sind. Es werden in diesem Segment nur wenige Käufer gefunden und die dürften nicht wirklich ein Problem mit einem Loch im Geldbeutel haben. ;)
 
@Dario
Da kann man sich nur anschließen! Die Hochzeit der Multi-GPU dürfte ihren Zenit überschritten haben. Damals waren die Einzelkarten noch nicht Leistungsfähig genug. Heutige High-Endkarten sind performanter. Alleine die GTX580 räumt hier schon "fast" die alte Dual-GPU HD5970 weg - mit Ausnahmen versteht sich!!!

[Offtopic]
Was wirklich interessant wäre :
-Ein Dual-GPU-Karte mit Optimus-Chip verbaut. Dann könnte man zwischen 3D und 2D hin- und herschalten. Es wäre zumindest eine stromsparendere Lösung als die GPUs idlen zulassen. AMD könnte sicher ähnlich Ansätze mit Fusionerfahrung bringen.
 
RattenLord schrieb:
mich würde eine positive Entwicklung im Performance Segment, ein Preisrückgang und vor allem eine Reduzierung dieses Stromhungerwahnsinns eher reizen

Hat AMD nicht genug Karten im Angebot, welche das alles können?:rolleyes:
 
sompe schrieb:
Ich sage einfach mal falsch..
Die GPU Abschaltung ist beim Lastbetrieb irrelevant.
Und hier noch ein paar Beispiele warum die Aussage Falsch ist das eine Multi GPU Karte weniger frisst als 2 entsprechende Single GPU Karten....bei Last Betrieb versteht sich:
http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index4.php
ATI HD4870 = 148-158W
ATI HD4870 X2 = 302W

Mal wieder nur Daten gesucht aber leider keinen Schimmer was dahinter steckt.
Die HD4870X2 ist noch vom alten Schlag ohne das Stromsparmanagement 2.0.
Deshalb verbraucht sie relativ viel.
Und 2x 158 Watt sind 316 Watt. ;)

ATI HD5850 = 110W
ATI HD5970 = 216W

Die HD5970 ist schon deutlich moderner. Sie verbraucht statt 220 Watt nur 216 Watt und das obwohl sie über die vollen Shader von zwei HD5870 (1600) verfügt wobei die HD5850 nur 1440 Shader zur Verfügung stehen.
So und jetzt bist du wieder an der Reihe. :p
https://www.computerbase.de/artikel...est.1131/seite-21#abschnitt_leistungsaufnahme

Sidewinder9000 schrieb:
Tja, ohne V-Sync ist das so :p
Mit V-Sync ON erkennt man nämlich auch erst, WIE FLÜSSIG MGPU bei konstanten 60 FPS sein kann ;)

Das ist leider das absolut hartnäckigste Gerücht, was sich im Netz immer noch hält.
Diese Aussage ist absolut falsch. Tut mir leider, aber es ist einfach so.
Was hat V-Sync mit Microruckler zu tun ?

Um es begreiflich zu machen. Microruckler sind unterschiedliche Zeitabstände bei der Frameausgabe.
Wenn V-Sync an ist, dann wartet die Grafikkarte auf das Vertikale-Signal des Monitors ( Daher der Begriff V-Synchronität ). Dies ist unabhängig von den Microrucklern, da sie quasi im Hintergrund weiter laufen, nur das eben der Monitor sagt, wann man sie nun sehen kann. Im schlimmsten Fall überspringt man ein Frame, weil sie eben gerade zeitlich so schlecht ausgegeben werden, das sie der Monitor mit seiner festgelegten 60 Frames/Sek-Abfrage eben so erwischt.
Das Ergebnis ist ein sehr starkes stottern im Spiel selbst bei konstanten 60 FPS mit V-Sync ON.

Hier mal zwei Beispielvideos. (Siehe Anhang)
Das ein mit 2xHD5850 und das ander mit nur einer HD5850.
Beide Videos sind mit 60FPS und V-Sync ON gemacht worden !

Das mit Dual-Karten(Microruckler) stottert (Siehe Lastwagen) Das Andere(Gegenprobe) läuft butterweich. :cool_alt:
Einfach mehrmals hintereinander abspielen lassen. Jeweils das Microruckler und dann gleich die Gegenprobe.

Und glaub mir.
Im Video wirkt das Ganze noch harmlos, weil eben die Aufnahme mit der Kamera das Video glättet. In natura, ist es etwa 10 mal so stark bzw. ausgeprägt. Da ist ein ruhiger Spielfluss absolut nicht mehr möglich.

Deshalb MGPU ? NEVER EVER !
 

Anhänge

Zuletzt bearbeitet:
Das Teil ist - AMD untypisch - so'n richtiger bitchslap bzw. ein fistful of asum.
Um das zu schlagen, müsste man der GTX 590 noch nen zusätzlichen 6er Pin spendieren.
 
@ Pickebuh:

dann muss sich das mit den Mikrorucklern bei der HD 5970 aber anders verhalten - die hatte ich einige Wochen in meiner Kiste drin.

Spiele, mit der ich sie getestet habe:
Dirt 2, Crysis, Two Worlds 2, Avatar, CoD: MW2 & BO, Risen & CS 1.6

Alle Spiele liefen ohne Ausnahme absolut perfekt ohne den Hauch eines Rucklers. Denn diese, egal ob Mikroruckler oder die Ruckler bei FPS-drops wären mir sofort aufgefallen. Bei allen Spielen außer CS hatte ich V-Sync: AN

Es gibt nur leider den großen Nachteil bei MGPU, das für neue Spiele erstmal die "Crossfire-Profile" installiert werden müssen, damit die auch richtig gut laufen...

Ich hab jaa die Vermutung, das das Spiel in deinem Video (Half-Life 2 ?) eher nicht Crossfire-optimiert ist, oder kein Crossfire-Profil dafür exitiert.
Dieses konstante Stottern habe ich bei Single-GPU allerdings auch bei FPS-drops z. B. von 60 auf 45 etc.

*EDIT*

ein kleiner Nachtrag noch:

Das Spiel "Avatar", (gleiche Engine wie Far Cry 2) lief Anfangs nicht so gut, auch eher unsauber.
Dann habe ich die "Avatar.exe" umbenannt und siehe da - auch das lief butterweich und völlig ohne Mikroruckler.
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Mal wieder nur Daten gesucht aber leider keinen Schimmer was dahinter steckt.
Die HD4870X2 ist noch vom alten Schlag ohne das Stromsparmanagement 2.0.
Deshalb verbraucht sie relativ viel.
Und 2x 158 Watt sind 316 Watt. ;)



Die HD5970 ist schon deutlich moderner. Sie verbraucht statt 220 Watt nur 216 Watt und das obwohl sie über die vollen Shader von zwei HD5870 (1600) verfügt wobei die HD5850 nur 1440 Shader zur Verfügung stehen.
So und jetzt bist du wieder an der Reihe. :p
https://www.computerbase.de/artikel...est.1131/seite-21#abschnitt_leistungsaufnahme

2x 158W sind 316W und 2x 148W sind 296W, womit diese 4870 im Doppelpack unter der 4870 X2 gelegen haetten.....sowas nennt sich Serienstreuung.
Die GPUs der 5970 haben zwar mehr Recheneinheiten aber die gleiche Taktfrequenz wie die 5850 und bei einem Kurzen Blick in den Test der 5970 waere dir aufgefallen das die GPUs der 5970 mit etwas weniger Spannung als bei der 5850 liefen. Was das bedeutet sollte jedem klar sein.
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5970/index8.php

Also nichts mit besserem Energiemanagement, das bei Last ohnehin wirkungslos ist.
 
Ich hab heute auf der Cebit die Dirt3 pre Alpha auf 3 Full-HD Monitoren gespielt. Keine Mikroruckler.
Kann ich bestätigen. War sehr geschmeidig. Der Phenom II X6 1090T lief auf 4GHz. Leider durften die Leute vom AMD Stand keine näheren Details verraten, weder zum Verbrauch noch Sonstigen, ist aber sowieso fast alles mittlerweile bekannt ;).
Jedoch auf die Aussage dass die Karte wohl gegen Ende März, Anfang April erscheinen würde, war die Antwort: "Dafür würde ich nicht Unterschrift leisten".
Denke also das sie wirklich wie angekündigt schon Anfang des Monates erscheint. Würde also das Bekannte bestätigen. UVP's suchte man auf der gesamten CeBIT vergeblich...
 
Zuletzt bearbeitet:
Seelenernter schrieb:
wie gleich alle wegen der TDP austicken, obwohl das die klassifizierung der abzuführbaren wärme ist, nicht der tatsächliche stromverbrauch
Genau die Hersteller nennen extra ne viel zu hohe TDP oder verbauen viel zu viele Stromanschlüsse als nötig wäre um sich das Image als Stromfresser einzuhandeln. Alles nur so zum Spass. :rolleyes:
Schau dir den Verbrauch und die TDP der letzten Karten an, dann weist du was Sache ist.
 
Ich weiß nicht was ihr wollt? Leistung braucht nun mal Energie. Ein LKW kommt auch nicht ohne 400PS und unter 30l Diesel auf 100Km klar und zieht dabei 40 Tonnen durch die Gegend. Das gleiche für Sportwagen, selbst ein normaler Kleinwagen wird bei Vollast zum Säufer und genehmigt sich locker seine 15 Liter.

Regt euch über doch über eure CPUs auf, da wäre es angebracht, aber das macht ihr natürlich nicht :rolleyes:. Nicht mal eine Milliarde Transistoren, nicht mal annähernd so Leistungsfähig wie eine NV110 oder AMD RV970 GPU und trotzdem eine TDP von 95 oder 125W! Gemessen an ihrer Leistungsfähigkeit sind GPUs sehr effizient. Es sind im Grunde Vektor CPUs, mit mehreren 100 Prozessorkernen, also wahre Supercomputer mit eigenem RAM, Controller und was noch alles dazugehört, auf einer einzigen Leiterplatte wenn man es genau nimmt. So langsam kann man das Gejammer nicht mehr hören. Ihr kommt doch als Käufer einer solchen Karte so oder so nicht in Frage, zu teuer für euch, zu Energieintensiv, zu rucklig, ihr seid doch nicht betroffen, also ist es doch hinfällig sich darüber aufzuregen, meint ihr nicht auch?
 
Zuletzt bearbeitet:
So oft ich den Vergleich auch lese....der wird wohl nie sinnvoll werden. :D
Die Hardware wird im laufe einer vergleichsweise kurzen Zeit durch neue Fertigungstechniken immer leistungsfaehiger und/oder sparsamer.
Ein Umstand den man bei der Automobilindustrie in dem Sinne kaum hat.

Frisst die Hardware zu viel, dann ist sie mit der Leistung einfach zu frueh am Markt. Dann wartet man 1-2 Jahre und bekommt meist die Eckdaten die man haben wollte.
 
leute die sic so was kaufen die achten glaub ich nicht auf wärme und Stromverbraucht...

Ich für meinen teil kan nur sagen seit dem ich die 5830 gegen eine GTX 480 getauscht habe sind die Stromkosten merklich höher und die heizkosten geringer....

Und das die GTX 590 besser wird steht auser Frage....:freaky:
 
Zurück
Oben