News Gigabyte, Sapphire und MSI zeigen Radeon HD 6990

Kasmopaya schrieb:
[...]
Die Beste Aussage war ja die .->
single GPU 30FPS OK
SLI 60FPS OK

Dh. SLI bringt absolut gar nix, weil man dafür sowieso die doppelten FPS braucht wie bei einer single GPU -> sagt NV selbst.

Das stimmt nicht. Der Nvidia Mitarbeiter räumt lediglich ein, dass es Spiele gibt, in denen mindestens 40, 50 oder 60fps erreicht werden müssen, damit keine Mikroruckler auftreten.
Treten diese Mikroruckler nicht auf, sind die 60fps der MGPU Lösung natürlich deutlich flüssiger, als 30fps bei einer SGPU.
 
Zuletzt bearbeitet:
cool wird mit dem 6000 u/min quirl bestimmt genau so leise wie der HD5870x2 voll ausbau

Am besten wäre es noch, wenn es wie bei der GTX285 MARS wäre und das Ding sich mal eben 100 Watt mehr genemigt als die PCIe Spezifikation mit 2*8Pin hergibt.
 
Zuletzt bearbeitet:
Argh! Ich will benchmarks sehn xD kanns schon gar nicht mehr abwarten :-D
 
Hmmm, ob die Verwendung der Fotos auf dieser asiatischen Seite wohl Urheberrechte verletzen ? :D
 
was für ein Mist, Hauptsache mal dick die PCIe Spezifikation bezüglich Stromverbrauch sprengen. Sowas gehört verboten, die sollen gefälligst an der Effizienz forschen und nicht Stromfress-Perverslinge von Grafikkarten bauen.
Bei der Stromfress-Geilheit nehmen sich beide Haupt-Hersteller ja mitlerweile nichts mehr.

just my 2 cents.
 
Wenn ich mir so die Bilder anseh', dann würd ich sagen, daß mit dem CPU Kühler und der Radeon zwei Krachmacher Hand in Hand gehn'. Für Demo Zwecke ganz nett, aber für den alltäglichen Gebrauch...?!
 
pc fan schrieb:
1,5gb pro gpu sind ja sooooooo viel weniger speicher.... i lol'd
selbst bei auflösungen von 2xxx+1xxx reichen 1,5gb locker.

Gibt ja bestimmt niemand der in 5760 zu 1200 zockt oder ?

sompe schrieb:
Natuerlich fressen 2 Karten das doppelte von einer. (Last)
Warum sollte das auch nicht der Fall sein?

Das ist wirklich eine gute Frage, ich hoffe Sidewinder kann da mein unerständnis zerstreuen!

Thaxll'ssillyia schrieb:
-------
Zum 152. Mal: Die Auflösung hat praktisch nix mit dem VRAM-usage zu tun. Und für dich noch mal: Die Bildschirmgröße auch nicht.
.......


Und ich behaupte jetzt mal Stink Frech ein Spiel das in 5760 zu 1200 mit 8xAA und 16AF läuft verbraucht mehr RAM als mit 640x480 und 8xAA 16AF.

Aber du kannst mich da sicher eines besseren belehren oder ?




Was die tolle diskussion über Mikroruckler angeht... ich hatte 2 Jahre lang eine HD3870X2 in gebraucht. Entweder ich bin halb Blind, oder ich hab die definition von Mikroruckler immernoch nicht begriffen.

Aber ich bin wirklich auf die Benchmarkes gespannt. Es gibt so viele nette Theorien hier, wie sie das machen müssten damit es laufen sollten.... hoffe die verraten die Details zu der Karte an der CeBit.


P.S Wenn AMD es schafft, ihr Bulldozer Modul System auf die GPU zu übertragen, dann wäre doch theoretisch auch eine Multi GPU mit 10 Kernen möglich oder ? Gibt ja im ARM bereich bereits die Dual Core und Quad core GPU's. Wäre man so nicht die Mirko ruckler los, müsste sich aber den Speicher teilen ?
 
Mr_Blonde schrieb:
Das stimmt nicht. Der Nvidia Mitarbeiter räumt lediglich ein, dass es Spiele gibt, in denen mindestens 40, 50 oder 60fps erreicht werden müssen, damit keine Mikroruckler auftreten.
Treten diese Mikroruckler nicht auf, sind die 60fps der MGPU Lösung natürlich deutlich flüssiger, als 30fps bei einer SGPU.

:rolleyes:

Wenn's Mikroruckler in einem Spiel gibt, dann immer, egal bei welcher framerate.
Dass man sie irgendwann nicht mehr spürt ist klar.
Dass man unendlich viel Geld für 50 Multi-GPU-fps ausgibt, die sich wie 30 SGPU-fps anfühlen auch.

Es ist sooo lange her, dass das Phänomen entdeckt wurde und immer noch haben Leute keine Ahnung. :kotz:
 
Wenn's Mikroruckler in einem Spiel gibt, dann immer, egal bei welcher framerate.
Dass man sie irgendwann nicht mehr spürt ist klar.
Dass man unendlich viel Geld für 50 Multi-GPU-fps ausgibt, die sich wie 30 SGPU-fps anfühlen auch.

Es ist sooo lange her, dass das Phänomen entdeckt wurde und immer noch haben Leute keine Ahnung.

Aha.

Und bei häufigen FPS-Sprüngen z.B. von 45 auf 55 oder von 38 auf 67 bei SGPU ruckelt es ja auch gaaaar nicht *Ironie aus*

Davon mal abgesehen:
ich merke einen sehr deutlichen Unterschied, ob ein Spiel mit 30 FPS oder 60 FPS (bei V-Sync ON) läuft.
 
eLw00d schrieb:
Es ist sooo lange her, dass das Phänomen entdeckt wurde und immer noch haben Leute keine Ahnung. :kotz:

Oder die Mikroruckler sind so minimal, dass man sie nicht merkt und diese ganze Diskussion und Aufregung darüber einfach nur total lächerlich ist?

Bei mir zumindest :}

Kasmopaya schrieb:
PS: Den Verbrauch der GTX 590 schätze ich auf ca. 500Watt. Das sind keine normalen Karten mehr, das sind Asus Mars Nachfolger...

Wie soll das gehen wenn 2x 8-pin nur maximal 375 Watt zulassen würden?
Oder sehe ich was falsch
 
Zuletzt bearbeitet:
Also ich möchte mich da nicht groß einmischen. aber eines möchte ich doch sagen. Das Microruckler gibt ist messbar. Dabei spielt es keine Rolle, ob ich 20 FPS habe oder 200 FPS. Das ist Fakt in jedem SPiel. Ob man empfindlich ist und es 40 FPS wahrnimmt oder erst bei 30 FPS, kommt auf den User an. Dazu kommt noch der Irrglaube, das einige User behaupten, das sie Microruckeler von Framedropps und Serverlags unterscheiden können, denn die treten bei Singel GPUs und bei MultiGPUs auf und haben den selben Effekt.
Das ist meine Meinung. Ich habe schon viele MultGPU Systeme gehabt und scheine dem Problem der MR sehr unempfindlich gegenüber zu stehen, zumal AMD hard daran arbeitet die MR duch Profilpflege zu begegnen. Aber über dies muss man so erlich sein und zugeben, das AMD das Problem der MR nicht wirklich angeht und NV in diesem Sinne einen Vorsprung hat. Dies wird aber wieder duch die bessere Scalierung von CF gegen über SLI wett gemacht. Ich habe mich von CF oder SLI abgewannt, aus reinen Kostengründen und nicht aus technischen Gründen. Seit ich 3 TFTs benutze komme ich allerdings wieder in Versuchung CF zu nutzen, da die Leiszung von SLI im Multimonitoebetrieb zu wünschen übgrig läst (hier nach zu lesen) Deswegen bin ich sehr gespannt auf Benches von der 6990.
So genug fehler gemacht. Einen schönen Tag noch.....
 
Zuletzt bearbeitet:
"The most powerful Graphics Card", klare Ansage. Mal sehen ob dieser Satz auch nach dem Launch der GTX 590 noch bestand hat.
 
@eLw00d
Ja, es gibt Mikroruckler, das habe ich nie bestritten.
Allerdings passen die Äusserungen des Nvidia Mitarbeiters gut zu den bisherigen Ergebnissen in Benchmarks. https://www.computerbase.de/2011-01...00-sli/20/#abschnitt_das_problem_mikroruckler
Da sieht man schon, dass es auch Spiele gibt, in denen SLI/CF ganz gut funktionieren.
Und gerade wo Du unendlich Geld ansprichst: Es gibt einfach Szenarien (z.B. Multimonitorbetrieb + 3D) in denen man um SLI/CF einfach nicht herum kommt.

Desweiteren war mein Beitrag weniger ein Plädoyer für die SLI Technik, die Einsatzgebiete in denen sie alternativlos ist habe ich ja jetzt skizziert, sondern eine Richtigstellung der vom Nvidia Mitarbeiter getätigten Aussagen in dem Video.

Bevor Du also das nächste Mal einen Beitrag von mir zitierst und nen Kotzsmilie drunter setzt, versuche bitte vorher meine Aussage im entsprechenden Kontext zu sehen. Danke.
 
Haldi schrieb:
Das ist wirklich eine gute Frage, ich hoffe Sidewinder kann da mein unerständnis zerstreuen!

Bei einer MGPU-Karte ist der Stromverbrauch nicht so hoch wie bei zwei Einzelkarten.
Es ist einfach effektiver zwei GPUs auf einem PCB zu betreiben. Auch kann man dort besser die nicht benötigte GPU abschalten ect. So wie es die HD5970 gemacht hat. Auch ist der maximale Stromverbrauch geringer, was durch die selektierten GPUs ermöglicht worden ist.
Wie es nun bei der HD6990 aussieht, bleibt abzuwarten.

Die HD6990 hat zwar als Testsample 2x8 Pin Anschlüsse, die aber durch die Eyefinity-Edition auch benötigt werden, da jeder Displayport etwa 20-30 Watt zusätzlich an Leistung verbraten.
Bei den normalen Karten mit 2 Ausgängen, ist es dann womöglich die spezifizierte Stromversorgung von maximal 1x6 + 1x8 Pin.
Aber auch das bleibt mal abzuwarten.
Wenn es um das Wettrüsten geht, sind wohl keine Grenzen mehr vorhanden. :(

Was die tolle diskussion über Mikroruckler angeht... ich hatte 2 Jahre lang eine HD3870X2 in gebraucht. Entweder ich bin halb Blind, oder ich hab die definition von Mikroruckler immernoch nicht begriffen.

Ich hatte 2-3 Jahre lang 2x HD4850 sowie eine HD4870X2 und 2x HD5750 und 2x HD5850.
Aber nachdem ich mal eine starke Singelkarte hatte, GTX285, bin ich von dem MGPU geheilt worden den selbst bei der halben Framerate war das Bild deutlich weicher als mit der umworbenen unglaublichen Kraft der zwei Herzen. Alles floss nun wie Butter in der Sonne ohne das lästige Stottern bei 50 FPS ect.

Microruckler sind immer vorhanden und sie zeichnen sich durch ein unnachgiebiges permanentes Stottern aus, was selbst in hohen Framerates deutlich zu erkennen ist. Das geht sogar so weit, das man Schriften in Games kaum lesen konnte.
Einmal SingelGPU verwendet und mein Augenleiden ist verschwunden. :cool_alt:

Seitdem, MGPU ? Never Ever !

Manche Leute argumentieren damit, dass ja auch CPUs multicore sind und das sich dort keiner über die Skalierung aufregt.
Aber was hat das Mit GPUs zu tun ?
Es gibt kein Microstottering bei CPUs ! :p

Das Video ist natürlich sehr NVIDIA lastig auszulegen. 3dfx ist natürlich mit am Bord... lach !
Aber das NVIDIA mehr gegen die MR tut ist durch ihre Pufferungsverfahren natürlich bewiesen. Das ist auch der Grund warum die Nvidias nicht so gut skalieren als die AMD-Karten. Durch die Pufferung geht eben die Effizienz verloren, aber man bekommt ja bei weniger FPS ein flüssigeres Spielvergnügen geboten, was für FPS-Fetischisten natürlich ein absolutes NOGO ist.
Das ist wohl mehr als Beweis, das AMD so gut wie nichts gegen die MR tut um möglichst schnell zu sein.

Und ich bin mir zu 200% sicher, dass die HD6990 genauso wie die HD5970 und die HD4870X2 und natürlich auch die HD3870X2 sowie sämtliche anderen CF Lösungen immer und ewig unter dem selben Problem leiden werden.
 
Zuletzt bearbeitet:
Thaxll'ssillyia schrieb:
Zum 152. Mal: Die Auflösung hat praktisch nix mit dem VRAM-usage zu tun. Und für dich noch mal: Die Bildschirmgröße auch nicht.
Zum 153. Mal: Sobald hohe AA-Level eingeschaltet sind ist die Auflösung alles andere, aber bestimmt nicht egal.
Darkseth88 schrieb:
Runterscrollen bis zu dem GTA 4 Pic. 800x600 Auflösung, 1300 mb VRAM verbrauch.

Natürlich verbraucht ne hohe auflösung mehr als ne kleine, aber der Unterschied ist so gering, dass man es vernachlässigen Kann. Der großteil kommt von den details und AA/AF
Was soll das Bild aussagen? Natürlich kann auch der Speicherbedarf bei niedrigen Auflösungen hoch sein, wenn die Details hochgeschraubt sind. Gerade die Texturauflösung ist für diesen verantwortlich.

Aber sobald AA eingeschaltet ist, hat die Dislplay-Auflösung meist einen hohen Einfluss auf den Speicherbedarf.
http://www.yougamers.com/articles/13801_video_ram_-_how_much_do_you_really_need-page3/

Von 800x600 auf 1600x1200 steigt der belegte VRAM von knapp 300 auf über 600MB. Bei 2560*1600 oder 5760x1080 (Eyefinity) wär das nochmals extrem viel mehr.

Mir Rätselhaft wie man das vernachlässigen kann.
AF kannste vernachlässigen, ka woher du nimmst das das viel Speicher kostet.
 
Zuletzt bearbeitet:
Ist zurzeit der Hype aus dem Grafikartenmarkt verschwunden oder kommt mir das nur so vor?

Zumindest ich empfinde nichts mehr für die großen Karten im Dual-GPU-Bereich! Der Zauber alter Tage à la ATI x2 / Nvidia GX2 scheint langsam zu verfliegen. Liegt das vielleicht an den völlig absurden Stromverbräuchen, die hier erwartet werden?

Wir sehen 2x8Pin bei NV und AMD?! Langsam befürchte ich, man müsste die PCIe-Spezifikation schreittweise drosseln auf 266W, dann 233W nicht immer höher wie die Hersteller mit solchen Karten fordern(300W++). Es würde der Umwelt bestimmt viel Gutes tun (jaja, blabla, ich weiß:evillol:). Dies wäre zumindest ein Vorschlag, dem Fortschritt folgen müsste.

Was diese AMD-Karte betrifft ist es mir weiterhin unbegreiflich, warum sie nie aus der Vergangenheit lernen. Der Kühler wird garantiert lauter als ein LKW! Sollte es wirklich noch Menschen in 2011 geben, die sich solche Schmerzen antun? Wakü mal außen vor gelassen, da die Karte bestimmt nicht unter 600€ zu haben ist. Plus Wakü wär man bei 700-800€ -> hm, bereits neuer PC? :freak:

Für das selbe Geld bekommt man schon fast 3x GTX570 bzw. 3x HD6970 (~300€ pro Stück), die wesentlich bessere Benchmarks und geringere Lautstärke bringen sollten. Wem es gefällt...!:lol:
 
Zuletzt bearbeitet:
Ich hatte 2-3 Jahre lang 2x HD4850 sowie eine HD4870X2 und 2x HD5750 und 2x HD5850.
Aber nachdem ich mal eine starke Singelkarte hatte, GTX285, bin ich von dem MGPU geheilt worden den selbst bei der halben Framerate war das Bild deutlich weicher als mit der umworbenen unglaublichen Kraft der zwei Herzen. Alles floss nun wie Butter in der Sonne ohne das lästige Stottern bei 50 FPS ect.

Microruckler sind immer vorhanden und sie zeichnen sich durch ein unnachgiebiges permanentes Stottern aus, was selbst in hohen Framerates deutlich zu erkennen ist. Das geht sogar so weit, das man Schriften in Games kaum lesen konnte.
Einmal SingelGPU verwendet und mein Augenleiden ist verschwunden.

Seitdem, MGPU ? Never Ever !

Tja, ohne V-Sync ist das so :p
Mit V-Sync ON erkennt man nämlich auch erst, WIE FLÜSSIG MGPU bei konstanten 60 FPS sein kann ;)

Die FPS werden auf maximal 60 gedrosselt und nerviges Tearing gibt's auch nicht...
...allerdings dafür leichten "Mauslag"

MGPU ? Yes please ! (aber nur mit V-Sync)

Ach übrigens:
perfekt butterweich kann es auf TFTs technisch bedingt eh nur dann laufen, wenn FPS = Hz-Frequenz des Monitors (d.h. 60 FPS = 60 Hz)

Allerdings werden mit starken SGPU-Karten (GTX 570 / 580 / HD 6970 etc) nur in den wenigsten Spielen diese minimum 60 FPS NICHT ereicht (z.B. Crysis bei einigen Stellen mit 4xAA, Metro 2033 DX11, Lost World 2 DX11), von daher relativiert sich das auch wieder mit dem "Sinn für ein MGPU-System"
 
Zuletzt bearbeitet:
Zurück
Oben