News Spezifikationen der HD 6990 (nicht) enthüllt

Krautmaster schrieb:
Tut mir Leid, aber hast du dir mal die Videos reingezogen vom BQ Test?

und weißt du den auch, dass solche tests auf mindestens 27" bildschirmen stattfinden, da man sonst das flimmer kaum wahrnimmet? vorallem sind diese test extra dafür angelegt um sowas zu entdecken, bei spielen bemekst du es nicht, den kaum einer spiellt in solchen ausflösungen, geschweige den,d ass er af-tester als spiel bezeichnet.
 
Eisenfaust schrieb:
Das ist zu lesen, daß durch das neue VLIW4-Design die doppelt genaue Fließkommaarithmetik nun ca. 1/4 der entspräche, welche man für die einfach genaue Fließkommaarithmetik veranschlägt. Das klingt vorerst einmal sehr verlockend, de facto aber bringt AMD diese Rechenleistung, im Gegensatz zu nVidia, aber nicht auf die Rollbahn. Ein nettes Werbearugment, mehr auch nicht.
Also bei doppelter Genauigkeit bekommen die Radeons die Leistung auf den Boden, da das Problem mit der Fülrate der VLIW-Einheiten nicht mehr besteht. Die schaffen das da tendentiell besser, als die nvidias ;)

Übrigens würde ich mir von der nominell gestiegenen DP-Rate (1/4 statt 1/5) nicht zuviel erwarten, da jetzt nicht mehr in jedem Fall noch parallel Integer- oder SP-Operationen ausgeführt werden können (DP hat auf RV670 bis Cypress immer nur maximal 4 der 5 VLIW-Slots belegt). Das war nämlich mit ein Grund, warum die AMDs in DP oft näher an ihre Peakraten gekommen sind. Ein wenig Controlflow/Overhead oder sonstwas hat man meist ja doch.
 
Segelflugpilot schrieb:
Von der Leistung her wird sie abe rnicht mit den neuen nvidia karten mithalten können oder?
Also mit der Doppel-GPU Karte von nvidia, dafür aber viel weniger strom:)
Die HD6990 hat mit weniger Stromverbrauch mehr Power, außerdem hält Nvidia mit der GTX590 die Spezifikationen NICHT ein.
Dr. Greg House schrieb:
Seit der 4er-Reihe gibt es DVI-HDMI Adapter, die in der Regel im Lieferumfang enthalten sind, und auch Sound über DVI übertragen...
Ging schon mit der HD3870.
Eisenfaust schrieb:
Das klingt vorerst einmal sehr verlockend, de facto aber bringt AMD diese Rechenleistung, im Gegensatz zu nVidia, aber nicht auf die Rollbahn.
So? Beweise bitte. hier von mir mal ein (schon älterer) Beweis fürs Gegenteil:

readme von ighashgpu schrieb:
IGHASHGPU v0.80
Copyright (C) 2009-2010 Ivan Golubev, http://golubev.com

Description
This software using ATI RV 7X0/8X0 and nVidia "CUDA" video cards to brute-force MD4, MD5 & SHA1 hashes. Speed depends on GPU,

ATI HD5870:
~2400M/s single MD5
~795M/s single SHA1


ATI HD4850:
~980M/s single MD5
~720M/s batch of MD5s (down to ~420M for 400K hashes)
~305M/s single SHA1


nVidia GTX260 w/ 192SP:
~550M single MD5
~410M batch of MD5s (down to ~350M for 400K hashes)
~175M single SHA1


As ighashgpu supports salted hashes it's possible to use it for:

Plain MD4, MD5, SHA1.
NTLM
Domain Cached Credentials
Oracle 11g
MySQL5
MSSQL
vBulletin
Invision Power Board
and more ...

Eisenfaust schrieb:
Ich habe es bislang noch nicht geschafft, auch nicht mit nVidia, mit ausschließlich Opensourcemitteln die GPU zum Rechnen bewegen zu können. Stets ist ein 'geschlossener' binärer Treiber nötig (BLOB) oder es gibt einfach kein kompatibles, verwendbares SDK (und damit Lowlevel Compiler). Darunter leiden vor allem die Berkeley UNIX Derivate.

hm, ich weiss jetzt nicht genau was du mit open source genau meinst, aber ighashgpu ist freeware und funzt problemlos Nutzt halt CUDA und STREAM.
 
~DeD~ schrieb:
und weißt du den auch, dass solche tests auf mindestens 27" bildschirmen stattfinden, da man sonst das flimmer kaum wahrnimmet? vorallem sind diese test extra dafür angelegt um sowas zu entdecken, bei spielen bemekst du es nicht, den kaum einer spiellt in solchen ausflösungen, geschweige den,d ass er af-tester als spiel bezeichnet.

die Größe drüfte damit nichts zu tun haben... auf die Auflösung kommt es an.

Die Videos dürften 1:1 abgefilmt werden sein, in geringer Auflösung also. Und auch da sieht man im windowed bei 1:1 Wiedergabe die unsaubere Darstellung sehr deutlich. Es geht nicht darum ob man zwei Augen zudrücken kann um darüber hinwegzusehen, es geht darum, dass sowas nicht sein muss. Zumal die HD58XX ja das bessere Bild bietet.

Ich denke, dass es bei 3x24" @ 1920x1200 noch weit mehr ins Auge fällt als bei den Videos...

Edit:

Nur weil ich die BQ kritisiere, heißt das nicht, dass ich irgendwie pro NV bin (sonst hät ich keine ATI drin o.O)
Ich finds gut, dass die BQ untersucht wurde, was mir zeigt, dass diesbezüglich Nachfrage bestand und es auch aufgefallen ist!

Die HD69XX sollte das besser machen, sonst werd ich mich bei gleicher Leistung + ähnlichem Preis für Nvidia entscheiden.
Ich finde Abseits der Leistung und des Preises spricht nunmal BQ, SLI, 3D, Cuda und PhysX eben für Nvidia.
Ergänzung ()

der_henk schrieb:
@ REB3L

Diese Folie wurde bereits als Fake entlarvt.

macht ja auch Sinn da die richtige Folie so aussieht:

 
Zuletzt bearbeitet:
Wums schrieb:
Ist irgendwie etwas bedenklich wie hier jeder die Folie für 100% echt hält...^^

Nö, ich habe mich auch eher kritisch geäußert.
Irgendwie sollte man sich bis zum 13.12. das Lesen irgendwelcher News möglicherweise echten oder unechten Folien sparen ...
 
Die schlimmste Nachricht von allen: Laut den Folien haben sie die gleichen Filter die die 6800 Serie :-(.
 
@DED

Es ändert nichts daran das NV mit dem GF100 ordentlich Geld verdient hat, ganz gleich wie man es sieht, die aktuellen Produkte von NV basieren alle auf der Fermi Architektur. Damit hat man ein gutes Geschäft gemacht auch wenn das blöde Ding teilweise echt sch***e war. Jedenfalls drücken die Zahlen welche NV jüngst vorgelegt hat das aus. Und egal wie man es sieht, geht eine der beiden Firmen pleite sind wir die leidtragenden, AMD braucht NV genauso wie NV AMD braucht. Es müssten sogar noch mehr Hersteller her.

Und eins meiner beiden Systeme ist ein AMD, die anderen 2 PCs, ebenfals 1 Intel und 1 AMD habe ich nicht aufgführt. ;)
 
HD6990 ist so was von übertrieben, aber was sollst. Wer sie braucht der kann sie kaufen. In Sachen Namensgebung hat AMD wieder ins Klo gegriffen, das merkt man wenn man hier im Forum durch schaut. Das ist eine unfeine Art, nachahmung von Nvidia. Was die 6970 angeht, abwarten und Tee trinken. So wir hier einige ihre Grafikkarten Wechsel, ist so als würde man jeden morgen seine Unterbuchse wechseln. Schlimm finde ich das nicht, aber ein wenig bescheuert. Weil derzeit kein Spiel die Leistung braucht. Für die Zukunft zu kaufen ist genauso bescheuert. Morgen oder übermorgen kommen bessere Karten, aber die Spiele Industrie braucht so was überhaupt nicht, da viele sowieso Konsolen Ports sind und die mehr oder weniger schlecht als gut sind.
 
So jetzt möchte ich mich auch mal zu BQ der AMDs äußern.

Lest doch mal diesen Test bei bei HT4U.net durch, dann kann sich jeder seine eigene Meinung bilden. Der Test ist imo weit besser gelungen als der CB test. Sorry:

AMD Radeon HD 6800 Reloaded: Der Blick aufs Detail

Und mir geht es so wie auch den Testern:

Nach unserem Dafürhalten wiederholt sich das mit dem Filter Tester gezeichnet Bild hier. Achtet man genau auf die Flimmerneigung, so muss man diese allen AMD-Modellen in diesem Vergleich unterstellen. NVIDIAs High-Quality-Darbietung liefert hingegen ein weitesgehend flimmerfreies Bild.

Doch wir haben gerade etwas wesentliches erwähnt, nämlich das genaue Beachten. Die gezeigte Flimmerneigung ist für sehr viele Menschen überhaupt nicht auffällig, vielleicht weil es nicht auffällt oder es nicht als störend empfunden wird. Es ist also ein durchaus subjektiver Umstand, wie dieses Flimmern wahrgenommen wird. Hat man erst einmal ein Auge für solche Dinge entwickelt, achtet man auch genauer auf solche Erscheinungen.

Dazu gesellt sich der Umstand, dass trotz der offenbar mittels Filter Tester attestierten, schlechteren Filterqualität bei AMD, dieses Flimmern längst nicht in allen Spielen auftritt, sondern nur in manchen. Die Flimmerneigung der AMD-Modelle ist also sehr stark abhängig vom Content und der Umsetzung dessen in der Programmierung.

Darüber hinaus gibt es auch Titel, welche von Hause aus so stark flimmern, dass auch die Filterqualität einer NVIDIA High-Quality-Stufe nichts am Flimmern ändern. Als Beispiel sei an dieser Stelle der Ego-Shooter Crysis genannt. Achtet man in diesem Titel auf Texturflimmern, so wird man so viele Stellen finden, dass das Spiel überhaupt keinen Spaß mehr machen dürfte ;).

Vor allem der letzte Satz mit Crysis. Ich habe noch nie von jemandem vernommen, dass Crysis ne bescheidene Grafik hat weil es flimmert ohne Ende (auch auf Nvidia). Wenn es aber doch so viele Leute stören würde wären doch nicht so viele von der Crysis-Grafik begeistert. Denkt mal nach.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
die Größe drüfte damit nichts zu tun haben... auf die Auflösung kommt es an.
Du kannst doch nicht behaupten, dass es nicht auf die Größe ankommt, aber gleichzeitig dürfte schreibst, weil du es nicht weißt.
Das ist ja mal sehr dürftig und es ist fraglich ob es weiterhin Sinn macht, sich mit dir darüber zu unterhalten, wenn du es nicht wirklich besser weißt.
Was aber auffällt bei dir ist die Tatsache, dass ständige von dir Intel und Nvidia ist so toll kommt und ständig du jeden kleinen Pupser als Argument nimmst um AMD schlecht zu reden. Das ganze auch noch mit dürftigen Argumente die aufzeigen, dass du es nicht wirklich weißt, sondern nur vermutest.
 
Einhörnchen schrieb:
Die schlimmste Nachricht von allen: Laut den Folien haben sie die gleichen Filter die die 6800 Serie :-(.

hm =/ sieht fast so aus ja... hoff einfach mal, dass es ein Treiberproblem ist oder irgendwie tweakbar ist. bei der HD58XX ist es ja mit neuem Treiber auch schlechter geworden.


manch einer findest vllt hochnäsig dass man sich an dem Flimmern aufreibt nach dem Motto "fällt ja garnicht auf bla blub"...

Einfach mal nachdenken. genau dieses Flimmern bedeutet ca 10% Vorteil - klar, man kann sagen "BQ runter, solang man kaums sieht... " aber dann kann man den Test an sich auch vergessen da das Ergebnis nicht dasselbe ist. CB hat richtig entschieden und testet die Barts (68XX) also nur noch mit hohen Quali Einstellungen, heißt für mich auch, dass man bei der Barts 5-7% abziehen muss. Und selbst dann ist man noch nicht auf dem Niveau der G100 BQ.

Auch wenns optisch kaum wahrnehmbar sein mag, ein Test ist nur in sofern aussagekräftig wenn auf dem Bildschirm auch dasselbe Ergebnis rauskommt.
 
aber dann kann man den Test an sich auch vergessen da das Ergebnis nicht dasselbe ist. CB hat richtig entschieden und testet die Barts (68XX) also nur noch mit hohen Quali Einstellungen, heißt für mich auch, dass man bei der Barts 5-7% abziehen muss. Und selbst dann ist man noch nicht auf dem Niveau der G100 BQ.

Es sind 3 % zwischen Quality und High Quality:

Bildqualität: AF: Performance
 
Ach Krautmaster, die Flimmerorgie mit Nvidia und Crysis regt auch keinen auf. CB und ganz sicher PCGH würden niemals einen Test dazu bringen. Keiner der beiden Redaktionen würde dies jemals artikulieren. Deswegen sind Tests zwar nett, aber ohne auch mal andere unter die Lupe zu nehmen ist es nur eine Meinungsbildung, die im Bezug auf AMD bei dir voll Wirkung zeigt. Deine Meinungsbildung wird genährt aus Berichte gegen AMD. Berichte gegen Intel und Nvidia beeinflussen deine Meinungsbildung eben nicht.
 
jup und selbst abzüglich der 3 % hat man immer noch die schlechte Quali. Ganz ehrlich, wenn die Karte mit der besseren BQ 3% langsamer wär würde ich sie trotzdem der anderen bevorzugen...

und lass es bei einer theoretisch exakt gleichen Quali 10% sein...

@Canopus

ka ist mir nicht bekannt...

Vielleicht hol ich mir einfach ne 6970 und ne GTX 580 und vergleiche dann ;) - kann ja jeweils 14 Tage zurückgehen.

Es geht eben um die Vergleichbarkeit im Test, da ist es doch in erster Linie mal Wurst wer den Unterschied wie sehr bemerkt. BQ kostet nun mal Leistung, wer weiß wie schnell ein G110 bei der Quali einer HD68XX wäre... wird dir aber keiner beantworten können. Jedenfalls kanns nicht der richtige Weg sein die BQ zu verringern um 3% mehr Performance zu bekommen...

... und wo kommt immer Intel is so toll, Nv soviel besser als AMD ... komische Unterstellung. Ich selbst würde eine HD5800 der GTX480 bevorzugen da die Vorteile überwiegen. Genauso wirds auch bei der HD6970 aussehen wenn die Leistung und das Drum Rum stimmt.
 
Zuletzt bearbeitet:
Zurück
Oben