News Erster Benchmark einer Radeon HD 6870?

Status
Für weitere Antworten geschlossen.
Imho wird das Nvidias letzter Monolithischer Chip oder Ati zieht entgültig davon.

Ati kann einfach günstiger produzieren ... bei der Diefläche von NV ist ein Fehler im Si oder im Herstellungsprozess einfach wesentlich wahrscheinlicher.

d.h ati macht einfach wesentlich mehr gewinn mit seiner Strategie der kleinen addierbaren chips ...

Die 5780 ist doch auch nur ne optimierte 2x 4870 auf einem Die ... die Kosten dieser Entwicklung halt ich für überschaubar.

Im vergleich dazu aht Nvidia richtig asche in die OpenCl und Cuda Erweiterung der aktuellen Generation gesteckt ... Riesen Die und nur ärger bis die yield raten der Produktion akzeptabel waren und se auf den markt konnten ...

Da hat ATI das Feld ersma 1/2 jahr alleine bestellt ...


Ehrlich gesagt vermisse ich echte Innovationen ...

Wie Energiesparfeatures wie beim CPU ... mit deaktivierung ganzer chipteile etc ...

oder wirklich massiv nutzbare Tesseleation

ähnlich effizientes 4x AA wie das 8x AA

oder n Smart FSAA das kaum Leistung frist...


Kurzum was Neues ....


Aber das ist nur mein persönliches auf Halbwissen basiertes Ansichtlein ...

wie gesagt bin ma gespannt ob das nur n Refresh mit 20-30% mehr Leistung wird oder ne neu Generation mit 50% mehr ...

Vermute Ati wird die Kuh noch a bissle melken da AMD ja nuh etwas hungert ...

mfg
 
Tudeski schrieb:
@Complication
3D gibt es von nvidia schon seit über 8 jahren. früher mit brillen, glaube geforce 2 oder geforce 3 war das. man konnte elsa 3d brillen kaufen und per analog an der graka anschliessen -- gab entsprechend kopfschmerzen bei crts unter 100mhz
Ebenso wie von Ati - mit den selben Nebeneffekten - es geht ja nicht darum ob es das gab, sondern dass man behauptet die einen wären Jahre hinterher - da existiert kein jahrelanger Vorsprung.
Die Hersteller sind hier gleichauf und es ist eines der meist überbewerteten Features ;)
Und ob die aktuellen Ansätze ebenfalls in einer Nische verschwinden ist auch noch nicht raus - alle 3 Jahre kommt die Technik wieder und versinkt ebenso wieder. Wenn die Filmstudios so weiter machen wird das ebenfalls schnell wieder passieren - TV- und Spieleproduktionen werden auf Jahre hinaus nur sporadisch mit 3D ausgestattet werden.
 
soll eigentlich mit den HD6k eine komplette Produktpalette kommen, sprich auch kleinere Ableger wie HD 6850 oder HD 6770, bzw. eine Dual- GPU- Karte wie HD 6970, oder bleibt es bei der HD 6870? Leistungstechnisch dürften sich abgesehen von der HD 6870 wohl alle anderen Karten mit aktuellen Karten überschneiden, könnte aber preislich interessant werden.
 
wegen otto normal verbraucher, wird es auch kleinere ableger geben, weil ottonormal verbraucher automatisch denkt 6570 ist besser als 5670 ;) obwohl es ja nicht stimmt.
ich vermute dass es ein refresh sein wird und deswegen auch die kleineren karten davon profitieren, die herstellung wird günstiger und die karten hersteller müssen wahrscheinlich nur minime änderungen durchführen für den refresh.

bestes beispiel eine 5450 wird von einer 3850 beim FPS immer noch geschlagen, dafür hat die 3850 wohl den grösseren stromhunger.
dennoch würde otto normalverbraucher behaupten eine 5450 bringt in games mehr leistung als eine 3850.
 
Zuletzt bearbeitet:
Complication schrieb:
Grade schreibe ich es und schon behauptest du Nvidia hätte 3D Jahre früher erfunden - Oh man :rolleyes:
Nvidia hat 3D Vision in 2009 Angekündigt:
Und die Nvidia Treiber können genau seit 2 Monaten 3D Vision Surround mit einem BETA-Treiber:

3D Vision wurde im Juni 2009 veröffentlicht. "Jahre" sind es tatsächlich nicht, das stimmt, sry. Aber AMD hängt jetzt schon mal 1 Jahr und 2 Monate hinterher und da frage ich mich, warum eigentlich? Innovation ist ja gerade nicht "ich warte mal ab, bis sich eine Technologie eines Konkurrenten etabliert hat und schlage dann mit einem Abklatsch zu".
 
@cey und casul: Das ist doch alles nur dummes Fanboygelaber was Ihr von euch gebt.
AMD war mit der HD5870 vor der GTX 480 dran, ein halbes Jahr und die Karte ist nur 10% langsamer. Und mit dem Nachfolger zieht man jetzt an Nvidia vorbei. Was Nvidia mit den Fermi-GPUs abgeliefert hat ist einfach Schrott! Anstatt die Zeit in die Entwicklung von überflüssiger 3D Technik zu stecken, hätte man mehr an der GPU arbeiten sollen. Was dabei herauskam ist doch nichts als ein fauler Kompromiss: Hohe Leistung auf kosten des Stromverbrauchs. Wenn ne Radeon fast die selbe Leistung bringt und ein drittel weniger Strom frisst ist das doch eindeutig besser und das obwohl AMD ein halbes Jahr früher dran war. Also kommt mir nicht mit euren nebensächlichen Features wie PhysX und Cuda oder 3D Vision! Diese Dinge werden sowieso bald im Sand verlaufen und durch offene Standarts ersetzt. Mit der Tessellationsleistung wird AMD sicher auch aufholen oder Nvidia sogar überholen. Man weis ja was die GTX leistet und hat Mittel und Wege die Performance in diesem Bereich zu steigern. Und wenn die HD 6870 dann 250 Watt verbrauch, wen interessierts? Ihr Nvidia Fanboys rechtfertigt den Stromverbrauch doch eh immer mit der Leistung, 250 Watt bei mehr Leistung als die GTX 480 mit 300 Watt bringt, sind immer noch besser.
 
@GunnyHartman:

Es wäre schön, wenn auch die mal die Fakten, die Fakten sind, akzeptieren würdest:
Zum einen, dass die GTX 480 im Schnitt 15% und nicht nur 10% schneller ist, siehe z.B. den CB-Test, auch im PCGH-Leistungsindex hat die GTX 480 15% Vorsprung. Denn 15% ist dann auch schon fast der Wert, den dieses ominöse Benchmarkergebnis als Vorsprung der 6870 gibt.
Zweitens liegt der Stromverbrauch bei 230W und nicht 300W in Spielen (Und Furmark ist kein Spiel), florian. und ich haben weiter oben die Quellen genannt.

Anbetracht der Tatsachen immer noch von "fast die selbe Leistung" zu reden, ist Verdrehung der Tatsachen, dann ist die GTX 470 nämlich auch fast so schnell wie die 5870.

Und außerdem tuts in den meisten Spielen eine 5770 doch genauso (Hey, Antialiasing und AF ist doch "nebensächlich", das braucht man doch gar nicht wirklich.) Warum bist du dann du konsequent und empfiehlst nicht die deutlich sparsamere 5770 gegenüber der 5870?

Du kannst bei deiner Meinung, dass 3D überflüssig ist, gerne bleiben, aber erstens siehts gut aus (hast dus getestet?) und wenigstens wird dadurch die Grafikkarte auch ohne SSAA sinnvoll beansprucht - oder wie willst du den Mehrpreis einer 5870 gegenüber einer 5850 rechtfertigen, bloß um 8x statt 4x MSAA vermehrt einstellen zu können?

Ach ja, AMD nennt seine 3D-Technik "Open 3D" - auch so ein suggestiver Titel. Das is nix anderes als 3D von AMD. Und ich glaube kaum, dass ein Monitorhersteller Nvidia irgendwelche Lizenzgebühren zahlen muss, um ihn mit 120 Hz zu verbauen. Ich bezweifle auch, dass irgendwelche Spieleprogrammierer Nvidia Lizenzgebühren zahlen müssen, warum sollten sie auch? 3DVision ist also genauso "offen".
 
Zuletzt bearbeitet:
Cey123 schrieb:
3D Vision wurde im Juni 2009 veröffentlicht. "Jahre" sind es tatsächlich nicht, das stimmt, sry. Aber AMD hängt jetzt schon mal 1 Jahr und 2 Monate hinterher und da frage ich mich, warum eigentlich?
Weil es
  1. Nur 2 Monate sind - siehe seit wann der Treiber das überhaupt tatsächlich unterstützt. (oder sind die Menschen auf dem Mars gelandet weil die NASA drüber redet?)
  2. weil es ein völlig unwichtiges Feature ist - wen interessiert das ausser die Presse?
  3. Weil es einfach im Treiber implementiert werden kann zu jeder Zeit, wenn man es für nötig hält.

Für mich ist Eyefinity ein wesentlich praktikableres Feature mit wesentlich mehr Nutzen als 3D. Aber darum ging es ja nicht - es ging lediglich darum dass du eine Innovation jemandem zuschreibst der es weder als erstes hatte noch exklusiv hat.

Ich wollte das lediglich korrigieren nach dem Motto. "Wer hat's erfunden?"
 
Zuletzt bearbeitet:
Welchen Grafikkartenhersteller interessiert sich in 3 Jahren noch 3D?

Wenn es stimmt wird in 3-5 Jahren sowieso die Monitore das 3D übernehmen und das auch ohne Brillen.
Dafür brauch ich kein nvidia.
 
Complication,
@1: 3D Vision Surround ist was ganz anderes als 3D Vision... für 3D Vision Surround ist die Hardware eh noch nicht erfunden.
@2: Auch dich frage ich: Hast du es selbst mal getestet? Außerdem gibt es viele Leute, die meiner Meinung und von 3D begeistert sind.
@3: Warum hat es AMD dann noch nicht getan?

Ich sagte doch mehrmals, dass ich nicht behaupte, dass es Nvidia erfunden, sondern für die breite Masse verfügbar gemacht hat.


Kartenlehrling schrieb:
Wenn es stimmt wird in 3-5 Jahren sowieso die Monitore das 3D übernehmen und das auch ohne Brillen.
Dafür brauch ich kein nvidia.

Was ist denn das für ne Argumentation? Natürlich ist die Technik in 5 Jahren weiter fortgeschritten, aber darum gehts ja nicht.
 
Zuletzt bearbeitet:
Cey123 schrieb:
Ich sagte doch mehrmals, dass ich nicht behaupte, dass es Nvidia erfunden, sondern für die breite Masse verfügbar gemacht hat.
Und ich versuche dir zu erklären das dies nicht stimmt:
http://www.iz3d.com/compatible
Für alle Hersteller und seit vielen Jahren auf dem Markt - seit 1997!
 
3D vision ist definitiv fortgeschrittener als iz3d: Monitorunabhängig (hauptsache 120Hz, geht auch mit beamern) - iz3d hat nur einen einzigen Monitor im Programm, SLI-Unterstützung.

Bzw... so richtig publik wurde 3D doch wirklich erst durch Nvidia in Games, vergleich doch mal den Anteil an 3D-Usern von vor 2-3 Jahren mit denen heutzutage. Leider kenne ich da keine genauen Zahlen, aber es wird schon ein starker Anstieg stattgefunden haben behaupte ich mal.
 
Na wenn du weisst was fortgeschrittener ist ... dann ist ja alles in Orndung.
Viel Spaß mit deinem Fanschal und deiner Fanmütze - nicht vergessen das Auto in den richtigen Farben zu lackieren ;)
Ergänzung ()

Cey123 schrieb:
Bzw... so richtig publik wurde 3D doch wirklich erst durch Nvidia in Games, vergleich doch mal den Anteil an 3D-Usern von vor 2-3 Jahren mit denen heutzutage. Leider kenne ich da keine genauen Zahlen, aber es wird schon ein starker Anstieg stattgefunden haben behaupte ich mal.
Da hast du aber sehr gut verglichen :evillol:
 
so hat eben jeder Hersteller seine Alleinstellungs Merkmale.

Nvidia:
3D vision
Physix

ATI:
Eyefinity
Audio

wem was wichtiger ist, kann doch jeder für sich Entscheiden...
 
florian. schrieb:
so hat eben jeder Hersteller seine Alleinstellungs Merkmale.
Nvidia:
3D vision
Physix
Ein Alleinstellungsmerkmal ist dass es kein anderer hat - 3D haben alle.
 
@Sylvestris

naja ich mach ich nichts schlecht ich sage nur was an dem Produkt schlecht ist ich habe ja auch gesagt was gut daran ist z.b tessellation.Und ich kaufe nur da wo es derzeit das besser gibt und um für mich das klarzustellen kaufe ich als einfach die karten bei den ich mich nicht entscheiden kann und teste sie.Weil bei den inet benches können die redakteure einfach ein scheiß hinschreiben was sie auch nicht manchen(aber man weiß ja nie) zudem geh mal auf 3 verschiedene tests von der 480er alle test sagen im grundgenommen anders aus.Und da ich das halt selber gerne wissen möchte teste ich sie SELBER.Und klar die 480er ist im schnitt auch schneller da kann man nichts dagegen sagen aber ihr macht aus 4-10 % so als ob es 50 % oder mehr wären und das weißst dann halt deutlich darauf hin das ihr (vllt nicht du Sylvestris) aber casul und cey verdammte fanboys sagen.Und wenn ich mir extra die karten bestellt habe sie sorgfältig geteset habe sogar 3 verschiedene raum temps und dann kommt hier einer behauptet immer das gegenteil ob wohl ich es schwarz auf weiß gesehn habe.

und nochmal ich rede die 480 nicht schlecht ich sage nur was ich daran schlecht finde und irgendwo ist sie auch eine sehr gut karte.besonders wenn man auf tessellation aus ist.

zu den verschiedenen grafikkarten die 470er wird oft mit der 5850 verglichen aber auch manchmal mit der 5870 z.b in spielen metro2033 dx11... aber es ist so das man eher die 480er nimmt um sie mit der 5870 zu testen.


@cey unter 1080p ist eine 5870 4-10 langsamer und keine 15-20 %.
 
Zuletzt bearbeitet:
Complication schrieb:
Ergänzung ()

Da hast du aber sehr gut verglichen :evillol:

Bin leider auch kein Statistiken-Lexikon. Aber das Gegenteil (konstante 3D-User-Zahl) zu belegen, wird dir nicht leichter fallen. :)

Und da du meiner Frage, ob du selbst 3D ausprobiert hast, ausgewichen bist, geh ich mal davon aus, dass du es noch nicht getestet hast. Denke damit disqualifizierst du dich aus der Diskussion, genauso wie Politiker die über Killerspiele debattieren.

Zu behaupten, 3D hätten alle, stimmt einfach so nicht, nur weil iz3D auch einen AMD (aber nicht CF)-Kompatiblen 3D-Monitor anbietet. Damit weichst du nur der Frage aus, warum AMD nicht auch inzwischen schon längst "Open3D" veröffentlicht hat.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:

Na jetzt wird es doch schon konkreter !

Die HD6800 ? (Ob 6870 oder 6850 noch offen) ist wohl in Unigine Heaven jetzt der GTX480 ebenbürtig.
Im Vantage schlägt sie sie klar mit 20-30% !
Auch laut Crysis zieht sie locker vorbei. :D
Somit verstummen die Gerüchte über die schlechterer Renderleistung bei älteren Games.
Die HD6800er ist wirklich so stark wie es den Anschein hat.

Die HD6850 ist schon so gut wie bestellt. ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben