News Erster Benchmark einer Radeon HD 6870?

Status
Für weitere Antworten geschlossen.
Dr.Pawel schrieb:
So "gut"/"schlecht" Nvidia auch sein mag, klar ist das sie sich seit Jahren wie ein kleines Kind mit Scheuklappen verhalten, dass einfach nichts dazulernen will. Man hat stehts am Konzept der Monsterchips festgehalten, obwohl man diese spätestens seit der 2xx nichtmehr rentabel fertigen kann und sich dies bereits deutlich früher abgezeichnet hat. Mit Thermi hat man nunmal alles falsch gemacht bzw. alles daran gesetzt schneller zu sein als eine 5870, egal zu welchem Preis. Man hätte auch den Weg gehen können wie ATI damals mit den 3k Modellen. Ja dann wäre man eine Gen nicht an der Krone gewesen, hätte vermutlich aber deutlich rentabler fertigen können und wäre nicht so in die Kritik gekommen und hätte weniger Imageschaden erlitten.


Nvidia hat ja nicht alles falsch gemacht. Die Tesselationsperformance kann sich ja sehen lassen. Aber man hat mMn den Fehler gemacht und versucht eine Eierlegende Wollmilchsau zu kreiren. Der Chip soll für Spiele und fürs Computing gut sein. Solange man den GF100 in Tesla-Karten einbaut, ist das ja kein Problem. Aber für eine Spieler-Grafikkarte ist der GF100 einfach zu aufgedunsen. Der große Cache und die 3 Milliarden Transistoren sind einfach zu viel des guten.
Ich würde sagen, dass nVidia ein wenig die Prioritäten aus den Augen verloren hat. Man hat zu lange darauf geachtet möglichst schneller zu sein als die Konkurenz von AMD.
AMD hat dagegen seit der HD 3870 auf schlanke und möglichst effiziente Chips gesetzt. Die Architektur des R600 war ja nicht schlecht, nur ware das Fertigungsverfahren und die 512 Bit Speicheranbindung der Grund dafür, weshalb der Chip sehr ineffizient war. Aus den Fehlern des R600 hat man gelernt und das Speicherinterface halbiert. Man konnte eine ganze Weile nicht mit nVidia mithalten, war aber in der Lage relativ günstig zu produzieren. Mit der HD4XXX-Generation kam man dann näher an Nvidia heran und konnte über das P/L-Verhältnis punkten. Man hat das Konzept weiter verbessert und konnte so dann mit der HD5XXX-Generation ein noch besseres Produkt liefern. Nvidia kam erst ein gutes halbes Jahr später mit der GF400er Generation und hat AMD solange komplett den Markt überlassen. Aus dem Fehler der GF200-Karten hat man nichts gelernt: Die Anzahl der Transistoren stieg massiv auf 3 Milliarden, die Chipfläche ist sogar gestiegen gegenüber dem GT200b, trotz 40nm Fertigung. Wen wundert es da, dass Nvidia Probleme mit der Ausbeute hat und die Chips nur teuer produzieren kann.
Insofern hast du recht, dass Nvidia nur auf Monsterchips setzt.
Und jetzt steht die HD6XXX-Generation kurz bevor, die auch an den schnellsten GTX400 Chips vorbeiziehen dürfte. Gleichzeitig wird sie die bewährte R600 Architektur weiter optimieren. Die Chipfläche wird kaum steigen, gleiches dürfte für den Verbrauch gelten. Man wird billiger, schneller und effizienter als Nvidia sein. Wenn man mit weniger Transistoren, weniger Chipfläche und weniger Stromverbrauch schneller ist als die Konkurenz mit einem größeren Chip, kann man nur sagen dass man auf dem besseren Weg ist.


Dr.Pawel schrieb:
Jetzt wird es mMn für Nvidia einfach umso schwieriger überhaupt den Anschluss zu halten, schließlich ist man am Limit was die Leistungsaufnahme angeht, alles darüber ist quasi nimmer zu Kühlen. Wie gut sich der 104er ausbauen lässt ist eine andere Frage, insbesondere da er bei weitem nicht so Effizient ist wie die 5k Architektur. Insofern darf man sich schon Fragen was das Nvidia Fanboy gelabber soll? Meine Güte jetzt ist halt mal ATI vorne, Nvidia war lange genug oben! Tut Nvidia mal gut wieder bischen Boden unter den Füßen zu spüren, dann legen die auch mal ihre Arroganz eventuell ab und lösen sich möglicherweise sogar von ihren Eigenentwicklungen und gehen sowie ATI auf offene Standarts über.

Ja also Nvidia ist mit dem GF100 schon an der Grenze. Der GF100 müsste ja schon 30 - 40% vor dem RV870 liegen, da er ja jetzt auch noch gegen den Cayman antreten muss. Weiter ausbauen geht fast nicht mehr und selbst wenn man den GF100 im Vollausbau einsetzt, tut man dies auf Kosten des Verbrauchs. Mit dem GF104 wird man auch nicht sehr weit kommen. Da müsste man dann schon eine GF100b aus dem Ärmel schütteln, aber wie? Man müsste schon auf 28nm setzen, was aber momentan nicht geht.
Nvidia hat also einfach zu sehr darauf spekuliert, dass der große GF100 Chip alles in den Boden stampft. Nvidia sollte sich die Arroganz schnellst möglich abgewöhnen und muss jetzt auf die nächste Evolutionsstufe hoffen. Durch die Scheuklappenmentalität wird man sich auch den Weg in die nächste Konsolengeneration verbauen. Das wäre eine gute Chance um PhysX und 3D Vision groß zu vermarkten und weiter als festen Standart zu etablieren. AMD zeigt sich da deutlich kooperativer und setzt auf offene Standarts. Schlankere Chips sind zudem viel geeigneter für Konsolen. Da mMn der Spielemarkt der Zukunft zum größten Teil den Konsolen gehört, werden die Entwickler Ihre Spiele zu erst für diese entwickeln. Das heißt: kein PhysX, kein 3D Vision, kein TWIMTBP mehr. AMD wird weiter Marktanteile gewinnen, wenn Nvidia sich nicht ganz schnell besinnt und einen vernünftigen, sparsameren Konkurenzchip bringt.


Dr.Pawel schrieb:
Wiegesagt ich denke die zwei größten Fragezeichen bei der 6k Serie werden Preis und Verfügbarkeit sein. Wenn diese beiden stimmen sehe ich einem großen Erfolg seitens ATI nichts im Wege stehen, mag sein das sich der kauf von ATI durch AMD dann wirklich rechnen wird. Wie es für Nvidia weiter geht weiß ich nicht, rosig sieht es nicht aus. Man ist sowohl im mobilen als auch im desktop Markt auf dem Rückzug und insbesondere im IGP Markt sieht es halt überhaupt nicht gut aus dadurch das Intel und AMD hier Nvidia quasi ausgeschlossen haben. Tegra etc. ist jetzt auch nicht der Erfolg und CUDA und Physix haben sich auch nicht wirklich durchgesetzt und das wird jetzt auch immer unwahrscheinlicher je weniger Nvidia Karten verkauft werden. Insofern bin ich schon sehr gespannt ob es Nvidia mit dem 28nm Prozess wieder schafft ran zu kommen, ich denke vorher wird das nix.
Mfg

So wie es aussieht, wird die HD6K Serie schneller sein als die GF400 Serie von Nvidia. Sie wird auf jeden Fall weniger Strom verbrauchen und günstiger in der Herstellung sein. Da zeigen sich schon mal zwei Vorzüge des GPU-Konzepts von AMD.
Was man gerade auf dem Grafikkartenmarkt sieht scheint paradox zu sein: Die GTX400 Karten, die ja ein wenig schneller sind als die Radeons fallen im Preis, währent die Preise der HD5K-Karten annähernd gleich bleiben und teilweise über denen der GTX400 Karten liegen. Etwas ähnliches habe Ich noch nicht erlebt. Die schnelleren Karten die mehr Performance bieten sind billiger als die die etwas langsamer sind. Nvidia könnte die GTX 480 eigentlich locker für 500 bis 550€ verkaufen, also teurer als eine HD 5870 die 400 bis 450€ kostet. Schließlich ist die GTX ja schneller. Die Verfügbarkeit beider Karten dürfte etwa gleich hoch sein, auch wenn Nvidia etwas mehr Produktionskapazitäten haben sollte.
Es sieht also so aus, als ob Nvidia die Preise auf Grund des Stromverbrauchs senken musste. Wieso sollte Nvidia sonst die Preise senken?

Die Fermi-Architektur könnte mit der 28nm Fertigung interessant werden, sofern man den Chip nicht noch weiter aufbläht. Man könnte die Taktraten deutlich anheben und so eventuell an AMD vorbeiziehen. AMD wird dann aber die NI Generation bringen. Da bleibt abzuwarten wie gut die Architektur generell ist. Man wird wohl aber weiter auf schlanke Chips setzen. So wird man bei 400mm² die Zahl der Transistoren massiv erhöhen können.
Von daher wird der Wechsel des Fertigungsverfahrens noch lange nicht bedeuten, dass es mit nvidia wieder berg auf geht.

Nvidia haben wir es ja auch zu derdanken, dass es 3dfx nicht mehr gibt. Und ohne deren Know-How hätte Nvidia ja auch kein SLI. Schade, dass sich so viele GPU-Entwickler aus dem Markt zurückgezogen haben oder pleite gegangen sind.
 
Zuletzt bearbeitet:
Das urteil über die fermi karten,würde anders aussehen wenn es heute schon spiele geben würde die verstärkt tesselation einsetzen.wenn ich sehe das eine gtx 480 mafia2 mit den höchsten einstellungen und physx auf hi plus 3d vision bei 1080 p immer noch um die 30 fps liefert spricht das schon für den monsterchip!mich würde die leistung einer hd 5870 interessieren wenn sie dies alles zu berechnen hätte.der gf 100 zeigt erst dann eine gute efizienz wenn extrem leistung gefordert wird,leider ist bei den heutigen konsolenumsetzungen das sehr selten.mit ensprechender software würde fermi ati in den boden stampfen.
 
casul schrieb:
Das urteil über die fermi karten,würde anders aussehen wenn es heute schon spiele geben würde die verstärkt tesselation einsetzen.wenn ich sehe das eine gtx 480 mafia2 mit den höchsten einstellungen und physx auf hi plus 3d vision bei 1080 p immer noch um die 30 fps liefert spricht das schon für den monsterchip!mich würde die leistung einer hd 5870 interessieren wenn sie dies alles zu berechnen hätte.der gf 100 zeigt erst dann eine gute efizienz wenn extrem leistung gefordert wird,leider ist bei den heutigen konsolenumsetzungen das sehr selten.mit ensprechender software würde fermi ati in den boden stampfen.

So ein unsinniger Quatsch! Selbst wenn es solche Spiele gäbe, wäre die Leistungsaufnahme immer noch zu hoch. Das hat doch nichts damit zu tun, dass die Karte nicht gefordert wird.
Außerdem ist das kein Urteil, sondern eine Feststellung.
 
Die News stufe ich als Fake ein, der GPU Z Screenshot sag uns gar nichts aus, weil es geschwärzte Bereiche gibt, zweitens einige Bereiche keine Daten ausgelesen werden können.
 
@ MC BigMac:

öhm? und du hast über 3000 mal hier geschrieben? und hast immer noch keine ahnung?.... :o
 
Wenn man tesselationsleistung in relation zum verbrauch stellt und das dann mit der hd 5870 vergleicht,steht die gtx 480 sehr gut da.leider zeigt dies zur zeit nur der unigine banchmark.auch die hd 6870 wird bei gesteigerter tesselationsleistung einen deutlich höheren verbrauch haben.
 
casul schrieb:
Wenn man tesselationsleistung in relation zum verbrauch stellt und das dann mit der hd 5870 vergleicht,steht die gtx 480 sehr gut da.leider zeigt dies zur zeit nur der unigine banchmark.auch die hd 6870 wird bei gesteigerter tesselationsleistung einen deutlich höheren verbrauch haben.

Was macht dich da so sicher? mehr als 10 bis 20% dürfte der Verbrauch nicht steigen.
Außerdem wäre die Radeon immer noch effizienter als die GeForce, die dann ja immer noch gut 50 bis 70 Watt mehr verbraucht bei gleicher Leistung. Aber das ist ja alt bekannt, dass man bei der GTX 480 auf die Tessellationsleistung verweist, da man sich ja irgendwie einreden muss, dass die Karte was gutes hat.
 
Gerade die tesselationsleistung ist ja das entscheidene neue an direktx11 ,welchen sinn würde direktx11 sonst haben?eigentlich sind alle letzten karten total unterfordert bei den ganzen konsolenumsetzungen.wenn man mal physx und 3 d vision weg läst laufen doch alle spiele mehr als perfekt,aber gerade bei sachen wie physx ubd 3d vision wird die leistung auch mal genuzt.
 
NV fanboys ihr müsst das akzeptieren nun wischt ATi endgültig mit dem Fermi den Boden :D
 
Fragt sich nur womit?den alten vantage?ati=kein physx ati=kein 3d vision ati= schlechtere bq usw.vieleicht erst nach nen halben jahr später gleiche tesselationsleistung.also wo ist der vorteil ausser das sie etwas weniger verbrauch hat,der im hi-end segment eh unwichtig ist!
 
kein physix = wayne , kein 3d vision = wayne und schlechtere bildquali = wo ?????

nvidia hat keine guten karten atm sieh et ein
 
JokerGermany schrieb:
Können bitte alle die immer noch mit "Tesslation" nerven ihre Tesslation-Benchmark-Spiele spielen gehen? :rolleyes:
Absolute Zustimmung - wenn ich schon "Tessellationleistung" oder "Tessellation Performance" lese weiss ich dass derjenige ncoh nicht einmal begriffen hat dass damit lediglich mehr Dreiecke produziert werden.

Das einzige Game das Tessellation sinnvoll einsetzt ist Dirt2. Wenn die übertriebene Tessellation zu niedrigeren FPS führt ist die Renderleistung nicht stark genug die zusätzlichen Polygone zu füllen = schlecht balanciertes Spiel = schlecht programmiert oder ein Benchmark. Was soll es da bringen noch mehr zu tessellieren und noch mehr Polygone zu erschaffen die noch weniger FPS bringen?
Also meint keiner die Leistung des Tessellators wenn er von FPS spricht - diese Leistung wird nämlich in Anzahl der Dreiecke gemessen.

Also Bitte hört auf Tessellation Performance zu sagen wenn ihr Renderleistung meint.
Cey123 schrieb:
Aber kein 3D, da AMD geschlafen hat.
Aha - soso
ati-open-stereo-3d-initiative.jpg



Und http://www.iz3d.com/compatible gibt es ja erst einige Jahre länger als die GTX4xx Karten
:rolleyes:
Das ist ja wie zu behaupten Apple hätte das Telefon erfunden.
 
boah bei manchen kommentaren könnt ich mal sowas von kotzen ganz ehrlich.
Mal ein paar fakten: GTX 480 stamm aus diesem jahr und ist etwa 15% schneller als ne Radeon HD5870, die vom letzten (!!!) Jahr ist, braucht dabei deutlich mehr Strom, was total unnötig ist wie man bei AMD sehen kann. Dazu kommt, dass nVidia seit ewigleiten keine akzeptable Mittelklasse Grafikkarte besitzt, die mit der Radeon HD 57xx Serie konkurrieren kann. Was schließen wir daraus? nVidia hat mehr als ein halbes Jahr benötigt um mit Ach und Krach die Performancekrone zu kriegen was sehr zu lasten von Stromverbrauch und Lautstärke sowie Temperatur geht. nVidia hat seine Serie von Grafkkarten noch nicht mal fertig vorgestellt, da kommt AMD schon mit der nächsten besseren Serie^^. Also, da ist ja wohl sehr klar, dass hier nVidia mächtig hinterher hängt. Dann kommen noch so Scherze wie nicht vorhandene Toneinbindung in HDMI, das hat AMD schon sowas von lange und sollte als selbstverständlich angesehen werden. Mikroruckler haben beide, aber interessant ist das ja grade mal für 2% der Grafikkartenkäufer, da der ganze Rest Singlechip Karten hat.
Nach meiner Erfahrung mit nVidia Produkten kann ich nur sagen: ich kauf sowas nie wieder. eine gf7 Grafikkarte die es einfach nicht hinkriegen will eine einfache DVD ruckelfrei abzuspielen (zusammen mit Athlon64 X2 3800), was jede Ati Rage kann, was bitte soll man dazu noch sagen außer kacke? Ich konnte insofern auch nur gute erfahrungen mit den AMD Treibern machen, da hat alles von anfang an getan.
und ganz nebenbei: fällt es niemandem außer mir auf, dass grade in letzter zeit verdächtig viele geforce8 karten kaputtgehen? wer kann mir garantieren, dass das nicht mit den GTX400 karten auch passiert? bei AMD sind mir solche sachen nur von den ATI Radeon 9000 karten (wegen schlechter kühlung, mesitens defekte der Speicherbausteine oder Lötstellen) und den Radeon X1900 karten bekannt, die einfach sehr viel strom ziehen.
 
Zuletzt bearbeitet:
Auch wenn bei mir eine ATI 5970 werkelt ... bin ich langsam mal auf das gegenstück von Nvidia gespannt. Ich kann die ATI nicht mehr sehen. Vorher hatte ich immer eine Nvidia und bereue den wechsel -.- ...

Ich muss einfach immer wieder betonen wie viel Abstürze ich seitdem habe. Wie viele Grafikfehler. .. und natürlich einmal eine komplett neuinstallation weil der CCC sich absolut zerschossen hat.

Tut mir leid, aber ATI muss auch lernen die Hardware ordentlich zu nutzen ...mir kommt aufjedenfall nach diesem Fail keine mehr ins Haus.

-.- Der frusst musste nun raus. Von den Werten her .. ist diese Karte natürlich (mal wieder) nicht schlecht.
 
@Complication:
Jetzt, einige Jahre nachdem Nvidia 3D-Vision veröffentlich hat, fängt AMD mal an, seine eigene Kopie davon anzukündigen. Auf dem aktuellen Stand der Innovation kannst du das ja wirklich nicht nennen.

Ich habe ja nicht behauptet, dass Nvidia 3D-Technik erfunden hat, aber sie haben sie marktreif und offen für eine große Anzahl von Spielern gemacht.


Und ich glaub mal ein Großteil der Leute, die hier behaupten, dass 3D "wayne" ist, haben es selbst nicht getestet. WoW sieht zum Beispiel absolut geil darauf aus. Als erst selbst ein Meinung vor dem Urteil bilden ;)
Und dadurch wird eine High-End-Grafikkarte bei einem Monitor auch überhaupt erst richtig gefordert und der Kauf damit sinnvoller.

Hat Nvidia nicht mit der Fermi-Serie auch deshalb so viele Verluste eingefahren, weil TMSC nicht so richtig in der Lage war, die Produktion gescheit auf die Beine zu stellen, und jeder zweite Chip defekt war? Okay, AMD war durch die geringe Produktion auch ordentlich gebottlenecked, sonst wäre der 5850 ein viel größerer Hit geworden.



kaktus1337 schrieb:
NV fanboys ihr müsst das akzeptieren nun wischt ATi endgültig mit dem Fermi den Boden :D

So wie Nvidia sich die Leistungskrone mit der GTX 480 geholt hat, die mehrere Monate nach der 5870 rauskam, so wird sich AMD jetzt auch wieder die Leistungskrone wohl holen, mit einer Grafikkarte die mehrere Monate nach der GTX 480 veröffentlicht wird. Zeugt doch eher von Gleichberechtigung als dass irgendeiner im Vorteil wäre. (Und wer weiß, an was Nvidias Forscher gerade arbeiten...)

Und wiegesagt, der geringere Stromverbrauch ist "nice to have", die zusätzlichen Features wie 3D-Vision, bessere SLI-Unterstützung und GPU-Physx bei guten Titeln wie Mafia 2 betrachte ich jedoch als handfestere Vorteile, wie schon ausführlichst von mir erläutert, siehe oben...
 
Zuletzt bearbeitet:
Hier merkt man das einige noch sehr jung sind 3D gab es schon vor einem Jahrzehnt wenn ich mich recht erinnere so um 1999-2000 da gab es noch richtig viele verschiedene Grakas: Matrox G400, Nvidia RIVA TNT2, ATI Rage 128 Pro, S3 Graphics Savage4 und 3dfx Voodoo3.

Da hab ich mit der Elsa Revelator mal beim Kollegen Quake und eine der ersten Betas von CS gezoggt :cool_alt:

Ahh das waren noch Zeiten :D
 
genau so sieht es aus,und erstmal muss ati was zeigen von ihren ach so tollen öffnen Standard.bisher ist da nur heiße Luft gekommen!ich kann mich noch gut daran erinnern wie es bei der 2900xt war, da hatte ati keinen Stich gesehen und das bis hin zur Hd 4000 Serie.ihre hd3870x2 und Hd4870x2 mikroruckler Schrott Karten lassen mich heute noch zittern vor Wut,crysis erstes und zweites Level war eine Offenbarung,Nie wieder ati!jetzt drehen die ati Fanboys am Rad weil ihre Hd 5000 Serie mal nen bissen weniger Strom verbraucht aber nichts drauf hat in direkt x11 und tesselation.ATI=konsolenumsetzung.Nvidia=pc gaming vom feinsten.
 
cey123 ist das nicht schon gut genug was du dir geleistet hast ?.... z.b gestern nacht 480 OC und 875k OC ziehen bei dir nur 380 watt - 410watt aus der dose obwohl ein benchmark ein wattverbrauch von 550-640 watt zeigte.du erzählst als geschichten geh auf Nvidia seite und ruf den support an und sage wie sparsam und toll deine 480 doch ist.Hier interessierts kein schwein.

und die 6870 wischt endgültig mit dem fermi den boden.

wenn das so tolle vorteile sind warum hat dann die mehrheit eine 5870 genommen anstatt eine 480 und warum wird von der 480er abgeraten obwohl sie doch so so soo "tolle features hat"

weltweit gibt es nichtmal 20 spiele die physx supporten zudem lieber physx aus und ssaa benutzten nvidiafanboys sehen das zwar anderes klar weil sie immer meinen nvidia wäre immer besser als sti gewesen (wo ihr euch natürlich täuscht).

so ein schwachsinn casul und cey
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben