News Erster Benchmark einer Radeon HD 6870?

Status
Für weitere Antworten geschlossen.
AMD/ATI weiter so ihr seit auf beiden Fronten gut.

Ich weiss nicht habe da so ein Gefühl das die Firma auf beiden Gebieten so langsam richtig durchstartet.
Bin ja mal gespannt ob ich richtig liege. nach dem was ich alles so Lese wird es ja vor 2011 auf dem Grafikkartensektor mal wieder interessant und 2011 im CPU Bereich
hier dann auch mit der GPU in der Die vom Prozzessor.
Auch Bulldozer zeigt doch auch ein gewagten Entwurf der einer Revolution nahe kommt.

Ich glaube CPU und GPU Entwicklungsabteilungen tun voneinanderer profitieren und bringen beide Bereiche voran , da ja alles über eine Firma läuft, auch bei den Fertigungsverfahren wird es bestimmt für jeden Bereich was geben was die andere Abteilung auch von nutzen ist MFG :)
 
Zuletzt bearbeitet:
Wichtiger ist die Aussage, das AMD die HD6750,HD6770,HD6850 und die HD6870 noch vor Weihnachten full am Markt haben wird. Alleine damit wird Nvidia so massiv unter Druck geraten das deren Weihnachtsgeschäft ins Bodenlose fallen wird. Wenn dann bis März auch die restlichen unteren Karten verfügbar sein werden, ab April Fusion anrollt, was will bitte Nvidia hier noch erreichen? Das Unternehmen hat sogar den Ausstieg verpasst und macht alles nur noch schlimmer.
 
GunnyHartman schrieb:
Ja Ich rechne ja auch am ehesten mit maximal 400 mm², aber 420 bis 450 mm² halte Ich durchaus auch für möglich. So wie Ich AMD kenne, wird man auf eine möglichst hohe Ausbeute schauen und dementsprechend die GPU möglichst klein halten. Wenn die Karte das Leistet, was dieser kleine Bench zeigt, kann AMD die HD 6870 für 500€ verkaufen und macht damit dicke Gewinne.

Hm, 500 EUR.... ?
Ist schon pervers, das WIR für eine Grafikkarte mehr ausgeben, als eine komplette PS3 mit
guter Grafikleistung UND incl. einem Blu-Ray Player (Laufwerk) kostet.

So langsam fehlen da die Relationen meint ihr nicht ?

P.S. ICH persönlich rüste erst auf wenn sich meine Grafikleitung VERDOPPELT.
Da ich derzeit noch eine GTX 285 drin habe, kann ich getrost bis nächstes
Jahr warten (und hoffen das es eine gibt die doppelt so schnell ist)
 
@mastermc51
Naja, du willst die Leistung einer möglichen 6870 mit einer PS3 vergleichen?
Da knnst du auch einen Ferrari gegen eine Mercedes E-Klasse antreten lassen:
Mit beiden kannst du fahren, nur Beschleunigung und Höchstgeschwindigkeit ist ein anderes Niveau.
Wenn dann solltest du eine 67xx gegen ne PS3 antreten lassen...aber dann stimmt dein Vergleich ja nicht mehr (ganz zu schweigen, dass hier einfach mal ein Preis in die Runde geworfen wird, der schon lange nicht mehr von standard-ATI Grafikkarten erreicht wurde)

zum thema:
mhhh, hoffentlich wird ATI nicht zu dominant. Davon hat niemand was...
 
mastermc51 schrieb:
Hm, 500 EUR.... ?
Ist schon pervers, das WIR für eine Grafikkarte mehr ausgeben, als eine komplette PS3 mit
guter Grafikleistung UND incl. einem Blu-Ray Player (Laufwerk) kostet.

So langsam fehlen da die Relationen meint ihr nicht ?

Stell dir mal vor, so eine HD6870 würde in der PS3 werkeln... :love:
Dann hätten wir auch keine so billigen Konsolenports mehr !

Nur leider werkelt da keine High-End Karte drin, sondern nur eine Mid-Range aus 2005. :freak:
Ach ja, wusstest du das die PS3 Hardware subventioniert werden muss ?
Schön das sie so günstig ist, aber allgemein eigentlich nicht zu bezahlen wäre, wenn Sony nicht kräftig zuschieben würde.

P.S. ICH persönlich rüste erst auf wenn sich meine Grafikleitung VERDOPPELT.
Da ich derzeit noch eine GTX 285 drin habe, kann ich getrost bis nächstes
Jahr warten (und hoffen das es eine gibt die doppelt so schnell ist)

Na dann hast du ja die richtige Karte schon gefunden !
Die HD6870 ist laut diesem Benchmark ca. doppelt so schnell wie eine GTX285. ;)
Also schnell vorbestellen. :D
 
Wenn es keine Konsolen gäbe hätten wir viel schönere PC-Spiele.
Was bringt da die schnellste Graka die so viel Tolles kann, wenn die Spielegrafik das einfach nicht nutzt. Ich bin schon auf Crysis 2 gespannt, wenn die, die ganzen Kastrationen für die Konsole auch für den PC drin lassen sieht es schlechter als der erste Teil aus.
 
Naja, noch sind alle Möglichkeiten der spielunabhängigen Bildqualitäterhöhung noch nicht ausgeschöpft. Vom Thema mehrere Bildschirme und/oder 3D, was ja beides sehr starke Grafikkarten benötigt, ist Supersample-Antialiasing noch so ein Kandidat, für den die aktuelle Hardware noch nicht stark genug ist. Wobei sich natürlich die Frage stellt, wer für Kantenglättung, die nur einen Tick besser ist, hunderte von Euros ausgibt.
 
Hoffentlich gibts nicht wieder so nen Verfügbarkeits blabla release um die Preise künstlich in die Höhe zu treiben mit dem verd....ten TSMC O-ton!

Konnts damals nicht mehr hören und bestellte meine für damals 210,- nicht lieferbare 5850 nach 3 Monaten Warterei ab!

Das ist der einzige Mist mit dem sich ATI künftige Kundschaft noch vergraulen könnte, ansonsten haben sie imho alle Trümpfe in der Hand.

Nach jahrelanger NV Vergangenheit und einem tollen halben Jahr mit der 5870er Referenz muss sich NV was gutes einfallen lassen damit alsbald nicht ne 6870 in meinem rechner schlummert - in meinem zumindest!
 
ronrebell schrieb:
Das ist der einzige Mist mit dem sich ATI künftige Kundschaft noch vergraulen könnte, ansonsten haben sie imho alle Trümpfe in der Hand.

Was hat ATI mit der Verderbtheit der Händler zu tun ?
Die Preisempfehlung stand fest und Karten waren mit Sicherheit auch verfügbar. Nur daran hat sich bis Heute kaum jemand gehalten.
 
.... hängt wahrscheinlich alles irgendwie zusammen ---- die Firma behauptet die Händler schlecht bedienen zu können, aus welchen gründen auch immer --- diese wiederum drehn an der Preisschraube weils ja so wenig gibt usw. --- hängt imho viel mehr zusammen wie wir das vermuten ---> ist halt meine Meinung ----> mit der Verderbtheit geb ich dir Recht!
 
Ich werde es erst mal wie immer halten.

Die ersten Test abwarten und in der Zwischenzeit gepflegt einen Tee trinken.

Danach kann jeder entscheiden, welches Produkt ihm besser gefällt.

Wenn das P/L (bzw. das Gesammtpaket) stimmt, könnte ich mit einer 6870 schwach werden.

Wenn man verschiedenen Tests glauben kann, wird es mit 5040 X 1050 auch mit einer 5870 schon mal eng.
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/#abschnitt_einleitung

Mit wäre auch das Thema Stromverbrauch schon wichtig.
Man macht ja am Rechner auch mal Dinge, die der Graka kaum Leistung abverlangen.
 
Riecht doch nach einem Fake.

Mögen wohl teils interessante Daten drinne stehen, aber ob da nun alles genau so original ist, ober verhübscht wurde?! Die geringe Aiflösung macht es schon komisch ;-)
 
Wenn ich die letzten Beiträge so lese... Mein Gott, die Nvidia-Fanboys können und wollen es einfach nicht wahrhaben. :D

Fermi ist und bleibt ein "Epic Fail" (GTX460 ausgenommen) und AMD wird die schnellste Single-GPU Grafikkarte auf den Markt bringen, die außerdem eine viel geringere Leistungsaufnahme aufweisen wird. Also findet euch endlich damit ab. :cool_alt:

@Thema:

Wie schnell ist/wäre eine HD5870 mit 1600Mhz Speichertakt? Dann könnte man etwas einfacher über den Aufbau des Kerns einer HD6870 spekulieren.
 
Zuletzt bearbeitet:
Ich habe nicht den ganzen Thread durch gelesen, aber mal so ne Frage: Woher wollt ihr denn wissen, wie hoch die Energie-Effizienz der noch nicht "existierenden" Grafikkarte(n) ist/sein soll/wird?
...und aus den Vorgänger zurück zu schließen, dass die kommende Generation einen ähnlichen oder gar besseren Verbrauch hat, ist doch lächerlich und teilweise gewagt.

Sorry fürs evt. OT.
 
@NX84GS

natürlich ist es das, alles Spekulation.
Eins ist aber sicher, Leute werden weiterhin Grafikkarten über 300W Leistungsaufnahme und jenseits von 60dB bereitwillig kaufen.
 
BestPower²TDP schrieb:
Wichtiger ist die Aussage, das AMD die HD6750,HD6770,HD6850 und die HD6870 noch vor Weihnachten full am Markt haben wird. Alleine damit wird Nvidia so massiv unter Druck geraten das deren Weihnachtsgeschäft ins Bodenlose fallen wird. Wenn dann bis März auch die restlichen unteren Karten verfügbar sein werden, ab April Fusion anrollt, was will bitte Nvidia hier noch erreichen? Das Unternehmen hat sogar den Ausstieg verpasst und macht alles nur noch schlimmer.

Ja eben, was hat dem Nvidia noch entgegenzusetzen? Nichts! Man könnte nur noch eine GTX 485 mit 512 Shadereinheiten bringe, die dann aber nochmal ineffizienter wird als die GTX 480 und womöglich auch nicht an eine HD 6870 rankommt. Oder man bringt ne GTX 490 die aus zwei GF 104-Chips aufgebaut ist, aber auch nur der verzweifelte Griff nach der Krone wäre. Die Umsätze im Low-End und Mid-Range - Segment sind bei Nvidia doch schon längst massiv eingebrochen, da man lieber auf das Umlabeln von G92b-Chips gesetzt hat, anstatt auf Basis des GT200 frühzeitig Chips für diese Segmente zu entwickeln. Und selbst diese wären den Karten von AMD noch unterlegen gewesen.


mastermc51 schrieb:
Hm, 500 EUR.... ?
Ist schon pervers, das WIR für eine Grafikkarte mehr ausgeben, als eine komplette PS3 mit
guter Grafikleistung UND incl. einem Blu-Ray Player (Laufwerk) kostet.

So langsam fehlen da die Relationen meint ihr nicht ?

Naja der Vergleich hinkt etwas. Man kann einen PC nicht mit einer Konsole vergleichen.
Aber es gibt Leute, die bereit sind 500€ und mehr für eine Grafikkarte auszugeben.

Cey123 schrieb:
Naja, noch sind alle Möglichkeiten der spielunabhängigen Bildqualitäterhöhung noch nicht ausgeschöpft. Vom Thema mehrere Bildschirme und/oder 3D, was ja beides sehr starke Grafikkarten benötigt, ist Supersample-Antialiasing noch so ein Kandidat, für den die aktuelle Hardware noch nicht stark genug ist. Wobei sich natürlich die Frage stellt, wer für Kantenglättung, die nur einen Tick besser ist, hunderte von Euros ausgibt.

Und ob man als Mensch überhaupt noch in der Lage ist, solche Qualitätserhöherungen noch wahrzunehmen. Eine Alternative wäre auch die Auflösung der Monitore zu erhöhen, die ja seit Jahren bei 2560*1600 Pixeln stagniert.
 
Zuletzt bearbeitet:
Na wenn der Tread mal nicht wirklich aus den Fugen geraten ist und zum Großteil aus Fanboy gebashe besteht^^......
Ne aber mal im ernst, ich kapiers einfach nicht, warum kann man als Nvidia od. ATI Fan nicht einfach sagen ja ich bin Fan und kauf deshalb die Produkte, egal ob sie besser od. schlechter als die entsprechenden aktuellen Produkte der Konkurrenz sind? Bissle über den Tellerrand hinausschauen sollte man schon können! Ich persönlich hab z.B. seit Jahren nur Nvidia verbaut und wusste schon seit der 3k Serie von ATI das diese auf dem besseren Weg sind als Nvidia. So "gut"/"schlecht" Nvidia auch sein mag, klar ist das sie sich seit Jahren wie ein kleines Kind mit Scheuklappen verhalten, dass einfach nichts dazulernen will. Man hat stehts am Konzept der Monsterchips festgehalten, obwohl man diese spätestens seit der 2xx nichtmehr rentabel fertigen kann und sich dies bereits deutlich früher abgezeichnet hat. Mit Thermi hat man nunmal alles falsch gemacht bzw. alles daran gesetzt schneller zu sein als eine 5870, egal zu welchem Preis. Man hätte auch den Weg gehen können wie ATI damals mit den 3k Modellen. Ja dann wäre man eine Gen nicht an der Krone gewesen, hätte vermutlich aber deutlich rentabler fertigen können und wäre nicht so in die Kritik gekommen und hätte weniger Imageschaden erlitten.
Jetzt wird es mMn für Nvidia einfach umso schwieriger überhaupt den Anschluss zu halten, schließlich ist man am Limit was die Leistungsaufnahme angeht, alles darüber ist quasi nimmer zu Kühlen. Wie gut sich der 104er ausbauen lässt ist eine andere Frage, insbesondere da er bei weitem nicht so Effizient ist wie die 5k Architektur. Insofern darf man sich schon Fragen was das Nvidia Fanboy gelabber soll? Meine Güte jetzt ist halt mal ATI vorne, Nvidia war lange genug oben! Tut Nvidia mal gut wieder bischen Boden unter den Füßen zu spüren, dann legen die auch mal ihre Arroganz eventuell ab und lösen sich möglicherweise sogar von ihren Eigenentwicklungen und gehen sowie ATI auf offene Standarts über.

Wiegesagt ich denke die zwei größten Fragezeichen bei der 6k Serie werden Preis und Verfügbarkeit sein. Wenn diese beiden stimmen sehe ich einem großen Erfolg seitens ATI nichts im Wege stehen, mag sein das sich der kauf von ATI durch AMD dann wirklich rechnen wird. Wie es für Nvidia weiter geht weiß ich nicht, rosig sieht es nicht aus. Man ist sowohl im mobilen als auch im desktop Markt auf dem Rückzug und insbesondere im IGP Markt sieht es halt überhaupt nicht gut aus dadurch das Intel und AMD hier Nvidia quasi ausgeschlossen haben. Tegra etc. ist jetzt auch nicht der Erfolg und CUDA und Physix haben sich auch nicht wirklich durchgesetzt und das wird jetzt auch immer unwahrscheinlicher je weniger Nvidia Karten verkauft werden. Insofern bin ich schon sehr gespannt ob es Nvidia mit dem 28nm Prozess wieder schafft ran zu kommen, ich denke vorher wird das nix.
Mfg
 
Also ich hallte sehr viel von den "Profis" von CB das sind natürlich Spekulationen, die aber
auch durch realistische Daten und Hochrechnungen "belegt werden.

Ich selbst schau bei einer Grafikkarte auf den Speicherbus(breite) und ein wenig nach dem Takt
so richtig Ahnung vom Aufbau einer GK habe ich nicht somit sind meine Aussagen ein Spekulation (ohne Fakten).

Da aber eine HD 5870 nur wenig Abstand zu einer GTX 480 hat und sie ja in vielen Bereichen besser ist, ist es anzunehmen das ATI die ja in dem Fall kein "Rennen" um die Fertigstellung
und Ausliefung der neusten Grafikchip_s macht, da es ja schon gelaufen ist. ("Sieger" ATI)

Ihren "Gegner" kennen, jeder kann Ihn ja kaufen, (ihn wie es zb NV mit der GTX 460 vorgemacht hat (HD 5830) analisieren und dann schlagen in den Bereichen wo es Ihnen
möglich ist)

ATI wird bestimmt die GTX 480 hochrechnen zu um ca die Leistung einer GTX 485 zu erfahren
Reicht ihr Chipdesign nicht wir nachgebessert bis es passt um so min die Leistung der
vlt GTX 485 zu schlagen.
NV kann Termi so gut wie nicht verändern allso steigt mit sehr hoher Wahrscheinlichkeit der Stromverbrauch so und so noch höher.
ATI hat weniger Transistoren "verbraten" und kann hier noch nachlegen, wären aber natürlich schlecht beraten 1/3 mehr raufzupacken. gehe mal davon aus das ATI das auch weiss.
Ein paar ""Verbesserungen"" an "alten" Entwurf und ein paar mehr Transistoren dürfen hier
reichen. das hier ist aber mehr Spekulation da mir das Fachwissen fehlt_trotzdem glaube ich
das es so ungefähr natürlich sehr einfach dargestellt abgelauft ist. MFG :)
 
Zuletzt bearbeitet:
Ich Persönlich würde mich ja freuen wenn der Stromverbrauch auf dem Level der HD5870 bleibt aber ich denke er wird sich auf Ca 225 Watt hochschauckeln was aber bei der mehr Leistung auch akzeptabel wäre da ja der Fertigungsprozess nicht kleiner geworden ist.
Zumal ich es für sinnvoll halten würde wenn ATI in der Klasse einer 6970 6870 garnicht erst unter2*2GB respektive 2GB starten würde.
MFG
 
Zuletzt bearbeitet:
@fanboys: Gut das es sie gibt! Konkurrenz belebt nunmal das Geschäft und mir wären noch 5 Graka Mitbewerber samt Fanboy Gemeinde recht!

Holt ATI nochmal zu so nem Schlag wie beim 58XX release aus wirds mit den Preisen noch besch...eidener wie vor knapp nem Jahr.

Gott sei Dank hat sich NV mit dem GTX460er Wurf wieder ein wenig zurückgekämpft.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben