News Erster Benchmark einer Radeon HD 6870?

Status
Für weitere Antworten geschlossen.
GunnyHartman schrieb:
Aber 50 bis 100 Watt weniger Stromverbrauch bei gleicher Performance sind schon ein Argument.

Finde ich nicht, da die Performance nicht gleich ist.

Jeder der Grafikkarten in dem Preissegment kauft, kann PC-Spielen als in ernsthaftes Hobby bezeichnen. Und da achtet man darauf, dass das Spiel flüssig läuft und nicht, dass die Stromrechnung paar unbedeutende cent günstiger ist pro woche.

Netzteile sind heutzutage eh stark genug auch für ne GTX 480. Teuer wirds dann bei SLI/CF-Systemen diesbezüglich.
Gehäuselüfter: 2 reichen bei normalem CPU-Lüfter&Takt und alternativer Grakakühlung mit GTX 480, brauch mal also auch nix besonderes.

Bleibt also nur noch die Stromrechnung und damit eine einfach zu kalkulierende finanzielle Belastung. Wer sich eine Graka für 400 Euro kauft, der kommt auch mit 20 Euro pro Jahr höherer Stromrechnung klar.

Und sich hier als Ökufutzi zu profilieren und zu prahlen, wie effizient und stromsparend seine Grafikkarte ist, den will ich mal einfach fragen a) wieviele Lampen er so unnötig brennen lässt b) wie lang er sich duscht, wie lange die Klospülung betätigt c) wieviel Fleisch er isst d) wieviel Auto er fährt.

Wenn man bedenkt, dass eine alte Wohnzimemrstandleuchte bis zu 500W auf maximalleistung frisst, dann sind die 100W mehrverbrauch beim Zocken den Aufstand, der um sie gemacht wird, schlicht und einfach nicht wert. Und keinesfalls kein Argument, nicht zur GTX 480 zu greifen, wenn man die zZ schnellste Single-GPU-Graka haben möchte.

Der Lärm wäre ein Argument, aber wiegesagt, gute Luftkühlung macht auch die GTX 480 so leise wie die Radeon.
 
Zuletzt bearbeitet:
Der Cypress verbraucht bei 15 % weniger Performance einfach mal 100 Watt weniger Strom.

Bei DX9/10 kommt das wohl hin. In DX11 mit Full Tess sieht das ganz anders aus. Das Leistungs/Wattverbrauch-Verhältnis scheint dort sehr ausgeglichen (siehe lost Planet 2 Benchmark). Das DX11 nun relevant wird zeigt doch klar die Entwicklung der 6870, auch wenn wir von ihr noch nicht alles zu 100% wissen, wohin die Reise geht ist klar !

Wenn Ich es mir aussuchen kann, nehme Ich schon die Karte, die bei gleicher Leistung 100 Watt weniger verbrät, allein schon wegen der Kühlung und der Hitze

Das ist jetzt die alles entscheidende Frage : Wird die 6870 bei ähnlicher Leistung 100 Watt weniger verbrauchen als die 485 ? Ich könnte mir vorstellen das dem nicht so ist.

Von daher ziemlich blödsinnig hier den Mehrverbrauch der Fermis als Bashing gegen Nvidia abzutun.

Man vergleicht gerne DX11 Karten mit deutlich unterschiedlicher Tess.leistung. Das ist nicht wirklich fair. Ob man nun DX 11 und Ultra Tess braucht ist eine andere frage.
 
Mal angenommen es ist kein Fake, so sind doch 20% Geschwindigkeitsvorteil für eine neue Generation von Grafikkarten ein Witz. Was ist aus den Zeiten geworden wo es mindestens 60% waren?
1. es besteht immer noch der gleiche fertigungsprozess
2. Reift die computertechnik immer weiter aus und iwann gibts halt keine so große sprünge mehr oO

zitat von whoozy
Junge denk mal nach es wird immernoch in 40 nm gefertigt. Wenn du 50 % leistungs steigerung haben möchtest musst du auch mit dem massiven anstieg an Stromverbauch leben.

Es müssen mehr Transistoren verbaut werden, das macht den Chip teuer weil größer. Amd will aber anscheinend nen günstige Chip haben der effizient ist und grade so die Konkurrez schlägt.

genau der meinung bin ich auch...die drehen das so das sie leicht über der 480 er liegen etwa so 20% schneller als 5870 aber dann um welten besser im verbrauch lautstärke usw.

weil der neue spruch sagt ja auch schon einiges :

Keep cool,Keep all the Power,ATi RADEON....


ich weiß noch wo der erste GAME bench rausgekommen is von der 5870 das war HAWX 1980p max settings und 4xaa.Der benchmark wies auf 110 fps hin aber am ende kam es doch anders und die HD 5870 lieferte ohne AA nur 91 fps... mit aa halt weniger.UND alle haben mehr leistung erwartet von der 5870....

link : http://www.pcgameshardware.de/aid,6...e/Grafikkarte/News/bildergalerie/?iid=1192463

immer das gleich 1ster bench draußen und das nicht mal von einem GAME schon gehts los .... da war wieder ein taiwaner mit photoshop am werk....
 
Zuletzt bearbeitet:
Cey123 schrieb:
Und sich hier als Ökufutzi zu profilieren und zu prahlen, wie effizient und stromsparend seine Grafikkarte ist, den will ich mal einfach fragen a) wieviele Lampen er so unnötig brennen lässt b) wie lang er sich duscht, wie lange die Klospülung betätigt c) wieviel Fleisch er isst d) wieviel Auto er fährt.

Wenn man bedenkt, dass eine alte Wohnzimemrstandleuchte bis zu 500W auf maximalleistung frisst, dann sind die 100W mehrverbrauch beim Zocken den Aufstand, der um sie gemacht wird, schlicht und einfach nicht wert. Und keinesfalls kein Argument, nicht zur GTX 480 zu greifen, wenn man die zZ schnellste Single-GPU-Graka haben möchte.

Der Lärm wäre ein Argument, aber wiegesagt, gute Luftkühlung macht auch die GTX 480 so leise wie die Radeon.

Das ist Quatsch was du schreibst, abgesehen davon dass es in einem unangemessenen, frechen Ton verfasst wurde. Nicht jeder der auf den Stromverbrauch achtet ist gleich ein Ökofutzi, wie du es nennst. Solche Bemerkungen sind doch einfach nur schwachsinnig.

Ich habe außerdem gesagt, dass es sicher einige gibt, denne das egal ist. Aber die Mehrheit der Käufer achtet eben auf den Stromverbrauch.
Bei ähnlicher Performance 100 Watt weniger Verbrauch ist eben ein Argument. Da kann man nicht so verallgemeinernd sagen, dass nur Ökos auf den Verbrauch schauen.

Irgendwie muss man ja den Kauf einer GTX 480 rechtfertigen. Es ist aber einfach nur billig, dass man die Argumente: Schnellste Single-GPU und Bildqualität immer wiederholt.

Außerdem habe Ich keine HD 5870 und prahle auch nicht damit wie effizient sie ist, zudem bin Ich kein Ökofutzi!

Pumpi schrieb:
Bei DX9/10 kommt das wohl hin. In DX11 mit Full Tess sieht das ganz anders aus. Das Leistungs/Wattverbrauch-Verhältnis scheint dort sehr ausgeglichen (siehe lost Planet 2 Benchmark). Das DX11 nun relevant wird zeigt doch klar die Entwicklung der 6870, auch wenn wir von ihr noch nicht alles zu 100% wissen, wohin die Reise geht ist klar !


Das ist jetzt die alles entscheidende Frage : Wird die 6870 bei ähnlicher Leistung 100 Watt weniger verbrauchen als die 485 ? Ich könnte mir vorstellen das dem nicht so ist.


Man vergleicht gerne DX11 Karten mit deutlich unterschiedlicher Tess.leistung. Das ist nicht wirklich fair. Ob man nun DX 11 und Ultra Tess braucht ist eine andere frage.

In der Gesamtperformance ist die HD 5870 eben ca. 10 bis 20 % langsamer als die GTX 480, darauf kam es mir an. Ich meinte mit den 100 Watt auch den Unterschied zwischen GTX 480 und HD 5870. Gut möglich, dass die HD 6870 etwas mehr Strom verbrauchen wird als die HD 5870. Es wäre auch möglich, dass sie keine 100 Watt weniger verbraucht, als die GTX 485, davon war aber nicht die Rede. Und selbst wenn die der Cayman 250 Watt verbraucht, steht er immer noch besser da als die GTX, zumal seine Leistung Ihr gegeüber ja steigen wird.
 
Fireball89 schrieb:
Also ich find das mehr als seltsam. Ein einfacher Refresh sollte die 6er-Serie werden. Die komplette Neuentwicklung kommt doch erst in der Serie danach, oder nicht?
Oder nicht. Northern Islands sollte die NextGen Architektur werden. Das scheint die 6000er im Wesentlichen bereits zu sein. Also mehr als ein einfacher Refresh. Nur halt nicht wie geplant in 32 nm, sondern noch 40 nm.


kaktus1337 schrieb:
ca 20% ist die 6870 der 5870 vorraus...
Wie kommst du auf 20%? Tests im Netz schwanken so zwischen 8000 und 9000 GPU Punkte für die HD 5870. Die 11634 GPU Punkte sind also 30-45% mehr.


DvP schrieb:
Das Problem, ist allerdings, dass 5D shader nur effektiv sind wenn 5 gleich Operationen abgearbeitet werden sollen, was eben nicht sehr oft vorkommt. Daher sind 1D Shader meist schneller, auch wenn es weniger sind, weil sie unabhängig arbeiten können.
Hört doch endlich mal mit diesen Urbanen Legenden auf. Es braucht keine 5 gleichen Operationen, damit "5D" Shader (Stream Core) effektiv arbeiten. Genauso können die einzelnen PEs der Stream Cores unabhängig voneinander arbeiten. Es liegt einzig und alleine daran, was ihnen als VLIW-Instruktionspaket mitgegeben wird. Und wenn man schon mit nVidia vergleicht, dann sollte man immer bedenken, dass nVidia die Shader wesentlich höher taktet.

Der Umstieg auf 4D hat imo vor allem zwei Gründe. Erstens, Wegfall des Special Function PE bzw die Integration dessen Funktionalität in die restlichen PEs, um die Effizienz weiter zu erhöhen. Und zweitens, Neustrukturierung des Stream Cores, um das SP-DP-Verhältnis von 5:1 auf 2:1 zu verbessern.


Forum-Fraggle schrieb:
Liest sich interessant. Vor allem die 4D Geschichte. Für den alltäglichen Nutzer dürfte 1Dam interessantesten sein, da meistens nur eine Operation ausgeführt und selten gleiche, das dürfte bei Hardcore Anwendungen eher der Fall sein.
Nein. Wofür brauchen "alltägliche Nutzer" schnelle Grafikkarten? Richtig, für 3D Spiele. Was benötigen grafische 3D Anwendungen am meisten? Richtig, Raum- und Farbinformationen. Woraus bestehen Raum- und Farbinformationen? Richtig, aus 3- bzw 4-fach Vektoren ((a)rgb, xyz(w)). Ein "4D" Shader sollte hier also sehr effiziente Ergebnisse ermöglichen.


Cey123 schrieb:
Aber da es bis auf 3D und mehreren Monitoren eh kaum Spiele gibt, die so viel Rechenleistung benötigen, und ersteres von ATI nicht propagiert wird
Natürlich wird es das. Ich denke sogar, das wird ein zentraler Punkt bei der Vorstellung der neuen Generation.


aylano schrieb:
Ohne 32nm-Probleme wäre die neue North-Island-Architektur eh längst am Markt.
Wie kommst du auf Probleme? TSMC hat den 32 nm Prozess schlichtweg gecancelt. Warum? Vermutlich weil er nicht so viele Verbesserungen gegenüber 40 nm bringt. Da ist man halt gleich auf 28 nm geswitched. Mit Problemen scheint mir das wenig zu tun zu haben.


Taigabaer schrieb:
Mal angenommen es ist kein Fake, so sind doch 20% Geschwindigkeitsvorteil für eine neue Generation von Grafikkarten ein Witz. Was ist aus den Zeiten geworden wo es mindestens 60% waren?
Erstmal sind es 30-45%, siehe oben, nicht 20%. Zudem musst du alle technischen Begleitumstände betrachten. Ohne einen Shrink auf mehr als 30% Performancesteigerung zu kommen, ist so gut wie nicht möglich, zumindest nicht ohne Erhöhung der Leistungsaufnahme. Schau dir HD 3000 und HD 4000 an. Da hattest du zwar deine 60+%, aber die Leistungsaufnahme hat sich auch deutlich erhöht aufgrund der gleichen Fertigung (55 nm). Zwischen HD 4000 und HD 5000 waren es ebenfalls 60+% ohne wesentliche Änderung der Leistungsaufnahme, aber hier gab es auch einen Shrink von 55 auf 40 nm.
 
Zuletzt bearbeitet:
GunnyHartman schrieb:
In der Gesamtperformance ist die HD 5870 eben ca. 10 bis 20 % langsamer als die GTX 480, darauf kam es mir an. Ich meinte mit den 100 Watt auch den Unterschied zwischen GTX 480 und HD 5870. Gut möglich, dass die HD 6870 etwas mehr Strom verbrauchen wird als die HD 5870. Es wäre auch möglich, dass sie keine 100 Watt weniger verbraucht, als die GTX 485, davon war aber nicht die Rede. Und selbst wenn die der Cayman 250 Watt verbraucht, steht er immer noch besser da als die GTX, zumal seine Leistung Ihr gegeüber ja steigen wird.
Dies entspricht durchaus dem gefühlten Ergebnis dieser Tests, daß zwischen GeForce GTX 470 und 480 ein erheblicher Performanceunterschied existiert, zwischen GeForce GTX 480 und Radeon HD 5870 dagegen nur ein recht kleiner. In Zahlen ausgedrückt liegt die GeForce GTX 480 zwischen 16 und 21 Prozent vor der GeForce GTX 470, mit steigender Auflösung und AA-Stufe wird dieser Abstand größer. Zur Radeon HD 5870 erzielt die GeForce GTX 480 hingegen einen Abstand zwischen 4 und 11 Prozent, wobei es hier eine klare Trennlinie gibt: Unter 4x Multisampling Anti-Aliasing liegt dieser Abstand zwischen 9 und 11 Prozent, unter 8x Multisampling Anti-Aliasing dagegen nur noch zwischen 4 und 6 Prozent.


Nicht in den settings fürs auge

http://www.3dcenter.org/artikel/zotac-geforce-gtx-470-480-review/auswertung-fazit
 
Und selbst wenn die der Cayman 250 Watt verbraucht, steht er immer noch besser da als die GTX, zumal seine Leistung Ihr gegeüber ja steigen wird.

Je nachdem wie gut Sie denn nun tesseliert. Ist Sie in dem bereich besser geworden, aber nicht schneller als die GF100, dann muß man relativieren.

Ich nehme mal an das man dann 6870 karten auch an ihrer Tess-leistung messen darf ?

Wenn am Ende lediglich 50 Watt Vorsprung für die 6870 besteht, dann würde ich die Zusatzfeatures der NV vorziehen (3D,PhysX,MGPU-Treiber,etc.). Wer die nicht braucht sollte natürlich zur ATI greifen.
 
Ich denke die Karte hier in der News wird eher sowas wie ne 6890, weil der Speichertakt schon ziemlich hoch ist. Wenn jede 6870 solch einen schnellen Speicher hat, bezweifele ich das diese gut lieferbar wären. Vermutlich wird es eine 6870 geben die etwa gleich auf mit der GTX480 ist und eben eine 6890 die nochmal ein paar Prozent schneller ist. Momentan macht ATI alles richtig wenn die 6xxx Generation etwa diese 30 Prozent zulegen kann und dabei nicht mehr wie ca 10 Watt mehr verbraucht wäre ich schon froh und meine 4870 traurig:D!


Gruß Andi
 
Ich bin mit meiner HD5870 sehr zufrieden die besten Grafikkarte die ich jemans hatte, aber wenn HD6870 um 40% schneller werden sollte werde ich so denke ich schwach, momentan ist HD5870 breit verfügbar aber sehr teuer vielleicht würde es sich wirklich lohnen die Karte bei ebay zu verkaufen
 
die speicher wirds geben. und der wechsel von 5D auf 4D wird eine viel bessere auslastung bewirken, von daher stimmen die benches.

ati deklassiert grade nvidia. die tun mir schon leid jetzt.
 
Weiß man schon ob es wieder eine dual gpu karte geben wird ?

mfg
 
Können bitte alle die immer noch mit "Tesslation" nerven ihre Tesslation-Benchmark-Spiele spielen gehen? :rolleyes:
 
es ist ein jammer, dass die noch in 40nm strukturweite auf den markt kommen wird. mit 28 könnte man wahrscheinlich sehr viel höher takten, ohne mehr saft zu verbrauchen, alternativ den takt beibehalten und das ding dürfte ein energie sparer sonderngleichen werden.

gesetzt den fall, dass das ganze erst mal kein fake ist *obligatorischer disclaimer zu solchen gerüchte news*

wie dem auch sei, auf die nächste amd/ati generation darf man gespannt sein und muss hoffen, das nvidia fix und vor allem auch ordentlich nachziehen kann, ansonsten können wir uns unter umständen wirklich von vernünftigen preisen bei grafikkarten verabschieden.
 
@gruffi

45% oder mehr gegnüber der 5870? naja klingt nicht gerade real.Damit würde man fermi2 auf die welt bringen.und mehr transistoren sind für 40nm der größste feind.

die HD 5870 hat ca 9100 GPU punkte und die 6870 11963 das sind ca 30 %.... In games bench würde es unter 30 liegen .... so 20-25% wenn man af/aa hinzuschaltet nehmen die FPS bzw Prozent auch ab.
und die vermutlichen oder gefaketen benches oder so sind meist arg übertrieben.


schau auf den ersten benchmark von der HD 5870.Das problem ist einfach das die leute viel zu viel von einer graka erwarten.. besonders wenn sie noch auf dem gleichen fertigungschip setzt sind 40% womöglich mehr übertrieben.
 
Woran sieht man an dem PIC das Vantage im „Extreme-Preset“ Mode getestet hat?
Da steht ja nicht mal eine Auflösung bei.

Würde da nicht viel davon halten.
 
So viel schneller soll sie auch nicht werden da wäre ich traurig mit meiner HD5870 , wollen wir ma nicht übetreiben :D
Bei 20% würde es nicht so schmerzen bei 40% sehr
 
Zuletzt bearbeitet:
Cey123 schrieb:
Das kam vermutlich nicht so rüber, aber ich bin definitiv pro Öko. Was mein punkt ist, dass man der Umwelt auf viele Arten viel eher etwas gutes tun kann, als eine Grafikkarte von AMD zu kaufen. Und genauso kann man seine Energierechnung durch viele Maßnahmen eher senken, als im Kauf der Grafikkarte.

Viele Leute tun hier so, als seien 100W mehr stromverbrauch beim SPIELEN etwas fuchtbares und verlieren dabei jeglichen Blick auf die Relationen zu alltäglichen Energiefressern.

Das mag ja alles richtig sein, aber auf die Umwelt zu achten heißt es eben immer und überall zu tun wo es leicht möglich ist und ich finde, dass man den Blick für die Relationen dann verliert, wenn man sich lieber ein 100 Watt extra Grafikmonster kauft für 1-5 (nicht wahrnehmbare) FPS mehr und einem Leistungsplus, das außer im Unigine-Benchmark (völlig realitätsfern) und vielleicht 1-2 TWIMTP-Spielen (und dort nicht wegen der Tesselation Leistung wie schon diverse Tech-Magazine gezeigt haben) annähernd zur Geltung kommt.

Nach deiner Logik hätte ich z.B. als Nichtraucher schon per se einen Freischein dieses "nicht verbrauchte Verschmutzungbudget" anderweitig zu verprassen. Genau so funktioniert Umweltschutz und "grünes Denken" aber eben nicht. Ist dasselbe Argument wie "was ich mache ist doch egal, wenn die Chinesen sowieso mehr Kohle im Jahr abfackeln als überhaupt gefördert wird".

Von daher alles das tun was du sagst (weniger Auto fahren, Lichter aus usw.) und zusätztlich noch eine sparsame GPU (mit ähnlicher Leistung - denn es gibt sie ja) wäre schon das richtige. 500W Wohnzimmerleuchten halte ich übrigens für wenig realistisch, 5x 100Watt Glühbirne (selbst die miesesten) wären so hell, das würde keiner wollen.

Ich weiß nich worauf es dir beim Spielen ankommt, aber Bildwiederholrate und Bildqualität sind die entscheidenen Punkte, was denn auch sonst, die Farbe deines PCs? :rolleyes:

Beim Spielen kommt es mir auf ganz andere Sachen an (gute Atmosphäre, gutes Gameplay, möglichst keine Bugs oder andere technische Schwierigkeiten, tolle story, stimmige Grafik usw.). Die GPU muss das in erster Linie flüssig darstellen können, je nach Alter und Preisklasse auch gern mal ohne AA und AF, mit reduzierten Details usw.


Bei einer Grafikkarte sind FPS wichtig, aber bis auf die wenigen "Freaks" ist bei der breiten Masse der Spieler in erster Linie Preis/Leistung wichtig und dafür verzichtet man auch gerne mal auf ein paar FPS hier und da und muss nicht immer alles mit vollem AF und AA spielen auf 2 Monitoren und in 3d usw. Intelligente Käufer die nicht immer das beste haben wollen achten neben P/L sicherlich auch auf Lautstärke (bzw. die Temperaturen) und den Stromverbrauch.

Diese Leute, die max Details immer wollen sind eine absolute Minderheit und das ist auch an genügend Statistiken ablesbar welche Karten die "Gamer" im Schnitt so in ihren Systemen haben. Ich habe eine ATI 4870er (leider - was den Stromverbrauch angeht) und es gibt einfach keinen Grund aufzurüsten weil ich selbst Metro 2033 völlig flüssig mit etwas reduzierten Details (was dem Spielspaß überhaupt keinen Abbruch tat) genießen konnte. Auch Mafia 2 wird überhaupt kein Problem sein und ich werde nicht das mindeste vermissen wenn sich irgendwelche Kleidung nicht physikalisch korrekt mit dem Wind dreht oder ich nicht 10 Mio Splitter aus Betonsäulen schießen kann. Habe ich auch bei Batman AA nicht vermisst oder bei Mirrors Edge.

Die Enthusiasten die das "unbedingt haben wollen" sind nunmal nicht so viele und die GPU Verteilung (wie stark ATI mit der 4xxxer Serie und der 5xxxer Serie aufgeholt hat) zeigt doch deutlich, dass der großen Mehrheit der Gamer PhysX am Arsch vorbei geht. Das sind doch hauptsächlich die Medien sowie (in diesem Fall Nvidia zusammen mit den entsprechenden Softwareschmieden) die Industrie, die einen glauben machen wollen, man müsse unbedingt PhysX haben (und natürlich tun das auch andere Unternehmen mit anderen solchen sinnlosen Features wie jedem Haushalt einen Full HD Fernseher andrehen zu wollen auch wenn die 5 M weg von dem 28" Teil sitzen und überhaupt keine Chance haben von der höheren Pixeldichte zu profitieren usw.)

Zumal es bei NVIDIA halt auch noch viele weitere Pluspunkte gibt wie Bessere SLI als CF-Unterstützung, 3D-Vision. Was kann da AMD, außer im Schnitt deine Stromrechnung um ein wöchentliches großes Glas Cola wiegesagt zu kürzen? :)

SLI oder CF kommt für mich generell nicht in Frage, denn auch wenn SLI vlt. etwas besser skaliert so gibt es dort die Mikroruckler dennoch (von Kosten und Stromverbrauch und der niemals 100% Skalierung und den Problemen in vielen Spielen ganz zu schweigen).

Ati bietet (jetzt nur auf die jeweiligen Single-GPU Flagschiffe bezogen):
- leiser
- weniger Stromverbrauch
- Eyefinity
- DTS und Dolby auf HDMI (was erst die 460er jetzt kann, die 480er und 470er und 465er nicht)
- ähnliche Performance für weniger Geld

Wirklich verzichten tue ich als Gamer nur auf PhysX - CUDA spielt für Games überhaupt keine Rolle und Heaven Benchmark hab ich auch noch nie gespielt. Die "schlechte Bildqualität" kann ich verschmerzen, vor allem da der Unterschied wirklich gering ist (sogar bei meiner 4870er kann ich es absolut verschmerzen und das obwohl das AF da im Vergleich zur 5xxx Serie ja noch viel "flimmeriger" ist), was auch alle Tech-Magazine bestätigen. Wer den Fable hat und glaubt da ständig ein Flimmern zu sehen (oder auch wirklich sieht) bitte - whatever floats your boat. Es gibt ja auch Leute die mind. 90 FPS brauchen um "flüssig" zu spielen und welche die glauben nur in voller Grafikpracht kann ein Spiel überhaupt erst richtig Spaß machen (sind wohl auch diejenigen, die Filme prinzipiell nur im Kino gut finden können und ein Buch nur dann toll finden, wenn es auch in Leder gebunden ist und in Gold gedruckt - das sind jetzt überzogene Beispiele ich finde Grafikkracher auch interessant, aber eine stimmige und atmosphärische Grafik ist 10x wichtiger als auf Biegen und Brechen hardwarefressende Effekte einzubauen wie bei Mafia II z.B. die mitunter nichtmal unbedingt zum Rest der Grafik wirklich passen).
-


Ich verstehe es einfach nicht, wie AMD Chips mit so einem guten Gesamtpaket entwickeln kann und dann auf der Treiber&Softwareseite einfach um Jahre hinterherhinkt (3D, Mikroruckler)

Das finde ich sehr überzogen ausgedrückt. 3D und Mikroruckler betreffen sehr sehr wenige Käufer (3D Equipment ist teuer und SLi / CF haben auch die wenigsten) und ich habe seit der 9800er Serie ATI-Karten und hatte noch nie irgendwelche Treiberprobleme. Hin und wieder in einem Spiel mal eine flackernde oder schwarze Textur, aber bei Gott, die hatte ich auch mit meinen Nvidia-Karten (besonders was da bei der 8600er M GT in meinem Notebook los war mit den Treibern, wo man nahezu für jedes Game einen anderen brauchte um zu vermeiden, dass der Treiber beim Spielen ständig abkackt oder DirectX10 Spiele wie Bioshock erstmal überhaupt nicht liefen bis nicht ein neuer Treiber kam usw.).

Nvidia hat sicherlich bereits früher die bessere Unterstützung gehabt für Linux zb. und einige andere nette Sachen, doch irgendjemandem zu sagen der einfach nur einen neuen Rechner für ca. 800 Euro will mit (jetzt) standard win 7 64 bit home premium und einer single GPU bis max 200 EUR er soll NVidia kaufen weil bei ATI wird er ständig nur Probleme mit den Treibern haben und bei Nvidia niemals ist und war schon immer völliger Quatsch.

Es mag irgendwann mal ein gröberes Problem bei einem ATI Treiber gegeben haben und seither klebt dieses "ATI hat schlechte Treiber" völlig zu Unrecht an dem Unternehmen. Genauso wie seit dem Fermi Nvidia wohl einiges wird unternehmen müssen um die Leute vom "Nvidia baut teure, stromhungrige, heiße und laute GPUs" wieder wegzubekommen - mit der 460er auch zu Unrecht.
 
Zuletzt bearbeitet:
sind nur 1700 punkte mehr als mein hd5870@900mhz 2gb bei exakt selben cpu score :rolleyes:

und wenn es sich um 4d handelt und der gpu-z auch keine dx version anzeigt, dann muss es sich doch hier dabei um ein ganz neues architektur handeln oder nicht ?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben