BESTE Grafikkarte der WELT ?

Klar, die genaue Skalierung hängt halt von der Programmierung des Spiels ab und schwankt zwischen 0,9 und 3,5fach. Die 4 ist ja quasi nur ein Annäherung. Im Schnitt wird ein 4-GPU-System schon die 3fache Leistung erreichen können. Aber wenn ich das alles zu ausführlich schreibe, liest wieder keiner den Post weil er zu lang wird ;)
 
ThomasSilent schrieb:
@wuffi: 2*4870 x2 sind keine 2 grafikkarten so gesehen. es sind 2*4870 im cf auf einer karte so wie ich das zumindest verstanden hab. es ist und bleibt eine multi gpu.

Klar ist es eine Multi-GPU, aber dabei bleibt es auch eine Grafikkarte. Sie benötigt ja nur einen Anschluss, also einen (Doppel-)Slot.

Naja aber dann mein neuer Favorit: Die 4870(+). Sie kommt fast an die Leistung der GTX 280 ran und benötig dabei viel weniger Strom. => Guter Kompromiss.

HereticNovalis schrieb:
die beste karte der welt ist immer die nächste ... :rolleyes:
oder meinst du, die gtx280 ist die letzte je erscheinende karte und danach kommt nichts schnelleres mehr? oder nach der 4870x2? oder nach der gtx XXX bzw 9870x8? -.-

abgesehen davon ist es quatsch, single- und multi-gpus gegeneinander zu stellen ... aber manche lernens nie :/

Warum soll das Quatsch sein? Es ist ja wohl immer noch EINE Grafikkarte. Das hat nix mit der Anzahl der Chips da drauf zu tun. Oder willst du mir klar machen, dass man einen P4 und einen Quad-Core nicht "gegeneinander" stellen kann und dass ein Quad-Core kein richtiger Prozessor ist, nur, weil er mehrere Kerne besitzt? Oder, dass man ihn nicht als den besten Prozessor bezeichnen kann, weil er mehrere Kerne besitzt? WIE die Leistung erreicht wird, ist doch egal. Hauptsache, DASS sie erreicht wird. Aber manche lernens nie :/
 
Zuletzt bearbeitet:
lol
hier behaupten leute die gtx 280 ist die stärkste graka der welt.
Die kommt nichtmal annähernd an den stromverbrauch ähh die leistung der schnellsten GPU´s der welt ran (wie z.b. in den Blue-Gene)
 
Jetzt mal langsam,
@User93
du solltest CPU und GPU nicht verwechseln.
Nach meinem Wissensstand gibt es momentan keine stärkeren GPUs für den Heimmarkt als
Nvidia und ATI anbieten. Was die Informatikfuzzis am Wochenende im Frauenhofer Institut treiben, weiss ich nicht, vlt haben die noch etwas schnelleres, aber das bekommen wir mit sicherheit nicht zu kaufen.

Die IBM BlueGene ist ein Supercomputer mit vielen einzelnen CPUs, die im gesamten auf
einige 100 TFlops kommen. Das ist aber keine GPU.
 
GTX280 ist nicht die Beste...

Frames:
avg_CoD4_1680_x4xAA.PNG

Spielbarkeit:
SP_CoD4_1680_x4xAA.PNG
 
domidragon schrieb:
Also ich würd mom. auch sagen die GTX280.... und auch empfehlen, weil nvidia nun ageia aufgekauft hat und schon die ersten betatreiber draussen hat für die Physikberechnung in spielen. Somit hat sich Nvidia einen riessen plus Punkt geholt gegenüber ATI....

Aber mein Persönlicher favorit ist und bleibt die 8800 Ultra, der Name ,das design ,die Power ist einfach unschlagbar, und sie kann noch mit heutigen Grakas mithalten obwohl sie schon 1.5 Jahre alt ist :D

greez

Also die Diskussion über PhysX und dem ATI Pendant Havok gab es schon woanders. Ich glaube nicht das Nvidia automatisch dadurch Pluspunkte sammelt.
Dafür ist die Technik einfach nicht weit genug verbreitet.
Ich habe, für MEINEN Teil, dagegen schon mehr von Havok "gesehen", HL2 nur als Beispiel.
Egal, ist eher OT...

@Topic
Die Beste Graka der Welt?! Oder auch "Eierlegende Wollmichlchsau" genannt, gibt es nicht. :-)
Aber wenn dann schrieb jemand anderes vor paar Posts "meine Eigene, weil sie läuft..." und genau so sehe ich das auch.
Aber WENN es sie geben sollte, dann wäre sie die günstigste, sowohl im Energieverbrauch als auch im Anschaffungspreis und hätte soviel Power das derzeit aktuelle Titel ruckelfrei laufen. Das schließt die doppel-GPU-Karten schon mal aus ;-)

Da sich das Hardwarekarusell aber ständig weiter dreht und nebenbei immer mehr Schrott abwirft, sage ich einfach - wen interessierts?

Die Moral der Geschicht - Es ist nicht alles Gold was glänzt!

Gruss
 
Vor allem, wenn erstmal ein entsprechender Treiber erscheint, der endlich den Stromverbrauch auf die versprochenen 10 Watt im Idle senkt und zudem noch die maximale Leistung erhöht...

Durch die 5D-Architektur hat die Karte noch eine Menge Reserven, die momentan noch nicht genutzt werden können. Kann also nur hoffen, dass kommende Spiele dementsprechend optimiert werden, um auch alle Shaderprozessoren nutzen zu können. Vielleicht bringen ja auch neue Treiber etwas...

Edit: Wie rechnet man denn die FLOPs einer solchen Karte aus? Hab keine Ahnung, welche Daten der Karten ich dafür brauche und wie ich zum Beispiel die Anzahl der ROPs und TMUs der Karten mit einbeziehe, da der Aufbau der Karten diesbezüglich ja ganz anders ist...
 
Zuletzt bearbeitet:
MixMasterMike schrieb:
GTX280 ist nicht die Beste...


avg_CoD4_1680_x4xAA.PNG

zeig doch nicht nur einen test ;)

avg_CoD4_1680_no.PNG



jede ist mal irgendwo weiter vorne als die andere
 
@Wuffi schrieb:
Edit: Wie rechnet man denn die FLOPs einer solchen Karte aus? Hab keine Ahnung, welche Daten der Karten ich dafür brauche und wie ich zum Beispiel die Anzahl der ROPs und TMUs der Karten mit einbeziehe, da der Aufbau der Karten diesbezüglich ja ganz anders ist...

Das sind meines Wissens nach nur rein theoretische Werte, da man eine GPU nie zu 100% auslasten kann, jedenfalls nicht im alltagsgebrauch. Die Werte errechnen sich wohl aus der Leistung eines Shaders, also den floating-point-operations/s multipliziert mit der Anzahl der Shader. Dabei gibts glaube ich noch eine unterscheidung zwischen single-floats (einfache Genauigkeit) und double-floats (doppelte Genauigkeit, kennen sicher einige vom Programmieren). Dafür fallen die Werte noch einmal unterschiedlich aus. Interessant werden diese Werte vorallem dann, wenn die Grafik als Applikationsbeschleuniger z.b. beim Videocodieren, MP3-Umwandeln oder sonstigen Anwendungen im verteilten Rechnen (Stichwort: Großrechner) genutzt werden soll und Anwendungen zum tragen kommen, die wirklich parallel arbeiten und die Leistung voll ausschöpfen können.
 
Jackson schrieb:
zeig doch nicht nur einen test ;)

jede ist mal irgendwo weiter vorne als die andere

Jo die teuren Geforce karten sind dann vorne wenn man AA und AF abschaltet... aha! Kannst du mir auch nur einen Grund nennen warum man absichtlich die Grafikqualität runterschalten sollte vor allem wenn man für weniger Geld eine Graka kaufen kann die schneller ist mit besserer visueller Qualität?
 
Jackson schrieb:
zeig doch nicht nur einen test ;)

In dem Test sieht man eins:

Wenn man bei Nvidia maximale Bildqualität aktiviert (HQAF + TSSAA)(besser als die der Konkurrenz) dann ist der Balken der Konkurrenz (AMD) länger.

Ist so, wie wenn du Karte A mit 4xAA gegen Karte B mit 1xAA testest. Karte B ist zwar unterlegen, haut in dem Vergleich aber mehr FPS raus.
Naja der Master hat in dem Vergleich seinen neuen Lieblingsverglecih gefunden.

Würde jemand 16xHQAA mit Nvidia gegen 1AA mit AMD testen, wäre er auch sofort zur Stelle und würde zeigen: Haha die 3650 ist 10mal schneller als die GTX 280.

Wie sinnvoll das ist kann sich ja jeder selbst überlegen.
Edit Master ist nicht alleine, gibt noch mehr, die solche Vergleiche machen würden. *gg*
 
Zuletzt bearbeitet:
cod 4 ist nun mal der angesagteste onlineshooter.
und die 22er auflösung ist inzwischen auch sehr weit verbreitet und 4xAA ist eben auch sehr beliebt.
und da hat die GTX280 nun mal keine chance gegen die 4870.
also ist es schon ein sehr wichtiger benchmark.

aber davon abgesehen kommt die beste graka wohl am montag, die 4870x2. für 549$, tipp mal auf 430€.
ist auch gerechtefertigt für bis zu 50% mehrleistung im vergleich zur GTX280

schnellste und teuerste karte von ati für den pc zuhause =)

und nvidia kann nicht mit leistung kontern, sondern nur mit preissenkungen.... wie die zeiten sich ändern. *gg*
 
Flo89 schrieb:
Die (sauteuren) Workstation-Grafikkarten eignen sich genauso zum Spielen, wie die entsprechenden Consumer-Karten, die Leistung ist die gleiche.
Diese Karten eignen sich zum Spielen sogar ein klein wenig schlechter als ihre Consumer-Pendants

Flo89 schrieb:
Der hohe Preis kommt durch speziell optimierte Treiber zustande, die professionelle Anwendungen beschleunigen.
das wäre dann die QuadroFX 4600

Bei der QuadroFX 5600 zahlt man nochmal das Doppelte für den größeren Speicher

... und noch mal das Doppelte mit SDI-Ausgang:
http://geizhals.at/a319790.html
 
Für alles die GTX 285. Feddig!
 
Zurück
Oben