ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275

Welche Grafikkarte würdet ihr eher kaufen?

  • ATi Radeon HD 4890

    Stimmen: 295 60,0%
  • Nvidia GeForce GTX 275

    Stimmen: 197 40,0%

  • Umfrageteilnehmer
    492
Äh - ich habe es mit der BQ erläutert :rolleyes:
anders kann ich mir die hasstiraden gegen ati nicht erklären.
Hasstiraden? Mach dich nicht lächerlich. Sowas gibts von mir nicht ... ich kritisiere u.a. lediglich die Tatsache des schlechteren AFs und die Furmark-Problematik.
 
Zuletzt bearbeitet:
@Drakonomikon

Naja, du siehst ja: das hier ist zu einem (wenn nicht dem) neuen Ati-vs.-nvidia-fanboy-flame-Thread geworden.

Nur zur Info: mittlerweise hat Aquatuning Kühler für die 4890 im Programm, sollen ab 17.4. verfügbar sein.
 
Man wird sofort zu einem nVidia Fanboy erklärt bzw. einem "ATi-Hasser" wenn man die eine Karte von nV der anderen von ATi vorzieht.
 
T3dbundy schrieb:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=452049#2

leider bist du genau so ein verblendeter nvidia-fan wie unyu

In einem Fanboy-Thread ("Fanboy-o-meter") als Allererster posten und volle Punktzahl für Nividia gegen AMD zu geben und das dann mit so nem billigen Satz zu erklären...
y33H@ schrieb:
Äh - ich habe es mit der BQ erläutert :rolleyes:

Du stellst dich selbst ins Abseits. Also so langsam muss man echt zweifeln, ob du nicht doch ein Fanboy bist. Vielleicht musst du ja als PCGH-Redakteur Neutralität vorheuch... ähm angeben, aber es ist echt auffällig, wie oft du dich gegen AMD/ATi ereiferst, sorry.

y33H@ schrieb:
Hasstiraden? Mach dich nicht lächerlich. Sowas gibts von mir nicht ... ich kritisiere u.a. lediglich die Tatsache des schlechteren AFs und die Furmark-Problematik.

Immer auf diese Furmark Geschichte rumzureiten ist doch total lächerlich. Sag mal machst du den ganzen langen Tag nichts anderes als Furmark auszutesten.
Ich wette, ich kann mir ne HD4890 kaufen und trotz regem Spieleinsatz (also genau das, was 99,9% aller Gamer machen) wird sie mir nicht abrauchen. Und darauf kommt es nunmal nur an. Genausogut könnte man sagen, die Erde ist ein Scheißplanet, denn die Möglichkeit eines Kometeneinschlags ist ja immer gegeben.
 
Sancezz-Escobar schrieb:
moinsen

ich möchte mir demnähst eine neue gk kaufen....

Ich würde sagen bei 1440x900 muss es keine der neuen sein. Wenn du mit den nvidia-Treibern zufrieden bist, nimm eine GTX260, wenn du was anderes willst nimm eine 4870 mit 1Gb Speicher.
Hat beides immernoch doppelt soviel Leistung wie die 8800GTX.
 
In eine Physik Rechnung kann man auch nicht einfach ein paar stellen hintern komme streichen nur weil man denkt man bräuchte die nicht.
Oder z.B. in Zahlen ausgedrückt, "Pi ist nicht = 3.14"

Das kann ich so nicht stehen lassen. Als Physikstudent muss ich euch leider mitteilen, dass pi=3, g=10 und c=300.000 ist. So genau nimmt das keiner.
Aber im Grunde gebe ich dir Recht.
 
Drakonomikon schrieb:
Das kann ich so nicht stehen lassen. Als Physikstudent muss ich euch leider mitteilen, dass pi=3, g=10 und c=300.000 ist. So genau nimmt das keiner.
Aber im Grunde gebe ich dir Recht.

Dies möchte ich dir nicht bestreiten, aber bei mir bräuchte ich dies, denn als gelernter Mikromechaniker und Produktionsmanager in der Ausbildung muss ich sagen das für uns die Zahlen bis zur 4 Stellen hinters Komma wichtig sind.
Denn in eine CNC Steuerung kann man die Bahnen X, Y, Z nicht einfach nur grob angeben, ansonsten wäre dies nicht mehr genau wenn man es mit der Mikroskop mind. 40 fach vergrössert.
Vorallem in der Medizinal Teile beidem jedes mas eine eigerne Tolleranz hat.

Aber dies ist nebensächlich ;)


@ lenny.chem.dat

Seit wann ist ne GTX260 bzw. Radeon HD4870 doppelt so schnell wie ne 8800GTX?
 
@Lonely Shepherd

Hm ja genauso hätt ichs wahrscheinlich auch formuliert. ;-)
 
@Project-X
FPS sind mir ja wurscht. Als ich von der 8800GTX auf die 4870 umgestiegen bin, konnte ich AA und AF meistens doppelt so hoch stellen (bei 1600x1200) ohne dass es geruckelt hat.
 
Unyu schrieb:
Für die 13% Mehrtakt?

Nein, ist klar, die 4890 hat das Übertakten erfunden.

Vergessen bzw. wegrationalisiert (nvidia lässt grüssen) hasst du aber, dass genau ATI/AMD (als einzige bisher) ihren Single-High-End-Chip als "HD4890OC" angekündigt und auf der Stelle umgesetzt haben. Entsprechende Hersteller-Adaptionen stehen nicht nur in den Startlöchern, sondern sind bereits verfügbar und jene stehen balkentechnisch (wunderschöner Begriff) der GTX285 in kaum was nach. O.K. preislich dürften sie moderat bezahlbarer sein, als vergleichbare nVidia-Karten, bis auf CUDA (nutzen ist für den Otto-Normal-User zur Zeit sowieso irrelevant) und der Leistungsaufnahme (durchaus ein Kritikpunkt, interssiert leider die wenigsten).
Über Bildqualität will ich mich hier nicht mehr streiten. Es ist definitiv ansichts- bzw. meinungssache.
ich brauche (leider) CUDA, finde aber die Bildqualität (vor allem die gute Tiefenschärfe) der ATI-Karten ingame wesentlich besser. (Da kann man mir mit TSXXXSAAAUE kommen wie man will - es ist meine subjektive UND objektive meinung.)
 
Zuletzt bearbeitet:
CUDA beschleunigt CAD-Anwendungen ungemein. Z.B. 3D-Editoren können von CUDA (teilweise sogar stark) profitieren. Ob du nun ein volltexturiertes Mesh-Modell mit ein paar Mio. Polygonen und multiplen Spiegelungen und Lichtreflektionen 2 Tage über den Hauptprozessor oder 4 Stunden mit einer Quadro (oder einer GeForce 9/ GTX) als Co-Prozessor rendern lässt, ist ein Unterschied. Richtig dankbar bin ich gerade dann, wenn ich unter Zeitdruck arbeiten muss.
 
Welche CAD Anwendung supportet den CUDA? Catia tut es anscheinend nicht (hier im Einsatz) und 3D Rendering-Software wie Cinema4D bzw. 3Ds Max auch nicht. Alle Programme hier im Einsatz sowie ne GeForce Graka (GTX260²).

Oder muss man da CUDA erst gesondert aktivieren?

ICh hoffe ja mal das dein Vergleich 48 Stunden CPU vs 4 Stunden GPU übertrieben war. Ich mein ich kann mir beim besten Willen nicht vorstellen das CUDA um Faktor 12 schneller ist (habe hier 2x Xeon 5450 @ 3.6GHz)
Ich weiss das GPU massiv schneller sind als CPUs, aber doch nicht 12x so schnell!
 
Zuletzt bearbeitet:
@Romsky:
Was lässt dich an den 12x schneller denn so stark Zweifeln?
Im Bezug auf deinen Rechner mit 8x 3,6GHz wird es wahrscheinlich schwierig eine solche Steigerung der Geschwindigkeit mit nur einer GPU zu erreichen, aber gegenüber einem halbwegs aktuellen Quadcore kann ein solcher Geschwindigkeitszuwachs durchaus realistisch sein.
Gerade bei hochparalleler Datenverarbeitung mit hohem Rechenanteil spielt die Architektur der modernen Grafikchips ihre Vorteile voll aus.
Eine aktuelle GTX 285 bringt es auf 240 Rechenkerne bei jeweils knapp 1,5GHz und dazu eine Speicherbandbreite von fast 160 GiB/s.
Auf der Nvidia CUDA Homepage gibt es eine ganz nette Liste mit Softwareprojekten, die CUDA verwenden und dazu auch die (grobe) Information in welchen Bereichen sich der Geschwindigkeitszuwachs bewegt. Diese Zahlen sind zwar mit äußerster Vorsicht zu genießen, da es keine einheitlichen Tests und Bedingungen dafür gibt, zeigen aber eine gute Richtung.

Ich selber stehe zwar noch ziemlich am Anfang, was CUDA Programmierung angeht, aber die Ergebnisse und die Rechenleistung die da verfügbar ist, sind schon beeindruckend.

LG Ben
 
Eigentlich gings hier doch nur darum ob ich die ATI oder die nVidia nehmen soll. Ihr solltet euch alle schämen.

475 Leute haben bisher abgestimmt (ich hoffe das ist Repräsentativ). Davon 60% für ATI. Also wirds ne ATI.
 
@ Lonely Shepherd

Lesen ist schon ner Kunst ... schau mal was im 3DC-Thread steht:
Den Begriff "Fanboy" hab ich auch nur verwendet, um mehr User in den Thread zu locken.
Lonely Shepherd schrieb:
aber es ist echt auffällig, wie oft du dich gegen AMD/ATi ereiferst, sorry.
Dann gib mir mal 5 Beispiele, in denen ich mich (grundlos) ereifere. Das das AF flimmert ist ein Fakt, dass die Radeons im Furmark die MBP und die PCI-E-Specs sprengen ist ein Fakt und das der Treiber den User bevormundet ist auch ein Fakt. Ich warte dann mal auf deine Beispiele.

@ Schaffe98

Soll ich jetzt lachen oder weinen? :lol:
 
MacPok schrieb:
Vergessen bzw. wegrationalisiert (nvidia lässt grüssen) hasst du aber, dass genau ATI/AMD (als einzige bisher) ihren Single-High-End-Chip als "HD4890OC" angekündigt und auf der Stelle umgesetzt haben.
In dem Zusammenhang habe ich lediglich kläglich versucht auf Schaffe98szahlreichen "4890 OC vs irgendwas anderes nonOC" mit etwas ähnlich unsinnigen zu antworten.
 
Hallo.
Könnt ihr mir sagen wie lang (cm) die Radeon HD 4890 und die GeForce GTX 275 ist?
Danke
 
Zurück
Oben