Test Test: ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275

Ist das so schwer zu verstehen? DX10 Karten werden zu DX11 kompatibel sein, wie auch DX7 Karten zu DX9. Aber deswegen wird eine 8800GT noch lange nicht "DX11 beherrschen".

Es geht einfach so weiter wie mit früheren DX Versionen. Nur bei DX10 gab es eben diesen Schnitt wo man sich von alten Ballast befreit hat.
 
Hallo,

ich würde gerne mal wissen, wieso das Speicherinterface keinen großen Unterschied macht.
War es nicht früher das Ziel, das Speicherinterface zu maximieren, da es extrem viel Performancesteigerung verspricht?
Wie kann es daher sein, dass die beiden Karten (275GTX & 4890) so ähnliche Ergebnisse erzielen`?

Wäre für einen Link oder eine Erklärung dankbar.
 
Weil der Speicher der 4890 GDDR5 heißt und der der 275 GDDR3. Genauso wie bei SDRam zu DDR wurde auch vom GDDR4 zum GDDR5 die Taktzyklen verdoppelt. Also 1GHz GDDR5 sind 2GHz GDDR3 grob erklärt
 
Komplett andere Architekturen, ergo FLOPS und Bandbreite nicht vergleichbar.
 
4870 1GB
4890 +11%

GTX 280
GTX 285 +11% Zufälle gibts :lol:
 
y33H@

Wie du vlt. weisst, stehe ich zwischen dem roten und grünen Lager.
Was mir in diesem thread und an deinen posts abermals extrem auffällt, ist, dass (auch) du auf biegen und brechen versuchst an AMD/ATI kein einziges gutes wort zu lassen.
Was mir weiterhin auffällt: die qualität deiner Posts lassen insofern stark zu wünschen übrig, zumal sie sehr selten begründet bzw. zusammenhängend und sehr oft nicht länger als eine Zeile sind.

Also: Widerlege meine Aussage. Fang an und begründe expliziet und belegt, warum ATI FLOPs nicht mit nvidia FLOPs vergleichbar sind.
 
Zuletzt bearbeitet:
@Tombstone

Jetzt verstehe ich warum du gedacht hast DX 10 Grafikkarten können auch DX 11 rechnen, du hast CPU mit GPU verwechselt. :rolleyes:
Du hast da wirklich was verwechselt, die CPU kann DX 11 Parts übernehmen. CPU = extrem langsam, also bringts wieder gar nix.
Was die CPU kann, kann eventuell dann auch die DX 10 GPU durch CUDA, aber von der Seite ist noch nix offiziell oder bestätigt.

Aktueller Stand PCGH:
Es gibt viele Gerüchte, einige davon besagen, dass M$ bei DX11 auf radikale Schnitte verzichtet und DX11 somit genau wie diverse DX9 Versionen kompatibel ist. D.h. je nach Treiber und Grafikkartenaufbau mögen einige Effekte nicht in Hardware berechnet werden können, aber die Karten sind DX11 kompatibel und es ist nicht verboten, die Berechnungen via Treiber auf die CPU auszulagern.



uii jetzt hat ers dir aber geben y33h@ ne;), MacPok! fordert eine höhere Qualität deiner Beiträge! Und zwar sofort! Vielleicht solltest du einen PCGH Link in deine Signatur einbauen und bei Fragen immer drauf verweisen das man sich auch mal selber ein bisschen bilden kann...

Und als NV Fanboy wirst auch wieder gebrandmarkt, obwohl du gar keinen grünen Avatar hast :D. Stellst regelmäßig sehr gute Artikel über ATI Grafikkarten online :schluck: und dann kommt sowas. Vielleicht ein paar ATI Tests von dir in deiner Signatur einarbeiten, dann verschwinden solche dreisten Unterstellungen eher.

MfG Kasmo
 
MacPok schrieb:
... warum ATI FLOPs nicht mit nvidia FLOPs vergleichbar sind.

Will die Antwort keineswegs vorwegnehmen, lediglich aus einem wissenschaftlichen Bereich ergänzen:
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats
http://folding.stanford.edu/English/FAQ-flops

Bei folding@home liegen spezielle Anforderungen vor, eine Vergleichbarkeit mit anderen Bereichen ist nur eingeschränkt möglich, Auszüge:
  • Why are the ATI x86 FLOP numbers half of the ATI native FLOP numbers?
    Due to a difference in the implementation (in part due to hardware differences), the ATI code must do two force calculations where the x86, Cell, and NVIDIA hardware need only do one. This increases the overall native FLOP count for ATI hardware, but since these are not useful FLOPS in a sense, we did not include them in the x86 count.
  • Why aren't the differences between native GPU and x86 FLOP counts even greater?
    In the end, much of the code uses simpler operations (add, multiply, divide, etc) which counts as one FLOP under both systems. The instructions which are much more different (e.g. exp(x)) are more rare (say 1/10th the number of instructions) and thus the overall difference is closer to 2x.
 
Schöner Test

@CB eine Frage
Bei den Test habt ihr immer so viele Grafikkarten noch in den Tabellen.
ich finde es wäre übersichtlicher die Karten mit der gleichen Serie zu Verlgichen. Ich würden Also nur GTX und HD4 serie vergleichen und die zb. die Geforce 9serie garnicht mehr auf füheren, oder nur eine von den älteren Karten.
 
@ über mir, also ich finds gut dass noch ältere Karten wie z.B. HD3870 drin sind da die meisten Leute die sich für solche Tests interessieren doch noch gar keine neue Karte haben, sie haben Interesse an nem Kauf und Lesen deshalb Tests, so wie ich es tue.

Nur das Problem ist dann das Problem mit den zu alten Treibern.
Daher denke ich dass es wirklich sinnvoller ist ein paar ältere Karten rauszunehmen, wenn die Arbeit zu viel ist.
Und dafür aber 2 mal im Jahr (alle 6 Monate) einen großen Test mit zusätzlich vielen älteren Karten zu machen.

Mfg Seb89
 
Was mir in diesem thread und an deinen posts abermals extrem auffällt, ist, dass (auch) du auf biegen und brechen versuchst an AMD/ATI kein einziges gutes wort zu lassen
Es ist also böse, wenn man Fakten (Flimmer-AF, bevormundender Treiber, Sprengen der PCI-E-Specs) anführt? Großes Kino.
Was mir weiterhin auffällt: die qualität deiner Posts lassen insofern stark zu wünschen übrig, zumal sie sehr selten begründet bzw. zusammenhängend und sehr oft nicht länger als eine Zeile sind.
Ich kann alle meine Aussagen begründen, idR mit mehreren Links und schlicht durch eigene Tests. Warum aber soll ich jedesmal eine Textlatte mit Links tippen? Wer meint, ich rede Stuss, soll das eben tuen - ich versuche nur zu helfen und stelle Sachverhalte korrekt hin. Wenn das manchen nicht in ihr Weltbild passt - tjoa, fail.
Fang an und begründe expliziet und belegt, warum ATI FLOPs nicht mit nvidia FLOPs vergleichbar sind.
Die rechnerischen theoretischen FLOPS sind nicht vergleichbar. Warum? Weil nV skalare 1D-ALUs nutzt, AMD aber Vector-5-ALUs. Die rechnerischen FLOPS sind die die rauskommen, wenn alle ALUs werkeln - das kommt aber praktisch nie vor. Eine GTX200 liegt in der Praxis näher an den Theoriewerten, eine Radeon ist weiter weg (5-Vecs sind deutlich schwerer voll auszulasten) *LINK*
 
Zuletzt bearbeitet:
Hm er weiß ja viel der y33H@ aber sene Posts sind oft gar nicht zusammenhängend mit dem worums geht, und aus dem Zusammenhang gerissen um ATI/AMD schlecht zu machen. Imho deswegen sind sie von schlechter Quali.
Kannst ja ruhig mal zugeben.
Du postest oft irgendwelche Aussagen die andere Aussagen schlecht machen obwohl diese eigentlich richtig waren.
DAs machst du nur um deinen Senf dazuzugeben bzw den Aussagen den Wind aus den Flügeln zu nehmen.
Was du oben gesagt hast mag schon richtig sein, nur ist dies auch richtig:
Weil der Speicher der 4890 GDDR5 heißt und der der 275 GDDR3. Genauso wie bei SDRam zu DDR wurde auch vom GDDR4 zum GDDR5 die Taktzyklen verdoppelt. Also 1GHz GDDR5 sind 2GHz GDDR3 grob erklärt
Wenn die HD nicht GDDR5 hätte währe sie klar hinter der GTX260, somit kann man brabe schon recht geben.
Du wiederum schreibst einfach was hin und keiner weiß was er nun glauben soll.
Wenig Speicherinterface kann durch beispielsweise durh nen (hohen GDDR Speicher ausgeglichen werden) weiß ja nicht wie man das genau ausdrückt. siehe HD4770.
Jedenfalls sieht man dass die 512bit bei enr GTX280 total oversized sind, und ne GTX275 mit 448bit genausoviel Performance liefert.
Kein Wunder dass die Karten von Nvidia so teuer sind/waren.
 
Zuletzt bearbeitet:
und aus dem Zusammenhang gerissen um ATI/AMD schlecht zu machen
Sorry, aber bei so Aussagen zweifel ich an deinem Geisteszustand. Bist du ein kranker Fanboy, ist dein Weltbild n bissl durch oder woran liegt es? Zwei 4850er X2 samt Phenom plus Flames gegen mich sprechen eher dafür, dass du ein Fanboy bist. Btw wurde ich schon als ATI-, Intel- und AMD-Fanboy verschrieen. Das zeigt, dass ich es richtig mache - alles kritisieren, egal welcher Hersteller. Nur sind Leute wie du nicht in der Lage über ihren jämmerlichen Tellerrand hinauszuschauen. Schade.
Du wiederum schreibst einfach was hin und keiner weiß was er nun glauben soll.
Meine Aussage bezog hier rauf :rolleyes:
Wie kann es daher sein, dass die beiden Karten (275GTX & 4890) so ähnliche Ergebnisse erzielen?
Wenn du dein Hirn n bissl nutzen würdest, würdest du erkennen, dass mein Post und der von brabe zeitgleich kamen - mein Post war eigentlich eine direkte Antwort ohne das übliche "@ User XY".

EDIT
Ach ja - wenn ich so ein pöösher Fanboy bin: Mal meine Artikel gelesen? Da wird das gleiche wie in den Foren kritisiert und das gleiche gelobt, nur die Wortwahl ist eine andere.
 
Zuletzt bearbeitet:
Nunja.. was du da schreibst find ich eher lächerlich.
Was jedoch fakt ist dass du an ATI kein einziges gutes Wort lässt. Demnach bist du hier der Fanboy.
Weil so Leute gibt die das tun, zum Beispiel nur negatives über jmd. schreiben muss es auch Leute geben die diesen jmd. verteidigen, und weil ich den jmd. verteidge dann heits dass ich der fanboy bin. "Ironie aus"
Hatte früher n Sys aus 2 9600gt, vorher ne 8600gts, und davor auch Nvidia Karten.
Prozessoren vonIntel hab ich mir noch nicht zugelegt, da die immer zu teuern warn.
 
Zuletzt bearbeitet:
Was jedoch fakt ist dass du an ATI kein einziges gutes Wort lässt.
Falsch. Ich benenne beispielsweise 24x ED-CFAA als die beste Geomtrieglättung, lobe die per DX10.1 mögliche BQ in Clear Sky oder die besseren 3rd-Party-Kühlmöglichkeiten einer HD4k im Vergleich zu den GTX200 - sowas entgeht dir aber scheinbar (bewusst?) :rolleyes:

Ah ja, schau mal in diesen 3DC-Thread ... dort siehst du, wie vielen die AMD'sche Treiber- und AF-Politik massivst aufstößt. So wie mir auch.
Cyphermaster schrieb:
Wenn mir mein IHV der Wahl nicht MEINE Wahl läßt, wie ich meine HW nutze, sondern mir sagt, wieviel (bzw. wie wenig) Bildqualität mir gefälligst zu gefallen hat, dann sollte das jedem genug Argument sein, um das anzuprangern! [...] Die Existenz einer solchen Einschränkung ist ja nicht das Haupt-Problem, das ich meine. Das sehe ich darin, wenn dem Kunden mehr oder minder vorenthalten wird, daß "A.I. off" eben nicht wirklich "off" bedeutet, Testprogramme umgangen werden, oder -wie in dem Interview- entgegen der Erfahrung behauptet wird, daß man Mikroruckler gar nicht sehen könne. Solche Dinge müssen dem Interessenten schon bekannt sein, sonst fällt er seine Kaufentscheidung auf Basis falscher Einschätzungen.
Falls du immer noch der Meinung bist, dass ich ein Fanboy bin, nur weil ich genauso denke ...
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Jedenfalls sieht man dass die 512bit bei enr GTX280 total oversized sind, und ne GTX275 mit 448bit genausoviel Performance liefert.

Die Speicheranbindung von 512bit sind bei den Nvidias keinesfalls oversized, gerade weil NV nur DDR3 verbaut.
Die gleiche Performance rührt von den höheren Taktraten der GTX 275.

MfG
Mr_Blonde
 
Schaffe89 schrieb:
Jedenfalls sieht man dass die 512bit bei enr GTX280 total oversized sind, und ne GTX275 mit 448bit genausoviel Performance liefert.
Mich als Fanboy bezeichnen und behaupten ich lasse kein gutes Wort an AMD und dann eine solche Aussage! Du redest Müll, weil du nur das SI benennst, aber die höheren Clocks unterschlägst :rolleyes: Entweder mangelt es dir an technischem Verständnis, dem Blick für "Details" oder du bist du Fanboy - such es dir aus.
 
Schaffe89 schrieb:
Nunja.. was du da schreibst find ich eher lächerlich.
Was jedoch fakt ist dass du an ATI kein einziges gutes Wort lässt. Demnach bist du hier der Fanboy.

Also dem muss ich mal widersprechen.. y33H@ schreibt generell nicht gegen ATi, sondern pro der aktuell besseren Hardware. Und das war halt mal Intel, mal AMD, mal Nvidia und mal ATi..

Und hättest du dir den Link von ihm durchgelesen, wüßtest du, dass er vollkommen recht hat.

Nebenbei hatte ich in einem anderen Forum so ein ähnliches Problem. Der meinnte ATi wäre Nvidia im Moment Haushoch überlegen, weil die ATi Karten wesentlich mehr FLOPS können und somit auch die wesentlich besseren Karte sind.. Selbst die Frage, warum dann beide Karten in etwa gleich schnell sind (4870 gegen GTX 260), wurde gekonnt überlesen.. ATi blieb klar besser...

Tja, sowas ist mal Fanboy.. Das hier von y33H@ ist Darlegung von Fakten, deine Darlegung ist dagegen etwas gegen y33H@, mehr nicht!
 
Zuletzt bearbeitet:
Nunja 602/1100 der GTX280
Und 633/1164 der GTX275
Die GTX275 ist rund 5% schneller.
Bringt man die GTX280 auf die gleichen Taktwerte, wird sie von der Performance gleich schnell sein, imho sind die zusätzlichen Bit kaum nötig.
Aber was solls.
Auch wenn die GTX280 nicht mitm neuen Treiber getestet wurde dürfte das der Fall sein, dass die paar weniger Bit nicht viel ausmachen.

@y33H@ Das was du zu deiner Verteidigung sagst is ja der größte rotz..
Wenn schon mehreren Auffält dass du nur gegen ATI schießt wird das schon nen grund haben.
Ich hab jetzt keine Lust mehr darüber zu quatschen weil mir dein Arroganter Schwachsinn sowas von auf die Nerven geht.
Eben biste genau der selbe wie Unyu.
 
Zuletzt bearbeitet:
Zurück
Oben