News Radeon HD 4870 X2 schlägt GeForce GTX 280?

unyu ist einfach frustriert.

aus der domäne von nvidia ist nichts übriggeblieben.

niemand kauft mehr ne nvidia der 9er reihe, da greifen alle zur 4850.

kaum jemand kauft ne GTX260, da greifen die meisten lieber zur 4870.

und die high end freaks werden eben alle zur 4870x2 greifen, weil die eben brachial viel power hat und die GTX280 ziemlich lahm und alt aussehen läßt.

nvidia spielt nur noch 2. geige, da müßen einige erst mit klarkommen.
 
spawngold schrieb:
Das klingt wie " ich bin nur ein bischen Schwanger ". Selbst wenn es "weniger" werden wie du sagst, wären sie vorhanden und stören.. :)

Nur für Dich :D

index.php


Quelle

Statement dazu:

Gut zu erkennen, Crossfire hat nur minimal größere Schwankungen als ein Single GPU System. Hier scheint die Treiberabteilung bei AMD/ATi gute Arbeit geleistet zu haben. Bleibt zu hoffen, dass die HD4870 X2 ähnlich gute Ergebnisse zeigt.

Du siehst auch ein bisschen schwanger ist möglich ;)

cosmicparty schrieb:
nvidia spielt nur noch 2. geige, da müßen einige erst mit klar kommen.

Früher oder später spielen die auch wieder die erste Geige und vom Prinzip her ist es egal wer da wo in Führung liegt, das wichtigste überhaupt ist, dass wir brachiale 3D Leistung und High End Technik zum Discountpreis bekommen :D
 
Zuletzt bearbeitet:
Antimon schrieb:
Früher oder später spielen die auch wieder die erste Geige und vom Prinzip her ist es egal wer da wo in Führung liegt, das wichtigste überhaupt ist, dass wir brachiale 3D Leistung und High End Technik zum Discountpreis bekommen :D

Deinem letzten Satz, kann ich dir voll zustimmen Auch wenn die Buchstaben so gross sind, dass ich scrollen muss :p

Cool, kann man nur hoffen, das dass Problem mit den Microrucklern, bald der Vergangenheit angehört.. Denn Mehrkerner sind die Zukunft, ob in Krakas oder in CPUs ^^


SPAWNI
 
Zuletzt bearbeitet:
Antimon schrieb:
Och für die µRuckler hatte ich Dir doch letztens schon n Test aus´m ATI-Forum gepostet
Nö hast du nicht, ok jetzt schon.
Das sind simple Frapsmessungen. Nichtssagend, zudem aus unabhängiger Quelle namens "ATI"-Forum.

Das reicht dir als Beweis?
Ziemlich leichtgläubig meinst du nicht?

ExcaliburCasi schrieb:
ob Mikroruckler existieren weiß man derzeit einfach nicht, zu behaupten sie sind noch da, ist schlichtweg genauso falsch als zu sagne sie wären weg.
Bisher gibt es µRuckler.
Deshalb ist es Richtig zu behaupten, das es sie weiterhin gibt, bis es mehrere eindeutige, unwiederlegbare Beweise gibt.

ExcaliburCasi schrieb:
was Unyu von sich gibt sind einfach Halt lose Behauptungen und Propaganda.
Seit wann das?
Zu 99% sind meine Aussagen korrekt. Kann man nicht von jedem hier behaupten.

Antimon schrieb:
dass wir brachiale 3D Leistung und High End Technik zum Discountpreis bekommen :D
Das Filterniveau, von vor 19 Monaten (G80 Release)/5 Jahren (NV30 Release) hat AMD immer noch nicht erreicht.
 
Zuletzt bearbeitet:
spawngold schrieb:
Deinem letzten Satz, kann ich dir voll zustimmen Auch wenn die Buchstaben so gross sind, dass ich scrollen muss :p

Das tut mir nu leid :streicheln:

Aber ich konnt einfach ned anders, denn irgendwie gerät genau dieser Punkt immer wieder in Vergessenheit, obwohl das eigentlich unser Hauptanliegen sein sollte :)

Unyu schrieb:
Nö hast du nicht, ok jetzt schon.
Das sind simple Frapsmessungen. Nichtssagend, zudem aus unabhängiger Quelle namens "ATI"-Forum.

Das reicht dir als Beweis?
Ziemlich leichtgläubig meinst du nicht?

Der Angeklagte gilt so lange als unschuldig, solange nichts anderes bewiesen wurde, oder willst Du die Grundzüge unserer Rechtssprechung in Frage stellen? :p


Bisher gibt es µRuckler.
Deshalb ist es Richtig zu behaupten, das es sie weiterhin gibt, bis es mehrere eindeutige, unwiderlegbare Beweise gibt.

Es hat auch niemand behauptet, dass es sie nimmer gibt es wurde nur behauptet, dass sie bei der neuen ATI Grafikkartengeneration nachweislich geringer ausfallen ;)

Das Filterniveau, von vor 19 Monaten (G80 Release) hat AMD immer noch nicht erreicht.

Was genau wie viele Personen außer Dir interessiert? :rolleyes:

Btw. da fällt mir das hier zu ein (SCNR):

Wikipedia schrieb:
Als Korinthenkacker werden besonders pedantische und kleinliche Menschen bezeichnet, die ihren Mitmenschen gegenüber rechthaberisch auftreten. Die Korinthe ist die kleinste Rosinenart.

Während dieser Begriff hauptsächlich in der Bundesrepublik Deutschland Verwendung findet, betitelt man derartige Menschen in Österreich als I-Tüpferlreiter, in der Schweiz und in Südwestdeutschland auch als Tüpflischisser, Dippelschisser oder Dipfeleschisser. Synonyme für Korinthenkacker sind „Erbsenzähler“, „Kümmelspalter“, „Beckmesser“, „Piddelskrämer“ in der Berliner Mundart „Krümelkacker“ und in der bayerischen „Gscheidhaferl“. Eine ähnliche Bedeutung hat auch „Haarspalter“, dabei wird allerdings (Über-)Genauigkeit betont, wohingegen rechthaberische Pedanterie allenfalls eine untergeordnete Rolle spielt. Modellbauer sprechen auch vom „Nietenzähler“.

Im Niederländischen hat das Wort eine andere Denotation. Hier bedeutet die wörtliche Übersetzung, „Krentenkakker“ etwa so viel wie „Geizhals“.

Quelle

P.S. das "dass wir brachiale 3D Leistung und High End Technik zum Discountpreis bekommen" bezog ich eigentlich auf Karten von ATI sowie von Nvidia :p
 
Zuletzt bearbeitet:
Unyu schrieb:
Nö hast du nicht, ok jetzt schon.
Das sind simple Frapsmessungen. Nichtssagend, zudem aus unabhängiger Quelle namens "ATI"-Forum.

naja, kann man genau so glauben wie deine Propaganda,dass der G200 doppelt so schnell ist wie die GX2 und in extremsituationen 10mal so schnell.


Bisher gibt es µRuckler.
Deshalb ist es Richtig zu behaupten, das es sie weiterhin gibt, bis es mehrere eindeutige, unwiederlegbare Beweise gibt.
ja,es gibt beweise,dass es sie in der HD3 serie gibt und bei allen Nvidias, aber bisher gibts 0 beweise,dass es sie bei der HD4 serie gibt, im gegenteil gibts in fast allen foren aussagen und messungen,dass sie nicht mehr auftauchen. solange nicht das gegenteil bewiesen ist, existieren sie nicht. Im zweifel für den angeklagten.
Seit wann das?
Zu 99% sind meine Aussagen korrekt. Kann man nicht von jedem hier behaupten.

naja, 99% ist doch schon, wenn evt nur leicht, übertrieben. zumal deine argumentation immer sehr einseitig beleuchtet ist und vor allem sehr voreingenommen. fakten die schlechtes nvidia ankreiden ignorierst du, sprichst du nicht an,bzw verschweigst sie, und be ATI machste aus nem staubkorn nen Elefanten. zudem du dann mit so sinnfreien Argumenten wie die Filtermärchen gehn,die in der Praxis keine differenzierte rolle spielen, und nimmst noch exakt gleiche AA qualitäten an. auch gibts bei dir nur ein SSAA, und alles was die konkurenz hat, ist scheiße.

sobald aber Nvidia zb mit GDDR5 kommt, oder 10.1 hätte wäre es wieder ne offenbarung.

Das Filterniveau, von vor 19 Monaten (G80 Release)/5 Jahren (NV30 Release) hat AMD immer noch nicht erreicht.

du weißt selber,wie es um BQ vor der G80 stand? i sag nur mal GF7.

gruß
 
Schinzie schrieb:
du weißt selber,wie es um BQ vor der G80 stand? i sag nur mal GF7.
Ich weiß, was nach NV30 geschah: Niemand würdigte die sehr hohe Qualität. -> Die Qualität wurde der Performance geopfert.
Immerhin konnte man bei NV die Optimierungen zum Großteil ausschalten, ATi hat das ja geschickt mit AI gekoppelt.

Bis auf die Winkelabhängikeit ist es nicht so schlimm, wie dargestellt. Ja HQ hat Performance gefressen aber es wars wert. Ich würde AI sofort ausschalten, wenn nicht diese Koppelung währe.

Außerdem was hat das jetzt mit RV770 zu tun? Wie viele Jahre gab es ATi? Die Performance ist doch ok, wo bleibt jetzt das AF?

Schinzie schrieb:
Das ist schlicht falsch.
Nur weil eine AMD Karten die gefärbten Mipmaps erkennen und so sauber wie möglich filtern, ist es 1. nicht im Reallen so, bzw sagt das null übers Flimmern aus. (siehe R5xx, Area AF, flimmern gibts trotzdem, juckt aber keinen das ist nur bei G7x Q relevant ...)
Hoffentlich kommt bald der erhoffte AI Artikel.

Schinzie schrieb:
Ist tatsächlich ein irres Feature.
Ich weiß ja nicht, wie du Flimmern jeglicher Art begegnen willst und gleichzeitig das komplette Bild schärfst.
Hast du mir bisher nicht erklären können.

Schinzie schrieb:
umal deine argumentation immer sehr einseitig beleuchtet ist
Gib mir die Gelegenheit und ich schreibe genug negatives.

Schinzie schrieb:
sobald aber Nvidia zb mit GDDR5 kommt, oder 10.1 hätte wäre es wieder ne offenbarung.
Nö eben nicht.
Die GDDR Version ist mir völlig wurst. Soll von mir aus DDR1 verbaut werden, wenn das Ergebnis stimmt.
Die API ist mir ebenfalls völlig wurst, solange ich davon keinen Vorteil habe. Selbst D3D10, das ja tatsächlich etwas bringt ist mir relativ unwichtig.
....

Antimon schrieb:
Der Angeklagte gilt so lange als unschuldig, solange nichts anderes bewiesen wurde, oder willst Du die Grundzüge unserer Rechtssprechung in Frage stellen? :p
? Bisher war der Angeklagte schuldig. Jetzt gilt es zu beweisen, das diese Leiche nicht sein Werk ist.
Das Fraps schöne Ergebnisse auspuckt wissen wir, wir wissen auch, das man dem nicht trauen darf.

Antimon schrieb:
Btw. da fällt mir das hier zu ein (SCNR):
Schon klar, aber würde Nvidia wieder das Filterniveau senken, währen alle zur Stelle, siehe Vergangenheit.
 
Ach gott, NV geht zu Grunde und Unyu rebelliert, verständlich, immerhin scheint er da zu arbeiten und hauptberuflich hier zu missionieren :evillol::

Aber das wird nix helfen, hier gelten nur Fakten und ATis CFAA das mit der HD4er Serie eingeführt wurde, schlägt alles dagewesene ;)
 
Dann prüfe wenigstens deine Fakten.
CFAA gibts seit HD2900XT.

Du kennst schon den Unterschied zwischen CFAA und SSAA?
 
Unyu schrieb:
? Bisher war der Angeklagte schuldig. Jetzt gilt es zu beweisen, das diese Leiche nicht sein Werk ist.
Das Fraps schöne Ergebnisse auspuckt wissen wir, wir wissen auch, das man dem nicht trauen darf.

Richtig, das Kind eines Mörders wird solange eingesperrt bis es bewiesen hat das es keinen tötet. :rolleyes:


@99% , naja, wird dann wohl so sein das du das 1% im GRafikkartenbereich sammelst.
 
vendetta, unyu hat recht. SSAA und CFAA sind zwei verschiedene Paar Schuhe.


gruß
 
Ich muss selber zugeben ATI hat die Nase vorne aber wer nunmal auf Singlekarten steht mit Leistung muss die GTX280 nehmen andernfalls zur HD4870X2 greifen
 
Vendetta schrieb:
Aber das wird nix helfen, hier gelten nur Fakten und ATis CFAA das mit der HD4er Serie eingeführt wurde, schlägt alles dagewesene ;)

Absolut falsch. SSAA ist der qualitativ beste AA Modus, aber sehr leistungshungrig.

Single und Multi GPU Karten haben beide Vor und Nachteile. Es gibt noch keine einzig wahre Lösung...
 
Zuletzt bearbeitet:
hab grade mal age of conan mit ner 4870 gezockt, auf nem 22er.

das muß man gesehen haben, alles voll rein, auch entfernung so weit es geht usw.

und trotzdem total flüssig und wunderschön anzusehen.

das man nur mit offenem mund da steht und staunt.

und das für 200€. ohne ati, wenns nach nvidia gehen würde, müßte man für die leistung 380€ bezahlen, also kommt mal langsam klar nvidiafanboys.... ist ja tragisch *g*



falls jemand meine argumentation nicht versteht, nvidia wollte eigentlich 380€ für ne GTX260 haben. hat sie neulich noch gekostet. nur weil ati so verbraucher und kundenfreundlich ist und eben so schnell, müssen die die preise senken.
 
Zuletzt bearbeitet:
@ Cosmicparty Was geht denn mit dir? Is doch Okay, wir wissen, das die 4870 ne Gottgesegnete Karte is.. Musst du nu alle die Nvidiakarten benutzen Missionieren?

Was kümmerts dich, was man für ne Karte bereit ist auszugeben? Du machst das ja zu deiner Passion.. Komm mal runter. Du würdest glatt nackt durch die Fussgängerzone rennen nur um zu verkünden wie gross ATI ist.. Wir alle wissen es.. Is doch sooo schnuppe, was im Rechner steckt, hauptsache es macht spass und is schnell.

SPAWNI
 
spawngold schrieb:
@ Cosmicparty Was geht denn mit dir? Is doch Okay, wir wissen, das die 4870 ne Gottgesegnete Karte is.. Musst du nu alle die Nvidiakarten benutzen Missionieren?
Irgendwie muß der eine oder andere seine Minderwertigkeitskomplexe doch überwinden, oder? ;)
Trolle soll man nicht füttern, weißt Du doch. Man kann auch so süffisant lächeln. :D Wer weiß schon, was ihn so ankotzt.
 
cosmicparty schrieb:
(...)
falls jemand meine argumentation nicht versteht, nvidia wollte eigentlich 380€ für ne GTX260 haben. hat sie neulich noch gekostet. nur weil ati so verbraucher und kundenfreundlich ist und eben so schnell, müssen die die preise senken.

Für Verbraucher- und Kundenfreundlichkeit ist in diesem Business kein Platz. Sie haben ihr Konkurrenzprodukt marktstrategisch gut positioniert, that's it.

Bei ATI sitzt kein Sangt Martin, der sich den ganzen Tag überlegt, wie er denn die Welt ein kleines Stückchen besser machen kann.

Letztendlich aber auch egal: nur das Konkurrieren zwischen NVidia und ATI bringt dem Verbraucher Preis-/Leistungsvorteile und es ist schön zu sehen, dass ATI endlich mal wieder den Anschluss geschafft hat.
 
Die GTX 280 wird immer attraktiver - jetzt ist sie laut Geizhals schon wieder im Preis gesunken:

339€, dazu lagernd bei Mindfactory

klick
 
Bei mir ist sie nicht lagernd bei Mindfactory?
 
Zuletzt bearbeitet:
Zurück
Oben