Erste (User-) Benchmarks der HD4850 (Crossfire)

Und du vergisst, dass der G92 kein expliziter High-End Chip ist. Man hat beim GT200 praktisch die G92 Logik verdoppelt, einige Tweaks zur Effizienzsteigerung vorgenommen, die Taktraten zugunsten der Leistungsaufnahme gesenkt, fertig. Das ist für mich schon vergleichbar mit 2x G92 ala 9800 GX2.
 
Deswegen habe ich auch den G80 mit angeführt. Das war der letzte wirkliche High-End-Chip von nVidia und auch dort ist die Leistung 50% höher ausgefallen. Das alles ändert aber nichts daran, dass diese Steigerung alles andere als schlecht ist. Das schaffen die Graka-Hersteller auch nicht immer. So extreme Ausnahmen wie der Sprung von der 7er-Serie zur 8er-Serie sind da noch seltener.

Natürlich ist es mit der 9800GX2 vergleichbar, dennoch bleiben es zwei GPUs und nicht eine. Deswegen wird dein Vergleich also auch nicht besser.

Edit:
Ich poste es gern auch noch mal hier. 3DCenter haben es schön formuliert:

3DCenter schrieb:
[...]
Die GeForce 9800 GX2 kann die GeForce GTX 280 zwar nicht schlagen, aber spielt doch oftmals in derselben Performance-Klasse.

Das mögen einige eventuell als enttäuschend betrachten, hatte man eventuell auf mehr gehofft. Allerdings musste nVidia auch, um die Performance der GeForce 9800 GX2 mit nur einem Chip zu erreichen, dessen Leistung gegenüber den Vorgänger-Chips G92 und G80 um mehr als 50 Prozent anheben - und hat dies schließlich auch getan. Und eine solche 50prozentige Performancesteigerung gegenüber dem Vorgängerchip sind aller Ehren wert
[...]

Quelle: www.3dcenter.de
 
Zuletzt bearbeitet:
Ich finde aber das es der einzigste vorteil des GT200 gegenüber der 9800GX2 ist(SINGLE/DUAL CHip)! Mal abgesehen vom gerigeren Stromverbrauch im windows betrieb.
 
@AvenDexx

Ob zwei GPUs oder eine, interessiert mich als Endkunden aber nicht. Es ist und bleibt eine Karte. Und dann sind wir wieder beim allseits beliebten Thema CF/SLI. Da dies fast ausschliesslich auf subjektiven Argumenten basiert, und ich mich dazu auch schon geäussert habe, will ich diese Diskussion auch nicht lostreten.
Fakt ist einfach, im Vorfeld wurden die Erwartungen einfach zu hoch geschraubt. Inwiefern nVidia daran beteiligt war, kann ich nicht beurteilen. Aber dass Aussagen wie von unserem Spezi Unyu, von wegen die GTX 280 wird doppelt so schnell wie die 9800 GX2, lächerlich waren und nicht zutreffen konnten, war bereits im Vorfeld abzusehen.
Und solche Aussagen wie von 3DCenter sind nichts als Schönrederei. Wenn ich sämtliche Chiplogik verdopple und dazu noch einige Tweaks vornehme, auch wenn die Takraten verringert werden, sind 50% gerade noch so akzeptabel. Von "aller Ehren wert" kann da keine Rede sein.

Btw, du solltest lernen, korrekt zu zitieren. Dass du meine Aussage einfach abschneidest, gibt dem Abschnitt einen anderen Sinn. Das habe ich so nicht gesagt.
 
Zuletzt bearbeitet:
@deathhour

Ok, beginnen wir erneut von vorne.

Hier wurde auf die Leistung eingegangen nichts anderes! Du kommst jetzt wieder mit anderen Vor-/Nachteilen.

Das ist soweit ja auch richtig und wurde hier doch nun auch schon zu genüge geschrieben und beschrieben.
Die Lautstärke ist im Vergleich zur GX2 wohl schlechter und auch der Preis. Der Preis sinkt doch aber jetzt schon, weil die Konkurrenz im eigenen Hause sitzt. Somit bleibt im Vergleich dann eigentlich nur noch die Lautstärke übrig. Ich sehe da insgesamt also mehr Vorteile für die GTX 280 als für die 9800GX2. Zumindest, wenn sich der Preis der GTX 280 endgültig eingependelt hat. Momentan sind es ja noch fallende Einführungspreise.

@gruffi
Ich habe korrekt zietiert. Ich habe keine Sätze von dir abgeschnitten. Es sind exakt die zwei Sätze, die du gepostet hast. So wie es da steht, ist es also deine Aussage gewesen.

Dass es den Endkunden so nicht interessiert mag ja durchaus stimmen. Das bezieht sich aber eher auf die Otto-Normal-Endkunden, zu denen wir hier eher weniger zählen (was jetzt nicht abwertend gemeint ist). Schließlich diskutieren wir hier über Sachen, die Otto-Normaluser so gar nicht mitbekommt. Du beteiligst dich auch an der Diskussion und hast daher auch schon ganz andere Vorkentnisse. Genau aus dem Grund darfst du sowas nicht einfach ausblenden. Es ist einfach so, dass sie 50% Leistungssteigerung definitv nicht so schlecht ist, wie sie hier dargestellt wird und das unter anderem auch von dir. Hier werden Bilder verzerrt, indem man einfach die 9800GX2 heranzieht. Das ist einfach keine vernünftige Grundlage, wenn man die Leistung einer Karte/GPU mit der Vorgängergeneration vergleichen will.
 
Zuletzt bearbeitet:
Du hast mich immer noch nicht verstanden. Ich beurteile keine Karte und keine Leistung. Die einzelnen Daten in Zahlen der Karten sind auf Augenhöhe.

2x 256 - 576
2x 200€ - 500€
2x110W - 236W.

mehr habe ich nicht gesagt und auch nicht gewollt.

Gruß Wolf
 
@wolf-cottbus

512 - 576
400€ - 500€
220W - 236W.

Ich sehe da immer noch nichts von "auf Augenhöhe". Maximal bei der Leistungsaufnahme könnte man davon sprechen.
Ansonsten trifft das zu, was du hier zu kritisieren versuchst. Solche simplen Rechnungen entsprechen nicht den Tatsachen. Die HD 4850 gibt es momentan für 180 Euro, obwohl sie noch nicht mal gelauncht wurde. Macht für 2 Stück 360 Euro. Die verfügbaren GTX 280 Modelle beginnen aber tatsächlich erst ab 500 Euro.
Und wie ich bereits sagte, selbst zwei RV770 Chips sind für AMD immer noch besser als ein GT200 Chip für nVidia. Die Grösse alleine ist nur die Hälfte der Wahrheit, hinzu kommen noch die Yields.

@AvenDexx
Du hast sehr wohl falsch zitiert. Wenn ich mal zitieren darf, du schreibst:
...Auch wenn die Verbesserungen gegenüber der 9800 GX2 nur marginal sind. Etwas mehr Leistung, etwas geringere Leistungsaufnahme. Lediglich die Leistungsaufnahme im Idle Betrieb ist signifikant besser geworden. Aber wirklich beeindruckend ist das nicht....
Der letzte begonnene Satz klingt so, als ob er sich auf den gesamten Abschnitt bezieht.

Ich habe aber geschrieben:
Auch wenn die Verbesserungen gegenüber der 9800 GX2 nur marginal sind. Etwas mehr Leistung, etwas geringere Leistungsaufnahme. Lediglich die Leistungsaufnahme im Idle Betrieb ist signifikant besser geworden. Aber wirklich beeindruckend ist das nicht. G92 ist hier alles andere als effizient.
Und damit sollte klar werden, dass sich die letzten beiden Sätze ausschliesslich auf die Idle Leistungsaufnahme beziehen und nicht auf den ganzen Abschnitt.

Also zitiere in Zukunft bitte komplett und verfälsche nicht die Aussage.

Und wenn du schon so darauf bestehst, die 9800 GTX als Vergleich heranzuziehen, dann lasse P/L nicht aussen vor. Das ist für die meisten Leute immer noch am ausschlaggebendsten, egal ob Ottonormal oder nicht. Eine 9800 GTX gibt es momentan ab 200 Euro, mit 50% Aufpreis wären wir bei 300 Euro. Wo soll da die Verhältnismäszigkeit zur GTX 280 mit 500 Euro sein?
 
Zuletzt bearbeitet:
@deathhour
Ja, habe ich auch schon gesehen. Wenn du dem Link des Shops folgst, landest du allerdings nirgendwo.
Momentan scheint wirklich nur Powerpointonline welche auf Lager zu heben. Und dort hat ua der User aus dem HWL Forum auch seine Karten her.
 
:lol: Der link geht doch?? Ich komm drauf!
 
Er meint die Links der Shops. Wenn du dort draufklickst, landest du eben nicht bei der Graka.
 
komisch naja geht einfach auf geizhals und gebt es in die suche ein dann findet ihr den Händler!
 
Nochmal ganz langsam. Klicke auf deinen Link. Dann landest du bei den Angeboten der Gigabyte Radeon HD 4850. Klicke nun auf den Link zum Shop des Anbieters, in dem Fall HiQ24. Du landest auf deren Startseite, nicht beim Artikel, wie sonst üblich.
Sogar wenn du im Shop selbst suchst, zB nach "Radeon 4850", hast du keinen Treffer. Ist momentan also uninteressant. Mal abwarten, ob sich bis morgen etwas ändert. Zumindest ist die Info "in 24 Stunden am Lager" auf Geizhals vorhanden.
 
Der gute zocker hats sogar geschafft die 2 4850er mit einer 3870er laufen zu lassen. Hätt eigentlich gedacht dass es Generationenübergreifend net geht. Aber nett: crysis in 1900x1200 very high mit 8x AA ca 20 FPS average mit den 3 Karten.


mfg
 
Was soll die HD3 in mit den beiden HD4?
Mikroruckler erzeugen?
Bringt nichts verschieden schnelle Karten im CF zu betreiben. Könnte er genauso gut 3 HD3 nehmen, wär das Selbe.
 
Unyu schrieb:
Was soll die HD3 in mit den beiden HD4?
Mikroruckler erzeugen?
Bringt nichts verschieden schnelle Karten im CF zu betreiben. Könnte er genauso gut 3 HD3 nehmen, wär das Selbe.

Ist ein HD3870/HD3850 CF nicht schneller als ein HD3850 CF oder hab ich da was falsch in Erinnerung?

E: Gibts eigentlich nähere Information, wann denn nun Benchmarks von CB kommen?
 
Zuletzt bearbeitet:
Im CF-Verbund HD3870/3850 rendert die HD3870 "nur" mit der Geschwindigkeit der HD3850.
 
Die 4850er sind wieder überall verschwunden. Hat AMD da eingegriffen oder sind die einfach so schnell ausverkauft?
Denke eher ersteres, da sie ja sonst wenigstens als "nicht verfügbar" gelistet wären...
 
denke die sind ausverkauft. Hab noch nir soviel vorab user-tests gesehn wie von der karte. Und alle keufen sie glaich 2. es gibt mehr reviews mit cf als mit einer einzelnen

mfg
 
Was mann mit ein paar test/gerüchten für eine kauf epedemie vom stappel treten kann ist schon sehr lustig anzusehen xD!

Ich selbst kauf mir auch eine HD4870 jedoch erst zugegebener Zeit wenn ein test vorliegt!
 
Zurück
Oben