News ATi Radeon HD 4870 X2 ab 402 Euro gelistet

kann ich leider nicht.

Ich hab mit meiner 512mb karte volle 4gb Speicher auf win2003 32bit.
Klar, das ding hat Adresserweitertung und darum gehts hier nicht, aber ich kanns eben nicht testen.

Deswegen hätte ich gerne ne quelle.

Denn WENN das so ist, dann könnte ich ja bei einer 2gb Grafikkarte jederzeit z.b. 1,5gb davon als normalen systemram nutzen innerhalb eines programms, da er ja direkt adressiert ist und das bezweifle ich ganz einfach mal.
 
Du hast unter 32 Bit Vista volle 4 GiB zur Verfügung? Mach da mal nen Shot von (Taskmanager). Das gibts imo nicht.

In den VRAM kann ein Prog sicher nicht adressieren, aber iwie steckt der halt da mit drin. So genau weiß ich das auch nicht.

cYa
 
Xedos99 schrieb:
402 € sind trotzdem ne Menge Holz nachdem ATI uns in den Vormonaten mit moderaten Preisen verwöhnte..
Vor allem wird es für viele im Case nicht genug Platz für die Karte geben

Klar sind 400€ ne Menge - du kannst dir aber sicher sein das die HD 4870 X2 - wenn sie eine nVidia Karte wäre - über 500€ kosten würde.
 
Zuletzt bearbeitet:
Frueher hat die 8800GTX und die Ultra auch richtig Holz gekostet und sie war in jedem High End Rechner drin...

Und die hat ueber 500Euronen gekostet!
 
Hmm... Ich hab heute meine Zotac GTX 280 bekommen... soll ich diese nun wieder zurückschicken und auf die 4870 X2 warten? (Die GTX 280 ist noch original verpackt)
 
@S.T.A.R.S.

Behalte die GTX, oder bist du scharf auf Multi-GPU-Probleme inkl. Mikroruckler, Mouselags und Pseudo-FPS?
 
Das Leute bei den Kommentaren immer vom Thema abweichen müssen, da is mir schon klar wieso CB nurnoch solche Kommentare erlaubt die kein News leser mehr sieht, is ja schlimm...

@Topic

Die Karte wird wohl seine Vor-/Nachteile haben, es wird wohl ein neuer Schwanzmark (3D Mark) Rekord aufgestellt um zu zeigen "AMD is nu das schnellste supi", aber da es doch noch einige Leute gibt die Ahnung haben isses wenigstens noch gut und es lohnt sich hier was rein zu schreiben ;)

Die Microruckler werden wohl nicht so schnell in den Griff bekommen zu sein, auch wenn ATI da nun an den Treibern rumfixxt und einige Games "fast Microcuklerfrei" hinbekommen sollte is das keine Lösung auf dauer, daher ist meiner Meinung nach die GTX 280 immernoch der ATI vorzuziehen, auch wenn Sie etwas langsamer im 3D Mark sein sollte wird die Karte doch die bessere Spiele Performance bieten, was doch für uns/euch alle das wichtigste ist.

Zwecks dem Stromverbrauch, wie schon manche angesprochen haben ist das eine High-End GPU und kein Onboard Chip oder sonstiges, deswegen sollte man sich nicht über den Stromverbrauch aufregen, im Idle wird er wohl ja fast akzeptabel sein.

Was mich aber immernoch enorm stört, das die meisten hier immer Single GPUs mit Multi GPUs vergleichen und dann sagen "haha die Karte ist schneller als die andere", ich finde die Vergleiche einfach nur scheisse und nicht angebracht.

Fakt ist, dass die GTX 280 die schnellste Single GPU is, die HD 4870 X2 die schnellste Multi GPU ist, aber auch nur weil es von seiten nVidias keine Multi GPU in Form von GTX 280 X2 gibt (noch nicht, wer weis)

So far..
 
Jetzt geht das schon wieder los... einfach die Signatur lesen :D

Ansonsten freue ich mich schon auf die ersten echten Tests der Karte auf die ich schon lange gewartet habe... am liebsten hätte ich ja 2 von den Karten, aber da CF schon hier und da so seine Macken hat bleibt abzuwarten wie sich 4fach-CF so schlägt. ATI muss bei den Treibern auf jedenfall ordentlich ran, wenn sie schon so eine Technologie anbieten kann man ja auch erwarten dass sie funktioniert.
 
ich bin kein nVidia Fanboy -_-
 
Zwecks dem Stromverbrauch, wie schon manche angesprochen haben ist das eine High-End GPU und kein Onboard Chip oder sonstiges, deswegen sollte man sich nicht über den Stromverbrauch aufregen, im Idle wird er wohl ja fast akzeptabel sein.

Grade bei High-End GPU´s die mal leicht 50W im single und bis zu 150W im SLI/CF Idlebetrieb verbrauchen. (Triple-SLI sogar fast 300W ! ! !)
Das es aber auch anders geht beweist doch nVidia mit Hybrid Power.
Klar noch funzt es nicht 100% aber ein anfang ist gemacht.

akzeptabel ist 0W Verbrauch im Idle.
 
da bin ich ja mal gespannt auf die karte. ich würde sagen wenn die karte wirklich keine mikroruckler mehr haben sollte, dann wird ati sich ne goldene nase mit dem ding verdienen ;) sonst lieber gtx 280. leider glaube ich selbst ja nicht mal dran das sich mikroruckler von einer generation auf die andere abstellen lassen. vielleicht minimieren aber nicht abstellen. naja wenns im leben zu schön ist um wahr zu sein, ist es meistens auch so:D
 
Ted schrieb:
Was mich aber immernoch enorm stört, das die meisten hier immer Single GPUs mit Multi GPUs vergleichen und dann sagen "haha die Karte ist schneller als die andere", ich finde die Vergleiche einfach nur scheisse und nicht angebracht.
da will ich doch mal fragen, warum man nicht single und multi gpu karten vergleichen soll.
mich interessiert doch letztendlich nur die performance und der preis, der für diese performance aufzubringen ist. solange also beide faktoren (preis und gpu leistung), je nach bedarf, in einem für den käufer vernünftigen verhältnis zueinander stehen, ist es doch egal, was unter der motorhaube steckt.
 
Die Performance sollte aber bei beiden gleichbleibend sein, die Single GPU Karten bringen eben ihre volle Leistung ohne irgendwelche Nebenwirkungen, die Multi GPU Karten haben im Moment immernoch das Problem der Microruckler u.a. Darum kannst du das mit dem Motoren Vergleich nicht wirklich bringen ;D
 
Ted schrieb:
Die Performance sollte aber bei beiden gleichbleibend sein, die Single GPU Karten bringen eben ihre volle Leistung ohne irgendwelche Nebenwirkungen, die Multi GPU Karten haben im Moment immernoch das Problem der Microruckler u.a. Darum kannst du das mit dem Motoren Vergleich nicht wirklich bringen ;D
wieso sollte die performance bei verschiedenen karten gleich sein? ich will doch die performanteste karte (zu einem angemessenen / akzeptablen preis). ansonten könnte ich verlangen, dass alle grafikkarten die gleiche leistung bringen sollten, wie meine alte et4000. (oder missverstehe ich deinen eröffnenden satz komplett, wovon ich erstmal ausgehe)

gehen wir mal von einem spiel vom schlage von crysis aus (hohe auflösung, details und qualität)
- eine singlekarte bringt meinetwegen 20 fps -> das grafik ruckelt merklich, so dass man im allgemeinen sagt, dass es nicht spielbar ist
- eine dualkarte bringt nun 25 fps *fängt gerade so an spielbar zu werden*, hat aber die microruckler -> durch die microruckler ist es dennoch gelichermassen nicht spielbar.
allerdings würde man mit den 25fps (ohne microruckler) auch noch diesen eindruck behalten, da es immer noch nicht wirklich flüssig ist.
**in beiden fällen bringen die karten nicht die ausreichende leistung, sind also in der hinsicht vergleichbar schlecht**
da die microruckler aber nur bei geringeren framezahlen auftreten (soweit ich das nun aus diversen tests und forenberichten schliessen konnte), habe ich bezüglich single und dual gpu karte die wahl zwischen nicht spielbar, weil einfach nicht genug leistung vorhanden ist und nicht spielbar aufgrund eines technischen problemes
da aber andererseits die dual gpu karte mehr leistung bringt / bringen sollte, wird ein spiel insgesammt eher potentiell spielbar sein, sobald man diesen kritischen niedrigen microruckler bereich verlässt, als mit einer single karte. wenn dann auch noch der preissliche rahmen passt, dann kann man das innenleben der karte ignorieren, denn wichtig ist der unterschied zwischen spielbar und nicht spielbar.

entsprechend bleibt bei mir die frage bestehen, warum man nicht single und dual gpu lösungen vergliechen sollte, solange sich die geräte in eiem entsprechendem preis / leistungsverhältnis befinden
 
naja du sprichst nun auch wieder von was anderem ;P

nicht spielbar ist nicht spielbar, egal ob mit Microrucklern oder mit zu wenig Leistung, Crysis is eh nen schlechter Vergleich, meiner Meinung nach is Crysis schlecht programmiert fertig ;)

meiner Meinung nach wie oben einfach schon beschrieben sollte man einfach Single GPU mit Single GPU und Multi GPU mit Multi GPU vergleichen um den reellen Geschwindigkeitsunterschied zu merken, denn wenn du nun 2 GTX 280 im SLI Betreibst bist du wiederum schneller als die HD 4870 X2 und der unterschied zwischen beiden Lösungen ist ja kein großer (oder irre ich mich?)

lassen wir das einfach ^^
 
Ted schrieb:
naja du sprichst nun auch wieder von was anderem ;P

nicht spielbar ist nicht spielbar, egal ob mit Microrucklern oder mit zu wenig Leistung, Crysis is eh nen schlechter Vergleich, meiner Meinung nach is Crysis schlecht programmiert fertig ;)

meiner Meinung nach wie oben einfach schon beschrieben sollte man einfach Single GPU mit Single GPU und Multi GPU mit Multi GPU vergleichen um den reellen Geschwindigkeitsunterschied zu merken, denn wenn du nun 2 GTX 280 im SLI Betreibst bist du wiederum schneller als die HD 4870 X2 und der unterschied zwischen beiden Lösungen ist ja kein großer (oder irre ich mich?)

lassen wir das einfach ^^
ich hab nun einfach mal crysis genommen, weil mir derzeit kein anderes spiel bekannt ist, dass die aktuellsten highend karten so zur verzweiflung treibt *g*, es könnte für dieses beispiel auch einfach nur tetris heissen, wenn es entsprechend leistung von der grafikkarte bräcuhte, um in diesen gewissen grenzbereich zu kommen.

wenn du aber nun die gtx280 in einem sli verbund gegenüber einer 4870x2 stellst um nun mal auf konkrete grafikkarten zu kommen, dann wird es aber mit dem preis faktor schwierig. denn diese sli lösung ist erheblich teurer und wird es vor allem erst noch, wenn die x2 karten in grösseren mengen verfügbar sind und entsprechend der preiskampf losgeht (ich vermute einfach mal, dass die 4870x2, je nach dem mehrleistungsgrad, 20 bis maximal 50€ über einer gtx280 liegen wird ) als nächstes, könnte man da noch, deiner argumentation folgend sagen, dass man einen sli / crossfire verbund nicht mit einer einzelnen grafikkarte vergleichen darf. worauf ich hinaus will, gestalte ein gtx280 sli verbund preislich so, dass er vielleicht maximal 50€ über einer 4870x2 liegt und der vergleich wäre in meinen augen absolut gerechtfertigt, du hingegen müsstest sagen, dass das nicht gemacht werden darf / soll

lassen? und dann auch noch einfach? NÜX DA! ;)
ne mal ehrlich, ich für meinen teil begreife einfach nicht, warum man so nicht vergleichen sollte, habe aber auch noch keine ernstzunehmenden erklärungsversuche gesehen, insofern bist du eine absolute ausnahme und es wäre schön, wenn sich andere, die auch deiner meinung sind, beteiligen würden
 
Bitcatcher schrieb:
@-curuba-

Die Mikroruckler sind bei der 4870 X2 bereits von PCGH nachgewiesen worden:

http://www.pcgameshardware.de/aid,6...weist_Mikroruckler_auf_der_Radeon_HD_4870_X2/

Allerdings in Auflösungs und Qualitätseinstellungen bei welchen die Anwendung selbst nicht über 11 FPS raus gekommen ist und sich somit die Leser des Tests streiten ob´s nun Mikroruckler oder normale Ruckler sind.

Mikroruckler im spielbaren FPS Bereich ist PCGH bis heute schuldig geblieben.
 
Zurück
Oben