News AMD stellt auch ATi Radeon HD 4850 X2 vor

oh man wie kann man hier schon behaupten das die Grafikkarte überflüssig ist?
ist die HD4850 dann durch die HD4870 auch überflüssig?

Wir bewegen uns hier in anderen Dimensionen und die HD4870 X2 wird sich wie die normale HD4870 von ihren kleineren Brüdern absetzen können.

Die große X2 ist übrigens um einiges schneller als ne einfache GTX280!
 
ohh man da sind wohl per treiber nochmal große verbesserungen zu erwarten, auszug aus heise.de:
Im Hinblick auf die Radeon 3870 X2 verbesserte AMD die theoretische Datentransferrate der GPU-zu-GPU-Kommunikation durch eine neue PCIe-2.0-Brücke, die im Zusammenspiel mit Sideport auf 21,8 GByte Daten pro Sekunde (3870 X2: 6,8 GByte/s) kommt. Jedoch erklärte AMD auf dem diesjährigen CTO Summit in Island, dass Sideport zwar in Hardware vorhanden, jedoch zum Launch noch nicht freigeschaltet ist.
http://www.heise.de/newsticker/Rade...t-schnellste-Grafikkarte-vor--/meldung/114131

da dieser Sideport (die direkte kommunikation) die wohl Treiberseitig noch nicht "freigeschaltet":

http://www.heise.de/bilder/114131/2/1

bin mal gespannt auf erste benchmarks mit treibern wo das geht, da müsste entweder die performance im vergleich zu einem normalen crossfire gespann nochmal deutlich (10-xx %) steigen und oder das microrucklerproblem weniger schlimm werden.

So langsam wird das was mit den multi-gpu karten mittelfristig werden wir wohl alle außer wir wollen nur noch so spiele wie wow spielen auf multi-gpu karten umsteigen, da irgendwann das highend 4cores oder mehr sind und 2 cores vielleicht grad noch mainstream normales entusiast level ist. und 1 core dann eher lowend darstellen wird. Schätze das wird spätestens mit der übernächsten grafikkarten generation also den ersten dx11 karten so losgehen zumindest von amds seite aus. Und nvidia hat ja auch schon was in die richtung angekündigt das sie jetzt auch eher in die richtung gehen werden.
 
Wir kommt ihr da auf 300€?
Als Verkaufspreis auf Folien sind $399,- (UVP!) angegeben, das macht ca. 266,- €.

Ich hoffe auf einen Straßenpreis bei rund 225-230€. \O/
 
Was mich ja immer wieder stört sind diese verzerrten Balkendiagramme...

Das fängt auch dieses mal erst bei 0.8 an und zeigt somit einen unverhältnismäßigen Unterschied zur Nvidia Karte.
Ich hab das Bild mal bis zum Anfang auf 0.0 gestreckt, damit man den echten Unterschied besser erkennen kann:


Andy
 
Also wenn die Karte wirklich für ~300€ in die Läden kommt würde ich eindeutig lieber zur gtx280 greifen.. keine Mikrorukler und etwas geringerer Stromvebrauch. Aber ich schätze auch dass der tatsächliche Marktpreis geringer ausfallen wird.
 
Zuletzt bearbeitet:
Naja mal im Ernst: braucht man solche Karten wirklich abgesehen von Wundern von Topprogrammierung & Optimierung wie Crysis (*rolleyes*) solche Karten überhaupt?
Habe hier einen Monitor mit 1920x1200er-Auflösung und kam bislang gut zurande mit einer X1950 Pro 512 MB, demnächst werde ich wohl zu einer HD4850 greifen weils für The Witcher doch zu eng wurde.

Aber Anschaffungen größer 200€ für eine Grafikkarte, wo doch eh alle 2-3 Quartale neue gute Modelle für 120-160 € rauskommen... macht keinen Sinn... vor allem, da die meisten wohl sogar kleinere Monitore verwenden als ich.
 
Gibts die Dinger eigentlich auch zu kaufen ? Die 4870 wurde ja schon vor Wochen offiziell vorgestellt auf dem Papier ! Aber die gibt es doch nirgends diesen Papiertiger von ATI.

Ziemlicher Schwachsinn wenn die Teile nirgends verfügbar sind.
 
-273.15°C schrieb:
Naja mal im Ernst: braucht man solche Karten wirklich abgesehen von Wundern von Topprogrammierung & Optimierung wie Crysis (*rolleyes*) solche Karten überhaupt?
Habe hier einen Monitor mit 1920x1200er-Auflösung und kam bislang gut zurande mit einer X1950 Pro 512 MB, demnächst werde ich wohl zu einer HD4850 greifen weils für The Witcher doch zu eng wurde.

Aber Anschaffungen größer 200€ für eine Grafikkarte, wo doch eh alle 2-3 Quartale neue gute Modelle für 120-160 € rauskommen... macht keinen Sinn... vor allem, da die meisten wohl sogar kleinere Monitore verwenden als ich.

Spielst du Tetris ? :p

399$ könnten durchas 400€, deshlab wenn dann eher 2 einzelne für je 120€. Kommt man doch billiger weg.
 
Nein ich spiele kein Tetris sondern Battlefield, Dark Messiah of Might and Magic und Call of Duty 4 - funktioniert wunderbar in der Auflösung + x1950. ;)
 
Naja mal im Ernst: braucht man solche Karten wirklich abgesehen von Wundern von Topprogrammierung & Optimierung wie Crysis (*rolleyes*) solche Karten überhaupt?
Habe hier einen Monitor mit 1920x1200er-Auflösung und kam bislang gut zurande mit einer X1950 Pro 512 MB, demnächst werde ich wohl zu einer HD4850 greifen weils für The Witcher doch zu eng wurde.

Aber Anschaffungen größer 200€ für eine Grafikkarte, wo doch eh alle 2-3 Quartale neue gute Modelle für 120-160 € rauskommen... macht keinen Sinn... vor allem, da die meisten wohl sogar kleinere Monitore verwenden als ich.

Naja... ICH kann dich ja verstehen, aber es gibt halt auch genügend Leute, die einen Porsche/Ferrari etc. kaufen, obwohl ihnen ein Golf auch reichen würde.
Bei Grafikkarten ists das Gleiche :rolleyes:
 
Zuletzt bearbeitet:
Naja... ICH kann dich ja verstehen, aber es gibt halt auch genügend Leute, die einen Porsche/Ferrari etc. kaufen, obwohl ihnen ein Golf auch reichen würde.
Bei Grafikkarten ists das Gleiche

Genau meine Meinung :o
 
Ich hatte bis vor kurzem einen 24" und 1950e und ich weiss nicht wie du darauf kommst dass man in der Auflösung und oben genannten GK flüssig spielen kann. Schaltest du alle Details aus oder wie ?
Zumindest für Dark Messiah of Might and Magic und Call of Duty 4 ist die Karte zu schwach. 2007 als meine 8800GTX noch lebte, kamm Dark Messiah of Might and Magic oft ins stocken.
 
-273.15°C schrieb:
Nein ich spiele kein Tetris sondern Battlefield, Dark Messiah of Might and Magic und Call of Duty 4 - funktioniert wunderbar in der Auflösung + x1950. ;)


COD4 packt deine Karte in der Auflösung aber sicher nicht mehr mit allen Details und angemessener Kantenglättung, oder ?
 
kommt noch ein cf test :) ?
 
COD4 packt deine Karte in der Auflösung aber sicher nicht mehr mit allen Details und angemessener Kantenglättung, oder ?

tut sie nicht, aber ist das wichtig ?


Ich hatte bis vor kurzem einen 24" und 1950e und ich weiss nicht wie du darauf kommst dass man in der Auflösung und oben genannten GK flüssig spielen kann.

geht problemlos, mache ich auch seit paar Monaten. (hab praktisch den gleichen rechner wie du in deiner signatur)

oblivion @ max, crysis @ mittel, cod4 @ hoch, AC @ max, c&c3 @ max, drakensang @ max, ut3 @ max

mehr fällt mir im moment nicht ein.


Sicher nicht optimal für wuxga, aber was lohnt sich denn zur zeit ?

eine 8000/9000/38x0 die nicht wahnsinnig viel schneller sind ?
eine 48x0 die wegen 512mb bald wieder nen schönen flaschenhals hat ?
eine 280 zu utopischen Preisen ?



Wenn ich schon lesen von Leuten die z.b. ne 8800gt haben und sich dann eine 260gtx kaufen wollen oder sowas, da fragt man sich doch echt....
 
Was nützen die ganzen 2-GPU-Karten, wenn AMD/ATI ihren Treiber noch immer nicht im Griff hat.
Was das Thema Crosfire angeht, sind die ATI-Treiber immer noch nicht das, was sie sein sollten.
Die sind immer noch zu unausgereift, haben noch zu viele Fehler.
Wie sinnst ist zu erklären, das eine Karte mit einem Kern schneller ist als die selbe mit zwei Kernen. Das liegt klar am Treiber.
Ein gutes Beispiel sind auch die Benchmarks in Crysis. Da muss AMD/ATI noch viel an der Crosfireunterstützung arbeiten.
Was nützt AMD/ATI die Rohleistung ihrer Karten wenn sie diese dank ihrer Treiber nicht auf den Boden bekommen.
 
"angemessene Kantenglättung" ...

CoD 4 Settings für 1920x1200: keine Schatten, kein AA/AF.
DMoMM für 1920x1200: alles voll ;)

Natürlich habe ich zuvor am System einige Optimierungen vorgenommen et cetera.
Gewusst wie. ;)
 
NoD.sunrise schrieb:
diese nicht linearen Diagramme jedesmal um einen Vorsprung von 10% wie 50 oder 100% aussehen zu lassen sind wirklich das aller letzte - etwas derart unseriöses sollte mane igentlich weder von ati noch von nvidia erwarten und dennoch ist es bei beiden an der tagesordnung :/
Ja, das wäre doch mal ein Fall für unsere abmahnwütigen Anwälte. Ist schließlich wettbewerbsverzerrend, diffamierend, täuschend und betrügerisch.

Farcrei schrieb:
Wie sinnst ist zu erklären, das eine Karte mit einem Kern schneller ist als die selbe mit zwei Kernen. Das liegt klar am Treiber.
Eine Grafikkarte mit zwei Kernen gibt es erstmal gar nicht. Wenn dann Karten mit zwei GPUs (also "Units").
Und eine solche Karte könnte nur dann schneller sein als ein einzelner Chip (bei gleicher Speicherausstattung, Taktraten, usw.), wenn die Datenleitung zwischen den beiden GPUs leistungsfähiger wäre als innerhalb eines Chips - das ist praktisch unmöglich. Das gleiche Problem hat man auch bei Systemen mit mehreren CPUs.

Das gilt jetzt ganz unabhängig von Crossfire, welches aufgrund von mangelnder Softwarekompatibilität noch zusätzliche Probleme verursacht.
 
Zurück
Oben