News Viele Previews der ATi Radeon HD 4870 X2

@ Stinker88

Meine Güte!
Mehr als dir die Links, mit Aussagen von Personen, die es untersucht haben, zu zeigen, kann er ja auch nicht machen...
Ob du denen jetzt glaubst, ist deine Sache...
 
91° C und heiß? schon mal den testbericht von der XFX 7950GT XT gelesen hier auf CB. Ok liegt fast 2 Jahre zurück und deswegen auch uninteressant aber die Karte hat passiv über 124° erreicht und ging nicht kaputt... und ich hatte die auch drin, hat auch 120° erreicht, nix ist mit kaputt gehen... PC läuft, also da sind dann 91°C wohl geradezu kühl^^

Mikroruckler treten wohl nicht bei den Standardauflösungen auf, von daher kann jeder, der nen 22Zoll @ 1680*1050 locker zugreifen und sich über das geile Bild freuen was er dann erleben wird und außerdem reicht die Power der Karte auch für höhere Auflösungen. Aber damit die Leistung der Karte auch ausgenutzt werden kann muss auch der Monitor entsprechend schnell sein und die meisten 24 Zöller oder größer sind zu 90% für Spieler ohnehin ungeeignet. Also ist das Problem Mikroruckler wohl eher nebensächlich oder???
 
Hatte Hexus nicht gegen das NDA verstoßen?

Matze_Pukem schrieb:
aber die kühlung issen witz bei 91 grad koennten innerreien des gehaeuses beschaedigt werden festplatten in naehe der ati ganz zu schweigen

Die Kühlung arbeitet gut und zuverlässig. Der Lüfter sorgt dafür, dass die Luft im Gehäuse eingesogen und über die Heatpipes und Kühlrippen geblasen wird. Zum Schluss wird die aufgewärmte Luft über das Slotblech aus dem Gehäuse befördert.

und die karte wird bestimmt nicht lange halten von den

Dein logisches Denken scheint auch nicht lange gehalten zu haben oder war es dein Menschenverständnis?

Kevin1992 schrieb:
nVidia wird bestimmt mit einer GTX 280 X2 nachziehen.

Nvidia hat schon ein Statement dazu abgegeben und bestätigt, dass es so schnell keine Multi-GPU Lösung geben wird.

Matze_Pukem schrieb:
es hat ja nicht jeder ne h2o aber bei 91 grad moecht ich mal sehen wie du deine hand auf die ati packst viel spass wünsche ich dir .. kauf dir schonmal ne brandsalbe

Erstens langt Luftkühlung für derartige Komponenten noch aus. Zweitens darf und sollte man nicht Komponenten im Betrieb aber eigentlich nie direkt anfassen. Das einzige Bauteil, welches gute 90°C heiß wird, ist reinzufällig die GPU, die du eh nicht anfassen kannst. Den Kühler und das PCB kann man ohne Probleme anfassen, da sie etwa 60°C sind oder bist du ein Warmduscher oder ne Memme?

fandre schrieb:
Dann kauf ich mir lieber die nächste Single-GPU-Karte als sowas zusammengesetztes. Auf Mikorruckler und co. hab ich definitiv keine Lust.

Erst gackern wnn das Ei gelegt ist. Microruckler treten bei hoher leistung NICHT auf!

Lieschen1983 schrieb:
also ich finde das lustig !
2x 4870 schlägt 1ne280 gtx

geil birnen mit Äpfel vergleichen !

Wie kommst Du darauf? Man vergleicht Karten anhand des Preises und deren Leistung zu einander. Nebenbei gesagt verfügt die GTX 280 über mehr Transistoren, als die Radeon HD 4870X2. Soviel zu dem Thema..
 
Das Gehäuse der Hd 4870x2 sieht mal geil aus .
 
Und auch andere Komponenten werden nicht beschädigt da die warme Luft nach aussen geblasen wird. Was das ganze mit den HDDs zu tun aben soll ist mir ausserdem schleierhaft.

Nicht ganz richtig.
Die Kartenrückseite liegt nicht im Kühlungsbereich. Und die Spannungswandler am Ende der karte erhitzen sich auch sehr stark.

Diese Bereiche werden auch sehr heiß, und erhitzen die Gehäuseluft auch enorm.

Außerdem je heißer die Komponenten umso weniger die Lebenszeit.
Die teile leiden sehr unter den Temperaturen. Daher is das schon ein großer Unterschied, ob die Karte 80°C oder 100 °C hat.
 
Stinker88 schrieb:
@PiEpS
schonmal dran gedacht das die 4xxx serie immernoch microruckler haben
beweis mir einfach das es keine mehr gibt
irst du aber nicht können

hä??

man kann den satz auch 10x lesen... sinnvoller wird er nicht :D

"schonmal dran gedacht das die 4xxx serie immernoch microruckler haben"

du müßtest ihn schon mit können beenden. (das ein hat anstatt von haben hingehört wäre halt grammatik ;))
den wenn du davon überzeugst bist das ein neues prodoukt eine fehler hat liegt wohl die bringschuld bei dir :rolleyes:
 
ww2warlord schrieb:
Nebenbei gesagt verfügt die GTX 280 über mehr Transistoren, als die Radeon HD 4870X2. Soviel zu dem Thema..
Tatsache? :rolleyes:
R700: 2x965 Mio. Transistoren = 1930
G200 mit GPGPU: 1400 Mio Transistoren
G200 ohne GPGPU ~ 1000 Mio. Transistoren
 
Bei den Karten wird immer von 1GB GDDR5 pro GPU, also 2GB GDDR5 gesprochen...

"(...)während der GDDR5-Speicher, der pro GPU einen Gigabyte (insgesamt also bietet eine Grafikkarte zwei Gigabyte) groß ist(...)"

Ist es nicht so das effektiv nur 1GB GDDR5 zur verfügung steht da die Daten in beiden Speichern liegen? Oder wurde da eine neue technik eingesetzt die wirklich nur die Daten die der GPU bearbeiten soll auch in den dazugehörigen Speicher steckt?

Würde mich interessieren.

Gruß,
fooX
 
das durchsichtige Rot fand ich persönlich besser/schöner :D
 
Ich finde schon, dass man die 4870 X2 mit der GTX 280 vergleichen kann.

Es geht ganz einfach darum, wer für weniger Geld die bessere Leistung erzielen kann, von mir aus können da auch 128 GPUs verbaut sein, solange die Karte günstiger und schneller als die der Konkurrenz ist, nehm ich doch die schnellere.

Oder soll ich im Geschäft sagen: "Moment mal, Nvidia hat ja nur 1 GPU, ist zwar langsamer und teurer, aber trotzdem nehm ich die."


Mfg DerrickDeluXe
 
hier ist ja mal wieder fleissig halbwissen unterwegs:

kleine klarstellung zu den den 91°C:
UND? die karte juckts nicht und das gehäuse/komponenten bekommen die selbe wärmeenergie ab, als wenn die karte nur 50°C heiss wäre.
 
AMD hat endlich gezeigt, dass wenn sie wollen, ne Karte bauen können die das Bandmass im wahrsten Sinne des Wortes sprengt.

Wenn man die Karte anschaut kommt man fast ins Sabbern.
Wow, einfach gigantisch. Die Karte ist eben "Awesome"! :freaky:
Die GPUs, einfach das Wuchtige Design und vorallem der Kühler. Schon nur der Anblick ohne Kühler hat mir verraten dass diese Karte Nvidia's 280 GTX entthronen wird.

Ich dachte in die Zukunft zu blicken.

Nun, aber wenn man die Tatsache betrachtet, dass es gleich 2 GPUs braucht, um Nvidia vom Throm zu stossen ist das ein wenig "arm".

Und wenn die Karte sich weiter verbreitet, kann man das Abschaffen der AKWs vergessen. :evillol:

Und über 50 dBA?? Hmmm, da mag ich mich noch böse an die 5800 Ultra erinnern.
Hoffe mal schwer dass ATI/AMD noch weiter drann arbeitet, und mit dem R800 eine GPU raus bringt, die Nvidia auf dem Thron konkurrenzieren kann. :king:
 
Zuletzt bearbeitet:
-=Tommy=- schrieb:
Nicht ganz richtig.
Die Kartenrückseite liegt nicht im Kühlungsbereich. Und die Spannungswandler am Ende der karte erhitzen sich auch sehr stark.

Diese Bereiche werden auch sehr heiß, und erhitzen die Gehäuseluft auch enorm.

Außerdem je heißer die Komponenten umso weniger die Lebenszeit.
Die teile leiden sehr unter den Temperaturen. Daher is das schon ein großer Unterschied, ob die Karte 80°C oder 100 °C hat.

Jo, es ist richtig das eine High-End Karte das Gehäuse stärker erhitzt als eine 30€ 30Watt Karte, aber halt nicht annähernd so dramatisch wie es von Matze_Pukem hingestellt wurde :)

Auf Karten die so heiss werden, verbaut man aber auch hochwertigere Komponenten als auf billig Teilen, z.B. Elkos und Spannungswandler die bis 125° statt 85° spezifiziert sind, etc. Wenn da nicht geschlampt wird, sollte eine 4870 X2 genau so lange halten wie jede andere Karte auch, und sicher länger als der durchschnittliche User sie im Rechner hat.
 
Zitat von Ghost:
Nun, aber wenn man die Tatsache betrachtet, dass es gleich 2 GPUs braucht, um Nvidia vom Throm zu stossen ist das ein wenig "arm".

Wenn es doch so "arm" ist warum macht nvidia das dann nicht mit zwei GPU's...??

Ich glaube nicht das ATI das einfach nur so aus fun gemacht haben....ich könnte mir vorstellen, dass sie die Zukunft einfach darin sehen...
 
Ich sag nur eins dazu. Wenn die Temps wirklich so extrem sind und die Belüftung schlecht ist das andere Komponenten daran sterben (so wie es hier manche denken xD) würde ATI sie wohl kaum verkaufen!

Und @ digitalangel18 : Genau so ist es!
 
Zuletzt bearbeitet:
BestPower²TDP schrieb:
Weil die Karte dann enorm teuer wäre. Nicht nur für den Endverbraucher sondern auch für NV selber in der Herstellung. Ob sich das dann lont, dazu 350~450W TDP bei 800€? Nee...

nebenbei, die X2 braucht im Idle schon mehr als eine 280 unter last.

Die X2 is ein richtiger Stromfresser.

eine 280GX2 wird es vermutlich erst mit nem Chip refreh geben und wenn ATi wieder die leistungskrone hat, wird die karte mit sicherheit nich unter 300 kosten.
 
Mikroruckler sind für mich ein riesen Problem. Ich habe es mal an dem Computer meines Freundes mitbekommen. Man kommt früher oder später mal in eine Situation wo man unter 30 FPS hat (wenn auch nur kurz), aber dass wirkt dann so extrem, dass es mir lieber wäre ne single Karte zu haben die dann nur 20 fps in solchen Situationen bringt.
Man sieht es auch schön im zweiten Teil des Videos was hier gepostet wurde. Ruckeln ohne Ende. Für fast den doppelten Preis weniger Leistung...

Hier hat doch auch erst letztens jemand vom CB Team geschrieben dass es immer noch Mikroruckler bei den neuen Karten gibt, die aber nicht mehr Messbar sind (waren sie jemals Messbar?).

Tja und deswegen haben solche Karten bei mir keine Chance. Wenn ich schon soviel Geld ausgebe, soll es auch zu 100% funktionieren. Ich bin doch kein Vollidiot und bezahle Geld für kaputten Scheiss... :freak:
Dass es Mikroruckler gibt, ist ein FAKT. Da ist es scheiss egal ob manche sie ignorieren (können) oder nicht.

Das Problem gibts schon seit Ewigkeiten, und ist bis jetzt immer noch nicht behoben worden, im Gegenteil, die bringen fröhlich weiter diese Karten raus und preisen ihr SLI/CF an. Ich persönlich lass mich nicht verarschen. Was ihr macht, ist eure Sache. :D
 
ich dachte es dürften keine tests zur leistungsaufnahme im idle gemacht werden?! Golem.de scheint sich darum aber einen dreck zu scheren. aufgrund der noch nicht funktionierenden stromsparmechanissmen natürlich sehr aussagegräftig. echt bescheuert. :rolleyes: siehe: http://www.golem.de/0807/61054-6.html
 
Zurück
Oben