News ATi zeigt Radeon HD 5870 X2

ich hab kein problem mit microrucklern, denn ich zock immer noch mit einer 8800gts :) ein kumpel hat aber ne 4870x2 und sogar da hab ich keine probleme mit den mini-lags. ich hoffe eigentlich nur aus einem einzigen grund auf besserung der problematik und der ist, dass endlich das geflame und gelaber über eben diese endet. keine microruckler -> kein geheule.

da müssen sie sich dann endlich was neues suchen und es wird sicherlich nicht lange dauern bis die trolle was finden :D

Hurrycane schrieb:
Was mich wundert ist, dass die beiden Chips so dicht zusammen sind. Die Spawas scheinen ja ziemlich viel Platz weg zu nehmen, bei der Länge des Boards

hat man ja bei der einchip variante schon gesehen, dass da massive viel platz um die spawas ist. keine ahnung warum das dieses mal so ist.

 
Zuletzt bearbeitet:
Naja, ist ja nicht so als wäre das jetzt die erste Karte die sehr lang ist.
http://www.firingsquad.com/hardware/geforce_7950_gx2_preview/images/03.jpg

Jeder Gehäusehersteller weiss auch das PCI(e) Karten bis zu 32cm lang sein können.
Also entweder Designfehler des Herstellers oder eben Absicht um das Gehäuse kompakt zu halten.
Aber meist werden einfach nur die HDDs ungünstig angeordnet und so Platz verschwendet.
 
Zuletzt bearbeitet:
nix gegen die bitchin fast! 3D 2000:

bitchinfast.jpg
 
Und gleich ein Kohlekraftwerk bauen? Die ATI Dinger ziehen doch so viel Strom. Ist ja fast wie bei der Autoindustrie - größer, schneller, mehr PS, und höherer Verbrauch.
 
Angenommen, der Handteller des Mannes ganz recht ist 10cm lang. Dann kann man die Länge ganz gut ausrechnen. Ich komme auf 30-32cm, und das ist mal echt ... Wow!

Ohgott, ohgott, ohgott xD
 
Ich würde sagen, der voraussichtliche Preis von 500$ entsteht dadurch, dass AMD vorher noch mit einer Preissenkung der anderen HD5xxx Karten rechnet. Und AMD wird bestimmt keine Karte HD5870X2 nennen, wenn es das nicht genau ist, also 2xHD5870(Taktraten evtl. aber auch nicht wahrscheinlich). Wenn ich mir so die unterschiede im Stromverbrauch bei den verschiedenen Seiten im Internet anschaue denke ich auch das selektierte Chips genommen werden oder eventuell etwas an der Spannung gedreht wird (zu Gunsten Verbrauch, zu Lasten des Overclockings).
 
Spock55000 schrieb:
Und gleich ein Kohlekraftwerk bauen? Die ATI Dinger ziehen doch so viel Strom. Ist ja fast wie bei der Autoindustrie - größer, schneller, mehr PS, und höherer Verbrauch.

Also meine GTX285 verbraucht mehr Strom als eine HD5870 und ich denke die GTX285 ist von Nvidia wenn ich mich nicht komplett täusche :rolleyes:
 
Fassen wir mal alles über Nvidia zusammen:
Positiv
Sie wird viel viel schneller als die ATI Pendanten.
Sie wird viel viel besseres AF haben als die ATI Pendanten.
Bei der Nvidia Multi-GPU Karte wird es eine Microruckler geben.
Nvidia Karten sind besser für Spieler

Negativ:
Sie wird teurer als die ATI Karten.

Hab ich irgendwas vergessen?
Nein? Na dann kann der Weltfrieden ja kommen^^

Ich stelle ein neues Gerücht auf.
Wenn ihr meint das der GT300 ein GT200 2.0 wird, dann stelle ich die Theorie auf, dass es länger dauert bis sie eine 395 produzieren können, war ja schließlich bei der GT200 auch so ;)
 
Fassen wir mal alles über Nvidia zusammen:
Positiv
Sie wird viel viel schneller als die ATI Pendanten.
Sie wird viel viel besseres AF haben als die ATI Pendanten.
Bei der Nvidia Multi-GPU Karte wird es eine Microruckler geben.
Fassen wir mal alles über Nvidia zusammen:
Positiv
Sie wird viel viel schneller als die ATI Pendanten.
Sie wird viel viel besseres AF haben als die ATI Pendanten.
Bei der Nvidia Multi-GPU Karte wird es eine Microruckler geben.
Nvidia Karten sind besser für Spieler

Negativ:
Sie wird teurer als die ATI Karten.

Negativ:
Sie wird teurer als die ATI Karten.

Quellen? Sehe ich als haltlos an. Selbst von Charly da mal was geblubbert hat, muss das längst nicht stimmen ...

Vor allem das: " Nvidia Karten sind besser für Spieler", tut weh.
 
@Octoboy: Interessant was du da schreibst. Flüssiges Spielen findet eigentlich erst bei 45+ fps statt, für Konsolen 60 fps.

Der Haken an den x2 GPUs ist doch, dass die Teile leider nicht die doppelte Grafikleistung liefern, sondern besten Falls "nur" 50-60 % mehr Leistung zeigen. Der Stromverbrauch ist zwar in all den Jahren besser geworden, trotzdem sollte man sich darüber ernste Gedanken machen.

Ich bin gespannt, was nVidia aus dem Ärmel schüttelt.

MFG

McDaniel-77
 
sudfaisl schrieb:
Quellen? Sehe ich als haltlos an. Selbst von Charly da mal was geblubbert hat, muss das längst nicht stimmen ...

Vor allem das: " Nvidia Karten sind besser für Spieler", tut weh.

Quellen für die Grüchte hab ich jetzt mal aus dem PCGH/computerbase Threads.

Nur das Nvidia Karten sind besser für Spieler habe ich von nem Kiddy der behauptet hat das eine "Nvidia Geforce mit 512 MB Ram" das Nonplusultra ist^^

€dit:
Falls unyo im anderen Thread mitlerweile noch ne neue These gebracht hat, ist die leider nicht dabei, weil ich seine Post überscrolle^^
 
Nur das Nvidia Karten sind besser für Spieler habe ich von nem Kiddy der behauptet hat das eine "Nvidia Geforce mit 512 MB Ram" das Nonplusultra ist^^

Wenn ich mich recht errinner war eine GTS250 die letzte Karte von nVidia mit 512MB?!^^
Jo, sehr schnell das Ding xD
 
Zurück
Oben