News Grafikkarte mit zwei „Fermi“-GPUs abgelichtet

Jo HighTechFreak hat Recht. So eine Karte ist auch mit Wasserkühlung nicht der bringer wenn man mal im Schnitt von nem Triple Radiator ausgeht wo noch ne CPU mit dranhängt. Würde dann im wahrsten sinne der Wortes ein Wasserkocher werden. Mit nem Mora2 bestimmt kein Problem, aber trotzdem ist die Karte jetzt schon ein Fail.
 
Wenn es wirklich 2 465er sind - würde ja bei je 8 x 128 MB pro GPU hinkommen (wie gesagt - es sei denn, auf der PCB Rückseite ist noch je 2 x 128 MB), dann wär die Karte quasi so schnell wie GTX 465 SLI:

http://www.guru3d.com/article/geforce-gtx-465-sli-review/17

Hier ein Test mit 2 Einzelkarten - in Warhead oder auch Metro 2033 grob 14% flotter als die 480er. Manchmal auch bis zu 19% (Anno etwa). 2 x 1 GB wären bei der Rohleistung halt probematisch - siehe HD 5970 2 x 1 GB in 2560er Auflösungen + AA -> je nach Game bricht die Karte mangels VRAM übelst ein.

E: Ein echtes GTX 470 SLI wäre 17% schneller als GTX 465 SLI in Warhead (1920x1200, DX10, Gamer, 2xAA) und etwa 28% flotter in Metro 2033 (1920x1200, DX11 - AAA (PhyX off)).

E2: Mit 2 x 465er wär auf jedenfall eine 480 @ OC vorzuziehen -> + 512 MB VRAM, 0 Microruckler (auch wenn NV MR mit 2 GPUs seit Anfang 2009 recht gut in den Griff gekriegt hat).

mfg
Edge
 
Zuletzt bearbeitet:
Sacerdotes schrieb:
Es gibt auch Modelle der 295 GTX, auf denen beide Chips auf einer Platine ist.
Wollte ich hiermit mal Anmerken =)

Es bezog wohl auf die ersten GTX295 mit zwei Platinen.

Fropper schrieb:
Hmm warum nicht gleich zwei Chips verbauen wie sie auf der 480 sind? :p
Stromverbrauch dann halt 3x8pin

Mach mal 4x 8Pin-Stecker daraus, packe ein Kilogramm Kupfer
und zwei Delta-Lüfter drauf. ;D
 
Thermi ist einfach ein Flopp, der G80 war sehr gut und jetzt haben sie richtig ins Klo gegriffen und Fermi entwickelt. Der Chip wird nicht gut werden, zumindest nicht ohne eine grundlegende Überarbeitung. ATI ist in dieser Runde der haushohe Gewinner.
 
atichecker schrieb:
...außerdem achten die grafikkarten hersteller kaum auf den verbrauch jede neue generation verbraucht mehr als die letzte. wobei das in der mittelklasse auch nicht zutrifft aber aufjedenfall im high end segment.

Mr_ Blonde schrieb:
...

@Atichecker:
Ja das finde ich auch bemerkenswert, fast alle anderen hersteller bemühen sich strom zu sparen (RAM, Festplatte, CPU außer vllt i7-9xx) außer die Grafikkartenhersteller. ...

Es gibt noch andere Grafikkartenhersteller außer Nvidia.

ATI/AMD konnte mit ihrer aktuellen Generation den Verbrauch minimal senken und zugleich die Leistung um 60% erhöhen.
Die habens anscheinend nicht nötig gehabt, mit allen Mitteln die schnellste Karte rausbringen zu müssen, unbeachtetet des Verbrauchs, wie es bei nvidia mitm Thermi der Fall ist.


gruß
 
Zuletzt bearbeitet:
ich als GTX 295 USer muss sagen ..... WARUM ? So geil ist SLI nun wirklich nicht. Lieber die 480er leiser/kühler kriegen ... als sowat ^^
 
Ist bestimmt Flüssigstickstoffkühlung :)
 
Die Hersteller achten doch auf den Verbrauch!
es gibt von Jedem Hersteller Grafikkarten die unter 50Watt Verbrauchen.

Aber wenn die Kunden lieber ne HD5870 mit 150Watt wollen, dann macht der Hersteller das eben...
und wenn die Kunden ne GTX465X2 mit 400 Watt wollen, dann macht das der hersteller eben...
 
Herrlich und schon wird wieder die Platte mit nVidia liefert Müll abgespult. Wem soll mans verübeln, verschweigt die News schließlich das es sich um eine Galaxy Kreation handelt.

KAOZNAKE schrieb:
Reines Werbeobjekt, kommt eh nicht aufn Markt. So einfach macht man seinen Namen im Web bekannt.
Asus Mars oder die die anderen Dual Scherze sind alle irgendwie auf den Markt gekommen, in kleinen Stückzahlen.
Die letzte, die Ares lässt sich zwar noch Zeit aber auch sie wird kommen.
Und ich sage dir, wenn jetzt schon diese ganzen verrückten Kreationen auftauchen, wirds noch weitere Dualdinger geben, wer weiß der nächste packt 2 470er rauf, der nächste 2 spannunggesenkte 480er. Denn eine 480er mit dem Vebrauch einer 465er wird schneller sein.

Schaffe89 schrieb:
Bei dem schlechteren V-Ram Management
Was meinst du?

Schaffe89 schrieb:
und der geringeren texel/Texturleistung
79% Füllrate
66% VRAM
63% Texturleistung
63% FLOPs
58% Bandbreite
liefert eine GTX 465 in Bezug auf eine GTX 480.
Wie kommst du nur immer auf Texturleistung. Besonders da diese nicht limitiert, zumindest in dem Testpark von CB, siehe kaum meßbarer Einbruch bei HQAF.
 
Die GTX480 hat doch genug Leistung imo und ich würde dieser er der Dual GPU vorziehen.
 
Zwei GF100 oder zwei GF104?
 
Verbaut werden hier zwei GF100, wenn Du das meinst. Auf Basis der GTX465.

@topic: nette Werbung für die Firma. Als quasi-SLI-Gespann aus zwei Nicht-highend-Karten imo vollkommen uninteressant.
 
Wenn ich eine Strom-Flatrate dazu bekomme, würd ich mir den Kauf nochmal überlegen...
 
ich versteh das nicht warum alle immer wegen dem verbrauch am rum nörgeln sind.

im idle verbrauchen alle karten undgefähr gleich viel ob nun ATI oder Nvidia. der "höhere" verbrauch tritt ja nur unter last auf.

man ist ja schließlich auch nicht 24/7 am zocken. und der mehr verbrauch von gerade mal 60-100W unter Last hört sich zwar viel an aber es ist auf der strom rechnung kaum wieder zu finden.

so sehe ich das jetzt einfach mal. außerdem kann man die karten sehr stark undervolten ich habe mein ganzes system im mom auf knapp 460W unter last am laufen.

mfg
 
Hi,
es hat sich ein Schreibfehler eingeschlichen und zwar hier:
Galaxy, der Herteller, der die Karte ausstellt, spricht allerdings von einer „GeForce GTX 470 Dual“.
Es sollte Hersteller heißen. Schön das es anscheinend niemandem aufgefallen ist. Aber anscheinend muss man sich immer noch über Sinn und unsinn solcher Karten streiten.

Dann will ich auch mal meine Meinung kundtun: Für mich ist die neue Grafikkartengeneration von Nvidia (und eigentlich auch Ati) einerseits ein Fortschritt (Dx11, kleinere Fertigung), allerdings, und das besonders von Seiten von Nvidia, ein großer Rückschritt. Es wird das Maximum an Leistung erreicht und die Messlatte nur ein wenig angehoben, in dem man mit brachialer Gewalt das letzte Quäntchen aus den Chips holt. Könnte man denn nicht einen anderen, sinnvolleren Weg einschlagen?

Wenn es für mich eine neue Grafikkarte werden soll, dann bestimmt nicht Nvidia und nur eine Mid-Range Grafikkarte wie z.B. die 5770 (5750).

Das war mal mein Senf dazu. Ich denke viele hier sind sich bewusst über den enormen Stromverbrauch einer solchen Karte und die im Verhältniss dazu minimale Leistungssteigerung... Die Tests von CB sind nicht weit weg.

mfg manniefresh

EDIT:
Schinzie schrieb:
Es gibt noch andere Grafikkartenhersteller außer Nvidia.

ATI/AMD konnte mit ihrer aktuellen Generation den Verbrauch minimal senken und zugleich die Leistung um 60% erhöhen.
Die habens anscheinend nicht nötig gehabt, mit allen Mitteln die schnellste Karte rausbringen zu müssen, unbeachtetet des Verbrauchs, wie es bei nvidia mitm Thermi der Fall ist.


gruß

Also das musst du mir irgendwo zeigen. Bei den CB Test der 5870 kann ich im Performance Rating im Schnitt etwa 40% Leistungszuwachs im Vergleich zur 4870, dafür aber auch einen 8% höheren Stormbedarf unter Last. Klar, der Leistungszuwachs steht hier in keinem Verhältniss zum Stromverbrauch, jedoch sollte man nicht einfach Zahlen aus der Nase ziehen.
Das sie es nicht nötig haben sehe ich genauso.
 
Zuletzt bearbeitet:
Fragt sich wofür man so eine Karte brauch.
Viel schneller als eine GTX480 wird sie wohl kaum sein und einer HD5970 macht sie sicher keine Konkurrenz.
Hinzukommen da noch die üblichen Dual GPU Probleme.
 
Zuletzt bearbeitet:
Zwei davon in den Rechner, WaKü an die Heizkörper anschließen und man braucht nie wieder Heizkostenzahlen ... die Stromrechner wird nur etwas "leiden" xDDD

mfg

D'Ahrc - der die Sinnhaftigkeit dieses Produkts infrage stellt.
 
Also ich weiß, dass ich mir meinen Settings sehr weit oben bin was OC angeht, aber ich wollte auch mal hier zeigen was ein System bestehend aus:

I7 920 DO @ 4,2GHZ @ 1,3V Vcore
Asus Rampage II Extreme
3x2 GB OCZ Reaper @ 1877 MHz @ 1,64 Volt
GTX 470 @ 900/1800/2000 @ 1,16 Volt
4xSasmung F1 1GB
LG Blueray-Combo DVD-Drive

verbrauchen kann. Mir ist das ursprünglich aufgefallen, als ich versucht habe die GTX weiter zu Übertakten und unter Last plötzlich der Bildschirm schwarz wurde.
Das Foto zeig die Leistungsaufnahme meines Systems unter den obigen Settings unter Volllast. Also Furmark Extreme Burning Mode + Prime.
Es ist echt unglaublich, dass mein NT (Be Queit Dark Power pro 850 Watt) hier an seine Grenzen stößt.
Leistung hin oder her, aber irgendwann muss auch mal gut sein. Von daher auf Wiedersehen Galaxy....

Hier der Link
http://img40.imageshack.us/img40/4772/test842cpugrakaoc900180.jpg
 
Zurück
Oben