GTX 680 oder Radeon HD 7970

Mayo420

Cadet 3rd Year
Registriert
Dez. 2012
Beiträge
63
Hi ich wollte mir die Tage eine neue Grafikkarte bestellen.
Es soll eine der beiden seihen: Gainward GeForce® GTX 680 Phantom 4GB
SAPPHIRE TOXIC HD 7970 GHz Edition 6GB GDDR5

Welche der beiden würdet ihr nehmen?

Mehr über die Geforce: http://www.gainward.com/main/vgapro.php?id=868
Mehr über die Radeon: http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1157&pid=1483&psn=&lid=2&leg=0#

Zudem Thema hier noch eine kleine Tabelle


PS: Wie ihr in der Tabelle sehen könnt wird da nur von der normalen Radeon HD 7970 ausgegangen und nicht von der SAPPHIRE TOXIC welche ja dann im Prinzip noch besser seihen muss.
 

Anhänge

  • GeForce - Radeon.png
    GeForce - Radeon.png
    20,5 KB · Aufrufe: 299
ganz klar die 7970! ;)
Spätestens nach den "Wundertreibern" die Nummer 1.
Außerdem ist die durch mehr V-Ram zukunftssicherer und es gibt Hitman, Far Cry 3 und Sleeping Dogs gratis dazu ;)
 
Wenn du CUDA oder PhysX brauchst dann NVidia, sonst greif lieber zur AMD.
 
Die Toxic ist in diesem Falle teurer(und nicht lieferbar) und verbraucht mehr Strom.
Die VaporX mit 6GB wäre für gleichen Preis wie die Phantom lieferbar aber verbraucht immer noch mehr strom.
 
Zuletzt bearbeitet:
also mein arbeitskollege hat mit seiner HD7970 immer wieder probleme bei manchen spielen was ruckler oder so angeht, ich hingegen hatte mit meiner GTX680 nie probleme, fiebt nichts und alles läuft ohne treiber hin und her zu wechseln, einfach immer nur den neusten
 
Also ich denke, dein Monitor hat eine 1920x1080 auflösung!!!!wenn ja dann keine von beiden weil die 2 GB locker reichen wenn du 3D Spielst dann nimm die 4 GB Phantom.

Aber die Toxic ist so dermaßen Teuer!!! nicht unter 600 € das du lieber auf die neue Gtx 780 oder HD 8970 warten kannst.
 
[x] gtx 680
 
So ich denke da hat sich schon einer entschieden, aber die Toxic für über 600€ neu!!! würde ich nie nehmen dafür bekommst du schon 2 mal HD 7970 oder Gtx 670 er.

Weil über Stromverbrauch brauchen wir dann auch nicht diskutieren, weil wenn man sich die Toxic aussucht ist einem das wohl egal
 
Falls du sowas wie PhysX und CUDA nicht brauchst ist ne 7970 wohl die bessere Entscheidung. Ich weiß zwar nicht, für was du 6GB Speicher brauchst (sorry falls ich da was überlesen habe) aber eine 7970 mit 3GB müsste doch eigentlich reichen?

Wenn du nicht auf die neuen Karten warten willst, würde ich ne etwas günstigere 7970 nehmen z.B. die Gigabyte WF. Diese sollte dann locker für alles reichen, was in den nächsten 1-2 Jahren so rauskommt (solange du du nicht in 1080p+ zockst).

Habe selbst seit knapp ner Woche eine Gigabyte 7970 WF mit knapp 1100mhz laufen, was besseres kriegste für ~330€ einfach nicht.

MfG
 
Jup, 6GB VRAM braucht man eigentlich nicht, weil die sich bei normalen Auflösungen bis 1900x1200 im Vergleich zu 3 GB VRAM kaum bemerkbar machen.:)
 
Moin bei 1920x1080 fallen 6 GB zur 3 GB gar nicht auf !!!! für so was reicht die normale Gxt 680 oder die HD 7970.

Aber da wir ja gar nicht wissen auf was für ein Monitor er Spielt, denke ich mal das Thema hat sich für ihn erledigt!!!

Kommt ja keine Antwort!!!
 
Ich spiele auf einem Samsung Syncmaster T27A300 mit einer Auflöung von 1920x1080.
 
Außerdem ist die durch mehr V-Ram zukunftssicherer

LOL Zukunftssicher.
Die High-End Karten der letzten Generation werden von aktuellen Mid-Range Karten platt gemacht bei wesentlich weniger Stromverbrauch.

Ich würde auf die neuen 7XX / 8XXX warten.
Gerade so kurz vor Release ist der Kauf einer High-End Karte zum Vollpreis nicht ratsam.
 
Zuletzt bearbeitet:
NeoGeo schrieb:
LOL Zukunftssicher.
Die High-End Karten der letzten Generation werden von aktuellen Mid-Range Karten platt gemacht bei wesentlich weniger Stromverbrauch.

Ich würde auf die neuen 7XX / 8XXX warten.
Gerade so kurz vor Release ist der Kauf einer High-End Karte zum Vollpreis nicht ratsam.


Vollste Zustimmung.;)
 
NeoGeo schrieb:
LOL Zukunftssicher.
Die High-End Karten der letzten Generation werden von aktuellen Mid-Range Karten platt gemacht bei wesentlich weniger Stromverbrauch.

Ich würde auf die neuen 7XX / 8XXX warten.
Gerade so kurz vor Release ist der Kauf einer High-End Karte zum Vollpreis nicht ratsam.

Da die kommenden Grafikkarten ebenso in 28nm hergestellt werden, ist so ein großer Performance sowie Energieeffizienzverbesserung eher nicht zu erwarten, erst beim nächsten Shrink.
Die Preise sind übrigens mittlerweile mehr als ok, vor allem bei AMD Karten, den vollen Preis haben die Leute eher bezahlt die direkt am Anfang gekauft haben. Bis die neuen Grafikkarten dann wieder im Preis sinken werden, vergeht auch wieder ca. ein halbes Jahr. Ach ja, dann stehen wieder die neuen Grafikkarten vor der Tür, incl. Die Shrink... also nie kaufen :freak:
 
Da die kommenden Grafikkarten ebenso in 28nm hergestellt werden, ist so ein großer Performance sowie Energieeffizienzverbesserung eher nicht zu erwarten, erst beim nächsten Shrink.

Der GK110 soll 30%-50% mehr Leistung haben ... stellt sich nur die Frage > wie viel wird er kosten.
Laut Datenblatt kann man behaupten das die Angaben richtig sind.

Die Preise sind übrigens mittlerweile mehr als ok, vor allem bei AMD Karten

AMD kosten im Mid-Range Sektor genauso viel wie Nvidia.
Weder billiger noch teurer.

Im High-End Sektor hat AMD eindeutig zu wenig Futures.
Bei einer 400€+ Karte würde ich zu einer Shutter Brille greifen und mir einen 3D Monitor kaufen.
Oder zu mindestens das ein oder andere Physx Spiel maximieren.


GTX 7XX März-April 2013
Chipfläche ~550mm² (in 28nm-Fertigung bei TSMC)
7,1 Milliarden Transistoren
DirectX 11.1 Kepler-Architektur
augenscheinlich 6 Raster Engines (GPC)
15 Shader-Cluster (SMX) mit je 192 Shader-Einheiten und (wahrscheinlich) 16 TMUs pro SMX
2880 (1D) Shader-Einheiten
wahrscheinlich 240 Textureneinheiten (TMUs)
wahrscheinlich 48 Raster Operation Units (ROPs)
384 Bit DDR Speicherinterface
Speicherbestückung wahrscheinlich 3 GB GDDR5
Taktraten derzeit noch unbekannt, aber sicherlich unterhalb des GK104-Niveaus
Spiele-Stromverbrauch Richtung 300 Watt
Launch im Tesla-Segment im Q4/2012, im GeForce-Segment erst im Q1/2013
 
Zuletzt bearbeitet:
Zurück
Oben