News Bilder der finalen Nvidia GeForce GTX 680?

Wir wissen ja alle das NV gerade alle Namen über den haufen werfen, und lustig neu verteilen.

Aber am Ende steht eine GTX 680, die so schnell ist wie eine 7970 +/- ...

Dann erinnert man sich an das großkotzige, wir haben mehr erwartet ... und fragt sich, wieso man dann nur mithalten kann und keinen burner bringt ...

Da fühlt man sich doch richtig verarscht ...


das dieses Jahr noch die echte Version kommt, ist wohl auch klar.
Genauso wie AMD eine neue Generation bringen wird ...

Dieses mal werd ich echt nicht zuschlagen, meine 280 rennt noch okay, und für diese Verarsche geb ich kein Geld aus ... da kriegen eben beide nichts ...
 
Bezüglich: https://www.computerbase.de/forum/t...-geforce-gtx-680.1035877/page-4#post-11678972

Den hab ich am 27.01. per Paint zusammengebastelt (die letze Version davon zumindest), von daher. :D
Am 31.01. erschien der 295.51 Beta - damals gab es sonst nur den 290.53 Beta.
Das mit der Versionsnummer und dem Linux-Treiber ist reiner Zufall...und ja, es würde mit 0.5.8 eher so aussehen http://h13.abload.de/img/kepler1y2co1.png

Bissl Spaß muss sein. :D

Die Speicherbandbreite passt übrigens bei 256 Bit und 1400 MHz - Cayman XT hat 176 GB/s bei 1375 MHz.

Ich find es ja lustig, dass du denkst, der "Shot" sei aktuell. :king:
 
Zuletzt bearbeitet:
Durchgesickerte Daten:GeForce GTX 680
basierend auf dem nVidia GK104-Chip
294mm² Chip-Fläche mit 3540 Mill.Transistoren unter der 28nm-Fertigung von TSMC
DirectX 11.1, Kepler-Architektur
1536 (1D) Shader-Einheiten
1006MHz Base Clock
1058MHz Boost Clock
6.0Gbps Mem. Speed
vermutlich 128 Textureneinheiten (TMUs)
vermutlich 32 Raster Operation Units (ROPs)
256 Bit DDR Speicherinterface
2 GB GDDR5 Standard-Speicherbestückung
PCI Express 3.0 (abwärtskompatibel zu PCI Express 1.x und 2.0)
2x 6polige Stromstecker, TDP 195 Watt unter Spielen ~185W
Ausgänge: 2xDL-DVI,HDMI,Displayport 1.2
DualSlot, Kartenlänge ca. 25cm
Listenpreis: 549 Dollar
 
Zuletzt bearbeitet:
habe hier noch bilder von benchmarks von Fermi release,
in wie wie hatten diese hier gestimmt..? :freak:

was soll ich denn lsen, wenn viele sich auf diese screens oder angaben verlassen?
 

Anhänge

  • file15699.jpg
    file15699.jpg
    68,2 KB · Aufrufe: 573
  • file15843.jpg
    file15843.jpg
    67 KB · Aufrufe: 545
Mhh also GTX680 mit GK104. Mal kucken ich wart eh auf die etwas preiswerten Modell (falls 549$ wirklich stimmen). Aber ich tipp eh drauf das die Grakas im Doppelpack kommen war doch in letzter Zeit immer so bei neuen Generationen. Was allerdings nicht so richtig passt der Preis wäre ja so auf höhe der HD7970. Oder die Leistung ist wieder so heftig wie bei der 6000er Serie.

Bald sind wir schlauer
 
GTX680_Benchmarks.jpg


gut, wenn diese Werte stimmen sollten, wäre das ganz schön herb für AMD, auch wenn der Takt relativ hoch genannt wird.

Hoher Takt macht aber auch Sinn, bei der HD7970 gibts fast mehr OC Karten als normale ;)

Und mit herb meine ich eher angesichts der Tatsache dass der GK104 recht klein ist und der GK110 ein ganz anderes Kaliber.

Wenn die 1536 Shader beim GK stimmen sollten, dürften auch die 2304 für den GK110 stimmen.

Nur scheint der GK110 noch nicht ganz in Sicht.
 
Die Werte (der 680er) habe ich doch schon vor der Einführung der HD7970 gesehen, dort wurden sie als Werte dieser Karte ausgegeben.
Zb. die 3001Punkte im 3DMark11
 
Zuletzt bearbeitet:
Wahnsinn eine, *kunstpause* Grafikkarte! Und *nachdenk* sie sieht auch noch genau so aus wie alle anderen die im letzten halben Jahrzehnt von Nvidia veröffentlicht wurden...

Ist aber schon besser als das Foto mit der Tüte, in dem eine Grafikkarte drin ist :p
 
@Krautmaster:

Sollte der GK104 tatsächlich mit 1536 Shadereinheiten daherkommen, wäre dies ja eine Verdreifachung gegenüber der GTX 580. Die Karte würde dann bzgl. der Performance weit vor einer HD 7970 liegen.
 
die gtx480 hat auch doppelt so viele shader wie die gtx285, ist aber "nur" ca 60% schneller. das kann man nicht einfach 1:1 rechnen.
die 7970 hat ja jetzt auch 1d-shader und derer sogar 2048... wir wissen ja noch gar nichts über die architektur der kepler-shader. möglicherweise sind sie ja energieeffizienter aber weniger leistungsfähig als die fermi-shader... könnte durch eine simplere und billigere zu produzierende architektur möglich sein...
noch ist jedes gerücht genauso richtig oder falsch wie jedes andere... genausogut kann ein monster auf gk100-basis rauskommen, das bei über 300 watt nicht an die 7970 rankommt. nicht so wahrscheinlich, aber wenn ich erwartungen vor dem fermilaunch mit der tatsächlichen gtx480 vergleiche...

abwarten und tee trinken ;)
 
Zuletzt bearbeitet:
Wobei 60% jede menge ist , könnte gut sein das die GTX680 ziemlich schnell wird , noch ist ja nichts bekannt .
 
naja immerhin haben wir einen Release!
Jetzt sickern hoffentlich bald die Benches durch
 
Die haben auch nichts besseres zu tun, als nochmal 100 Euro draufzulegen... Es gab Zeiten, da kostete die beste GPU 300 DM - Geforce DDR. Inzwischen sind die Preise abnorm, einfach nur krank. Es gibt Leute, die kaufen sich für 550 Euro ihren ganzen PC und spielen damit flüssig in Full HD.
 
Jenergy schrieb:
@Krautmaster:

Sollte der GK104 tatsächlich mit 1536 Shadereinheiten daherkommen, wäre dies ja eine Verdreifachung gegenüber der GTX 580. Die Karte würde dann bzgl. der Performance weit vor einer HD 7970 liegen.

falsch gedacht. Wenn Hot Clock wegfällt dann wird dies durch Shader ausgeglichen, die Shader ähneln dann auch mehr den GCN s von AMD. Die kommt ja auch mit 2k 1D Shader daher.

Imho takteten die 512 Shader der GTX 580 auf ~1,5 Ghz.
 
Zuletzt bearbeitet:
@Aurora: Teuer ist es, gefällt mir auch nicht. Aber für FullHD mit maximalen Details brauchts eben was dickes, und kein 500€ System. AUßER man spielt momentan z.B. Mass Effect 3 mit Effekten von vor 10 Jahren. Aber en BF3 oder Crysis 2 oder naja Serious Sam 3 oder so und man braucht Power.

Crytek soll jetzt im April ein riesen Projekt vorstellen. Obs gut wird, sei mal dahingestellt. Aber das wird garantiert en grafischer Knaller, von der Unreal Engine 4 will ich da gar nicht reden....

500€ sind viel, zu viel, aber für Grafikenthusiasten ist es das Geld wert. Wer nur so daddelt, braucht ja auf keinen Fall so viel auszugeben!
 
Supermax2004 schrieb:
@Aurora: Teuer ist es, gefällt mir auch nicht. Aber für FullHD mit maximalen Details brauchts eben was dickes, und kein 500€ System.

naaaja

http://geizhals.de/?cat=WL-224240

1 x Seagate Barracuda 7200 1000GB, SATA 6Gb/s (ST1000DM003)
1 x Intel Core i3-2120, 2x 3.30GHz, tray (CM8062301044204)
1 x Kingston ValueRAM DIMM Kit 4GB PC3-10667U CL9 (DDR3-1333) (KVR1333D3N9K2/4G)
1 x Point of View GeForce GTX 570, 1.25GB GDDR5, 2x DVI, Mini-HDMI (VGA-570-A1-POP5)
1 x MSI H61MU-E35, H61 (B3) (dual PC3-10667U DDR3) (7680-030R)
1 x Arctic Cooling Arctic F12 PWM, 120x120x25mm, 300-1350rpm, 96.8m³/h, 0.5 Sone
1 x Arctic Cooling Freezer 7 Pro Rev. 2 (Sockel 775/1155/1156/1366/939/AM2/AM2+/AM3/AM3+/FM1)
1 x Xigmatek Asgard II schwarz
1 x Arctic Cooling Fusion 550R 550W ATX 2.2

584,47 Euro

reicht zB locker für FullHD @ Max.
Kannste natürlich auch gern ne GTX 560 oder ne HD6870 einbauen um auf die besagten 500€ zu kommen ^^
Oder eben ne HD6950 retail mit 2Gb wenn man VRam braucht. Die kann man im Handumdrehen zur 70er machen und OC.

Viel mehr als 500€ brauchts wirklich nicht... und das System oben is richtig geregelt nahezu lautlos.

Die Zeiten wo ich 500€ in ne GPU stecke sind vorbei. Außer in den GK110 vllt :D
 
Zuletzt bearbeitet:
Krautmaster schrieb:
falsch gedacht. Wenn Hot Clock wegfällt dann wird dies durch Shader ausgeglichen, die Shader ähneln dann auch mehr den GCN s von AMD. Die kommt ja auch mit 2k 1D Shader daher.

Imho takteten die 512 Shader der GTX 580 auf ~1,5 Ghz.

Äh hä?
Wenn HotClock wegfällt und der generelle Takt geringerer ist, dann ändert sich doch nicht die Rechenarchitektur. Takt beschreibt einfach nur die Schaltgeschwindigkeit.

Die "Shader" müssen sich daher mitnichten denen von AMD ähneln.
 
Zurück
Oben