News Zotac bringt GeForce GTX 680 mit 4 GByte und GTX 680 AMP!

Nunja... wenn die Zotac 680AMP² erscheint kann mir dann die GTX 690 leisten ;P

Erstmal möchte ich kein 3D Zocken, wird mir wohl beim langen Zocken zu blöd mit dem 3d

hab mir sagen lassen das 120Hertz solle zukunftsicher sein für Aktion Spiele wie Battlefield 3 da die Grafikkarten ja die 120 Hertz erreichen sollen und dadürch auch 120 Fps hat ? ist das Richtig? und ein normaler Monitor nur an die 75 Hertz kommt und nur max. 75 fps überträgt ?
 
cocoman schrieb:
Wow, unglaubliche Leistung, aber auch unglaublicher Preis :D (wobei er doch angemessen ist für die enorme Leistung!). Mir gefällt, was NVidia in letzter Zeit so treibt, die zwingen AMD recht gut, ihre Produkte weiterhin zu verbessern.

Hab ich was verpasst? enorme Leistung? 30% über GTX580? :freak:
So am Rande: im Jahre 2009, also vor 3 Jahren gab es die 5870 für 350€ = AMD 6950 Leistung. Was bekommt man heute für seine 350€? 3 Jahre später? :lol:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9233743&postcount=30

Augen auf beim Grafikkartenkauf!
 
Die GTX680 hat im Referenzdesign ja ohnehin nur 2 GB VRAM, weil Nvidia dem GK110 keine 8 GB standardmäßig geben wollten. :D

Bin mal gespannt, wie viel der doppelte VRAM tatsächlich bringt aber ich könnte mir gut vorstellen, dass in höheren Auflösungen der Gewinn sogar im zweistelligen Prozentbereich liegt. :)
 
hab mir sagen lassen das 120Hertz solle zukunftsicher sein für Aktion Spiele wie Battlefield 3 da die Grafikkarten ja die 120 Hertz erreichen sollen und dadürch auch 120 Fps hat ? ist das Richtig? und ein normaler Monitor nur an die 75 Hertz kommt und nur max. 75 fps überträgt ?

Wozu brauchst du 120Hz, wenn du kein 3D nutzt? Das menschliche Auge sieht mit 16 Bilder die Sekunde:
Für die menschliche Wahrnehmung genügen bereits etwa 16 bis 18 Bilder pro Sekunde, um die Illusion von fließender Bewegung, Kontinuität, zu erzeugen, sofern sich die Einzelbilder nur geringfügig voneinander unterscheiden.
Wenn sich die Einzelbilder stark unterschieden, dann braucht man eben 30fps/s, 60 reichen aber auf alle Fälle für alles aus. Alles andere merkt man sowieso nicht. Ich denke, Kinofilme werden nicht umsonst in 24p gedreht.
 
Goodtwist schrieb:
Wo bleibt denn eigentlich der Top-Chip, ich glaube GK110 soll er heißen? Gibt es dazu irgendwelche News?

Das kannst du auf der "NVIDIA - GPU Technology Converence"
in San Josa; California
;
in d. Zeit vom 14. - 17.05.12 erfahren.

Von PCGH wird jemand dort sein; PCGH_Carsten:
, lt. seiner Aussage zum heutigem, ähm gestrigem Themenabend mit NVIDIA

Ich hoffe von CB ist auch wer da stellt Fragen u. berichtet oder ein gemeinsamer Bericht von CB und PCGH?

Termine: https://registration.gputechconf.com/?form=schedule
Themen: https://registration.gputechconf.com/?form=scheduleBySession
 
Zuletzt bearbeitet:
Haldi schrieb:
stimmt schon ! Die läuft ja mit 1500mhz VRAM, +150 = 1650mhz! Das ist für Standard Takt sehr viel, gibt aber HD7970 die mit bis zu 1950mhz Vram laufen !




Könnte sein das er die 256bit meinte ?

Wenn man den Test hier anschaut:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235.html?start=16

Würden die nur den VRAM übertakten würde die bei 8xSGSSAA bestimmt noch so 3-7 FPS mehr bringen !


Er sprach hiervon:

Gibts ne Quelle hierzu ob die amp versionen auch keine verdopplung besitzen ?


Kasmopaya schrieb:
Ich finde die weiße Version des PCBs hässlich.

optimal wäre die Verdopplung der Datendichte gewesen, wie bei den GTX 580 3GB Modellen. Hab ich mir aber schon gedacht, da es wohl so extrem schnelle Chips für die 4GB Chips noch nicht gibt.
 
Zuletzt bearbeitet:
HPC Master schrieb:
Keine GK110 New's Online gelesen ? High-End Kepler GK110 voraussichtlich dann ab August'12 im Handel.

GPU Technology Conference vom 14. - 17. Mai - GTC 2012: CUDA 5.0 und Kepler 2.0 aka GK110 Grafikchip

NVIDIA to launch 7-Billion Transistor Kepler GPGPU "Tesla" Boards on May 14?
NextGen Kepler mit 3/4/6/8/12/16GB of rock-solid GDDR5 Memory mit Error Checking und Correction!

Tja eine Teslakarte und keine Gamerkarte. Zumindest wird sich das Teil kaum ein Gamer leisten können weil die Karte bestimmt ein paar tausend Dollar kostet. Als man das noch vor 2 Monaten gesagt hat wurde man von den Nvidia Fanboys geflamet und nun kommt es genau so. Hach herrlich... :evillol:

Wusste ichs doch, dass Nvidia nix besseres mehr aufm Kasten hat.
 
HPC Master schrieb:
Keine GK110 New's Online gelesen ? High-End Kepler GK110 voraussichtlich dann ab August'12 im Handel.

GPU Technology Conference vom 14. - 17. Mai - GTC 2012: CUDA 5.0 und Kepler 2.0 aka GK110 Grafikchip

NVIDIA to launch 7-Billion Transistor Kepler GPGPU "Tesla" Boards on May 14?
NextGen Kepler mit 3/4/6/8/12/16GB of rock-solid GDDR5 Memory mit Error Checking und Correction!


Hmm jetzt stellt sich mir die Frage ob der GK 110 überhaupt für den Desktop und somit Spieler veröffentlicht wird, oder ob es bei Tesla und evtl. Quadro bleibt.


@ Topic

Die AMP! ist hässlich wie die Nacht, aber der Speichertakt macht was her. Und bei der 4Gb Edition stört mich die ohnehin schon limitierende Speicherbandbreite. So wird man den enormen Speicherausbau kaum sinnvoll nutzen können.

Ik warte dann lieber auf die nächste Generation. Diese ist mir zu teuer und die 680 hat im schnitt schon weniger GPGPU-Performance als eine 580er und kann bei enormem Tesselation schon einbrechen in ihrer Leistung... Teilweise schneidet selbst eine 560Ti besser ab in dieser Kategorie. Derzeit gibt es zwar kaum Anwendungsbeispiele die hier einen Nachteil attestieren, aber auch diese wird es irgendwann geben und sich für den Käufer rächen.

Eine kommende 660er Version des Kepler wird diesen Nachteil noch vergrößern womit die Kepler Generation für mich als Nachfolger suchenden der 560Ti weg fällt. Sollte es nötig sein würde ich da eher auf eine Radeon 7870 ausweichen und ich greife eher ungern zu AMD/ATI!
 
lenny.chem.dat schrieb:
Den sollten sich alle durchlesen die sich fragen wozu man 4GB Speicher braucht.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235.html

Dazu z.B: http://www.youtube.com/watch?v=3tvAxVMvry8&feature=related

Jetzt noch die GTX690 mit 8 GB! Eine GTX680 mit 4GB ist aus meiner Sicht "nur" für ein 30" WQXGA Display sinnvoll, darunter wird nicht mal die hälfte des RAM's verwendet, darüber wird der GPU wohl die Leistung ausgehen?!

Freue mich schon auf den Vergleich HD7990 vs. GTX690 8GB! Eine davon wird mein nächstes Schnuckelchen, andererseits habe ich die HD6990 erst ein Jahr, grübel, grübel... mann kost das immer teuer Geld:rolleyes:
 
Naja, mit dem Rahmen in der Bildfläche bei Multimonitoren sieht ja mal mega schei... aus, so könnt ich net Zocken.

Schöne Karte, die Asus macht es aber besser. Mal schauen wann die Modelle auch verfügbar sind.
 
Die Amp ist richtig hässlich! Plastikabdeckung sieht billigst aus und die total übertriebenen Heatpipes quillen irgendwie richtig hervor. Da gibt es schönere Alternativen. Wenn die Leistung und die Lautstärke stimmen und man keinen Wert auf optisches legt, ist es trotzdem eine Überlegung wert.
 
@Blazin Ryder
Gewöhnt man sich schnell dran. Ich hab zwar nur das 3-Screen-Setup von Samsung, aber Du konzentrierst Dich halt auf den mittleren Screen und hast das was links und rechts ist als zusätzliche Info für Dich. Macht schon ne Menge her, gibt ein besseres "Mittendrinn" Gefühl.
Ist wie Autofahren, da schauste ja auch an der A-Säule vorbei.
 
Tombstone schrieb:
Hmm jetzt stellt sich mir die Frage ob der GK 110 überhaupt für den Desktop und somit Spieler veröffentlicht wird, oder ob es bei Tesla und evtl. Quadro bleibt.

Die selben Spekulationen gab es doch auch schon bei Fermi und da war nichts dran. :)

Ich bin ziemlich sicher, dass es in der 700er-Familie auch wieder einen richtigen, großen High-End-Chip in Tradition von GF100 und GF110 geben wird. Eben die GK110.

Dass es in der ersten Kepler-Generation kein High-End gibt, halte ich schlicht und einfach für einen ungeplanten Unfall. Die GK100 ist Nvidia höchstwahrscheinlich einfach nur missglückt, ähnlich wie schon die GF100. Zu heiß, zu teuer und um im TDP-Rahmen zu bleiben, müsste man größere Teile der GPU deaktivieren.
Nur hat Nvidia diesmal zu ihrem Glück mit dem GK104 eine Performance-GPU einen Ersatz parat gehabt, die direkt mit dem High-End-Modell der Konkurrenz mithalten kann. Deshalb hat Nvidia darauf verzichtet, die nicht so gut gelungene GK100 überhaupt zu produzieren und nimmt einfach für Karten mit GK104 High-End-Preise.

Wäre die GK104 als High-End geplant gewesen, würde sie GK100 heißen. :D

Wobei ich zugeben muss, dass so eine echte High-End-GPU schon etwas an Bedeutung verliert, wenn Nvidia die Dual-GPU-Technik inzwischen wirklich derart gut im Griff haben sollte, wie der CB-Test der GTX690 vermuten lässt. :rolleyes:
Allerdings müsste der Preis einer GTX690 noch deutlich sinken, damit sie als Nachfolger einer Single-GPU-High-End-Karte wie der GTX580 durchgehen könnte.

Was die AMP! angeht: Ich finde die Karte diesmal nicht ansatzweise so interessant, wie damals bei den 400ern. Die GTX680 ist (weil sie eigentlich technisch ein Nachfolger der GTX560 ist), schon im Referenzdesign recht leise, kühl und sparsam. So ein mächtiger Triple-Slot-Kühler kann da nicht mehr viel verbessern und ist einfach nur überdimensioniert.
Die GTX470 und 480 AMP! konnten noch richtig glänzen, gegenüber dem Refenrenzdesign und nahmen den hitzköpfigen Fermis ihren Schrecken, aber bei den GTX680/GK104 ist das anders. Da braucht man solche teuren Monsterkühler einfach nicht. Es sei denn vielleicht, man will das letzte bisschen OC-Potential aus der GPU heraus kitzeln.

Mit der GK110 könnten solche Karten mit aufwändigen Custom-Kühlern dann aber wieder viel interesanter werden.
 
wozu den warten? es gibt jetzt schon eine 4 gb alternative von gainward http://geizhals.at/de/760502 die sehr gute kühlung hat, leise ist und wie ich finde um 100% besser aussieht.
 
Herdware schrieb:
Die selben Spekulationen gab es doch auch schon bei Fermi und da war nichts dran. :)

Ich bin ziemlich sicher, dass es in der 700er-Familie auch wieder einen richtigen, großen High-End-Chip in Tradition von GF100 und GF110 geben wird. Eben die GK110.

Dass es in der ersten Kepler-Generation kein High-End gibt, halte ich schlicht und einfach für einen ungeplanten Unfall. Die GK100 ist Nvidia höchstwahrscheinlich einfach nur missglückt, ähnlich wie schon die GF100. Zu heiß, zu teuer und um im TDP-Rahmen zu bleiben, müsste man größere Teile der GPU deaktivieren.
Nur hat Nvidia diesmal zu ihrem Glück mit dem GK104 eine Performance-GPU einen Ersatz parat gehabt, die direkt mit dem High-End-Modell der Konkurrenz mithalten kann. Deshalb hat Nvidia darauf verzichtet, die nicht so gut gelungene GK100 überhaupt zu produzieren und nimmt einfach für Karten mit GK104 High-End-Preise.
Tja und der GK110 wird ja wohl nun doch eine reine Teslakarte. Einen nächsten Performanceschritt werden wir dann erst mit einem Refresh oder neuem Chip erleben. Aber bis dahin ist AMD auch schon längst wieder weiter.
Wäre die GK104 als High-End geplant gewesen, würde sie GK100 heißen. :D

Ob das so ist werden wir nie erfahren, denn Nvidia wird diesbezüglich mit Sicherheit nicht die Hosen runter lassen. ;)
Deine These unterstütze ich im Übrigen nicht. Ich glaube der Gk104 war genauso geplant wie er jetzt gekommen ist, nämlich als High-End-Chip. Zum Zeitpunkt wo dieser Chip entwickelt wurde gab es noch keine 7970 und somit hätte Nvidia gar keine Möglichkeit gehabt den GK104 noch großartig anzupassen. Als dann die 7970 erschien konnte Nvidia nur noch Taktanpassungen machen und keine größere Designänderungen des Chips. Das hätte viel zu lange gedauert. So ein Chip wird schließlich nicht in 3 oder 6 Monaten entwickelt. Deshalb glaube ich auch nicht wirklich an das Marketinggeschwätz von Nvidia als sie sagten, dass sie von der neuen 7970 von AMD mehr erwartet hätten.
 
Zuletzt bearbeitet:
@ Klikidiklik

Wie gesagt, hätte Nvidia die GK104 von Anfang an als High-End geplant, dann hätte sie GK100 geheißen.

Die GK104 ist der Nachfolger des GF114 und damit die GTX680 eigentlich eine GTX660 (Ti). Das sieht man nicht nur am Namen der GPU, sondern auch an der Größe/Die-Fläche, am Speicherinterface, der Größe der Karte, dem TDP-Rahmen, den Stromanschlüssen. Einfach überall.

Warum hätte Nvidia auch über dieser GPU/Karte eine so große Lücke nach oben lassen sollen? Wie du richtig sagst, die konnten ja nicht wissen, wie AMDs Flagschiff aussehen würde. Sie mussten damit Rechnen, dass sie eine Kepler-GPU in mindestens der selben Größenordnung wie die Vorgänger GF100 und GF110 brauchen würden, um da gegen zu halten.
Nur ist ihnen der GK100 eben nicht wirklich gut gelungen. Entweder funktionierte er überhaupt richtig, oder so schlecht, dass man sich seine Vermarktung lieber ganz gespart hat.

Und genau so ist dann auch die Aussage von Nvidia zu verstehen, dass sie von der HD7970 mehr erwartet hätten. Das bedeutet aus der PR-Sprache übersetzt so viel wie:
"Puh! Da haben wir aber nochmal Schwein gehabt. Wäre AMDs High-End-GPU deutlich besser geworden, hätten sie uns mit runtergelassenen Hosen erwischt und wir hätten dem monatelang bis zur GK110 nichts entgegen zu setzen gehabt."

Nvidia hatte einfach Glück im Unglück, dass auch die GK104 auch noch ausreichte, um AMD zu kontern. Sie mussten auch gar nichts kurzfristig anpassen. Nur den Namen der GTX660(Ti) in GTX680 ändern.
Und das beste: Sie können deshalb für diesen für Nvidia-Verhältnisse kleinen und billig herzustellenen Chip so viel Geld verlangen, wie sie sonst für eine teure, große High-End-GPU genommen hätten.

Falls TSMC nicht z.B. aufgrund von Lieferproblemem Mondpreise für die kleine GK104 verlangt, wird Nvidia sich gerade eine goldenen Nase verdienen. :cool_alt:
 
WorldRacer schrieb:
Wozu brauchst du 120Hz, wenn du kein 3D nutzt? Das menschliche Auge sieht mit 16 Bilder die Sekunde:
Wenn sich die Einzelbilder stark unterschieden, dann braucht man eben 30fps/s, 60 reichen aber auf alle Fälle für alles aus. Alles andere merkt man sowieso nicht. Ich denke, Kinofilme werden nicht umsonst in 24p gedreht.
Hier ein Auzug von Benq.de

120Hz Refresh Rate für nahtlose Bildübergänge

Eine Bildschirmanzeige, die sich 120 Mal in der Sekunde aktualisiert, führt niemals zu visuellen Verzögerungen zwischen den Aktivitäten in der virtuellen Spiel-Welt und deren reeller Darstellung. Die Hyper-Speed-Video-Processing-Technologie sorgt für fesselnde Action in Echtzeit.

image_bin.cfm
 
Eyefinity schrieb:
grübel, grübel... mann kost das immer teuer Geld:rolleye

Ich überleg auch schon wieder... wenn ich 2 680er haben will muss ich auf nen anderen Sockel bzw nen andere Board umsteigen wg PCIe 3.0....
Vermutlich DX79SI mit nem 6-Kerner auf 2011er Sockel.....
gnaaaahhhhh

Vielleicht sollte ich lieber noch mindestens n halbes Jahr warten.
Wobei für den 2011er eh nix mehr kommt :-/
 
Z!b@l schrieb:
Hier ein Auzug von Benq.de

120Hz Refresh Rate für nahtlose Bildübergänge

Eine Bildschirmanzeige, die sich 120 Mal in der Sekunde aktualisiert, führt niemals zu visuellen Verzögerungen zwischen den Aktivitäten in der virtuellen Spiel-Welt und deren reeller Darstellung. Die Hyper-Speed-Video-Processing-Technologie sorgt für fesselnde Action in Echtzeit.
jap, mein nächster Monitor wird auch ein 24" mit 120 Hz sein - und das nicht wegen 3D. Selbst wenn das Bild nur "wenig" flüssiger angezeigt wird als mit 60 Hz, reicht mir das schon als Vorteil aus.
Und das mit 16 FPS ist sowieso Blödsinn und einfach nur falsch. Liest man leider immer mal wieder.

Der BenQ XL2420T plus eine 680 ist schon ein Traum...;)
 
Zuletzt bearbeitet:
Zurück
Oben