News Erste, eigene Bilder der Nvidia GeForce GTX 690

Eine Brechstange hat keine Einkerbung zum herausziehen von Nägeln.

Das ist falsch!

Im Grunde hat ein Nageleisen nur einen umgangssprachlich so genannten Kuhfuss, aber kein zusätzliches Aufbrech-/ Hebelwerkzeug auf der anderen Seite.
Das gibt es eigentlich nur bei der Brechstange, die meist auch Gleichzeitig einen Nagelzieher (Kuhfuss) beinhaltet.

Das Problem ist, das die Bezeichnungen ineinander verschwimmen und somit im Grunde beide Bezeichnungen im deutschen richtig sind. Edit: Reine Nageleisen gibt es kaum noch, also einen Griff mit Kuhfuss, da Brecheisen universeller einsetzbar sind, dank Hebelwerkzeug + Nagelzieher!
Im Englischen ist das ganze einfacher, da gibt es nur die Bezeichnung Crowbar und da ist die Meistbenutzte Übersetzung Brecheisen.

Also wenn schon, dann richtig ;)
 
Zuletzt bearbeitet:
Ahhh.... Besten Dank - immer sehr Lehrreich & Hilfsbereit... ;o)
 
Da die Sache mit dem Brecheisen nun geklärt ist wärs interessant zu wissen wann der Test des Brecheisens bzw. der Karte online geht.

Jemand ne Ahnung?
 
Am 3. Mai soll es wohl schon soweit sein, aber wenn die Tester die Karte erst diese Tage bekommen haben bezweifle ich stark das da Morgen schon ein Test online ist!

Edit:
Andererseits kann man die GTX 690 ja nächste Woche schon kaufen, also wird wohl im Verlauf der Woche auch ein Test kommen ;)
 
Zuletzt bearbeitet:
Hm, habe irgendwie gehofft das der ein oder andere Shop sie heute bereits listet (trotz des vorhandenseins in "homöopathischen Dosen").

Vielleicht tut sich ja im laufe des Tages noch was.
 
Zuletzt bearbeitet:
Zu den drei DVI-Ports:
Das liegt (laut Anandtech) daran, dass derzeit 3D-Vision-taugliche Monitore praktisch nur mit DL-DVI gibt. Entsprechende Modelle mit DisplayPort kommen gerade erst auf den Markt.

Wenn man sich so eine Monster-Karte zulegt, will damit nunmal auch alles ausschöpfen können, was an 3D- und Multimonitor-Setups technisch möglich ist, also auch bis zu drei 3D-FullHD-Monitore gleichzeitig anschließen können. Damit wäre dann wohl auch die Frage beantwortet, wozu man so viel GPU-Leistung überhaupt braucht. ;)
Tatsächlich dürften zwei GK104 damit zumindest bei etwas höheren Qualitätseinstellungen noch heillos überfordert sein. (Bei der Handvoll Spielen, die mit so einem exotischen Setup überhaupt fehlerfrei funktionieren.)
 
mariobrand0 schrieb:
Die Karte sieht ja echt geil aus.

Nur stellt ich mir die Frage, warum 3 DVI Anschlüsse aber keinen einzigen HDMI Anschluss?

wayne HDMI, viel interessanter finde ich, wieso da kein einziger DP drann ist o_O
AMD zeigt doch seit Jahren wie man es richtig macht.
 
HPC Master schrieb:
Yeah, Don't mess with me... or you get Pwned by a Crowbar - You ugly Skull Face... joke ;o)

HL2%2BSkull.gif

Boah wie geil! :D

Danke! Ich sammel Bilder und nun hab ich mein ganz persönliches HL2 Crowbar Bild! :)


Fischkopp schrieb:
Im Englischen ist das ganze einfacher, da gibt es nur die Bezeichnung Crowbar und da ist die Meistbenutzte Übersetzung Brecheisen.

http://www.dict.cc/?s=nageleisen

:p

Aber dass die Begriffe verschwimmen und man meist auch ein Nageleisen zum Hebeln benutzen kann und auch Brechstangen oft einen Kuhfuß haben ist schon richtig. Aber wenn Du sone kleine Stange mit 2 Kuhfüßen hast nennt es sich wohl eher Nageleisen... ;)

Aber ist ja auch vollk. Wumpe, wollte nur n bissl was für die Allgemeinbildung tun... :)
 
Zuletzt bearbeitet: (Rechtschreibung)
@ Tulol

Die GTX 690 hat doch einen miniDP.

Warum Nvidia ansonsten auf 3x DL-DVI setzt, habe ich weiter oben schon geschrieben, es gibt (fast) nur 3D-Vision-Monitore mit DL-DVI. Nvidias 3D-Vision-Surround geht also derzeit praktisch nur mit diesen Anschlüssen.
http://www.nvidia.de/object/3d-vision-surround-technology-de.html

DVI dürfte in den meisten Fällen wohl auch kaum ein Problem sein, denn welcher DP-Monitor kommt ganz ohne DVI?
 

Kann ich auch: http://www.dict.cc/?s=crowbar

:p :D

Natürlich ist es Wumpe, aber die Idee mit Holzkiste und Kuhfuss an sich finde ich auf jeden Fall witziger als eine Munitionskiste oder sowas :)

Hoffentlich kommt die so auch in den Retail Versionen!
Hab ich Brennholz für meinen Ofen und neues Werkzeug :D

Aber mal im Ernst, ich bin gespannt auf die Karte.
Auch wenn die Leistung absehbar ist, so will ich wissen ob es stimmt das die sich locker so weit übertakten lässt wie eine Single GTX 680?
Von 1300 MHz pro Chip war ja schon die Rede.
Das ganze dann mit dem Asus P8Z77-I Deluxe und SB oder Ivy, samt Wakü und fertig ist die Mini-ITX Gamingmaschine :D
 
Richtig - 3 x DL-DVI sind bei einer Dual-GPU Karte die optimale Lösung - Keine Tearing und keine Adapter nötig.
Hier wird der Aufbau und die Anschluss-Möglichkeiten von NVIDIA Surround mit 1er, 2 oder 3 GTX680 im SLI gut erklärt, auch jene für den 3D Vision Surround Multi-Monitor-Einsatz + Accessory Display:

Nvidia%203D%20Surround.png
 
Zuletzt bearbeitet:
Über unnötige Holzkisten und optisch herausgeputzte Kühler welche als Bauernfänger fungieren darf mann sich doch wohl noch unterhalten Mister Nvidia, oder nicht?!
Was daran ist denn Bauernfänger? Wenn man schon 1000 dollar für ne Karte ausgibt kann man ja wohl erwarten das sie aus hochwertigen Materialien gefertigt ist und optisch anspricht.
Wieso denn soviel Neid?
 
Die Holzkiste kann man bestimmt in ein paar Jahren für mehrere hundert euro in der Bucht kaufen ;)
 
Herdware schrieb:
Wenn man sich so eine Monster-Karte zulegt, will damit nunmal auch alles ausschöpfen können, was an 3D- und Multimonitor-Setups technisch möglich ist, also auch bis zu drei 3D-FullHD-Monitore gleichzeitig anschließen können.
Naja der nächste sagt die ultimative Konfiguration wären 6 Bildschirme. ;)
Wie sie es machen, machen sie es falsch. Am besten 3 Slotbleche, dann passt alles drauf. :evillol:
 
Ich höre drei Slotblenden und sechs Bildschirme?

68746.jpg


:rolleyes:
 
gibt es denn mittlerweile schon irgendwo nen kurzen Bench Test(nicht von Nvidia)?
 
Mac_Leod schrieb:
gibt es denn mittlerweile schon irgendwo nen kurzen Bench Test(nicht von Nvidia)?

Soweit ich mitbekommen habe soll es heute ab 15 Uhr erste Tests geben!
Aber da müsste man CB fragen, wobei NDA und so ;)

Edit: Der GTX 680 Test ging bei CB um 14 Uhr online, mal abwarten!

Aber da die Karten ja scheinbar erst in den letzten Tagen verschickt wurden, bin ich gespannt ob es heute überhaupt einen Test geben wird, es sei denn natürlich da wurden Nachtschichten eingelegt :D
 
Zuletzt bearbeitet:
Wenn du auf deiner GPU rechnen willst, dann ja.

Das Fazit mit

Wrapping things up, there is one question left I feel like we still don’t have a good answer to: how much RAM a $999 card should have. NVIDIA went with a true equal for the GTX 680 SLI, right down to the 2GB of VRAM per GPU. Looking back at what happened to the Radeon HD 5970 and its 1GB of VRAM per GPU – we can’t even run our 5760x1200 benchmarks on it, let alone a couple of 2560x1600 benchmarks – I’m left uneasy. None of our benchmarks today seem to require more than 2GB of VRAM, but that much VRAM has been common in high-end cards since late 2010; the day will come when 2GB isn’t enough, and I'm left to wonder when. A GTX 690 with 4GB of VRAM per GPU would be practically future-proof, but with 2GB of VRAM NVIDIA is going to be cutting it close.

dürfte für einen Teil der potentiellen Kundschaft aber viel ausschlaggebender sein... ich mein selbst die 5970 hat wohl mehr bzw. ähnlich viel bruteforce-Rechenpower wenns ums sture Rumgerechne geht, manövriert sich aber wegen zu wenig RAM selbst ins Aus. Andererseits betrachte ich solche Karten auch nur stur vom Standpunkt eines Zockers ;)
 
Zuletzt bearbeitet:
Zurück
Oben