News Erste, eigene Bilder der Nvidia GeForce GTX 690

Wieso hätte das Referenzdesign der GTX 680 nicht so aussehen können :(

Ich finde die Karte sieht richtig edel aus. Bin schon gespannt auf den Test.
 
terraconz schrieb:
Ich bin mir sicher selbst wenn der Test feststellen würde die Karte kackt goldene Eier würdest du noch was finden was dir nicht gefällt. :freak:

Geh mir nicht auf den Keks:rolleyes: Wenn die Karte gut ist, ist sie gut! Über unnötige Holzkisten und optisch herausgeputzte Kühler welche als Bauernfänger fungieren darf mann sich doch wohl noch unterhalten Mister Nvidia, oder nicht?!
Nur weil PC Games Hardware etwas über einen Chip schreibt ohne davon eine Ahnung zu haben (und CB, etc darüber KEIN Wort verlieren!) wird die GTX690 schon als Mikroruckler Killer angepriesen:freak:

Ich will einen Test sehen und wenn dann dort Tom's Hardware und CB schreiben das dieser Chip echt was bringt dann glaube ich dies auch! Wenn der Chip wirklich eine riesengrosse Verbesserung bringen würde, glaubst Du nicht auch Nvidia würde damit die Werbetrommel rühren.

We will see...
 
Shurkien schrieb:
Man merkt das du sehr AMD verblendet bist

Und wie/warum merkst Du das??? Weil ich erst einen detailierten Test über diesen "Wunderchip" sehen will? Jaja, so sehr bin ich verblendet!

BTW: Ich hatte eine TNT2 Pro, zwei Geforce 3, eine Geforce 6 und zwei Geforce 8, jaja ich bin Mister ATI/AMD only:freak:
 
Man betrachte deinen Post, und im Anschluss deine Sig sowie Avatar, das reicht an Fakten.
 
Ich habe gerade den Weihnachtsmann gesehen. Echt kein Scherz:rolleyes:

Bis es die Tests nicht gibt ist das für mich ein "Placebo-Chip" mehr nicht.
 
Blediator16 schrieb:
Ich habe gerade den Weihnachtsmann gesehen. Echt kein Scherz:rolleyes:

Bis es die Tests nicht gibt ist das für mich ein "Placebo-Chip" mehr nicht.

Genau so sieht es aus;) *like*

Shurkien schrieb:
Man betrachte deinen Post, und im Anschluss deine Sig sowie Avatar, das reicht an Fakten.

Dann bist Du also Japaner resp. Fan von japanischen Wurfwaffen, stehst auf komische Clowns und magst Call of Duty:freak:

Mann, mann, mann... ohne Worte...

So fertig OT!
 
wenn bei der GTX690 eine holzkiste und eine brechstange dabei ist was ist dann bei der HD7990 dabei??

etwa eine stange dynamit und eine bastelanleitung von MacGyver ???????????
 
...geniale Aktion mit der crowbar-Vorablieferung.
Als ich die zwei 8-pin Anschlüsse gesehen habe war mich auch klar weshalb die Karte in so einer grossen Kiste geliefert wird:
Da ist -ganz unten drin- bestimmt noch das Mini-AKW was zur Stromversorgung dringend gebraucht wird. Liebe CB's, schaut nochmal unter dem Schaumstoff nach, da ist bestimmt noch was :p

greetz
 
terraconz schrieb:
Ich bin mir sicher selbst wenn der Test feststellen würde die Karte kackt goldene Eier würdest du noch was finden was dir nicht gefällt. :freak:

Falsches Label halt ;) Ne ohne jetzt irgend nen flamewar starten zu wollen, man muss echt einfach abwarten wie sich die Karte schlägt. Falls NV die Mikroruckler tatsächlich weitestgehend in den Griff bekommen hat, dann sind das ja nur gute Nachrichten. Dann kann man in Zukunft auch mal ernsthaft über ein Mittelklasse SLI/Crossfire-Gespann nachdenken, wo die Framerate halt nicht immer am VSync Limit hängt und sich solche Ruckler noch viel stärker bemerkbar machen. Finde es eh gut, dass sich NV in dem Bereich etwas stärker zu engagieren scheint als AMD. Immerhin einer der Hersteller erkennt damit schon mal an, dass es da noch Verbesserungsbedarf gibt. Falls NV es wirklich in den Griff kriegt muss AMD zwangsläufig nachziehen, ansonsten würden sie fast alle Dual-GPU Kunden an NV verlieren.

Lustige PR-Aktion übrigens, bin auf den Testbericht gespannt!
 
Zuletzt bearbeitet:
numerus schrieb:
Die hätte ich auch gern :D aber leider zu teuer :(

naja, der preis ist auch nur so hoch, weil man das teil nicht liefern kann. selbst die 680 ist mitlerweile schlecht zu bekommen, jede 690 braucht aber gleich 2 chips von.

ich gehe nicht davon aus, dass von der karte zum verkaufsstart mehr als 4-5 einheiten in jedem zweiten shop verfügbar sein werden.

und bevor hier einer den geizhalslink mit grünen punkten postet, schaut euch die verfügbarkeit dirket an!
 
Zuletzt bearbeitet:
NuminousDestiny schrieb:
Ich finde bei solch einer Karte einen 2x HDMI oder Displayport wesentlich zeitgemäßer als 3x DVI, auch wenn man den DVI dafür nutzen kann.
Wer sich eine Karte für 1000€ kauft, der wird bestimmt auch einen oder mehrere entsprechende Monitore mit 1980x1080/2560x1440 und den neuereren Anschlüssen besitzen.

HDMI und zeitgemäß? Das ist der letzte Dreck. Kann nichtmal 120hz (und somit auch kein 3division mit 2x60hz, mit dem NVIDIA wirbt).
HDMI hat mMn bei PCs nix zu suchen und kommt ursprünglich auch garnicht aus dem PC-Segment, sondern aus dem Multimedia-Bereich (TV & Co).

Displayport wäre i.o., aber Adapter von DP auf DVI und umgekehrt sind sehr teuer, besonders aktive Adapter...

Zeitgemäßer = Fortschritt durch Rückschritt? Nene, NVIDIA wählt die Anschlüsse genau richtig imo.
 
Zuletzt bearbeitet:
Allein die Verpackung ist schon einfach genial!
Auf solche Ideen muss man überhaupt mal kommen. :D
 
erazzed schrieb:
(...)
Displayport wäre i.o., aber Adapter von DP auf DVI und umgekehrt sind sehr teuer, besonders aktive Adapter...

25 € für einen aktiven Single-Link DP-DVI Adapter ist jetzt nicht die Welt. Außerdem werden die aktiven bei AMD auch nur benötigt, weil die Karten dort nicht genug Taktgeber haben*. NV hat dieses Problem auf der 680 und 690 ja nicht mehr, da kannst selbst drei DVI Anschlüsse gleichzeitig betreiben. Hätten sie statt dessen drei DP Anschlüsse verbaut und mit genauso vielen Taktgebern ausgestattet, dann würde man nur passive Adapter brauchen, die wahrscheinlich im Lieferumfang der Karte gewesen wären.

*und selbst bei AMD brauchst du aktive Adapter nur, wenn du mehr als zwei Bildschirme gleichzeitig anschließen willst. Bei weniger Monitoren kannst auch locker passive Adapter nehmen, die Grafikkarte blickt dann schon, dass am DP Anschluss eigentlich ein DVI Monitor hängt, und leitet den Taktgeber entsprechend um.
 
hill01 schrieb:
Finde es eh gut, dass sich NV in dem Bereich etwas stärker zu engagieren scheint als AMD.

AMD ist dieses Problem scheiß egal. Man sollte das Kind schon beim Namen nennen.
 
Wenn ein Hardwarechip die Ausgabe der einzelnen Bilder steuert, würde das dann nicht zu einem kleinen input-lag kommen ? Immerhin müssen die unregelmäßig berechneten Bilder dann gleichmäßig ausgegeben werden und das würde doch nur mit einer kleinen Verzögerung möglich sein, oder liege ich da falsch ?
 
@Shurkien: Du meinst so wie ihnen auch das Eyefinity-Tearing ab der 6000er Serie egal ist? ;)

Wollte mich halt etwas neutral ausdrücken, nicht dass jemand auf die Idee kommt "fanboy" zu brüllen - zumal es in meinem Fall eh bissel merkwürdig wäre. Wie gesagt es ist nur wünschenswert, dass einer der Hersteller die Rucklerproblematik erledigt, auf lange Sicht profitieren davon auch die Kunden der anderen Firma - oder, falls die andere Firma nichts tut, dann haben sie halt ein paar Kunden weniger.
 
Zuletzt bearbeitet:
Gibt es bereits einen Wasserkühler dafür? Dann würde ich mir das Teil evtl. zulegen...

Den Holzkistenschmarn hätten sie sich sparen können. Dann lieber günstiegere Karte. Was soll man mit dieser Ressourcenverschwendung anfangen? Genau der selbe Rotz wie bei den Razerverpackungen. Nach dem Auspacken hat man einen Haufen Schrott, der alleine einen ganzen Müllsack füllt.

Ob die Karte nun die Eier legenden Wollmilchsau ist, wird hoffentlich der Test zeigen.
 
Zuletzt bearbeitet von einem Moderator:
Ohne HDMI is scheisse....
 
Zurück
Oben