News Erste, eigene Bilder der Nvidia GeForce GTX 690

ronrebell schrieb:
...Die Geforce GTX 690 kontrolliert die Bildausgabe und gibt die Frames in regelmäßige(ren) Abständen aus, unabhängig davon, wann diese fertig gerendert sind; sprich diese Technik sorgt für verminderte Mikroruckler.[/I].

Klingt nach delay/lag :-/

Schade, dass AMD nicht so viel Hirn in die Kühlung steckt wie nV. Bin sicher diese Lösung wird im Verhältnis zur Leistungsaufnahme schon richtig gut sein.
 
passt die karte in mein case? hab nur 28,6cm platz ^^
 
Mir gefällt die Kiste. Finde es auch schade, dass der Endkunde immer einen Wegwerfpappkarton bekommt.
Klar, der eine wird die Holzbox genauso wegwerfen, aber hin und wieder eine Sammlerverpackung ist doch nett
 
noay11 schrieb:
eine 0815 holzkiste aus billigem holz, schlecht zusammengebaut und dazu dieses lumpige !brecheisen! - DU BIST DEUTSCHLAND :D

edit: ein paar leute hier sollten mal ernsthaft arbeiten gehen

jo, das stimmt, z.B. du ;)
 
Nachdem ich zwei AMD 5870 im Crossfiremodus betrieben hatte, bin ich von 2 GPUs nicht mehr begeistert. Viele Spiele laufen überhaupt nicht mit 2 GPUs oder laufen sogar deutlich langsamer wie F1 2011. Ich kaufe mir also lieber eine schnelle Single-CPU-Karte und dann läuft alles schneller.
 
dominiczeth schrieb:
@Zealord: Weil nVidia weit mehr Chips auf Lager fertigen hat lassen (richtig geschrieben?) ;)

wer so nett fragt, krieg ne antwort xD

korrekt wäre:
"Weil nVidia weit mehr Chips auf Lager hat fertigen lassen."
oder
"Weil nVidia weit mehr Chips auf Lager fertigen lassen hat."

(zumindest soweit ich weiß ;))
 
genau, bin genau deiner Meinung. GTX 680 alleine ist echt sehr schnell. Mit GTX 690 hat man nur noch Microrukler im Gepäck ;)
 
NuminousDestiny schrieb:
Ich finde bei solch einer Karte einen 2x HDMI oder Displayport wesentlich zeitgemäßer als 3x DVI, auch wenn man den DVI dafür nutzen kann.
Wer sich eine Karte für 1000€ kauft, der wird bestimmt auch einen oder mehrere entsprechende Monitore mit 1980x1080/2560x1440 und den neuereren Anschlüssen besitzen.

äh hallo?


Punkto 1: Displayport zu HDMI ist überhaupt kein Problem

Punkto 2: DVI zu HDMI ist auch kein Problem

Punkto 3: DVI ist DER Monitor Standard und liefert auch eine höhere Bandbreite-> für 120hz bei mehr als 1080p, das schafft HDMI nicht


wie definierst du denn "neuere Anschlüsse"??
 
ronrebell schrieb:
Nein, kein lol sondern ernst ... soll ein eigener Chip auf der Platine sein:

Zitat pcgh

Interessant ist hierbei, dass Nvidia eine verbesserte Messung der Fps implementiert hat - bisher lief diese per Software und etwas Hardware, nun durchweg in Hardware. Die Geforce GTX 690 kontrolliert die Bildausgabe und gibt die Frames in regelmäßige(ren) Abständen aus, unabhängig davon, wann diese fertig gerendert sind; sprich diese Technik sorgt für verminderte Mikroruckler.

http://www.pcgameshardware.de/aid,8...-Mikrorucklern-fuer-999-USD/Grafikkarte/News/

Naja, klingt in der Theorie ja nett, aber praktisch kann ich mir da einzig bei Vollauslastung der CPU eine Verbesserung vorstellen (kein "Software-Lag"). Beim laden der 3d Engine entscheidet der (Nvidia) Treiber ja wie das Bild auf die GPU's aufgeteilt wird. Der Chip wird bestimmt nicht mitten im Geschehen (Spiel) solche Einstellungen ändern! (Was bestimmt spannende Bildstörungen verursachen würde). Alles andere bringt nix, wenn das Bild nicht fertig gerendert ist wenn es "gebraucht" wird, ist es nicht fertig...

Warten wir den Test ab und sehen wir dann was dieser "Wunder Chip" so alles kann:rolleyes:
 
die aktion mit der holzkiste is einfach nur top, aber kaufen würd ich ne GTX690 trotzdem nicht.
 
mariobrand0 schrieb:
Nur stellt ich mir die Frage, warum 3 DVI Anschlüsse aber keinen einzigen HDMI Anschluss?

Weil man den einfach über nen Adapter realisieren kann.

tropenshorty schrieb:
DVI überträgt aber im Gegensatz zu HDMI kein Ton oder?

In der Ursprungsdefintiion nicht, seit ein paar Jahren können das aber trotzdem alle Grafikkarten. BRauchst nur einen entsprechnd voll beschalteten DVI->HDMI Adapter.
 
also 2001/2002 hatte ich ne 9700pro von ATI .... verpackt in ner Holzkiste und die Karte hatte vergoldete Anschlüsse. Ist also nix Neues
 
Eyefinity schrieb:
Naja, klingt in der Theorie ja nett, aber praktisch kann ich mir da einzig bei Vollauslastung der CPU eine Verbesserung vorstellen (kein "Software-Lag"). Beim laden der 3d Engine entscheidet der (Nvidia) Treiber ja wie das Bild auf die GPU's aufgeteilt wird. Der Chip wird bestimmt nicht mitten im Geschehen (Spiel) solche Einstellungen ändern! (Was bestimmt spannende Bildstörungen verursachen würde). Alles andere bringt nix, wenn das Bild nicht fertig gerendert ist wenn es "gebraucht" wird, ist es nicht fertig...

Warten wir den Test ab und sehen wir dann was dieser "Wunder Chip" so alles kann:rolleyes:

Ich bin mir sicher selbst wenn der Test feststellen würde die Karte kackt goldene Eier würdest du noch was finden was dir nicht gefällt. :freak:

@Topic:
Geiles Teil aber viel viel zu teuer für den performance chip das ist der Fluch der ersten Kepler gen wie es scheint.
 
Cool ich finde diese Inbusschrauben Optik ziemlich Geil, auch die Farbgebung usw. Ok wird zwar alles nur Plastik sein reicht ja auch aus aber ich finde die 690 in diesem Style einfach gut ist zwar alles nur Optik und endscheident ist eigentlich was drinn steckt aber ich find es Cool.
 
haha, die PRs von Nvidia haben sich was tolles einfallen lassen. Find ich irgendwie gelungen, die Aktion. Schon einmalig :)
 
Eyefinity schrieb:
Naja, klingt in der Theorie ja nett, aber praktisch kann ich mir da einzig bei Vollauslastung der CPU eine Verbesserung vorstellen (kein "Software-Lag"). Beim laden der 3d Engine entscheidet der (Nvidia) Treiber ja wie das Bild auf die GPU's aufgeteilt wird. Der Chip wird bestimmt nicht mitten im Geschehen (Spiel) solche Einstellungen ändern! (Was bestimmt spannende Bildstörungen verursachen würde). Alles andere bringt nix, wenn das Bild nicht fertig gerendert ist wenn es "gebraucht" wird, ist es nicht fertig...

Warten wir den Test ab und sehen wir dann was dieser "Wunder Chip" so alles kann:rolleyes:

Man merkt das du sehr AMD verblendet bist

Btw, rechtschreibfehler im letzten Bild
Dort steht "GeForce GTX 690 SLI-Anschlüss"
 
Zurück
Oben