News Dual-„GeForce GTX 460“ von Zotac aufgetaucht

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Die Gerüchte über eine kommende Nvidia-Grafikkarte, die ins High-End-Segment entlassen werden soll, ebben im Schatten der neuen AMD-Modelle nicht ab. Passend dazu gibt es erste Bilder einer Platine von Zotac, die ein großes PCB mit zwei Herzen auf Basis der GeForce GTX 460 zeigt.

Zur News: Dual-„GeForce GTX 460“ von Zotac aufgetaucht
 
Wahnsinn, dass es sich finanziell lohnt so ein Teil zu kreieren!
Ich kann mir nicht vorstellen, dass so ein Ding viel Absatz finden kann. Und wie viele Ingenieure haben daran wie lange gearbeitet?
 
Wieso hat die Karte 4 DVI-Ausgänge?

Ansonsten will ich gar nicht wissen, wie laut das Teil wird...
 
Naja wer es braucht.

Auch diese Grafikkarte mit Mittelklasse GPUs wird wohl völlig überteuert für die gebotene Leistung angeboten.
SLI/CF ist nun mal was für High End Systeme, wer sich so etwas kauft, dem sollten die Treiberprobleme schon dazu geschenkt werden.

Wieso hat die Karte 4 DVI-Ausgänge?

Weil Nvidia noch nicht so etwas wie Eyefinity hat und für Leute, die gerne mehr als 2 Monitore anschließen wollen, die brauchen 2 GPUs.

Aber ich würde mal gerne eine Grafikkarte mit 2x GF100 sehen. Da würde man nämlich eine Turbine inklusive bekommen, vorrausgesetzt man hat ein Kernkraftwerk im Garten stehen:D
 
Zuletzt bearbeitet:
Wieso hat die Karte 4 DVI-Ausgänge?


Genau das selbe habe ich mich auch eben gefragt. Wenn damit eh nur Folding@Home durchgeführt wird, kommt es doch nur auf die Rechenleistung an :).
 
Wie oben schon von Rufus gesagt, damit nVidia ebenfalls im Portfolio "aktuelle" Lösungen für mehr als 2 Monitore pro PCIe-Slot haben. Sprich mit der Karte dürften ohne SLI max. 4 Displays unterstützt werden, bei SLI bis 8 bzw. 12 Displays.
 
Theoretisch gesehen ist das die 495 GTX, denn die 295 GTX bestand auch aus 2 260 GTX Chips
 
The_Gentleman schrieb:
Wie oben schon von Rufus gesagt, damit nVidia ebenfalls im Portfolio "aktuelle" Lösungen für mehr als 2 Monitore pro PCIe-Slot haben. Sprich mit der Karte dürften ohne SLI max. 4 Displays unterstützt werden, bei SLI bis 8 bzw. 12 Displays.

Wär doch auch sicher mit DP oder HDMI realisierbar.
 
Warum nicht? Die GTX460 ist doch bekannt für ihre ausgesprochene Eignung für den Sli Betrieb. Da bietet sich sowas doch förmlich an. Es dürfte momentan auch keine andere Möglichkeit geben, mehr Shader in einem einzigem PC unterzubringen. Darüber hinaus habe ich noch kaum ein ästhetischeres Graphikboardlayout gesehen, das Ding ist sau schön. Ich bin auf den Preis gespannt!
 
PaLLeR schrieb:
Theoretisch gesehen ist das die 495 GTX, denn die 295 GTX bestand auch aus 2 260 GTX Chips

Jaein, denn es müssten 2x 470 sein damits genau das selbe wie die 295 ist
 
Auf Preisniveau der 6870 - der Burner!
 
375 Watt. .. mein Reisefön hat "nur" 500 Watt. ..


Zu viel für ne Grafikkarte.
 
ich könnte mir vorstellen, dass sie so eine auf den Markt bringen. wie eben bei der Dual GTS 250.

Ich finde die Single GTX 460 mit 2GB sehr interessant. aber mal abwarten was sonst noch so kommt in den nächsten 3 Monaten. Bin momentan noch mit meiner GTX 260 unterwegs.

@Mortiss: 375W Maximal! Heißt ja nicht, dass sie diese auch ausreißt
 
Muss das nicht 275 Watt heißen?
Ein 6 Pin schafft doch 75 Watt. Und ein 8 Pin schafft gleich 150?
75 Watt kommen ja über den PCI Express.

Dachte 8 Pin schafft 100 Watt?
 
The_Gentleman schrieb:
Wie oben schon von Rufus gesagt, damit nVidia ebenfalls im Portfolio "aktuelle" Lösungen für mehr als 2 Monitore pro PCIe-Slot haben. Sprich mit der Karte dürften ohne SLI max. 4 Displays unterstützt werden, bei SLI bis 8 bzw. 12 Displays.

Um mehrere Karten in einem Pc zu betreiben bedarf es weder SLI noch Crossfire. Nur wenn die Karten im Verbund rechnen sollen, dann müssen sie auf eine der beiden Arten verschaltet sein. X Displays an Y Grafikkarten in einem PC ging schon immer - und zumindest bei Crossfire muss man dann alle Bildschirme an die primäre Karte anschließen.


Mortiss schrieb:
375 Watt. .. mein Reisefön hat "nur" 500 Watt. ..


Zu viel für ne Grafikkarte.

Dein Reisefön macht auch nichts anderes als Elektrizität zu Wärme zu verbraten. Die Grafikkarte rechnet dabei wenigstens noch was. Sollte dies für wissenschaftliche Zwecke eingesetzt werden, dann ist die Karte streng genommen sogar sinnvoller als der Fön (unterm Strich - der Vergleich hinkt).
Ich bin kein Freund energiehungriger Pc-Komponenten, aber wenn wir immer nur Dinge tun würden, die nicht unter Energieverschwendung fallen, dann sähe es ganz anders aus auf der Welt. Mal angefangen damit, dass wir alle unsere Privat-Pcs einmotten können weil wir sie nicht wirklich zum überleben brauchen. Oder unsere Fernseher... und z.B. Flugreisen nur auf das absolut notwendigste (Geschäftsreisen) begrenzen, d.h. niemand fliegt mehr in den Urlaub. Zudem kann ich mir nicht vorstellen, dass diese Grafikkarten in annähernd ausreichenden Stückzahlen verkauft werden wird, um irgendwelche Auswirkungen auf den Energiebedarf der Menschheit zu haben.
 
Auch diese Grafikkarte mit Mittelklasse GPUs wird wohl völlig überteuert für die gebotene Leistung angeboten.
SLI/CF ist nun mal was für High End Systeme, wer sich so etwas kauft, dem sollten die Treiberprobleme schon dazu geschenkt werden.

Welche Treiberprobleme? Ich hab seit 3 Jahren ein SLI System und nie Probleme mit den Treibern gehabt, zumindest nicht SLI betreffend...

Dachte 8 Pin schafft 100 Watt?

Nein 150watt...

Die Karte hat sich auch im "einzel" SLI gut bewiesen, einiges mehr an Leistung als die 480er... Also ich sehe da schon käufer. kommt nur noch drauf an, wie viel speicher sie hat. 1gb wäre definitiv zu wenig...

greez
 
Dieses Design wurde wohl kurz vor dem Produktions Start von NV gestoppt.
Diese Karte soll es so nicht mehr geben.
Da gab es auf anderen Seiten mal eine Meldung zu.

Mann kann sich aber wohl darauf einstellen das es ein neuer mächtiger Single Chip erscheint.
1.
GF110 mit 512SE neuer Chip mit 512 Shader-Einheiten und 128 TMUs an einem 512 Bit DDR Speicherinterface, ohne den GF100-Ballast mit weiterer Neugestaltung der Shader-Cluster, Die-Fläche mit 430-480mm² etwas kleiner als GF100, wahrscheinlich sogar höher taktbar als dieser mit gleicher oder kleinerer Verlustleistung
Potential gegenüber GeForce GTX 480: +20% bis +30%
2.
GF110 mit 576SE neuer Chip mit 576 Shader-Einheiten und 96 TMUs an einem 384 Bit DDR Speicherinterface, ohne den GF100-Ballast nach GF104-Vorbild, Die-Fläche mit 430-480mm² etwas kleiner als GF100, wahrscheinlich sogar höher taktbar als dieser mit gleicher oder kleinerer Verlustleistung
Potential gegenüber GeForce GTX 480: +20% bis +30%
3.
GF110 mit 768SE neuer Chip mit 768 Shader-Einheiten und 128 TMUs an einem 512 Bit DDR Speicherinterface, ohne den GF100-Ballast nach GF104-Vorbild, Die-Fläche mit 550-650mm² größer als GF100 und damit auch höhere Verlustleistung, Zielmarkt dieses Grafikchips wären dann eher die DualChip-Lösungen von AMD
Potential gegenüber GeForce GTX 480: ca. +50%
Das sind 3 theorien .
Quelle:
http://www.3dcenter.org/news/nvidia-fermi#2010-09-16a
 
Zuletzt bearbeitet:
Eine frage an alle die sich mit Nvidia Dual GPU Karten auskennen.

Ich suche eine Nvidia Karte(muss NV sein wegen kompatibilität) die maximal 2 Slots belegt und 3 Monitore ansteuern kann.

Würde die in der news beschriebene Karte das können bzw konnte eine GTX295 das auch schon?
 
Mortiss schrieb:
375 Watt. .. mein Reisefön hat "nur" 500 Watt. ..

... unsinniger Kommentar ist unsinnig. Wieviel Watt zu viel sind entscheiden andere.
 
Ich würd's begrüßen wenn es mehr solcher "kleineren" Dual-GPU Karten geben würde, gerne auch von AMD auf Basis zweier 6850 oder so. Wem sie nicht gefällt oder der Stromverbrauch zu hoch ist, der muss sie auch nicht kaufen. ;)

@Genoo
Ich glaube auf einer GTX295 waren 2 GTX 275 verbaut. ;)
 
Zurück
Oben