News GeForce GTX 295 mit einem PCB völlig entblättert

Hm dann warte ich doch noch bischen mit dem Kauf meiner neuen. Hab die Hoffnung
auf eine mit doppelten Vram noch nicht aufgegeben :smokin:

Ausserdem ist der Umbau auf Wakü nicht mehr so kompliziert :D
 
Und vor allem soll der Nachfolger G300 sich deutlich vom Vorgänger absetzen. Würden die jetzt das Machbare aus der Karte rauskitzeln könnte es sein, dass die die nächste Generation mit Startschwierigkeiten zu kämpfen hat, da der Unterschied nicht soooo riesig wäre. Schließlich wird immer gern die letzte Dualkarte mit der neuen Singlekarte verglichen (zuletzt GTX280 gegen 9800gx2). Wie immer entscheidet das Marketing und nicht die Technik...
 
bei diesem layout könnte man die single gpu platinen auch einiges kürzer machen.
 
Gabs eigentlich eine GTX295 mit einem Trislot kühler, so wie die HD4870X2???
 
Nein ist mit der Sandwichbauweise aber auch schwierig. Aber mit dem neuen Design
kommt da sicher was :)
 
DJMadMax schrieb:
...
Zumindest habe ich das schon des Öfteren hier im Forum lesen können, dass sich der Grafikspeicher bei zwei herkömmlich im SLI zusammengeschlossenen Karten nicht addiert. Dies würde ja hier ebenfalls bedeuten, dass sowieso "nur" 896, bzw. (bei einer 2x 1792er Variante) nur 1792 MB Speicher verwendet werden, nicht jedoch der gesamte, auf der Karte verbaute Speicher.
...
Das stimmt genau so, wie du es geschrieben hast. Allerdings würden selbst 1x 1792MB mehr bringen als 1x 896MB.


MfG
Daniel
 
Hm die Kühler schauen mir recht mickrig aus, die sind jeweils um einiges kleiner als auf den single-gpu karten....wodurch der lüfter ziemlich heftig aufdrehen dürfte, schön wird das nicht. da kann man nur auf eine drei-slot version warten. wobei die karte sowieso keinen wirklichen sinn mehr macht, das letzte aufbäumen vor dem generationswechsel. 2*896mb sind ausserdem nicht grad der brüller...
 
Dass das technisch mit 2 Heatpipes und bissl Alu kühl gehalten wird kann ich mir gar nicht vorstellen: Mein Boxed Phenom II 940 schhmuckelt bei 56°C, hat aber 300W weniger abwärme und nen größeren Kühler (naja beide zusammen werden wohl an den Boxed rankommen, 4 Heatpipes + Alurifle)!

Warum bastelt man sowas nicht auf WaKü um und liefert es, standardmäßig, mit nem 240er Radiator aus?


Krass :D

Ps.: Warum hat der 1 GPU 5 Kondensatoren und der 2te GPU nur 4?
 
Der Aufwand für ne Wakü sollte doch etwa in der gleichen Größenordnung wie die Luftkühlung sein, wenn ich mir die vielen verschiedenen Teile so anschaue. Aber für ne Wakü-Variante wollen die immer einen imensen Aufpreis haben.
 
DUNnet schrieb:
Ps.: Warum hat der 1 GPU 5 Kondensatoren und der 2te GPU nur 4?

Es scheint das der rechte von den oberen vier Stück zur Lüftersteuerung oder so gehört. Alle anderen sitzen in der Nähe eines Spannungswandlers.
 
Zuletzt bearbeitet:
Also ich finde dass diese kleinen weibischen Kühlkörperchen da die beiden GT200er+2x Nvio+ Nforce200 da richtig effizient kühlen können. Ich denke dass im Idle die Lautstärke im Vertretbaren bereich bleibt, aber wenn man sich den kühlkörper einer GTX 260 Anschaut, oder von mir aus von ner 9800GTX+ dann kann das nicht gut gehen. Vergleicht man einfach mal die Kühlkörper von der 4870x2, die sind ja aus Vollkupfer, und die von der neuen GTX295 dann son meines Erachtens nach zwei 6mm Heatpipes und bissl Alu nicht genug um die Karte auf humanen Temperaturen zu halten.

Das nächste was mich an dem Aufbau stört ist die Sache mit dem Lüfter der ja nicht "grade durch" pusten muss, sondern nach links und rechts. Ich versteh nicht wie man einen Axiallüfter so vebauen kann dass der rechts und links rum pustet und dabei effizient bleibt???

(verbessert mich bitte wenn ich falsch liege)

mfg [straightindeinface]
 
Zuletzt bearbeitet:
Hoffe Palit bringt da wieder ne fette 3 Slot Lösung mit 8 x 8mm Heatpipes und Vollkupfer Lösung raus :D
Dann wirds glaub ich in vertrebare Lärmpegel gehen (meine 0.6sone HD4870 Palit geht mir aber ehrlich gesagt aufen SACK!)
 
die zwei kühler errinnern mich irgendwie an den amd box lüfter
 
Ich versteh das nicht....
Wenn die GPUs den RAM sowieso teilen. Also sämtliche Daten immer gleich im RAM liegen haben. Also immer auch die Daten der anderen GPU dem RAM mitbelasten (was bei nVidia fatal ist -> Speichermanagement).
Warum kann man dann nicht wie etwa bei einer CPU eine Art shared GRAM machen? Mittlerweile teilen sich ja auch 4 CPUs den L3 (ja kann man nicht vergleichen... CPU-Architektur und RAM direkt aufm Chip)
Aber es sollte doch gehen oder? So ließen sich gewaltig Produktionskosten senken und für Lösungen im Stil von "4GB GDDR5" wären endlich möglich. Zur Zeit ist dafür einfach kein Platz da oder es wäre unbezahlbar.
Kann mir mal einer erklären warum das nicht geht? Zumal die ganzen Recheneinheiten auf den GPUs (eingeführt von 3dfx) ja eine Art Multicores sind. Bei denen geht es doch auch den Speicher zu teilen. Solange das nicht funktioniert sind X2 Karten reiste Speicher Verschwendung.

E:
Schonmal danke -Headhunter-! Kann man AFR nicht irgendwie mit ner neuen Technologie umgehen? Es wäre doch bestimmt um einiges effizienter, wenn man die GPUs als eine arbeiten lassen würde. Dann hääte man z.B. bei GTX280 SLI 480 Shader.
Das würde sich dann für Nerdsysteme echt lohnen! Mehr als SLI nutzt ja zur Zeit eh nix. Je mehr GPUs man dann verbaut, desto schneller wird das System am ende wirklich. Und Mikroruckler wäre wirklich Vergangenheit.
Jetzt arbeiten die 240 Sahder ja auch als eine Einheit. Wäre es so unendlich kompliziert das mit kompletten GPUs zu machen?

PS: Unyu du bist auch der absolute nVidia Fanboy oder? Die Firma macht in deiner kleinen Welt echt immer alles richtig. Ich hab auch ein Blaugrünes Gespann, weil ich genug Geld übrig hatte und das mehr Leistung bietet. Aber du führst dich immer auf als wäre Rot/Rot Elektroschrott. Wie kann man nur eine Firma dermaßen anbeten?!
 
Zuletzt bearbeitet:
Naja mir scheinen die beiden Kühlkörper doch ziehmlich klein wenn ich die mal so mit dem meiner 8800gtx (G80) vergleiche. Auch wenn man natürlich auf so einer Dual Karte nicht so viel Platz hat.
 
Der einzigste Vorteil ist das Nvidia daran spart. Einen anderen Vorteil gibt es nicht, besonders nicht für die Kunden.

Der Kunde hat aus meiner Sicht höchstens einen Nachteil, die Hälfte der warmen Luft wird jetzt ins Gehäuse geblasen.

Und wenn ich da meine 9800 GX2 mir ansehe, die fast konstant auf 75 Grad ist und bei Games um die 5 bis 10 Grad noch steigt, bin ich sehr froh, dass diese Luft direkt raus kommt. ^^

Ich dachte, die bringen mal was gutes raus, wo sich die 2 GPUs z. B. den VRAM teilen, dann könnten die mal mir Recht mit den 1,7GB angeben, aber so kann man sich auf 2 275er holen und hat man mehr von.

Leider kann ich es nicht, da kein SLI, deswegen wäre ich auf die angewiesen.

Ich warte mal die G300 Generation ab, vielleicht wird dann die 295er sehr sehr günstig oder ich hol mir die neuste mit 2GB VRAM.... ^^ obwohl dann müssten auch paar mehr Games soviel VRAM von nutzten sein, kauf mir bestimmt nicht extra ne teuere Karte für GTA4 mit den genialen Zukunft-Einstellungen.
 
Den Freunden der rausgeblasenden Luft kann man Bild 1 und 2 empfehlen.
 
Moin

@ [F]L4SH

Kann dir zwar keine wirklich fachlich fundierten Ausführungen zu dem Thema machen, aber meines Wissens nach ist des doch so, dass jede GPU diskret an einem ihr zugewiesenen Teil eines Bildes arbeitet (Split Frame Rendering), oder aber jede GPU abwechselnd ein Bild darstellt (Alternate Frame Rendering). Somit muss jede GPU in ihrem eigenen Speicher auch das volle Texturenset zur Verfügung haben. Beim SFR müssen sogar beide GPU's auf die selben Informationen gleichzeitig zugreifen, da ja beide an einem Teil eines Frames arbeiten.

Zwischenfrage an alle: Kann ein und die selbe Speicherzelle von 2 GPU's/CPU's gleichzeitig abgefragt werden?

Da es sich aber auch beim SLI eigentlich nur um zwei einzelne Karten handelt, verwaltet jede GPU ihren Speicher selbst.

Sicher wird es möglich sein, auch eine Dual GPU zu basteln, die dann evtl. zusammen einen Hauptspeicher nutzt, so wie wir es von CPU's her kennen. Aber ob sich ein so großer Chip realisieren lässt, oder ob er wirtschaftlich ist???

Aber wie du siehst, bin ich in dem Thema auch kein Experte und würde mich auch über fundierte Beiträge zu dem Thema freuen.

-Headhunter-
 
Zurück
Oben