News Nvidia kündigt offiziell die GeForce GTX 295 an

Öhm, ... seh ich das richtig, das die ganze heiße Luft, die die Karte erzeugt, alleine durch den schmalen Schlitz zwischen und unter den Anschlüssen geschoben werden muss?, ... Ich kann mir nicht vorstellen, dass das wirklich leise oder kühl bleiben kann.
 
@dorndi
Möglich ist das schon. Muss sich nur jemand trauen die Rückseite der beiden PCBs auch noch mit jeweils 14 Speicherchips vollzupflastern.
Dürfte nen ziemlich teurer Spass werden.

EDIT:
Wobei der Speicher ja niedrig getaktet ist, da gibts ja auch GDDR3 mit 1GBit. Dann reichen ja 14 Chips für 1,75GB
 
Zuletzt bearbeitet:
Es ist definitiv schwammig formuliert, deute das ganze aber ein bisschen anders. PCGH hat ja mit dem neuen Beta Treiber getestet und meine Vermutung ist das NV die µRuckler am Sack gepackt hat :o und kurz davor ist sie ganz abzustellen. Vielleicht schon mit dem finalen Treiber. Oder hald im nächsten oder übernächsten finalen Treiber. Wie immer heißt es abwarten...

MfG Kasmo
 
Sonarok schrieb:
wohlgemerkt mein ich hiermit nicht treiber optimierung auf bestimmte spiele die dann nur gebencht werden dürfen sondern eben schon spieleseitige optimierungen für hardware so das mitbewerber direkt nachteile erleiden
Es steht AMD frei, Spielefirmen ebenso zu sponsorn, wie Nvidia. Wenn ihnen die finanziellen Mittel dazu fehlen...tja, schade.
 
@Kasmopaya

Das wurde doch hier auch schon beobachtet (bezüglich Microruckler - 4850 X2):
http://www.hardware-infos.com/tests.php?test=49&seite=14

"Positiv hervorheben möchten wir noch, dass es bei keiner Testsequenz in unserem Parcours zu so genannten Mikrorucklern kam - bei der HD 4870 X2 traten unter Crysis welche auf."

Ob es wirklich so ist, wer weiß...
MfG
 
Zuletzt bearbeitet:
Es ist definitiv schwammig formuliert, deute das ganze aber ein bisschen anders. PCGH hat ja mit dem neuen Betra Treiber getestet und meine Vermutung ist das NV die µRuckler am Sack gepackt hat und kurz davor ist sie ganz abzustellen.

Verallgemeinere da nicht, die Enttäuschung könnte groß sein. :)

Nochmal: Mikroruckler sind extrem eng mit AFR verknüpft, aber auch Profil-abhängig. Verzichtet man auf AFR und verwendete eine ander MGPU-Technik, verzichtet man auch auf 80-90%-Skalierungen. Profile wiederum sind mehr oder weniger individuell. Was bei dem einen Spiel super läuft, funzt bei dem anderen wiederum nicht oder schlechter -> das Problem besteht grundsätzlich immer noch.
 
Dro'Doog schrieb:
Öhm, ... seh ich das richtig, das die ganze heiße Luft, die die Karte erzeugt, alleine durch den schmalen Schlitz zwischen und unter den Anschlüssen geschoben werden muss?, ... Ich kann mir nicht vorstellen, dass das wirklich leise oder kühl bleiben kann.

Nein. Schau dir die bilder genauer an (evtl. auch die von den geposteten links) da sieht man deutlich das die karte auf der einen seite zur hälfte offen ist. D.h. ein grosser teil der wärme bleibt im gehäuse und wird nicht so schön nach aussen geblasen wie bei der GTX 260/280

https://pics.computerbase.de/2/3/7/8/4/4-1080.460499470.jpg
 
domidragon schrieb:
laut den links von oben ist sie ja nur 500dollar. ob das stimmen kann, würde ja weniger sein als die einzel karte oder?

Umgerechnet wären das ja "nur" 350-375€. Ich glaube aber nicht, dass die Karte hierzulande für weniger als 400€ an den Mann geht. Selbstverständlich würde ich es aber begrüßen.

Über den Stromverbrauch lässt sich wohl streiten. Wer da ohne mit der Wimper zu zucken einfach zulangt, wird eh vom E.ON-Vorstand wöchentlich zum Essen eingeladen. :D

Mir reicht meine kleine GTX260, hab ja auch nur einen kleinen Monitor (22" -.-).
 
franzi3 schrieb:
Es steht AMD frei, Spielefirmen ebenso zu sponsorn, wie Nvidia. Wenn ihnen die finanziellen Mittel dazu fehlen...tja, schade.

was is den das für eine aussage? ich will das nicht mit der intel geschichte vergleichen vorallem weil man nicht genau weiß wie das nvidia sponsoring aussieht aber die aussage

"wer kein geld zum bestechen hat hat pech gehabt" ist wohl absoluter nonsens



btw. sind die benchmarks bei pcgh absolut unglaubwürdig... wenn man die ergebnisse aus dem

https://www.computerbase.de/2008-12/test-sapphire-radeon-hd-4870-x2-atomic/

test mit den ergebnissen dort vergleich liegen da welten zwischen ( wohlgemerkt bei den "älteren" karten... )
 
Echte Benchmarks können wir Ihnen jedoch noch nicht anbieten, weil Hersteller Nvidia nur denjenigen Testern eine Karte überlassen wollte, die strenge Bedingungen akzeptieren: fest vorgeschriebene Spiele-Benchmarks und ein Verbot aller darüberhinaus gehender Tests. Am 8. Januar 2009 fällt die Sperrfrist von Nvidia, so dass wir dann unseren unabhängigen Test online stellen können.

http://www.gamestar.de/index.cfm?pid=398&pk=1952138&sortorder=asc&fp=2#liststart

Mit dem Auslaufen der Sperrfrist dürfen nun ausgewählte Webseiten auch erste Benchmarks der GTX-295 veröffentlichen. Dafür empfiehlt Nvidia jedoch die fünf Spiele Fallout 3, Far Cry 2, Left 4 Dead, Dead Space und Call of Duty - World at War. Einen sechsten Titel dürfen sich die Preview-Tester selbst aussuchen.

http://www.golem.de/0812/64208-2.html


Hmm, sieht nach einer Marketingaktion aus, was momentan läuft.
Ich würde auf RICHTIGE Benchmarks zur Beurteilung warten, auch wenn das erst im Januar was wird...
 
Denke wenn eine GRaka eine Chance hat dann die GTX285 wenn sie wirklich spürbar mehr leistet. Aber wie soll das mit den Kosten ausschauen?? 340€ eine aktuelle GTX 280, in einem Monat 320€ von mir aus, die GTX 285 dann 400€ (grob geschätzt), dann müsste die 295 auf jedenfall minimal um die 480€ liegen.... und da 2 Grakas zusammenkleben noch nie der Renner war... naja

**
pcgh ist und war schon immer NVidia eingestellt. Dort preisen se die aktuelle GF Reihe immernoch als ungeschlagen an aber bei Hardwarezusammenstellungen von MusterPCs (P/L) sind ATIs verbaut in jeder Preisklasse.
 
µRucker werden erst Geschichte sein wenn die GPU wirklich GPU übergreifend zusammen arbeiten und nicht wie jetzt jede GPU mehr oder weniger ihr eigenes Süppchen kocht. Erste Schritt dahingehend ist die gemeinsame Speicherverwaltung. Ich denke dadurch lassen sich schon einige Probleme lösen. Für den Hersteller sicher nicht uninteressant, schließlich spart man Speicher (wobei GDDR 3 sicher recht günstig sein dürfte).
Aber so einfach scheint es wohl nicht zu sein, Multi GPU gibt es lange, aber eine Lösung für Speicher/Ruckler-Problem ist nicht wirklich da.

Edit:
Tja beim Raytracing hätte man all diese Probleme nicht, aber dazu fehlt nunmal noch die Hard und Softwarebasis.
 
Zuletzt bearbeitet:
btw. was man in der ganzen diskusion glaub ich total vergisst ist ein kompliment an cb eben nicht bei dieser marketing aktion mit zu mischen...


im endeffekt sieht das für mich sowieso einfach nach reiner kalkulation aus... es geht im endeffekt eh nur um "klicks" und somit um geld... ich würde sogar behaupten das viele der redaktionen solche diskusionen ganz sicher vorausgesehen haben aber dennoch diese "previews" releasen weil die diskusionen etc. eben geld generien...

unter anderem erkennt man solche dinge ganz gut an dem derzeitigen poll von pcgh... oder den flash diagrammen von guru3d die den user zwingen javascript/flash zu aktivieren um die daten lesen zu können womit gleichzeitig aber auch die werbe banner wieder mit durchgezogen werden und klicks generieren...


daher :daumen: an cb... ich hab hier ganz bewusst keinen werbeblocker aktiv wie auf anderen seiten...
 
rumpel01 schrieb:
Aufgrund des 448Bit-Speicherinterfaces sind runde 1GB aber nicht möglich. Deshalb ist ja auch die GTX 260 auf 896MB beschränkt. ;)

Da die GTX 295 eh schon ein Zwitter aus GTX 260 und 280 ist (240 Shader Units) hätte man auch gleich 512 Bit SI und somit 1 GB VRAM verbauen und halt weiterhin auf die GTX 260 Taktraten setzen können.

Aber dann wär die Karte sicher locker 50€ teurer geworden.


Also die Performance ist schon sehr nett und übertakten kann man die GTX 295 nach den ersten Vortests locker auf XFX GTX 260 (216) Black Edtion Niveau (auch noch höher, aber dies führte zumindest bei FC 2 zu Instabilität). Ich denke mal aufgrund der hohen Rohleistung und den damit verbundenen hohen fps sollten diesmal KAUM Mikroruckler auftreten, höchstens vll bei Crysis und 2560x1600 und hohem AA.

Wenn ich im Januar eine neue High End Karte bräuchte, würde ich hier wohl zuschlagen - wobei so eine Dual - Lösung mit dem GT216 oder 212 in 40nm noch attraktiver auf Grund der hohen möglichen Taktraten wäre.


Gruß
Edge
 
Fallen die Preise der Geforce 260 und 280 GTX erst am genauen Release oder schon Vorher weil jetzt so kurz vor Weihnachten werden schon viele Produkte günstiger
 
Diese werbeaktion ist ja wohl lächerlich.

je mehr sich das durchsetzt und leute jetzt wirklich denken die karte wäre im schnitt schneller, obwohl sie noch garnicht objektiv getestet wurde, umso mehr wird nvidia dieses mittel auch einsetzen.

Wenn dann echte tests erlaubt sind klärt sich das doch eh nicht mehr. Was sich einmal in den Köpfen festgesetzt hat bleibt idr auch dort.

Die auflagen- und klickgeilen Redaktionen lassen es sich natürlich auch nicht nehmen. Lieber berichten sie schwachsinn, als das ihnen etwas entgeht.

In gewisser Weise werden sie ja regelrecht erpresst : "macht Werbung für uns oder ihr bekommt keine Hardware mehr zum Testen"


Schade das man aufgrund von mangelhaften Produkten wohl zu solchen Methoden greifen muss.
So dreist war Intel nicht mal zu Presskopf Zeiten.

Aber ich sags ja immer wieder : die Leute WOLLEN verarscht werden.
 
Glaube nicht dass der Preis der GTX260 stark fällt. Die GTX260 wird ja auch nicht ersetzt (wie die GTX280 durch die GTX285). Bei der GTX280 könnte ich es mir gut vorstellen, die müssen ka das Lager leer kriegen :).
 
Interessant das Fudzilla auch über die Lautstärke und den Stromverbrauch schreibt. Außerdem erscheint mir der Leistungsvorsprung realistischer als auf PCGH.

MfG Pantherfibel
 
Da muss ich Edgecrusher86 recht geben man hat doch schon recht viel von der GTX280 übernomen warum dann nicht gleich eine GTX280 X2 anstatt eines zwitters. Dann hätte man ja runde 1GB nehmen können. Aber abgesehen davon könnte man doch auch einfach einen speicher von 1,792GB benutzen können denn es kann doch nicht so schwer sein einfach einen Speicher zu verdoppeln.

Das Argument mit dem höheren Stromverbrauch spielt wohl eher eine untergeordnetere Rolle. Denn jemand der 500€ (nur mal so geschätzt ) für eine Grafikkarte aus giebt hat doch auch Geld für ein 350 watt strom verbrauch (nur Grafikkarte). soviel werden wir früher oder später eh verbrauchen da nützt auch 55nm, 40nm oder gar 32nm nichts. Davon abgesehen werden wir immr höhere auflösungen haben und dann muss der Monitor auch größer werden und das kostet dann auch wieder mehr Strom.

@pantherfibel
seit wann hast du die cpu so übertaktet und läuft die mit luft kühlung?
habe nämlich die gleiche^^
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben