News Erstes Bild zur GeForce GTX 295 aufgetaucht

Kann doch nicht war sein. Da hat man gerade 2 Flammneue GTX280 drinne und schon wieder sehe ich kurz nach dem einbau das es wieder neue Karten gibt :freak:
Das gleiche hatte ich bei meinen 2 8800 GTX auch, kurz dannach kamen die 8800 Ultren raus. Grrhh !

LG
Morani
 
Ich bin gespannt, wie die Chips auf den Shrink reagieren bzgl. Hitzeentwicklung/Stronverbrauch als auch in Punkto möglichen Taktraten. Beim G92 hat der Shrink ja kaum Stromersparnis geliefert, dafür die Möglichkeit die Taktraten nochmals ein gutes Stück zu steigern.
 
Meckert nicht immer an der Sandwichbauweise rum, der ganze Gehäuseblock ist ein zusätzlicher Wärmeleiter und kühlt die Karte daher recht effizient und ein wesentlich kürzeres PCB ist dadurch auch möglich. Trotz der wahrscheinlich geringeren Leistungsaufnahme unter Last könnte die Lautstärke(durch kleinen Lüfter) aber ein gutes Stück höher ausfallen als bei der X2.

https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
NV hat wie so oft in letzter Zeit nicht nur Gamer im Visier, sondern auch den GPGPU Markt zb. Tesla Supercomputer und hier wartet man schon darauf das die 9800X2(auch schneller als GTX 280 und 4870X2) als die mit Abstand schnellste GPGPU Karte abgelöst wird.
http://www.pcgameshardware.de/aid,6...937874&article_id=667155&page=1&show=original

Die auf 55nm geshrinkte GTX 260 wird bestimmt GTX 265 heißen, nicht wie bisher vermutet GTX 270. ;)

MfG Kasmo
 
Zuletzt bearbeitet:
Garrett66
Eine GTX 295 auszulasten ist kein Hexenwerk. Mit etwas gescheiten AA (SS-Hybride), ist man schnell in dem Bereich, wo man sich wümscht nicht noch 20% mehr FPS fahren zu müssen damits flüssig bleibt.
20% weniger Performancegewinn ist nicht ohne und muss immer wieder erwähnt werden.

DerToast

So schlecht war 55nm gar nicht für G92b: http://www.xbitlabs.com/articles/video/display/palit-gf9800gtxplus_5.html#sect0
Zur Erinnerung, was eine 8800 GT mit G92 zieht: http://www.xbitlabs.com/articles/video/display/gainward-bliss9600gt-512gs_7.html#sect0
 
Zuletzt bearbeitet:
Garrett66 schrieb:
@ Krautmaster:
Liegt es wirklich immer nur an ATI?
G.

im Treiberfall ja, beim den Gameproblemen natürlich auch am Entwickler (zB. GTA 4) und bei einer recht hohen Dunkelziffer sicher auch am Nutzer.

Wenn ich allerdings kontinuierlich grün sehe wenn ich meinen TV über HDMI ansteck und den Desktop erweitere, auf einem frischen System mit Treiber Version 8.6-8.12 beta getestet... dann liegt das sicher nicht an mir.

Erst dachte ich es liegt am Bios, also wieder mein org Graka bios aufgespielt, ging soweit gut, aber Pustekuchen, beim 2. mal wieder Bluescreen. Das läuft dann wie folgt ab: Ich schließe den 32 Zoll TV (HD ready) an, ATI meint fröhlich dass es sich um ein DVI-HDMI (auch mit Adapter und HDMI-HDMI Kabel getestet) Kabel handelt -> kein Sound, alles okay soweit, dann clont er die Screens. Geh ich in Treiber und sag aktiviere 2. Display (damit er erweitert) kommt kurz Bild und nach 2 Sek beide Bilder weg, grüne Bildschirme, kurz danach Bluescreens (Vista 64 Bit, XP genauso, Windows 7 genauso, Treiber 8.6-8.12, OC off, VMod off, org Bios, Overdrive disabled). Sag mir worans liegt... am TV? o.O - der lief mit ner 6800 Ultra 1a. Ich kann mir natürlich auch ein neuen TV kaufen =) - nur ob das hilft...
Wenn ich angesteckt lasse und reboote - Bluescreen nach Login.

=> nein hier sitzt das Problem nicht hinterm Bildschirm.

Und was die Gameprobleme angeht. Mag Problem vom Entwickler sein, aber was hab ich als Anwender davon? Mag AMD nicht Schuld dran sein, sag ich auch nicht. Aber wenn ich exorbitant schauen muss das Games laufen, ich Einstellungen optimieren und hintricksen muss, bin ich auch nicht erfreut.

Greedz
 
Zuletzt bearbeitet:
nvidia scheint etwas verzweifelt zu sein.
Diese Karte ist rein betriebswirtschaftlich betrachtet totaler Humbug. Man hat nur leider im Moment nichts besseres im Programm und versucht mit aller brachialer Rechengewalt die Performancekrone zu halten (gemessen an Chipgröße/Transistorenzahl).
Wird Zeit das nvidia in die puschen kommt und wirkliche neue Chips liefert.
 
Also das ist ja wohl wirklich lächerlich. Das müssen selbst die härtesten NV-Fans zugeben !
Einfach zwei Platinen spiegelverkehrt mittels einer wacklichen Brücke zusammenschußtern und nun als neue Innovation der Fangemeinde hinwerfen.

Sicherlich ist es günstiger als ein komplet neues Platinen-Layout zu entwickeln aber so professionel wie ATI ist das lange nicht !
Da hätte ich wirklich Angst beim Einbauen da nichts kaputt zu machen !!

Und ob wirklich 240 Shaders pro Kern zum Einsatz kommen wage ich mal zu bezweifeln bzw. die Taktrate zu erhöhen.
Einzig allein die Fertigung in 55nm ist wohl bei der Bauweise unumgänglich und wird NV sich sicherlich ne menge kosten lassen !

Der einzige Vorteil den ich sehe liegt nun in der Möglichkeit auch auf Crossfire-Boards SLI nutzen zu können.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Wolfgang schrieb:
So scheint es [...] geben zu werden.

Woah! Nennst du das Grammatik? Da rollen sich mir ja die Zehennägel auf!

Dann besser: Den bis jetzt umalufenden Gerüchten nach wird es [...] geben.
 
Schon ne nette Sache für Leute die so viel Leistung brauchen. Aber was mich an Multi-GPU stört ist immer noch der Treiber- und Spielesupport.

Man müßte ne Dual-GPU haben, die vom System aber als eine einzige GPU gesehen wird. Das würde die Probleme umschiffen. Und dann würd ich mir vielleicht auch mal sowas kaufen, wenn auch nicht in dieser Leistungsklasse. Dafür ist meine native Auflösung einfach zu klein.
 
Begehmann schrieb:
Dann besser: Den bis jetzt umalufenden Gerüchten nach wird es [...] geben.

Woha?! Was für ne Rechtschreibung!

Edit:

@ unter mir
;)
1kW Netzteil ist ja auch Quatsch, 550W reichen auch hier. Wichtiger ist, dass es die entsprechenden Anschlüsse bereitstellt.
 
Zuletzt bearbeitet:
Dr.Fisch schrieb:
Aber das Ding ist rein nur zum zocken geeignet. 1kW Netzteil minimum.....
Hallo,

Schade, bei den Leistungsdaten ging ich davon aus, dass man die Karte auch für Office und Bildbearbeitung einsetzen kann.
 
Stromaufnahme, GreenIT ... eh alles hinfällig sobald man 1-2 Std am Tag seinen LCD-Fernseher anschaltet, der bei ~150-200 Watt läuft.

Und Temperatur? Wen störts...
Soll die Temperatur im Kern doch 100°C sein, die Ingenieure werden sich bei der Kühlung schon was gedacht haben. Desweiteren sagt ja niemand die Karte MUSS übertaktet werden und wärmer wird sie dadurch SICHER nicht... denkt mal drüber anch :)
 
Krautmaster schrieb:


Hmm, mit Ferndiagnosen ist das so eine Sache. Hört sich aber stimmig an, was du da schreibst. ;)

Und wenn ich dir Recht gebe, dann dafür auf jeden Fall:

wenn ich exorbitant schauen muss das Games laufen, ich Einstellungen optimieren und hintricksen muss, bin ich auch nicht erfreut.


mfg :)
G.
 
darfst gerne vorbeikommen und dein Glück versuchen *g* - mich nervt es einfach deshalb da ich gerne HD Filme oder Filme generell (selbstverständlich aus legalen Quellen) auf dem TV wiedergebe und die dabei zu essende Pizza nicht über die Tastatur verteilen will ;)
Außerdem ist der gemeinsame Filmgenuss am TV größer. ^^
 
Zuletzt bearbeitet:
Kann doch nicht war sein. Da hat man gerade 2 Flammneue GTX280 drinne und schon wieder sehe ich kurz nach dem einbau das es wieder neue Karten gibt
Das gleiche hatte ich bei meinen 2 8800 GTX auch, kurz dannach kamen die 8800 Ultren raus. Grrhh !
Wieso beschwerst du dich? Bist doch selbst Schuld wenn du diese überteuerte Hardware kaufst.
 
Gibt es wohl ne Möglichkeit diese Sandwitchbauart mit ner Wasserkühlung zu kühlen.
Also ich möchte auf jeden Fall meine neue Graka mit Wasser kühlen und habe bei dieser Bauart so meine Bedenken.

Hat da wer Erfahrung mit ? Wirds dafür einen Wasserkühler geben ?
 
Warte doch erstmal ab bis die Karte veröffentlich wurde. Bis jetzt ist nur ein Bild aufgetaucht.

Kannst auch direkt eine Glaskugel fragen ob es eine Wasserkühlung dafür geben wird.
 
Wieso versuchen ATI / NVidia nicht mal die MR und sonstigen Dual-GPU Probleme zu beseitigen, anstatt sich nu mit reiner Rohleistung zu bekämpfen. So ist diese Karte wahrscheinlich genauso sinnlos wie die X2. Naja, wer glaubt es zu brauchen, soll sich eine besorgen...

@Krautmaster

Also ich hatte mit meiner HD4850 noch nie einen Bluescreen und nutze standardmäßig Desktoperweiterung.

Weder am Full HD Beamer noch an meinem zweiten Monitor gab's Probleme. Ich nehme eher an, dass es bei dir an spezifischen Inkombatibilitäten liegt. Ich hatte bei meiner 8800GT GS 1GB mit dem gleichen System durchgehend Probleme (TV-Karten Ausgabe am Zweitmonitor wurde schwarz bei Spielstart auf erstem etc.) die ich nun mit Ati nicht habe. Ich glaube einfach, dass es zuviele verschiedene Systemzusammenstellungen gibt um bei allen fehlerlos zu laufen, was aber ein Problem beider Hersteller ATI und NVidia ist.
 
Zurück
Oben