Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Details und Fotos zur GeForce 9800 GTX
- Ersteller Sebastian
- Erstellt am
- Zur News: Details und Fotos zur GeForce 9800 GTX
killingspree
Lieutenant
- Registriert
- Juli 2007
- Beiträge
- 565
Tja dann hat sich das warten auf die 9800GTX für mich scheinbar nicht gelohnt.
Dann kann ich mir getrost in den nächsten Wochen ne 8800GTS/OC holen lol....
oder gar ne alte GTX
Gibt scheinbar nichts als Nachfolger was für nen 22" Monitor ausreicht...
Tolle wurst....

oder??
Dann kann ich mir getrost in den nächsten Wochen ne 8800GTS/OC holen lol....
Gibt scheinbar nichts als Nachfolger was für nen 22" Monitor ausreicht...
Tolle wurst....
oder??
Zuletzt bearbeitet:
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
alter wein? dann is der 2006er jahrgang wohl n besonders guter (8800gtx)
der 2008er jahrgang dagegen is wohl eher n schlechter... nur dass grafikkarten mit zunehmendem alter nich teurer werden. schade eigentlich, was wär sonst meine gute alte gf2 wohl wert? 
A
Alpha666
Gast
Wahnsinn was für ein Rumgedoktere. Eine 9800 GTX unterhalb einer GX2 anzusiedeln ist nun wirklich traurig. Schade drum. Ich bleib bei einer 88er GTX.
Ich bin auf die ersten Benchmarks gespannt. Da sollte der 98er GTX wohl schnell die Puste ausgehen bei hohen Auflösungen. Auch die Anschlüsse sind nicht mehr zeitgemäß, aber evtl. bringen andere Hersteller hier noch etwas mehr.
Wirklich kein gutes Zeichen, wenn nVidia meint mit ollen Refreshkarten eine legendäre zwei Jahre alte HighEnd-Karte so ablösen zu wollen. Wären sie mal bei der GX2 geblieben und hätten dann später eine GTX mit anständigen Werten gebracht... naja... wir wissen was wir kaufen sollten und was nicht...
Ich bin auf die ersten Benchmarks gespannt. Da sollte der 98er GTX wohl schnell die Puste ausgehen bei hohen Auflösungen. Auch die Anschlüsse sind nicht mehr zeitgemäß, aber evtl. bringen andere Hersteller hier noch etwas mehr.
Wirklich kein gutes Zeichen, wenn nVidia meint mit ollen Refreshkarten eine legendäre zwei Jahre alte HighEnd-Karte so ablösen zu wollen. Wären sie mal bei der GX2 geblieben und hätten dann später eine GTX mit anständigen Werten gebracht... naja... wir wissen was wir kaufen sollten und was nicht...
Tinpoint
Fleet Admiral
- Registriert
- Okt. 2007
- Beiträge
- 10.045
Ich verstehe nicht warum sich einige hier über die GF9 wundern, als ob NV jemals alle 6 Monats neue GPU´s entwerfen würde !
ist nichts neues bei Nvidia , siehe TNT 2 war auch nur eine Verbesserte TNT 1, GF2 verbesserte GF 1 , Geforce 4 & GF3 , GF 6 & 7
es gab dann auch noch geringfügig Verbesserte Karte wie die Geforce 3 Ti500 , die GF 7950
als zwische Lösungen
ist nichts neues bei Nvidia , siehe TNT 2 war auch nur eine Verbesserte TNT 1, GF2 verbesserte GF 1 , Geforce 4 & GF3 , GF 6 & 7
es gab dann auch noch geringfügig Verbesserte Karte wie die Geforce 3 Ti500 , die GF 7950
als zwische Lösungen
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
@Lübke
Wobei der GF 5 Flop kein so großer Flop war...
Die GPU kann bis 140Grad normal arbeiten(läuft immer noch bei meiner Schwester passiv ohne Lüfter mit 120Grad seit Jahren), PCGH hat sie mal bis 160-170Grad getrieben und die hat das auch noch überlebt...
Da die Hardware ein bischen zu schwach war haben sie sich bei den Treibern so richtig reingehängt und "optimiert" dadurch hab die Karte "Gainward Golden Sample 5900@ 5950XT" bis Mitte 2006 bis Gothic 3 gekommen ist gut benutzen können.
Silence Modding hat sie allerdings schon bekommen.
Würde über die Specs. nicht so vorschnell auf die Leistung der Karte urteilen, die 2900XT war auch theoretisch der GF 8 GTX überlegen, tippe auf Refresh tüpische 30% mehr Leistung, aber die alte GTX bzw. Ultra wird klar geschlagen werden auch wenn der VRam viel zu klein ist...
Was mich am meisten wundert, warum beschwert sich keiner bei Intel die bringen den Refresh Penryn der nur 10% mehr Leistung hat und ATI hatte so 5% mehr Leistung mit der HD 3000er Refresh.
Immer locker bleiben neue Architekturen brauchen ca. 2 Jahre und damit den Firmen(AMD, INTEL, ATI etc) nicht das Geld ausgeht bringen sie einen Refresh der alten Architektur, war schon immer so und wird immer so sein...
Der nächste Leistungssprung wird mit DirectX 11 kommen und da dieses schon Ende 2008 kommen soll, wird warscheinlich auch die GF 10 Q4 2008 kommen
Wobei der GF 5 Flop kein so großer Flop war...
Die GPU kann bis 140Grad normal arbeiten(läuft immer noch bei meiner Schwester passiv ohne Lüfter mit 120Grad seit Jahren), PCGH hat sie mal bis 160-170Grad getrieben und die hat das auch noch überlebt...
Da die Hardware ein bischen zu schwach war haben sie sich bei den Treibern so richtig reingehängt und "optimiert" dadurch hab die Karte "Gainward Golden Sample 5900@ 5950XT" bis Mitte 2006 bis Gothic 3 gekommen ist gut benutzen können.
Silence Modding hat sie allerdings schon bekommen.
Würde über die Specs. nicht so vorschnell auf die Leistung der Karte urteilen, die 2900XT war auch theoretisch der GF 8 GTX überlegen, tippe auf Refresh tüpische 30% mehr Leistung, aber die alte GTX bzw. Ultra wird klar geschlagen werden auch wenn der VRam viel zu klein ist...
Was mich am meisten wundert, warum beschwert sich keiner bei Intel die bringen den Refresh Penryn der nur 10% mehr Leistung hat und ATI hatte so 5% mehr Leistung mit der HD 3000er Refresh.
Immer locker bleiben neue Architekturen brauchen ca. 2 Jahre und damit den Firmen(AMD, INTEL, ATI etc) nicht das Geld ausgeht bringen sie einen Refresh der alten Architektur, war schon immer so und wird immer so sein...
Der nächste Leistungssprung wird mit DirectX 11 kommen und da dieses schon Ende 2008 kommen soll, wird warscheinlich auch die GF 10 Q4 2008 kommen
Zuletzt bearbeitet:
bitte?Alpha666 schrieb:Wahnsinn was für ein Rumgedoktere. Eine 9800 GTX unterhalb einer GX2 anzusiedeln ist nun wirklich traurig.
was macht es für einen sinn eine dual-gpu karte zu bringen die nicht schneller ist als ne single-gpu karte?
richtig! gar keinen!
ja richtig, nur wurde hier gar nichts verbessert, es wurde nur der takt erhöht. das war nvidia bisher nur ein neues kürzel wertTinpoint schrieb:Ich verstehe nicht warum sich einige hier über die GF9 wundern, als ob NV jemals alle 6 Monats neue GPU´s entwerfen würde !
ist nichts neues bei Nvidia , siehe TNT 2 war auch nur eine Verbesserte TNT 1, GF2 verbesserte GF 1 , Geforce 4 & GF3 , GF 6 & 7
es gab dann auch noch geringfügig Verbesserte Karte wie die Geforce 3 Ti500 , die GF 7950
als zwische Lösungen![]()
wenn sie es wie bisher gemacht hätten, müssten alle G92 9800 heissen (eher noch 8900)
dadurch das sie die 8800gt und gts beim alten namen gelassen haben sieht es jetzt natürlich komplett nach willkür aus, da eine ganze neue generation mit lediglich nen etwas höheren getakteten chip eingeläutet wird
aber eigentlich ist es mir total egal
der name ist für mich uninteressant, man weiss ja was dahintersteckt
können den von mir aus auch franz nennen
Zuletzt bearbeitet:
Zwirbelkatz
Fleet Admiral
- Registriert
- Juni 2006
- Beiträge
- 47.685
Die Auschlachtung des G80 geht in die 2. Runde. Mal sehen wer diesmal alles drauf rein fällt. Argumentiert wird dann, dass die "richtigen" Chips erst noch kommen. Die verbrauchen dann vermutlich wieder abstrus viel Strom. Irgendwie sehe ich kaum noch Innovationen. Das ist schade.
Ich würde mich da im oberen Mainstream der Karten umsehen, die im Juni und Juli von AMD als auch Nvidia hoffentlich kommen sollten.
Gibt scheinbar nichts als Nachfolger was für nen 22" Monitor ausreicht..
Ich würde mich da im oberen Mainstream der Karten umsehen, die im Juni und Juli von AMD als auch Nvidia hoffentlich kommen sollten.
Zuletzt bearbeitet:
M
Mustis
Gast
Is doch schön das die 9800 GTX nich so der Renner ist, besonders wenn man bereits eine 8800 GTX oder Ultra besitzt. Sonst heulen doch immer alle rum, wenns im PC bereich mit der Entwicklung so schnell geht. Nun gehts mal bisschen langsamer, da regen sich alle auf. Versteh das einer. Der nächste Generationskrieg zwischen ATI und Nvidia ist doch sowieso erst im 2 bzw.3 Quartal wo mit ATIs 4er und Nvidias 10er (GT200 Chip) die wirklich neuen Generationen kommen. Bis dahin kann man nun wirklich warten. Grad als Besitzer einer 8800 GTX sollte man sich entspannt zurück lehnen und als Technikinteressierter sich freuen auf das was kommt und dann beim besseren Produkt zuschlagen. Soweit man den Gerüchten trauen darf, scheinen ja der GT200 und die 4er Reihe wieder echte Innovation zu bieten und einen deutlichen Leistungszuwachs erreichen.
Ich freu mich drauf und lass die 9er Reihe völlig unbeachtet. =) Besser als zu meckern und zu flamen.
Ich freu mich drauf und lass die 9er Reihe völlig unbeachtet. =) Besser als zu meckern und zu flamen.
AvenDexx
Admiral
- Registriert
- Juni 2005
- Beiträge
- 8.281
@bensen
Es gab also 0 Änderungen bei der GPU?
Hm, wie kommt es dann, dass der G9x z.B. PCIe 2.0 unterstützt, der G8x aber nicht?
Der Chip ist sehr ähnlich, aber nur eine Erhöhung der Taktraten ist es auch nicht. Ich stimme aber zu, dass die Namensänderung auf die 9er-Serie verwirrend ist.
Es gab also 0 Änderungen bei der GPU?
Hm, wie kommt es dann, dass der G9x z.B. PCIe 2.0 unterstützt, der G8x aber nicht?
Der Chip ist sehr ähnlich, aber nur eine Erhöhung der Taktraten ist es auch nicht. Ich stimme aber zu, dass die Namensänderung auf die 9er-Serie verwirrend ist.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Versteh gar nicht warum es einige so wundert das es nur 30% mehr Leistung werden, beim letzten Refresh von GF 6 auf GF 7 waren es auch nur 30% mehr Leistung. Der neue Hammer kommt mit der GF 10, also mit einer neuen Architektur, warscheinlich wieder weit über >100% Leistungszuwachs wie von der GF 7 auf die GF 8
Die GF 8 GTX ist ein würdiger Nachfolger der legendären Radeon 9700Pro:
Viel früher als die Konkurrenz raus gekommen,
Die Konkurrenz hat nix, um dagegen zuhalten (5900FX; 2900XT,3870,X2 zählt nicht wegen CF bzw. SLI Nachteile...)
Doppelt so schnell wie alles andere (sehr lange Zeit)
Sehr lange Zeit nicht geschlagen worden, außer vom eigenen Lager
Oh je ich schweife ab, Sorry
Bis jetzt steht es 1 zu 1 bei den legendären GPUs, wer wird wohl bei der nächsten Architektur den Hammer bringen? Es bleibt spannend wie immer
Die GF 9 unterstützt Hybrid-Power, 0 Watt im Idle und Lautlosigkeit im 2D rechfertigen einen neuen Namen, wer will da noch eine GF 8 haben?
MfG Kasmo
Die GF 8 GTX ist ein würdiger Nachfolger der legendären Radeon 9700Pro:
Viel früher als die Konkurrenz raus gekommen,
Die Konkurrenz hat nix, um dagegen zuhalten (5900FX; 2900XT,3870,X2 zählt nicht wegen CF bzw. SLI Nachteile...)
Doppelt so schnell wie alles andere (sehr lange Zeit)
Sehr lange Zeit nicht geschlagen worden, außer vom eigenen Lager
Oh je ich schweife ab, Sorry
Bis jetzt steht es 1 zu 1 bei den legendären GPUs, wer wird wohl bei der nächsten Architektur den Hammer bringen? Es bleibt spannend wie immer
Die GF 9 unterstützt Hybrid-Power, 0 Watt im Idle und Lautlosigkeit im 2D rechfertigen einen neuen Namen, wer will da noch eine GF 8 haben?
MfG Kasmo
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
die gf9 unterstützt hybrid power ?
wann denn ? zum aktuellen zeitpunkt jedenfalls nicht.
wann denn ? zum aktuellen zeitpunkt jedenfalls nicht.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
ich sehe das genau so wie bensen. die komplette g92 und g94 riege hätte man sinnvollerweise 8900 taufen sollen. das sind refresh-chips des g80 die technisch wie leistungsmäßig nur unwesentlich über diesem liegen. als name für den chip wäre wohl g81 angebracht gewesen, dann wäre alles in ordnung und keiner würde sich beschweren. ich schätze aber dass die nv-marketing-strategen dass nu so machen weil sie angst haben dass otto-mormal-konsument ne radeon 3k für neuer wie ne gf8 halten könnte. nur frag ich mich dann warum die die 8800gt(s) nich auch schon 9800gt(s) getauft haben? also im mom scheinen die da völlig planlos zu arbeiten. da is kein roter faden mehr zu erkennen....
sprech ich chinesisch?AvenDexx schrieb:@bensen
Es gab also 0 Änderungen bei der GPU?
Hm, wie kommt es dann, dass der G9x z.B. PCIe 2.0 unterstützt, der G8x aber nicht?
ich sagte doch: da die 8800gt auch ein G92 ist, gibt es keine änderung von der 8800 serie zur 9800 serie
ich hab doch selbst erwähnt das es zwischen G92 und G80 kleinere änderungen sind, die eine änderung des namens rechtfertigen würden
aber man kann wohl schlecht den G92 als 8800 und als 9800 verkaufen und dann von innovationen der 9800 serie sprechen
da stiftet man eben ein wenig unruhe
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.689
@ bensen
Texturfilterung zu Adressierung nun 1:1, Die-Shrink und PCIe 2.0 - mehr ist da nicht (außer ein paar angebliche Optimierungen).
Der G94 ist immer noch zu 99.9% der alte G80, nur eben mit 256 Bit und weniger Funktionseinheiten. G81 wäre okay, aber nicht G9x!
cYa
Texturfilterung zu Adressierung nun 1:1, Die-Shrink und PCIe 2.0 - mehr ist da nicht (außer ein paar angebliche Optimierungen).
Der G94 ist immer noch zu 99.9% der alte G80, nur eben mit 256 Bit und weniger Funktionseinheiten. G81 wäre okay, aber nicht G9x!
cYa
Z
Zak McKracken
Gast
Orbmu2k schrieb:Wie kann eigentlich eine langsamere Karte mit weniger Speicher trotz kleinerer Fertigung MEHR Strom verbraten?
Darum sollten wir die Benchmarkergebnisse abwarten.
Gruß.
alexmueller
Cadet 2nd Year
- Registriert
- Mai 2005
- Beiträge
- 21
Zeitphantom
Lt. Junior Grade
- Registriert
- Okt. 2004
- Beiträge
- 306
256Bit 675Mhz-gpu Takt und nur 512MB ist ja sehr enttäuschend ich dachte da kommt mehr die 8800 GTX und die ULTRA laufen ja schon mit 384Bit
Ähnliche Themen
- Antworten
- 64
- Aufrufe
- 9.718
- Antworten
- 60
- Aufrufe
- 10.303
- Antworten
- 16
- Aufrufe
- 1.548
- Antworten
- 16
- Aufrufe
- 1.961
- Antworten
- 47
- Aufrufe
- 8.986