News Angebliche Taktraten der GeForce GTX 285

Die GTX 285 wird das gleiche Problem haben wie die GTX 280. Sie haben beide keine Ultra Bezeichnung und man mein somit automatisch das die Karte irgendwelche Preis/Leistung beinhalten muss. Das ist die schnellste single GPU auf dem Markt, hier zahlt man wie immer für 10% mehr Leistung 100% mehr Geld. Wirklich schade das die Bezeichnung wieder so nach hinten los geht...

MfG Kasmo
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Die GTX 285 wird das gleiche Problem haben wie die GTX 280. Sie haben beide keine Ultra Bezeichnung und man mein somit automatisch das die Karte irgendwelche Preis/Leistung beinhalten muss. Das ist die schnellste single GPU auf dem Markt, hier zahlt man wie immer für 10% mehr Leistung 100% mehr Geld. Wirklich schade das die Bezeichnung wieder so nach hinten los geht...

MfG Kasmo

Die GTX280 is ja auch ne Rakete. ;)
Ich hab die ja auch. Hat einfach nur zu wenig vRAM, das is alles.
 
Ich möchte anmerken, dass sich der Shadertakt (1476 MHz) nicht durch 54 dividieren lässt. Seit dem G80 konnte dieser nur in 54-MHz-Schritten angesteuert werden und ob des variablen Chiptakt-Shadertakt-Verhältnis sehe ich aus Nvidia-Sicht auch keinen Nutzen, diesen auszuhebeln.
Ferner könnte es sich bei den 1242 MHz Speichertakt auch um einen Tipp- oder Lesefehler handeln, denn es wäre schon ein großer Zufall, dass dieser Takt aufs Megahertz-genau dem Shadertakt der GTX-260-Karten entspricht.

Alles nur Randnotizen, die auch nicht zwangsläufig beweisen, dass die Informationen falsch sind - sie können durchaus stimmen -, dennoch aus meiner Sicht erwähnenswert.

Näheres hierzu:
http://www.hardware-infos.com/news.php?news=2588
 
Ich glaube das leute die sich so ne teure karte kaufen nicht nur auf den namen achten sondern sich auch mal benchmarkts ansehen
@cryptic bin auch auf der arbeit^^
 
Na denn melde ich mich heute Abend nochmal wenn ich daheim bin (kann spät werden).
Dann lad ich mal nen GTA 4-Screenshot hoch.
Bis denn!

:evillol:


Btw @ KonKorT:

Gut beobachtet, danke.

.
.
.
 
Jimmy_1991 schrieb:
Aber warum nur 30% so viele stream prozessoren (doppelt soviele wie bei der GTX280) un doppelt so viel VRAM und GDDR5 dann noch die höhere taktrate der gpu (immer hin ein 30% höher) das müssten mindestens 50% mehr Leistung sein.

Was erwartest du vom G80 der 4.Generation ?
NVidia erfindet schließlich das Rad nicht neu !

Wenn NVidia einen neuen GPU entwickeln würde hätten sie außerdem ein großes Problem.
Die ganzen NVidia-optimierten Games würden nichtmehr laufen und müßten mittels Treiber-Simulation emuliert werden.
Das kostet eine menge Performenz und würden die Spiele sogar langsamer machen als mit einem älteren GPU !

Genau das Problem hat ja auch ATI da sie die Spiele nur über Treiber-Anpassung auf ihren Karten laufen lassen können.
 
Zuletzt bearbeitet:
Edgecrusher86 schrieb:
gtx350ob7.jpg

Vorweg gleich ein "Sorry" dafür, dass ich einen "etwas älteren" Beitrag zitiere, aber ist euch an dem Screenshot nichts aufgefallen? Mir stechen da gleich mehrere Unstimmigkeiten ins Auge:

  • Die verwendete GPU-Z Version liest eine inkorrekte DeviceID aus, erkennt den GT300 aber dennoch als solchen? (10DE-06E2 = nVidia GeForce 8400; http://developer.nvidia.com/attach/10054)
  • ein älterer WHQL Treiber unterstützt den GT300?
  • Die errechnete Speicherbandbreite ist nicht korrekt - (2075MHz * 2 * 512 Bit) / 8 / 1024 = 259,3 GiB/s
  • Ein ROP-Takt von 830 MHz ist sowas von nVidia untypisch ^^

Ein ganz schlechter Fake meiner Meinung nach :)
 
Zuletzt bearbeitet:
Hm stimmt - ok, FAKE Pic ! :D

@ -Cryptic- : Imho haben GTX 280 und GTX 260 nicht zu wenig VRAM - R* hat einfach eine sch*** Konvertierung abgeliefert -> zwar etwas bessere Grafik, dafür aber eine grottige Performance, VRAM Speichermanagement und Instabilität.

Meine Meinung


Selbst Crysis kann man in höheren Auflösungen (gut, OHNE AA) mit ner 8800 GTS 512 recht gut zocken - also kann man imho nicht davon reden, dass die GT200er allgemein zu wenig VRAM haben.
 
also kann man imho nicht davon reden, dass die GT200er allgemein zu wenig VRAM haben.
GTX 260 und 280 haben als single GPU genug VRam im Verhältnis zur Rohleistung, bei SLI oder Tri-SLI ist es aber sehr schnell zu wenig...

Wenn NVidia einen neuen GPU entwickeln würde hätten sie außerdem ein großes Problem.
Die ganzen NVidia-optimierten Games würden nichtmehr laufen und müßten mittels Treiber-Simulation emuliert werden.
Das kostet eine menge Performenz und würden die Spiele sogar langsamer machen als mit einem älteren GPU !

Meinst du den GT300? Langsamer?!?
Es wird sich so verhalten wie bei dem G80. höchstwahrscheinlich Leistungsverdopplung bzw. Verdreifachung. Die Treiber sind am Anfang noch nicht optimiert aber es bleibt immer noch genügend Leistung übrig um alles was vorher war in den Schatten zu stellen. Stell dir vor die Spiele sind sogar gestartet mit einer 8800GTX genau so wie mit einer komplett anderen Architektur ala GF7. Wie kommst du auf die Idee das NV Probleme bekommt wenn sie eine neue Architektur raus bringen? ATI hat in der Beziehung auch nicht mehr Probleme als mit jeder anderen GPU die sie jemals hatten, nur machen die Optimierungen diesmal einen größeren % Unterschied als zb. bei der HD 3000.

MfG Kasmo
 
Zuletzt bearbeitet:
-Cryptic- schrieb:
@ Jay-Star: Reich bin ich nicht, aber ich kann mich momentan nicht beschweren. Arbeit mit Stress verbunden wird halt meistens auch gut bezahlt. Zumindest gut genug um sich jedes Jahr mal neue GraKas kaufen zu können....

Du hast noch nie im Einzelhandel gearbeitet, stimmts ;)

Zum Topic: Mich würde mal interessieren ob das Mikrorucklerproblem so langsam mal angepackt wird. Ich habs selber noch nie ausprobiert, aber ich schrecke immer wieder vor Multi-GPU Lösungen ab, wenn ich was über Mikroruckler lese.
 
2GB fände ich auch nicht verkehrt und nicht nur wegen GTA4, obwohl es dort erst recht nicht daneben wäre.....allerding bräuchte man für alles auf max dann noch Intels CPU von 2014 gleich dazu.. ;)
Auch Far Cry 2 kam in 1920 mit AA nach etwas länger spielen schon auf 700MB, nächstes Jahr könnte 1GB in 1920 durchaus schon eng werden und für 1440x900 kauft schliesslich niemand so ne Highendkarte.


Nail schrieb:
Zum Topic: Mich würde mal interessieren ob das Mikrorucklerproblem so langsam mal angepackt wird. Ich habs selber noch nie ausprobiert, aber ich schrecke immer wieder vor Multi-GPU Lösungen ab, wenn ich was über Mikroruckler lese.

Dann bist du hier ja richtig, denn hier geht es nicht um die 295 sonder 285 mit einer GPU. ;)
 
Zuletzt bearbeitet:
Das frag ich mich auch. Ich habe diese Mikroruckler noch nie gesehen nur von ihnen gehört. Ich kenne leider niemanden der eine Multi-GPU hat bei dem ich mir das mal ansehen könnte aber laut "computerbase" wird das ja langsam bessser. ich frage mich allerdings is das im SLI oder 3-Way-SLI auch. hat da jemand schon Erfahungen? Würde mich mal interesieren.

@holdrio ist aber das gleiche Preis sekment

MFG Jimmy
 
Zuletzt bearbeitet von einem Moderator:
Wenn man guru3D glaubt (oder richtig interpretiert) dürfte morgen Klarheit herrschen.. :D

PS:.--och ne, es ist "nur" die 295...
 
Zuletzt bearbeitet: (Nachtrag)
Nail schrieb:
Du hast noch nie im Einzelhandel gearbeitet, stimmts ;)

Zum Topic: Mich würde mal interessieren ob das Mikrorucklerproblem so langsam mal angepackt wird. Ich habs selber noch nie ausprobiert, aber ich schrecke immer wieder vor Multi-GPU Lösungen ab, wenn ich was über Mikroruckler lese.

Punkt 1: Doch, hab sogar im EH gelernt und auch als Abteilungsleiter in nem großem Technik-Markt gearbeitet. Daher ja meine Aussage "meistens". Aber man hat seinen beruflichen Werdegang ja immer selbst in der Hand. ;)

Punkt 2: So schlimm is das gar net mit den Mikrorucklern. Das einzige Game in dem mir ab und zu mal welche aufgefallen sind war Far Cry 2 und Crysis - aber auch da nur ganz selten. (mit voll aktiviertem AA + Filter versteht sich = beides 16x)
Wenn du 3-Way-SLI oder SLI mit 2 starken Karten hast kommst du im Normalfall eh immer über die 30fps-Grenze - und ab dann merkst du die eh net mehr.

.
 
Wenn ich bedenke wie hoch meine GTX280 schon mit 1,06V läuft anstatt mit 1,18, sind die neuen Taktraten echt sehr gering. Das Hitzeproblem sollte bei dem 55nm Prozess ja gelöst sein.
 
@-Cryptic-: Wenn du den VRAM einer GTX 285 zu klein findest, dann hol dir doch einfach eine oder mehrere Quadro FX 5800 bzw. einen Tesla S1070.

Ansonsten begnüge dich einfach damit, dass Rockstar Games noch Spielraum für zukünftige Grafikkarten und CPUs lässt. Wenn du die Grafikkarten auf Konsolenniveau runterschraubst (anscheinend medium-details + ~10% Sichtweite) und die Auflösung auf 640p (Playstation 3) oder 720p (Xbox 360) reduziert, sollte es sogar auf 256-MiB-Grafikkarten einwandfrei laufen.
 
Zuletzt bearbeitet:
-Cryptic- schrieb:
Ich zock GTA 4 auf 1920x1200 mit allem auf max. BIS AUF Sichtweite, die is nur auf 27.
Wenn ich die Sichtweite höher stelle fängts langsam an zu ruckeln.

Bullshit, nichts für ungut.
Meine CPU is grad mal bei 40% ausgelastet bei GTA 4, ich hab ne G15 daheim auf der man das alles wunderbar während des zockens ablesen kann. ;)

Der vRAM reicht aber nicht aus, der is bei höheren Einstellungen als denen von mir zu stark ausgereizt.

Nö gar nix Bullshit, den verzapft eigentlich nur ein anderer hier ständig.:evillol:
Spiele GTA4 ja auch in 1920,alles max und Sicht 40 = 740MB VRAM laut Everest, da reichen sogar die 896MB meiner GTX260 locker.
Mit Sicht 100 auch noch "könnte" vielleicht sogar 1GB knapp werden ja, aber auch mit GTX 285 2GB würdest du das schnell wieder zurück drehen, weils dafür vor allem andere CPUs bräuchte!
Genau darum hab ich doch auch nicht mehr als 40, mit höher drehen schnell mal dauernd nur noch unter 30FPS, auch bei mittleren Texturen wo der VRAM erst recht kein Problem mehr ist.
Du bist im falschen Thread also, der "Wo gibts die CPU von 2015 für GTA4 schon heute??" wäre passender. :D

CPU Auslastung sagt doch gar nichts, steht alles schon im PCGH CPU Benchmark, mehr als 3GHZ bringt bei Quads keine Verbesserung bei GTA4 mehr und die Auslastung sinkt, da limitiert Murksprogrammierung oder sonst was dann.


Jimmy_1991 schrieb:
@holdrio ist aber das gleiche Preis sekment

Öh was hat der Preis mit Mikrorucklern zu tun?
Egal was die 285 kostet, DIE wird sie bestimmt nicht haben und umgekehrt stimmts auch für die 295 ;)
 
Zuletzt bearbeitet:
theorist schrieb:
@-Cryptic-: Wenn du den VRAM einer GTX 285 zu klein findest, dann hol dir doch einfach eine oder mehrere Quadro FX 5800 bzw. einen Tesla S1070.

Ansonsten begnüge dich einfach damit, dass Rockstar Games noch Spielraum für zukünftige Grafikkarten und CPUs lässt. Wenn du die Grafikkarten auf Konsolenniveau runterschraubst (anscheinend medium-details + ~10% Sichtweite) und die Auflösung auf 640p (Playstation 3) oder 720p (Xbox 360) reduziert, sollte es sogar auf 256-MiB-Grafikkarten einwandfrei laufen.

Kanns sein dass du net wirklich begreifst worum es hier geht? :D
Die GTX295 ist nichts anderes als zwei zusammengefasste GTX260 - also hat man mit der in GTA 4 effektiv nur 892MB vRAM!
Also weniger als meine GTx280.

Jetzt verstanden wo es hängt? ;)


holdrio schrieb:
Nö gar nix Bullshit, den verzapft eigentlich nur ein anderer hier ständig.:evillol:
Spiele GTA4 ja auch in 1920,alles max und Sicht 40 = 740MB VRAM laut Everest, da reichen sogar die 896MB meiner GTX260 locker.
Mit Sicht 100 auch noch "könnte" vielleicht sogar 1GB knapp werden ja, aber auch mit GTX 285 2GB würdest du das schnell wieder zurück drehen, weils dafür vor allem andere CPUs bräuchte!
Genau darum hab ich doch auch nicht mehr als 40, mit höher drehen schnell mal dauernd nur noch unter 30FPS, auch bei mittleren Texturen wo der VRAM erst recht kein Problem mehr ist.
Du bist im falschen Thread also, der "Wo gibts die CPU von 2015 für GTA4 schon heute??" wäre passender. :D

CPU Auslastung sagt doch gar nichts, steht alles schon im PCGH CPU Benchmark, mehr als 3GHZ bringt bei Quads keine Verbesserung bei GTA4 mehr und die Auslastung sinkt, da limitiert Murksprogrammierung oder sonst was dann.

Laber doch net rum. Ob ich in GTA 4 nun nen Quadcore mit 4x 3,5Ghz hab oder einen mit 3Ghz oder 4Ghz is schei**egal. Macht nur minimale Unterschiede aus.
Und bevor du wieder damit anfängst: Ich hab GTA 4 auch schon bei nem Freund gezockt der "nur" nen 3Ghz-Quad hat - und es lief genauso gut wie bei mir.
Hat also nichts mitm Prozessor zu tun.

Mit meinem Prozessor könnte ich locker die 100er Sichtweite noch zusätzlich fahren - es hängt einzig und allein am verdammten vRAM. Hab ja auch schon (kannst du übrigens teilweise sogar in einigen anderen GTA 4-Threads hier nachlesen) mit Rockstar Games direkt geschrieben. Die haben meinen anfänglichen Verdacht bestätigt - es liegt definitiv am fehlenden vRAM.
Er hat auch eingeräumt dass die Portierung nicht ganz 100%ig gelungen sei.

Ich bin selbst PC GAMES-Abonnent, habe die Tests also schon vor den meisten anderen zum lesen daheim. Das nur nebenbei.
Aber da steht nichts von "CPU-Problemen", sorry.

Aber lassen wir das lieber, ehe das hier noch zu nem Streit wird. ;)
 
Zurück
Oben