Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsVermeintliche Benchmarkresultate der GTX 560 (Ti)
Gemäß den Angaben eines Online-Shops gilt der 21.01.2011 (Liefertermin lt. Hersteller) für den Launch der GeForce GTX 560 Ti (Hyperlink nur noch über Google-Cache):
Die GTX 560 im neuen 3DMark 11 macht (jeweils im Performance-Setting) 4.118 Punkte.
Meine Gigabyte 470 SOC macht 5.105 Punkte.
Trotz geringerem Takt hat meine Gigabyte 470 SOC sicher nicht das Nachsehen wie im Artikel behauptet wird.
Jo, GF104 zu GF114. passt doch! Aber es stimmt halt nicht was du sagst.
Die Gforce2MX wurde 2000 eingeführt, basiert auf dem GF 11 Chip, im Gegensatz zu ihrer Vorgängerin der Gforce, die noch auf dem GF 10 basiert. Die Füllrate ist bei diesem Schritt immerhin um 50% gewachsen. Die Ti haut dann nochmal richtig rein, mehr als verdoppelt die Shaderleistung und basiert auf dem GF15. Die MX war nicht die Schnellste, aber auch nicht wirklich lahm, dafür war sie billig. Und mal ganz von den uralten Schemen abgesehen, klingt 560 MX doch nicht schlecht, hört sich jedenfalls nach mehr an als 550 GT oder Ähnliches. Da denke ich nähmlich sofort an OEM.
Das hört sich ganz und gar nicht gut an. Andererseits wundert es mich schon etwas, dass der vergrößerte Ram für einen Performancesprung in typischen Benchmarks sorgen soll. Das war bis zur 560 aber anders. Falls dem so ist, hoffen ich einfach, dass der ein oder andere Boardpartner den Rebellen raushängen lässt, indem er irgendwann halt doch mehr Ram drauf packt.
sind jetzt eigentlich alle dem "2GB-VRAM-Wahn" verfallen!? ...wenn man ne Karte mit >1GB VRAM hat, und man auch mal mehr auslastung hat, dann heißt das nicht gleichzeitig, dass 1GB nicht genauso schnell wären!
wenn mehr da ist, wird mehr genutzt (siehe Windows 7, RAM-Verbrauch: Netbook (1GB RAM) 7 Starter oder HP: 0,6GB -> Desktop (4GB) 7 Pro: 1,35GB)
zumeist ist doch dann eh die karte für derartige (Auflösung, Details, AA+AF) settings zu langsam, bevor man einem der VRAM ausgehen würde
ich verstehe es auch nicht warum nicht gleich 2gb verbaut werden...das genau so ein unsinn wie die 460 mit 768ram...würde ich mir nie kaufen......alles geldmacherrei
Genau so ist es, damit sie die GTX 580 weiter verkaufen könne. Die wird wahrscheinlich obsolet mit der GTX 560 2GB OC. Das weis NV und verbietet vorerst 2GB Versionen, den alten Trick kennen wir schon von 8800GTS 320, GF9, HD 4770 512MB, HD 4870 512 etc. Natürlich gehts ums Geld...
Durch die direkte Verbindung zur GTX 400 Serie scheint mir die GTX 500 Serie bezüglich des VRAM nicht mehr zeitgemäß zu sein.
Der eigentliche Fehler liegt hier doch an der GTX 580 und GTX 570, da hier der VRAM nur bis 1,5 GB geht. Argumente, dass über 1GB bzw. 1,5GB VRAM derzeit nicht gebraucht werden finde ich vorallem bei der GTX 580 nicht angebracht. Wenn man es so will braucht es derzeit gar keine GTX580. Wer hier zugreift will eventuell z.b. auch Downsampling betreiben, was bei zukünftigen Konsolen-PC-Portierungen noch an Bedeutung gewinnen könnte. Auch will man sicherlich sehr lange Spass an einer Karte wie der GTX 580 haben bzw. einen guten Wiederverkaufspreis beim Aufrüsten erzielen.
In der Preisklasse sollte vorsorglich VRAM Engpässe in den nächsten zwei Jahre entgegengewirkt werden.
Mal ganz davon abgesehen, ob mehr als 1GB VRAM sinvoll sind oder nicht. Wie es scheint beeinflusst es doch einige potenzielle Kunden bezüglich ihrer Nachfrage. Also egal ob es jetzt oder in der Zukunft etwas bringt viele sehen in 2GB VRAM eben einen Mehrwert und das ist nunmal kaufentscheidend. Wenn Menschen rational handeln würden, dann wär so manches Produkt auf dem Markt ein Flop anstatt Top-Seller!
Das Nvidia eine GTX 560 die mehr VRAM als das hauseigene Flaggschiff hat derzeit nicht im Portfolio haben will ist da doch verständlich.
Als die News kam, dass die HD6970 und HD6950 beide 2GB bekommen, da hab ich eigentlich erwartet das die GTX580 3GB spendiert bekommt.
Und dann hätte man auch den kleineren Modellen Problemlos noch ein bischen was dazupacken können.
Egal. Nvidia wird schon schon was gedacht haben dabei. Auch wenn sich mir der Sinn davon nicht ganz erschließt.