News Erste GeForce GTX 780 mit 6 GB für 500 Euro verfügbar

marcus_T schrieb:
nV mit ihren herstellern verstehen es recht gut ihren fast aussterbenden chip bis zum ende zu verwursten, was solls.
Aussterbend? So so. Wann kommt denn der Nachfolger?
Solange TSMC nicht aus dem Quark kommt wird der GK110 keinen Nachfolger bekommen.
 
wird wirklich zeit für fie 800er Serie... von der 700er gibts ja schon gefühlte 1000 Varianten...
 
Frage, wie lange hast du darauf gewartet?
Nicht lange, nur ein paar Wochen, das ging recht fix. Auch die Preise waren damals für den Vollausbau + verdoppelten Vram nicht 1000€, sondern nur 500€.


Die 6GiB dieser GTX 780 sind daher imho kein Grund zu jubeln, eher zum weinen.
Sehe ich auch so, viel zu spät, nur die Titan hat es zeitig geschafft. So kurz vor einer 20nm Generation würde ich mir keine neue Grafikkarte kaufen.
natürlich fressen HD Texturen enorm Leistung.
Bei deinem Vram Krüppel auf jeden Fall. Muss ja alles in den RAM. Bei mir nicht. :D
 
Tobi4s schrieb:
Spiele mit einer HD7870 durchgängig mindestens auf High, eher Ultra (TR zum Beispiel nur ohne Tressfx) und zwar in 1440p. Für normal reicht bereits eine 7770 und die gibt's schon für deutlich weniger. Ein 780 SLI wird höchstens bei Supersampling/4K interessant

Ich habe ne 7790 1gb bischen oc auf 1,2ghz und die packt alles auf 1080p ^^
 
Na dann würde ich doch gerne mal wieder ein Screen vom Rome2-Bench sehen, wenn die Legion marschiert. Möglichst hohe Settings.
COH2 wäre auch interessant. Worst-Case aus dem Benchmark bitte.


Rome2 auf einer Titan


COH2 auf einer Titan


Ich kann gerade nicht mit 1080p dienen. Aber es interessiert mich dann doch wie die älteren Karten dort abschneiden.
 
Ich sehe es so, dass Spiele, die bei einigermaßen normalen Auflösungen und Qualitätseinstellungen (z.B. bis ca. WQHD) mit 2 oder gar 3GB nicht zurecht kommen und nicht mal eine Option bieten, die den VRAM-Bedarf ohne allzu starken Qualitätsverlust auf ein vernünftiges Maß reduzieren (andere Spiele schaffen es ja auch), einfach nur schlampig programmiert, portiert oder grundsätzlich verbugt sind.

Kein Spielentwickler mit etwas Menschenverstand wird absichtlich ein Spiel programmieren, das auf über 99% aller aktuell bei den potentiellen Kunden vorhandenen Grafikkarten nicht vernünftig lauffähig ist. Ausgenommen vielleicht einige nicht kommerzielle Fan-Projekte und inoffizielle HD-Mods usw.

Wenn es so ist, dass man durch den Einsatz von mehr VRAM einen entsprechenden grafischen Mehrwert bekommt, dann begrüße ich als Enthusiast natürlich die Option(!), z.B. extrem hochauflösende Texturen oder gesteigerte Sichtweiten usw. zu nutzen. Ich bin der letzte, der sich beschwert, wenn die Grenzen weiter geschoben werden.
Wobei auch da irgendein halbwegs vernünftiges Verhältnis zwischen dazugewonnener Bildqualität und dem Aufpreis für eine Karte mit extra viel VRAM eingehalten werden muss. (Und da habe ich dann doch oft meine Zweifel, ob ein Spiel wirklich stark davon profitiert, wenn ein 2 Kilometer entfernter Spucknapf mit einer 4K-Textur veredelt wird.)

Aber nur um durch Programmierfehler oder lieblose Protierungen verursachete Laderuckler auszubügel... Irgendwie finde ich nicht, dass das der richtige Ansatz ist, so ein Problem zu "lösen", indem man mehr Geld drauf schmeißt. So ein schlampig programmiertes Spiel müsste man eigentlich konsequent links liegen lassen, bis das mit Patches in den Griff bekommen wurde.
Zumal es in der Natur solcher Schlampereien liegt, dass je nach Art des Fehlers auch beliebig viel VRAM sinnlos verbraten werden kann. Wenn 3GB nicht reichen, müssen auch 4 oder 6 oder 12 GB nicht zwangsläufig genug sein. Wo will man die Grenze ziehen, ab der man es dann doch wieder als Aufgabe der Entwickler ansieht, einer sinnlosen VRAM-Verschwendung Grenzen zu setzen?
 
Zuletzt bearbeitet:
Das ändert aber nix an der Tatsache, dass auch so ein Spiel zu Deinem Lieblingsspiel werden kann, auch wenn es schlampig programmiert ist. Und dann bleibt Dir ja nicht viel anderes übrig, als es entweder zu ignorieren oder dafür zu sorgen dass Deine Hardware das Schlampige ausgleicht.
 
Wenn 3GB nicht reichen, müssen auch 4 oder 6 oder 12 GB nicht zwangsläufig genug sein. Wo will man die Grenze ziehen, ab der man es dann doch wieder als Aufgabe der Entwickler ansieht, einer sinnlosen VRAM-Verschwendung Grenzen zu setzen?

Ich würde so eine Karte mit so viel Vram nur schon für das Editing und in den 3d Tools kaufen. Da ist Vram sehr wichtig. meine 4gb laufen voll wenn ich Resolve oder dergleichen offen habe...

Je mehr, desto besser. Und 80euro finde ich jetzt ein fairer aufpreis. Wenn man sieht, dass man teilweise für 10% mehr Leistung 200 euro mehr zahlt...
 
HisN schrieb:
Na dann würde ich doch gerne mal wieder ein Screen vom Rome2-Bench sehen, wenn die Legion marschiert. Möglichst hohe Settings.
COH2 wäre auch interessant. Worst-Case aus dem Benchmark bitte.
Mal ganz ehrlich. Im Endeffekt interessiert es doch 0 ob deine Grafikkarte mehr als 2 oder 3 GB da reinschaufelt. Was interessiert ist, ob es zu Nachladeruckler kommt oder nicht.

Du hast bei 16 FPS eh andere Probleme.:D


HisN schrieb:
Das ändert aber nix an der Tatsache, dass auch so ein Spiel zu Deinem Lieblingsspiel werden kann, auch wenn es schlampig programmiert ist.
Das triffts auf den Kopf. Es gibt vereinzelt Spiele die will man einfach spielen.

Aber nichts desto trotz gehört in nem Spiel ein vernünftiger Regler rein der weitestgehendst nur die Texturauflösung beeinflusst und nicht gleichzeitig noch AF oder gar Umgebungsdetails beeinflusst.
Einige Spiele stoßen da doch schon übel auf.
Serious Sam ist ZB dagegen optimal. Da kann man alles einzeln einstellen.
Verstehe auch nicht warum man das nicht anbieten sollte. Solange vernünftige Presets vorhanden sind, kommt ja auch der Laie gut klar.
 
HisN schrieb:
Na dann würde ich doch gerne mal wieder ein Screen vom Rome2-Bench sehen, wenn die Legion marschiert. Möglichst hohe Settings...


Rome2 auf einer Titan

Interessant sind da u.a. Textur-/Grafik-Mods:
- Better siege weapons, equipments and fort walls HQ textures + Better Water III HD
oder zu den Einheiten (Texturen) selber
+ Mods zur Einheitenstärke auf 480 Mann je Einheit, das bei 20 Einheiten je Armee und bis zu 4 Armeen je Schlacht :D (z.Bsp. Cat Master's Roman Cohort MOD oder Cat-Master's 480 Men Units and Much More).
 
Zuletzt bearbeitet:
@bensen bei meinen Screens gings mir auch nur um die Rohleistung, denn der Mensch auf den ich mein Posting bezogen habe (eine Beitrag höher als meiner), hat ja erwähnt das bei seiner etwas älteren AMD alles wundervoll läuft.
Bitte nicht aus dem Zusammenhang reißen, nur weil Du von mir die VRAM-Diskussion gewöhnt bist.
 
Tatsache, das habe ich mit der Diskussion um VRAM Größe drumherum vermischt.

"Die packt alles" sollte wahrscheinlich eh heißen alles was er spielt. ;)
Sonst lassen sich massig Gegenbeispiele finden. Und da braucht man dann auch nicht auf Ultra stellen und AA hochknallen.
 
Falbor schrieb:
immer noch billiger als die titan z oder ein titan black sli
sobald die karten eher verfügbar sind, wird der preis noch etwas nachgeben. mMn sind die eher für "preiswerte" 1440p SLI-gespanne gedacht.

Wer benötigt für 1440P SLI?
Aktuell geht SLI mit so Karten schon eher in Richtung Ultra HD

Im Kopf ausgerechnet sind 1080P im Vergleich zu 4k mal eben der vierfache Bildinhalt.
Also 2 Megapixel versus 8 Megapixel.
Für 1080P reicht eine 150-200€ GPU.

https://www.youtube.com/watch?v=bgpxrG3Hm68
 
Zuletzt bearbeitet:
ohne FPS counter ist das video imho sinnlos
 
Ohne Settings auch ;)
 
Für 1080P reicht eine 150-200€ GPU.
Je nach Empfinden & Genügsamkeit sicherlich. "Ultra-Bitches" entlockt solch eine Aussage nur ein müdes Lächeln.^^


@Topic
Preislich geht das ja noch & eine 780er mit gutem OC als auch 6GB?
Da könnte man schon schwach werden ...:)
 
Zuletzt bearbeitet:
@Tobi4s: Vielleicht weil ich Battlefield 4 selbst nicht spiele?
 
Zurück
Oben