Test GeForce GTX 780 Ti von Gigabyte & Inno3D im Test

@D3Spieler
Erst einmal Glückwunsch zu der gelungenen Schadensfreude.
Bei welcher Auflösung fordert BF4 mehr als 2GB VRAM? Bei 1920 und kannst Du das irgendwo belegen?
 
Absolut jedes Spiel läuft mit einer GTX 770 in FullHD + 2GB VRAM mit maximalen Einstellungen (bei an nicht mal einer Hand abzählbaren Spielen muss man evtl. etwas an AA/AF runtergehen, das aber keineswegs ganz oder überhaupt stark merckbar!) problemlos flüssig......auch BF4 ist kein Problem! Alles andere ist lauwarmes Geblubber!

Die Custom GTX 780 Ti Modelle scheinen sehr gut zu werden......und die 3GB VRAM sind in der Leistungsklasse (keine Dual-GPUs mit einbezogen) locker ausreischend, solange man keine Auflösungen über 2560x1600 anstrebt.
Nur die immer noch schlechtere R9 290X hat 4GB VRAM und da reißt der 1GB mehr grade mal 0 raus, nicht weil die VRAM Verwaltung bei Nvidia auch noch etwas besser läuft oder die Speicherbandbreite bei Nvidia höher ist was ebenfalls Einfluss darauf hat, sondern weil sich Games an der Rohleistung eher verabschieden wie an 3GB VRAM zu scheitern.

"Unrealistische" Scenarios gibt es immer.....und vor allem nur weil Spiele mehr VRAM nutzen wenn er vorhanden ist (ähnlich dem normalen RAM) sagt das genauso 0 aus, daß nicht weniger VRAM genau die gleichen Ergebnisse liefern würde! Das ist ganz einfach Fakt, PCs sind mittlerweile soweit daß sie das nutzen was sie können/vorhanden ist, auch wenn es nicht unbedingt nötig ist.

Jetzt und in Zukunft wird es, solange eine GTX 780(Ti) oder R9 290(X) von der Rohleistung ausreischt, keinen Unterschied machen ob man 3GB VRAM hat oder 4GB (auch wie gesagt da Nvidia eben den VRAM etwas effektiver nutzt)......mit sowas meinen schon seit Jahren AMD Freaks sich profilieren zu müssen, und genauso weiß AMD daß sie damit auf Beutefang gehen!


Bei einer Custom GTX 780 Ti (die gegen meiner Erwartungen noch mal deutlich besser abschneidet) könnte ich doch schwach werden........und das hat wie immer nichts damit zu tun das ich von irgendwas Fan wäre oder was bevorzuge, sondern nur mit den gebenen Tatsachen!



PS: Hätte ich natürlich vorher drauf kommen/anmercken müssen, aber bezüglich VRAM-Verwaltung/Speicherbandbreite, dies kann sich jeder selbst "belegen". Die Suche nach Antworten danach ist je nachdem wie tief man da einsteigen will bei weitem nicht mit einem Link getan.....fündig sollten aber Interessierte dennoch werden (kein riesen Problem und ein völlig anderes Thema).

.....das "vor allem" war allerdings leicht unglücklich gewählt und wurde ausgetauscht.
 
Zuletzt bearbeitet:
Ich habe auch schon einige AMD/Nvidia GPUs durch (teilweise auch Multi GPU) und meine, dass derzeit 2 GB Vram oftmals (aber nicht immer) ausreichen (casual gamer) und 3GB Vram ein sinnvolles Mittelmaß darstellen.

Trotzdem finde ich AMDs Strategie ordentlich Vram draufzupacken lobenswert, da ich selbst 3D Vision bedingt immer auch in Richtung Multi GPU gucke.

Geringer ist der Vram Bedarf über die Jahre noch nie geworden, mal sehn was die Next Gen Spiele denn so bringen.

btt @CB:

Super, dass ihr Custommuster erhalten habt und danke für den Test.
Mich würde auch interssieren wann denn eine GTX 790 zum Testen eintrudelt?... Gerüchte sprechen ja bereits von Anfang Dezember.
Da gibts dann wieder die nächste Vram Diskussion, wenn das Ding mit 3 GB Vram an den Start geht ;-(
 
Kasmopaya schrieb:
Tja, Herdware, hast wohl schon so viel Werbung gemacht für Vram Krüppel das andere darunter leiden müssen, ;) im Nachbarthread stirbt eine 2GB Kepler den Vram tot, nach ein paar Monaten! (in einem 0815 Mainstream Spiel) Meine GPUs laufen nach 4 Jahren nicht mal über. (8800 GTX; 580 3GB)

Ich habe es schon mehrfach erwähnt:
Ich habe ebenfalls eine GTX580 mit 3GB und ich habe damit in den letzten Jahren komplett andere Erfahrungen gemacht als du.
Der VRAM ist die allermeiste Zeit nicht mal zur Hälfte ausgelastet (genau gesagt sind es meist um die 1GB), aber die GPU-Leistung reicht (trotz Übertaktung) inzwischen hinten und vorne nicht mehr aus.

Vielleicht solltest du das einfach auch akzeptieren und nicht so tun, als würde ich reinen Blödsinn behaupten. :p

Es mag ja Leute geben, die knallen sich gleich als Erstes für alle Spiele, die die Möglichkeit bieten, die dicksten HighRes-Texture-Mods drauf, die es gibt. (Und schrauben dabei notfalls die Auflösung/Qualität so weit runter, dass die GPU nicht schlapp macht.) Ich hoffe mal, dass jemand, der das tut, auch genug Ahnung hat, um den dadurch entstehenden VRAM-Bedarf richtig einzuschätzen und das beim Kauf seiner Karte(n) zu berücksichtigen.

Ich rede hingegen von normalen Spielen mit normalen Qualitätseinstellungen, die man standardmäßig zur Verfügung hat.
Was z.B. die offiziellen HD-Texturen von Skyrim mit einschließt, das bei mir mit maximalen Qualitätseinstellungen (abgesehen von "nur" 4xMSAA) auf 2560x1440 üblicherweise ca. 1,1GB VRAM belegt. (Und das, während die GF110-GPU am Limit ackert bzw. überfordert ist.)

Ich will trotzdem niemandem mehr VRAM ausreden. Schaden tut es auf jeden Fall nicht.

Aber ich halte es eben auch für falsch, das als absolutes KO-Kriterium hinzustellen und sich eine ansonsten schlechtere oder teurere Karte anzuschaffen, nur weil die mehr VRAM hat. Das kann man nämlich mindestens genauso schwer bereuen.
(Was nicht heißen soll, dass ich z.B. eine GTX770 einer HD7970/280X und eine 780(Ti) einer 290(X) grundsätzlich vorziehen würde. Die jeweiligen NV- und AMD-Karten sind, gute Kühler vorausgesetzt, in jeder Hinsicht eng genug beieinander, dass ich da keinem zu irgendetwas raten würde. Ich bin selbst noch unentschieden, ob meine neue Karte eine 780Ti oder 290X wird. Nur macht es 1GB mehr oder weniger VRAM eben auch nicht aus.)
 
Zuletzt bearbeitet:
Sinthuria schrieb:
Naja um mal bei der 290 zu bleiben. In einem offenem Testaufbau, würden wahrscheinlich die enormen Taktschwankungen gar nicht in dem Maß auftreten. So etwas bekommt man eben eher mit einem geschlossenem Aufbau hin. Und aufgrund der Towerwahl und der Anzahl der Lüfter kann man die Testumgebung sicher auch in etwa mit einem einigermaßen gut belüftetem Miditower vergleichen. Daher ist der Aufbau auch nicht so speziell.

Das ist ja gerade der Punkt. Wenn du jetzt 2 Lüfter nimmst die nur 300rpm machen, weil das subjektiv einem bestimmten, erstrebsamen Ideal derer entspricht die den Aufbau geplant haben, dann hast du auch noch bei ganz anderen Karten Temp/Performance Probleme. Und nein, ein 800D mit 2 derart langsamen Lüftern kann man nicht mit einem gut belüfteten Midi Tower vergleichen.
Und wie ich nun schon häufiger schrieb ist der Test so wie er ist für mich dadurch keineswegs wertlos, es fehlt mir halt die zusätzliche Information, wie es bei besserer Belüftung ausschaut. (Genauer gesagt nicht für mich sondern für die Leser die den Aufbau und die Implikationen dessen gar nicht auf dem Schirm haben und die vermutlich durchaus mit besser belüfteten Systemen zocken).
 
Zuletzt bearbeitet:
MikelMolto schrieb:
@D3Spieler
Erst einmal Glückwunsch zu der gelungenen Schadensfreude.
Bei welcher Auflösung fordert BF4 mehr als 2GB VRAM? Bei 1920 und kannst Du das irgendwo belegen?
Nicht umsonst wird vom Hersteller schon eine Karte mit 3GB empfohlen.
 
@3DSpieler:
Lesen will gelernt sein: ich habe keine 770 - die spielt für meine Bedürfnisse und meinen aktuellen PC nicht hoch genug ;)
Wie man Schadenfreude anhand einer Spiele-Hülle und "empfohlenen, aber nicht benötigten" 3GB VRAM entwickeln kann, ist mir schleierhaft.

Nochmal auch für dich: belegter VRAM =! Benötiget RAM.

Dass die meisten RAM-Belegungsdiagramme mit mehr als 2GB durch GraKas zustande kommt, die eben mehr als 2GB haben, scheint dir nicht bewusst zu sein - anders wäre es eben auch nicht möglich. Würde der VRAM in BF4 bei einer 770 nicht ausreichen, würde es ruckeln und das tut es eben nicht. Davon hätte man häufiger gelesen und keiner der Tests zeigt das...

2GB VRAM reichen bei FullHD derzeit in den allermeisten locker aus - sollten mal mehr als 2GB wirklich benötigt werden, braucht man ohnehin Karten mit mehr Leistung - da reicht dann auch die 280X nicht mehr aus.

Ich kann hier Herdware und Chiller24 voll und ganz zustimmen.

Die 280X hat 3GB, weil es das Speicherinterface mit 384bit vorgibt und nicht, weil AMD so spendabel und gütig ist - 1,5GB wären zu klein und 3GB sind eigentlich zu "viel".
 
Zuletzt bearbeitet:
Zumal sich ein überlaufender Grafikkartenspeicher auch in den Minimum FPS der Benchmarks widerspiegeln müsste. Denn daraus würden ja in der Regel auch heftige Framedrops resultieren. In den Benchmarks zeigt sich dies aber überhaupt nicht. Dort liegen die GTX 770 und die 7970 Ghz Edition doch in allen Auflösungen sehr dicht zusammen.
 
ronrebell schrieb:
Super, dass ihr Custommuster erhalten habt und danke für den Test.
Mich würde auch interssieren wann denn eine GTX 790 zum Testen eintrudelt?... Gerüchte sprechen ja bereits von Anfang Dezember.
Da gibts dann wieder die nächste Vram Diskussion, wenn das Ding mit 3 GB Vram an den Start geht ;-(

790? Nie gehört. Nicht alles glauben was sich Leute ausdenken. Denn warum soll Nvidia jetzt sowas rausbringen?
 
Zuletzt bearbeitet:
Perfektes Pokerface Volker @-) ... und wehe da kommt dann ein Test im Dezember (2013 ;-)
 
Für ganz so unwahrscheinlich halte ich eine 790 an sich gar nicht. So könnte NV zum Jahresende noch einmal einen richtigen Kracher raushauen der die anderen Karten mehr oder weniger pulverisiert.
Man stelle sich mal 2 Teildeaktivierte GK110er vor (2496 Shader?), die vl mit 836Mhz im Boost und knapp unter 800 in der Basis agieren - das würde bei den fast 5000 Shadern immer noch reichen um sich um über 30% von der 690 abzusetzen. Und in diesem Taktbereich ist der GK110 ja ziemlich genügsam so dass selbst der Verbrauch nicht unbedingt höher wäre.
So eine Karte ist in der aktuellen Marktsituation weder unmöglich noch undenkbar. Allerdings: Der Preis für so ein Monster würde wohl wieder bei 1000€ liegen.
 
Technisch sollte es sogar einfacher sein, eine Dual-GPU-Karte mit zwei GK110 zu machen, als seinerzeit mit zwei GF110.

Die GTX690 ist spätestens durch die leistungsmäßig sehr nah heran kommende 780Ti ziemlich uninteressant geworden. Oder auch durch zwei normale GTX780 in SLI, die man inzwischen für das gleiche Geld bekommen kann und deutlich mehr Leistung bieten.

Von da her würde eine GTX790 schon Sinn ergeben.

Aber Nvidia wird jetzt sicher erstmal die 780Ti "wirken lassen". Erst wenn sich alle zahlungskräftigen Enthusiasten damit eingedeckt haben und das Interesse an absoluten High-End-Karten wieder nachlässt, könnte eine GTX790 kommen, um die Zeit bis Maxwell zu überbrücken. (Bzw. bis zur GM100, die wahrscheinlich wieder sehr viel später als die kleineren GPUs kommen wird.)
 
Ich Muss leider mal off topic gehen!

Kann mir einer verraten welchen HDMI Ausgang diese ganzen Neuen Grafikkarten haben? Ich konnte noch in keinem Test oder sonstwo etwas von HDMI 2.0 lesen! Wie werden denn hier die 4K tests gemacht? Mit DisplayPort?
 
Laut den technischen Daten haben die GTX780Ti HDMI 1.4a.

Ist auch eigentlich zu erwarten, bei den GK110-Karten. Auch die 780Ti sind ja im Prinzip doch schon fast ein Jahr alt. (Bzw. älter, wenn man die Teslas mitzählt.)

Aber auch die 290X haben nur HDMI 1.4a. HDMI 2.0 scheint bei Grafikkarten keine besonders hohe Priorität zu haben. Da setzt man für 4K wohl eher auf Displayport.
 
Zwischenfrage an die Besitzer der getesteten Gigabyte 780ti. Ist die Karte leise wie die db Zahlen hier vorgeben?
Tritt pfeifen oder surren auf?
Bin die DC2 Karten von Asus gewöhnt,die sehr leise sind.
 
Ich habe keine der beiden getesteten Karten, sondern eine Gainward Phantom GTX 780 Ti.

Spulenfiepen habe ich nur in einer einzigen Situation bemerkt. Beim Ice Storm-Benchmark von 3DMark. Das waren aber auch Frameraten von 1600 bis 1800. ;) Bei "normalen", dreistelligen Frameraten ist nichts davon zu bemerken.
Allerdings hat die Phantom ein eigenes Custom-PCB. Das muss also für andere, z.B. auf dem Referenz-PCB basierenden 780Ti nicht zutreffen.

Die Lüfter der Phantom sind laut diverser Tests nicht ganz so leise wie die der besten/größten Custom-780Ti (z.B. die Inno3D). Sie ist im subjektiven Vergleich aber leiser als die GTX580 Phantom, die ich vorher hatte. Auf jeden Fall nicht störend laut heraus zu hören. Mein PC ist mit 4 Gehäuselüftern und einer H100 allerdings auch insgesamt nicht gerade lautlos. Dafür wird die GPU in Spielen nicht über 60° warm. In Lasttests bleibt sie um die 70°. In Idle/Windows bleibt sie immer genau 1° über der Gehäuse/Mainboard-Temperatur. (Z.B. derzeit 28°.)
Alles bei ca. 21° Raumtemperatur.
 
Zuletzt bearbeitet:
Turican76 schrieb:
Zwischenfrage an die Besitzer der getesteten Gigabyte 780ti. Ist die Karte leise wie die db Zahlen hier vorgeben?
Tritt pfeifen oder surren auf?
Bin die DC2 Karten von Asus gewöhnt,die sehr leise sind.


Ich habe die Gigabyte als SLI. Die Karte ist tatsächlich leise auch als SLI Config. Bisher keine Klackern o.ä., bin sehr geräuschempfindlich !
Einziger Nachteil der Karte(n) ist das ein Teil der Hitze (2x85 Grad bei BF4) direkt ins Gehäuse gepustet wird, bei meinem Vorgänger der GTX 690 war das nicht. Folge: Es wird sehr heiss im Gehäuse, der RAID Kontroller ist einmal ausgestiegen und das Netzteil hat sich einmal abgeschaltet weil zu heiss....
Karte ansich top (bisher seit 6 Wochen)
 
Zurück
Oben