Test Nvidia GeForce GTX Titan X im Test

Pisaro schrieb:
@Tom_1: What? Battlefield 4 auf Ultra = maximalsettings = Kantenglättung auf 4k mit 60 FPS? Niemals: http://www.pcgameshardware.de/Battl...field-4-Test-Benchmarks-Grafikkarten-1095050/

Nicht in den Settings, tut mir leid keine Chance.

Edit: Hier ohne Kantenglättung: http://www.bit-tech.net/hardware/graphics/2013/11/27/battlefield-4-performance-analysis/6

Sorry, aber das mit den 60 FPS glaub ich dir niemals bzw. hat das nichts mit Glauben zu tun.. das geht einfach nicht :)

ICh brauch mich hier nicht zu beweisen. wenn ich sage es ist so dann ist es so!
Tests hin oder her!
Ob dus mir glaubst oder nicht, ist mir ziemlich egal =)
Mir bringt es nichts mich selsbt zu belügen nur um "cool" rüber zu kommen.
 
Dann hättest du bestimmt nichts gegen einen Screen der FPS und der Auslastung, oder? Ich frage halt nur weil die Test´s was ganz anderes zeigen.

Vielleicht könnte das auch ein anderer Unser machen wenn er Zeit hat, dass interessiert mich wirklich sehr!
 
Irgendwie erinnert mich Tom_1 an GTX007 im Nachbarthread, der gerade gebanned wurde :mad:
 
jayztwocents (youtube, haltet von ihm was ihr wollt...) hat ebenfalls die Titan X getestet und BF4 Multiplayer UHD Ultra ohne AA läuft mit ~60fps, 2xMSAA (IIRC) war noch ~50fps.

GEZ-Verweigerer schrieb:
@poi Hallo? das war ne Titan X, die so schon 1/3 schneller ist als eine GTX 980, dazu hat er sie erstmal auf doof +200mhz/+500mhz nicht gerade wenig übertaktet. Ist wohl ein ganz klein wenig anderes kaliber als ne GTX 970, nech? ich würd mal sagen 50+60% Mehrleistung als ne GTX 970. Er hatte sogar 70fps average ohne AA. Die CPU spielt ja auch mit rein, vor allem beim Multiplayer und da dürfte Jay-Z wohl auch ne stärkere/höher übertaktete gehabt haben, weiss es jetzt nicht mehr aber wohl minimim i7 mit 4,5ghz.

Hatte jetzt nicht damit gerechnet, dass es bei der Diskussion 2 Seiten weiter zurück um eine 970 im Titan X Thread geht :D
 
Zuletzt bearbeitet:
@poi Hallo? das war ne Titan X, die so schon 1/3 schneller ist als eine GTX 980, dazu hat er sie erstmal auf doof +200mhz/+500mhz nicht gerade wenig übertaktet. Ist wohl ein ganz klein wenig anderes kaliber als ne GTX 970, nech? ich würd mal sagen 50+60% Mehrleistung als ne GTX 970. Er hatte sogar 70fps average ohne AA. Die CPU spielt ja auch mit rein, vor allem beim Multiplayer und da dürfte Jay-Z wohl auch ne stärkere/höher übertaktete gehabt haben, weiss es jetzt nicht mehr aber wohl minimim i7 mit 4,5ghz.

trotzdem kann ich bestätigen, dass die meisten fps-Angaben auf Seiten wie Toms Hardware, HT4U und vielen anderen, oft viel zu niedrig sind. So hab ich mit der GTX 560ti OC Spiele mit 50-60fps gespielt, wo es eigentlich nur 30 sein sollten. Worans genau liegt, weiss ich nicht. Kann mir vorstellen, dass sie direkt oder kurz nach dem release testen, ungepatched und mit Treibern, die noch nicht optimiert sind. Denke kaum, dass sie die Ergebnisse bei jedem Treiber-oder Spielupdate nach oben korrigieren, das wäre ja mit Arbeit ohne Ende verbunden. Gerade Nvidia haut ja alle 2-3 Wochen nen neuen Treiber raus, auf Dauer steigt damit eigentlich bei allen Karten und Spielen die Performance. Bei manchen gering, bei manchen ordentlich. (Zumindest bei allem ab der 500er Serie, bei älteren weiss ichs nicht) Auch Crysis 3 spiel ich gerade mit 1 Karte maxed out, flüssig genug, um die 2te Karte im Regal zu lassen. Soll heissen ca 12-15fps mehr als in der HT4U Datenbank steht.
 
Zuletzt bearbeitet:
Keine Kantenglättung. Ist das ein Full-HD-Monitor mit DSR oder ist das ein 3840*2160-Monitor mit geringer Größe und feiner Pixeldichte bei 27" oder weniger?
 
Was für ne komische Frage? Die Größe des Monitors spielt doch überhaupt keine Rolle??

Außerdem schrieb er doch 28" 4K Monitor und da brauchst mit Sicherheit keine Kantenglättung!
 
Zuletzt bearbeitet:
@Tom_1: Sehr geil, wirklich! Hätte ich nicht gedacht. Woran liegt das dann eigentlich, dass die Benchmarks so wenig FPS anzeigen? Im Endeffekt kann man dann alle Benchmarks in die Tonne treten, oder? Ich verstehe gerade nur Bahnhof o_0.
 
Weil bei den meisten Benchmarks mit außerirdischen Settings gebencht wird.
Manchmal bewirkt ein kleiner Schubser nach links an den Qualitätseinstellungen wahre Wunder und man sieht keine wirklichen Veränderungen / Verschlechterungen, was das Bild betrifft... ;)

Ich zocke ja momentan auch noch mit einer gut übertakteten GTX 670 bei FHD und kann mich nicht beschweren.
 
na ja, ein 100%iger Beweis wäre nur ein Video, wo man Einstellungen und das ganze in Action sieht, Pics zählen im Jahr 2015 leider nicht mehr^^.
Aber das ist Tom keinem schuldig und wäre ihm wohl zu lächerlich. Mir kommen die Zahlen etwas zu...paradiesisch vor, obwohl die benchmarks, wie erwähnt, oft auch für den Müll sind. Die Wahrheit liegt wohl irgendwo dazwischen.
Wer FHD hat, kann doch die Auflösung künstlich erzeugen und selber gucken, wieviel FPS er mit seiner Karte schafft. Daran kann man dann auch ca. abschätzen, wie stark eine andere Karte ist.

Gibts nicht DSR jetzt auch für AMD, nur mit anderem Namen?

MIt SLI sollte ich mehr haben, die 2GB würden auch dicke reichen, da ja kein AA an ist. Nur leider hab ich kein BF 4 und kann auch nur bis 3360x2100.:D
 
Zuletzt bearbeitet:
Tom_1 schrieb:

Was verbraucht denn die Karte mit diesem OC ? Normal zeigt GPU-Z doch einen Schätzwert des Verbrauchs an, hast du das ausgeschaltet oder geht das bei Nvidia Grafikkarten nicht ? Kann mich nicht mehr erinnern, wie das bei meiner GTX 970 war.
 
das sind übrigens die Werte von HT4U, GTX 970 vs GTX 980

Battlefield 4
3840 x 2160 [Kein AA/16xAF] 24,7 24,2 (-2,3%)
Battlefield 4
3840 x 2160 [4xAA/16xAF] 18,9 22,7 (+19,7%)



25fps mit ner 980 ohne AA, die Werte sind ganz offensichtlich Müll. Oder die testen die minimum fps? Selbst dann kommt mir das noch zu wenig vor




@DEPP: steht doch da, in % vom TDP. Watt hab ich da noch nie gesehen. Hatte aber auch immer nur Nvidia. Nur ist das mit dem TDP so ne Sache. Bei ner GTX 680 angeblich 195 Watt. Meine Karten laufen ohne OC meist durchgehend 1297mhz, haben 2 x 6+8 pin, glaube nicht, dass die noch ein TDP von 195 Watt haben. Deswegen nützt mir die Anzeige "% vom TDP" leider wenig :(
Dafür weiss ich, dass ein 2700k meist 45-60 watt verbraucht beim daddeln.
 
Zuletzt bearbeitet:
Aber stimmt schon, die Bilder von Tom_1 sind natürlich leer gefegt, da passiert nichts. Vielleicht wärst du so nett Tom und würdest mal Pics in einem großen Gefecht machen? Ich vertraue den Benchmarks gerade nicht mehr wirklich :). Würde gerne sehen wie hoch die Differenz zwischen deinen Bildern und den Benches ist. Das ist kein Post gegen dich, sondern gegen die Benchmarks :). Gerne auch per PM.

Edit: Ich kann da nur von Evolve sprechen. In Full HD als Soldat 60 FPS konstant. Auf 4K ohne AA habe ich dann nur noch knapp die Hälfte...
 
Zuletzt bearbeitet:
@GEZ-Verweigerer:

Warum sollten die Werte Müll sein ? Ich habe mal einige Test angeschaut und alle liegen etwa im selben FPS Bereich.

Wenn ich wie Tom Screenshots schieße in denen nichts los ist und der halbe Himmel zu sehen ist, dann kommt man immer bei jeden game auf höhere Werte. Aber man spielt ja Battlefield nicht alleine auf der Map und schaut immer leicht nach oben. Tests sollten schon den gewöhnlichen Spielealltag zeigen, wenn nicht sogar eventuell auch Worst case Szenarien.

Ich will hier Tom nichts unterstellen, aber es ist auch gut möglich das er die eine oder andere Detaileinstellung statt ultra eine Stufe runtergesetzt hat. Es ist schließlich so, das der Unterschied zu sehr hoch und ultra marginal ist.

Um erlich zu sein vertraue ich 5 offiziellen Tests eher als einen Forenuser.
 
Zuletzt bearbeitet:
DerBaya schrieb:

Ich habe den Monitor mit 40" in der Aufzählung vergessen, so einen wie auch Hisn ihn hat. Und den 28"-Monitor habe ich wohl übersehen, sorry. :rolleyes: :o
 
Also ich kenne HT4U und habs bei meinen Spielen schon sehr oft verglichen, dass die fps zu niedrig angesetzt sind. Ein bischen mehr hat die 980 schon drauf, wir reden von 24fps ohne AA^^.
mit ner Titan X sind average 70 fps drin bei 4k,ultra, ink Action, schiessen, Panzerfahren und alle Wellen. Gabs gerade bei Jay-Z. zu sehen. Trotzdem wäre mir das alles noch zu dünn, es gibt ja Spiele, die die GPU erheblich mehr f.... als BF. Ich sag nur Crysis 3 oder Metro mit seinen Extras. Wer wirklich auf 60 fps mit vsync aus ist, was für mich immer noch am besten und geschmeidigsten aussieht.....das ist einfach noch viel zu teuer und unsicher mit 4k. Da nehm ich lieber ne kleinere AUflösung und hab Reserven satt.:D.
 
Zuletzt bearbeitet:
DerBaya schrieb:
Was für ne komische Frage? Die Größe des Monitors spielt doch überhaupt keine Rolle??

Außerdem schrieb er doch 28" 4K Monitor und da brauchst mit Sicherheit keine Kantenglättung!

Ohne Kantenglättung flimmert's in BEWEGUNG immer. Fuer flimmerfreies Standbild langt auch Onboardgrafik :evillol:

LUXXuskarte TitanX schaffets nit in neueren Games, wie Crysis3 in 4K, mit mindestens 8x SGSSAA.
In 1600p sicherlich mit 3Way SLI. Aber fuer den Preis muss es dann schon mit 32xS+8xSGSSAA zu spielen sein. Will Benches diesbezüglich sehen, Speicher ist ja mehr als genug da . :D
 
Zuletzt bearbeitet:
Zurück
Oben