News GeForce GTX Titan X erreicht mit 2 GHz neue Rekorde

@HisN:
Beides :) Aber nachdem ich Deine Rezensionen und andere Tests dazu gelesen habe bin ich doch sehr neugierig geworden. Das Bleeding meines aktuellen Screens nervt leider bei Elite doch ziemlich, zumal sitze ich meistens im Dunkeln wodurch ich in der Praxis doch häufiger davon betroffen bin. Ich reagiere zudem ziemlich empfindlich auf schlechte Kontraste oder suboptimale Schwarzwerte und leuchtende Ecken/Ränder fallen meinen Augen sofort auf, wogegen ich weniger empfindlich bin bei Farben oder leicht ungleichmäßiger ausleuchtung (solange das schwarz passt, mich stören helle Flecken auf dunklem Grund bedeutend mehr als dunkle auf hellem Grund).

Beim Philips sieht der Schwarzwert und Kontrast dagegen sehr gut aus und er ermöglicht mir viel Bildfläche ohne Skalierung bei guter Schärfe. UHD bei großen Schirmen ist für meine Augen die optimale Kombination von Fläche und Schärfe, meine Augen können mit exorbitant hohen PPI-Werten nix (mehr) anfangen, der Phillips liegt da in einem sehr guten Bereich.

Ich hatte schon jeden Paneltyp im Einsatz, aber das VA-Panel gefiel meinen Augen bisher immer am besten. Leider sind sie oft recht langsam und daher nur begrenzt zum Zocken geeignet, weswegen ich oft bei TN oder IPS gelandet bin. Weil aber der Philps da eine sehr gute Figur macht (solange man keine schnellen Shooter zockt), ist er für mich eine echte Alternative die ich mir anschauen möchte. Und der Preis sieht auch sehr gut aus, daher wollte ich ihn einfach mal testen.
Ich behalte meinen alten Screen aber trotzdem, kann man ja leicht umbauen je nach Anwendungsfall (Triple-Screen Panels habe ich ja auch noch rumstehen) und 21:9 ist durchaus eine sehr nette Sache, daher behalte ich den alten ;)

Naja, jetzt konzentriere ich mich erst mal auf die Grafikkarten und behalte das Monitor-Thema weiter im Auge ;)

Sorry für OT ;)
 
Switcher94 schrieb:
Kann man ja so sehen doch meinst du wirklich dass das Nvidia irgend wie interessiert. Es gibt KEINE Firma bei der alles Positiv oder alles Negativ ist. Also hört doch mit dem ganzen Fanboy und Hater Scheiss auf.
Das Produkt ist relevant nicht die Firma dahinter.
Punkt 2. Warum liest du denn überhaupt die News, wetterst in den Komentaren gegen Nvidia und den ganzen OC Versuch wenn dir die Nvidia Karten ja am Allerwertesten vorbei gehen?

Wäre es statt der Titan X die 390X mit den gleichen Ergebnissen wärst vermutlich aus dem Häusschen und würdest AMD feiern.

Mit "Fanboy- und Hater-Scheiss" hat das überhaupt nichts zu tun. Wer so reagiert wie Du, outet sich selber als Fanboy. Ich habe HW von intel, AMD und NVidia (und anderen) zu Hause. Notabene deutlich mehr als die meisten CB-Leser zu Hause haben dürften. Früher habe ich bevorzugt NVidia-Grakas gekauft, weil deren Closed-Source-Treiber unter Linux besser war. Das ist auch der Hauptgrund für meine Abkehr von NVidia, weil ich dort seit einiger Zeit deutlich mehr Probleme ausbaden durfte als mit AMD-Grakas. Ich feiere übrigens gar keinen Hersteller. Als Kunde darf ich mir ja aber wohl noch aussuchen, für was ich mein Geld ausgebe. Und da hat NVidia bis auf weiteres eben Pech gehabt.

Die Leistung einer CPU oder GPU ist für mich nur ein Punkt unter mehreren. Treiber und Preis-/Leistungsverhältnis sind andere wichtige Punkte, aber beileibe nicht alle. Manchmal kaufe ich auch mit einem Hintergedanken. So habe ich mir z.B. in der Vergangenheit drei AMD-APUs gekauft. Das Produkt war nicht schlecht und ich bin mit den Kisten auch zufrieden, aber ein Stück weit ging es mir auch darum AMD etwas zu unterstützen, da wohl nichts so schlimm wäre wie ein absolutes intel-Monopol bei x86- bzw. AMD64-CPUs. Bevor mir jetzt wieder der AMD-Fanboy vorgehalten wird: Die meisten Kisten bei mir haben intel-CPUs. Die letzte Kiste habe ich gerade am Wochenende gebaut. BTW: In der Vergangenheit wurde mir hier auch schon vorgeworfen, ich wäre ein AMD-Hater, nur weil ich mich erdreistet habe mal einige der heiligen Entscheidungen von AMD zu kritisieren.

Es ist auf dem CB-Forum immer wieder lustig, wie schnell auf nicht genehme Meinungen mit der Fanboy-, Hater- oder Troll-Keule eingeschlagen wird. Man muss im Netz schon recht weit herum suchen um ein Forum zu finden, wo dermassen viel pubertäre Flame-Wars ausgetragen werden. Das liegt meiner Meinung nach aber nicht an der CB-Redaktion oder den CB-Moderatoren, welche meiner Meinung nach gute Arbeit leisten. Manchmal habe ich aber das Gefühl, dass es am Alter der Teilnehmer liegt.

iHabAhnung schrieb:
Warum schreibst du dann überhaupt ein Kommentar, wenn du bei Übertaktungsrekorden "nicht mal mehr mit den Schultern zuckst"? Um kurz deine negative Meinung über eine Aktiengesellschaft zu äußern?

Was ist daran verboten? Ich darf mich doch wohl noch dazu äussern. Die Kernaussage war ja nicht, dass ich nicht mal mit den Schultern zucke, sondern dass ich es nicht praxisrelevant finde. Zudem: Begründe doch mal, was an solchen Rekordversuchen praxisrelevant ist. Da wird es mit der Argumentation aber etwas schwieriger. Viel Spass damit!

Genauso praxisirrelevant waren auch die Versuche mit AMD-CPU und -APUs in der Vergangenheit. Das Beispiel mit den 8GHz mit nur einem Kern hat sich darauf bezogen. Solange man eine Kiste nicht dauerhaft (mit allen Kernen bzw. Shadern/Funktionseinheiten) vernünftig betreiben kann, sind Rekordversuche nicht mehr als Show. Mit "vernünftig" meine ich übrigens auch den Stromverbrauch und die zu erwartende Lebensdauer der Komponenten. Wer beim Übertakten Hardware zerstört oder in Kauf nimmt, dass diese eine deutlich verkürzte Lebensdauer hat, der hat entweder keine Ahnung um was es eigentlich geht (Mehrwert für's gleiche Geld) oder nimmt es eben bewusst in Kauf (z.B. für Rekordversuch bzw. die maximal mögliche Leistung). Mir sind Leute bekannt, welche ihre CPUs an's Limit übertakten und auch wissen, dass sie damit ein Risiko bei der Lebensdauer eingehen. Es geht ihnen aber um die maximale Leistung und sie nehmen die verkürzte Lebensdauer in Kauf, weil sie meistens bei der nächsten oder übernächsten HW-Generation wieder wechseln. Der Stromverbrauch ist für diese Leute auch nur Nebensache (bei der CPU sowieso...). Damit habe ich auch inhaltlich kein Problem. Diese Leute haben einfach ein anderes Ziel als ich es persönlich habe. Aber übertakten "just for the show"? Da kommt nur ein bisschen heisse Luft dabei raus...

Seit wann darf man eigentlich eine Aktiengesellschaft nicht mehr kritisieren? Als Konsument sollte man durchaus kritisch hinterfragen können IMVHO. Darum geht es doch auch hier im Forum, oder?
 
2L84H8 schrieb:
Begründe doch mal, was an solchen Rekordversuchen praxisrelevant ist. Da wird es mit der Argumentation aber etwas schwieriger. Viel Spass damit!
Naja, wann war jemals in der Menschheitsgeschichte ein Rekordversuch wirklich praxisrelevant ? Mir fällt da gerade keiner ein, auch wenn es sicherlich ein paar Einzelfälle geben mag. Für mich haben Rekordversuche selbst grundsätzlich nichts mit Praxisrelevanz zu tun, sie sind einfach ein Versuch eine Grenze von etwas auszutesten. Und die die es tun haben meistens Spaß daran.

Natürlich kann man evtl. daraus Erkenntnisse gewinnen (in welcher Höhe kann man ohne Sauerstoff überleben, welche Beschleunigung hält ein Mensch aus usw.) aber das kann man auch auf diesen Test anwenden: Wieviel hält die Titan X unter optimalsten und extremsten Bedingungen aus um evtl. daraus abzuleiten welches Potential sich daraus auf den unteren Stufen ergibt oder wieviel Spielraum ein Maxwell gegenüber anderen Serien hat.
Für mich persönlich war einfach interessant zu sehen, daß diese einzelne Titan X auf 2 Ghz etwas schneller ist als mein SLI aus übertakteten Titan classic Karten ;)
 
Zuletzt bearbeitet:
Necareor schrieb:
Kundentäuschung betreibt so ziemlich jede Firma, so weit es ihnen möglich ist. Das ist keine Entschuldigung, aber leider die Wahrheit. AMD könnte man auch vorwerfen, dass die HD 7er nach großer Ankündigung Mantle erst spät bis gar nicht unterstützt haben. Oder dass die R9 270 bis R9 280X kein FreeSync unterstützten. Und so weiter...

Du labberst Grütze. Was hat gezielte Kundentäuschung seitens Nvidia mit der fehlenden Unterstützung von Mantle und FreeSync bei bestimmten Grafikkartenserien von AMD zu tun? Richtig, gar nix.
Sowohl Mantle als auch FreeSync wurde nie vollmundig für alle Grafikkartenserien seitens AMD angekündigt.
 
Natürlich wurde Mantle für die komplette HD 7er Serie angekündigt, und daher könnte man es ebenfalls so auslegen. Was ich aber nicht mache, genauso wenig bei Nvidia. Ich lege sowieso kaum wert auf den Ruf einer Firma, gerade wenn es nur wenige andere Marktteilnehmer gibt, die ein Produkt verkaufen, das ich will, mir geht es immer nur um das einzelne Produkt selbst. Ich habe da viel zu oft schon schlechte Erfahrungen gemacht. Man kennt ja eh immer nur die halbe Wahrheit, wenn man nicht gerade in so einem Konzern arbeitet. Und selbst dann...
 
Zuletzt bearbeitet:
Das ist doch schon ewig her, ich schau nachher mal, wenn ich Lust und Zeit habe. Motiviert bin ich aber nicht... wurde doch überall angeprisen, dass Mantle für alle Grafikkarten mit der Graphics Core Next Architektur funktionieren wird. Deswegen haben sich vor dem BF4-Release alle die AMD-Karten gekauft.

Ein Beispiel auf die Schnelle:
https://www.computerbase.de/2014-01/amds-mantle-fuer-jedermann-ist-da/
Optimale Ergebnisse, so AMD, werden vorerst nur Besitzer einer Radeon R9 290(X), Radeon R7 260X oder einer APU vom Typ „Kaveri“ erzielen. Alle anderen Grafikkarten ab Generation HD 7xxx werden zwar ebenfalls unterstützt, aber erst in späteren Treibern optimal auf Battlefield 4 ausgelegt.

Aber ist doch auch egal, ich will hier keine Firma zum Feind oder zum Freund machen. Sie wollen alle nur Geld...
 
Zuletzt bearbeitet:
Mantle funktioniert mit den HD7000er Karten, nur läuft denen bei Battlefield 4 der Speicher über, wodurch es zu CPU-Spikes kommt.
Es kann natürlich sein, dass diese Probleme gefixt und optimiert wurden, jedenfalls war ich damals davon auch betroffen und hab auf eine R9 290 gewechselt.
 
Wow, wie man so einen Artikel aber auch selektiv interpretieren kann :D

Da steht "3DMark and Microsoft point out that the new feature test is not a tool to compare GPUs but an easy way to gauge a single PC's performance and API efficiency. Don't use it to compare PC Y with PC X, nor as a GPU test". In dem Test geht es doch nur darum, wie viele Draw-Calls man an die GPU schicken kann. Das sagt nichts darüber aus, wie viele Frames eine Graka letztlich rendern kann.

Nachtrag: allerdings zeigt der Artikel auch sehr schön, wie stark AMDs FX ist, wenn das Multithreading intensiv genutzt wird. Genau mit diesem Ziel wurde die FX-Architektur (Bulldozer) designed. "A quad-core Haswell CPU generally lumps up an "eight" core FX chip in the vast majority of performance tests. But that FX chip, though it uses shared cores, runs much closer to— and sometimes faster than—Haswell if the test is heavily multi-threaded."
 
Zuletzt bearbeitet:
In dem Test geht es doch nur darum, wie viele Draw Calls man an die GPU schicken kann. Das sagt nichts darüber aus, wie viele Frames eine Graka letztlich rendern kann.
Der Test sagt aus, dass eine R9 290X GPU im Gegensatz zu einer Titan X(!) GPU unter Directx 12 mehr Objekte zeichnen kann, bevor sie unter 30FPS fällt. Beim Vergleich zwischen einer 290X und GTX 980 sind es z.B. im besten Fall über 7 Millionen(!) Draw Calls mehr für die R9 290X, sprich die 3D-Szene kann viel komplexer sein bei der R9 290X als die 3D-Szene bei einer GTX 980 bevor sie unter 30FPS fällt. Ich finde das sagt sehr viel aus.
 
Nein, das wird hier nicht ausgesagt. Es werden DrawCalls ausgeführt. Das sind nur die Befehle an die Grafikkarte nach dem Motto "und jetzt zeichne mal Objekte". Diese Aufrufe sind für den Aufrufer (die CPU) eben nicht blockierend, d.h. die CPU übergibt die Befehle an die GPU und kann anschließend weiterarbeiten. Nun liegt es an der GPU, die Befehle auszuführen. Das "Befehle ausführen" ist das, was ein klassischer GPU-Benchmark misst und auch Du hier rausliest. Genau das wird hier aber nicht gemessen.
 
Hi, hoffentlich wirkt meine Frage nicht zu weit entfernt vom Thema, aber weiss jemand wie es mit der Haftung der Redaktionen aussieht wenn ihnen eine Karte "abraucht", sprich ihnen Nvidia ein Sample oder ein Versandhaus eine Retailversion überlässt? Bsp. wie im Titel Pc Games Hardware mit 1,5 GHz. bei dieser Karte.
Da greift wohl nicht die Haftpflicht des Chefredakteurs ;-)
 
Gute Frage, wahrscheinlich fällt das unter "Shit happens" und sie holen das Geld über die Klickczahlen wieder rein. Oder nVidia/Hersteller zeigt sich "sehr kulant" um keine schlechte Publicity zu bekommen. Aber das sind nur Vermutungen meinerseits, ich weiss es nicht.
 
Faust2011 schrieb:
Nein, das wird hier nicht ausgesagt. Es werden DrawCalls ausgeführt. Das sind nur die Befehle an die Grafikkarte nach dem Motto "und jetzt zeichne mal Objekte". Diese Aufrufe sind für den Aufrufer (die CPU) eben nicht blockierend, d.h. die CPU übergibt die Befehle an die GPU und kann anschließend weiterarbeiten. Nun liegt es an der GPU, die Befehle auszuführen. Das "Befehle ausführen" ist das, was ein klassischer GPU-Benchmark misst und auch Du hier rausliest. Genau das wird hier aber nicht gemessen.

Danke Faust, ich denke jetzt habe ich es richtig verstanden.
 
Freut mich, wenn ich es einigermaßen verständlich erklären konnte.

Das ist übrigens auch der Grund, weshalb man in den Grafiken im verlinkten Artikel auch immer nur verschiedene APIs im Verhältnis zueinander sieht und auch CPUs zueinander, aber nie verschiedene Grafikkarten. Man will eben zeigen, wie gut eine CPU durch eine API (DX11 / Mantle / DX12) eine GPU versorgen kann. Dabei ist es egal, welche GPU (Nvidia / AMD / Intel iGPU) das ist. Ist Dir das aufgefallen?

Ok, genug off-topic.
 
So jetzt baun wir die ine nen 4er sli verbund und sind bereit für 6k gaming :D. Jedoch bezweifle ich dass es hierfür ein passendes Netzteil gäbe oder?
 
Luca3435 schrieb:
So jetzt baun wir die ine nen 4er sli verbund und sind bereit für 6k gaming :D. Jedoch bezweifle ich dass es hierfür ein passendes Netzteil gäbe oder?

och ich glaube das für Tripple SLI schon 1250 Watt ausreichen und dementsprechend 1500 Watt locker für Quad.


*edit*
endlich hab ich die Titan X, wenn jemand ein gutes ModBios hat, bitte posten, danke!
 
Zuletzt bearbeitet:
Zurück
Oben