[Sammelthread] ASUS ROG Swift PG278Q, 27" mit 2560x1440 + 144Hz

@Heinz
Die "krüppelt" genau so vor sich hin wie deine Titan-Black ...^^

@reiskocher83
Lass den Swift nicht "vergammeln" & order zeitnah ... ;)
 
reiskocher83 schrieb:
@ HeinzNeu

Habe mal paar Fragen zu deiner Hardware:

1) Würdest du den 5930 dem 5820 immer vorziehen wenn du darauf pochst dir zwei GPUs zu holen? der Zweitgenannte soll ja Sli nicht so gut beherrschen.

2) Eine 980 oder zwei 970?

3) Wie beurteilst du deine Wakü im Gegenzug zu der Corsair H110i ? Ich denke, dass jemand der so viel Geld für ne Titan ausgibt sich auch im Bezug auf Kühlung viele Gedanken gemacht hat :D

4) Dein Board viel besser als das MSI X99S gaming 7?

5) Muss es unbeding Ram sein das über 3000 ist? Oder geht auch ein Crucial was 2133 hat?

6) Was machst du beruflich und vielen Dank für die Aufmerksamkeit :))

gruß
jan

Hallo Jan,
Deine Fragen beziehen sich nicht alle auf die Hardware. Dazu im Einzelnen später.

zu 1) Wenn ich zwei GPUs ins System integrieren will, würde ich auf jeden Fall den 5930K vorziehen, denn er hat 40 PCIe-Lanes, wohingegen der 5820K lediglich 28 PCIe-Lanes besitzt. Im SLI- oder CF-Verbund können von dem 5930K - soweit das Board dies mit mindestens zwei 16er PCIe-Slots zulässt- 32 Lanes genutzt werden (pro GPU 16 x 2 =32). Der 5820K wäre mit 2 x 16 schon überfordert.

zu 2) Eine GPU ist immer besser als zwei. Nicht immer findest Du passende SLI- oder CF-Profile. Solange das AFR-Verfahren angewendet wird, hast Du immer mehr oder weniger starkes MR (Mikroruckeln).

zu 3) Meine WaKü ist vor allem deshalb so leistungsstark, weil ich den Radi ins Nebenzimmer verlegt habe und dort die Raumtemperatur niedriger sein kann als im PC-Zimmer. Der H 110i kommt an diese Leistungsfähigkeit nicht ran.

zu 4) Ob besser oder schlechter kann nur dann ausreichend beantwortet werden, wenn Du diese Adjektive auf bestimmte Parameter (z.B. zwei 16er PCIe-Slots, OC-Sockel, RAM-OC-Verhalten o.ä.) beschränkst. Ich hatte zuvor ein Asrock X99X-Killer. Damit war ich nicht unzufrieden, aber das Deluxe lässt sich nach meinem Dafürhalten besser übertakten. Ferner hat es einen OC-Sockel (Cache-OC).

zu 5) RAM-OC bringt dann etwas, wenn die CPU am Limit ist. RAM ist im Vergleich zur CPU eine sehr langsame Komponente. Der interne Takt beträgt rund gerade mal ein Zehntel des CPU-Taktes. Daher brächte es vergleichsweise mehr, wenn die CPU einen großen, schnellen Cache hätte. Ich persönlich mag es, das RAM an die Grenze der Leistungsfähigkeit zu bringen. HisN sieht das anders. Jedem Tierchen sein Pläsierchen.

zu 6) Diese Frage zielt nicht auf die Hardware, daher sei die Frage erlaubt, weshalb das für Dich interessant ist? Meine Personalakte liegt im BMI in Berlin und det is allet vs-jeheim. Oder soll ich Dir sagen, dass ich BKA-Trojaner programmiere?


@ronrebell,

welche objektiven Maßstäbe hast Du angelegt, um zur Feststellung zu gelangen, bei mir hätten sich die Relationen verschoben? Mir sind keine solchen Maßstäbe bekannt, unter Anlegung derer ein solcher Schluss resultieren würde.
Gleiches gilt für die Behauptung, keiner nehme mich weiterhin ernst, wenn ich das Wort "Speicherkrüppel" so "unbedacht" verwende.

In diesem Zusammenhang musst Du Dir gleichsam die Frage gefallen lassen, ob Du eine repräsentative Umfrage gestartet hast und die Mehrheit der Befragten sich entsprechend geäußert haben. Doch selbst wenn dies der Fall wäre, könnte mich das nicht tiefer beeindrucken, denn die Richtigkeit einer Aussage und die Überzeugung einer imaginären Mehrheit sind zwei unterschiedliche Kategorien. Ich bin übrigens auch nicht wie Hegel der Auffassung, dass aus Quantität irgendwann einmal Qualität wird.

Um auf den Kern Deiner Anspielung zurückzukommen, gibt es derzeit schon genügend Spiele, die bereits ab 2560x1440p an die 6 GB VRAM-Grenze herankommen. Watch Dogs in 4K frisst weit mehr als nur 6 GB VRAM. Ähnlich ist es mit GTA V. Dieserhalb bleibe ich dabei, dass 6 GB VRAM schon jetzt sehr wenig sind.
 
Zuletzt bearbeitet von einem Moderator:
Nachdem du ja so gutes Deutsch beherrscht, kennst du nun auch den Unterschied zwischen "sehr wenig" und "krüppelig".
Immerhin hast du dich ja in deinem letzten Satz nun etwas relativiert ;-)
 
Danke für die Blumen.
Klar kann ich den Mangel an VRAM auch anders bezeichnen. Es war ehrlich gesagt ein kleiner Schupser in Richtung SuddenDeathStgt, da er bei diesem Schlüsselwort immer promt angesprungen ist. Nix für ungut; ein bisschen Spaß muss schwein.

@Jan,
auf Deine Äußerung bin ich gespannt.
 
Kein Ding. Bleib bei "etwas wenig" unter bestimmten Szenarien. Passt auf alle Fälle besser als Speicherkrüppel würde ich sagen.
Oder schimpfe mein 780 3Gb SLI als Speicherkrüppel, das geht auch in Ordnung :-)
 
HeinzNeu schrieb:
Um auf den Kern Deiner Anspielung zurückzukommen, gibt es derzeit schon genügend Spiele, die bereits ab 2560x1440p an die 6 GB VRAM-Grenze herankommen. Watch Dogs in 4K frisst weit mehr als nur 6 GB VRAM. Ähnlich ist es mit GTA V. Dieserhalb bleibe ich dabei, dass 6 GB VRAM schon jetzt sehr wenig sind.

Da sollte man mMn dennoch unterscheiden können Heinz. Ist dies zwingend erforderlich oder werden nur die vorhandenen Ressourcen genutzt?
Ich kann es aber nachvollziehen, wenn man bspw. für einen gewissen Zeitraum_X, eine VRAM-Größe_Y nutzt, möchte man bei einem Neukauf/Upgrade nicht auf der Stelle treten ... :)
Ansonsten, Daumen hoch für deinen Post & ich bin ebenfalls auf die Äußerungen von Jan gespannt als auch weitere "Filmdramasequenzen" ...^^
Übrigens, ich mag Dich auch & ganz besonders deinen Humor ... :cool_alt:
 
HeinzNeu schrieb:
Hallo Jan,
Deine Fragen beziehen sich nicht alle auf die Hardware. Dazu im Einzelnen später.

zu 1) Wenn ich zwei GPUs ins System integrieren will, würde ich auf jeden Fall den 5930K vorziehen, denn er hat 40 PCIe-Lanes, wohingegen der 5820K lediglich 28 PCIe-Lanes besitzt. Im SLI- oder CF-Verbund können von dem 5930K - soweit das Board dies mit mindestens zwei 16er PCIe-Slots zulässt- 32 Lanes genutzt werden (pro GPU 16 x 2 =32). Der 5820K wäre mit 2 x 16 schon überfordert.

Genau, die Lines-Sache war es weshalb ich gefragt habe. Es bleibt wohl also dabei dass der 5820 für Sli nicht taugt. Danke dafür erst mal.

HeinzNeu schrieb:
zu 2) Eine GPU ist immer besser als zwei. Nicht immer findest Du passende SLI- oder CF-Profile. Solange das AFR-Verfahren angewendet wird, hast Du immer mehr oder weniger starkes MR (Mikroruckeln).
Das war auch stets meine Meinung. Liebe eine stärkere Karte als zwei Schwächere. Was das "AFR-Verfahren ist habe ich selbst ergooglet und wieder was gelernt. Aber um was fürSAli- bzw CF-Profile handelt es sich denn? Mikroruckeln ist keine schöne Sache. Verhindert der Rog Swift diese nicht gleich mit?

HeinzNeu schrieb:
zu 3) Meine WaKü ist vor allem deshalb so leistungsstark, weil ich den Radi ins Nebenzimmer verlegt habe und dort die Raumtemperatur niedriger sein kann als im PC-Zimmer. Der H 110i kommt an diese Leistungsfähigkeit nicht ran.
Das ist eine super Lösung. Mein Zimmer ist im Sommer die Hölle auf Erden. Im Winter muss ich nie heizen. Also kannst du dir die Bedingungen erahnen. Hast du denn einen Vergleich gemacht wie die Unterschiede sind wenn der Radi im selben- bzw Nebenzimmer ist? Im selben Zimmer rührt dieser doch bestimmt so richtig im eignene Saft. Bekommt man die Schläuche in gewünschter Länge und die Kühlflüssigkeit ebenfalls? Bei deiner Wakü handelt es sich aber trotzdem noch um eine Komplettlösung oder? So scheint es zumindest.

HeinzNeu schrieb:
zu 4) Ob besser oder schlechter kann nur dann ausreichend beantwortet werden, wenn Du diese Adjektive auf bestimmte Parameter (z.B. zwei 16er PCIe-Slots, OC-Sockel, RAM-OC-Verhalten o.ä.) beschränkst. Ich hatte zuvor ein Asrock X99X-Killer. Damit war ich nicht unzufrieden, aber das Deluxe lässt sich nach meinem Dafürhalten besser übertakten. Ferner hat es einen OC-Sockel (Cache-OC).
Bei deiner Boardwahl; gab es denn zu dem Zeitpunkt ein für dich noch besseres Board oder war es zu der Zeit das in deinen Augen Beste? Ich denke, es war das Beste, zumal es preislich ganz oben angesidelt ist. Wenn du heute ein Board kaufen solltest, welches wäre das? Ich möchte vor allem eines, wo man mit nem Messgerät die ganzen Werte auslesen kann. Quasi, die Spielereien ziehen mich besonders an und ich möchte das erste mal richtig übertakten, also sollte das schon kein Sparmodell sein.

HeinzNeu schrieb:
zu 5) RAM-OC bringt dann etwas, wenn die CPU am Limit ist. RAM ist im Vergleich zur CPU eine sehr langsame Komponente. Der interne Takt beträgt rund gerade mal ein Zehntel des CPU-Taktes. Daher brächte es vergleichsweise mehr, wenn die CPU einen großen, schnellen Cache hätte. Ich persönlich mag es, das RAM an die Grenze der Leistungsfähigkeit zu bringen. HisN sieht das anders. Jedem Tierchen sein Pläsierchen.
Ram ist eine Sache, da verstehe ich so gut wie gar nicht. Ich frage mich weiterhin, ob ich ein Crucial Modell kaufen soll oder doch irgend etwas in der 400€-Klasse. Habe schon früher ganz bischen OC betrieben; bei der CPU sah ich im Aquamark Ergebniss Verbesserungen, aber bei der GPU tat sich gar nichts, und den Ram habe ich komplett ausgeblendet. Ich muss mal HisN fragen, wieso er das anders sieht als du.

HeinzNeu schrieb:
zu 6) Diese Frage zielt nicht auf die Hardware, daher sei die Frage erlaubt, weshalb das für Dich interessant ist? Meine Personalakte liegt im BMI in Berlin und det is allet vs-jeheim. Oder soll ich Dir sagen, dass ich BKA-Trojaner programmiere?
HeinzNeu schrieb:
@Jan,
auf Deine Äußerung bin ich gespannt

Denke, du meinst den sechsten Punkt also beantworte ich hier beide Zitate auf einmal.
Ok, die Frage wirkt bestimmt strange. Es ist aber für interessant zuwissen, wie die Leute auf ihre Nicks kommen. (Gab früher mal einen Thread dazu). Aber jeden zu fragen, geht ja auch nicht.
Aber bei dir fragte ich mich schon immer, wieso 'HeinzNeu'. Eigentlich interessiert es mich auch im Bezug auf den Nickname dein Alter.
Und dann immer diese Potente Hardware. Auslöser für die letzte Frage nach dem Job war eigentlich die Titan GPU. :)
Weil es mich interessiert, ob du schlichtweg einen normalen Job hast und eben das gesamte Gehalt für Hardware drauf geht, oder ob du einen Top-Job hast. Mehr ist es eigentlich nicht.




gruß
jan :)
Ergänzung ()

HeinzNeu schrieb:
Die GTX 980ti wird doch mit nur 6 GB VRAM der totale Speicherkrüppel:freak:

Da das ja gerade Thema ist. Als ich das gelesen habe, dachte ich mir und denke es immer noch. Was soll ich mit so einem 980-Schrott. Also stimmt es, dass auf wengier versierte Leute so eine Aussage erst einmal abschreckend wirkt, aber zumindest auf mich, wobei ich ja weiß dass eine 980 ja nun jetzt nicht übel ist.

Mir fallen gerade noch zwei weitere Fragen ein:

1) Dein Netzteil. Ich wollte mir das Corsair AX 860i ( mit i wegen dem Ausleseverfahren) oder sogar die 1000er Version, weil kostet nix.
Da sagte mir aber jemand, dass Corsair nur überteuerten Schrott baut und die digitale Technik sich momentan einfach noch nicht lohnt, und ich hingegen zum Antec Pro HCP-850 Platinum greifen sollte. Wenn Corsair so miese Netzteile baut, wieso hast du dann eines? Man kann einfach irgendwie keinem glauben, wobei ich genau so wenig glaube dass der Typ mch bewusst angelogen hat.

2) das Bild zeigt, dass Sli doch mehr bringt. Zwei 970 sind flotter als eine 980.
980 970.jpg

gruß
jan :)
 
An den durchschnittlichen fps erkennt man weder Mikroruckler noch Aussetzer wegen zu wenig Texturspeicher.
 
JMP $FCE2 schrieb:
An den durchschnittlichen fps erkennt man weder Mikroruckler noch Aussetzer wegen zu wenig Texturspeicher.

Hi,
meinst Du mein gepostetes Bild? Mir geht es aber erst einmal um die reine Leistung. MIkroruckler sind wirklich unschön. Frage mich ob der Swift die ausbügelt.

gruß
jan :)
 
Ein guter Monitor "bügelt" nichts aus, genauso wie gute Boxen keine scheiß Quelle gut klingen lassen können.
 
Hätte ja sein können dass der Swift das MikroRUCKELN etwas weniger macht. Weil der Monitor doch zeigt dass er bei gleicher Hardware das Bild flüssiger darstellet als ein 0815 Gerät
 
Wer sagt das?

Mit G-Sync gibt es (soweit ich das testen konnte) absolut kein Tearing mehr.
Und Tearing ist ja eins der Hauptprobleme, was schon viele unerfahrene Nutzer als "Ruckeln" bezeichnen
 
Zuletzt bearbeitet:
DerBaya schrieb:
Wer sagt das?

Mit G-Sync gibt es (soweit ich das testen konnte) absolut kein Tearing mehr.
Und Tearing ist ja eins der Hauptprobleme, was schon viele unerfahrene Nutzer als "Ruckeln" bezeichnen
Isso.

@reiskocher83:
Aber Mikroruckeln hast du halt je nach Spiel bei unter 60 FPS (zumindest merk ich es da, Beispiel GTA5). Die einen störts, die anderen nicht. Aber da hilft Gsync auch nichts mehr.
 
@reiskocher83,
ich finde das Corsair NT in Ordnung. Sicher gibt es andere, die auch empfehlenswert sind.
Die Sache mit den SLI-Profilen ist die, dass manche Spiele eben nicht mit zwei Karten spielbar sind, wenn SLI-Profile fehlen. HisN kann ein Lied davon singen.

Nochmal zu meiner Hardware. Sie ist nicht billig, aber ich muss keine Schulden aufnehmen, um sie mir vieles andere leisten zu können. Die ganze Kohle nur in Hardware zu stecken, wäre keine gute Idee.


@Sudden,

Du bist zwar kein Berliner, aber ick find Dir cool und sympathisch biste mich och...:D

Schade, dass man hier keine Freundschaften pflegen kann wie z.B. im LuXX.
 
SuddenDeathStgt schrieb:
,... ich bin ebenfalls auf die Äußerungen von Jan gespannt als auch weitere "Filmdramasequenzen" ...^^
Übrigens, ich mag Dich auch & ganz besonders deinen Humor ... :cool_alt:


Hi,
um welche Äußerung zu was? Ich glaube aber, falls ich diese schon kund getan hab, was sie wohl eher ernüchternd.

Und um was für Filmdramasequenzen geht es? :D

gruß
jan :)
 
Er meinte die Äußerung zu meinen Antworten auf Deinen Fragenkatalog.
 
@Heinz

Hi,
danke bisher erst einmal.

Würdest Du Dich (schreibe die Anrede jetzt mal doch groß :D) noch mal dazu überreden lassen mir zu verraten, welches Board Du Dir heute kaufen würdest? Das was Du momentan besitzt oder gibt es da noch etwas anderes.

Oder doch auf die Skylake CPUs warten. Dann könnte ich den Swift aber auch genau so gut bis es soweit ist wieder eintuppern.


gruß
jan :)
 
Zuletzt bearbeitet:
Ich würde mir das Deluxe wieder kaufen, denn ich finde es klasse.
Mit dem Warten auf Besseres ist immer so eine Sache, weil man hic et nunc lebt. Später gibt es immer noch Besseres.
Der Swift wäre auf alle Fälle eine gute Wahl.
 
Hi Heinz,

Dass was Besseres kommt ist Gott sei Dank immer so. Die frage ist nur, ob sich die paar Monate denn lohnen zu warten. Erste Benchmarks zeigen doch, dass die Skylakes eben nicht besser sind.
Da diese aber wieder einen neuen Sockel bekommen, kann man eben nicht einfach nur mal die CPU aufrüsten. Und ein Board zu wechseln finde ich grauenhaft. Wieso sind die nicht einfach bei 2011-3 geblieben :/

Den Swift habe ich bereits zu Hause. Aber ohne Displayport läuft nix.

gruß
jan :)
 
Dann lasse Skylake sausen und kaufe Dir eine leistungsfähige GrafKa.
Falls Du an meiner Black interessiert bist, schreibe mir eine PN.
 
Zurück
Oben