Mein AMD-Erlebnis (eine Art "Tagebuch")

Beispiel: Man hat einen FX-4300 und eine R9 280. Die CPU schafft die Grafikkarte nicht ans Limit. Auf der GPU bleiben Reserven. Mantle nimmt im Grunde einen Teil der Berechnungen von der CPU, wodurch sich das Limit erhöht und lässt sie von der GPU berechnen, wodurch das GPU-Limit sinkt. Denn zum einen wird mehr VRAM verbraucht und zum anderen werden GPU-Leistung für die ehemaligen CPU-Berechnungen genutzt. Und schon steigt die FPS von vllt. 30 auf 50 oder gar 60 FPS. Wer aber einen i7-4790K hat, verlagert im Grunde nur das Limit. In so hohen FPS-Bereichen kann es also auch negative Auswirkungen mit Mantle haben.

Das ist falsch. Mantle und DirectX müssen beide das Frontend der GPU ansteuern. Das Frontend kann nur Befehle entgegen nehmen und zur Ausführung weiterreichen. Berechnen kann es selbst jedoch nichts. Dementsprechend kann Mantle auch keine Berechnungen in das Frontend der GPU verlagern um das CPU-Limit zum Nachteil des GPU-Limits zu reduzieren.
 
Nai schrieb:
Das ist falsch. Mantle und DirectX müssen beide das Frontend der GPU ansteuern. Das Frontend kann nur Befehle entgegen nehmen und zur Ausführung weiterreichen. Berechnen kann es selbst jedoch nichts. Dementsprechend kann Mantle auch keine Berechnungen in das Frontend der GPU verlagern um das CPU-Limit zum Nachteil des GPU-Limits zu reduzieren.
Mantle ist dazu da, den Overhead der CPU-seitigen Instruktionen aus der Grafik-API auf die GPU zu verlagern. Die Instruktionen können allerdings nicht verschwinden. Die Berechnungen müssen trotzdem erfolgen. Da aber Architekturbedingt Grafikkarten die Art an Instruktionen weitaus schneller berechnen können, fällt es in den meisten Szenarien nicht ins Gewicht. DIe Instruktionen können nicht unter den Tisch fallen. Wie die fehlenden Instruktionen kompensiert werden, ist Teil der Mantle-API und der GCN-Architektur. Dort dürfte AMD auch einiges optimiert haben, um die GPU nicht zu stark zu beanspruchen.

Du hast mit dem Frontend recht. Es muss zur Kommunikation mit dem System ein Interface geben. Das Mantle allerdings keine Berechnungen an die GPU über das Frontend weiterreichen kann, stimmt nicht. Dank Cuda oder OpenCL dürfte eigentlich klar sein, das es dem Hersteller überlassen ist, wie er das Interface/Frontend gestaltet. Und die GCN Architektur hat definitiv auch einen entsprechenden Befehlssatz bereit, mit dem Mantle die GPU an den Instruktionen beteiligt. Mit Mantle werden die Aufgaben ja nicht weniger, die in einer Spielschleife zur Grafikberechnung etc. gemacht werden müssen. Man kann die Algorithmen zwar teils optimieren/entschlacken. Das geht aber auch nur so weit, bis sie keine Funktionalität einbüßen. Und dann? Dann ist Ende. Mantle hingegen gibt einen großen Teil des Overhead's aus der Grafik-API an die GPU und lässt die Probleme dort lösen.

Zusammengefasst also: Mantle KANN über das Interface und den Befehlssätzen der GCN-Architektur Berechnungen/Instruktionen auf die GPU auslagern und tut dieses auch. Das erklärt im übrigen auch den höheren Bedarf an VRAM bei Mantle: https://www.google.de/?gws_rd=ssl#q=mantle+vram
Wenn also auf GPU-Seite nichts berechnet wird, warum brauch Mantle soviel VRAM?
 
SuddenDeathStgt schrieb:
Das Board kränkelt ja mMn immer mehr an den sog. Hardliners, diese "Ihrer Marke" damit aber wahrlich keinen Dienst erweisen ...eher das Gegenteil ist der Fall & durch diverse
Stimmen erhält die Marke für mich pers. einen noch bitteren, herberen Beigeschmack & das überträgt sich leider auch auf das Label AMD!^^

Ich fand am geilsten, wo ich die Tage vom AMD FX-8320 im Zusammenhang mit High End Segment lesen durfte. Nicht das der CPU schlecht wäre, aber das ist einfach irreführend für jemanden der vielleicht keine Ahnung hat. Ich hoffe wirklich, das AMD 2015 und 2016 gute Grafikkarten und CPUs + Treiber rausbringt, allein an den Steam Hardware Statistiken kann man heute schon raus lesen, das sich alles Richtung Monopol = Intel & Nvidia entwickelt, was einfach nicht passieren darf.

@ TE,

Danke das du so viel geschrieben hast, hast du auch mal getestet wie viel FPS du in Ultra Low Settings minimal mit Mantle gegenüber der GTX 980 mit D3D bekommst?
 
Ein Monopol hat auch seine Vorzüge..
 
Ich hoffe wirklich, das AMD 2015 und 2016 gute Grafikkarten und CPUs + Treiber rausbringt, allein an den Steam Hardware Statistiken kann man heute schon raus lesen, das sich alles Richtung Monopol = Intel & Nvidia entwickelt, was einfach nicht passieren darf.
Daran kränkelt es nicht. AMD hat einige Produkte im Portfolio, die von der Preis-Leistung her sehr gut dastehen. Und die Steamstatistiken sind für den ganzen PC-Markt nicht aussagekräftig. Was wichtig ist, in welchen Fertig-PC's und Notebook's AMD-CPU's/-APU's stecken. Denn die breite Masse kauft von der Stange bei Mediamarkt, Expert, Saturn, Medimax, Conrad und Co. Und egal, bei welchem dieser Läden ich bummerln gehe. Von 30 verschiedenen Notebookmodellen sind 1-2 Stück mit AMD-APU bestückt. Und dann sind es nicht einmal die günstigsten. Bei den 20 Fertig-PC Modellen sind es meist nicht einmal einer. Wortmann (Terra) hat auch nur 2 Modelle. Aber der günstigste ist mit Sempron Quadcore-APU und kostet momentan 269 €. Das Teil geht weg wie warme Semmel. Ich arbeite in einem Systemhaus und weiß daher ganz genau, worauf die Kunden Wert legen. Und wenn sie bei großen Ketten als günstigste Modelle Celeron und Pentium vorgesetzt bekommen, warum sollen sie zu einem "Gaming-PC" mit FX-CPU greifen (das einzige Modell von Acer, das ich bei MM gefunden habe).

Bei der Beratung das gleiche. Ich durfte schon beobachten, wie einem potentiellen Kunden von einem Notebook mit AMD-APU abgeraten wurde und stattdessen dem Kunden für 700 € (statt 500 €) ein Notebook mit i3 und Geforce 820M Grafik verkauft wurde. Dabei sollte das Gerät nur für die Schule und dem Landwirtschaftssimulator sein, was die APU auch locker gepackt hätte. Und das AMD-Modell hatte 8GB RAM und das Intel-Modell nur 4GB. Der Kunde wurde also im Grunde dazu hin beraten worden, 200 € zu verbrennen. Ganz stark unser Einzelhandel ... ganz stark!

Klar hat AMD im HighEnd Sektor geschlafen. Aber da, wo AMD seine stärken ausspielen kann (bei der Preis-Leistung im Mid-/Low-End Segment) machen zum einen die Hersteller und zum anderen der Einzelhandel nicht mit. Die Hersteller liefern nicht genug Auswahl und die Händler verkaufen das bisschen, was da ist nicht. Habe sogar bei Conrad vor ein paar Wochen noch ein Sub-Notebook mit E-350 APU gesehen (Das Ding ist von 2011). Ob es Restbestand ist, weiß ich nun nicht. Aber wenn davon noch welche da sind und für 349 € und Windows 7 verkauft werden, da riecht das dann doch eher nach drumherum beraten.

Die Leute nehmen die Ergebnisse aus dem "High-End Sektor", wo AMD schlecht da steht und projezieren diese auf die ganze AMD-Produktpalette. Und schon will es niemand mehr. Angebot und Nachfrage. Ersteres ist Mau und letzteres wird durch den Verkäufer reguliert. War aber schon immer so!
 
Das Amd keine brauchbare CPU hat ist völlig überzogen. Aber das liegt nur daran das Intel seit den PiledrivervsSandyBridge 2011 bereits 2 vollständig neue Generation rausbrachte und denen auch noch ein Refresh gegeben hat.
 
ZotaC.T schrieb:
Das Amd keine brauchbare CPU hat ist völlig überzogen. Aber das liegt nur daran das Intel seit den PiledrivervsSandyBridge 2011 bereits 2 vollständig neue Generation rausbrachte und denen auch noch ein Refresh gegeben hat.
Genauso ist es. Der FX-8320 ist auch schon weit über 2 Jahre im Preisvergleich gelistet. Alle anderen aktuellen Intel-Modelle sind aus 2014. AMD hat sich komplett auf APU's konzentriert und sie hatten auch selber schon gesagt, das sie das High-End Segment nicht mehr bedienen wollten. Aber die Nutzer schreien förmlich danach. Und wenn sie es nicht verkacken, kann Zen die Heilung sein. Sie haben sich ja Jim Keller wiedergeholt. Und die ARM-SoC's von Apple sind von der Leistung her erstaunlich gut trotz auf dem Papier schlechterer Ausstattung. Aber das bleibt alles abzuwarten.

Noch ist aber von einem Monopol noch lange nicht die Rede. Momentan kauft zwar noch fast jeder nen Intel. Aber das kann sich spätestens 2016 ändern.
 
Mantle ist dazu da, den Overhead der CPU-seitigen Instruktionen aus der Grafik-API auf die GPU zu verlagern. Die Instruktionen können allerdings nicht verschwinden. Die Berechnungen müssen trotzdem erfolgen. Die Berechnungen müssen trotzdem erfolgen.
Mantle ist dazu da den CPU-Overhead der Ansteuerung zu reduzieren und nicht auf die GPU zu verlagern. Denn *irgendwie* müssen die API-Befehle und der API-State über den Treiberstack in Befehle an die GPU konvertiert werden. Gerade das ist relativ rechenaufwändig. Das Frontend selbst managt nur noch diverse Hardwarequeues und reicht die Befehle der Reihe nach weiter.

Da aber Architekturbedingt Grafikkarten die Art an Instruktionen weitaus schneller berechnen können, fällt es in den meisten Szenarien nicht ins Gewicht.
Selbst wenn es so wäre: Die programmierbaren GPU-Teile, also die CUs im AMD Jargon, sind sehr parallel. So kann die R290x zum Beispiel circa 100 000 Threads mit ihren CUs gleichzeitig bearbeiten. Deshalb eignen sie sich sehr schlecht für einfache "Kontrollaufgaben". Aus diesem Grund wird auch die Kontrolle der GPU durch kein Betriebssystem sondern durch spezielle Hardware, wie zum Beispiel das Frontend, das die Befehle von der CPU entgegen nimmt, übernommen. Dieser Hardwareteil ist aber nicht wirklich programmierbar, sondern reicht nur die Befehle an die übrigen Bestandteile der GPU weiter. Des Weiteren können die CUs auch nicht (oder nur extrem eingeschränkt) die GPU selbst ansteuern, also weitere neue Befehle in das Frontend einreihen.


Du hast mit dem Frontend recht. Es muss zur Kommunikation mit dem System ein Interface geben.. Dank Cuda oder OpenCL dürfte eigentlich klar sein, das es dem Hersteller überlassen ist, wie er das Interface/Frontend gestaltet.

Das Frontend ist auch für OpenCL und CUDA funktionell gesehen auf allen modernen GPUs weitgehend identisch, und weitgehend analog oder identisch zum OpenGL/DirectX/Mantle-Frontend.


Zusammengefasst also: Mantle KANN über das Interface und den Befehlssätzen der GCN-Architektur Berechnungen/Instruktionen auf die GPU auslagern und tut dieses auch. Das erklärt im übrigen auch den höheren Bedarf an VRAM bei Mantle: https://www.google.de/?gws_rd=ssl#q=mantle+vram
Wenn also auf GPU-Seite nichts berechnet wird, warum brauch Mantle soviel VRAM?
Wieder selbst wenn es so wäre: Diverse kleinere Kontrollaufgaben werden kaum ein deutliches mehr an GPU-DRAM-Platz benötigen. Deshalb würde ich primär auf das naheliegenste tippen: Anderes Speichermanagement der API und anderer Renderpfad.
 
TroaX schrieb:
Noch ist aber von einem Monopol noch lange nicht die Rede. Momentan kauft zwar noch fast jeder nen Intel. Aber das kann sich spätestens 2016 ändern.

Doch wenn die neuen High End CPU´s von Amd in 2 Jahren nur die Leistung eines i7 5960X haben war es das für sie fast endgültig. Denn wenn dann wirklich ein Achtkerner (ohne HT) vorrausgesetzt wird ist der schon wieder zu schwach.
Genau wie jetzt mit dem Core 2 Quad 9550. QuadCores sind jetzt schon Pflicht aber dafür ist dieser C2Q auch fast wieder zu schwach.

Aber wie gesagt ein Monopol hat auch seine Vorzüge..
 
t3chn0 schrieb:
So, das habe ich jetzt nochmal gemacht. CPU lief mit 4.9 Ghz. Was bedeuten denn diese Linien jetzt? Die Auslastung kann es ja nicht sein.

Und was kann man aus den einzelnen Bildern erkennen?

Das ist übrigens alles mit Direct3D , daher auch der Afterburner.


Das sind die Frametimes der CPU/GPU.

Das Video hier erklärts ganz gut. (ist zwar DAI aber die gleiche Engine):

http://www.pcgameshardware.de/Drago...ragon-Age-Inquisition-auf-alten-CPUs-1143762/


Mit Mantle sollten die Frametimes vor allem der CPU wesentlich besser aussehen, wobei hier bei dir die Linie eh schon recht glatt ist.
 
Was genau sagen denn die Frametimes aus?

Wie man sehen kann, springt bei mir die CPU-Frametime je nach Situation schon ganz schön nach oben. Dabei ist die GPU Last bei 100% und es sind nur noch ~50-60FPS.

Das ist aber nicht die Regel. Normalerweise habe ich in etwa 80FPS mit weniger von diesen Ausschlägen. Bei dem Gamestar Video sieht man ja sowohl bei der GPU als auch CPU unter D3D richtige "Zacken" die ganze Zeit.

Haben den Frametimes was mit den FPS zu tun, oder ist das eher ein Indikator für die "Smoothness" des Bildes? Ich habe die Sache mit den Frametimes nun bereits öfters im Zusammenhang mit Framepacing und SLI/Crossfire gehört. Niedrige Frametimes = wenige Microruckler. Kommt das so in etwa hin?
 
Die meisten tragbaren BerührungsbildschirmfernsprechapperateTM von Samsung, LG, HTC, Nokia und diversen China-Marken haben vermutlich CPUs und Grafikkarten von Qualcomm, so vergleichbar mit APUs, CPUs der Marke Snapdragon und Adreno-Grafikkarten. Diese Firma setzt mit Sicherheit viele Millionen CPUs ab. Da können die auch mal paar Grafikkarten und Prozessoren für den PC-Markt entwickeln. Es entsteht dann mehr Konkurrenzkampf, wo sich dann alle mehr ranhalten müssen, vernünftige CPUs und Grafikkarten zu entwickeln. Dann noch der Preiskampf.

Sind Intel und Nvidia alleine, artet das noch mehr in Apple-Preise aus. Hypothetischer I7 5790K mal eben 350-400€ und die größte Einzelchip-Karte, die keine Titan ist, kostet dann auch eben 200€ mehr.

Vielleicht denke ich auch zu einfach und es ist Quatsch, was hie steht?
 
So, ich habe jetzt fast 2h lang nur rumgetestet um mal überhaupt auszulooten wo die Limits sind. Das Ergebnis überrascht mich dann doch gewissermaßen sehr.

Bei mir ist der Unterschied in den reinen FPS verschwindend gering zwischen D3D und Mantle. Das Spiel hat mit Mantle etwa 4 FPS mehr.

Ich bin auf der Testrange immer an exakt die gleiche Stelle gegangen und konnte dort mittels Fixpunkt die FPS vergleichen. Da ich dank der AI Suite 3 und Afterburner auch noch Dynamisch den Takt der CPU und GPU anpassen kann, ist das doch sehr interessant.

Fakt ist, bei 1080P und Ultra Settings erreicht die Karte mit 1000Mhz Core Takt in etwa 99FPS. Bei 1100Mhz sind es gerade mal 103FPS, also ist der Unterschied für die Mehrbelastung der Karte quasi zu vernachlässigen. Getestet wurde mit CPU auf 4.9Ghz.

Zwischen 60 FPS und 100FPS klafft eine riesen Lücke was die Frametimes angeht. Bei 60FPS sind es etwa 27MS, bei 100FPS nur noch 11MS. Bei 144FPS sind es derer nur noch ~ 7MS, hervorragend und das merkt man beim Gameplay SOFORT.

Da ich Vsync an habe, erreiche hier somit maximal die 144FPS, das wäre perfekt.

Wie gelange ich also dahin? Es ist ganz einfach....(leider). Sobald ich das MSAA deaktiviere knallen die FPS unfassbar auf 144FPS Anschlag hoch. Das verwundert mich persönlich schon, denn bei der 970 als auch bei der 980 war dieser Sprung bei weitem nicht so groß. Zwischen 4xMSAA und 0xMSAA liegen satte 44FPS(Vsync) als Minimum!

Also wollte ich wissen, ab wann limitiert denn die GPU bei Ultra Settings mit 4xMSAA

Ich habe somit die Auflösung auf 1024x768 gestellt und MSAA deaktiviert.

Klar, hier liege ich komplett bei 144FPS nonstop. Dann habe ich auf der Auflösung 4xMSAA aktiviert und....klar...noch immer konstant 144FPS am Anschlag.

Anschließend habe ich eine noch immer sehr geringe Auflösung von 1280x1024 gewählt. Und siehe da....auf einmal sind es schon nur noch 135FPS. Dann im Afterburner den Log angeguckt und siehe da...bereits bei 1280x1024 und 4.9Ghz auf der CPU in Mantle, knallt die Karte ins GPU Limit. Und dann gehts auch genau so immer weiter runter. Pro Auflösungs-Schritt sinken die FPS um etw 5-10 Bilder. Bis wir am Ende bei 1080P bei 99FPS angelangt sind.

MSAA frisst also auf der Karte wirklich außergewöhnlich viel Leistung!

Ich kann meine 144FPS also evtl. doch mit einer 2. Karte erreichen.

Ob das jetzt gut oder schlecht ist, dass die Karte so früh ins GPU Limit rennt, weiß ich nicht. Ich kann nur sagen, dass die CPU in diesem Szenario auf jeden Fall stark genug ist für die konstanten 144FPS.

Mal gucken was ich jetzt mache....kniffelig.
 
Hiermit hast du trotzdem deine Bestätigung, dass deine CPU (zumindestens auf der Testrange^^) immer konstante 144FPS erreichen kann.
Die eine einzelne 290X ist aber zu schwach dafür -> ergo: eine zweite muss her, damit du mehr Grafikleistung hast. Bei BF4 ist die Crossfire-Skalierung auch um die 90%, d.h. in diesem Szenario bei diesen Settings solltest du damit stabile 144FPS erreichen. Ich sehe in deinem Test auch die Bestätigung darin, dass sich niemand über Mantle und dessen Performance beschweren muss. ( damit sind ein paar gewisse auffällige "Fanboys" gemeint). Denn Mantle macht genau das, für das es entwickelt wurde. Es sorgt für eine bessere CPU-Auslastung (ohne Rechenaufgaben auf die GPU zu verteilen!! Wie kommt man auf so einen Schwachsinn?^^) da es einfach einen geringen Overhead als DX11 besitzt. Mantle kann aber im GPU-Limit nichts erreichen.

Demenstprechend ist es fragwürdig, wenn man ein Szenario mit ca. doppelter GPU-Leistung (2x980) und somit im CPU-Limit gegen eine einzelne 290x im GPU-Limit stellt und daraus "Rückschlüsse" auf die Leistungsfähigkeit des AMD-Treibers im CPU-Limit zieht. Aber ganz vorn dabei ist auch mal wieder der liebe SuddenDeathSgt, dem ich eigentlich auch zutraue, dass er sich in diesen technischen Angelenheiten besser auskennt. Vielleicht war ja auch die Verlockung wieder zu groß Dampf in einem unterschwelligem Bash ablassen zu können ;) Wer weiss..
 
Das ist korrekt, auf der Testrange kommt die CPU auf mind. 144FPS, wahrscheinlich sind es aber noch deutlich mehr. Im Fenstermodus sind es immer 200FPS konstant.

Auf einem 64er Server sieht das dann aber total anders aus. Dort erreicht die CPU je nach MAP dann eben nur noch ~120FPS und genau da hoffe ich dann, dass Mantle seinen Job macht.

Vielleicht sollte ich doch mal in Richtung 295x2 schielen. Denn die XFX Karte wird im Single Betrieb schon sehr laut. Zwei davon kann ich mir echt nicht vorstellen. Auch wenn ich mit Kopfhörern spiele. Unter Wasser setzen will ich nicht, wegen der Garantie. Das ist immer sehr schlecht beim Wiederverkauf. Außerdem hat die Karte ein Custom-PCB.


So, gerade ohne Vsync getestet. Also, auf 1080P ohne Vsync kommt die Karte ohne AA bei 4.9Ghz CPU Takt auf ~160FPS mit Drops auf 140-150FPS.

Auf 1024x768 ohne AA, also reine CPU Last, IMMER konstant 200FPS, egal was ich mache und woher ich laufe. Ab 1280x1024 ohne AA fängt die Karte da langsam mit Drops auf 192FPS an, fängt also da an zu "limitieren". Solange ich die 144FPS konstant haben könnte, wäre ich perfekt glücklich!

Übrigens, um auch mal was positives zu sagen. AMD hat doch massiv am Treiber gearbeitet. Ich habe heute nach Ewigkeiten mal wieder Warthunder gespielt. Damals mit der VaporX habe ich das fast nur gespielt und da gab es massive Probleme mit der Performance. Nur deshalb wurde sie eingetauscht. Damals gab es immer Drops auf 50-60 FPS, wobei eine normale GTX780 Super JetStream schon fast immer konstante 120-144FPS hatte.
Heute getestet und die Karte macht quasi konstant 180-220FPS. Das ist zwar noch etwas entfernt von den fast 490FPS mit den 980ern im SLI, aber dennoch sehr gut ^^.

Mir ist aufgefallen. Wünschenswert sind immer Frametimings von ~ 10MS oder weniger. Dann ist das Bild absolut ruckelfrei und ultra-smooth. Gerade bei einem 144Hz Monitor sieht man das extrem. Ich glaube das auf einem 60Hz Monitor, wenn man es gewohnt ist, der Unterschied auch zwischen 50 und 60FPS kaum auffällt.
Auf dem 144Hz Monitor merkt man alles unter 100FPS schon gravierend.

Das mit den Frametimings ist wirklich super interessant.
 
Zuletzt bearbeitet:
Hallo. Ich spiele auch fast nur Bf4 und ziemlich oft Perlenmarkt.
Im ccc habe ich Texturen Qualität auf Performance gestellt.
Im Spiel selber muss nicht alles unbedingt auf ultra sein.
Nachbearbeitung / Effektqualität / Bewegungsdingens zum besseren
Erkennen der Gegner gerne auf mittel oder niedrig.
Auch sieht 2xAA und PostAA auf hoch immernoch ziemlich gut aus.
Vsync erzeugt inputlag-besser aus und die frames per user.cfg auf 144 limitieren.

Mit diesen Einstellungen erreiche ich immer 130-144 fps auf dieser wirklich fordernden Map ohne
dass das Spiel schlecht aussieht, während mein Kumpel im Ts ständig rumheult wegen seinen
Drops auf 90fps (er hat eine gtx 980 aber alles blind auf ultra hochgezogen) Kompetitives zocken ist bei mir damit möglich und ich lande immer unter den Top 5.

Das einzige was ich wirklich besser fand bei Nvidia als ich mal ne 970 zum testen hatte war neben der geringeren
Abwärme das adaptive Vsync, das war klasse!

Ansonsten bin ich mit meiner Msi R9 290 gaming 4g zufrieden, erst recht wenn man bedenkt dass
Ich nur günstige 208,-€ löhnen mußte (ebay schnapper).

Einfach nur Hardware kaufen reicht oftmals nicht aus. Man muss sich auch mit den Eigenarten
der Software auseinandersetzen und nichts anderes ist Bf4:ein komplexes Stück Software.
Grüße
 
t3chn0 schrieb:
Zwischen 60 FPS und 100FPS klafft eine riesen Lücke was die Frametimes angeht. Bei 60FPS sind es etwa 27MS, bei 100FPS nur noch 11MS. Bei 144FPS sind es derer nur noch ~ 7MS, hervorragend und das merkt man beim Gameplay SOFORT.

Wie sieht das ohne Vsync aus ?
 
@BookerDeWitt
Es freut mich, daß meine Aussage zum Nachdenken anregt(siehe nochmals Post#43^^) & dadurch steigert man auch das Niveau. Übrigens, nehme dir beim nächsten Mal auch bitte die Zeit & Muse um Namen richtig zu schreiben,
denn so viel Respekt sollte man schon aufbringen können ...Danke!

PS: Einen Gruß an die Suppe ... :lol:
 
Du kaufst im März 2014 eine Karte, dann kaufst du eine andere etwas teurere und stärkere Karte von der Konkurrenz, dann kaufst du das Flaggschiff der neuen Generation von Karten des selben Herstellers, welche noch einmal deutlich schneller ist als die welche du schon besitzt, und du kaufst gleich zwei von ihnen. Dann verkaufst du sie und kaufst im Januar 2015 nochmal die gleiche Karte die du schon im März 2014 hattest, und zwar nur eine davon, um das Doppelgespann der derzeit stärksten Karte zu ersetzen, in deinen worten um zu sehen was sich getan hat, und bist dann überrascht und enttäuscht das diese eine Karte, die schon das erste mal als du sie hattest langsamer/gleichauf mit der vorherigen Generation der Konkurrenz war, nun immer noch langsamer ist als zwei Karten der nun neueren Generation?

Was soll sich denn getan haben bei der gleichen karte, es ist kein neues Modell rausgekommen, also bekommst du genau das was du schon mal hattest. :freak:
 
Und den echten Fortschritt in Form von G-Sync/Freesync ignoriert er, obwohl diese Techniken genau dazu da sind, die üblen Nebenwirkungen von Framedrops im Vsync-Modus loszuwerden.
 
Zurück
Oben