Mein AMD-Erlebnis (eine Art "Tagebuch")

@ MikelMolto

Dann liegt das an der SSC. Bei meiner gehen nur 110%
 
Das ist korrekt, FTW und SSC dürfen 115% erreichen, da diese andere Komponenten verbaut haben, als die anderen Versionen.
 

Anhänge

  • 115_PT.JPG
    115_PT.JPG
    110 KB · Aufrufe: 501
grossernagus schrieb:
Auch wenn ich selber die EVGA 970 habe, kann ich nicht verstehen, wie man jetzt noch Nvidia nach diesem Skandal Geld in den Arsch blasen kann.

Techno und Mikelmolto waren sich ja bewusst, dass Nvidia betrogen hat und können offenbar daher mit 3,5GB leben, zumal es für diesen Preis keine Alternativ bei Nvidia gibt.

Aber mir kam die 970 nicht in den Plan, da fast keine Mehrleistung gegenüber 780.
 
Zuletzt bearbeitet:
Das ist komisch ^^. Ich hatte vor den 970er Referenz-Karten eine 780Ti, sogar die Kingpin Edition und diese habe ich auch ordentlich "betaktet" ^^ und eine Referenz 970er hatte bei mir schon in den Benchmarks zumindest fast die gleiche Leistung und bei BF4 war sie sogar leicht schneller. Das bei kaum OC und dann noch deutlich effizienter.

Ich hatte auch mal 2x 780er SuperJetstream im SLI. Da sind die 970er aber ordentlich schneller gewesen.

Hmm, irgendwie macht jeder andere Erfahrungen :freak:
 

Anhänge

  • IMAG0143.jpg
    IMAG0143.jpg
    324,8 KB · Aufrufe: 599
  • IMG_20140830_151844.jpg
    IMG_20140830_151844.jpg
    525,5 KB · Aufrufe: 596
"Back 2 the roots" & da werden doch Erinnerungen an den Zeitraum September 2014 geweckt ...^^
Glückwunsch zum SLI-Gespann & mit dickem OC kann sich die erbrachte Leistung doch wahrlich sehen lassen ...was sage ich ...auch schon @Stock!^^
Halte das Krüppelgespann in Ehren & bis Pascal bist Du da mMn gut gerüstet ... :-)
 
Diablo 3 läuft jetzt mit DSR (4K) Auflösung, mit Max-Settings, incl. AA mit bis zu 250FPS. Dabei verbraucht der Rechner in etwa 430W komplett.

Gehe ich auf 1080P mit 144Hz und Vsync (butterweich), dann liege ich bei 180-200W ^^. Ohne Vsync komme ich auf bis zu 560FPS.

Zum Vergleich, die FuryX kam auf maximal 320-340FPS. Eine einzelne 970 auf 280-290FPS. Skaliert also perfekt. Die Speicherauslastung bei 4K mit AA beträgt dabei 1.2GB ^^.

Hier spielen ja scheinbar alle GTA V. Ich bin gar nicht soooo der riesen Freund von GTA, auch wenn ich Teil 1 und 2 gerne gespielt habe (vor allem im LAN^^). Mafia liebe ich dafür wirklich und ...ich freue mich so sehr auf eines der weniger Singleplayer Games, dass ich wirklich wirklich liebe....Just Cause 3 ....:love::love::love:

Ich habe vorhin wieder ein Gameplay Video gesehen. Einfach genial mit dem Wingsuit, komplette Städte einäschern...tolle Physik...riesen Explosionen. I like!
Ergänzung ()

Ich muß dennoch kurz was los werden.

Das ist doch wohl jetzt ein mega Scherz, oder? Warum kommt so eine Karte bitteschön nicht direkt zum Release raus? Ich könnte jetzt wirklich durchdrehen. Klar kann man jetzt sagen, dass ich es selber Schuld bin, weil ich nicht abwarten konnte, aber mit so einer Iteration habe ich niemals gerechnet.

http://www.hardwareluxx.de/index.ph.../36032-asus-radeon-r9-fury-strix-im-test.html


Die Karte ist im Idle lautlos
Unter Last nahezu unhörbar
Kein Spulenfiepen
Temp. unter Last : 71°C
Und einen DVI-D Port....


Ich meine....WTF is going on. Die Karte macht eigentlich EXAKT genau das besser, was ich an der FuryX kritisiert habe ....:o:o:o:o:freak::freak::freak::o:o:o:heul::heul::heul::pcangry::kotz:


Ich kann, will und werde jetzt aber nicht wieder die 970 zurück schicken. Nein nein nein nein! Aber die Verlockung ist verdammt groß.

Nur, die Karte hat DEUTLICH weniger Dampf, als meine beiden 970er. Also würde ich noch viel mehr Aufwand betreiben für weniger Leistung.

Aber ohne Witz...sowas regt mich mal richtig auf. So eine Fury Strix zum Release für 500€.... liebe Freunde von AMD...irgendwer sitzt da bei Euch, der seinen Kopf für alles benutzt, nur leider nicht zum Denken.
 
t3chn0 schrieb:

Ich sage mal so, nicht genug Mehrleistung, um lohnenswert zu sein. Meine 780 war schon mit 1097MHz schneller als Titan Classic (Ref.) und kam an 780TI ran. Außerdem kein SLI. Die 20-30% Mehrleistung der 980 sehe ich bei Far Cry 4, bei Minecraft leider nicht, da ich mit dem Shader noch stärker im CPU-Limit hänge. :kotz:

Karte geht nächste Woche auf RMA-Tour und ich muss mit 1/4 der Leistung auskommen.
 
Also ich bin wirklich mal wieder positiv überrascht.

Ich habe soeben meine erste SLI Runde in BF4 gedreht und scheinbar hat sich an den Treibern echt was getan.

Ich habe mein Ziel erreicht. Ich kann es kaum glauben, aber ich kann gerne ein Video machen.

Siege of Shanghai, 64 Spieler, CPU @ 4.5Ghz und Grafikkarten mit Werkseinstellung.


1080P, komplett Ultra Settings, inklusive 4xMSAA, durchgehend 145-200FPS, nie unter 145FPS, ein Traum wird wahr!

Ich habe mich jedoch so an die "Medium" Settings gewöhnt, dass ich diese auch mal testen musste. Immer 185-200FPS, durchgehend. Die 185 FPS nur, wenn man wirklich in der Mitte steht und alles explodiert und viel geschossen wird.

Ich habe dann auch mal direkt 4K auf Ultra Settings getestet. Mit 4xAA auf 4K und Ultra, komme ich noch immer auf 60-80FPS, ohne MSAA und Rest Ultra auf 4K, immer 80-100FPS. Keine Ruckler, keine Speicherprobleme, nichts. Karten bleiben schön leise. Ich habe sogar eine Runde auf 4K Ultra komplett durchgespielt und war wirklich angetan.

Mir sind die 80-100FPS zwar deutlich zu träge, aber es ist dank der 144Hz über DSR und 4K sehr gut spielbar. Es spielt sich so, wie mit der FuryX auf 1080P "High" Settings und Mantle.

So smooth läuft es mit den 970ern auf 4K Ultra ohne MSAA. Wirklich fantastisch für die kleinen Karten.
 
Ist der aktuelle 353.30, habe wirklich gar keine Probleme mit dem Treiber.
 
Naja, wenn die Grafikkarte defekt ist, dann hilft auch eine Neuinstallation oder Treiberwechsel nicht ;)
 
Ja, Abtrittserklärung dank des Verkäufers nicht vorhanden, konnte Gigabye aber überzeugen. Sogar Mindfactory hat dann angeboten, die Karte auf meinem Konto zu schreiben und sie zum Distributor zu schicken. MF werde ich dann nutzen, falls mir GB meine Karte zurückschicken sollte an Stelle einer neuen. Dass MF mir RMA anbietet, rechne ich denen positiv an.

Ich habe ja nicht mal Grafikfehler oder so, aber wenn bei Far Cry 4 der Treiber verschwindet, ist das bedenklich. Teilweise die gleichen Treiber, wo bei der 780 nichts passierte.

Vielleicht kribbelt es bei Techno und er holt sich doch eine luftgekühlte Fury. Dann kann er bitte mal überprüfen, wo der Throttle ist. Bei 75°C TT wird die bei sommerlichen Temperaturen zu 99% drosseln. Außerdem kann Techno dann je nach Spiel (kommt ja evl. BF5) Fury oder 970-SLI benutzen.
 
Zuletzt bearbeitet:
Kann mir vielleicht bitte nochmal jemand erklären, wie das mit den "Drawcalls" funktioniert?

Was hat denn jetzt genau Einfluss darauf?

Ich habe den Drawcall Test von 3DMark jetzt durchlaufen lassen und habe quasi egal ob mit einer, oder zwei Karten, gleiche Ergebnisse.

Warum ändert sich durch die 2. GPU das Ergebnis nicht? Ist das Ergebnis identisch, weil die CPU (in dem Fall mit 4.5Ghz) nicht mehr schafft?

Quasi limitiert die CPU, bevor die GPU limitiert unter DX11, ist das korrekt?
 

Anhänge

  • 2xGTX970_drawcalls_default.JPG
    2xGTX970_drawcalls_default.JPG
    115,7 KB · Aufrufe: 478
  • GTX970_drawcalls_default.JPG
    GTX970_drawcalls_default.JPG
    115,4 KB · Aufrufe: 427
Die Drawcalls sind, wenn ich das nicht völlig falsch verstanden habe, nur die Anzahl an "Renderaufträgen) die die CPU an die GraKa senden kann. Entsprechend nutzen mehr GraKas also nichts da beim Drawcall-Test eben nur deine CPU (und die API) getestet wird.
 
Endlich bekomme ich auch mal etwas Rückendeckung in Form von Fakten.

Ich hatte ja sowohl einen Gsync, als auch FreeSync Monitor hier. (Asus ROG Swift & Acer Predator), beides 144Hz , 1440P TN Panels.

Ich hatte ja bereits berichtet, dass ich beide Verfahren für Shooter, als nicht geeignet finde. Auch der Bezug zu meiner Unternehmung, möglichst immer mit 144FPS+ spielen zu können, stieß teilweise auf Kopfschütteln.

Ein neues Video von LinusTechTips gibt jetzt klarheit und bestätigt meine Eindrücke absolut. Sowohl Freesync, als auch Gsync liefern mit ~30ms Input-Lag für mich katastrophale Ergebnisse ab. Diese Verzögerung entsteht schon bei 144FPS. Bei 45FPS liegt die Verzögerung bei sogar 100ms und ist damit für Shooter absolut ungeeignet. Trauriger Weise nehmen viele sowas gar nicht wahr.

Wenn man competitiv spielen möchte, dann ist sowas im Shooter-Bereich ein absolutes no-go. Erträglich wird es erst bei Vsync OFF und ~200FPS. Da erreichen die Panels ~20ms Input-Lag.

Zum Vergleich. Ein 144Hz Panel mit 144FPS ohne Vsync, ohne Gsync und Freesync Technik, liegt bei ~14ms. Bei 200FPS sogar bei ~5-8ms.

Beim Vergleich an sich, ist mal Freesync und mal Gsync besser, je nach Konstellation.

Wer "normale" Spiele bevorzugt, ist mit solchen Panels mit Sicherheit gut bedient. Für alle competitiven Shooter-Spieler muß man sagen, dass man lieber versuchen sollte mit guter Hardware auf einem normalen 144Hz Monitor möglichst hohe Werte zu erreichen.

Komisch, dass da kaum jemand drüber berichtet.


https://www.youtube.com/watch?v=MzHxhjcE0eQ
 
Weil die competitive Shooterszene nach Unreal Tournament 2004 und Quake 3 bzw. Live den Bach runter gegangen ist.
Wenn ich mal bedenke wie groß die LAn-Partys damals waren. 1500 Leute und Preisgelder im 10k Euro Bereich. Schade das die Zeit vorbei ist...heute sinds die Mobas und Starcrafts dieser Welt...damit kann ich leider nich soviel anfangen.

Battlefield und Call of Duty sprechen mich da auch nich wirklich an...und ich denke das geht vielen anderen die gerne schnelle Arenashooter spielten sehr ähnlich, zumal man ja sowieso nichts von größeren Turnieren hört oder den alten ProGaming Clans.

Gibt es sowas überhaupt noch?

Naja wie dem auch sei, ich denke das dies ein Grund ist warum niemand hierzulande darauf Acht gibt wie groß der Inputlag bei nem Monitor ist. (Stichwort Casualgamer)
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Ein neues Video von LinusTechTips gibt jetzt klarheit und bestätigt meine Eindrücke absolut. Sowohl Freesync, als auch Gsync liefern mit ~30ms Input-Lag für mich katastrophale Ergebnisse ab.

Es gibt leider überhaupt keine Klarheit, weil nur der Lag der gesamten Verarbeitungskette inklusive USB-Polling und Game-Engine gemessen wird. Eine Vergleichsmessung bei abgeschaltetem G-Sync/Freesync fehlt, und nur die Differenz zu dieser wäre interessant. Eine Referenzmessung mit Röhrenmonitor wäre noch besser.

Die Blurbusters haben es besser gemacht:

http://www.blurbusters.com/gsync/preview2/

Und siehe da: kein zusätzlicher Lag, abgesehen von dem bekannten Vsync-Lag, wenn G-Sync an die 144-Hz-Grenze donnert (Messung CS:GO maxfps 143 und 300).
 
Daher haben wir Elektroingenieure ja auch die Weisheit: Wer viel misst misst Mist!
 
Mir kam heute mal ein ganz simpler Gedanke, der aber doch viel die aktuelle Marktsituation erklärt.
Ich habe ja stets gepredigt NV habe den GM204 direkt in 28nm designed und nicht nur kurzfristig angepasst. Wie falsch ich doch lag. Guckt man sich die Die-Größen mal an, so hat NV ja stets gewisse Maße die sie eingehalten haben. Der High-End Chip hat z.B. ~550mm², die Mittelklasse liegt bei etwa 300+mm² usw.

Jetzt habe ich mal ein paar Rechenspiele angestellt. Grundsätzlich ermöglicht ein neuer Prozess eine Verdoppelung der Transistordichte; bzw. zu beginn nicht ganz, aber zumindest annähernd. Was heißt das nun für uns?
Der GM200 bringt es auf stolze 601mm². Rechnet man diesen Chip pi mal Daumen in 20nm um erhalten wir einen Chip mit ca. 320mm² - ohne gesteigerte DP-Leistung. Beim GM204 mit 398mm² bringt uns das ganze dann zu ca. 220mm². Das bringt mich zur Vermutung dass NV (und auch AMD wie man an Fiji doch recht deutlich sieht) von dem für GraKas ungeeigneten 20nm Prozess überrascht wurden und provisorisch etwas zusammen basteln mussten.
AMD hat die aktuellste, fertige, Iteration von GCN (Tonga) genommen und größtenteils Verdoppelt; dazu "lediglich" ein HBM-Interface angeflanscht. So war es möglich mit verringertem Entwicklungsaufwand einen neuen High-End Chip zu fertigen obwohl dieser ursprünglich nicht geplant war.
Nvidia hat das etwas eleganter gelöst (vielleicht war Maxwell einfach schon weiter in der Entwicklung, oder die HBM-Integration in die neue Architektur war schwieriger als erwartet). Man hat, wenn man sich die Chipflächen und die Features anguckt, lediglich die kleineren Chips in 28nm gefertigt, wo sicherlich trotzdem kleinere Anpassungen nötig waren, und so eine neue Generation geschaffen. Der ~200+mm² GM106 wurde so zum 398mm² GM204 und der ursprüngliche 320mm² GM104 wurde... der GM 200. Das erklärt gleichzeitig auch wieso die DP Leistung wegrationalisiert wurde - sie war nie vorgesehen. Sicherlich stinkt es NV auch keine Tesla auf GM200 Basis mit DP Power liefern zu können, aber andererseits konnte man so mit geringem Aufwand ein eigentlich nicht mehr brauchbares Design wiederbeleben.

Dabei ist der GM100 aber wohl endgültig begraben worden da man diesen natürlich niemals in 28nm fertigen könnte. Und für 16nm ist dann ja schon direkt Pascal geplant.

Kurzum: GM200 ist eigentlich nur ein Mittelklassechip für 20nm gewesen.

Dabei sei natürlich angemerkt dass das nur eine These ist. Diese lässt sich aber, meiner Ansicht nach, durchaus logisch herleiten und ergibt ziemlich viel Sinn. Aus den gleichen Gründen musste AMD eben schnell was schaffen und da HBM erst einmal nur für das Flaggschiff vorgesehen war konnte man wahrscheinlich nicht mal eben den nächstkleineren Chip hochskalieren ohne sein Gesicht zu verlieren. So wurde "mal eben so" Fiji als Tonga- HBM Hybrid geboren.
 
Zurück
Oben