Mein AMD-Erlebnis (eine Art "Tagebuch")

50% kommt hin. Auf 980 von 80 runter auf 40FPS, auf 780 von 60 runter auf 20FPS.

Die 15xxMHz Boost mit 1,2xxV Spannung sind aber wohl eigenes OC? Bei 1450MHz mit 1,21V Standardspannung war ich auch schon.

Die 3,5 schnell angebundenen GB Speicher reichen bei kleineren Auflösungen noch mehr für Far Cry 4. Sowohl mit 780 als auch mit 980 war die Durchschnittsauslastung bei mir bei rund 2500-2700MB, wobei ich aber auf Full-HD war und noch auf teures AA verzichtet habe und das günstige AA genommen habe sowie wegen Bugs teilweise kein Nvidia-Schatten und wegen Leistungseinbruch kein Hairworks benutzt habe.

Falls du GTA 5 auch spielst, werden zwei 970 genügend Leistung für Einstellungen bieten, wo dann die 3,5GB dann nicht mehr reichen. Mein Kepler-Speicherkrüppel ;) lieferte auch schon Nachladeruckler, weil ich schon da Einstellungen hatte, die auf der 980 ~3,5GB füllen. Voll geht ihr Speicher bisher nur bei Minecraft. Aber in die Richtung würde es auch bei der TI und X gehen. :)
 
Zuletzt bearbeitet:
O-Saft-Killer schrieb:
Er ist noch viel mehr, wenn du die Hardware hast um auch entsprechende FPS raten in deinen Spielen zu erlangen^^

Kann nicht mehr ins Kino gehen, seitdem ich meinen 144 HZ habe, weil die 24 Bilder dort so schrecklich scheiße aussehen. Ist natürlich auch einen Nachteil, du nimmst alles mit 30 HZ noch schlechter war, als du es jetzt schon findest, das solltest du vorher wissen.;)

Ja, es war eine Wohltat für die Augen die Hobbit-Filme zu sehen. 48fps-Videos sind da für mich schon 5x erträglicher gewesen. Seit ich meinen LCD 60Hz hatte bekam ich durch die Gewöhnung im Kino Kopfschmerzen. Nach 3 Jahren das erste Mal ohne dass die Augen weh taten und das obwohl der Film Überlänge hat :daumen:

Ich warte echt noch auf einen 21:9 1440p DisplayPort 120-144Hz Monitor mit einem IPS (oder halt PLS)-Panel (und am allerliebsten mit A-Sync). Gott, ich würde meinen 24" sofort spenden wenn ich jetzt und hier die Chance auf einen hätte :evillol:
 
Hollywood & Co. sollten ab sofort die Filme überhaupt in 144 Bildern pro Sekunde drehen und vermarkten. Und die Kinos sollten das auch so abspielen können. Dann einigt sich der Filmmarkt mit dem Spiele- und Heimcomputer-Markt. Alles auf 144Hz und 144 BPS/FPS und gut ist... :freak:


30 BPS und Kopfschmerzen bei Filmen, kommt mal wieder runter! :freak: Kino gibt es seit wievielen Jahrzehnten? :rolleyes:
 
Volle Zustimmung!
Es wird gerne etwas übertrieben und sei es nur, um sein eigenes gekauftes Produkt "schön zu reden" ;)
 
Also Kopfschmerzen bekomme ich im Kino nicht. Mich stört dieser 3D-Trend sogar etwas.

Ich habe keine Probleme damit einen ganz normalen Film im Kino zu sehen. Die 48 Bilder Filme, wie "Herr der Inge", finde ich aber schon ganz gut. Da merke ich den Unterschied auch. Es ist aber auf keinen Fall bei mir so, dass ich die normalen Filme deshalb nicht mehr sehen kann.

Womit ich aber definitiv Probleme habe, sind mittlerweile 60Hz bei Shootern. Bei normalen Spielen wie Diablo 3, ist der Unterschied zwischen 60Hz und 144Hz nicht so groß, wenn auch vorhanden.

Bei Shootern ist das jedoch komplett anders. Wenn man sich an die 120/144Hz gewöhnt hat, dann kann man kaum noch mit 60Hz spielen. Der Unterschied ist einfach gewaltig.

Wer das bestreitet, hat sich entweder noch nie einen 144Hz Monitor angeguckt, spielt Spiele bei denen das nicht so ins Gewicht fällt, hat ein Problem mit seinen Augen, oder will es einfach nicht Wahr haben.

Der komplette Bildaufbau ist total anders. Alles ist super smooth, scharf, bei schnellen Drehungen gehen keine Details verloren, es gibt kaum Tearing, weniger Inputlag, alle Animationen sind deutlich flüssiger, Reaktionszeiten verbessern sich etc.

Für mich war der Umstieg von 60Hz auf 144Hz, wie der Umstieg von HDD auf SSD.
 
Der 3D-Trend stört mich auch
Ich habe zwar entsprechendes Equipment um mir 3D Filme anschauen zu können aber ein großer Fan davon war ich noch nie. 3D ist auch nichts neues, sondern gab es bereits in den 70ern? und war auch da kurzzeitig im Mode. Nun sind wir an den Punkt angelangt wo man 3D in jedem 0815 TV bekommt und somit versucht die Technik Populär zu machen. Im jetzigen technikstand ist die jedenfalls noch nichts für mich.

Bei Shootern ist das jedoch komplett anders. Wenn man sich an die 120/144Hz gewöhnt hat, dann kann man kaum noch mit 60Hz spielen. Der Unterschied ist einfach gewaltig.
Klar, der Fortschritt bleibt nicht stehen und selbstverständlich ist der Unterschied gerade in Shootern Enorm. Aber man sollte auch die Kirche im Dorf lassen. Es wird neuerdings so getan als könne man mit einem 60Hz Monitor nicht spielen. Ähnliche Übertreibungen findet man momentan auch im Bereich Auflösung. z.b. 27" und 1080p geht ja mal überhaupt nicht. Man sieht jeden Pixel aber ein TV in 60" und Full HD ist wieder voll Okay :D
 
Ich finde das mit dem krampfhaften 3D auch Grauenhaft. Mittlerweile spare ich mir das Geld im Kino auch weil ich es nicht einsehe nur wegen ein bisschen mehr Bildtiefe eine Brille tragen soll.
Bezeichnend ist dass ich die beiden besten 3D Effekte nicht in Filmen im Kino, sondern zum einen bei Avengers, den mein Fernseher auf 3D hochgerechnet hat, und in einem komischen Disneyspot im Kino. Letzterer war richtig schön gemacht mit einer Bühne die scheinbar 5 Meter vor der Leinwand stand.

Meinen 24 Zöller fand ich schon an der Schmerzgrenz für FullHD, wobei das Bild jetzt nicht schlecht war. Der 27er mit 1440p ist aber deutlich schärfer. Leider frisst die neue Auflösung meine Mehrleistung inklusive OC leider wieder auf ;)
 
Bei mir ist einfach das Problem mit den 27" und 1440P, dass ich es wirklich zu "fein" finde.

Wenn ich Warthunder oder BF4 spiele, dann sind die Fadenkreuze deutlich feiner, auch die Gegner sind feiner und "kleiner". Mir fällt es damit deutlich schwerer, schneller zu zielen.

Deshalb finde ich auch diesen neuen BenQ 34" Curved Monitor mit 1080P und 144Hz so mega interessant. Eigentlich genau das was ich suche =).

Ich möchte aber noch was anderes kurz ansprechen. Hier ist nochmal dieser "Chief Gaming Scientist" von AMD im Interview:

https://www.youtube.com/watch?v=DuA3T9MzNic

Er sagt ganz klar, dass die 390er Karten kein einfaches Rebrand sind, sondern ein modifiziertes Silicon haben und deutlich effizienter sind. Auch könne man keine 290X und eine 390X im Crossfire betreiben.

Für alle die hier so sehr auf die Nano warten. Er sagt relativ früh, dass die Nano von der Performance her im Bereich 290/390 liegt. Also NICHT zwischen 390X und Fury. Einziger Vorteil sei die kompakte Bauweise durch HBM. Dadurch könne man problemlos Multi-GPU Systeme erstellen (wo er Recht hat).

Denn 3x Nano im CFX und der kompakten Bauart, haben schon Power. Allerdings kennen wir den Preis ja noch nicht und wie laut/warm die Karten werden. Interview lohnt sich wirklich.

Schade dass hier nicht mehr mit diskuttieren.
 
Ich frage mich vor allem, ob die 200-Serie die selben Treiberverbesserungen bekommt wie die 300-Serie. Im Moment sind die Karten gar nicht wirklich miteinander vergleichbar, da in den Tests unterschiedliche Treiber zum Einsatz kommen.
 
Ich hab jetzt die letzten Seiten ein bisschen mitgelesen und fühl mich schon ein wenig zurückversetzt in die Zeit als ich auch so Enthusiast war und alles nur erdenkliche getan habe um mehr Frames zu bekommen. Damals aber noch bei Battlefield 3.

Damals extra nen 6-Kerner, schnelle Ram, 6970 crossfire (mega hochgetaktet und ein extra Kühler drauf :cool_alt:).
Ich war ja schon froh nen erschwinglichen WQHD IPS Monitor zu bekommen :D

Wenn mich dabei eins gelehrt hat ist, dass man noch so viel Geld da reinschmeißen kann, aber das nie reicht um die schlechte Programmierung auszugleichen.
Inzwischen bin ich mal aus Spaß auf ne GTX umgestiegen weil ich einfach mal wissen wollte wies da so läuft. Aber nachdem seit Oktober 2014 alles super lief bei BF4 und jetzt nach dem neusten Update iwelche Ruckler oder Abstürze entstehen bin ich froh mir da kein Stress mehr zu geben.

Ich hoffe das bei BF 5 die hardware einerseids und die Entwickler andererseids so harmoniern das BF 5 in WQHD auf 144fps möglich ist (evtl. neuer Hardwarekauf vorausgesetzt).
Vorher würde ich mich da nicht mehr so abmühen.

Aber finde das cool wie du alles kleinlichst vermerkst. :)

Bei dir geht’s immer nur um die AMD Grafikkarten (klar ist ja auch der Threadtitel) aber wie siehts denn aus mit nem Intel upgrade? 6-Kerner sind doch bei BF 4 performanter.

Edit: Achso und: Passt nicht, gibts nicht. Da wird ein neues Gehäuse gekauft wenn mal ne Grafikkarte nicht passt. :evillol:
 
Zuletzt bearbeitet:
Dank einer neuen Pumpenrevision soll die R9 Fury X jetzt deutlich leiser sein. Berichtet jedenfalls PCGH: Radeon R9 Fury X jetzt leise: Neue Pumpenrevision im Handel angekommen

Bei Nutzern häufen sich jetzt die Meldungen, dass diese neue Version deutlich leiser sein soll. Viele davon hatten vorher ein lautes, auf Dauer kaum ertragbares Modell, jetzt könne man die Fury X aus einem Gehäuse unter dem Schreibtisch nicht mehr heraushören.

Warum nicht gleich so AMD? Jetzt hat man schon die negative Publicity, die sich leider in vielen Köpfen festgesetzt haben wird.
 
Wenn es danach geht dürfte sich keiner eine Nvidia zulegen, die ja in letzter zeit äußerst oft mit spulenfiepen zu kämpfen hat aber darüber wird nicht so oft berichtet ;)
Laut CB Volker ist die Meldung bezüglich einer neuen Pumpe falsch.
Volker schrieb:
Das ist keine neue Pumpe, alles gefährliches Halbwissen. Es gibt, wie bereits geschreiben, bisher 3 Deckel: Ein Aufkleber, ein anderer Aufkleber und gar kein Aufkleber. Und da ist nichts anders, wir haben alle drei schon hier gehabt^^ Das sind nur andere Produktionslinien, aber immer noch die erste Charge. Deshalb sind die Berichte ja eben auch schon so, dass die auch fiept. Aktuell musst du weiter einfach Glück haben.
 
Über das Spulenfiepen bei Nvidia wird nicht oft berichtet? Dann lagst du aber fest im Winterschlaf. Bei der 970 ging das noch und nöcher durch die Presse. Da wurden Videos gemacht, erklärt und verglichen...

Das konnte man gar nicht verpassen.
 
Ich will jetzt kein "Fanboykrieg" entfachen aber das Spulenfiepen der Nvidias wird von einigen Usern, die sich jetzt über die Geräusche der AMD "aufregen/lächerlich" machen noch zu vorher als "belanglos" betitelt. Einzig das wollte ich mit meinem Beitrag kundtun

Dabei wäre es mir egal ob Rot oder Grün, solch unschöne Frequenzen möchte ich nicht verbauen und gehört schleunigst gefixt.
 
Unter Spulenfiepen leiden aber alle Grafikkarten ab einer gewissen FPS-Zahl (hohe dreistellige oder gar vierstellige Werte). Ich erinnere mich zum Beispiel noch gut an die Intro-Videos des ersten Crysis. Die liefen komplett ohne FPS-Limit ab und somit im hohen vierstelligen FPS-Bereich. Bei sowas fiept sich jede Grafikkarte zu tode.

Bei der R9 Fury X geht es ja speziell um das Fiepgeräusch der Pumpe, welches so penetrant ist. Das sollte von AMD und seinen Partnern dringend angegangen werden.
 
sehe ich auch so aber laut Volker soll die Meldung wohl eine Ente sein obwohl bereits zwei? Magazine darüber berichtigt haben. Jetzt ist die Frage wer hat Recht/unrecht aber ich kann mir gut vorstellen das man bereits daran arbeitet das Problem zu Fixen
 
Ich gehe schwer davon aus dass es nur darum ging dass die Pumpe die gleiche ist. Ob nicht eventuell Maßnahmen unterhalb der Abdeckung vorgenommen wurde ist dadurch ja nichts ausgeschlossen.

Aber, und das ist Fakt: Die Negative Publicity hat AMD damit schon gebucht. Vor allem bei den Pressesamples ist das natürlich bitter. Zusammen mit der Ankündigung dass die Retail-Samples nicht von dem Problem betroffen seien (was ja zumindest bei der ersten Charge nicht stimmte), hat AMD damit erneut die eigene Unfähigkeit im Bereich Marketing bewiesen.
 
Ich kriege das einfach nicht in den Kopf rein.
So eine enorm wichtige Neuvorstellung von AMD die ja schließlich Weltweit getestet und verkauft wird. Da kommt keiner von denen auf die Idee eine Fury von meinetwegen 5 unabhängigen Leuten 1-2 Wochen testen zu lassen? Niemanden bei AMD fällt so etwas auf?
So langsam glaube ich, dass AMD ganz genau gewußt hat, das die Dinger im Idle laut sind aber der Druck die GPU zu veröffentlichen war einfach zu groß und niemand wollte den Release verschieben. So nach dem Motto jetzt bringen wir die Fury erst einmal und nachbessern können wir ja immer noch.

Ich weiß schon warum ich egal von welcher Firma immer erst kaufe, wenn es nicht schon mindestens 3 Monate auf dem Markt ist.
 
Allgemein finde ich es schon etwas dumm von AMD so viel Zeit und Geld in die Frühzeitige Nutzung von HBM zu investieren. Ein komplett verdoppelter Tonga (bzw. mit etwas weniger Shadern) mit ordentlichem GDDR5 RAM an einem 512bit Interface und verringerten Taktraten (850-900MHz) wäre weitaus schneller zu entwickeln gewesen, tendenziell gleich groß oder kleiner wie Fiji und vor allem wäre man schon deutlich zeitiger fertig gewesen. Im Notfall hätte man den Chip auch teildeaktivieren können um ordentliche Yields zu sichern.

Man stelle sich mal vor: NVidia liegt mit der 980 Performancetechnisch leicht vorne und verbraucht dabei annehmbar viel Strom. AMD kontert mit einem echten BigChip der mit ~3.712(-6CUs)/3.840(-4CUs) - 4.096 Shadern daher kommt, wie gesagt vielleicht auch teildeaktiviert. Der BigChip hat doppelt so viel Speicher wie die Konkurrenz, läuft mit einer guten Effizienz und lässt sich auch noch halbwegs übertakten. Die parallelen zur Ur-Titan habe ich nicht ohne Grund gezogen ;)
Das Ding wäre der erhoffte Knaller geworden und AMD hätte wirklich Titan Preise aufrufen können und keiner hätte sich beschwer. Dann hätte NV mit BigMaxwell gekontert und wäre im Zugzwang gewesen. Und dann hätte AMD immer noch den Vollausbau in der Hinterhand gehabt.

Aber gut, Hätte, Wäre, Wenn, Aber... Fakt ist dass sie es leider nicht getan haben und dann mit der Fury die hohen Erwartungen an Leistung, Lautstärke (Fiepen) und Übertaktbarkeit nicht erfüllen können. Dazu diktiert NV mit der 980Ti den Maximalpreis.
 
[Verschwörungstheoriemodus]

Vielleicht will AMD gar nicht so viel von der ersten Serie verkaufen, weil man dieser fragilen Interposergeschichte selbst noch nicht so ganz über den Weg traut. Wenn schon explizit vor der Demontage des Kühlers gewarnt wird...

Wenn sich die Karte schlecht verkauft, wäre der worst case besser verkraftbar.

[/Verschwörungstheoriemodus]

Ich würde auf die "richtige" Fury mit 8 GB warten. Die erste Ausgabe ist nicht Fleisch und nicht Fisch.
 
Zurück
Oben