Neronomicon
Captain
- Registriert
- Dez. 2009
- Beiträge
- 3.261
*** schrieb:zwar etwas off topic, aber ich will jetzt nicht ein extra Thread eröffnen
MSI Vega 56 für 260 Euro inkl 3 Games: ich sag nur holy shit![]()
Da sage ich mal holy shit nein danke.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
*** schrieb:zwar etwas off topic, aber ich will jetzt nicht ein extra Thread eröffnen
MSI Vega 56 für 260 Euro inkl 3 Games: ich sag nur holy shit![]()
ja , dann bezahl für vergleichbare Leistung doch gleich das doppelte .... , irgendwer muß NV doch unterstützen , jetzt , da es abwärts geht bei NVNeronomicon schrieb:Da sage ich mal holy shit nein danke.Auch mit UV frisst mir die zuviel.
Ben81 schrieb:Bis spiele diese 16GB wirklich nutzen ist die Karte selber viel zu
asterix_gvb schrieb:Im Jahr 2019 sollten die Tests für High-End-Grafikkarten nur mehr in 4K und 5K mit DX12 und Vulkan API durchgeführt werden
asterix_gvb schrieb:Für die geringeren Auflösungen sind die Mid-Range Karten da
asterix_gvb schrieb:Desweiteren sollten die 99% FPS für das Ranking bewertet werden und nicht die durchschnittlichen FPS
asterix_gvb schrieb:Hab schon gesehen, das die GPU zu 100% ausgelastet war, aber die CPU nur mit 30%, aber auch umgekehrt
asterix_gvb schrieb:Die Lüfter sind zu laut, das hat aber AMD/ATI gefühlt immer gemacht, um seine Partner die Möglichkeit zu geben, Eigene-Produkte zu entwickeln/vermarkten.
asterix_gvb schrieb:trotzdem sollten € 500-600 für High-End-Grafikkarten das Limit sein
myblade schrieb:Hust... Grundsätzlich sagt das DX-Featureset nichts darüber aus, wie und in welchem Umfang sie in der Engine implementiert sind. Beispiel? WOW... war vorher auch DX12 und seit neuestem mit Multithread-Optimierung... Ergebnis... +35% auf einem Ryzen 2500X bzw. 36% auf einem 2700X... hier wird sicherlich auch Intel profitieren, aber dies soll nur belegen, dass "DX12" nicht viel aussagt ^^
Dass es bei TimeSpy und Firestrike bezüglich des DX-Levels andersherum ist, ok... stimmt wohl
Was aber die CPU- und RAM-Last-Thematik angeht, kann kaum auf "AMD-spezifische" Optimierungen zurückgeführt werden... denn anders versteh ich deinen Hint auf die "Dice und AMD-Zusammenarbeit" nichtWodurch soll diese denn erklärt werden? Insgesamt weniger CPU und RAM-Last bei mehr Leistung, während sonst nVidia mehr Leistung liefert? Gerade da wird man auf die Unterschiede schauen müssen... und das sind dann nicht AMD-spezifische Optimierungen
In deinen Screens is es ja auch noch bei anderen Spielen so...
Und ob neutral oder nicht.... es ist jedenfalls auffällig
Aber daher auch die Frage, ob sich wer anderes dazu äußern könnte![]()
MK one schrieb:ich hatte es schon bei der RX580 gepostet für 170 Euro , ich sehe das als Abverkauf der alten Karten an und glaube nicht an einen Navi Launch erst im Oktober ...
So wie AMD die GraKa jetzt abverkauft , könnte schon im April Navi rauskommen...
*** schrieb:MSI Vega 56 für 260 Euro inkl 3 Games: ich sag nur holy shit![]()
Das ist doch die, auf die man einen Wasserkühler schnallen kann? Hätte ich den Preissturz erahnt, hätte ich nicht letzten Juni eine Vega64 für 460€ gebraucht gekauft. Damals waren die MSI-Karten bei 600€MK one schrieb:ich finde RX56 für 260 Euro echt attaktiv , leider ist es kein Custom Kühler Design .
Wer hat was bestätigt ?? AMD ?DeadEternity schrieb:AMD hat es doch selbst schon bestätigt, dass sich Navi verschiebt und mit einem Release nicht vor Oktober zu rechnen ist.
Wie kommst du da auf April ?
Du sagst es , leider liegt der AIO Kühler noch bei 180 Euro ,,, , hat ich mir auch schon angesehen ...Colindo schrieb:Das ist doch die, auf die man einen Wasserkühler schnallen kann? Hätte ich den Preissturz erahnt, hätte ich nicht letzten Juni eine Vega64 für 460€ gebraucht gekauft. Damals waren die MSI-Karten bei 600€
MK one schrieb:Wer hat was bestätigt ?? AMD ?
Bisher ist das nichts als ein Gerücht von Cowcotland ..... , ansonsten wäre diese AMD Meldung mir entgangen ...
Max007 schrieb:Hauptsache im ersten Test die Spiele rauslassen, bei denen die VII gut abschneidet um ein massiv überzogenes negatives Fazit zu titeln. Und einige Tage später reicht man einen Test nach, bei dem die VII in 4K mit 93.3 zu 96,8% zu einer 2080 FE abschneidet. Die 2080 hat zum Release 870€ gekostet, schon vergessen?
Nvidiabase bestätigt die Vorwürfe alle Jahre aufs Neue.
Wenn also neue Treiber die Spannung etwas runtersetzen und somit Temp/Lautstärke im Rahmen sind, trennt die VII nur noch 50-70€ von einer Empfehlung gegenüber einer 2080FE? Daran müsst Ihr Euch dann aber auch messen lassen.
Rockstar85 schrieb:Also im Klartext ne Option, wenn man keine 2080 möchte.. Denn wie du ja sagtest, ne FE kostet halt auch ihre 850€, die Customs sind teilweise günstiger.
Es kommt massiv auf das Spiel und die Anwendung an. Wie immer leider keine Karte für jedermann..
Schade, dass die Trolle das Thema so massiv eskalieren ließen..
neue Überschrift des Tests wäre nun: Radeon Seven, Teuer, Laut und Anwendungsabhängig, aber 16GB HBM
Vllt können die Käufer der Karten ja in 2-3 Wochen etwas besser Berichten. Ich halte mich da an Igors Worte: Selber testen und schauen ob man damit glücklich wird.
Kunden einer 1080ti oder gleichwertig, sind eh nicht die Addresse für die Nutzer. 980Ti und 290X Käufer finden hier sicher ihre Option. Wenn ich die Bauteilbestückung ansehe, frage ich mich, warum AMD hier soviel Geld investiert?
Schaut euch das Bullzoid Video dazu an, alleine die Vcore Bestückung liegt bei fast 100$
@
Berserkervmax
Aber nen 9900K Der8auer Edition haben.. Merkste selbst?
Che-Tah
Schauen wir mal, ich denke 2020 wird die Seven die 2080 überholt haben. Allerdings wird AMD sich nicht mit den Strix, Superclocked und anderen OC Gamermodellen messen können. Ich hoffe AMD tut was gegen den Nutzlosen Kühler noch mal. Oder aber Sapphire richtet das Problem
die sich alle auf ein und dieselbe Quelle berufen , allesamt voneinander abgeschrieben , sieh dir den CB Artikel dazu an , dann weißt du auch woher alle anderen das haben ....DeadEternity schrieb:Angeblich wurde es geleakt, laut AdoredTV, PC Builders Club etc...
Dural schrieb:Turing ist die deutlich modernere Architektur als Vega, jeder der behauptet Vega dürfte besser reifen als Turing hat schlicht keine Ahnung. Selbst die 16GB werden der Karte kaum was bringen, jedenfalls in ihrer Lebenszeit (2 Jahre) nicht, die GPU ist schlicht zu langsam.
Neronomicon schrieb:Im Treibermenü 2 Klicks, sehr einfach.
MK one schrieb:So wie AMD die GraKa jetzt abverkauft , könnte schon im April Navi rauskommen...
Esenel schrieb:Vorneweg.
Bitte neutral über das Thema diskutieren.
Egal welche Karte schneller, besser, hübscher ist.
(Ich will Leistung, egal welcher Markenname da drauf steht.)
Korrekt DX11 oder DX12 sagt wenig über die Multithread Unterstützung aus.
Aber genau auf diesen kausalen Zusammenhang verweist dieser Threadersteller.
Daher zweifele ich sein Wissen an.
Man kann auch Assassin's Creed: Origins/Odyssey nehmen, welche auf DX11 basieren und "sehr gut" mehrere Kerne belegen/auslasten. (Randbemerkung: Trotzdem kommen in der Kack Engine zu wenige FPS rüber :-D )
Zum Thema Dice und AMD:
https://www.gamestar.de/artikel/bat...-mit-amd-fuer-frostbite-titel-an,3024779.html
Ja die beiden arbeiten seit 2013 zusammen an der Frostbyte 3 Engine, um diese auf AMD zu optimieren.
Ist ja auch nichts verwerfliches dran, sonder einfach ein Fakt.
Macht ja auch Sinn, da EA diese Engine überall einsetzen will und die Konsolen GPUs von AMD kommen.
Daher ist es doch positiv, dass dieses Game damit gut funktioniert.
CPU/RAM Usage Unterschiede bei verschiedenen Grafikkarten sollte vielleicht jemand wie @FormatC sich mal austoben :-)
Ich denke da würden wir die detaillierteste Analyse bekommen.
UNRUHEHERD schrieb:Das sieht man am deutlich besseren Abschneiden von Turing unter DX12 und Vulkan. Halt, nein, Vega legt hier deutlich zu - ich denke, Turing ist in der Tat die modernere Architektur. Allerdings sitzt CGN in der XBox und Playstation, weshalb in Zukunft mehr Spiele nahe an der Compute-lastigen Architektur der Radeon-Karten konzipiert werden könnten.