Bericht AMD Navi: Radeon RX 5700 XT ($449) und RX 5700 ($379) sind offiziell

ZeroZerp schrieb:
Willkommen in der Welt der Grafiksettings und dem Kompromiss Darstellungsqualität/FPS.
Das ist doch ein alter Hut und war noch nie anders und jetzt wird sich hier auf einmal künstlich echauffiert.

Genau, um was geht es hier, wenn nicht den RTX Karten 2060 u. 2070 vs. Navi 5700(XT)?

ZeroZerp schrieb:
Es nervt einfach langsam- Heschel ich hab Dir ein par der Features und Änderungen der Turing Architektur aufgezählt, weil Du geschrieben hast es gäbe keine und dann kommt wieder der sich auf veraltete und teils auf fehlerhafte Software gestützte Dauersprechfunk, der überhaupt nicht auf diesen Umstand eingeht, nur um nochmals zu versuchen, ein par der Features in ein maximal schlechtes Licht zu rücken.

Nur weil Du wiedermal nicht auf den Inhalt der vorherigen Kommentare einhergehst. Was nützen deine Aufzählungen hier? Was nützen Verbesserungen, wenn diese genau bei den kleineren Karten, wie 2060, immer mit Kompromissen einhergeht? Am Ende zählt die persönliche Preferenz, wie auch die Rohrleistung der Karte (wie auch der Preis). Und hier muss Navi in den Benchmarks zeigen, ob die es liefern kann (zu einem Preis, der erst auf dem Markt entscheidet).

Im Übrigem rücke ich garnichts ins schlechte Licht. Komm Du hier mal bitte runter. Siehe mal meinen Kommentar zu @Bard .

ZeroZerp schrieb:
Da wird auch nicht gescheut Beweisvideos heranzuziehen, von denen bekannt ist, weil öffentlich angekündigt, dass dort die RT Implementation noch fehlerhaft eingebaut wurde.

Implementierung fehlerhaft.........

Du benennst hier nichtmal, wo es fehlerhaft ist (also Wissen oder Glauben?). Wo soll man hier genau die Grundlage zur Diskussion finden, die Du haben willst. Vielleicht wurde einfach zu viel "Leistung" abgefragt und man musste es einfach etwas runterschrauben?

ZeroZerp schrieb:
Kommt mal ein wenig runter, von Eurem Markenfanatismus und der Abneigung neuer Technik (und derer Nachteile bei Einführung) gegenüber.

Wo zeige ich eine Abneigung ggü. neuer Technik? Tue ich nicht, nur ist mir bei kleinen Karten wie 2060 und Co. die Leistung noch viel zu schwach, um ein kräftiges Kaufargument bei RT z.B. zu sein (den Grund hast Du selbst geliefert!).
Ergänzung ()

xexex schrieb:
Da könntest du dir aber auch die Frage stellen, ob man so ein Spiel mit einer 2060 zwingend auf Ultra Setting spielen muss! Das ist auch das Problem von vielen solchen "Tests", die Grafikqualität auf Hoch mit RT, dürfte in vielen Fällen besser sein als auf Ultra ohne RT.

https://www.game-debate.com/news/26...-rtx-2060-6gb-ray-tracing-and-dlss-benchmarks

"The tech requires a GeForce RTX graphics cards and there are two different options - High and Ultra. However, certain graphics cards are locked out of certain settings when enabling ray-tracing. Our PNY GeForce RTX 2060, for example, can do Ultra ray-tracing but is restricted to 'High' in terms of overall graphical quality. "
 
Zuletzt bearbeitet:
Heschel schrieb:
Genau, um was geht es hier, wenn nicht den RTX Karten 2060 u. 2070 vs. Navi 5700(XT)?
Es geht um Turing vs Navi.

Nur weil Du wiedermal nicht auf den Inhalt der vorherigen Kommentare einhergehst. Was nützen deine Aufzählungen hier?
Fakten schaffen, weil Du irriger Weise geschrieben hast, dass Turing nebst DLSS und RT keine Features liefern würde!

Was nützen Verbesserungen, wenn diese genau bei den kleineren Karten, wie 2060, immer mit Kompromissen einhergeht?
Man kauft sich doch Grafikkarten NACHDEM man sich informiert hat, was diese Leisten und ob sie für die eigenen Ansprüche genügen.

Am Ende zählt die persönliche Preferenz, wie auch die Rohrleistung der Karte (wie auch der Preis). Und hier muss Navi in den Benchmarks zeigen, ob die es liefern kann (zu einem Preis, der erst auf dem Markt entscheidet).
Es ist immer das Gesamtpaket, was entscheidet.

Implementierung fehlerhaft.........
Genau- Obwohl es in allen Kanälen kommuniziert wurde und man es sogar in den Patchnotes "abklicken" musste, ist es wohl bei den wenigsten Usern angekommen.

Lies Dir das mal hier genau durch:
https://www.nvidia.com/en-us/geforce/news/battlefield-v-rtx-ray-tracing-out-now/

Ich zitiere mal ein par Stellen:
Included with this update will be the first release of DXR ray-traced reflections,

Minimum system requrements:
  • GPU: NVIDIA GeForce RTX 2070
  • CPU: Intel Core i5 8400 / AMD Ryzen 5 2600
  • RAM: 12GB
  • OS: 64-bit Windows 10, with October 2018 Update (version 1809, or newer)

Recommended system requirements:
  • GPU: NVIDIA GeForce RTX 2080
  • CPU: Intel Core i7 8700 / AMD Ryzen 7 2700
  • RAM: 16GB
  • OS: 64-bit Windows 10, with October 2018 Update (version 1809, or newer)

Entdecke den Fehler Nummer 1 von denjenigen, die sich hier mit einer 2060 hohe Framezahlen und Auflösungen erwarten.

Recommended settings:

Graphics CardResolutionGraphics Preset For Other SettingsFirst Release DXR Reflections Quality*
RTX 20701920x1080UltraLow
RTX 20801920x1080UltraLow
RTX 2080 Ti2560x1440UltraLow

*We recommend in this first release of DXR that “DXR Raytraced Reflections Quality” be set to “Low” due to Battlefield V’s known issues when using “Medium”, “High”, and “Ultra” settings. EA, DICE, and NVIDIA will also continue to optimize this implementation and deliver regular updates.

Aus dem Battlefield Artikel dazu:
DXR

  • Direct X Raytracing - The BFV 11-14-2018 Update which introduces first release of DXR ray tracing shipped with a couple of known bugs. We recommend in this first release of DXR ray tracing that “DXR Raytraced Reflections Quality” be set to “Low” for the best experience. We will continue to work with Nvidia to further enhance your ray tracing experience.


In den known issues wurde aufgeführt, dass Raytracing noch fehlerhafter Weise zu Hauf Strahlen gegen Hilfsgeometrie schiesst, was die Leistung in den Keller gedrückt hat.

Was man dann wiederum mit dem ersten Patch korrigiert hat:
  • Improved ray tracing performance against foliage and vegetation.
  • Using frame buffer data, where applicable, to increase overall ray tracing quality.
  • Removed inactive geometry from ray traced scenes


Du benennst hier nichtmal, wo es fehlerhaft ist (also Wissen oder Glauben?). Wo soll man hier genau die Grundlage zur Diskussion finden, die Du haben willst. Vielleicht wurde einfach zu viel "Leistung" abgefragt und man musste es einfach etwas runterschrauben?

Weil das Thema schon gefühlt 100 Mal durchgekaut wurde aber offensichtlich immernoch nicht bei jedem angekommen ist. zudem ist eigentlich derjenige, der die Vorwürfe erhebt in der Bringschuld und sollte Fakten liefern und sich ausführlich informieren, bevor er über eine Sache herzieht.

Hier im Forum hat es sich inzwischen genau umgekehrt eingebürgert. Man haut erstmal substanzlos raus und der andere soll einem dann nachweisen, dass man mit seiner als Fakt verkleideten eigenen Meinung/Anschuldigung falsch liegt.

Verkehrte Welt...

Wo zeige ich eine Abneigung ggü. neuer Technik? Tue ich nicht, nur ist mir bei kleinen Karten wie 2060 und Co. die Leistung noch viel zu schwach, um ein kräftiges Kaufargument bei RT z.B. zu sein (den Grund hast Du selbst geliefert!).
Die 2060 ist für vielerlei Dinge zu schwach. Es geht hier um den Maßstab, den man ansetzt. Und der ist nunmal für jeden unterschiedlich...

Peace, Heschel.

LG
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Fakten schaffen, weil Du irriger Weise geschrieben hast, dass Turing nebst DLSS und RT keine Features liefern würde!

Ach, und müssen diese anderen Features nicht in der Leistung und Grafik sich zeigen?

Ich bin darauf nicht eingegangen, weil es für Games (wenn Navi raus ist) sich erst zeigt, was im Endergebnis hier raus kommt. Ebenso könnte ich AMDs Anti-Lag Feature aufzeigen, nur muss es sich erst zeigen, ob das was bringt (im Vergleich zu Nv).

Wo die Navis nach dem Release und den darauf folgenden Benchmarks abschneidet (ggü. Nvidia), muss sich erst sehen lassen.

ZeroZerp schrieb:
In den known issues wurde aufgeführt, dass Raytracing noch fehlerhafter Weise zu Hauf Strahlen gegen Hilfsgeometrie schiesst, was die Leistung in den Keller gedrückt hat.

Lol, in welchem Zeitraum? Ich habe Dir schon Links geliefert, die bei den Tests häufig später gemacht wurden. Davon war nur ein Video dabei, welches das Jahr 2018 gesehen hat! Also viel später, als DEINE verlinkten Artikel. Imho sagst Du, dass diese nicht behoben wurden .... verdammt lange Zeit.

Hättest jetzt bessere Benchmarks aufzeigen können, statt irgendwelche Nvidia Publicity-Erklärungen aus dem Jahr 2018!

ZeroZerp schrieb:
Weil das Thema schon gefühlt 100 Mal durchgekaut wurde aber offensichtlich immernoch nicht bei jedem angekommen ist. zudem ist eigentlich derjenige, der die Vorwürfe erhebt in der Bringschuld und sollte Fakten liefern und sich ausführlich informieren, bevor er über eine Sacher herzieht.

Nein, Du willst es einfach nicht wahr haben, diesbezüglich diese Diskussion ständig!

Und jetzt auf den Ausgangspunkt zurück zu kommen:

Wo braucht es (laut SKu) hier ein Konter durch die "super"-Karten von Nvidia, wenn SKu die Leistung der Navis garnicht kennt (nur von AMD Benchmarks)? Ein oder zwei Posts später will er davon nichts mehr wissen und nennt hier die 2060 und 2070. Und zum krönendem Abschluss sagt er folgendes:

"Wenn Nvidia Anfang Juli die Super-Karten launchen sollte, ist es eh vorbei mit Navi zu den Preisen."

Er kennt nicht die Leistung von super-Karten, den Navis und den Preisen, will aber solche Aussagen treffen? Die Antwort ist, dass er es nicht kann. Und das war der ganze Grund, worüber wir hier diskutiert haben. Du bist dann mit etwas eingestiegen, was überhaupt nicht zur Sache tat (ich habe Dir nur geantwortet).

Sorry, aber vielleicht lassen wir diese Diskussion. Wie es aussieht, werden wir hier nicht auf einen gemeinsamen Nenner kommen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Heschel
Hier mit DLSS an und max Settings auf 2060 Stock

Und dabei sehen wir die "Killer- Map" Rotterdam, als das schlimmste, was man den Karten antun kann...
Das ist weit entfernt von "unbrauchbar", findest Du nicht?

LG
Zero
 
Zuletzt bearbeitet:
Man braucht hier nicht so tun als würden wir die Leistung oder den Preis von Navi/Turing nicht kennen.

Es gibt jetzt genügend Preislistungen in der EU von Navi, wir haben sogar die offizielle UVP von AMD auf dem Tisch liegen. Das selbe mit den Super Turings.

Auch die Leistung ist kein Geheimnis. Wir haben die Benchmarks von AMD, die wohl der Realität entsprechen dürften. Und jeder, der in der Grundschule Mathe hatte, wird wohl auch das Leistungsplus von Turing II berechnen können. Selbst die TDP/TGP haben beide Hersteller bekannt gegeben. So viel vor einem eigentlichen Test wussten wir schon lange nicht mehr.

Das reicht mehr als aus, um sich ein vorläufiges Urteil fällen zu können. Die einzige große Unbekannte ist noch dieses ominöse Low Latency Feature.

Wer kein RT braucht, kauft sich doch nicht ne 5700XT, die über 100% mehr kostet und im Schnitt nur 20 bis max. 30% schneller als ne Vega 56 ist. Solche Aufpreise sind ja nicht mal im High End tragbar.
Wer RT braucht oder aus anderen Gründen NV kaufen will, konnte sich schon sehr oft 2060er >300€ und 2070er <420€ kaufen.

Das mag UVP vs Marktpreis sein, aber aktuell deutet alles darauf hin, dass die AMD Karten sogar noch etwas über der UVP liegen.
 
AMDs Anti Lag wird ne reine Treiber Optimierung sein und ebenfalls bei älteren GCN Karten funktionieren , gut möglich das NV da ebenfalls über den Treiber nachsteuern kann / könnte , jedenfalls ist das Feature nicht Navi ausschlißlich ..
zum leidigen RT Thema
RT wird kommen , derzeit noch zu wenig unterstützt und zu Performance hungrig , wer meint diese i Tüpfelchen unbedingt jetzt schon haben zu müssen , muß halt tief in die Geldbörse greifen ...
Mir jedenfalls ist der Aufpreis für etwas realistischere Schatten oder Ausleuchtung zu hoch , ja die RT Reflexions können in einigen Szenen was hermachen , jedoch ist das eher die Ausnahme .
Wenn man im Gameplay mit der Lupe nach unterschieden suchen muß ... , hat sich die Sache für mich eh erledigt ..
Einige Game Engines haben neue Effekte bekommen , die RT nacheifern mit weit weniger benötigter Rechenleistung , wenn das zu 85 - 90 % genauso aussieht , brauch ich kein RT... , das wird sich jedoch erst zeigen müssen
 
  • Gefällt mir
Reaktionen: Heschel und .Sentinel.
MK one schrieb:
AMDs Anti Lag wird ne reine Treiber Optimierung sein und ebenfalls bei älteren GCN Karten funktionieren , gut möglich das NV da ebenfalls über den Treiber nachsteuern kann
Nvidia hat dazu bereits ein Statement abgegeben. Entspricht wohl dem was Nvidia schon bietet, nämlich pre-rendered frames und Threaded Optimierung.
Im zukünftigen 435er Treiber werden diese beide Optionen zusammengefasst und Latency irgendwas genannt mit 3 Optionen. Die "schnellste" macht wohl pre-rendered auf 1 und Threaded opt. aus.

Ich hoffe von AMD kommt in möglichst baldiger Zukünft noch was mit mehr Leistung und Speicher, eine bessere Alternative zur Radeon VII
 
  • Gefällt mir
Reaktionen: xexex und G0k4r
Was werden eigentlich die deutschen UVP Preise sein? Im Titel stehen die Dollar Preise und diese sind ja bekanntlich ohne Steuern.
 
Pizza! schrieb:
Nvidia hat dazu bereits ein Statement abgegeben. Entspricht wohl dem was Nvidia schon bietet
Natürlich behauptet Nvidia das. Ob es stimmt, wird sich zeigen.
Ergänzung ()

BiGfReAk schrieb:
Was werden eigentlich die deutschen UVP Preise sein? Im Titel stehen die Dollar Preise und diese sind ja bekanntlich ohne Steuern.
Kann dir so noch keiner sagen, wenns wie bei den CPUs läuft, dann kommst du mit der Umrechnung + Steuer ziemlich gut hin, also um 479€ würde ich vermuten
 
Taxxor schrieb:
Natürlich behauptet Nvidia das. Ob es stimmt, wird sich zeigen.

So sehe ich das auch , weswegen hat der NV Treiber denn mit Standardeinstellungen über 50 ms Lag ?
Man könnte doch annehmen das die optimalste Einstellung standardmäßig verwendet wird , oder ?

Pizza! schrieb:
Ich hoffe von AMD kommt in möglichst baldiger Zukünft noch was mit mehr Leistung und Speicher, eine bessere Alternative zur Radeon VII

warum ? um die Karten unnötig teuer zu machen für den 4k Wahn ? Für diejenigen die unbedingt meinen auf nem 27 Zöller 4k Auflösungen verwenden zu müssen ? wer das meint soll ruhig bei NV 1000 Euro dafür löhnen ...
 
  • Gefällt mir
Reaktionen: Heschel und .Sentinel.
MK one schrieb:
Man könnte doch annehmen das die optimalste Einstellung standardmäßig verwendet wird , oder ?
So wie ich Scott auf der Computex verstanden habe, wird AntiLag aber auch manuell aktiviert werden müssen.
 
wie dem auch sei , AMD ist bei Freesync 2 weiter bzw nicht so empfindlich wie NV ...
zwar unterstützt NV offiziell neuerdings die Vesa Freesync Variante doch wie viele Monitore hat NV dafür freigegeben ? nur ein paar von den 150 - 200 Freesync Monitore... , 10 oder 12 ?

Ich denke bei Anti Lag kann AMD seine Erfahrungen mit Freesync mit einbringen , denn auch Freesync verringert die Latenz

795994


https://www.tomshw.de/2017/01/03/amd-grafikkarten-freesync-latency-hdr/
AMD FreeSync 2 wird erwachsen: HDR und Low Latency
 
MK one schrieb:
So sehe ich das auch , weswegen hat der NV Treiber denn mit Standardeinstellungen über 50 ms Lag ?
Man könnte doch annehmen das die optimalste Einstellung standardmäßig verwendet wird , oder ?

Nein!

Nicht jeden interessiert ein möglichst niedriger Input Lag und dieser geht in diesem Fall auf Kosten der Frametimes und der CPU Last.
795999


Eine ähnliche Einstellung wirst du auch bei jeder (besseren) Netzwerkkarte finden, auch hier geht eine höhere Verarbeitungsgeschwindigkeit auf Kosten der CPU Last.

In der Standardeinstellung werden bis zu drei Frames bereits von der CPU verarbeitet, bevor sie an die GPU geschickt werden, was als Puffer dient falls die CPU stark ausgelastet ist und mit den Daten nicht hinterherkommt. Die meisten kriegen es nicht einmal mit, sonst wären die Foren voll von Spielern, die sich über Input-Lags bei Nvidia und AMD Karten beschweren.

Die Konfigurationsmöglichkeit dafür gibt es bei Nvidia schon seit einigen Jahren, spürbar ist es vor allem bei sehr niedrigen FPS. Ich hatte lange Zeit bei SWTOR geraidet und dort waren bei 16er Raids oft <10FPS an der Tagesordnung, da machte diese Einstellung einen deutlich spürbaren Unterschied aus.
 
Zuletzt bearbeitet:
xexex schrieb:
Nein!

Nicht jeden interessiert ein niedriger Input Lag und dieser geht in diesem Fall auf Kosten der Frametimes und der CPU Last.

Da es vorwiegend um " E-Sport " Titel geht , die eh meist 150 - 300 FPS haben wird das mit den niedrigeren FPS Raten wohl nicht gelten ... bzw sich nicht so stark bemerkbar machen
Aber ja , bei NV wird es wohl seinen Grund haben das die Option wohl recht versteckt ist und halt kein Standard ..

Ich denke aber nicht das es so einfach ist , wie NV versucht es darzustellen .. , aber wir werden es ja bald wissen , die Reviews der Navi Karten stehn ja nächste Woche an ...
 
MK one schrieb:
Aber ja , bei NV wird es wohl seinen Grund haben das die Option wohl recht versteckt ist und halt kein Standard ..

Die Funktion ist keineswegs versteckt nur macht man darüber keinen Aufriss.
796003


Wie gesagt, wäre das ein wirkliches Thema für die "Masse" gewesen, hätte man es vermutlich hervorgehoben. Die E-Sport Spieler wissen davon oder spielen, wie du es selbst schon sagst, mit >100FPS und dort kann es wieder kontraproduktiv sein.
https://www.tweakguides.com/NVFORCE_7.html

Frametimes werden ja heutzutage bei jedem besseren Magazin gemessen, der Input Lag hingegen nicht. Da würde es wenig Sinn machen den Wert per Default auf 1 zu setzen und sowohl schlechte Ergebnisse bei den Frametimes zu kassieren, als auch durch eine hohe CPU Last aufzufallen.
 
Zuletzt bearbeitet:
Ja klar , aber die Gamer Freaks hier , die hinter jeder FPS hinterherhecheln damit die Reaktionszeit , die bei ihnen ja soooo gering ist möglichst noch geringer ist , haben dann die Muße 10-20 ms länger auf den Input Lag zu warten .... , denn darum geht es ja , es reicht nicht nur den Gegner früher zu erkennen , der Feuerknopf sollte halt auch schneller reagieren ...

aber wie gesagt , warten wir es ab wie die Frametimes aussehen mit Anti Lag bei den E-Sport Titeln ....
 
MK one schrieb:
warum ? um die Karten unnötig teuer zu machen für den 4k Wahn ?
Ich hab nur gesagt ich hätte gern eine Radeon VII in besser. Also etwas mehr Leistung als die 2080 und eine vernünftige (Luft)Kühlung, z.B. auf Navi Basis. Ich will nur etwas mehr Speicher, aber nicht zu Preisen weit über 1000 Euro. Da hoffe ich auf AMD.
 
Wenn sich AMD mit den neuen "mid-range" Navi's P/L mäßig an Nvidia orientiert. Wird es bei den großen next gen Navi's nächstes Jahr nicht anders oder besser aussehen. 2080Ti Leistung mit 16GB Ram für den Preis einer 2080Ti und der wird nicht großartig fallen, bei nicht vorhandener Konkurrenz.

Aber wie man auch sieht, selbst mit Konkurrenz fallen nicht wirklich die Preise. Wenn man nun meint Karten rauszuhauen, die etwas über der Leistung einer 1080 liegen. Aber im Grunde genauso viel kosten wie eine 1080 vor 2 Jahren.
Ergänzung ()

Wenn wir Glück haben, gibt es 2080Ti Leistung in 3-4 Jahren für 500€ und 2070 Leistung für 300€. Und daran wird wohl auch Intel als dritter Player nichts ändern. Wenn sie nächstes Jahr mit in den Ring steigen und sich ebenso an den Preisen orientieren.
Ergänzung ()

Bleibt im Grunde nur abzuwarten und dann auf Karten im Abverkauf zu hoffen. Wie jetzt bei der Pascal oder Vega Serie. Also so werde ich es in 3 Jahren handhaben, wenn Navi im Abverkauf ist und man ansatzweise die Leistung einer 2080Ti zu nem moderaten Preis bekommt.
 
Zuletzt bearbeitet:
Mal schauen was wir mit der nächsten Generation dann von Nvidia erwarten können. RTX3080 für über 1000€ und eine RTX3080Ti für über 1600-1800€.

Ansonsten wird meine Vega64 erstmal die letzte GPU die nächsten Jahre gewesen sein und werde dann auf eine PS5 wechseln und mir für lau die ganzen noch nicht gezockten PS4 Spiele dann holen.

Ist ja nicht so das es keine Alternativen zum PC zocken geben würde.
 
r4yn3 schrieb:
Herstellerübergreifend, ja, da ist FFXV witzlos als Vergleich. Sorgen bereiten würde mir aber dennoch, dass eine 5700 eine VII schlägt. Naja, "sorgen". Neugierig bin ich, was hier speziell bei FF den Karren so sehr aus dem Dreck zieht für AMD.

Naja Sorry, aber der Dreck is wohl eher FFXV, denn wenn ein Hersteller so dermaßen massiv besser dasteht, dann haben die Entwickler schlichtweg geschlafen. Oder wurden geschmiert. Eigentlich sollte sich bei optimaler Programmierung das übliche Leistungsgefüge +/- ergeben.

Oneplusfan schrieb:
Wer kein RT braucht, kauft sich doch nicht ne 5700XT, die über 100% mehr kostet und im Schnitt nur 20 bis max. 30% schneller als ne Vega 56 ist. Solche Aufpreise sind ja nicht mal im High End tragbar.

Warum denn nicht!? Die Karten haben deutlich mehr Potential, fressen weniger Strom und sind schneller. Ich gebe zudem zu bedenken, dass wir Grafikkarten-Generationen hatten, die deutlich weniger Mehrleistung brachten, und trotzdem einen saftigen Aufpreis verlangten.

Oneplusfan schrieb:
Wer RT braucht oder aus anderen Gründen NV kaufen will, konnte sich schon sehr oft 2060er >300€ und 2070er <420€ kaufen.

Wenn man sich die Benchmarks so ansieht, ist das wohl ziemlich sinnbefreit auf diesen Karten. Ich bin zwar wirklich enttäuscht, dass Navi noch kein Echtzeit-RT beherscht, aber realistisch gesehen kann man ohne auch derzeit noch ganz gut leben. Zukunftssicher sind die 20x0 Karten bei nVidia schließlich auch nicht.

Oneplusfan schrieb:
Das mag UVP vs Marktpreis sein, aber aktuell deutet alles darauf hin, dass die AMD Karten sogar noch etwas über der UVP liegen.

Zum Release? Vielleicht. Aber spätestens wenn sich nach einigen Wochen das Preisniveau eingependelt hat, sind die AMD Karten wie üblich die P/L-technisch bessere Alternative.
 
Zuletzt bearbeitet:
Zurück
Oben