News Nvidia GeForce RTX: „Super“-Benchmarks noch vor AMD Radeon RX 5700 (XT)

Chismon schrieb:
Was mich aktuell an AMDs/RTGs Navi (noch) stoert:

- natuerlich die aktuell zu hoch angesetzten Preise (fuer eine vermutlich relativ laute Referenzloesung, auch wenn ich den Navi-Referenz-"Karten-Body" recht schick finde),
Es gibt wohl Probleme bei den Yields mit N7, wenn die Chips größer werden. Genau deshalb stellt man erstmal die kleineren Versionen her. Bei Zen2 ist das kein Problem, weil die Dies dementsprechend klein sind. Ist wohl auch der Grund, warum NVidia bis zu EUV bei 12nm geblieben ist.
 
xexex schrieb:
Sorry aber jetzt erzählst du Blödsinn. Die Pascal Generation ist noch immer brauchbar und eine 1080 oder 1080Ti hat noch immer mehr Leistung und Features, als jede vergleichbare AMD CPU bisher.

Diese "6gb sind zu wenig" Argumentation hat man schon vor Jahren geführt, zum Beispiel beim Vergleich RX480 und GTX1060. Drei Jahre sind seitdem vergangen und irgendwelche spürbaren Nachteile, gibt es vielleicht bei einer Handvoll Titel.

In der Zwischenzeit hat AMD es hingegen geschafft, die RX480 zwei mal neu aufzulegen, also erzähle bitte nicht die Nvidia Chips wären kurzlebig!

Sorry, aber wie kommt man auf die Idee eine Nvida GPU und eine AMD CPU zu vergleichen????!!
 
  • Gefällt mir
Reaktionen: pietcux
tek9 schrieb:
Wer spielt den noch mit einer GTX 960? Wohl eher kaum noch einer.
Dagegen gibt es reichlich Leute die mit einer RX 470/480 weiterhin happy sind.
795863
 
  • Gefällt mir
Reaktionen: KlaraElfer, Mumusud, SyntaX und 2 andere
muzafferamg58 schrieb:
Nicht dein ernst?
Es wurde suggeriert, dass derzeit mehr Leute mit einer RX 470/480 spielen als mit einer GTX 960.

Bei Steam sind es derzeit 0,77% RX470/480-Spieler und 3,12% GTX960-Spieler, also ein Verhältnis von 1:4.
 
  • Gefällt mir
Reaktionen: G0k4r
Davon ab, dass das natürlich ein vollkommen schwachsinniger Vergleich ist, weil es unterschiedliche Generationen sind (die GTX 960 kam 1,5 Jahre früher auf den Markt).
Der Gegner war die R9 380. Und die hat ziemlich abgestunken bei gleichen Preisen und 4GB vs 4GB. Wer sich die 2GB Version gekauft hat, wusste auf was er sich einlässt.
Die 680/770 gab es im Übrigen auch mit 4GB, leider wird bei solchen "Retro" Tests immer nur das 2GB Modell (mit völlig übertriebenen Einstellungen) getestet.

Die Gegner der 480/470 sind die 1060er und die Statistik kennt wohl jeder....
 
Oneplusfan schrieb:
Die Gegner der 480/470 sind die 1060er und die Statistik kennt wohl jeder....

Obwohl die Rx 470 480 nicht schlecht waren, braucht man sich nicht zu wundern, wenn alle nur die 1060 kaufen und dann die XX60 Chips über 350€ losgehen
 
xexex schrieb:
Diese "6gb sind zu wenig" Argumentation hat man schon vor Jahren geführt, zum Beispiel beim Vergleich RX480 und GTX1060. Drei Jahre sind seitdem vergangen und irgendwelche spürbaren Nachteile, gibt es vielleicht bei einer Handvoll Titel.

Ja aber genau das ist ja das Problem.
Es geht letztlich nicht darum um die jetzt in 90% der Titel ausreichen, ich denke jeder der das ankreidet merkt einfach die absichtlich von nvidia "künstliche verschlechterung" des Chips.
Jeder der argumentiert dass die 6GB reichen würden und die Karte (falls sie nicht mehr reichen) eh nicht mehr genug Rohleistung hätte liegt einfach falsch.
Die 2060 kommt an die 1080 ran (die 25 prozent langsamere 1070 hatte schon 8GB)....und will dann mit 2Gb weniger Vram zukunftssicher sein? Genauso dämlich wie eine 1060 mit 3 GB zu bringen. Die bei Nvidia sind ja nicht doof, die wussten schon selber dass die 3GB eig mit der Leistung der Karte nicht zu vereinbaren sind, haben sich aber den Aufpreis für die 6Gb variante gut bezahlen lassen.
Ich denke jeder hätte nach dem Wechsel von Pascal (allgemein) mehr Vram (vor allen bei den Preise erwartet.
Logisch wären ab der Leistungsklasse der 2080 eig mindestens 11GB.
Es ist zwar schön dass aktuell 6 oder 8GB reichen, allerdings steht uns mit den neuen Konsolen PS5 und Co nächstes Jahr ein großes Hardware-upgrade bevor und dann....wird auch wieder verschwenderischer (oder großzügiger) mit der VRAM Nutzung umgegangen.
Kauf ich mir jetzt ne 2070/2080 und für soviel Geld, will ich ja in 2 Jahren nicht die Texturen runterstellen. (oder jetzt schon in einigen wenigen Spielen) Vorallem aber der 2060 wird (obwohl genug leistung) die Puste ausgehen und sei es bei den frametimes.
Es ist einfach bewusst so gemacht seitens Nvidia und das kann man akzeptieren, aber schönreden brauch man das nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: G0k4r und Hatch
Was bei der ganzen rtx 6gb probelmatik nicht übersehn werden sollte... die 6 gb der 2060 sind sehr schnell. In der pcgh gab es dazu bei allem negativen mutmaßungen dazu, dass das die nachladeproblematik (frametimes..) bei vollen speicher verringern könnte, gegenüber alten generationen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: silent2k und pietcux
askling schrieb:
Was bei der ganzen rtx 6gb probelmatik nicht übersehn werden sollte... die 6 gb der 2060 sind sehr schnell. In der pcgh gab es dazu bei allem negativen mutmaßungen dazu, dass das die nachladeproblematik (frametimes..) bei vollen speicher verringern könnte, gegenüber alten generationen.

ist dann ein netter Nebeneffekt des neuen Speichers, ändert aber nix an der Tatsache, dass nvidia locker mit 8GB hätte planen können, so wie bei der kommenden 2060 Super. (Warum man diese Strategie wohl gewählt hat, vllt weil 6 vs.8 GB für Käufer ein Grund FÜR eine 5700 von AMD hätte sein können?:hammer_alt:)
 
Klar, sehe ich genauso. Aber der Unterschied zur 2070 war vermutlich einfach nicht groß genug mit 8gb. Wollte es nur erwähnen. :-)
 
Viper2000 schrieb:
Jeder der argumentiert dass die 6GB reichen würden und die Karte (falls sie nicht mehr reichen) eh nicht mehr genug Rohleistung hätte liegt einfach falsch.

Da hast du recht. Die Spiele werden mehr als 6GB voraussetzen, sobald ein grosser Anteil Spieler, Karten mit mehr als 6GB in ihren PCs haben, die Leistungsgrenze ist davon mehr oder weniger unabhängig.

Wenn man siech jedoch die Steam Statistiken anschaut, wird man schnell feststellen, dass 6GB vermutlich noch für einige Jahre ausreichen werden.

Das einzige was man Nvidia nun jetzt "vorwerfen" könnte ist, dass sie mit den 6GB Karten den "Fortschritt" aufgehalten haben, das kann man jetzt aber auch sehen wie man will.
 
easy-max schrieb:

Welche nun genau das zeigen, was viele neben mir in den letzten wochen auch schon sagten. AMD kommt mit den Karten so wie sie jetzt sind fast 1 Jahr zu spät. Neutral betrachtet machen diese 5700er gar keinen Sinn, ausser sie würden sie verramschen, aber genau das tun sie ja nicht.

Die bringen nun die Leistung welche die Konkurrent schon im letzten Oktober brachte und verbrauchen trotz neuerer Technik mehr Strom und das ohne RTX Kerne.
 
  • Gefällt mir
Reaktionen: G0k4r
yummycandy schrieb:
Es gibt wohl Probleme bei den Yields mit N7, wenn die Chips größer werden. [...]

Hast du dazu Quellen?

So was habe ich mir nämlich schon kurz nach der E3 gedacht und einfach mal in den Raum geworfen.
Würde schließlich erklären, warum die Karten so teuer verkauft werden (müssen?) und evtl. sogar, warum der Stromverbrauch trotz 7nm so hoch ist. (Weniger 'aggressive' Spannungen um mehr Chips verwerten zu können)
 
Retro-3dfx-User schrieb:
Fakt ist der weg der RTX Cores ist nicht Quelloffen, ich rede auch nicht von SW, sondern freie HW Nutzung, genug Cores oder Shadercluster sind da, man ist nur zu faul entsprechend zu Programmieren.

In spätestens 5 Jahren ist kein RTX Core mehr interessant, weil es was Offenes gibt, was jeder Hersteller von Chips dann nutzen kann in Hardware die allgemein zur Verfügung steht...

Weder AMD noch nVidia stelle Schaltpläne ihrer Shadercluster zur Verfügung, damit jeder diese in Hardware nachbauen kann. Wozu auch? Es gibt APIs mit denen es egal ist wie ein Shadercore aufgebaut ist. Wichtig ist nur dass er über die jeweilige API, z.B. DirectX, angesprochen werden kann. Damit das funktioniert, gibt es einen Treiber vom Hersteller der die allgemeinen DirectX-Befehle in spezielle Befehle übersetzt, die die Hardware dahinter ausführen kann.

Warum sollte es also bei RT Cores "was offenes, was jeder Hersteller von Chips dann nutzen kann" geben?
Es gibt eine API namens DXR mit der man diese Hardwareeinheiten nutzen kann, und es wird im Treiber auch hier etwas geben was die allgemeinen DXR Befehle in spezielle Befehle für die jeweiligen RT-Hardwareeinheiten übersetzt. Ob das nun RT-Cores bei nVidia oder RayFX-Cores bei AMD sind, oder vielleicht zukünftig RayCores bei Intel. (RayFX und RayCores sind ausgedachte Namen)

DXR läuft deshalb auch auf Pascal-Karten, die überhaupt keine RT-Cores oder auch Tensor-Cores haben.
Natürlich ultralangsam, weil alles über die klassischen Shadercores ausgeführt werden muss. Aber es geht.
Denn hier übersetzt der Treiber die DXR-Befehle nicht in Befehle die RT-Hardwareeinheiten ausführen können (weils ja keine gibt), sondern in Befehle die normalen Shader ausführen können. Daran sieht man gut dass es für DXR komplett egal ist was für Hardwareeinheiten dahinterstehen, oder ob es überhaupt welche gibt.

Retro-3dfx-User schrieb:
Und ich glaube auch nichts, sondern posaune hier meine Ansichten und Meinung.

Dann scheint mir beides auf ziemlich uninformierter Basis zu fußen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, Skycrumb und xexex
cohrvan schrieb:
bin ich der einzige dem die Preise etwas seltsam vorkommen ?? Für mehr power das gleiche geld bezahlen ? Ich will mich nicht beschweren aber Welche Autohändler verkauft Ein Auto das 100 PS mehr hat für den gleichen Preis wie der mit dem kleinem motor? O.o

Der Autohändler, bei dem der Hof mit Fahrzeuge voll steht, die keiner kauft.
NVidia hätte auch eine 0% Finanzierung oder ein ultra mega Spielebundle draufpacken können. Aber der niedrige Preis wirkt schneller.
 
tek9 schrieb:
Wer spielt den noch mit einer GTX 960? Wohl eher kaum noch einer.

👋

Sowas passiert, wenn man nicht bereit ist Mining- oder Feature-Aufpreise zu bezahlen. Damit kann man aber auch bspw. Anno 1800 noch passabel spielen.

easy-max schrieb:

Also der FF XV-Benchmark ist mMn der mit Abstand mieseste Benchmark, um Amd mit Nvidia zu vergleichen. Wenn schon die Radeon VII hinter einer 1660 Ti liegt, die ansonsten eigtl. knapp hinter der 2080 hausiert
 
  • Gefällt mir
Reaktionen: Chismon und G0k4r
Zurück
Oben