Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Kacha schrieb:
Es ist eine Spielerei um ein paar "Gamern" Vorteile zu praesentieren.

Mit solchen "Spielereien" wie du sie nennst, gewinnt man und hält man Kunden! Der eine braucht NVENC, der andere nutzt RTX Voice und der dritte nutzt die Broadcast App. Alle drei haben eines gemeinsam, wie lang der Balken am Ende bei den AMD Karten sein wird, interessiert sie nicht.

Heutzutage verkauft man Hardware mit Software und nicht umgekehrt. Die PS5 wird sich auch mindestens 3 mal besser verkaufen als eine Xbox, obwohl die Hardware durchgehend schlechter ist, weil Sony wieder Millionen in Exklusivspiele steckt. Dabei sind es auch nur "Spielereien" und zu 90-95% spielt man auf der Konsole dann Titel, die es auch auf anderen Plattformen gibt.
 
  • Gefällt mir
Reaktionen: noxon, KlaraElfer, demoin und 2 andere
xexex schrieb:
Ganz ehrlich? Hätte AMD nicht Nvidia mit einem Satz nur zum Launch gratuliert, sondern in einem Beisatz noch ein "Wir freuen uns schon auf ein Kräftemessen im Winter" erwähnt. Würden einige ihre Entscheidung eine RTX3000 Karte direkt beim Launch zu kaufen noch überdenken.
Wozu?
Bisher haben wir nur geduldiges Papier und Lippenbekenntnisse gesehen.
Sollen se ihnen zur Aufzucht eines Papiertigers gratulieren? Gerade diejenigen die auf sowas stehen würden das eher als bestätigung ihrer ohnehin feststehenden Kaufentscheidung sehen und die unentschlossenen Käufer warten einfach ab was von AMD kommt und kaufen dann.
 
?
Teralios schrieb:
Ja, heute gibt es soviele tolle Möglichkeiten. Ich bremse meine GPU auch auf 72 FPS ein und komme bei den meisten Spielen kaum mehr über 50 Watt Verbrauch auf der GPU.

Man hat heute wirklich viele Möglichkeiten auch so ein Monster zu zügeln und trotzdem die Leistung zu haben, wenn man sie braucht.
Wo genau stellst du denn 72 FPS ein, im Spiel oder im Treiber
 
  • Gefällt mir
Reaktionen: KlaraElfer
Wadenbeisser schrieb:

Weil nicht jeder wie du eine rote Brille aufhat und von AMD erwarten die meisten im Winter was? Heiße Luft!

Hätte AMD jetzt neue Karten auf den Markt gebracht, wäre die Bereitschaft auf Nvidias Antwort zu warten eine ganz andere. Genauso wie viele Ryzen erst einmal ausgelacht haben und dann bis zum Herbst auf Coffee Lake gewartet haben der dann über Monate ausverkauft war.

Eine fehlende Antwort bestätigt das, was viele erwarten und ist ein ähnliches Verhalten wie aktuell bei Intel. AMD stellt 8C für Notebooks vor, Intel stellt seelenruhig ihre 4C Rocket Lakes vor, was sollen sie denn auch sagen? Unsere Schublade ist leer?

Wenn AMD was in der Hand hat, dann fällt ihnen kein Arm ab wenn sie es anteasern. Wenn sie nichts haben, dann bleiben sie still, so einfach ist das.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ziggystardust
monitorhero schrieb:
Hat mal jemand den Börsenkurs von Nvidia verfolgt? Am Tag der Ampere Präsentation ist dieser hochgeschnellt. Nach der Veröffentlichung der Technikartikel am 4.9 hat sich der Kurs wieder deutlich normalisiert. Ich würde sagen, das hängt mit den Fakten zusammen, die die Karten in ein realistischeres Licht rücken. Finde ich immer spannend zu beobachten. Was denkt ihr dazu?
Das ist Blödsinn. Jemand der sich etwas mit Aktien auskennt versteht warum sich ein Kurs wieder normalisieren MUSS.
 
Wie ich bereits zum Release von Turing gesagt habe, müssen die AMD Fanboys dann auch fairer Weise komplett auf Raytracing verzichten, da Nvidia bei Turin Release massiv dafür angegangen wurde und Raytracing als Spielerei bezeichnet wurde.

Dann kamen diese ganzen Memes mit "RTX on/off", ähnlich den "Hochfrequenzkernen" bei Intel.

Defakto etabliert Nvidia hier eine geniale Technologie und Intel hat noch immer den schnellsten Gaming Prozessor.

Sobald RDNA2 mit Raytracing kommt, ist der ganze Spökes vergessen und auf einmal ist Raytracing toll. Absolut lachhaft in meinen Augen.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Ziggystardust und pietcux
@xexex

Erzähl keine Märchen, es sind konkurriernede Firmen bei denen die eine mit einem erheblich geringeren Budget auch noch einen 2 Fronten Krieg mit einem ebenfalls erheblich finanziell überlegenen Unternehmen führt und keine Stammtisch Saufkumpanen.
Natürlich trötet man in der Position nicht bei der erstbesten Gelegenheit etwas raus was einem einen Vorteil verschaffen könnte.

Wenn für dich die Rote brille bedeutet abzuwarten bis der Konkurrent geliefert hat und sich erst dann zu entscheiden dann empfinde ich das als Ehre und sagt das verdammt viel über dich selbst aus.
 
t3chn0 schrieb:
Wie ich bereits zum Release von Turing gesagt habe, müssen die AMD Fanboys dann auch fairer Weise komplett auf Raytracing verzichten, da Nvidia bei Turin Release massiv dafür angegangen wurde und Raytracing als Spielerei bezeichnet wurde.

Habe ich und auch und vermisse es auch nicht aber mußte die Nvidia Fan Fraktion dann nicht auch konsequenter weise auf Tesselation und DX12/Vulkan verzichten weil die Vorgängertechnologie von AMD bzw. ATI kam?
 
  • Gefällt mir
Reaktionen: Benji18 und pipip
@Wadenbeisser

Diese Technologien hat aber niemals jemand in Frage gestellt und als unnötig dargestellt.
 
Wadenbeisser schrieb:
abzuwarten bis der Konkurrent geliefert hat und sich erst dann zu entscheiden

Ich entscheide mich für ein gutes Produkt und wenn ich in zwei Wochen eines bekomme und ein anderer nichts von sich hören lässt, dann hat der andere halt Pech gehabt.

Bei mir wäre es aber sowieso eine Nvidia Karte geworden, viele auch hier im Forum werden aber zuschlagen weil von AMD mal wieder nichts kommt. Hinhaltetaktik mag nicht schön sein, aber man ist eher bereit zu warten wenn man weiß worauf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Toni_himbeere, Der Nachbar und Ziggystardust
Wadenbeisser schrieb:
AMDs CPUs wohl weniger als vielmehr der fehlende Multicore Workaround von nvidia für die typischen DX11 Multicore Gurken.

Also die Spiele sind momentan schon länger bei der transition zu Directx12, Nvidias Directx11 Vorteile fallen da nun kaum mehr ins Gewicht, zudem geht es um die CPU, nicht um die GPU.
Ein Ryzen Prozessor ist im Moment ein größeres Bottleneck für eine RTX 3090 als ein 10900K, das kann man sicherlich so sagen, auch wenn der Performanceunterschied vielleicht im schlimmsten Falle mit 20% zu beziffern ist. Ich würde mir mittlerweile eher um das fehlende PCIE 4.0 auf der Intel Plattform Sorgen machen.

Deinen anderen Ausführungen kann ich nicht folgen - verstehe ich nicht.
 
t3chn0 schrieb:
Sobald RDNA2 mit Raytracing kommt, ist der ganze Spökes vergessen und auf einmal ist Raytracing toll. Absolut lachhaft in meinen Augen.

Ich werde mit RDNA2 auch weiterhin RT ausschalten.

Spiele nur Multiplayer.. Da brauch ich FPS und keine hübschen Lichtstrahlen und Spiegelungen.
 
  • Gefällt mir
Reaktionen: Wadenbeisser
Teralios schrieb:
Aus solchen Tests kann man nämlich Aussagen in drei Richtungen ableiten: CPU, Infrastruktur(Hardware), Infrastruktur(Software) sowie die Software selbst. Und genau das ist auch primäre Probleme mit solchen Tests.

Dann kann ich auch sofort hergehen und nichts mehr testen, das kommt dann auf das gleiche heraus.

Teralios schrieb:
Tests im absoluten CPU-Limit treffen in der Regel zuverlässig nur eine Aussage über das getestete System und wie die Software auf diesem System läuft.

Wenn das so sein sollte, müsste es einen relevanten Einfluss anderer Komponenten wie die CPU mit dem spezifizierten RAM auf die FPS Leistung geben - was in x Tests schon widerlegt wurde.
Es ist also unerheblich welche SSD, welches Board, welches Netzteil, welches Gehäuse oder welche RGB Farbe bei der Beleuchtung aktiv ist, solange keine Limits entstehen.

Wichtig ist die Kombination CPU/RAM und die Wahl der gleichen Settings, welche ein CPU Limit provozieren.

Teralios schrieb:
Zu schnell kann sich etwas verändern.

Dann greift meine Aussage oben.

"Dann kann ich auch sofort hergehen und nichts mehr testen, das kommt dann auf das gleiche heraus."

Deine Argumentation ist diesem Punkt total anti wissenschaftlich, das kann ich im Kontrast zu deinen sonstigen Posts nicht verstehen. .Sentinel. liegt also komplett richtig.

Heutige CPU Tests, sofern sie richtig durchgeführt werden, besitzen Gültigkeit für die folgenden GPU Generationen bei gleichbleibender Software, das heißt, spiele ich morgen Witcher 3 mit einer RTX 3090 wird meine CPU erheblich relevanter, wenn ich mit einer gewissen FPS Höhe spielen möchte.
Habe ich den früheren Test bereits mit den falschen Settings und Auflösungen durchgeführt, muss ich ihn sinnlos wiederholen. Deine Argumentation passt 1:1 zu Fake Tests im GPU Limit, diese sind nur spezifisch für das getestete System und Zitat:

Teralios schrieb:
...treffen in der Regel zuverlässig nur eine Aussage über das getestete System und wie die Software auf diesem System läuft.

Also bevor du mich und andere belehrst, sollte man schon in der Lage sein ganz einfache Benchmark-Basics zu verstehen, das ist nämlich alles andere als kompliziert, aber einige haben es bis heute noch nicht verstanden.

Vor dem Hintergrund solltest du dich dann auch an deine eigenen Aussagen halten.

Teralios schrieb:
Wenn ich von etwas keine Ahnung habe, dann lese ich mir einen Artikel durch und wenn ich meine etwas zu kommentieren, dann schreibe ich sehr klar dazu, dass ich mir nicht sicher bin und ich gerne mehr wissen will, statt mein Halbwissen als Tatsache hinzustellen...
 
Zuletzt bearbeitet von einem Moderator:
monitorhero schrieb:
Meint ihr ne 2080ti für 390€ lohnt sich?
Wenn sie dir gerade wirklich jemand zu dem Preis verkaufen kann, würde ich sagen auf jeden Fall.
 
  • Gefällt mir
Reaktionen: sifusanders
@KlaraElfer

Nichts für ungut aber DX12 ist inzwischen 5 Jahre alt und erst jetzt wo nvidia darauf für die RTX Geschichte angewiesen ist kommt es so langsam in Schwung, davor scherte man sich recht wenig darum.

Des weiteren, wie kann ein Ryzen 9 3950X (schließt deine verallgemeinerte Aussage schließlich mit ein) ein Bottleneck wenn es 1. noch keine Tests zu der Karte gibt und 2. das Ding eine höhere Rechenleistung als der 10900K besitzt?
Damit ist natürlich die Gesammtleistung des Prozessors gemeint und nicht wieviel das jeweilige Spiel sich bequemt davon zu nutzen. ;)

Das fehlen von PCIe 4.0 auf der Intel Plattform spielt eher eine untergeordnete Rolle solange der VRAM reicht aber klar, da knauserte nvidia ja immer gern und das Thema ist entsprechend höher angestellt. ;)

Um es nochmal konkreter zu auszudrücken, es ist vollkommen egal ob ein Prozessor 6, 8, 10 oder 64 Kerne besitzut wenn das Spiel z.B. nur 4 davon nutzen kann. Es gewinnt dann immer der bei dem eben diese 4 Kerne am schnellsten sind, der Rest liegt ungenutzt brach und wird vom Spiel entsprechend verschwendet.
Genau deshalb kann bei sowas auch ein kleiner, übertakteter 4 Kerner der gleichenn Chip Generation schneller sein als das 10 kernige Flagschiff das von sich aus eine geringere Taktfrequenz fährt. Die restlichen 6 Kerne langweilen sich dann eben im CPU Limit, bezahlt hat man sie dennoch.
 
t3chn0 schrieb:
Hier steht auf einmal, dass BigNavi vermutlich nur mit der 3070 konkurrieren kann, ich bin gespannt.

https://www.pcgameshardware.de/AMD-...Big-Navi-Konkurenz-RTX-3070-275-Watt-1357576/
Igor sagt selbst ist viel Spekulation, da die Boardpartner (Großteil seiner Kontakte) noch nicht viel wissen.

Kopite7kimi hat auf twitter gesagt, dass BIG Navi sehr stark sein wird. Er hat auch Ampere korrekt geleaked.
Kopite Tweet #1
Kopite tweet #2 ga104 kann big navi nicht schlagen
Kopite #3 ga102 muss aufpassen

Heißt natürlich nicht, dass das jetzt 100 % korrekt ist. Sein Trackrecord ist auf jeden Fall gut.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben