Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

KlaraElfer schrieb:
Richtig, ich verstehe nicht, wie man so verfrüht derart starke Wertungen vornehmen kann, ohne dass einem die Wertung später auf die Füße fällt. Das gilt genauso für RTX Voice.

Also ich dachte, dass es RT jetzt schon in der zweiten Generation gibt und diese Generation nur eine Verbesserung ist.

KlaraElfer schrieb:
Dann wäre ich an einer ausführlichen technischen Erklärung interessiert, die habe ich nicht gesehen.

Die Vereinfachung ist: Ich sehe die Auslagerung von RT und Tensor Cores in eigene Spezieleinheiten und nicht vollendige Integrierung nicht als sauber an. Das ist ganz ok fuer den Anfang, aber je mehr man das Spiel weitertreibt, desto eher faengt man sich Komplikationen an. Ausserdem skaliert es nicht sauber. Da ist es auch recht egal was sie mit ihrer zweiten Generation machen so lange es ausgelagert ist.

KlaraElfer schrieb:
Das wird nicht unterstellt. Mich wundert einfach nur deine extreme Wertung von Dingen, die noch nicht mal vollends vorgestellt sind, geschweige sich denn final einordnen lassen, auch im Leistungsvergleich mit dem Mitbewerber, denn die Software ist noch nicht für Ampere angepasst.

Oh, hier wird froehlich unterstellt. Denn du unterscheidest schon wieder nicht zwischen der Idee von Raytracing und der Umsetzung. Und fuer meine Einschaetzung ist es auch egal ob die zweite Generation noch nicht komplett da ist, da sich eben nichts gross an dem Punkt geaendert hat. Da ist auch die Software oder was es leistet egal. Wenn als Antwort schon wieder was kommt, das nicht unterscheidet, dann werde ich auch nicht weiter darauf eingehen.

KlaraElfer schrieb:
DLSS siehst du als Beschiss, RTX Voice ist schlecht und Nvidias RT Umsetzung/Technik schwach.
Da erfüllst du alle stereotype einer Markendiskussion, sprich dir passt das Firmenlogo nicht und da war meine Hoffnung eigentlich, dass man von dem unnötigen Kram langsam mal wegkommen würde.

Ah, da gehen die Unterstellungen weiter... Hoerst du dir eigentlich selber zu? Zu DLSS sagte ich, dass es genauso seine Probleme und Nachteile hat, und habe die in einem anderen Thread auch eroertert, bzw. die Grenzen von DLSS. Von Beschiss redest da nur du. Ich sagte auch nicht, dass Voice schlecht ist, sondern nichts gross besonderes. Genausoewnig rede ich davon, dass Nvidias RT Umsetzung schwach ist, sondern ich rede davon, dass ich mit der Umsetzung technisch nicht viel anfangen kann. Da rede ich noch nichtmal von der Idee an Raytracing. Aber wir haben ja schon gesehen, dass du da nicht unterscheiden kannst.

Von dem her, der einzige der hier voll und ganz, inklusive der Versuch anderen Dinge zu unterstellen, die sie so nicht gesagt haben, dem Stereotyp einer "Markendiskussion" bzw. eines "Fanboys" unterliegt bist du.

.Sentinel. schrieb:
Blablabla

Wie das ganze bewerkstelligt wird, steht auf einem anderen Blatt. Die Recheneinheiten stehen nunmal physikalisch zur Verfügung.

Blablabla

Wir hatten das Thema jetzt schon mehrfach, und du unterstellst mir das gleiche, dass ich dir unterstelle. Ob du es akzeptierst oder nicht, das wie ist wichtig, da es egal ist was man in der Theorie denn schoenes machen kann.

.Sentinel. schrieb:
Wärest Du sattelfest, würdest Du den Ablauf der Pipeline kennen und bemerken, dass die Unterscheidung bereits bei den Vorgängergenerationen getroffen werden musste. Die Pfadwahl wird da wohl das geringste Problem sein.
Du machst hier aus einer Mücke einen Elefanten (Stichwort Giga Thread Engine/Command Buffering/Command Queuing/Wave oder bei AMD Warp). Und versteckst hier Dein eigenes Transferproblem, also den Sachverhalt, auf den es hier tatsächlich ankommt, hinter einer vermeintlichen knowledge- Wall.
Eine Logik, die im Dispatcher statt Datapath 1 den Datapath 2 triggert, ist KEIN Hexenwerk.

Anders ausgedrueckt, du hast null Ahnung von Optimierung und es passiert alles magisch, ok. Sag es einfach, oder anders ausgedrueck: "[...][Du] versteckst hier Dein eigenes Transferproblem, also den Sachverhalt, auf den es hier tatsächlich ankommt, hinter einer vermeintlichen knowledge- Wall."

.Sentinel. schrieb:
Der Einfachheit halber zitiere ich damit den einzigen Satz, dem ich nebst irgendwelcher Graben- und Markenkämpfe, die Du hier weiter zu implizieren versuchst, Bedeutung beimesse.

Das sehe ich ähnlich, aber frage Dich zugleich, wieviele (Cuda) Cores bzw. TFLOPS gestehst Du dann den Vorgängern von Turing oder GCN in der Vergangenheit zu? Alles nur Marketing? Wo war da Dein Aufschrei?

Um es mit deinen eigenen Worten zu sagen: "[...] Deine Spielchen, die auch aus Deiner offensichtlichen Rhetorik zeugen, gehe ich nicht mit."

.Sentinel. schrieb:
Wir sprechen wir uns wieder, wenn die Karten da sind, da das hier dann nur noch weiter zu irgendwelchen kühnen Unterstellungen führen würde, die Du mir ja vorwirfst, selbst aber mit äußerster Freizügigkeit einstreust.

Endlich, aber was erwartest du bitte wenn du selbst nur behauptest, dass der andere felsenfeste Argumente bringt, die du dann eh ignorierst?

.Sentinel. schrieb:
Anders ist eine auch von Dir nachvollziehbare Beweisführung meinerseits logischer Weise nicht möglich.
Denn das Totschlagargument, dass alles Marketing sei und entsprechend aufgeblasen wird, bis zum Zeitpunkt des Releases kann von allen "Skeptikern" gebracht werden.

Ob du es glaubst oder nicht, aber so lange kein Beweis vorliegt ist es erstmal eine Behauptung und mehr nicht. Und ich werde es sicher nicht als "Fakt" durchgehen lassen.

.Sentinel. schrieb:
So zeichnet es sich (leider) immer mehr ab...
Schade, da ich ansonsten das Gefühl habe, dass man mit ihm durchaus vernünftig und ein wenig in die Tiefe gehend plaudern könnte. Er hat ja auch vernünftige und nachvollziehbare Ansätze.

Gratulation zum gegenseitigen Schulterklopfen, und dass ihr dem ganzen natuerlich komplett neutral gegenuebersteht...

.Sentinel. schrieb:
Stattdessen wird mal wieder Energie an den Markenwahn und die vermeintliche Mission verschwendet, anderen (unmündigen und lemmingartig agierenden) Leuten die Augen vor den bösen Machenschaften der Industrie (verhasste Marke hier eintragen) öffnen zu müssen, immer darauf hinweisend, dass es eine (vermeintlich) bessere Alternative in Form des Konkurrenzunternehmens gäbe, das zugleich zufälligerweise immer die technisch überlegenere Antwort parat hätte.

Wow, Reflektion und so, sollte man mal probieren.

Colindo schrieb:
@Kacha vs @.Sentinel. könnt ihr das bitte auch per PM weiter klären? Es gehören immer zwei dazu, dass hier die Threads durch Kreisdiskussionen zerrüttet werden. Genauso @KlaraElfer vs @Wadenbeisser.

Werde ich gerne machen, beim naechsten mal dann einfach frueher melden. Das mit dem nicht weiterreden wird wohl teilweise auch zu mehr fuehren...
 
  • Gefällt mir
Reaktionen: Colindo
Vielleicht bin ich auch von meiner Arbeit vorgeschädigt. Mein Chef hat die Macke, wenn er das Gegenargument nicht versteht, sein Argument zu wiederholen. Damit kriegt er die meisten Mitarbeiter in den Wahnsinn, nur ich wiederhole halt nicht, wenn er es nicht versteht. Da wird entweder solange umformuliert, bis er es versteht, oder eben nichts gesagt, bis das Thema nochmal vorkommt.

Wenn ich also hier im Forum mal nicht weiterdiskutiere, wisst ihr Bescheid :freaky: :daumen:
 
Manchmal erwische ich mich bei dem Gedanken die 3090 doch schon zum Release zu kaufen.
Und dann denke ich..... wer sagt denn, dass die auch wirklich die Spitze dieser Generation bleibt?
Die Chipbezeichnung sagt ja was anderes, oder?
Oder gibt es glatte 100er nicht mehr? Ich bin da nicht ganz auf dem Stand.
 
Wishezz schrieb:
Manchmal erwische ich mich bei dem Gedanken die 3090 doch schon zum Release zu kaufen.
Und dann denke ich..... wer sagt denn, dass die auch wirklich die Spitze dieser Generation bleibt?
Dann solltest Du Dich selbst fragen, worum es Dir beim Grafikkartenkauf geht.
Offenbar nicht um den Nutzen, sondern darum, das Beste besitzen zu wollen.

Selbst wenn ein stärkerer Nachfolger der 3090 käme, schmälert es die Leistung der anderen Karte ja nicht im Geringsten.
Wenn Du die Grafikkarte als Prestige- Objekt anschaffen willst, dann machst Du ja auch nichts dadurch falsch, indem Du Dir jetzt das Beste zulegst.... und im Anschluss gegen das bessere Modell tauschst.
 
@Colindo Werde ich mir merken und anwenden. ;)

@Wishezz Ueber der 3090 wird wenn dann noch die Titan kommen mit Preisen jenseits von gut und boese. Eine 3080Ti wird wohl darunter liegen und ist am wahrscheinlichsten die Karte mit 20GB. Die 100er Chips gibt es so in der Form im Geforce Bereich nicht mehr. Der A100 bildet die Basis von der derzeitigen Tesla Karte. Der ist nicht fuer die popeligen Gamer. ;)
 
Kacha schrieb:
Also ich dachte, dass es RT jetzt schon in der zweiten Generation gibt und diese Generation nur eine Verbesserung ist.

Na, aber das ist doch die Idee von Deep Learning. Tiefes, mehrschichtiges, maschinelles Lernen und da ist RTX Voice ja gerade noch dabei, obwohl es jetzt schon sehr gut funktioniert. Meiner Meinung nach besser als Teams.

Kacha schrieb:
Ich sehe die Auslagerung von RT und Tensor Cores in eigene Spezialeinheiten und nicht vollendige Integrierung nicht als sauber an.

Dann müsstest du erst einmal definieren, was vollständige Integrierung bedeutet.
So wie ich das sehe, führt bei AMD und Nvidia jeweils die Computing Unit bzw der Streaming Multiprozessor die Berechnungen aus und somit ist das gleichermaßen "vollendet" integriert, mit dem Vorteil, dass Nvidia diese Dinge Parallel berechnen kann und AMD einen Teil seiner TMUs vollständig beschäftigt, dafür aber mehr potenzielle fixed function units für den intersection Algo um die BVH Strukturen zu durchsuchen zur Verfügung hat.

Was da nun "sauberer" ist kann völlig wurscht sein. Am Ende geht es darum was effizienter und schneller ist und da sehe ich dich kaum in der Position und ehrlich gesagt sonst auch niemanden hier im Forum, der sich da festlegen kann.

Bei dir ist aber nicht die Umsetzung das Problem, sondern die Firma, weil du viel zu wenig Ahnung von der Materie hast, um diese Rückschlüsse zu ziehen. Am Ende heißt es von dir nur "ich mag die Implementierung" nicht, was in meinem Duktus gleichbedeutend ist mit "ich mag Firma A oder B nicht".

Kacha schrieb:
Und fuer meine Einschaetzung ist es auch egal ob die zweite Generation noch nicht komplett da ist, da sich eben nichts gross an dem Punkt geaendert hat.

Und du meinst nicht, dass sich Ingenieure Gedanken darüber gemacht haben, welche Art der Implementierung (ob feingranularer in den TMUs) oder nicht ganz so feingranular in der SM, performanter wäre?
Oder entwickelst du etwa GPU´s?

Kacha schrieb:
Zu DLSS sagte ich, dass es genauso seine Probleme und Nachteile hat...

Du hast auf einen Beitrag Bezug genommen, der DLSS als kompletten Beschiss sieht und hast dem Herrn inhaltlich recht gegeben und dich ausschließlich auf die Nachteile dieser Technik fokussiert.
Das ist für mich relativ eindeutig.

Kacha schrieb:
Ich sagte auch nicht, dass Voice schlecht ist, sondern nichts gross besonderes.

Interessant, dass alles was Nvidia vorstellt und AMD nicht hat, bzw nicht anbietet, entweder nichts besonderes, falsch implementiert (ohne ausreichende Begründung), reines Marketing schlecht usw. ist, aber die Radeon VII massiv von dir verteidigt wurde.

Kacha schrieb:
Genausoewnig rede ich davon, dass Nvidias RT Umsetzung schwach ist, sondern ich rede davon, dass ich mit der Umsetzung technisch nicht viel anfangen kann.

"technisch nicht viel anfangen" wäre ja mal ein ein halbwegs glaubwürdiger Ansatz gewesen, stattdessen hast du einfach nur sinnfrei losgepoltert.
Du behauptest ja auch, die verdoppelten FP32 Einheiten bei Nvidia seien nichts anderes als das was AMD bereits kann, in dem Fall liegt es auch an der Tatsache, dass Nvidia etwas einführt was AMD nicht hat/kann und sofort erfolgt der Beißreflex. Also wieso diskutieren, wenn doch nix bei rum kommt?

Du diskutierst doch gar nicht ergebnisoffen über die Dinge.
 
Zuletzt bearbeitet von einem Moderator:
Wer mal den Gebrauchtmarkt verfolgt wird feststellen, dass nach dem Release einige 2080ti für unter 500€ zu haben waren. Jetzt wo die ersten Benchmarks der 3080 rauskommen sind die Preise auf ebay nicht mehr unter 600€. Da tun mir alle User leid, die ihre 2080ti vorschnell verkauft haben
 
  • Gefällt mir
Reaktionen: Unnu
GerryB schrieb:
(3) Da sieht Vega gar net so schlecht aus vgl. mit Turing.(RX56 vs. RTX2060 = nur auf Höhe der 1070 !!!)
Die Graphen finde ich jetzt mal spannend. Zufällig spiele ich gerade BL3 auf einer Vega56 in 2560x1440. Welche Einstellungen nutzen die? Ich habe nix an den automatisierten Einstellungen gedreht und habe immer so um die 65 - 95 FPS, je nachdem. Zumindest wenn man dem eingebauten FPS-Messer glauben schenken darf.
Alles in allem bin ich's zufrieden. Aber paar'n40 finde ich schon recht wenig.
 
Zuletzt bearbeitet: (typo)
Kacha schrieb:
Die Vereinfachung ist: Ich sehe die Auslagerung von RT und Tensor Cores in eigene Spezieleinheiten und nicht vollendige Integrierung nicht als sauber an.

Habe euren Zank nicht im Detail verfolgt, aber dieses Statement hätte ich gerne erläutert bekommen. Was ist nicht vollständig und was ist nicht sauber an fixed-fuction Units?
 
  • Gefällt mir
Reaktionen: KlaraElfer und monitorhero
Ok da ist die 3080 grob 48-60% über der 2080S. Das wären, wenn ich das mit Computerbasewerten vergleiche, mindestens 70% über der 2070s, das ist ok.
Horizon seh ich keine Ruckler, aber die 10gb werden genutzt. Hat wenig Aussagekraft erst mal, mhh.
 
Naja das sind grob 25-30% über der Ti bei den getesteten Spielen. Das könnten dann auch mal mit DLSS und Raytracing, bzw. bei 3000 freundlichen Spielen mehr werden. Eigentlich grob, wie mans erwartet hat. Vielleicht minimal drunter....
Diese ganzen Kaufwilligen, die sofort blind tausende Euro ausgeben, sind sowieso Wilde :D

Wobei die doppelte 2080 Geschwindigkeit kaum erreicht werden kann, das ist klar.
 
Zuletzt bearbeitet:
Supermax2004 schrieb:
Gerade da seh ich aber keinen Vergleich zur 2080S, nur zwischen DLSS an und aus, oder kannst du chinesisch? Sieht man das irgendwo?
Stimmt, das wird nicht verglichen. Das Video ist mittlerweile auch entfernt worden.
 
Was genau wurde denn getestet? Welches Spiel, welche Karte?
 
Die 3080 mit Forza, Borderlands 3, Horizon Zero Dawn, AC Odyssey und noch irgendwas.
Shadow of the Tomb Raider und Death Stranding 4k nativ vs. DLSS. Hier gabs bei Tomb Raider von 70 fps auf 100, mehr hab ich mir nicht gemerkt :(
48-60% gegenüber der 2080s bei den 4-5 Spielen ohne RTX oder DLSS.
 
Die Frage ist doch auch, ob die schon finale Treiber hatten.
 
Zurück
Oben