Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

Das wird wahrscheinlich so wie bei MPEG sein, wonach man Motion Estimation verwendet. Bei MPEG bezieht sich das aus dem vorhergingen und zukünftigen Frame. Und hier wird wohl die zukünftige Frameinformation anhand von der Engine enthaltenen Motion Vectoren und der Anaylse/Auswertung für die Zukunftsbewegung genommen. So denke ich es mir.

https://upload.wikimedia.org/wikipedia/commons/6/6f/Motion_interpolation_example.jpg

Sprich, Zukunftsframeinformation wird einfach simuliert durch die Informationen(Motion Vectoren) aus der Engine. Und das über Zeit n, sprich, wird das nächste Bild nicht in n-Zeit gerendert, so kommen nochmal die Engine-Vectoren ins Spiel und werden für das neue Bild verwendet. Somit kann kann man mehr Bilder bis zum neuen Renderbild posten, wenn die Zeit es zulässt. Ich gehe davon aus, dass für DLSS3 immer die Vorrausetzung DLSS2 ist
 
Zuletzt bearbeitet:
HardcoreGaymer schrieb:
Also...jetzt mal ehrlich! Geht's jetzt hier um die Job-Frage?
Nein. Das war eine nüchterne Erwähnung, dass das Lohn/Preisniveau in der Schweiz und in D ein anderes ist.
Ergänzung ()

Tudeski schrieb:
deswegen finde ich die preispolitik von nvidia zum kotzen.
Nicht nur deswegen - sondern allgemein gesprochen.

Bei Nvidia merkst du ganz genau, dass es nur nach oben geht. Mal schauen, ob es bei der Käuferschaft ein Umdenken geben wird. Ich bin skeptisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kenshin_01, Recharging und Col.Maybourne
Diese unendliche Polemik und Häme hier wieder... 🤢

Die Benamung der Karten ist völlig Latten, am Ende zählt die Gaming-Performance. Und daraus "darf" man dann ableiten, ob das eine "4070" oder auch "4060 Ti" sein könnte, wie es hier schon jemand total lächerlich in der Signatur stehen hat 🤦‍♂️
Als ob Nvidia keine 4070 und niedriger mehr vorstellen wird.
Als ob dort keine Leute sitzen, die sich keine intensiven Gedanken über die Produktaufstellung machen - aber ja, der Forenmob weiß es alles besser. Und irgendwelche YouTuber natürlich auch.

Ja, die Preise sind frech und unverschämt und ich werde niemals 1000,- € oder mehr für eine Karte ausgeben.
Aber das ist auch der einzige Kritikpunkt, den ich anerkenne.
Technisch ist das bisher gezeigte absolute Spitzenklasse. DLSS 3.0 werde ich sicherlich nicht an einzelnen Screenshots bewerten, die sich irgendwelche "Lederjacken-Hater" aus irgendwelchen Trailern rausgepickt haben.
Irgendwann in den nächsten 2 Wochen wird es ordentliche Tests geben. Und dann sehen wir weiter.
 
  • Gefällt mir
Reaktionen: RogueSix
Nvidia kann auch eine 4050 als 4090ti verkaufen, diese Machenschaften lassen sich aber nicht lange geheim halten und die Entlarvung wird dann lächerlich in Signaturen verbreitet :heilig:
 
thuering schrieb:
Die Benamung der Karten ist völlig Latten, am Ende zählt die Gaming-Performance. Und daraus "darf" man dann ableiten, ob das eine "4070" oder auch "4060 Ti" sein könnte, wie es hier schon jemand total lächerlich in der Signatur stehen hat 🤦‍♂️
Als ob Nvidia keine 4070 und niedriger mehr vorstellen wird.
Als ob dort keine Leute sitzen, die sich keine intensiven Gedanken über die Produktaufstellung machen - aber ja, der Forenmob weiß es alles besser. Und irgendwelche YouTuber natürlich auch.
Die Frage, ob es sich bei der Benennung um irreführende Werbung handelt ist durchaus berechtigt, die Antwort überlasse ich aber gerne den Verbraucherschützern.
Der Normalo im MM, der keine Benches studiert, kann sehr wohl, im Kontext des Namensschemas vorhergehender Produktgenerationen, denken, dass sich eine RTX4080 12Gb lediglich bei der Größe des VRAM von der RTX4080 16Gb unterscheided.
 
  • Gefällt mir
Reaktionen: Col.Maybourne, LamaMitHut, Illithide und 2 andere
ragnarok666 schrieb:
Der Normalo im MM, der keine Benches studiert, kann sehr wohl, im Kontext des Namensschemas vorhergehender Produktgenerationen, denken, dass sich eine RTX4080 12Gb lediglich bei der Größe des VRAM von der RTX4080 16Gb unterscheided.
Oder der Normalo, der einen Fertigrechner kauft, der sieht dann in der Überschrift fett gedruckt 4080 12GB, die restlichen Specs findet man dann nur nach langem Suchen im Kleingedruckten.
 
  • Gefällt mir
Reaktionen: McTheRipper
Problematisch ist scheinbar auch das neue 12-Pin Steckerdesign im Hinblick auf Leute mit alten Netzteilen (die nicht ATX 3.0 erfüllen), denn die Adapterstecker sollen nur eingeschränkt oft (ich glaube Zotac bezieht sich in deren Adapterversion auf maximal 30 Steckverbindungen) nutzbar sein.

Näheres dazu wird auch im folgenden Video von JayzTwoCents noch einmal besser veranschaulicht:


Das würde also bedingen, dass sich Käufer einer RTX 4090 schon besser gleich teure ATX 3.0 Netzteile zusätzlich zum Preis der RTX 4090 anschaffen sollten um kein schinbar mögliches Feuer-Risiko - ausgelöst durch einen durchgeschmorten Adapter - einzugehen und auch für RTX 4080 Käufer ist das nicht ausgeschlossen (teure ATX 3.0 Netzteile sind dort auch zumindest angeraten), was ein ziemliches Fettnäpfchen für nVidia sein dürfte, denn die neben den RTX 4000er Wucherpreisen noch zusätzliche Kosten für ein potentes ATX 3.0 Netzteil wird mit Sicherheit nicht auf viel Gegenliebe stoßen bei vielen der potentiellen Kaufinteressenten.
 
  • Gefällt mir
Reaktionen: Recharging und Kommando
HerrRossi schrieb:
Oder der Normalo, der einen Fertigrechner kauft, der sieht dann in der Überschrift fett gedruckt 4080 12GB
Ich weiß nicht, "Normalos" kaufen Fertig pcs mit verbauten 1000€ gpus?
Gerade die Enthusiasten sind gut informiert und der Einstiegs- /Mittelklassekäufer wird gar nicht erst mit dem Preissegment angesprochen und jene, welche sich direkt das teuerste Modell zulegen, weil sie es sich problemlos leisten können, akzeptieren das zweit-/drittbeste auch nicht gerne.
 
Suspektan schrieb:
Ich weiß nicht, "Normalos" kaufen Fertig pcs mit verbauten 1000€ gpus?
Es scheint jedenfalls einen Markt dafür zu geben: https://www.mediamarkt.de/de/category/pcs-365.html?filter=graphicsCard:NVIDIA GeForce RTX 3090
Ergänzung ()

Chismon schrieb:
Problematisch ist scheinbar auch das neue 12-Pin Steckerdesign im Hinblick auf Leute mit alten Netzteilen (die nicht ATX 3.0 erfüllen), denn die Adapterstecker sollen nur eingeschränkt oft (ich glaube Zotac bezieht sich in deren Adapterversion auf maximal 30 Steckverbindungen) nutzbar sein.
Ich glaube, das betrifft alle 12VHPWR Stecker, auch die von ATX3.0 Netzteilen, auch diese Sache mit den gebogenen Kabeln.
Das Problem mit den Adapter ist, dass der 12VHPWR Anschluss an der Grafikkarte nicht mit dem alten Netzteil kommunizieren kann und dadurch Rails oder Kabel überlastet werden können.
 
  • Gefällt mir
Reaktionen: Chismon
Chismon schrieb:
Die irreführende Werbung, dass die Karten ab 899 US$ zu kaufen sein sollen, es aber gleichzeitig keine Founder's Edition der "RTX 4080" 12GB wird, die diesen Preis absichert gegenüber i.d.R. teureren Custom-Modellen der Boardpartner ist ein anderer Punkt, der Handlungsbedarf erfordern könnte

Also zumindest Zotac haben ja in ihrer LineUp Ankündigung bereits öffentlich gemacht, welche ihrer Modelle zur MSRP verfügbar sein werden. Da ist auch die RTX 4080 mit 12GB dabei, nämlich die ZOTAC GAMING GeForce RTX 4080 12 GB Trinity.
Ich vermute stark, dass nVidia diese Preisbindung mit den Boardpartnern auch entsprechend abgestimmt haben, also dass wenigstens ein Modell zur MSRP angeboten werden muss.

Im Übrigen verdichten sich die Indizien, dass es wie früher durchaus sein könnte, dass die Straßenpreise mancher custom Modelle (außer den ganz dicken Premium-OC-Flaggschiffen) eher etwas unterhalb der MSRP/UVP landen könnten.

Das bleibt natürlich abzuwarten, aber es hat jetzt schon ein paar Stores gegeben, die etwas voreilig die Karten mit Preisen gelistet haben und da gab es eben auch Listungen unterhalb MSRP/UVP.
WCCFTech hatte da ein paar entsprechende Stories in den vergangenen Tagen und es war mehr als nur ein Store, also getreu dem Motto "where there is smoke, there is fire" könnte es eventuell tatsächlich sein, dass die MSRP/UVP der FE dieses Mal eher die obere Preisgrenze abbildet und die Straßenpreise darunter angesiedelt sein werden..

In ca. drei Monaten wissen wir mehr, denn dann dürften sich die (Straßen-)Preise bei ordentlicher Verfügbarkeit ausgeschüttelt und eingependelt haben. Die ersten Tage und Wochen kann man eh nicht so ernst nehmen, weil stets ein gewisser "Early-Adopter-Deppenpreis"-Faktor (scalping light) greifen wird.
Die Händler werden vor Weihnachten schon versuchen, da noch einen kleinen Reibach zu machen. Die Nachfrage wird wegen der wirtschaftlichen Gesamtsituation gering sein, also wird man versuchen, wenigstens die Marge pro abgesetzter Einheit möglichst hoch zu halten.
 
  • Gefällt mir
Reaktionen: Chismon
Der Hauptmarkt der "Casual Normalos" wird eher so was kaufen (Dinge für die man hier im Forum wahrscheinlich gesteinigt wird):
Billig Fertig PC 1
Billig Fertig PC 2
Bsp. Gaming Lappi im Angebot 1
Bsp. Gaming lappi im Angebot 2

Leute die informiert ihre Rechner selbst zusammenbauen sind eher eine Minderheit.

Für mich selbst wirds nächstes Jahr auch nen neuen Gaming Laptop geben. Ob Lovelace oder RDNA3 hängt dann hauptsächlich vom Preis/Leistungsverhältnis ab und ob grad ein gutes Angebot steht.
 
xexex schrieb:
Samsung S22 und bekommen in der EU ein anderes Gerät als in den USA.

Wobei der Exynos auf CPU Seite nicht gross langsamer ist bei der GPU schon ein paar Prozent.
Was mich jetzt nicht gross juckt, ist schnell genug.

Dafür kriegt man Features wie AV1 Decoding, was der Snapdragon nicht kann.
Das Samsung 5G Modem ist auch sehr sparsam, schnell und strahlungsarm.
Der Stromverbrauch der SoCs ist ident.
Der Exynos ist also kein schlechter Deal.
Hier bei uns aufm Land:

1664021657670.png



Das ist schon was anderes als 22% weniger Shader, RT und Tensorkerne, 25% kleineres Speicherinterface, 25% weniger Cache und zumindest nach ersten Einschätzungen 30-35% weniger Rasterleistung, beim RTX wird es sich in ähnlichen Sphären bewegen. Und das mit dem gleichen Namen.
Ich mein ne 4070 (TI) was der AD104 sein sollte für 1100€ und mehr ist einfach absurd, sonst nix.
Wenn der Markt nicht noch Ampere Inventar für eine Jahr hätte, was man zu hohen Preisen verkaufen will
wär das auch ne 4070 und der Preis massiv tiefer.

Ist ne Chance für AMD, wenn ne Navi 33 7600XT 8GB oder wie sie dann heissen soll, wie in den Gerüchten zu hören, mit der Raster Leistung einer 6900XT aufschlägt und dabei 500$ kosten soll hat die Fake 4080 nen schweren Stand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bttn
HerrRossi schrieb:
Das Problem mit den Adapter ist, dass der 12VHPWR Anschluss an der Grafikkarte nicht mit dem alten Netzteil kommunizieren kann und dadurch Rails oder Kabel überlastet werden können.

Ja, das scheint der Kern des Problems zu sein, ob das für alle Adapterarten zutreffen wird, wie man sehen müssen, aber für Käufer der bisher angekündigten Ada Lovelace Karten in Kombination mit alten Nicht-ATX3.0 Netzteilen wäre das sicher ein nicht unerhebliches Risiko.

Eventuell kommt ab RTX 4070Ti (abwärts) ja kein 12-Pin Stecker mehr zum Einsatz, aber das wird man abwarten müssen und hängt von nVidia ab. Mit geringerem Energiebedarf der Grafikkarten sinkt natürlich das Risiko der Verwendung älterer Netzteile via 12-Pin Adapterkabel.
 
  • Gefällt mir
Reaktionen: HerrRossi
MasterAK schrieb:
In D wird - wenn überhaupt - gerade mal die Hälfte verdient.
Das kann ich halt nichts nachvollziehen. Da sind aber meiner Meinung nach beide Seiten dran Schuld. Einmal der Staat der nicht in der Lage ist einige Berufe besser/fairer zu bezahlen, aber auch die Arbeitnehmer die sich in ihrem Job weiter im Kreis drehen.

Ich habe nichtmal eine abgeschlossene Berufsasusbildung (meine Jugend war ein wenig, sagen wir "schwer"), dennoch kann ich mir nicht mehr vorstellen für 2K Netto oder weniger arbeiten zu gehen. Pobacken zusammenziehen und Feuer frei!

Leider werden halt viele Berufe für die eine Berufsausbildung nötig ist zu schlecht bezahlt, dass ist wirklich lächerlich.
 
  • Gefällt mir
Reaktionen: Pro_Bro
@Chismon

Die angesprochene Problematik erscheint mir wichtig.

Wie kommt man zu einer CE Freigabe bei so einer Problematik und wie sähe die Hafttung im Fall der Fälle aus denn im schlimmsten Fall kann viel mehr als die GPU,das NT übern Jordan gehen.

Dann müsste explizit die Nutzung nur mit einem neuen Netzteil neuester Gen. ausgewiesen und freigegeben
sein.

Die Problematik,falls vorhanden,dürfte mit US Gesetzen erheblich gravierender sein.

Hier sollte man unbedingt nachhaken seitens CB & Co..
 
Ich vertraue da mal auf die custom Hersteller. Die werden das sicherlich ausgiebigst getestet haben mit dem 12VHPWR Adapter. Es gibt für die Hersteller nichts, was mehr auf die Margen schlägt als RMA-Fälle und da werden die kein unnötiges Risiko eingehen.

Ich habe mich über das Limit der 30-fachen Verwendung bei Zotac auch köstlich amüsiert als ich das im Datenblatt gelesen habe. Mal abgesehen davon, dass Zotac einem im Fall der Fälle wohl kaum wird nachweisen können, dass man sich "erdreistet" hat, da öfter als 30x die 8-pin Kabel ein- und ausgesteckt zu haben, dürfte das eine reine Floskel zwecks Haftungsausschluss bei übermäßiger Verwendung sein. Der Adapter wird wohl kaum einen eingebauten Zähler haben und genau beim 31. Mal auseinanderbröseln ;) .
 
ragnarok666 schrieb:
Von Techpowerup: The new Optical Flow Accelerator incorporated into the NVIDIA Ada Lovelace architecture analyzes two sequential in-game images and calculates motion vector data for objects and elements that appear in the frame, but are not modeled by traditional game engine motion vectors.
--> Kein Zwischenframe

Wie kommst du anhand der Aussage denn zu dem Schluss, dass es kein Zwischenframe ist, sondern der nächste Frame?

Entweder ist mein Englisch zu schlecht oder die Info fehlt einfach.

Da steht, dass man sich zwei aufeinanderfolgende in-game Frames ansieht und anhand dieser Daten einen neuen Frame generiert.

Heißt, man kann sich zwei alte Frames ansehen und daraus dann den nächsten zukünftigen Frame voraussagen.
Wird funktionieren, die Gefahr für Artefakte ist aber extrem hoch.

Oder eben man verzögert die Ausgabe um einen Frame und schaut sich zwei in-game Frames an, um dann noch vor der Ausgabe ein Zwischenbild zwischen diese beiden Frames zu schieben. Ähnlich wie es die meisten TVs machen. Halte ich für die "sicherere" Variante, da mit Hilfe der Bewegungsvektoren und 3D Informationen der Szene viel weniger Artefakte zu erwarten sind, wenn man bereits beide Frames kennt und quasi nur einen Übergang erstellen muss.

Die Aussage von Nvidia lässt beides zu. Denn es ist ja von aufeinanderfolgenden Ingame Frames die rede.
Auch wenn ich ein zwischenbild "2" berechne und zwischen Frame 1 und 3, einsetze, bleiben Frame 1 und 3 ja nach wie vor die beiden aufeinanderfolgenden Ingame Frames. Also die "echten" Frames. Nvidias Aussage passt einfach auf beide Vermutungen.


Es wäre wie gesagt schön, wenn da ein neuer nächster Frame vorhergesagt wird und man deswegen die Ausgabe nicht verzögern muss, aber ich hab noch nichts gefunden, was das klar bestätigt.
 
  • Gefällt mir
Reaktionen: BGnom und Suspektan
W0dan schrieb:
Wie kommst du anhand der Aussage denn zu dem Schluss, dass es kein Zwischenframe ist, sondern der nächste Frame?

Entweder ist mein Englisch zu schlecht oder die Info fehlt einfach.
Jensen sagt im Video, dass die berechneten Frames "intermediate" Frames sind, und damit also dazwischen liegen. Eine Extrapolation ist auch sehr unwahrscheinlich, weil es damit am Bildrand zu massiven Fehlern in der Vorhersage kommen kann.
 
  • Gefällt mir
Reaktionen: Suspektan und Mimir
Chismon schrieb:
Eventuell kommt ab RTX 4070Ti (abwärts) ja kein 12-Pin Stecker mehr zum Einsatz...
Das halte ich für sehr wahrscheinlich.
 
modena.ch schrieb:
Wobei der Exynos auf CPU Seite nicht gross langsamer ist bei der GPU schon ein paar Prozent.
Dafür kriegt man Features wie AV1 Decoding, was der Snapdragon nicht kann.
Das Samsung 5G Modem ist auch sehr sparsam, schnell und strahlungsarm.
Der Stromverbrauch der SoCs ist ident.
Der Exynos ist also kein schlechter Deal.
Das Problem ist auch nicht nur der Chip selbst, sondern die Grafiktreiber.
 
Zurück
Oben