News Offizielle Benchmarks: Der Abstand zwischen RTX 4080 und RTX 4090 ist riesig

.Sentinel. schrieb:
??? Du baust also aus einem Auto den Turbolader aus, weil der ja nur eine "künstliche" Hubraumerweiterung darstellt, weil das sonst Beschönigung sei.
Das ist falsch, ein Turbolader erhöht den Druck und ist keine "künstliche" Hubraumerweiterung.
 
  • Gefällt mir
Reaktionen: Oppagolf
  • Gefällt mir
Reaktionen: MichaG, SVΞN und .Sentinel.
Ragnarök88 schrieb:
Ob das so schlau ist? Die Karte ist selbst beim reinen Rastern nur 6/0% schneller als eine 3080 10/12G und kostet dasselbe.;)

Bei RT ist die Karte vor allem gegenüber der 12G 3080 völlig abgeschlagen.
Schlau nicht, ich würde auf die RX 7000er warten, aber schlauer als ne 3080 allemal.

Ich weiß nicht, wo du deine Informationen her hast, aber deine Aussagen sind wieder mal Blödsinn.
Die RX 6900 ist nämlich bei Rasterizing ca. um so viel schneller als die 3080, wie letztere bei RT schneller ist.

1665765926378.png

1665768778908.png


Wo die dasselbe Kosten sollen, weiß ich auch nicht. Die RX 6900 ist bei GH ab 740€ gelistet, wobei es die letzten Tage Angebote um 650-700€ gab. 3080 10 GB ab 800, mit 12 GB ab 1000€.

Da wären wir wieder beim Thema Brille und so, weißte noch?
 
  • Gefällt mir
Reaktionen: baizer, eXe777 und Setting
.Sentinel. schrieb:
Exakt- Es ist eine Redensart. Kannst es auch Zwangsbeatmung nennen.
Das Upsampling ist aber keine Leistungssteigerung, alleine ist die Silbe up, für runter vorhanden.
Downsampling ist Leistung aber nicht Upsampling.
 
je87 schrieb:
Hier sprichst du aber von einem ganzen Computer inklusive Monitor und nicht nur von einer einzelnen Komponente.
Das stimmt, Danke für den Hinweis. Ich hätte klar stellen sollen, das ich mich auf die Kollegen in den Kommentar Spalten beziehe, die für 1000/2000€ ihren kompletten Rechner kaufen.

Im Endeffekt ist es wie immer. Wer das beste möchte zahlt das meiste. (Damit möchte ich nicht sagen das ich 2000€ gerechtfertigt finde). Anscheinend kauft jemand die Karten, also muss es einen Markt geben.
Master Chief ! schrieb:
Was Leute wie du aber gerne vergessen oder ignorieren: Früher war PC-Hardware noch kein Massenmarkt!
Leute die in den 80er und 90er sich ausgiebig mit PC(Gaming) beschäftigt hatten waren eher selten und als Nerds verschrien. Ich weiß wovon ich rede, da ich selber ein Nerd war zu der Zeit.

Das tolle am technischen Fortschritt ist ja das durch Massenproduktion halt alles biliger wird und auch ämere Menschen sich neuere Technik leisten können.

Ein 55" OLED-TV würde auch heute noch mindestens 6.000€ kosten ohne technischen Fortschritt und Massenproduktion. Gibt es heute schon für unter 1.000€

Würdest du heute für eine 1GB NVMe SSD das 8-16 fache mehr bezahlen als für eine 1GB SATA-SSD, nur weil die 8-16 mal schneller ist? Bestimmt nicht. Bei Grafikkarten funktioniert das komischerweise.

Das High-End HW teurer ist, war schon immer so. Habe mir auch nie High-End HW gekauft, da a. viel zu teuer für mich und b. P/L aus der Hölle ist.
Aber wenn jetzt schon Mid- und Low-End HW für immer mehr Menschen unbezahlbar wird, läuft eindeutig was Falsch.

Eine 4080 12 GB ist von den Leistungsdaten her eindeutig eine 4070, also Mid-Ware, und die soll 1.000€ kosten/Wert sein? Nee, nie im leben.
Ich verstehe was du meinst und ich kenne nicht die Produktions/Werbe Lohnkosten usw. bei Grafikkarten aber folgendes Beispiel: Anfang der 2000 hast du normale Handys für 150€ bekommen die Herstellungskosten lagen bei ka. 30€?

Heutzutage kosten bspw. Smartphones gerne mal 1200€ plus, aber die Herstellungskosten sind entsprechend gestiegen auf (Premium bspw. iPhones) 200-400€.

Also ich will damit sagen, das natürlich die Massenproduktion viel verbilligt, aber die Bauteile sind x mal mehr geworden und komplizierter.
 
  • Gefällt mir
Reaktionen: je87
Gordon-1979 schrieb:
Das Upsampling ist aber keine Leistungssteigerung, alleine ist die Silbe up, für runter vorhanden.
Upsampling ist ja nur ein Gattungsbegriff.

Im Fall von von DLSS sprechen wir von supersampling (darüber hinaus), welches dann beim erreichen der vielfachen Information durch temporale Kumulation dann auf die Zielauflösung "downgesampled" wird.
Sonst käme kein effektives Antialias zustande.
Da Du aber schon während des kumulierens des Zielbildes echte Frames ausgibst, steigt die Tick- Rate der Engine und die Latenz sinkt auf den Wert der Ausgabe der niedrigeren DLSS Ursprungsauflösung.

Bei DLSS3 sparst Du also Latenz durch DLSS2 und durch erzwungenes Reflex. Addierst aber die Latenz eines zusätzlichen Frames + Zeit für die Generierung der Interpolation.
In Summe kommst Du dabei aber immernoch besser weg, als wenn Du alles bruteforce rendern lässt bei erheblich gesteigerten Frameraten.

Die High- Ender wollen Auflösung und Framerate. Durch die neuen Techniken erreicht man beides in einem Qualitätskorridor der als "good enough" zu betiteln ist, ohne noch 2 zusätzliche Grafikkartenevolutionsstufen abwarten zu müssen.
 
Zuletzt bearbeitet:
Ragnarök88 schrieb:
Man kann immer irgendwelche Vergleiche ziehen, letztendlich entscheidet der Markt und nicht vereinzelte Forenuser wie ein Produkt ankommt.
Und wer hat nun entschieden? Deine fachliche Meinung würde mich hier interessieren.
1665773120815.png
 
  • Gefällt mir
Reaktionen: ben12345 und Setting
Metto Hiieb schrieb:
nVidia "unlaunched" die 4080 12GB

https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

Was zum fick bin ich sehend...?
na da mal ein herzliches Rofl drauf und noch ein gutes zurückrudern, vielleicht noch gefolgt von in die Schei... argumentieren... (und ich bin jetzt schon freudig auf die Erzählungen der Fanboys gespannt, laut denen es von Vorteil sein soll, dass die Karte zurückgezogen wird)....

und ich will gar nicht darüber nachdenken, wie sich das auf die Preise der restlichen Lovelace, aber auch Ampere, Karten auswirken sollte und wie es sich auswirken wird. Vor allem in der Fanboy Bubble die Nvidia sich geschaffen hat, können das zwei sehr gegensätzliche Punkte sein.
 
  • Gefällt mir
Reaktionen: PegasusHunter
catch 22 schrieb:
(und ich bin jetzt schon freudig auf die Erzählungen der Fanboys gespannt, laut denen es von Vorteil sein soll, dass die Karte zurückgezogen wird)....
Schau mal in die Kommentare der entsprechenden News ;)
 
  • Gefällt mir
Reaktionen: PegasusHunter
msv schrieb:
Hab ich auch grade gelesen… Hallo RTX 4070, byebye bescheidene Marketing-Idee oder was das war 🙋🏼‍♂️😅
Ich bin ganz ehrlich. Mit den Daten sehe ich sie nicht einmal als 4070.
 
  • Gefällt mir
Reaktionen: PegasusHunter und msv
Der Stromverbrauch ist viel zu hoch, für die heutige Zeit und stellt keinen Fortschritt dar. Einfach immer mehr Recheneinheiten in den Chip stopfen ist für mich kein Fortschritt, sondern zeigt wie die Hersteller Entwicklungskosten einsparen und mit solchem veralteten Kram sich die Taschen füllen, denn die Preise sind auch nicht ohne. Die Stromfresser könnt ihr euch sparen. Traurig, dass ihr einfach nicht in der Lage seit eine, neue stromsparende Architektur zu entwickeln, die sogar noch mehr leisten könnte, denn die Chips heute sind doch Schnee von gestern.
 
  • Gefällt mir
Reaktionen: PegasusHunter
.Sentinel. schrieb:
Dazu kann ich sagen, dass ich, wenn ich auf die 30 Jahre zurückblicke, in denen ich (auch professionell) mit PCs zu tun habe, in Sachen Technik und Geschwindigkeitszuwachs in diversen Szenarien so einen Sprung seit des disruptiven Erscheinens der 8800GTX und vormals wechsel von ISA auf VESA local bus pcw. PCIe nicht mehr erlebt habe.
Der Performancesprung ist ja auch beachtlich, man darf aber nicht nur rein auf die Performance schauen.

Ähnlich große Sprünge gab es damals mit der 8800 GTX und GTX 1080 (Ti). Der große Unterschied ist hier jedoch, dass die Preise damals über Jahre/Jahrzehnte stabil blieben... Von den Titan-Karten mal abgesehen war demnach die stärkste Consumer-Karte bei max. 600-700$. Das hat sich mit 2080 Ti, 3080 Ti und 3090 (Ti) jedoch radikal geändert. Und nun legt Nvidia mit der 4090 erneut preislich eine ganze Schippe drauf.

Ich betrachte hier jetzt auch nur rein die UVP von Nvidia, denn die von Nvidia angesetzte UVP ist das, was für mich primär zählt.
 
@.Sentinel. es ist aber Upsampling.
Im Treiber wählt man eine niedrige Auflösung aus, die auf eine höhere berechnet/Simuliert wird.
Das gleich kann auch ein Fernseher.
Des weiteren hat es nicht im Ansatz was mit Downsampling zu tun.
Denn beim Downsampling wird eine höhere Auflösung berechnet, die auf eine niedrige ausgeben wird.
Dies ist eine deutlicher Hardware aufwand, als das DLSS.
Denn ich habe noch keine Benchmark einer RTX4090 mit Downsampling/DSR mit Faktor 4 oder höher gesehen.
Ich glaube da würde die RTX4090 auch nicht so gut aussehen.
 
Gordon-1979 schrieb:
@.Sentinel. es ist aber Upsampling.
Im Treiber wählt man eine niedrige Auflösung aus, die auf eine höhere berechnet/Simuliert wird.
In Frame 1 nach einem Szenenwechsel - Ja
Gordon-1979 schrieb:
Das gleich kann auch ein Fernseher.
Nein - Das was DLSS macht, kann kein Fernseher. Wie gesagt- Upsampling ist ein Gattungsbegriff hinter dem unterschiedliche Techniken stecken können.
Gordon-1979 schrieb:
Des weiteren hat es nicht im Ansatz was mit Downsampling zu tun.
Denn beim Downsampling wird eine höhere Auflösung berechnet, die auf eine niedrige ausgeben wird.
Genau das macht DLSS
Gordon-1979 schrieb:
Denn ich habe noch keine Benchmark einer RTX4090 mit Downsampling/DSR mit Faktor 4 oder höher gesehen.
DSR:
Gaming-Fans mit kompatiblen Bildschirmen und technischem Know-how bezeichnen diesen Vorgang als „Downsampling“ oder „Super-Sampling“.
Quelle: https://www.nvidia.com/de-de/technologies/dsr/

DLSS: Deep Learning Super Sampling
Super=Darüber hinaus

Gordon-1979 schrieb:
Ich glaube da würde die RTX4090 auch nicht so gut aussehen.
Siehe oben- Das Supersampling mit anschließender Mittelung auf eine niedrigere Pixelzahl löst DLSS temporal.
Nachteil ist, dass Frame #1 in niedrigerer als die Zielauflösung vorliegt. Vorteil ist, dass man Frame 1 schneller berechnet und damit die Latenz der Ausgabe sinkt.

Ich glaube Du wirfst da irgendwas durcheinander...
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
In Frame 1 - Ja
Nein - Das kann kein Fernseher
Doch, hier von Samsung und Sony: KI-Upscaling, was DLSS auch bloß ist.
https://www.samsung.com/de/explore/entertainment/ai-upscaling/
https://www.sony.at/presscentre/new...-tv-modelle-mit-neuem-kognitivem-prozessor-xr

Denn laut nVidia:
NVIDIA DLSS
Der Leistungsmultiplikator mit KI.

.Sentinel. schrieb:
Genau das macht DLSS
Nein, es wird eine niedrige Auflösung, per KI hochgerechnet. Erklärung von nVidia:

Superhohe DLSS-Auflösung​

Steigert die Leistung aller GeForce RTX-Grafikprozessoren durch die Verwendung von KI zur Ausgabe von Bildern mit höherer Auflösung aus einer Eingabe mit niedrigerer Auflösung. DLSS nimmt mehrere Bilder mit geringerer Auflösung auf und verwendet Bewegungsdaten und Rückmeldungen aus früheren Bildern, um Bilder in nativer Qualität zu rekonstruieren.
.Sentinel. schrieb:
DSR:
Gaming-Fans mit kompatiblen Bildschirmen und technischem Know-how bezeichnen diesen Vorgang als „Downsampling“ oder „Super-Sampling“.
Das sagen Fans, aber die es ist was anderes, auch laut nVidia.
 
  • Gefällt mir
Reaktionen: Oppagolf
Gordon-1979 schrieb:
DLSS hat Berührungspunkte mit dem, was in Deinen Links beschrieben ist.
Planare Bilder ohne zusätzliche Inputs können aber nur auf per Pixel- Basis analysiert werden.
In DLSS fließt deutlich mehr Information ein.

Gordon-1979 schrieb:
Nein, es wird eine niedrige Auflösung, per KI hochgerechnet. Erklärung von nVidia:
Ich schreibe es nun noch einmal:
Frame #1 hat eine niedrigere Auflösung. Durch temporale Kumulation addieren sich in den Folgeframes die Pixeklinformationen ÜBER die native Zielauflösung, wenn Du nicht gerade den Ultra Performance Modus wählst in dem die kumulierte Pixelzahl durch Clamping oftmails nicht über das Sampling zum nativen Bild hinauskommen wird.

Danach werden die Überschüssigen Pixeinformationen in das Pixelraster der nativen Zielauflösung quantisiert (Downscaling), womit automatisch ein effektives Antialias stattfindet..

Genauso wie es bei DSR passiert.
Unterschied zu DSR ist, dass bei DSR ab Frame #1 ab Szenenwechsel bereits ein Supersampling vorhanden ist.

Gordon-1979 schrieb:
Das sagen Fans, aber die es ist was anderes, auch laut nVidia.
Ich habe Dir die Originalquelle mit der Beschreibung verlinkt. Das hat nichts mit Aussagen irgendwelcher Fans zu tun, sondern geht eher auf den üblichen Sprachgebrauch dieser technischen Ausdrücke ein.
Wenn Du die Originalquelle Leugnest oder deren Inhalt nicht anerkennst, wird es natürlich schwierig zu diskutieren.

Aber auch hier nochmal ein Spoonfeed einer anderen Quelle:
https://en.wikipedia.org/wiki/Supersampling
Color samples are taken at several instances inside the pixel (not just at the center as normal), and an average color value is calculated. This is achieved by rendering the image at a much higher resolution than the one being displayed, then shrinking it to the desired size, using the extra pixels for calculation.
Nochmal:
DLSS: Deep Learning Super Sampling

Unterschied normaler Upscaler / DLSS, also Supersampling
1665863934341.png
 
Zuletzt bearbeitet:
Zurück
Oben