News Grafikspeicher: GDDR7-Samples für Nvidias nächste GeForce-Generation

Ist schon lustig wie Leute hier mit der Speicherkapazität um sich werfen aber überhaupt gar nicht drüber nachdenken was für Speicherinterfaces sinnvoll sind und was für mögliche Kapazitäten überhaupt in Frage kommen.
 
  • Gefällt mir
Reaktionen: ThirdLife
[wege]mini schrieb:
@MichaG

Ich sage ja auch immer (noch) "nach Adam Riese". kA warum.

Eigentlich war sein Name ja Adam Ries. Wenn hier irgend welche Linguisten sind, dürften sie gerne aufklären, was denn "richtig" ist.

Das ist korrekt, was du schreibst, aber nach so vielen Jahren ist umgangssprachlich aus Adam Ries (der im 16. Jhd. lebte) Adam Riese geworden. Gibt sogar eine Briefmarke zu ihm, wo es falsch mit E am Ende draufsteht.
adam-riese-c3487253-jpg--60812-.jpg

BTT:
Ich bin nur gespannt, ob Samsung das Rennen macht oder SK Hynix bis zum Launch der 5000er Serie nachgezogen ist. Denn da Nvidia mehr Karten als AMD verkauft, dürfte das nicht ganz uninteressant sein.

Welchen Speicher verbaut denn AMD? Gibt es bei den diskreten Grafikkarten und den Konsolen einen bestimmten Hersteller, oder wird das genommen, was gerade gut und günstig verfügbar ist?
 
  • Gefällt mir
Reaktionen: SweetOhm und [wege]mini
Er ist ja auch Adam, der Riese :heilig:

Damals, als wir noch das Land der Dichter und Denker waren, ach waren das schöne Zeiten. Heute sind wir das Land der dichten Denker, die sich Nachts treffen und am nächsten Morgen aussehen, als wenn sie ihre Entscheidungsfindung nur mit Alkohol geschafft haben, da man dann ein wenig benebelt ist.

btt:

.Snoopy. schrieb:
oder wird das genommen, was gerade gut und günstig verfügbar ist

So schauts aus. AMD hat nicht die Möglichkeiten, einen eigenen Prozess oder Fertigung zu bekommen, wie Nvidia, Intel oder Apple. AMD muss nehmen, was sie kriegen können.

mfg

p.s.

Und klar, selbst Martin Luther hat dem Wein gefrönt. Da spricht nichts dagegen. Es gibt aber einen Punkt, an dem wird es zu viel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Snoopy. und SweetOhm
ThirdLife schrieb:
Seh ich eben auch nicht wirklich. Erstmal muss es Spiele geben die das nutzen und nicht nur einen oder zwei Titel sondern hunderte. Vorher ist von einem "brauchen" eh nicht die Rede.
Du meinst genau wie bei RT und DLSS 3.0 ?!?
Ergänzung ()

.Snoopy. schrieb:
BTT:
Denn da Nvidia mehr Karten als AMD verkauft, dürfte das nicht ganz uninteressant sein.
Mehr UMSATZ machen sie bei den "Gamern".
Aber insgesamt dürften sie mehr Chips "an den Mann" bringen ...

https://www.gamestar.de/artikel/nvidia-vs-amd-grafikkarten-verkaufszahlen,3392375.html
 

Anhänge

  • GPU Verkauf.jpg
    GPU Verkauf.jpg
    504,5 KB · Aufrufe: 53
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini
SweetOhm schrieb:
Aber insgesamt dürften sie mehr Chips "an den Mann" bringen ...

Das ist bei den Gamern korrekt. Nur leider verkauft AMD "Billigchips".

https://wccftech.com/amd-radeon-mai...pu-sales-lead-over-nvidia-geforce-in-germany/

Wenn man sich anschaut, wo der Week’s Average Sale Price von AMD liegt und der von Nvidia, versteht man, warum AMD einfach nur hinterher hechelt, trotz guter Zahlen bei verkauften Karten.

Die 52% von AMD zu den 46% von Nvidia bei den verkauften Karten (beides abgerundet) bringen nichts, wenn der Geldwert von AMD Karten 43% im Vergleich zu Nvidia Karten (56%) so stark abfällt und wenn man den Durchschnitt anschaut,

AVERAGE (2023 )€606 €812 €251. (AMD, Nvidia, Intel)

Wer im Durchschnitt 812€ pro Karte verkaufen kann, der kann auch eine eigene Fertigung bezahlen.

Und natürlich, sind das alles total unvernünftige Werte. Wenn der Durchschnitt auf diesem Niveau liegt, ist man in Deutschland.

mfg
 
  • Gefällt mir
Reaktionen: SweetOhm
SweetOhm schrieb:
Aber insgesamt dürften sie mehr Chips "an den Mann" bringen ...
Sie verkaufen weitaus mehr Desktop Karten als AMD. Eine isolierte Betrachtung eines Händlers bringt nicht wirklich etwas.
Bei Chips liegen beide seit Ende 2020 grob gleich auf wenn man Desktop GPUs + PS5/XBOX Sales nimmt.
Bischen schwierig ist das bei Mobile Chips, da gibts keine belastbaren Zahlen.

1693468638548.png
 
  • Gefällt mir
Reaktionen: .Snoopy. und SweetOhm
SweetOhm schrieb:
Du meinst genau wie bei RT und DLSS 3.0 ?!?
Es gibt also nur zwei, drei Spiele die entweder DLSS nutzen, RT oder FrameGen ?

Und was hat das mit meiner Aussage zu tun ?
 
[wege]mini schrieb:
Das ist bei den Gamern korrekt. Nur leider verkauft AMD "Billigchips".
I know.
Bin ja "lediglich" auf seine Aussage eingegangen, dass NV mehr GraKa´s verkauft ...
Ergänzung ()

ThirdLife schrieb:
Es gibt also nur zwei, drei Spiele die entweder DLSS nutzen, RT oder FrameGen ?

Und was hat das mit meiner Aussage zu tun ?
Es gibt also nur ein zwei Games, jene mehr RAM benötigen ?

Dein/e Zitat/Behauptung :

"Erstmal muss es Spiele geben die das nutzen und nicht nur einen oder zwei Titel sondern hunderte. Vorher ist von einem "brauchen" eh nicht die Rede."

Deine Aussage somit : Wenn nur ein kleiner Bruchteil was kann/unterstützt, ist von einem "brauchen" nicht die Rede. Und Prozentual gesehen trifft Deine Meinung/Aussage eben auch auf RT und DLSS 3.0 zu !
 
Zuletzt bearbeitet:
SweetOhm schrieb:
Mehr UMSATZ machen sie bei den "Gamern".
Aber insgesamt dürften sie mehr Chips "an den Mann" bringen ...
Mindfactory als local seller ist uninteressant. Globale Fakten sagen mehr aus.
Nvidia verkauft aktuell mehr Einheiten. Wenn AMD nicht den Konsolenmarkt beliefern würden, sähe in der RTG sehr düster aus.

PR_AIB_Q123_001.png
 
  • Gefällt mir
Reaktionen: SweetOhm
Oooh, Nvidia wurde also schon mit dem neuen GDDR7 Speicher beliefert. Sie können es sicherlich kaum erwarten :)

Zum Glück ist GDDR7 im Gegensatz zu GDDR6X für die Allgemeinheit verfügbar. Also: AMD wird ebenfalls bald mit GDDR7 beliefert.
 
SweetOhm schrieb:
Es gibt also nur ein zwei Games, jene mehr RAM benötigen ?
https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-games

So. Und jetzt kommst du bitte mit einer Liste an VRAM limitierenden Games. Und bitte nicht mit einer 4GB Karte in 4K spielen wollen als Beispiel. Schön der Klasse entsprechend, also FHD. ;)

SweetOhm schrieb:
Und Prozentual gesehen trifft Deine Meinung/Aussage eben auch auf RT und DLSS 3.0 zu !
Brauchen tuts auch keiner. Brauchen tust du Wasser und was zu essen alle paar Wochen. Das "brauchst" du. Was ändert das jetzt an dem Mehrwert dieser Features ? Nix. Was bringt dir mehr VRAM bei einer Karte die eh schon nicht genug Power hat wie der 4060 Ti ? Nüx.

SweetOhm schrieb:
Dein/e Zitat/Behauptung :
Keine Behauptung, Fakten. Siehe Liste mit RT/DLSS Games vs. welchen fünf Titeln nochmal die akut VRAM Probleme haben und KEIN Opfer mangelhafter Optimierung/Programmierung sind und für die eine Entry-Level / Midrange GPU jetzt unbedingt 16-32 GB VRAM braucht ?

Das Thema ist erst wirklich relevant wenn Konsolen mehr Speicher haben...vorher wird da nix groß passieren auf breiter Masse gesehen. Kein Entwickler der Geld verdienen will wird Titel bringen die mindestens 16GB brauchen auch bei Medium Settings wenn die Zielgruppe mit solchen GPUs relativ klein ist.
 
Zuletzt bearbeitet:
[wege]mini schrieb:
Die 1080Ti hatte mit GP102 ca. 12 Milliarden Transistoren. Die RTX4090 ist mit AD102 jetzt ca. 76 Milliarden Transistoren groß.
...
Der Rechnung nach müssten heutigen GK schon längst weit über 1 kW verbrauchen. Die Effizienz steigt mit der Nanometer Verkleinerung und GTX 1080 ist der beste Beweis dafür. Eine High-End GK mit 180 W TDP. Eine GTX 780 davor hatte 250 W und verglichen mit GTX 1080, 100 % weniger Leistung. Das ist Progress, gewesen.

Abgesehen von den Kosten in DE für die kW Stunde, ist es auch die Kühlung bzw. die Lautstärke. Wie kann es sein, dass nach 10 Jahren Entwicklung und mehrfacher Verkleinerung des DIEs, die heutige Generation der GK verbraucht mehr an Strom? GTX 780 TI TDP 250 W (2013), RTX 4090 450 W (2023).
 
  • Gefällt mir
Reaktionen: [wege]mini
Was genau verstehst du nicht ?

Die Effizienz IST besser als bei jeder älteren Karte. Die Ansprüche drumrum sind einfach noch ein vielfaches gestiegen. Von vierfacher Auflösung (UHD/4K) bis hin zu Raytracing oder dem hundertfachen Polycount mancher Objekte in Games.

Lass uns doch zwei Spiele mal vergleichen und schauen was deine 250W 780 Ti so in 4K bei einem Cyberpunk oder Starfield reisst und wer bei 250 W mehr fps drückt.

Wenn man 8-10x mehr Transistoren reindrückt und sie beim fünffachen Takt betreibt, wer hätte gedacht dass das selbst bei einer Strukturverkleinerung eventuell MEHR Energie verbrauchen könnte ?

Wer würde denken dass ein Auto wenn man 400PS Leistung abruft auch für 400 Pesen säuft ? Unmöglich ! 🤣 :rolleyes:
 
und ein 400PS Auto kann dennoch einen niedrigeren Verbrauch bei Tempo 120 haben als ein Auto was nur 60PS hat. Gab mal einen Testst mit nem Toyota Prius und nem BMW M5 - der M5 hatte weniger verbraucht bei gleicher sportlicher fahrweise und derselben Geschwindigkeit wie der Prius.

Aber geht ja nicht um Autos, sondern GPUs, auch da kann man das Spiel umdrehen und bei einem Game schauen wieviel die 780TI bei ich sag mal 60FPS braucht, und wieviel eine RTX4090 brauch 60FPS beim selben spiel mit selben Settings an Strom braucht ;)
 
AssassinWarlord schrieb:
Aber geht ja nicht um Autos, sondern GPUs, auch da kann man das Spiel umdrehen und bei einem Game schauen wieviel die 780TI bei ich sag mal 60FPS braucht, und wieviel eine RTX4090 brauch 60FPS beim selben spiel mit selben Settings an Strom braucht ;)
Ja. Und da wird die 4090 besser abschneiden.

Es wird wahrscheinlich schwer genug überhaupt nen halbwegs modernen Titel zu finden wo die Karte noch 60 fps drückt. Und mit 60Hz brauch mir heute keiner mehr kommen. Wofür kauft man 120-240Hz OLED Panels mit hoher Auflösung ?

Für die Leute gibts dann auch die entsprechende GPU. Wer mit 1080p und 60fps zufrieden ist kauft sicher keine 4090, somit ist der Vergleich eh abwegig. Das stemmt auch eine 4060 oder 4070 Problemlos bei 100W und natzt eine 780 Ti aber SOWAS von ab. :D
 
gidra schrieb:
Der Rechnung nach müssten heutigen GK schon längst weit über 1 kW verbrauchen.

Daher erklärte ich auf die Frage des Users, wo die Verbesserung der Fertigung geblieben ist.

Die Mehrleistung im Vergleich zur Stromaufnahme, ist tatsächlich sehr beachtlich. Wie viel davon aus der Architektur und wie viel aus der Fertigung kommt, ist Spekulatius.

Und wenn wir dann noch darüber reden würden, wie viel mehr die Karte kosten könnte, wenn man Mehrleistung und Geldwert 1:1 berechnen würde, würde es total unvernünftig, für uns User. :heilig:

mfg
 
AssassinWarlord schrieb:
und ein 400PS Auto kann dennoch einen niedrigeren Verbrauch bei Tempo 120 haben als ein Auto was nur 60PS hat. Gab mal einen Testst mit nem Toyota Prius und nem BMW M5 - der M5 hatte weniger verbraucht bei gleicher sportlicher fahrweise und derselben Geschwindigkeit wie der Prius.

Aber geht ja nicht um Autos, sondern GPUs, auch da kann man das Spiel umdrehen und bei einem Game schauen wieviel die 780TI bei ich sag mal 60FPS braucht, und wieviel eine RTX4090 brauch 60FPS beim selben spiel mit selben Settings an Strom braucht ;)
Wirklich, es ging um GPUs? Nun gut, ein 400 Pferde starke Wagen könnte effizienter sein, wenn der 140 km/s fährt, als ein 4 Gang getriebener Subaru Justy, bei dem ab 160 so oder so Schluss ist. Doch für den Ersten müsste ich 10 Mal geboren und gelebt haben, um ihn mir leisten zu können.

VRam-Bandbreite: gibt es einen Test? 1 Test?
 
gidra schrieb:
Wirklich, es ging um GPUs? Nun gut, ein 400 Pferde starke Wagen könnte effizienter sein, wenn der 140 km/s fährt, als ein 4 Gang getriebener Subaru Justy, bei dem ab 160 so oder so Schluss ist.
Ich fpürchte, mit 400PS schaffst du keine 140 Kilometer pro Sekunde. :mussweg:
 
@ThirdLife
sag niemals nie.Es gibt solche Verrückten Menschen die sich für eine 1080p Auflösung eine rtx 4090 gekauft haben weil sie Angst hatten das die Leistung nicht ausreichen würde und dann auch länger halten würde durch das.
Wobei es kommt ja auf das drauf an,wenn dieser mit Full HD @ 240 HZ oder sowas verwendet ,da kann man schon Leistung brauchen bei Aktuellen Spielen.
 
Zurück
Oben