News Arbeitsspeicher: GDDR7, HBM3E und LPDDR5X werden weiter beschleunigt

Quidproquo77 schrieb:
Das müsste man erst einmal durch Tests feststellen. Die Karte verliert selbst in 4K kaum Leistung wegen der Bandbreite. Die Karte ist gut ausbalanciert, vor allem für WQHD.
Ok, hast recht, der 8auer hat es getestet, die Karte gewinnt durch reines VRAM-Ocing nur sehr minimal. Die OCing-Benchmarks der 70er-Karten hier auf CB zeigen auch meist einen Leistungsgewinn exakt in der Höhe des Core-OC, in einem Fall minimal mehr.

Hätte gedacht, dass eine Karte mit ziemlich exakt der Rohleistung der 3090Ti, aber Bandbreite unterhalb der 3070Ti enorm an Bandbreitenmangel leidet.
Quidproquo77 schrieb:
In seltenen Fällen in 4K ja.
Wenn sich schon in den ersten beiden Lebensjahren einer solchen Karte, in denen sie noch aktuell ist, solche Fälle produzieren lassen, dann wird es in der nächsten Generation Spiele häufiger auftreten. Und dann irgendwann auch in 4K.

Ich bin da vielleicht etwas geschädigt, weil ich meine letzten beiden Karten, eine 8800GT 512MB und eine GTX 670 2GB, jeweils bis Ultimo behalten habe und dann immer sehen musste, dass irgendwann der VRAM-Mangel die Karte unbrauchbar macht. In beiden Fällen hätte es noch Karten mit doppeltem VRAM gegeben, die aber damals selten und teuer waren.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Pestplatte schrieb:
ich glaube in diesem leben werde ich mir nie wieder ne grafikkarte leisten können.
Wir kaufen nur noch gebrauchte der vorangegangenen Generation !
300€ für eine 3070 ist ok
Oder 400€ für eine 3080
 
bensen schrieb:
Was rechnest du denn da für einen Quark zusammen?
Und was hast du so konstruktives zu sagen? Mein Quark hatte schon die richtige Richtung.

paul.muad.dib schrieb:
Nicht ganz. Du musst berücksichtigen dass bei gddr7 mehrere chips verwendet werden. 8x 37 = 296 vs 461 bei 16 gb macht "nur" 55 Prozent Unterschied
Stimmt schon. Ich hatte nur ein Chip verglichen und dann 37Gbits/s vs 128GB/s, was falsch ist.

Jedoch vergleichst du jetzt nur gegen einen HBM1 Stack. Die Vega 10 aus 2017 hatte zwar gleich HBM2, aber verwendete 2 Stacks und verdoppelte dadurch auf 483,8 GB/s. (Also 461Gbits vs 1933,2 Gbits bei einer theoretischen HBM1 Vega, da passt mein >3,5x ironischweise wieder.)

Ich wollte hier auch nicht groß eine Rechnung aufmachen, sondern war nur erstaunt, das schon das alte HBM1 so viel schneller als GDDR7 ist.
 
  • Gefällt mir
Reaktionen: paul.muad.dib
Was ist eigtl. mit dem HBM Thema los, sollte das nicht mal der Heilsbringer sein beim Thema Geschwindigkeit für RAM? Die einzige Consumer-Karte, die das hatte, war die Radeon VII, oder? Ich dachte, das wäre so das "Next Big Thing" bei GPUs. Aber bisher bleibt da wohl alles beim Alten.
 
Vitche schrieb:
Der darf ja auch heißer werden, insofern ist das per se kein Problem. Spezifiziert ist er afaik bis 110 Grad, die GPU aber nicht.
Ne nur bis 100 oder 105°C. Ich schrieb vom Hotspot, der darf bei Nvidia auch heiß werden. Der GPU durchschnitt ist bei 83°C begrenzt.
SweetOhm schrieb:
699 USD / 719 € war die UVP der 3080.
Nein 699$/699€.
Siehe hier: https://www.computerbase.de/2020-09/geforce-rtx-3080-test/
Damals war der Euro noch stark bzw Dollar schwach...
Erst später wurde der Preis an den Wechselkurs abgepasst.
Hate01 schrieb:
Die absolute Temperatur ist völlig egal. Solange die Chips innerhalb ihrer Spezifikationen laufen. Niedrige Temperaturen haben für sich gesehen keinen Nutzen.
Und >95°C VRAM ist auf Dauer gesund? Die Chips laufen IMMER innerhalb der Spezifikationen, außer man schaltet die Limits aus. Aber wenn ein Chip dauerhaft am Limit läuft, dann ist der Verschleiß höher.
AUCH beim VRAM, deshalb gehen auch viele Miningkarten kaputt...
 
  • Gefällt mir
Reaktionen: M11E und SweetOhm
Trelor schrieb:
Warum bringt dann memory OC so wenig? Und warum hat NVIDIA das Konzept dann auch übernommen?
Sehr einfach:

1. AMD war immer mehr Bandbreitehungriger als Nvidia. Das ist eine Tatsache.
2. Nvidia will ehe aufAI, usw. gehen, statt Gaming-Sparte, deshalb ist nicht (nur) die RAM-Menge, sondern die Geschwindigkeit wichtig. (Nicht umsonst haben die Cloud, AI, usw. Grafikkarte bei Nvida HBM.)
3. OC ist nicht das gleiche wie offiziele höhere Takt/Bandbreiten. Bei OC kommen noch, höhrere Latencen, mehr Wärme was mehr wiederstand und vielleicht throttling bedeutet, usw. Dann wir die gewonnene Bandbreite wieder gefressen.

Aber das sind meine Überlegungen.
 
Kokuswolf schrieb:
Stimmt schon. Ich hatte nur ein Chip verglichen und dann 37Gbits/s vs 128GB/s, was falsch ist.

Jedoch vergleichst du jetzt nur gegen einen HBM1 Stack.

Guter Punkt, hast Recht. Welchem SI entsprechen denn 8 Module? Wahrscheinlich müsste man dann 2 HBM Stacks vs. ein 384 bit interface bei einer top Karte vergleichen.


mtheis1987 schrieb:
Was ist eigtl. mit dem HBM Thema los, sollte das nicht mal der Heilsbringer sein beim Thema Geschwindigkeit für RAM? Die einzige Consumer-Karte, die das hatte, war die Radeon VII, oder? Ich dachte, das wäre so das "Next Big Thing" bei GPUs. Aber bisher bleibt da wohl alles beim Alten.

Kurz gesagt zu teuer. Stattdessen wird nun mehr on chip cache verwendet um die Speicherzugriffe zu reduzieren, Stichwort Infiniti Cache.
 
Kokuswolf schrieb:
Und was hast du so konstruktives zu sagen? Mein Quark hatte schon die richtige Richtung.
Nein, wie groß soll der Zaunpfahl noch werden?
Kokuswolf schrieb:
Stimmt schon. Ich hatte nur ein Chip verglichen und dann 37Gbits/s vs 128GB/s, was falsch ist.
Ein Chip hat 148 GB/s.
Kokuswolf schrieb:
Jedoch vergleichst du jetzt nur gegen einen HBM1 Stack. Die Vega 10 aus 2017 hatte zwar gleich HBM2, aber verwendete 2 Stacks und verdoppelte dadurch auf 483,8 GB/s. (Also 461Gbits vs 1933,2 Gbits bei einer theoretischen HBM1 Vega, da passt mein >3,5x ironischweise wieder.)
Da passt gar nichts. Ein 256 Bit Speicherinterface kommt mit GDDR7 auf 1184 GB/s, mit 384 Bit auf 1776 GB/s. Wo ist da HBM1 oder 2 schneller?
 
bensen schrieb:
Nein, wie groß soll der Zaunpfahl noch werden? Ein Chip hat 148 GB/s.
In dem Artikel stehen andere Werte. 37Gbits/s (nicht GB/s aka GBytes/s) für einen GDDR7 Chip, also bei 4 Chips 148 Gbits/s, bzw. 18,5GB/s. Das Interface definiert nur, wie viel dieser Chips darüber angeschlossen sind. Aber vielleicht rechnest du uns dein Zaunpfahl einfach vor.
Ergänzung ()

paul.muad.dib schrieb:
Welchem SI entsprechen denn 8 Module? Wahrscheinlich müsste man dann 2 HBM Stacks vs. ein 384 bit interface bei einer top Karte vergleichen.
Laut Wiki sind bei HBM1/2 ein Stack jeweils 8×128 bit und bei HBM3/5 jeweils 16×64 bit. D.h. das Speicherinterface ist beide allen 1024 bit breit. Jedoch funktioniert das etwas anders mit dem Stack. Wie auch im CB Artikel in der Tabelle beschrieben, gibt es einen "max. Durchsatz pro Stack". Was ein Stack liefern kann baut schon auf die Frequenz des Stacks auf, aber ich denke das Interface kann mehr Bits annehmen, als ein einzelner Stack liefern kann. (Durch höhrere Eigenfrequenz vielleicht?) Dadurch gibt es zu 2 Stacks eine verdoppelte Datenrate.

Aber das nur unter Vorbehalt, da ich soviel Ahnung nu auch nicht davon habe. Am Ende ist HBM jedoch definitv deutlich schneller als GDDR(7). Aber auch deutlich teurer, leider. (Bensen kann mich gerne konstruktiv korrigieren, wie das exakt zustande kommt.)
 
Zuletzt bearbeitet:
Tigerfox schrieb:
Hätte gedacht, dass eine Karte mit ziemlich exakt der Rohleistung der 3090Ti, aber Bandbreite unterhalb der 3070Ti enorm an Bandbreitenmangel leidet
Ist ja eigentlich auch so, nur wird das eben mit dem geoßen Cache im Gegensatz zum Vorgänger kompensiert.
 
  • Gefällt mir
Reaktionen: bensen
Kokuswolf schrieb:
In dem Artikel stehen andere Werte. 37Gbits/s (nicht GB/s aka GBytes/s) für einen GDDR7 Chip, also bei 4 Chips 148 Gbits/s, bzw. 18,5GB/s. Das Interface definiert nur, wie viel dieser Chips darüber angeschlossen sind. Aber vielleicht rechnest du uns dein Zaunpfahl einfach vor.
37 GBit/s sind pro Pin. Ein Chip ist 32 Bit breit angebunden und es sind insgesamt 8 Chips. Also x256 für ein 256 bit breites Interface.
Was glaubst du denn, wie eine 4090 auf über 1000 GB/s kommt?
 
Zuletzt bearbeitet:
@bensen
Ein GDDR7 Chip: 32x 37Gbit/s = 1184 Gbits
Ein HBM1 Stack: 1x 1,0 Gbit/s

Ay GDDR7 ist etwas schneller als HBM1. Sehe ich ein.

Bei 256 breiten Interface (8x GDDR7) wären das quasi ~9 HBM1 Stacks.

Ok. HBM1 ist knapp geschlagen. HBM3 mit 4 Stacks schläg das aber noch weiterhin.
 
Zuletzt bearbeitet:
Kokuswolf schrieb:
@bensen
Nicht pro Pin. Pro Chip. Es sind 8 Chips a 32Bit parallel an einem 256Bit Speicherinterface angeschlossen. Ein Chip liefert 37Gbit/s. 8 davon das achtfache. Und bei der 4090 ist es ein 384Bit breites inferface, was 12 solche Chips ermöglicht.
8 Chips à 37 GBit/s wären 296 GBit/s bzw. 37 GByte/s.
Wie kann die 4090, bei deiner Rechnung, mit 12 Chips auf ~1 TeraByte/s (nicht Bit!) kommen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bensen
@MrHeisenberg Hatte das schon selbst korrigiert.
Ergänzung ()

Die 4090 hat ein 384bit breites Interfaces. Also mit 12 GDDR6X Chips.

Es sind pro Bit des 32Bit GDDR7 Chips quasi 37Gbit/s. Man kann also 32x37Gbits rechnen. Und dann parallel mehrere Chips. Also Speicherinterface x GDDR-Speed, 384x21Gbits, d.h. 8064 Gbits oder 1008 GB/s.

Bei HBM wären durch mehrere Stacks mehr Durchsatz erreicht.
Ergänzung ()

HBM3e hätte mit einem Stack bereits 1.280 GB/s.
 
Zuletzt bearbeitet:
wahnsinn was für eine Bandbreite.Nur hilft diese nix wenn die Rohleistung damit nicht hinter her kommt.Also alles schön und gut,bringt das leider nix,wenn diese nicht ausreicht.Die hohe Bandbreite verpufft einfach aufgrund des Chips.
 
Tja, muss halt nur auch bezahlbar sein.... Bei den Grafikkartenpreisen und den Speicher grüppeln scheint es ja eher an der Quantität, als an der Qualität zu fehlen. Was bringen mir GDDR7, wen davon nur 8 GB davon auf bezahlbaren GPUs landen.... . Am besten noch Kastriert über nen x4 pcie Interface. :daumen:
 
Vitche schrieb:
Nvidia ist dem damit begegnet, dass Interfaces kleiner werden und schnellerer Speicher sowie mehr Cache (mehr als) kompensieren. AMD hingegen hat das Interface auf Module in größerer Struktur ausgelagert.
Da muss man aber auch dazu sagen, dass AMD den Weg des Caches schon bei RDNA 2 ging und bei RDNA 3 nicht mehr zur Verfügung stand.

Am Ende ist es mit dem SI immer so eine Sache aus ein paar Faktoren. Auf der einen Seite schrumpft das SI nicht mehr vergleichbar stark, wie der Rest des Chips - wobei es auch da immer noch "Verbesserungen" gibt, aber sich die dann eher alle 2 "Generationen" der Chips rechnen. Ein breites SI wird damit immer teuerer.

Dazu kommt, dass ein breites SI sehr viel Energie benötigt. Ein Baustein der Effizient bei RDNA 2 und jetzt auch Ada ist der größere Infinity- bzw. L2-Cache.

Tigerfox schrieb:
Hätte gedacht, dass eine Karte mit ziemlich exakt der Rohleistung der 3090Ti, aber Bandbreite unterhalb der 3070Ti enorm an Bandbreitenmangel leidet.
Bandbreite benötigst du primär, wenn du kleine Zwischenspeicher hast bei einer GPU.

Der deutlich größere L2-Cache nimmt mehr Daten auf und kann daher mehr Daten auch vorhalten. Gleichzeitig bedeutet das, das man weniger Daten nachladen muss.

Entsprechend braucht man weniger Bandbreite, was gleichzeitig auch Energie spart. RAM als auch VRAM Zugriffe sind energetisch immer teurer.
mtheis1987 schrieb:
Was ist eigtl. mit dem HBM Thema los, sollte das nicht mal der Heilsbringer sein beim Thema Geschwindigkeit für RAM?
Hohe Kosten, im Vergleich zu normalen *DDR RAM, gleichzeitig sind die energetischen Vorteile nicht mehr so groß.

HBM könnte durchaus noch mal im Consumer-Markt wieder kommen, da aufwendigere Packagverfahren ohnehin Einzug halten, nur am Ende ist es eine Kostenfrage.
 
loco28 schrieb:
Zusätzlich kommt, dass das PCB kleiner/Konpakter sein könnte, wie AMD schon zeigte, was nochmals kosten sparen würde.
PCB sind Peanuts. Das Packaging kostet aber erheblich mehr.
loco28 schrieb:
Denn das Infinity-Cache mag schnell sein, aber mit lächerliche 256MB ein Witz und nicht zu gebrauchen. Was nutzt die schnelle verarbeitung von Vector-Daten, usw. wenn man dann auf die Texturen umso länger warten muss.
Das ist kompletter Unsinn. Der Cache bringt enorm viel und reduziert die benötigte Speicherbandbreite massiv. Da braucht es auch keine 256 MB. Du verstehst glaube ich gar nicht, wie Caches funktionieren.
Zudem spart es auch viel Energie.
 
imperialvicar schrieb:
Wir kaufen nur noch gebrauchte der vorangegangenen Generation !
300€ für eine 3070 ist ok
Oder 400€ für eine 3080
kenne mich auf dem gebrauchtmarkt nicht aus. lese hier nur öfters, dass gebrauchtkarten teils genauso teuer wir neu verkauft werden (können).
will jetzt hier nicht wieder das "unverhältnis teurer werden" thema aufmachen.
es gibt ja (jetzt) karten zu dem (für mich) mid range preis <300€ karten aber die tests sagen klar, dass sie das geld nicht wert sind
 
Tya bei so vielen scum also die die Preise treiben ja auch kein Wunder. Alle wissen ja wie wichtig gpus sind und das alle davon abhängig sind. Das nutzen sie ka alle aus. Darum können sie auch die Preise nach oben treiben. Aber nun wer will schon heutzutage eine rtx 2060 oder sowas haben. Je älter die gpus sind desto besser beim Preis. Ich habe also in Zukunft die bessere Wahl. Wenn es dann mit mist meine gpu ist abgeraucht und brauche unbedingt ein Ersatz, dann stehen mir sehr viele gpus als Option zur Verfügung. Ich lasse das alles auf micb zukummen. Dank der kleineren Auflösung brauche ich mir um die Bandbreite echt nicht so sorgen zu machen. Ich habe es mit Absicht ein downgrade gemacht. Nicht nur das ich mit full hd besser die gegner sehe weil auch mit 24 " eh nen kleiner Bildschirm. Ich spare da auch Strom, Abwärme usw ein.
Einige machen den Fehler und Schrauben die Anforderung mit Absicht nach oben. Also muss man auch automatisch mehr zahlen. Dann Jammern die Menschen. Denen ist halt nicht zu helfen. Ich komme wenn es drauf an kommt sogar mit HD also 1280x720 aus. Könnte alle Filme als 1080p haben aber nehme sogar freiwillig welche Filme nur als 720p. Die Filme sind dann um einiges kleiner. Je kleiner die Auflösung desto weniger Bitrate wird benötigt um sauber auszusehen und desto weniger Speicher wird benötigt. Auch beim laden eines films geht es um einiges schneller.
Es hat also ein erheblichen Grund bei mir so weit unten zu bleiben. Daran wird sich bei mir auch in Zukunft nix ändern.
Es hat jeder selbst in der Hand.
Und wer so entschlossen wie ich ist, der bleibt hart und bleibt dem treu.

Ich selbst habe keine Probleme mit der Bandbreite. Hatte ich mal kurz auch mal gehabt aber gut wer so zum ausprobieren in extremen Auflösung unterwegs war ist es ja auch klar. Als ich mal 4k hatte schaltete ich die extremen kantenglättung wie SSAA mit dazu.
Was dann in so theoretische Auflösung wie 8000x 4000 also so eine richtung resultierte. Die 6 GB damals reichten nicht mehr aus und die fps brachen in den Keller. Sehen tat ich den Unterschied bei der kleinen Optik allerdings nicht, aber es ging ja um das machbarkeits Sache bis wie weit kann man gehen.
Das waren alles alte games von 2008 gewesen und ich wollte mal schauen was man aus so ner Gtx titan mit 6 GB so zu erwarten hätte.

Die war überfordert gewesen. Mit der Zeit war mir das herunter skalieren auf wqhd von 4k Bildschirm dann zu blöd gewesen. Ich wechselte dann zu einem nativen wqhd Bildschirm. Merkte aber das es noch immer nicht optimal wäre aber schon besser ist.
Bis ich mich dann dabei ertappte auf full hd zu wechseln. Aber schon ab da merkte ich Bandbreite sei auf einmal nicht mehr das Thema gewesen.
Als ich dann den Bildschirm gegen einen full hd Bildschirm getauscht hatte und den wqhd verkauft (so 2 Jahre hatte ich den gehabt), merkte ich das ich dann lockerer bei gpu wurde. Nun weniger sorgen.
Ich mag zwar ne andere gpu als zu 2013 haben aber die leistung hat sich nicht geändert. Nur der Stromverbauch wurde dabei gesenkt.

Alles andere ist nur ein lauwamer. Wenn man es durch zieht dann richtig und nix halbes. Alles andere macht keinen Sinn für mich.
Seid dem brauche ich keine high-end gpu mehr, hat auch so sein gutes.
Und das würde ich jeder Zeit wieder so machen.

Darum verstehe ich echt nicht das Gejammer von zu wenig Bandbreite.
 
Zurück
Oben