News GPU-Gerüchte: Details zur AD102-Referenz-Platine für RTX 4090/4080

nutze immer noch meine rtx2070. sehe einfach kein Grund auf eine neue Gpu, ich gucke die nächsten 4-6 jahre mal, obs wirklich was neues gibt. am besten graka mit 2-3 5nm chips oder 4nm in einer karte die aber knapp 240-300 w leistet.

wird mega... wenn auf der Graka dann 2 oder 3 chips ihre arbeit verrichten, bei weniger watt leistung..als eine gpu der gepackt/gestapelt ist.
 
Grübelfisch schrieb:
ich frage mich, wie die Karten bei theoretischen 450-600W überhaupt noch anständig geküht werden können. […]
Laut Igor mit einer Kartendicke von 3 - 3.5 Slots.
Ich hoff, die Dinger krachen nicht durch den Boden.
 
  • Gefällt mir
Reaktionen: CableGuy82 und Onkel Föhn
Katzenjoghurt schrieb:
Laut Igor mit einer Kartendicke von 3 - 3.5 Slots.
Ich hoff, die Dinger krachen nicht durch den Boden.
Musst halt nen Betonsockel ins Gehäuse gießen damit die Karte an Ort und Stelle bleibt.
 
  • Gefällt mir
Reaktionen: CableGuy82, Veitograf und Katzenjoghurt
Na immerhin hat man zukünftig die Wahl...
  • Kopfhörer
  • Wasserkühlung/kocher
  • taub

Bei den Phasen würde mich jedenfalls eine leise Kühlung echt wundern.
Aber vielleicht kann Nvidia ja auch da mit der Brechstange zaubern. ;)
 
  • Gefällt mir
Reaktionen: CableGuy82
Viele Meckern hier über den Strom....seid mal ehrlich würdet ihr eine 4080 holen, wenn die genauso schnell ist wie eine 3080, aber dafür nur 200W verbraucht? Vorausgesetzt ihr habt schon eine 3080.

Aktuell sieht es ja noch 60-75% mehr Leistung und dafür 35% mehr Verbrauch an. (wie eine 3080)
Wenn man diese dann runtertaktet hat man bestimmt seine 3080 Leistung mit 200W.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Der Darstellung ist nicht zu entnehmen, aber den Bordpartnern angeblich mitgeteilt worden, dass AD102 zu GA102 Pin-kompatibel ist. Das dürfte nicht nur bedeuten, dass das Speicherinterface mit 384 Bit unverändert bleibt,
Jein, es wird wahrscheinlich unverändert bleiben, Aber es besteht durchaus die Möglichkeit, dass beide Chips mehr Kontakte haben und bereitstellen, diese aber nicht genutzt werden. So wie Dummy Pins bei CPUs.
Es könnte durchaus schon ein 512 Bit Speicherinterface Layout der Kontakte vorliegen, das aber nicht voll genutzt wird.

Das ist schon seit längerem gängige Praxis, um Kosteneffizient zu sein. Als Beispiel nenne ich die Grakas mit gleichem Namen, aber unterschiedliche Chips die verbaut wurden. Gab ja mehr als eine Serie bei NVIDIA.
 
  • Gefällt mir
Reaktionen: CableGuy82
Nvidia knausert fast jede Generation mit dem RAM.
Ich schätze die ersten 5 Monate kommt die Generation so raus.
4090 - 24GB
4080 ti - 16GB
4080 - 12GB
4070 - 10GB
4060 - 8 GB
Was glaubt ihr? Oder übersehe ich wieder Irgendwas bei der Anbindung und daher unmöglich Speicherkonfigurationen? 😅
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wer ein Problem mit dem Stromverbrauch hat kann ja das Powerlimit begrenzen, wenn es das eigene Ego erlaubt einfach ein paar Klassen tiefer kaufen oder einfach auf seiner alten GPU sitzen bleiben.

Die paar Stunden die ich im Monat zum Zocken habe sind mir den Verbrauch definitiv wert.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Was soll das Gejammer über den Verbrauch? Dann bleibt bei FullHD, da benötigt man weniger Rechenleistung... ach halt, taugt ja nixmehr laut vielen hier im Forum.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Benni1990 schrieb:
Was bin ich Froh auf Custom Wakü umgestiegen zu sein mit meiner 3090 :)

also ich freue mich sehr auf die 4090 und 600 watt :)
iGameKudan schrieb:
Wer ein Problem mit dem Stromverbrauch hat kann ja das Powerlimit begrenzen, wenn es das eigene Ego erlaubt einfach ein paar Klassen tiefer kaufen oder einfach auf seiner alten GPU sitzen bleiben.

Die paar Stunden die ich im Monat zum Zocken habe sind mir den Verbrauch definitiv wert.

Den Verbrauch interessiert doch keine Sau (sorry).
Die Abwärme, gerade wenn es jetzt wärmer wird, ist ekelhaft.
 
  • Gefällt mir
Reaktionen: Bratmaxxe
CR4NK schrieb:
Den Verbrauch interessiert doch keine Sau (sorry).
Die Abwärme, gerade wenn es jetzt wärmer wird, ist ekelhaft.
Klimaanlage regelt.
 
  • Gefällt mir
Reaktionen: CableGuy82 und Bratmaxxe
^Dodo.bW schrieb:
Ich mein, bei den stetig steigenden Strompreisen, wer freut sich da nicht, dass die Karten bald 2-3x so viel Strom verbrauchen wie vor 5-6 Jahren? Tolle Entwicklung und gerne zu begrüßen. Weiter so 👏
Mach doch mal keinen Stress :cool_alt:

Dafür sparst du dann bei der Gasrechnung und hast auch noch Spaß, während du deine Bude heizt :daumen:
 
  • Gefällt mir
Reaktionen: CableGuy82 und FGA
Und ich so mit einer GTX1080... ach weiste was, mir reicht die noch Dicke für WQHD und VR. Bei den kommenden Verbräuchen ist mein komplettes System ja ein Sparwunder im Vergleich dazu...

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Perdikkas, CableGuy82, edenjung und 2 andere
Für alle die jetzt wieder wegen dem Energieverbauch jammern... Mehrleistung gibts nunmal nicht zum Nulltarif. Strukturverkleinerung und Designänderung können das nicht kompensieren!
 
  • Gefällt mir
Reaktionen: Newbie_9000 und Bratmaxxe
Wenn ich die Apple Werbung richtig deute, braucht deren M1 sehr viel weniger Energie und kann doch in der oberen Liga auch grafikmäßig mitspielen. Da stellt sich die Frage, ob man trotz des hoorenden Preises nicht doch im Total-Cost-Management billiger fährt. 600W alleine die GraKa.... Wow
Vielleicht springt wer auf den ARM Trend auf und ein Teil der normalen Gamer entlasten so mit ARM basierten Rechnern unsere Stromversorgung
 
  • Gefällt mir
Reaktionen: CableGuy82
theGucky schrieb:
Viele Meckern hier über den Strom....seid mal ehrlich würdet ihr eine 4080 holen, wenn die genauso schnell ist wie eine 3080, aber dafür nur 200W verbraucht? Vorausgesetzt ihr habt schon eine 3080.
Ich würde erwarten das eine 4080 schneller als eine 3080 bei gleichem Verbrauch ist und nicht bei höherem Verbrauch.
 
  • Gefällt mir
Reaktionen: CableGuy82, Thakor, FGA und eine weitere Person
450-600W Verbrauch sind relativ was zählt ist Effizienz also FPS / W.

Wer für sich da bei X-Watt den persönlichen Schlussstrich warum auch immer zieht muss halt entsprechend ausgelegte kleinere Modelle kaufen und/oder Abstriche bei Detailgrad, Auflösung und oder FPS Kompromisse machen.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und FGA
CR4NK schrieb:
Den Verbrauch interessiert doch keine Sau (sorry).
Geht mir genauso

Ich sage immer wer High End will muss mit High End verbrauch leben
 
  • Gefällt mir
Reaktionen: Newbie_9000, Sinatra81, time-machine und eine weitere Person
Meine letzte neu gekaufte Grafikkarte war meine heiß geliebte GF6800GT. Ich denke sie wird es noch eine ganze Weile bleiben...
 
Zurück
Oben