News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Sollte das so kommen, werde ich das nicht unterstützen.
Das bekomm ich nicht mit mir vereinbart.
Ich bin ein Freund von dezentraler Krypto Währung. Aber Proof off Stake bitte.
Diese Hashrate Monster (sollte es so kommen) gehen für mich nicht mehr klar.
 
  • Gefällt mir
Reaktionen: HiveTyrant
SaxnPaule schrieb:
Somit wären die Hersteller gezwungen an der Effizienz zu drehen und nicht auf Teufel komm raus immer höher schneller weiter.
Dann kommt der gemeine Verbraucher wieder um die Ecke und jammert weil die Leistung nicht steigt. Auf den Verbrauch schauen die wenigsten Gamer.
 
  • Gefällt mir
Reaktionen: Limmbo
Ich möchte nur Mal daran erinnern, dass der A100 von Nvidia nur 250W verbraucht. Mit 40gb RAM usw.

Effizienz geht auch bei riesigen Chips.
Man muss es nur wollen.
 
  • Gefällt mir
Reaktionen: Coeckchen, LordExtreme, Celinna und 2 andere
Jetzt wo die Gaspreise so teuer geworden sind müssen ich diese Heizmöglichkeit wohl in Betracht ziehen :)

Klar Kraft kommt nur von Kraftstoff , aber diese Leistungsaufnahme ist im Sommer Wahnsinn .
 
Dass die Abwärme zunimmt, darin sind sich ja quasi alle einig. Nur der Faktor ist noch offen.

Bin echt gespannt, ob Nvidia am Ende überhaupt mit einer merklichen (sprich höher als ein paar %) Effizienz-Steigerung um die Ecke kommt oder ob man am Ende alles über mehr Abwärme regelt.

Vom aktuellen Trend in der Chip-Industrie bin ich um ehrlich zu sein auch kein Fan. Egal ob nun in Smartphone CPUs, GPUs usw. es macht für mich keinen Sinn, einfach mehr Energie auf das Problem zu schmeißen und sich zu sagen "ja, einfach besser kühlen und dann läuft es"...

Am Ende wird die 40er Generation aber wahrscheinlich eh zum Release absurd teuer werden, so dass ich nicht mal sicher bin, ob ich die Investition überhaupt tätigen würde...
 
  • Gefällt mir
Reaktionen: Coeckchen, ed33, autopilot und eine weitere Person
3faltigkeit schrieb:
Servern mag das okay sein.
Das stimmt so nicht.
Nichts ist wichtiger als Effizienz im Server.
Da können die Karten viel kosten, aber die Dauerkosten sollten möglichst niedrig sein.

Darum verbraucht die A100 von Nvidia auch nur 250w. Und ist mega effizient.
Wenn die wollten könnten die sowas auch für die gaming Sparte machen.
 
  • Gefällt mir
Reaktionen: Pro_LamerEX, ed33, Celinna und 6 andere
Da sollte Nvidia noch die ^^German Edition^^ mit halben Stromverbrauch rausbringen.
 
  • Gefällt mir
Reaktionen: n0g3l, ed33, Strigga und 4 andere
So ganz nachvollziehen kann ich die Leaks nicht. Man kann auf einen Chip nicht beliebig Spannung und Stromstärke geben = Leistung in Watt. Und da der Chip ja wirklich größer werden kann als ca. 600-700mm² sind solche Angaben sehr fragwürdig. 850 Watt könnten für ein MCM Package dann wieder passen, sprich wenn 2 dieser Chips auf einem PCB sind mit viel Stromhungrigen GDDR6X Speicher.

Ich bin mir aber zu 99% sicher, dass niemand eine Single Chip Karte mit über 800W befeuern kann, rein technisch bzw. elektrisch.
 
  • Gefällt mir
Reaktionen: 7LZ
Ich weiß das wir in der Geschichte des PCs öfters mit dem Kopf geschüttelt haben, aber wenn sich das jetzt so weiterentwickelt, das mein Netzteil bald nur noch die GPU befeuert, dann kauf ich mir dahingehend keine mehr und bleib bei meinen alten spielen.
 
XPS schrieb:
Kann ich bestätigen mein Rechner schafft es ohne Probleme einen Raum von 22qm auf 24 - 25c zu Erwärmen, gestern Abend erst wieder bemerkt, im Sommer läuft dafür halt das Klima Splitgerät durch...geht halt nicht anders bei solchen Systemen!
Wasserkühlung mit Keller- oder Außenradiator.
Siehe Signatur.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maike23 und mm19
Balikon schrieb:
Wieso regen sich alle hier auf?

Es war zu erwarten. Mit weiterem Ausbau von Raytracing-Funktionen und vor allem steigendem RT-Umfang wird mehr Rechenleistung denn je benötigt. Immer mehr Spieler wollen RT auch in hohen Auflösungen jenseits von WQHD geniessen und DLSS bzw. FSR brauchen auch eine Mindestauflösung, um gut zu funktionieren. Sprich, auch mit diesen Hilfsmitteln wird der Rechenaufwand enorm steigen. Dabei werden in RT-Titeln noch nicht mal zwingend die FPS steigen, sondern konstant bei mehr RT bleiben.

Diese Leistung gibt es schlicht nicht zum Nulltarif

Die neuen Karten kommen anscheinend in TSMC 5nm/P, Ampere läuft bei Samsung in deren 8nm Prozess vom Band.
Allein dadurch hätte Nvidia einen Effizienzvorteil von 30-40%. Vorsichtig gerechnet. Nimmt man die Probleme bei Samsung, und die gut funktionierende Produktion bei TSMC für viele verschiedene Chips derzeit (die Apple M1 Max sind auch nicht klein) hinzu, absolut realistisch.

Wenn sie jetzt noch den Chip breiter aufstellen, und die kolportierte Menge an Ausführungseinheiten deutet darauf hin, könnten sie auch mit den bisherigen 400-450W 50-80% Mehrleistung erreichen. Zumindest dürfte da in etwa der sweet spot sitzen, wenn man auf deren HPC-Produkte schaut.

Alles andere klingt einfach nur nach "wir schrauben die Taktrate hoch, 10% mehr Leistung bei doppeltem Verbrauch".

Erklärt auch warum sie SLI haben aussterben lassen. Bei dem vermutlichen Preis und Verbrauch einer 4090 wäre es zum ersten Mal die deutlich bessere Lösung zwei 4080 im Tandem arbeiten zu lassen. Die kämen zusammen auf denselben Verbrauch und würden vermutlich ähnlich viel kosten.
Aber selbst bei schlechtem SLI hätte man dann 50% mehr Leistung.
 
  • Gefällt mir
Reaktionen: bad_sign
Che-Tah schrieb:
Wasserkühlung mit Keller- oder Außenradiator.
Siege Signatur.
Joa ist ne schöne Möglichkeit das stimmt!
Da aber eh das ganze Haus über Klima Split Geräte läuft, ist / war das hier die "Hübschere" und "Einfachere" Lösung;)
 
wenn technologisch kein großer Fortschritt da ist um mehr Leistung raus zu holen, gehts immer noch über die Größe bzw. rausquetschen was geht... 🙄
 
  • Gefällt mir
Reaktionen: Piranha771
Sollte sich das bewahrheiten, trifft die obszöne Betitelung "Lovelace" doch ziemlich ins Schwarze.
 
  • Gefällt mir
Reaktionen: McTheRipper
Also 450W wären schon zu viel des Guten für mich.

Glaube aber eh kaum dass 500W oder 850W dauerhaft zu erwarten sind. Das sind vielleicht irgendwelche kurzfristigen Boosts oder Peaks oder theoretischen Maxima für irgendwelche OC-Enthusiasten aber alles andere kann ich mir kaum vorstellen.

Nicht nur wegen fed Verbrauches aber wie sollte das auch jemals gekühlt werden?
 
  • Gefällt mir
Reaktionen: Caramelito und Zarlak
AMD und Intel sollten sich warm anziehen. 😁
 
TenDance schrieb:
Allein dadurch hätte Nvidia einen Effizienzvorteil von 30-40%. Vorsichtig gerechnet.
Wenn man den Gerüchten glauben kann, hat das Flagschiff 80% mehr Cuda-Cores als die GTX 3090 respektive GTX 3090 Ti, die schon bis 450W TBP haben soll.
CB schrieb:
bis zu 18.432 CUDA Cores
Es sind ja nicht nur die Cuda Cores. Das ganze drumrum wird massiv ansteigen und will mit Strom versorgt werden.. Da ist nicht mit einer geringeren Stromaufnahme zu rechnen, selbst, wenn man deine optimistische Effizienssteigerung für gegeben hält.

Auch AMD will die Recheneinheiten stark aufstocken, es ist klar, dass das nur in eine Richtung führen kann: Mehr Stromverbrauch.
 
  • Gefällt mir
Reaktionen: Colindo
shaadar schrieb:
Das wäre maßlos teuer und umweltbelastend.

Bei aller Liebe für die Umwelt, wären das und der Strompreis nicht mal die größten Bedenken.
Man spielt ja nicht 24/7 und wenn, dann befindet sich der Gaming-PC meist nur im Teillastbereich. Da gibt es sicher in jedem Haushalt viel schlimmere Stromfresser.

Das größere Problem sehe ich eher darin, dass man den Gaming-PC trotzdem auf den Extremfall auslegen muss, damit er stabil läuft.

Man braucht also ein riesiges, in 90% der Zeit überdimensioniertes Netzteil, und wie es aussieht bei praktisch jeder neuen GPU-Genration wieder ein neues. (Es sei denn, man überdimensioniert gleich um den Faktor 2-3). Vorbei die Zeiten, wo man etwas mehr für ein gutes, effizientes Netzteil ausgeben konnte, mit der Gewissheit, dass das für ein paar PC-Generationen hält.

Und die Kühlung des ganzen PCs muss auch entsprechend leistungsfähig sein. Ich würde sagen, 90% aller heutigen Gehäuse fallen bei solchen Verbrauchswerten der GPU (und die CPUs werden ja auch nicht sparsamer) schon mal mangels Airflow raus. Oder es müssen halt zwei große AIOs oder besser gleich eine Custom-Loop-Kühlung sein, was auch längst nicht mit jedem Gehäuse geht.

Das zieht einen ganzen Rattenschwanz der Unvernunft nach sich.
 
  • Gefällt mir
Reaktionen: Col.Maybourne, ThePlayer, PcFliege und eine weitere Person
Zurück
Oben