News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

Arcturus128 schrieb:
Und es ist stark anzuzweifeln dass jemand der SUV fährt und Fleisch zu jeder Mahlzeit konsumiert eine gute Klimabilanz hat. Die wird allein dadurch nämlich schon stark verschlechtert.


Für dich scheint einfach jede Kritik aus ökologischen Gründen Doppelmoral zu sein. Vielleicht solltest du mal lernen auf die Kritik einzugehen, anstatt das Kritisieren an sich oder die Person anzugreifen.

Alleine die ganze Infrastruktur in Deutschland macht eine gute Klimabilanz bereits fast unmöglich.
Millionen Menschen leben in unsanierten Altbauten, für die Modernisierung fehlt oft auch einfach das Geld und da gehen viele TONNEN CO2 im Jahr drauf.

Klimaschutz ist wichtig und ich selbst schaue auch gerne, was ich optimieren kann, damit ich dem Planeten weniger schade, aber man sollte auch einfach mal ein paar Aspekte bedenken:

1. Dies ist ein Technikforum, hier findest du überproportional häufig eben die ~3,5% der Gamer, welche High-End-GPUs kaufen und diese Gruppe ständig aus ökologischen Gründen zu kritisieren ist absurd, v.a. wenn man die nächsten Punkte beachtet.

2. Diese News basiert auf Leaks/Gerüchten, aber falls Strom erwähnt wird geraten alle in Panik, z.B. ein einheitlicher Stecker der bis zu 600W liefern kann ist eigentlich eine gute Nachricht für alle, dennoch wird die maximale Leistung pauschal kritisiert

3. Unser Strommix liegt bei ca. 350g CO2 pro kWh, ~40g für Dachsolar - Benziner pro km 100-350g CO2, Rindfleisch pro kg ~12kg CO2, Flugzeug pro km 380g CO2 (nach London waren es glaube ich schon 150+ kg CO2)

Kommen wir nun zurück zu meinem Beispiel mit der Haarlänge, die Empfehlung liegt bei ca. 200 Haarwäschen pro Jahr:
Kurze Haare: Wasserverbrauch ca. 5 Liter x 0,35g CO2 = 1,75g pro Haarwäsche = 350g/Jahr
Lange Haare: Wasserverbrauch ca. 15 Liter x 0,35g CO2 = 5,25g pro Haarwäsche = 1050g/Jahr
Wenn man dann Föhnen einrechnet (ca. 2000 Watt pro Stunde):
Kurze Haare: ca. 3 Minuten (oder gar nicht, trocknen relativ schnell) = 7 kg CO2/Jahr
Lange Haare: ca. 9 Minuten (Lufttrocknen ist oft keine Option, vor allem im Winter) = 21 kg CO2/Jahr
Die Pflegeprodukte + Fahrten zum Friseur + eventuelles Färben etc. berechne ich jetzt mal nicht....

Gaming im Jahr mit aktuellem High-End (RTX 3080@270W - wir wissen hier wie UV geht) + aktuelle CPU + Monitor = ~500W x 2 Std. täglich = 127kg CO2/Jahr, da wir aber nur den Unterschied zu Konsolen heranziehen dürfen wären wir bei einem Mehrverbrauch von ~200W pro Stunde (Fernseher vs. Monitor), also verbraucht man im Jahr mit einem aktuellen High-End-PC ~51kg CO2 mehr als ein Konsolenspieler.

4. Du kennst die individuellen Umstände und das Konsumverhalten der Personen in diesem Forum nicht, kann natürlich nur für mich sprechen, aber ich fahre ca. 500km im Jahr mit dem Auto, kein ÖPNV, keine Flugreisen in den letzten 10+ Jahren, esse kaum Fleisch - sorry aber irgendwo ist dann auch Schluss mit Rechtfertigungen und Optimierungen, wenn ich 800+W Abwärme ertragen würde, hätte ich bei meinen kurzen Zocksessions kein schlechtes Gewissen.
Und trotzdem setzte ich mir bei ~300-350W eine Grenze, weil ich mein Hobby sonst nicht mehr ausüben würde, da mir die Anschaffung einer Klimaanlage dann wieder ein schlechtes Gewissen bescheren würde.

@BigLA
Ich will diese Diskussion hier auch gar nicht führen und Energieausweis und co. besprechen, ging eher beispielhaft um die Menge an CO2 die dort gespart werden könnte, weil das ja immer das übergeordnete Thema in ökologischen Debatten ist und ich wollte dies einfach in Relation zum Thema Grafikkarten/Gaming bringen.
 
Zuletzt bearbeitet:
Das mit den Altbauten könnte man jetzt kontrovers Diskutieren, außer du kommst aus der Branche und bist Experte in diesem Bereich ;) (ich bin zwar kein Experte, hab aber hier und da schon was mitbekommen..) Aber lassen wir das, für sinnlosen giftigen Sondermüll können wir zwischen allen billigen Kasten-Neubauten auch den letzten schönen Stuck vernichten:D
Aber wir sind hier in einer Tech-Diskussion....;)
 
  • Gefällt mir
Reaktionen: Zockmock
Tronx schrieb:
...bedeutet....ich kann auf meiner 3080 eine weitere Generation überspringen.
Weitere?
Welche Generation hast du denn bisher übersprungen mit der 3080? Oder meinst du den 12gb refresh?
 
da sic einihge darüber aufregen wegen den maximalen verbrauch der NICHT auftreten wird in Kleineren SKU's
ich hab öfters vorgerechnet welche Verbräuche zu erwarten sind.
Woher habe ic dise Info
TSMC angaben beim 5nm node
Die eigenschaft das ab dem sweetspot hier orientieren wirr unds an Server DGPU (quadros) und nehme dies ab 1,1 volt bis 1,09v linear an
ab 1,1v zum quadrat
Der Grundtakt übernimmt man der vorgänger gen.
Das geht deswegen da bei lvelace und amper die gleiche grunarchitektur besteht.
Dies war nicht beim Weechseln von pascal (gtx10) zu turing (RTX20) möglich.
Jetzt schon die einzige neuerung ist das der sm struktur anders aufgeteilt wird.
64int32/64fp32/48fp64/16tensor cores/rt core
Dazu kommt einen neuer allgemeiner L3 cache der vor dem IMC liegt
Sin und zweck ist die bandbreite zu puffern wen amn so will wie bei amd rdna2 gelöst wurde (inf cache)
Die hitrate ist unbekannt von etwa 40-60% kann man ausgehen

Zu den verbrauch dieser entsteht dadurch das nviodia auf maxed OC über den möglichen bevor der chip defekt geht.
Daher die hohen Verbräuche.
Die chipgröße ist bekannt ad102 606mm² die kosten für die chips auch (tsmc waferpreis)
Der vram Preis ist auch bekannt.
Einzig das gddr7 noch nicht final ist fehlt noch
Derzeit kaufbar gdddr6 16gbits 1gb /2gb und gddr6x 21gbits 1gb
Geplant ab 6/22 gddr6 20gbits und gddr6 24gbits beides hynix

Ampere wenn der chip bei tsmc gefertigt werden würde hätte als ga102 bei 360w gelegen bei 2,4ghz
Und bei vernünftiger planung bei 286w (2,1ghz)

Der High end chip mit den vollen 12 gpc 144sm ga100 hat 400w auf 1,6ghz
gleiche sm bei 5nm tsmc 30% effizienter = 280w
Oc man den chip auf 2,3ghz ist man bei 550w

Dabei geht es nur darum das nvidia vor amd n32 chip liegt und dann Premium Preise verlangen kann.
Mit Vernunft hat das nix zutun und auch nicht damit das die Architektur schlecht wäre.
Das ist reines Ego vom jensen yuan.
Und auf die 70% marge ill nvidia nicht verzichten die zusammen chip und vram verkauft wird
Das sind die Kostentreiber und Gewinnmargen anstatt die Realität anzuerkennen das amd mit den MCM design schneller ist.
Intel kommt hinzu im einstiegsbereich da erwarten uns gute preise. lediglich die treiber sind ein Problem. aktuell zwischen 15-50% unterhalb der theoretischen Leistung.

Was im hIgh end Sache ist ist den meisten egal zumal die leistung jenseits der 30tf selbst auf 4k unbedeutend ist da man vorher im cpu limit verhungert.
Also vor zen5 und intels int4 fertigung mit meteo lake würde ich keine gpu oberhalb von 40tf kaufen da man diese nicht auslasten kann und ständig im cpu limit hängt.
Einzig DXR spiele könnten die gpu auslasten und selbst das ist fraglich.

Bliebe nur der Weg zu pathtracing nur gibt es derzeit kaum Spiele die diese art von rendern nutzt
zumal die dedizierten RT cores effizienter werden ud das denoising mit den tensor cores (dlss) leistung freigibt derzeit wird dlss für upscaling genutzt
Das war nie geplant gewesen.
Das Resultat ist aber beeindruckend auch wenn nicht imer ohne Fehler.

Zurück zum Thema
mögliche Verbräuche der skus
rtx4090 ad102 136sm 480-550w 2,4ghz high end q3 2022 1699€ (5nm)
RTX3080ti ad102 108sm 450-500w 2,4ghz hig ned q4 2022 1399€(5nm)
RTX4080 ad103 96sm 325w 2,3ghz performance q3 2022 999€ (5nm)
RTX4070 ad104 52SM 252w 2,5ghz obere mittelklasse q4 2022 579-699€ (5nm)
RTX4060ti ad104 40-48sm 200w 2,5ghz Mitteklasse q1 2023 379-559 (5nm)
RTX4060 ad106 32sm 131w 2,3ghz obere einstieg q2 2023 279-389€ (5nm)
RTX4050ti ad107 24sm 87w 2,3ghz Einstieg q3 2023 179-299€€ (4nm)
RTX4050 ad107 20sm 66w 2,1ghz unterer einstieg q3 2023 109€ (4nm)
RT4030 ad107 16sm 35w 2,0ghz low end HTPC q4 2023 ~79€ (4nm)

Und das sind pessimistische Ansichten wo den die preise und Verbräuche landen
Ein sm =64 fp32, 48 fp64, 64 int32,,16 tc ,1 RT.

Die unterschiedliche preise bedingt durch intel konkurrenz bzw amd
Der strom bedarf würde wenn lovelace nur auf 2,0ghz laufen würde um 35% sinken
Selbst amperer ohne Größenänderung auf 7nm wäre um 18% effizienter oder 10% mehr Takt drin also von 1,8ghz auf 2,0ghz
Und 5nm sol noch besere yield haben da nvidia auch hier die chips teils kastriert gehe ich davon aus das man den maxed Takt erreiche will was etwa 2,3-2,5ghz ist. ab 2,0ghz wird es zum quadrat ineffizienter
Hätte nvidia die größe nicht maximiert wären sogar 2,7ghz mit brechstange drin.
verkleinerung möglich 70% mit 30% effizienter oder 15% mehr takt.
Die größe habe ich auf maxed 30% reduziert dadurch hat man mehr fläche und somit mehr takt möglich was auch zum quadrat skaliert.
70% maximal möglich 30% genutzt =40% effizinter oder 20% mehr takt+15% OC
=7,5% weniger verbrauch bei 2,2-2,4ghz vs tsmc 7nm 144sm chip
vs samsung sind das min 29% weniger Strom wenn gleiche sm menge.
Und das ist OC am limit
Samsung 8nm sind für die hohen Taktraten nicht geeignet idealer Takt ist 1,6ghz bsp ga106 28sm aktiv 120w
 
Wow, so viele dumme Kommentare.
Ihr würdet doch sowieso niemals eine Top-Grafikkarte kaufen.
Also was sollen die blöden Kommentare? Die sind nicht witzig, sondern nervig.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Hallo zusammen,

ich kann da wirklich nur noch den Kopf schütteln. Es bleibt ja nicht einmal bei dem horrenden Stromverbrauch. Da ist dann auch die ganze Wärme, die eben aus dem Gehäuse abgeführt werden muß. Es fallen also nicht nur in der Regel wegen einem Neuen NT weitere Kosten an, sondern auch im Zweifelsfall bei vielen für ein Gehäuse, ganz sicher aber was Lüfter etc. angeht.

Man muß sich ja nur mal die Rechner hier im Forum ansehen, wieviele sich da melden, weil sie ein unzureichend belüftetes System haben. Für mich ist aber ehrlich gesagt Nvidia im besonderen nicht zu verstehen, daß sie gerade in diesen Zeiten eher keinen Wert auf vernünftigeren Strombedarf legen.

Aber es gibt zum Glück mittlerweile noch einen richtigen Konkurrenten, der aus seinen Fehlern gelernt hat und von dem was man hört, auch nicht nachzieht in dem Maße, wie es bei Nvidia der Fall ist. Und das ist gut so.

@syfsyn
Die unterschiedliche preise bedingt durch intel konkurrenz bzw amd
Der Preis der von dir aufgezeigten Modelle wird sich auch durch Kosten wegen deutlich erhöhtem Kühlbedarf, für einen deutlich erhöhten Aufwand für den Kühler niederschlagen. Da zieht eines das andere nach sich. Und warte erst einmal, wie das bei den Custom-Herstellern wird.

Ansonsten kann ich über die meisten deiner sonstigen Ausführungen nur noch den Kopf schütteln. Sorry, nicht böse gemeint.

So long....
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Hallo zusammen,

Man muß sich ja nur mal die Rechner hier im Forum ansehen, wieviele sich da melden, weil sie ein unzurechend belüftetes System haben. Für mich ist aber ehrlich gesagt Nvidia im besonderne nicht zu verstehen, daß sie gerade in diesen Zeiten eher keinen Wert auf vernünftigeren Strombedarf legen.
Das sind Grafikkarten für Gamer Enthusiasten. Nicht zum nachrüsten für Bürorechner.
 
Hallo zusammen,

@Tom_111
Tom_111 schrieb:
Das sind Grafikkarten für Gamer Enthusiasten. Nicht zum nachrüsten für Bürorechner.
Denkst du erntshaft, dieser erhöhte Strombedarf wird nur bei den Spitzenmodellen anfallen? Der wird in der Relation auch bei den darunter angesiedelten Karten auch anfallen, jedenfalls in Relation in jedem Fall. Grundgütiger!

Da wo heute in der Mittelklasse 200 - 220 Watt anfallen, werden es in der besagten kommenden Generation gleich mal 300 - 350 Watt sein. Wie gesagt, eines zieht das andere kontinuierlich nach sich.

So long....
 
Luxmanl525 schrieb:
Hallo zusammen,

@Tom_111

Denkst du erntshaft, dieser erhöhte Strombedarf wird nur bei den Spitzenmodellen anfallen? Der wird in der Relation auch bei den darunter angesiedelten Karten auch anfallen, jedenfalls in Relation in jedem Fall. Grundgütiger!

Da wo heute in der Mittelklasse 200 - 220 Watt anfallen, werden es in der besagten kommenden Generation gleich mal 300 - 350 Watt sein. Wie gesagt, eines zieht das andere kontinuierlich nach sich.

So long....
Es wird auch 200W Low End Grafikkarten geben.
 
Zarlak schrieb:
Na mit dem neuen Kühler dürfte das kein Problem sein. 😁

Hm oder vielleicht doch eher mit diesem Kühler?^^

Mal im Ernst das geht dann nur noch mit Wasserkühlung oder?
 

Anhänge

  • Screenshot_20220314-203330_YouTube.jpg
    Screenshot_20220314-203330_YouTube.jpg
    617,7 KB · Aufrufe: 173
  • Gefällt mir
Reaktionen: Luxmanl525
Hallo zusammen,

@Tom_111
Tom_111 schrieb:
Es wird auch 200W Low End Grafikkarten geben.
Gott im Himmel, du begreifst Hinten und Vorne nicht, um was es eigentlich geht. Aber egal, Einerlei. Ich bin raus.

So long...
 
Luxmanl525 schrieb:
Hallo zusammen,

@Tom_111

Gott im Himmel, du begreifst Hinten und Vorne nicht, um was es eigentlich geht. Aber egal, Einerlei. Ich bin raus.

So long...
Ähm, ich glaube eher du hast Schwierigkeiten im Begreifen.
Ergänzung ()

prev schrieb:
Lowend sollten eher zwischen 75-100W liegen. 200W war bis vor kurzem gute Mittelklasse.
Da hast du Recht. Ich denke mal NVIDIA wird alle Bereiche bedienen. Da brauchen die Leute hier keine Angst haben, dass jetzt alle Karten so einen hohen Verbrauch haben.
 
Mit Luft werden 800W aber nicht mehr gekühlt.
Ich frag mich auch ob man sowas noch mit Wasser kühlen kann bzw. will.
 
  • Gefällt mir
Reaktionen: Zockmock
xy1337 schrieb:
würde mir eine Verdoppelung der Leistung meiner GTX 1070 mit 16 GB VRAM und einer Leistungsaufnahme unter 150 Watt wünschen.
Hallo!
Das ist aktuell (für ca. 1000 Euro:) ) möglich z.B. mit einer RX 6800 ,wenn du da deutlich undervolting betreibst! unter 150 Watt wird wohl schwierig aber 150 -175 geht bestimmt!
 
  • Gefällt mir
Reaktionen: xy1337
Klar man kauft sich eine 1000€ Karte und opfert ein haufen Leistung für ein paar Watt?!

Überhaupt wirkt sich zu viel Undervolting schlecht auf die frametimes aus.

Seit Pascal ging nvidia extrem gut mit 850mv 1800-1900mhz je nach Chip das war Stock Leistung +-2% bei 40-55 Watt weniger. Unter 800mv ist nicht zu empfehlen.

1080 damit 130 Watt
1080TI 200 Watt
1070 110Watt
1060 85 Watt


Habe ich noch alles notiert .:D

Vega war cool in der Hinsicht. Einfach auf 950mv 1500mhz fertig.

Ampere lol wenn die Shader ausgelastet werden spart man mit 750mv keine 20 Watt. Das hat man von den vielen cuda. Komplette Brechstange.

Rdna 2 ist bombe eine 6600XT liefert mit knapp 120 Watt fast 1080Ti Leistung.

6800 mit 200 Watt eine starke 2080TI under water shunt gemoddet 500+ Watt.

6900xt liefert mit 160 Watt das selbige aber da killt man schon 30%.

Für die letzten 15% wird extrem viel Energie verschwendet. Dann lieber bisschen langsamer aber extrem effizient auf den Markt bringen und mit 15% OC Headroom unter Luft wäre das doch bombe. 😌 Reviewer halt drauf hinweisen lassen das Oc gut was bringt.

Oc bringt ja ausser bei Top End seit Pascal keine 8% mehr.
 
JMP $FCE2 schrieb:
"Zwei Slots" und "leise" beißen sich auch schon bei 200 Watt. Wozu das sinnlose Größenlimit ?
Die Karte muss ins Ghost S1 passen, deshalb die Beschränkung.
 
xy1337 schrieb:
Ich würde mir eine Verdoppelung der Leistung meiner GTX 1070 mit 16 GB VRAM und einer Leistungsaufnahme unter 150 Watt wünschen
Eine 3070 verbraucht mit 900mV bei 1.920Mhz Takt ca. 160 Watt. Ohne Undervolting sind es bis zu 240 Watt, ohne signifikanten Leistungszuwachs.

Ähnliches könnte ich mir bei den kommenden 4060/4070 auch vorstellen. Aber warten wir mal ab.

Also da geht auch bei den 3000er schon was. Lediglich der Preis ist aktuell zu hoch und die Speicheraustattung unter Umständen knapp, bspw. in 4K und RT.
 
  • Gefällt mir
Reaktionen: xy1337
Die Grafikkarten können nicht mehr günstiger werden. Die Fertigung ist derart komplex, um die hohen Frequenzen zu erreichen, das da ganz schöne Kopfstände allein für die Boards gemacht werden müssen.

Ich denke die aktuelle Art und Weise, wie gerendert wird, hat langsam ihr Limit erreicht. Man wird jetzt mehr und mehr in die Breite gehen, was die Kosten auch nicht senken wird.

Der nächste Punkt, der mich abschreckt: bei 600w Board power, sind die ausschläge ja gar nicht berücksichtigt. Jetzt schon schalten Netzteile, die genug Leistung haben sollten, ab, weil die Stromausschläge extrem hoch und schnell sind.

Herausforderungen, die der geneigte Zocker bezahlen darf :)
 
Zurück
Oben