News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

XPS schrieb:
Die Karten gibt es ja, und ich war z.B Bereit dafür letztes Jahr im Januar dafür 2150€ zu Zahlen.
Wenn ich es nicht Kaufe macht es jemand anderes, die Produkte usw. wurden ja schon her gestellt

Mit dieser Aussage hast du dich gerade selber für die Diskussion disqualifiziert, da du offensichtlich Grundsätze der Marktwirtschaft noch nicht durchdrungen hast. Wenn du Karten mit hoher TDP kaufst und dies noch mehr Leute tun, wird die Entwicklung auch weiter in diese Richtung gehen. Wenn du diese boykottierst (und andere auch), wird das Angebot in diese Richtung verringert oder gar eingestellt.
Ergänzung ()

XPS schrieb:
Mann muss sich dann nur die Frage stellen ist es mir den Preis wert oder eben nicht!
Mir ist der Preis in dem Fall egal und somit warum nicht in 4K Max Zocken wollen ?

Auch hier hast du die Diskussion leider nicht in voller Gänze begriffen. Es geht nicht nur um den Preis (da ist es ja schön wenn du dir den leisten kannst), sondern auch um die Umwelt - um die effiziente und sparsame Verwendung unserer auf der Erde begrenzten Ressourcen. Es geht nicht immer nur um ich ich ich ich - denn wir leben hier alle zusammen auf einem Planeten. Wir sitzen alle in einem Boot. Wir gehen gemeinsam unter, daher sollten wir auch gemeinsam schauen dass die Entwicklung in jederlei Hinsicht in die richtige Richtung geht - und diese Richtung ist nunmal Effizienz und Sparsamkeit.
 
  • Gefällt mir
Reaktionen: Smartbomb und Wan900
Wintermute schrieb:
Ja. Aber anscheinend mit einem effizienteren Topfdesign (Chiplets/Active Bridge). Wir werden es sehen. Das Top Modell wird aber wahrscheinlich auch fähig sein einige aktuelle Netzteile zu schmelzen.

@NorwegianViking eine gute Freundin aus Polen sagt immer "Kalt ist erst ab -15"
Bei -15 Grad sind doch angenehmes Klima, ich versteh die Leute nicht.
Polen ist es gelegentlich auch kühler als in DE :-D .

Røros kann ich dir empfehlen, sehr schönes Gebiet.

Aber zum Thema, ich denke, ich werde mir diese Season keine RTX 4000er-Karte holen, wenn die Ref. Schon weit über 450 - 650W schlucken, dann will ich nicht wissen, was die Custom karten können, ohne die Peaks.
 
  • Gefällt mir
Reaktionen: Wintermute
nutzername schrieb:
Ja, gute Idee: für 100%(+) kaufen und dann 90% der Performance abrufen um die Leistungsaufnahme zu reduzieren. Deshalb fahre ich auch immer mit meinem Ferrari zum Einkaufen.
Ich halte diese Entwicklung auch für Unfug. Aber was soll man machen? Ich persönlich hoffe auf eine ansprechende 7800er Serie.
 
Habt ihr etwa alle keine Solaranlage für eure Grafikkarte?

Die einzige Frage, die sich stellt ist doch ob die Leistung pro Watt weiterhin steigt. Wenn das weiterhin der Fall ist, zwingt euch doch keiner das high-end Monster zu kaufen...
 
@Zoba
Stimmt schon, allerdings ist zumindest bei Nvidia derzeit alles <3080 12GB mit etwas zu wenig VRAM gesegnet um es etwas länger zu nutzen. Ausnahme wäre derzeit die 3060 nur ist dort die Leistungssteigerung für viele eben etwas zu klein.

Wird sich bei der nächsten Gen womöglich etwas entschärfen, die Frage ist nur, ab es sich bei den Preisen etwas tut was ich eben nicht glaube da eine 4070 eher das gleiche kosten wird wie jetzt eine 3080 12GB wenn die Leistung entsprechend steigt.
 
Grimba schrieb:
Nein, du reißt die Dinge aus dem Kontext - inkl. dem wichtigen "Verbrauch =! Effizienz".
Meine Aussage hier war darauf bezogen dass Intel es eben nicht erkannt hat da die Brechstange nach wie vor angewendet wird - und das hat absolut nichts mit dem von dir zitierten Artikel zu tun. Siehe: https://www.computerbase.de/2022-04/intel-core-i9-12900ks-test/
Im Endeffekt geht es doch überall nur um die Leistungskrone ergo Verbrauch != Leistung.

Der Kommentar zu den GPUs war ebenfalls explizit eine Spitze darauf dass es sich ja nur um die CPUs handeln kann, denn von Intel haben wir noch keine Benchmarks.
Was bspw. CUDA Support anbelangt ist auch auf CB ein Artikel erschienen https://www.computerbase.de/2022-03/china-grafikkarte-mtt-s60-mtt-s2000/
Du hast es dargestellt als wären die neuen GPUs nicht genügsamer - aber das sind sie. Und auch bei entsprechend abgerufener Leistung sind sie effizienter. Daran ist absolut gar nichts anachronistisch.

Der Trend as a Service ist ebenfalls keine Vermutung sondern ein Fakt. Du siehst die Welt scheinbar aus einer personal compute Filterblase. Aber die Zeiten sind lange vorbei. Welchen Ansatz für "Belege" möchtest du denn haben? Zugang vom Weltmarkt zu high end gaming Komponenten? Anteil von PC Nutzern im Vergleich zu Tablets / Smartphones? Anteil von erfolgreichen Lead-Titeln auf dem PC die nicht auch auf Konsolen erscheinen? Anteil von cloud e-mail vs. Leute mit eigener Domain für den E-Mail Empfang? Oder FTP Server zum Teilen von Dateien? Aufwachen bitte.

Um es einfach auszudrücken: Ist deine Vision von "Personal Computing" etwa wirklich dass in zwei Dekaden der kleine Klaus-Dieter einen Quantencomputer nach Weihnachten unter dem Tisch stehen hat? Papa betreibt dann einen storage Server damit Mama der Freundin ein Video sharen kann? Zudem überwacht er fleißig die eigene Familie per Hardware-Firewall und DPI sowie SSL Inspector? Themen wie Cloud ignorieren wir auch dass du der Meinung bist dass du in 20 Jahren noch massive Compute-Leistung im Arbeitszimmer stehen haben wirst?
Sicher wird ein gewisser Anteil an Computer noch immer zu Hause bleiben und sein - dennoch wird die Schere immer weiter auseinanderklappen.

Alle modernen Plattformen nutzen aktuell Fremdhardware / Server / Cloud. Sei es für Authenticate, DRM, Storage (bspw. Cloud Saves, Mods, Screenshots oder Bibliothek) oder für Compute-Anteile (Server-Side-Progression, Achievements, Streaming, Vector-Forecasting oder eben noch deutlicher: Compute-Clouds wie Azure oder gar Streaming von Games ala Stadia und co.) etc.
Mit dabei sind Konsolen in allen Ausprägungen (Xbox und auch Playstation nutzen z.B. Azure), Stadia usw. aber auch der "PC". Spiele wie MSFS sind bspw. mit reinem PC gaming überhaupt nicht mehr möglich - und da ist noch sehr viel Luft nach oben aber nicht mehr so viel in den eigenen vier Wändern und 90% Idle.
 
Zuletzt bearbeitet von einem Moderator:
Ich denke du arbeitest dich hier in absurder Weise an etwas ab und mehr werde ich das auch nicht würdigen. Das geht mir zu weit was du alles über mich fabulierst, besonders in dieser von oben herab gerichteten Weise. Das gibt nichts von mir her, schon gar nicht in diesem Ton. Was immer dich dazu veranlasst hat, es ist mir schleierhaft.
 
Zuletzt bearbeitet:
Robo32 schrieb:
In diesen Verbrauchsregionen wird die Luft (potentielle Kundschaft) immer dünner was bereits einige Umfragen belegen - was wirklich passiert werden wir natürlich erst später sehen.
In der Mittelklasse vielleicht - im Bereich über 1.000€ kräht kein Hahn nach den paar Euro mehr an Stromkosten. Handelt sich ja gerade mal im Extremfall um 8€ im Monat - das zahlt jeder, der solche Preise für Grafikkarten bezahlt, aus der Portokasse. Ist wie bei den Sportwagen und den Kosten - beschweren tun sich in der Regel nur die, die keinen fahren. Verhält sich hier identisch.
Ergänzung ()

downforze schrieb:
Stattdessen geht es nur noch um immer höhere Auflösungen. Als wenn ein normaler Mensch auf nem 22" Monitor den Unterschied zwischen 4k und FullHD in bewegten Szenen erkennen könnte.
Genau, um 22 Zoll geht es den ganzen 4K Gamern - was ich eine schwache Diskussionskultur hier manche an den Tag legen :lol:
Ergänzung ()

Fighter1993 schrieb:
Und ich denke wohin mit der ganzen Wärme wenn die 300W meiner 6900XT aufdrehen.

600W sind das Doppelte, das muss man sich mal auf der Zunge zergehen lassen.
Habe ebenfalls eine 6900 XT hier - die 300W sind auch über Stunden nie ein Thema gewesen. Da habe ich schon eher mal wegen frischer Luft gelüftet als wegen den lächerlichen 300W. Da muss man schon im 8qm Kinderzimmer hocken, dass das zum Thema wird.
 
Zuletzt bearbeitet:
Gast12345 schrieb:
Genau, um 22 Zoll geht es den ganzen 4K Gamern - was ich eine schwache Diskussionskultur hier manche an den Tag legen :lol:
Dachte ich bei deinem Kommentar auch. Aber sicher hast du genaue Erkenntnisse, um was es dem 4K-Gamer so geht.
 
Gast12345 schrieb:
Habe ebenfalls eine 6900 XT hier - die 300W sind auch über Stunden nie ein Thema gewesen. Da habe ich schon eher mal wegen frischer Luft gelüftet als wegen den lächerlichen 300W. Da muss man schon im 8qm Kinderzimmer hocken, dass das zum Thema wird.
Viel mehr wie 8m2 hat das Büro meiner Wohnung auch nicht.
Und wenn du mir erzählen willst das es mit 500W Dauerheizung (es ist ja nicht nur die GPU) nicht zu warm wird nach Stunden, solltest du den PC mal aus dem Keller in den Dachboden stellen.
 
downforze schrieb:
Dachte ich bei deinem Kommentar auch. Aber sicher hast du genaue Erkenntnisse, um was es dem 4K-Gamer so geht.
Naja mehr gab es dazu wirklich nicht zu sagen - garantiert nicht um 22 Zoll. Welchen 22 Zoll 4K Gaming Monitor würdest du denn empfehlen, der im Schnitt zu den meistverkauften 4K-Monitoren gehört? ;)
 
Zuletzt bearbeitet:
Es ist doch aber mittlerweile wirklich eine gute Alternative zur regulären Heizung...

Ganzen Tag FurMark laufen lassen und die Bude wird warm.
 
Fighter1993 schrieb:
Viel mehr wie 8m2 hat das Büro meiner Wohnung auch nicht.
Und wenn du mir erzählen willst das es mit 500W Dauerheizung (es ist ja nicht nur die GPU) nicht zu warm wird nach Stunden, solltest du den PC mal aus dem Keller in den Dachboden stellen.
Was hast du denn für eine CPU, die 200W im Gaming Betrieb zieht? Dein angegebener 5900X kommt auf keine 80W im Gaming Betrieb. Und nein ich sitze nicht im Keller, aber natürlich auch nicht auf 8qm, das ist selbstverständlich schon etwas eng.

Aber passend zu kleinen Räumen hier ein Test mit 3x3m Raumgröße:
https://www.pugetsystems.com/labs/articles/Gaming-PC-vs-Space-Heater-Efficiency-511/

Bei 1.000W (!) ist die Temperatur nach 2 Stunden von 21 auf 27 Grad angestiegen.
Bei gerade einmal einem Drittel davon, wie in unserem Fall, dürftest du bei normaler Raumtemperatur nach 2 Stunden wenig davon merken.
Da ist es kein Wunder, dass ich hier so gut wie nichts davon merke.
 
Gast12345 schrieb:
Was hast du denn für eine CPU, die 200W im Gaming Betrieb zieht? Dein angegebener 5900X kommt auf keine 80W im Gaming Betrieb. Und nein ich sitze nicht im Keller, aber natürlich auch nicht auf 8qm, das ist selbstverständlich schon etwas eng.

Aber passend zu kleinen Räumen hier ein Test mit 3x3m Raumgröße:
https://www.pugetsystems.com/labs/articles/Gaming-PC-vs-Space-Heater-Efficiency-511/

Bei 1.000W (!) ist die Temperatur nach 2 Stunden von 21 auf 27 Grad angestiegen.
Bei gerade einmal einem Drittel davon, wie in unserem Fall, dürftest du bei normaler Raumtemperatur nach 2 Stunden wenig davon merken.
Da ist es kein Wunder, dass ich hier so gut wie nichts davon merke.
Ich sitze in einem 28qm Büro und wenn meine Kiste den ganzen Tag läuft merke ich sogar das in dem Raum.. und das obwohl er im Keller ist.

6900XT 5600X wenig kleinkram dann musst du auch noch die Monitore rechnen davon habe ich 3 stück 38 Zoll + 2x 32 Zoll. Und man selbst heizt ja auch mit etwa 150 Watt Körperwärme.

Da kommen nach 5-6 Stunden schon bisschen was zusammen. Ich merke aber auch deutlich ob mein Raum 19 oder 22 Crad hat.
 
  • Gefällt mir
Reaktionen: Fighter1993
Gast12345 schrieb:
Naja mehr gab es dazu wirklich nicht zu sagen - garantiert nicht um 22 Zoll. Welchen 22 Zoll 4K Gaming Monitor würdest du denn empfehlen, der im Schnitt zu den meistverkauften 4K-Monitoren gehört? ;)
Das zeigt einfach nur, dass von den Upscaling wie VSR keine Ahnung hast.
 
downforze schrieb:
Das zeigt einfach nur, dass von den Upscaling wie VSR keine Ahnung hast.
Stimmt die VSR Nutzer auf 22 Zoll machen natürlich die Masse aller „4K-Gamer“ aus - wie konnte ich das nur vergessen :rolleyes:
Ein Großteil der Käufer einer RTX 4090, um die es in diesem Thread geht, wird selbstverständlich einen 22 Zoll 1080p Monitor nutzen, da das 4K Erlebnis mit VSR auf einem 1080p Monitor einfach besser als nativ ist - gerade auf 22 Zoll, verständlich …
Jetzt verstehe ich immerhin auf welchen sinnfreien Punkt du hinaus wolltest :rolleyes:
 
Gast12345 schrieb:
Stimmt die VSR Nutzer auf 22 Zoll machen natürlich die Masse aller „4K-Gamer“ aus - wie konnte ich das nur vergessen :rolleyes:
Das habe ich nicht geschrieben. Damit ist die Diskussion meinerseits beendet.
 
Sunjy Kamikaze schrieb:
Ich sitze in einem 28qm Büro und wenn meine Kiste den ganzen Tag läuft merke ich sogar das in dem Raum..
Es soll Leute geben, die beim Aufenthalt in einem Raum über den ganzen Tag hinweg auch mal lüften :rolleyes:
Selbstverständlich, wenn ich mich hier 24 Stunden einschließe, nie ein Fenster öffne und dann noch 24 Stunden am Stück alles auf Volllast laufen lasse (warum auch immer), dann wird es auch hier warm. Aber zumindest mein Hirn benötigt irgendwann einmal Frischluft und das idR. nach wenigen Stunden und nicht nur einmal die Woche …

Habe übrigens noch einen Unraid Server 24/7 im selben Raum im Einsatz - kein Problem. Aber das mit dem Lüften vergessen bekanntlich viele …

Aber der Link in meinem letzten Beitrag belegt ja, dass man nur bei kleiner Raumgröße (9qm), völliger Isolation und hoher Abwärme (in dem Fall 1000W!) Probleme bekommt. Geht man von einem Drittel an Abwärme, einem 20qm Raum und gelegentlichen Lüften aus stellt das kein Problem dar, selbst bei Stunden Volllast am Stück, bei Gaming entsprechend noch weniger.
Ergänzung ()

downforze schrieb:
Das habe ich nicht geschrieben. Damit ist die Diskussion meinerseits beendet.
Viel gab es dazu deinerseits auch nicht mehr zu sagen nach den starken Argumenten :rolleyes:
Aber nochmal zum mitschreiben:
4K Monitore werden in der Regel ab 27 Zoll verkauft. Und bei 27 Zoll ist der Unterschied von 1080p zu 1440p schon gigantisch. Dein 22 Zoll Vergleich macht daher keinen Sinn, auch wenn man wohl auch dort den Unterschied erkennen würde.

Und dann noch kindisch per PN beleidigen? Gute Besserung - was auch immer der Grund sein mag …
 
Zuletzt bearbeitet:
Nun Gut bei mir wird morgens und Abends einmal Stoßgelüftet fertig. So sehr stinke ich nicht das ich alle Stunde die Türen und Fenster aufmachen müsste. Aber natürlich stimme ich dir zu. Wenn man alle stunde alles aufreißt dann merkt man auch den Gaming PC nicht. :p

Dennoch ändert das nichts an der aussage das ein Raum sich auch wenn er mehr als 9qm hat erwärmt durch einen Gaming PC und zubehör.
 
Zurück
Oben