Umfrage: Hohe TDPs zukünftiger Hardware in Eurem Sinne?

Sind die hohen TDPs zukünftiger Hardware in Deinem Sinne?

  • Ja, Leistung first. Wer weniger Stromverbrauch will, kann Mittelklasse kaufen und/oder untervolten

    Stimmen: 13 12,1%
  • Nein, stört mich (Aus Prinzip / Softwarerumgefummel / dicker Kühlkörper o. WaKü / Hitzeentwicklung)

    Stimmen: 90 84,1%
  • Mir egal

    Stimmen: 4 3,7%

  • Umfrageteilnehmer
    107
Katzenjoghurt schrieb:
und wir dann in Tests ähnliches sehen werden, wie bei Igors 3090TI Drosseltest: 12% Performance-Gewinn durch 50% mehr Stromverbrauch erkauft.
Das ist aber auch nichts neues, dass die letzten paar Prozent sehr teuer erkauft werden.
Daher wundere ich mich ja immer wieder aufs neue über die Aufregung. Als ob man gezwungen ist, diese Karten zu kaufen.

Wir stimmen also überein, dass durchaus noch mal ein Effizienzgewinn erzielt werden kann, die Fahnenstange noch nicht erreicht ist mit dieser Strukturbreitenreduktion.
Dann wäre in der Umfrage doch eigentlich interessanter, ob und warum sich Leute an den Karten mit höherer TDP stören.
 
@Katzenjoghurt

Du unterscheidest nur in "ja/nein/egal" in der Umfrage.
Ich fände es interessant, die Gründe für "nein" genauer zu betrachten.

Weil es ja voraussichtlich Karten geben wird, die der Leistungsaufnahme der heute verbauten Karten entsprechen und die einen Leistungssprung ermöglichen werden. So wie wir das seit Jahren kennen.
Jeder kann seine alte Karte ersetzen und mehr grafische Leistung erreichen bei gleicher Stromaufnahme.

Warum stört es also die Leute, dass es zusätzlich noch Karten geben wird, die noch mehr Leistung bieten, aber eben auch deutlich mehr Strom verbrauchen?
 
  • Gefällt mir
Reaktionen: S.Kara
calippo schrieb:
Weil es ja voraussichtlich Karten geben wird, die der Leistungsaufnahme der heute verbauten Karten entsprechen und die einen Leistungssprung ermöglichen werden. So wie wir das seit Jahren kennen.
Jeder kann seine alte Karte ersetzen und mehr grafische Leistung erreichen bei gleicher Stromaufnahme.
Der Aspekt ist doch in "Ja" enthalten - "wer Strom sparen will, kann Mittelklasse kaufen".

So wie ich Dich verstehe, redest Du ja von der zukünftigen Mittelklasse, die voraussichtlich schneller sein wird als die jetzige Oberklasse, bei hoffentlich ähnlichem Stromverbrauch.

Was dann halt eventuell den Leuten fehlt, sind Karten nahe dem Vollausbau, aus denen nicht noch mit Extrastrom das letzte Quentchen Leistung rausgekocht wird. Zumindest könnte ich mir gut vorstellen, dass es da eine Lücke gibt.

Wenn es einfach nur neben einer 4090 SSE ("Sweet-Spot-Edition") noch eine 4090 Titan mit 600W und eine Super Titan mit 900W gäbe, würden die meisten vermutlich einfach den Kopf schütteln und emotionslos abwinken, weil Titan in den Augen der meisten Leute eh immer schon was für Spinner war.
 
Zuletzt bearbeitet:
Katzenjoghurt schrieb:
Zumindest könnte ich mir gut vorstellen, dass es da eine Lücke gibt.
Wäre auf jeden Fall schön, wenn es eine sinnvolle Palette an Karten geben wird, so dass keine großen Lücken entstehen. Da müssen wir abwarten.


Katzenjoghurt schrieb:
So wie ich Dich verstehe, redest Du ja von der zukünftigen Mittelklasse, die voraussichtlich schneller sein wird als die jetzige Oberklasse, bei hoffentlich ähnlichem Stromverbrauch.
Ja genau.
Wobei, meines Erachtens sind die Begriffe "Mittelklasse" und "Oberklasse" obsolet geworden.
Wovon wir ohnehin ausgehen müssen ist, dass sich das Preisgefüge verändert hat. Mining, Corona, Krieg, Sanktionen und weltweite Logistikprobleme, die Preise aus der Zeit vor dem ersten Miningboom werden wir erst mal nicht mehr sehen.

Da ist es müßig zu spekulieren, welche Karte nun in welche Klasse passt. Wenn sich die Gerüchte bewahrheiten und die 4090 oder RX 7900 in die Größenordnung von 100 TFLOPS kommt, dabei 600 Watt schluckt und preislich ggf. noch mal deutlich höher als die 3090ti angesiedelt ist, dann müsste man doch eigentlich noch mal eine neue Klasse definieren.
Aber statt alten Kategorien hinterherzurennen, würde ich mich auf die technischen und preislichen Eckpunkte konzentrieren.
Eine Karte kostet x€, hat eine Leistung y und einen Stromverbrauch z, daran kann man sich orientieren, auf dieser Basis kann man Vergleiche anstellen.
 
Dann gäbe es halt wieder Karten für "Enthusiasten" wie eben einst die Titan.
Die Begriffe werden wohl bleiben, weil wir uns im Diskurs nicht irgendwelche Listen mit Marketingbezeichnungen oder Specs um die Ohren hauen wollen.

Das Ding ist halt: Die Gerüchte klingen eigentlich eher so, als ob Nvidia durch die Bank die TDP erhöht.
Eine 4070 soll nun auch 300W verbrauchen, wo eine 3070 noch 220W nuckelte.
Klar könnte man sich jetzt auf den Standpunkt stellen, dass sich halt alles 'n bißchen verschiebt und man halt nun 'ne Nummer kleiner kauft, nach eigenem TDP Geschmack.

Es bleibt nur der Verdacht, dass man eben als Käufer nur noch übertunete Modelle kriegt, und es fehlt sehr vermutlich die erwähnte Sweet-Spot-Edition, die zwar mit "normalem" Stromverbrauch/Takt läuft, bei der aber nicht die Anzahl der Shader-Cores reduziert wurde.
Wenn man die will, muss man selbst Hand anlegen und mit Afterburner untervolten. Den fetten Kühler, der drei oder mehr PCIe Slots verbarrikadiert, kriegt man so aber z.B. nicht los. Und ein neues Netzteil wird eventuell trotzdem fällig. Selbst wenn man alles runtercrankt, hat man dann mit seinem 600W Netzteil i.d.R. wohl kaum die Anzahl an PCIe Stromsteckern, die die Grafikkarte aufwärts einer 4070 will.

Auf den ganzen Shizzle werden halt viele keinen Bock haben.
 
Hohe TDP ≠ hoher Stromverbrauch.
Hohe TDP eher gleich schlechte Effizienz.

Und klar, irgendwo muß man anfangen; daß zunächst die Effizienz bei höherer Performance leidet ist nicht wirklich was Neues. Das bestätigt einem jede alte Grafikkarte (oder CPU).

Dennoch stolpern wir grad in TDP Ranges, die nicht mehr feierlich sind. Ich will einen PC haben und keinen Ofen.

Wobei ich mich doch irgendwie frage, ob die Herangehensweise Methode hat.
Ich mein, wenn jetzt zB Nvidia eher auf "Game Streaming" setzen wollen würde, dann wäre es schon sinnvoll, Consumerkarten unattraktiv(er) zu machen.

Aber trotzdem, bis auf weiteres hab ich nach der absoluten Pleite namens "aktuelle Grafikkartengeneration" durchaus vor, meine 1080 durch eine 40-irgendwas zu ersetzen... wenn sie nicht grad genauso "unverfügbar" wird und/oder genauso albern bepreist wird wie derzeitige Hardware. Auch wenn diese dann 500W frißt und ich über deren Hunger maule. 🤷‍♀️
Einfach deswegen, weil diese meine 1080 bereits jetzt auf ≤50% des Verfügbaren zurückgefallen ist und dafür jetzt auch nicht besonders "hocheffizient" ist, schon gar nicht im Vergleich zu aktuelleren Generationen.
 
Mich stört es z.b. in erster Linie wegen dem hohen Verbrauch und weil es schwer wird sowas dann ohne Wasserkühlung zu kühlen

Oder es wird laut und heiß
 
  • Gefällt mir
Reaktionen: Katzenjoghurt
RalphS schrieb:
Hohe TDP eher gleich schlechte Effizienz.
Die Effizienz ergibt sich aus der Leistung und der dafür benötigten Leistungsaufnahme.
Laut aktuellen Leaks gehen wir von 40 TFLOPS bei 450 Watt auf 100 TFLOPS bei 600 Watt.

Die Effizienz der 4000er wird also vermutlich sehr viel besser als die aller aktuellen Karten sein.
 
So ganz verstehe ich die Diskussion um die hohen Watt Zahlen ja nicht.

Das letzte mal, dass ich mir ziemlich high end gegönnt hatte, war die ATI XT 850 PE. Heutige High End Hardware würde mit der damaligen Netzteil Leistung wohl auch nicht mehr starten. Aber wir spielen ja auch nicht mehr in 1280x1024 bei 60 Hz. Irgendwo muss die Leistung ja herkommen.

Und eigentlich war es ja immer schon so, dass die mehr Leistung der neuen Architektur durch neuen Engines gebraucht wurde. Wenn ich natürlich jetzt auf Ultra spielen will in 4k mit xxx Hz kommt das halt über den Verbrauch.

Für mich sind die 350 Euro die magische Grenze beim Kauf einer GPU. Bei mir rödelt immer noch eine GTX 970 im Rechner und bin damit zufrieden. Bei Full HD und 60 Hz.
Ob die GPU High, Mid oder Low end ist, ist egal. Solange meine Ansprüche erfüllt werden.
 
  • Gefällt mir
Reaktionen: alexbirdie
Genesis84 schrieb:
Ob die GPU High, Mid oder Low end ist, ist egal. Solange meine Ansprüche erfüllt werden.
Finde ich cool. Bin derselben Meinung.

Ich habe zwar ein bißchen höhere Ansprüche ( also mindestens 100 fps und Bildwiederholrate von 144 Hz in WQHD), aber auf das letzte Quentchen Leistung kommt's mir nicht an.

Hatte bis vor Kurzem eine 2080Super und jetzt eine 3080.

Die betreibe ich mit max. 1800-1830 Mhz und 0.825 Volt. Braucht ca. 50 W weniger als mit Serien-Einstellung, kostet aber nur ein paar Prozent Leistung und ist trotzdem viel schneller als die 2080Super(so ca. 30% mit meiner CPU).

Aber jeder wie er/sie glaubt. Wenn jemand 4K mit mindestens 120 fps spielen wil oder unbedingt Raytracing will, dann soll/muß er/sie halt den erhöhten Stromverbrauch in Kauf nehmen.
 
  • Gefällt mir
Reaktionen: Genesis84
Zurück
Oben