Umfrage: Hohe TDPs zukünftiger Hardware in Eurem Sinne?

Sind die hohen TDPs zukünftiger Hardware in Deinem Sinne?

  • Ja, Leistung first. Wer weniger Stromverbrauch will, kann Mittelklasse kaufen und/oder untervolten

    Stimmen: 13 12,1%
  • Nein, stört mich (Aus Prinzip / Softwarerumgefummel / dicker Kühlkörper o. WaKü / Hitzeentwicklung)

    Stimmen: 90 84,1%
  • Mir egal

    Stimmen: 4 3,7%

  • Umfrageteilnehmer
    107

Katzenjoghurt

Commander
Registriert
Aug. 2005
Beiträge
2.115
Wenn ich in Foren so rumstöbere, frage mich zunehmend, ob Nvidia & Co. am Kunden vorbei entwickeln oder ob es doch eine stille Mehrheit gibt, die das Extra an Leistung willkommen heißt.

Das Ergebnis einer Umfrage dazu würde mich interessieren…
 
Ich glaub niemand hier wird den höheren Stromverbrauch befürworten, vor allem in Zeiten der bevorstehenden Klimakrise kann man diese Entwicklung einfach nicht gut heißen
 
  • Gefällt mir
Reaktionen: KitKat::new(), andi_sco, Asghan und eine weitere Person
Ich sehe nicht wieso aktuell am Kunden vorbei entwickelt werden sollte.

Nur weil die Top Karten so viel verbrauchen heißt das nicht dass alle so viel benötigen. Sei dir mal sicher dass es sowohl bei AMD als auch bei Nvidia gute Karten um die 200W geben wird.
 
  • Gefällt mir
Reaktionen: calippo
S.Kara schrieb:
Ich sehe nicht wieso aktuell am Kunden vorbei entwickelt werden sollte.

Nur weil die Top Karten so viel verbrauchen heißt das nicht dass alle so viel benötigen. Sei dir mal sicher dass es sowohl bei AMD als auch bei Nvidia gute Karten um die 200W geben wird.

Du hast aber trotzdem nicht „Ja“ gewählt, weil…?

Genoo schrieb:
Ich glaub niemand hier wird den höheren Stromverbrauch befürworten, vor allem in Zeiten der bevorstehenden Klimakrise kann man diese Entwicklung einfach nicht gut heißen
Ja, bisher ist es recht eindeutig.
 
Nein da ich es ruhig haben will und mit steigender Abwärme das zusehens schwerer wird. (man muss dazu aber sagen das ich eh nicht so viel Leistung brauche und daher eh was schwächeres und damit nicht so verbrauchstarkes kaufen würde)
Der Stromverbrauch würde mich aber nicht stören die paar Watt machen den Braten auch nicht fett.
 
Fujiyama schrieb:
Der Stromverbrauch würde mich aber nicht stören die paar Watt machen den Braten auch nicht fett.

Falls das bei jemandem überwiegt, hab ich grad noch den Punkt „Mir egal“ hinzugefügt. :)
(Man kann seine abgegebene Stimme noch ändern btw.)
 
Gestern habe ich mit call of duty modern warfare anfangen und trotz UV sind die über 250W meiner 6900xt einfach nicht ohne. Ich bleibe dabei mehr als 300W kommt nicht in meine Kiste.
 
  • Gefällt mir
Reaktionen: netzgestaltung, Asghan und Katzenjoghurt
Erst wollte ich auch ganz klar auf Nein klicken, habe mir dann aber die Frage gestellt, ob man das Thema wirklich so einfach Betrachten kann. Ich denke für die Entwicklung ist es wichtig, das aus den Chips immer das maximale herausgeholt wird, um einen Fortschritt zu erlangen - wobei hier ganz klar ist, das der Fortschritt nicht immer mehr Leistungsverbrauch der Hardware bedeuten kann (Siehe bei den CPUs den M1 chip), ich denke einfach das es für Hersteller der einfachste Weg ist etwas weiter zu entwickeln statt etwas neu zu entwickeln und eine neu Entwicklung auch wesentlich mehr Zeit bedarf. Dies passt nicht zu den Plan jedes Jahr neue Chips zu bringen. Wenns nach mir geht könnten auch gern nur alle 2 Jahre oder alle 3 Jahre neue Chips kommen, die dafür deutlich mehr Entwicklung genießen.
Aber am Ende ist es beim Nein geblieben ^^
 
  • Gefällt mir
Reaktionen: netzgestaltung
@Katzenjoghurt
Egal sind mir ja nur ein paar aspekte, andere stören mich da schon mehr.
Der Stromverbrauch ist halt nur nur sehr kleine Summe.
 
Duke00 schrieb:
Erst wollte ich auch ganz klar auf Nein klicken, habe mir dann aber die Frage gestellt, ob man das Thema wirklich so einfach Betrachten kann. Ich denke für die Entwicklung ist es wichtig, das aus den Chips immer das maximale herausgeholt wird, um einen Fortschritt zu erlangen - wobei hier ganz klar ist, das der Fortschritt nicht immer mehr Leistungsverbrauch der Hardware bedeuten kann (Siehe bei den CPUs den M1 chip), ich denke einfach das es für Hersteller der einfachste Weg ist etwas weiter zu entwickeln statt etwas neu zu entwickeln und eine neu Entwicklung auch wesentlich mehr Zeit bedarf. Dies passt nicht zu den Plan jedes Jahr neue Chips zu bringen. Wenns nach mir geht könnten auch gern nur alle 2 Jahre oder alle 3 Jahre neue Chips kommen, die dafür deutlich mehr Entwicklung genießen.
Aber am Ende ist es beim Nein geblieben ^^

Rein für den Fortschritt hätte es die höhere TDP ja nicht gebraucht.
Auch die Strukturbreite wird ja z.B. bei den RTX4000 Karten massiv verringert und die Anzahl der Cores ebenso massiv hochgefahren.
Ähnlich bei den Alder Lake Prozessoren, die auch ohne hochgesetzten TDP einen deutlichen Fortschritt darstellen.

Ich würde Dir zustimmen, wenn es um die 3090 TI ginge, wo der Fortschritt in einer besseren Kühlung und besserer Spannungsversorgung bestand, um mehr Strom in Leistung verwandeln zu können.
 
Mich stört's nicht bzw mir ist's egal. Für den Arbeitsalltag sind Laptops per USB-C am Dock immer attraktiver, die mit ihren U-CPUs immer weniger Strom fressen. An dem Ende wird es also eher sparsamer.
Da ich auch nicht so häufig die Gaming-Kiste anwerfe und da selten maximale Leistung(/Verbrauch) abrufe, spielt es nicht wirklich eine Rolle, wie viel die Hardware da frisst.
 
  • Gefällt mir
Reaktionen: netzgestaltung und Katzenjoghurt
Irgendwie impliziert die Frage ja, dass es möglich ist, mehr Leistung bei gleichbleibender Leistungsaufnahme zu erzielen und die Hardwarehersteller sich nicht genug anstrengen, das zu erreichen.

Ansonsten sehe ich weiterhin keine Entwicklung am Kunden vorbei, denn wir können doch davon ausgehen, dass es auch zukünftig Grafiklösungen geben wird, die bei unter 100 Watt Leistungsaufnahme beginnen.
Katzenjoghurt schrieb:
Rein für den Fortschritt hätte es die höhere TDP ja nicht gebraucht.
Gibt es dazu Informationen aus erster Hand? Kann man die Entwicklung von GPUs und CPUs vergleichen?
Ich kann das nicht beantworten, das können imho nur Experten, die tief in der Entwicklung solcher Technologie beteiligt sind.
 
Katzenjoghurt schrieb:
Du hast aber trotzdem nicht „Ja“ gewählt, weil…?
Ich habe nicht vor mir eine 300W+ GPU zu kaufen, die Entwicklung ist also nicht in meinem Sinne.
Trotzdem störe ich mich nicht daran.
 
  • Gefällt mir
Reaktionen: Katzenjoghurt
calippo schrieb:
Irgendwie impliziert die Frage ja, dass es möglich ist, mehr Leistung bei gleichbleibender Leistungsaufnahme zu erzielen und die Hardwarehersteller sich nicht genug anstrengen, das zu erreichen.

War so nicht intendiert, wenn das so rüberkommt.
Im Gegenteil. Eben „Leistung first“ vs. „Lieber etwas Mehrleistung opfern, dafür stromsparender, leiser, kühler, etc.“


calippo schrieb:
Gibt es dazu Informationen aus erster Hand?

Natürlich noch nicht. Aber siehe das, was ich darunterschrieb.
In der Vergangenheit gingen verringerte Strukturbreiten mit einer höheren Effizienz einher. Also: Mehr Leistung bei gleichem Stromverbrauch bzw. gleiche Leistung bei geringerem Stromverbrauch.

Ob etwa bei Nvidia eine massive Erhöhung der Cores linear den Stromverbrauch miterhöht, weiß ich tatsächlich nicht und finde auf die schnelle auch keine gute Tabelle dazu.

Prinzipiell denke ich hierbei erst mal an den Artikel bei Igor zu 3090 TI, in dem er ermittelt, dass 50% mehr Stromverbrauch zu 12% mehr Leistung führen, bestätigt dadurch, dass die Karte bei reduziertem Stromverbrauch plötzlich zum Effizienzwunder wird.
 
Zuletzt bearbeitet:
Katzenjoghurt schrieb:
In der Vergangenheit gingen verringerte Strukturbreiten mit einer höheren Effizienz einher. Also: Mehr Leistung bei gleichem Stromverbrauch. Und auch die Anzahl der Cores hat sich massiv erhöht.
Ja, aber basiert diese Ableitung auf wirklich technisch fundierten Kenntnissen aus den Tiefen der GPU Entwicklung oder basiert das auf der Erfahrung aus Konsumentensicht: War früher so, wird zukünftig auch so sein?
Wie gesagt, ich kann das nicht ansatzweise beurteilen, weil ich keinen Einblick in die Entwicklung von GPUs und CPUs habe.
Ich denke aber, dass irgendwann Schluss ist und vielleicht ist das Ende der Fahnenstange ja bereits erreicht.

Spannend wird auf jeden Fall, wie das vom Markt aufgenommen wird. Ich vermute, dass wie häufig viele jammern und schreien und ein Jahr später interessiert kaum jemanden das Geschwätz von gestern und die 400-600 Watt Karte schnurrt im PC, für den dann eine Kühllösung gefunden wurde.
 
Die Zeiten wo jede Leistungserhöhung willkommen war sind längst vorbei. Jetzt zählen andere Werte z.B. Enegieeffizienz und Geräuschentwicklung.
 
  • Gefällt mir
Reaktionen: Convert
Auch wenn hier alle angeblich dagegen sind frag ich mich ob das die Wahrheit ist.

Letztendlich wollen die Leute Performance, wenn die GPU mit 500 Watt einfach sehr viel schneller ist als die mit 200 Watt werden die meisten wohl doch zur 500 Watt Variante greifen. Damit hätte der Hersteller den Wunsch der Kunden erfüllt.
Ergänzung ()

Don_2020 schrieb:
Leistungserhöhung willkommen war sind längst vorbei.
Ist das so? Die Intel 250+ Watt Monster verkaufen sich sehr gut...
 
calippo schrieb:
Ja, aber basiert diese Ableitung auf wirklich technisch fundierten Kenntnissen aus den Tiefen der GPU Entwicklung oder basiert das auf der Erfahrung aus Konsumentensicht: War früher so, wird zukünftig auch so sein?
Dass eine Verringerung der Strukturbreite die Effizienz erhöht, liegt in der Natur der Dinge.
https://www.pcwelt.de/tipps/Wichtig-bei-CPUs-Die-Nanometer-Angabe-10721945.html
Ergänzung ()

SpamBot schrieb:
Auch wenn hier alle angeblich dagegen sind frag ich mich ob das die Wahrheit ist.

Letztendlich wollen die Leute Performance, wenn die GPU mit 500 Watt einfach sehr viel schneller ist als die mit 200 Watt werden die meisten wohl doch zur 500 Watt Variante greifen. Damit hätte der Hersteller den Wunsch der Kunden erfüllt.
Wäre natürlich ein Ding, wenn Nvidia tatsächlich den zugeführten Strom einigermaßen linear in Leistung verwandeln könnte.
Aber ich sehe nicht, wie davon auszugehen sein sollte.
Ähnlich wie bei Intel gehe ich ganz selbstverständlich davon aus, dass es bei Nvidia eher um die letzten paar Prozent für die Leistungskrone geht - Intel träumt ja auch von irrwitzigen TDPs, ohne dass damit eine großartige Architekturänderung einherginge, die das von der Effizienzbetrachtung her rechtfertigen könnte.

SpamBot schrieb:
Ist das so? Die Intel 250+ Watt Monster verkaufen sich sehr gut...
Ich besitze auch einen 12900K, hab den aber nach kurzer Zeit auf 125W runtergesetzt und ist so ein echt schöner Prozessor.
Die Mehrleistung war den Stromverbrauch und Krach bei Luftkühlung nicht wert.
Ich bezweifle jedoch auch, dass das wirklich viele machen.
 
Zuletzt bearbeitet:
Katzenjoghurt schrieb:
Dass eine Verringerung der Strukturbreite die Effizienz erhöht, liegt in der Natur der Dinge.
Aus dem Text:
Aus diesem Grund dienen sie mehr als Mittel, um eine grobe Leistungseinschätzung vorzunehmen, als für eine exakte Differenzierung.

Letztendlich reden wir hier über ungelegte Eier. Wie groß der Effizienzgewinn sein wird und wie viel zusätzliche Leistung durch erhöhte Leistungsaufnahme erzielt wird, das wissen wir noch nicht.

Vergleichen sollte man da aber nicht die Namen der Baureihen 3070 vs 4070 und leider kann der Preis auch kein Indikator sein, weil nach zwei Jahren Corona, Krieg und Sanktionen die Vergangenheitswerte irrelevant sind.
Vergleich muss man die Karten dann auf Basis der Leistungsaufnahme: Wie viel Mehrleistung bei gleichbleibender Leistungsaufnahme ist möglich.

Schlimm wäre, wenn es keine Effizienzsteigerung wird.
Wenn ich mit die knapp 10 TFLOPS meiner 1080 mit 180 Watt ansehe und was von 600 Watt und 100 TFLOPS lesen (unbestätigte Gerüchte), dann sehe ich da schon Spielraum für Leistungssteigerungen bei gleichbleibender Leistungsaufnahme.

Dass es dann zusätzlich noch Karten bzw. Lösungen gibt, die weit über 180 Watt liegen, kann mir ja egal sein. Es gab schon immer Lösungen im Markt, die meinen persönlichen Bedarf weit überschritten haben, die habe ich einfach nicht gekauft.
 
calippo schrieb:
Aus dem Text:
Aus diesem Grund dienen sie mehr als Mittel, um eine grobe Leistungseinschätzung vorzunehmen, als für eine exakte Differenzierung.
Letztendlich reden wir hier über ungelegte Eier. Wie groß der Effizienzgewinn sein wird und wie viel zusätzliche Leistung durch erhöhte Leistungsaufnahme erzielt wird, das wissen wir noch nicht.
Meh. Natürlich ist das nur eine grobe Faustregel. Aber Du hattest ja hinterfragt, ob mit geringere Strukturbreite überhaupt ein Fortschritt bei der Effizienz zu erreichen sei.
Die Antwort lautet definitiv: Ja.

Zudem plant Nvidia hier keinen kleinen, sondern einen gewaltigen Schritt von Samsungs 7nm zu TSMCs 5nm oder gar 4nm Fertigung, wie neuerdings behauptet wird.
Dazu ist zu sagen, dass die Angaben von Samsung und TSMC nicht direkt zu vergleichen sind, da etwa "5nm" bei TSMC eine deutlich höhere Dichte haben als bei Samsung.

1651572480204.png


So bin ich mir recht sicher, dass ein Gros der erwarteten Leistungsverdopplung der neuen Chips bei Nvidia durch die verringerte Strukturbreite zustande kommt und wir dann in Tests ähnliches sehen werden, wie bei Igors 3090TI Drosseltest, der offenbarte, dass 12% Performance-Gewinn durch 50% mehr Stromverbrauch erkauft wurde.
 
Zurück
Oben