News Wochenrück- und Ausblick: Neue Grafikkarten werfen ihre Schatten voraus

@shaboo Das sehe ich allerdings nicht als Fortschritt an. Ich würde mir keine 4080 kaufen, "damit sie die Leistung einer 3090" bei weniger Stromverbrauch erreicht. Ich messe eine neue Grafikkarte an ihrer tatsächlichen Leistung - Vergleiche zu Vorgängern ziehe ich nur bei Benchmarks, um zu sehen, welche maximale Leistungen die im Vergleich erreichen konnten. Für mich bedeutet Fortschritt: "Höhere Leistung bei weniger oder identischem Striom-Verbrauch" ODER "gleichbleibende Leistung bei viel weniger Strom-Verbrauch".
 
mojitomay schrieb:
Scheinbar muss man in Zukunft seine GPU nicht mehr anhand der Ziel-FPS auswählen, sondern anhand der Leistung in Watt, die man bereit ist zu verbtaten.
Konnte man seine GPU denn je nach Ziel-FPS auswählen bei dem breiten Spektrum der Hardwareanforderungen der verschiedenen Spiele und all ihrer Einstellungsmöglichkeiten?
Ergänzung ()

Hagen_67 schrieb:
Also ich fände es eigentlich viel schöner, wenn die Karten bei gleichem oder weniger Verbrauch mehr Leistung bringen. Passte auch besser in die heutige Zeit.

rongador schrieb:
Ich habe gehofft, dass sich die Technik so entwickelt, dass neue Grafikkarten schneller werden bei gleichbleibendem oder (besser noch) niedrigerem Strombedarf, Stichwort: Effizienz. Das was ich derzeit so lese über die "Next-Gen" der Grafikkarten macht diese für mich ziemlich unattraktiv.

rongador schrieb:
@shaboo Das sehe ich allerdings nicht als Fortschritt an. Ich würde mir keine 4080 kaufen, "damit sie die Leistung einer 3090" bei weniger Stromverbrauch erreicht. Für mich bedeutet Fortschritt: "Höhere Leistung bei weniger oder identischem Striom-Verbrauch" ODER "gleichbleibende Leistung bei viel weniger Strom-Verbrauch".

Zum Hundertsten Mal: In den neuen Grafikkarten-Serien wird es mit 99%iger Wahrscheinlichkeit viele Modelle geben, die bei gleichbleibendem Verbrauch oder evtl. etwas niedrigerem Verbrauch mehr Leistung bringen; Stichwort: Effizienz. Sowohl bei Nvidia als auch bei AMD.

Eine RTX 4060 Ti wird vermutlich niedrigeren Verbrauch und höhere Leistung als eine RTX 3080 haben.
Eine RX 7700 XT wird vermutlich niedrigeren Verbrauch und höhere Leistung als eine RX 6800 XT haben.

Das wollt Ihr bloß nicht sehen, weil Ihr Euch an Produktbezeichnungen wie x080 oder x800 festklammert.

Und zu den markierten Passagen fehlen mir die Worte! Effizienz einfordern, und dann sagen "eine Effizienzsteigerung bei gleicher Leistung würde ich mir nicht kaufen."
 
Zuletzt bearbeitet:
@Cohen : 980, 1080 und 2080 sind relativ gleich geblieben beim Verbrauch. Die 3080 hat ein gutes Stück zu gelegt. Die 4080 packt nochmal etwa 50% drauf. Das kannst du nicht schon reden. Man muss doch die jeweiligen Nachfolgemodelle miteinander vergleichen. Es macht doch keinen Sinn meine 3080 durch eine 4060 zu ersetzen nur um bei den W relativ gleich zu bleiben. Und dabei spielt es auch keine Rolle, wie oft du das noch wiederholst. Es nicht nicht richtiger dadurch.😉 Denn ich gebe dich keine zig Hundert Euro aus um ein bisschen mehr Leistung zu haben. Für so viel Kohle will ich einen deutlichen Sprung haben.
 
Wie in einem anderen Thread schon mal geschrieben: Durch die extrem hohe Energieaufnahme entsteht ein zunehmendes Problem für die Räumlichkeit in der der PC steht, mal den Winter aussen vor. Wenn ein PC System im oberen Viertel des Leistungsfelds deutlich über 600W an Wärme abstrahlt, die abgeführt werden muss, wird es in einem üblichen "Gamingzimmer" von sagen wir ~10qm sehr kuschelig, genauer immer wärmer, sehr viel und sehr schnell wärmer.

Wer dann auch noch in einem Super-Dämmungs-Traum einer Wohnung/Haus Platz gefunden hat, wird sich sehr wundern wie der nullte Hauptsatz der Thermodynamik einfach stumpf und "unverbitterlich" wirkt. Es muss also die enorme Menge an kontinuierlicher Wärmeenergie die das Gehäuse verlässt nochmal irgendwo hin transportiert werden.
 
Axxid schrieb:
Fuer mich geht die Entwicklung einfach in die falsche Richtung. Aber warum sollten sich Entwickler Muehe geben Spiele auf schwaechere Hardware zu optimieren, wenn keiner mehr Regler bedienen kann und einfach 1.500 EUR fuer uLtr4!!4k!!240fps!! ausgibt?

Als wenn das mehr als ein 1% wären die einfach mal so 1500 für eine GPU hinlegen.

Schon mal die Steam Hardware Umfrage angesehen? Zwei Drittel spielen FHD 1920x1080 und die GTX1060 ist die häufigste GPU gefolgt von der GTX1650 und der GTX1050TI.

Typisches Beispiel von in einer Blase leben. Ausserhalb der CB-Blase sind 1500€ für den ganzen PC meist zuviel.
 
Hagen_67 schrieb:
@Cohen : 980, 1080 und 2080 sind relativ gleich geblieben beim Verbrauch.

https://www.computerbase.de/2018-09...st/4/#abschnitt_messung_der_leistungsaufnahme

"Die GeForce RTX 2080 Founder's Edition benötigt beim Spielen 229 Watt. Die GeForce GTX 1080 hingegen nur 178 Watt – ein Plus von 51 Watt."

Knapp 30% mehr Leistungsaufnahme (würde ich nicht als "relativ gleich geblieben" bezeichnen) bei 40% mehr Performance... von GTX 1080 auf RTX 2080 war die Effizienz nur um 8% (WQHD) bzw. 9% (UHD) bzw. verbessert:

1080 FE - 2080 FE.png


Da war die Effizienzsteigerung von Turing auf Ampere schon besser. Die 2080 FE ist leider nicht mitgetestet worden, aber dafür gibt es ja den Dreisatz:
126% / 108% = Effizienzsteigerung von RTX 2080 FE auf RTX 3080 FE um 17% (WQHD)
137% / 109% = Effizienzsteigerung von RTX 2080 FE auf RTX 3080 FE um 26% (UHD)

1080 FE - 3080 FE (WQHD).png
1080 FE - 3080 FE (UHD).png



Hagen_67 schrieb:
Die 3080 hat ein gutes Stück zu gelegt. Die 4080 packt nochmal etwa 50% drauf.

Du weißt schon die Leistungsaufnahme der einzelnen RTX 40x0-Modelle? Kannst du mal die Wattzahlen aller Modelle nennen?

Hagen_67 schrieb:
Das kannst du nicht schon reden. Man muss doch die jeweiligen Nachfolgemodelle miteinander vergleichen.

Ich habe dir zuliebe zwar oben auch mit der RTX 3080 verglichen, aber eigentlich ist der Nachfolger von GM204 (GTX 980), GP104 (GTX 1080), TU104 (RTX 2080) der GA104 (RTX 3070/Ti), nicht der Monsterchip mit 628 mm².

147% / 108% = Effizienzsteigerung von RTX 2080 FE auf RTX 3070 FE um 36% (WQHD)
151% / 109% = Effizienzsteigerung von RTX 2080 FE auf RTX 3070 FE um 39% (UHD)

Natürlich lässt sich die Effizienzsteigerung durch Übertakten an die Kotzgrenze (RTX 3070 Ti) auch zunichte machen, aber der Sweetspot lässt sich von den Nutzern ja sehr leicht wieder einstellen.

Also warten wir erst mal die Performance-Steigerungen und Leistungsaufnahme von AD104 und AD103 ab, bevor wir ihnen mangelhafte Effizienz unterstellen.
 
  • Gefällt mir
Reaktionen: schneeland
@Cohen: Ja, so gesehen gebe ich Dir da gerne recht und muss ein Stück weit von meiner absoluten Meinung zurück treten.
Aber ich bin trotzdem enttäuscht, das die Leistungsaufnahme recht stark zu steigen scheint. Das passt einfach nicht mehr in die heuteige Zeit. Und sie haben es früher auch schon besser hinbekommen. Das hat für mich so das Geschmäckle von "mit der Brechstange" mehr Leistung produzieren.
 
Was ich bei Smartphones (ich kann in meinem Fall nur vom iPhone schreiben) so toll finde: Die Geräte werden jedes Jahr schneller und halten pro vollständiger Aufladung viel länger durch. Ich bin auf das iPhone 13 Pro Max umgestiegen - und es ist pfeilschnell und der Akku hält praktisch ewig. Wieso soll sowas bitte bei Grafikkarten nicht auch möglich sein? Und bitte schreibt jetzt nichts von "Man kann doch ein Smartphone nicht mit einer High-End-Grafikkarte vergleichen".

Mich stört eben genau das, was auch von @Hagen_67 geschrieben wird: Hier wird mehr Leistung mit der Brechstange produziert. In 2-3 Jahren kommt dann wohl die Nvidia 5xxxx Reihe, die dann 1.200 Watt benötigt, aber hey, 75% mehr Leistung als die bald erscheinende 4xxxx Reihe bietet. Oh Wunder, wow, Innovation, woah, krass... aber hey, die kleinste der Nvidia 5xxxx Karten ist dann in etwa so schnell wie die schnellste 4xxxx Karte, spart aber dabei 10% Strom. Woah und deshalb kauft man sich bestimmt auch "die neue Generation". Ist klar.
 
rongador schrieb:
Was ich bei Smartphones (ich kann in meinem Fall nur vom iPhone schreiben) so toll finde: Die Geräte werden jedes Jahr schneller und halten pro vollständiger Aufladung viel länger durch. Ich bin auf das iPhone 13 Pro Max umgestiegen - und es ist pfeilschnell und der Akku hält praktisch ewig. Wieso soll sowas bitte bei Grafikkarten nicht auch möglich sein? Und bitte schreibt jetzt nichts von "Man kann doch ein Smartphone nicht mit einer High-End-Grafikkarte vergleichen".
Tja, warum hält der Akku des iPhone 13 Pro Max wohl länger als bei deinem alten iPhone?

Zum einen hat das iPhone 13 Pro Max eine Akkukapazität von 4373 mAh. Wieviel Akkukapazität hatten deine Smartphones davor? Vermutlich deutlich weniger.

Zum anderen steigen die Anforderungen ja kaum. Die normalen Tasks (texten, telefonieren, Musik hören, Navi, Videos schauen, Internetrecherche, idlen im Standby...) werden ja über die Jahren nicht viel rechenintensiver. Die rechnenintensiveren Tasks sind oft um so schneller abgearbeitet und der SoC kann früher in den energiesparenden Schlafmodus zurückfallen.

Wenn du auf der neuen Grafikkarte dich weiterehin mit älteren Spielen, Indiespielen und mittleren Einstellungen begnügst, ist die Leistungsaufnahme ja auch sehr gering.
 
@Cohen Okay, aus irgendeinem Grund sind hier sehr viele Verfechter von "Hey, die machen das alles schon richtig, sollen sie doch auf Energieeffizienz schei..., wir sind Fanboys und verteidigen sie immer!".

Leute... wenn ständig nur so gedacht und gehandelt wird, dann werden die Hersteller auch weiterhin auf Energieeffizienz schei...! Wollt Ihr das?!
 
rongador schrieb:
@Cohen Okay, aus irgendeinem Grund sind hier sehr viele Verfechter von "Hey, die machen das alles schon richtig, sollen sie doch auf Energieeffizienz schei..., wir sind Fanboys und verteidigen sie immer!".
Völlig am, Thema vorbei. Der Smartphone-Vergleich, auf den ich geantwortet habe, war nun mal Äpfel und Birnen.

Wie lange hält denn ein iPhone-Akku bei voller Auslastung? Und welche iOS-Spiele können denn ein iPhone 13 Max richtig fordern? Selbst ein Alien: Isolation läuft auf einer Switch oder einer 7th-Gen-Konsole, Genshin Impact ist auch nicht rechenintensiver.
 
Es ist kein Vergleich zwischen Äpfeln und Birnen @Cohen Der Vergleich hat seine Berechtigung, es geht dabei nicht darum, welches Gerät welches Spiel "schafft", sondern um das Bestreben (!), die maximal mögliche Performance bei maximal möglicher Effizienz zu erreichen. Und da kann man den Vergleich mit der Entwicklung moderner Smartphones ziehen, genau wie bei anderen Geräten, so auch CPUs, GPUs und Co.
 
rongador schrieb:
Es geht dabei nicht darum, welches Gerät welches Spiel "schafft", sondern um das Bestreben (!), die maximal mögliche Performance bei maximal möglicher Effizienz zu erreichen.
Maximal mögliche Performance bei maximal möglicher Effizienz gibt es in keinem technischen Bereich.
Genau wie es kein Minimal-Maximal-Prinzip gibt.

Es gibt ein Minimalprinzip (ein festgelegtes Ziel mit möglichst geringem Einsatz an Mitteln erreichen... wie dein Smartphonebeispiel, wo sich die Rechenlast nicht erhöht) und ein Maximalprinzip (mit einem festgelegten Einsatz an Mitteln das bestmögliche Ergebnis zu erreichen, z. B. bei gleichbleibender Wattzahl mehr Grafikleistung erreichen).

Und maximal mögliche Performance ist außerhalb des Sweetspots, die letzten paar Prozent Performance benötigen immer überdurchschnittlich viel Mehrleistung! Da kann man soviel bestreben, wie man möchte.

270w.png
 
Zuletzt bearbeitet:
@Cohen Dann verstehst Du offenbar meine Ausführung falsch: Natürlich gibt es maximal mögliche Performance bei maximal möglicher Effizienz. Damit meine ich es so wie ich es schreibe: Die maximale Performance BEI dabei maximal möglicher Effizienz. Gerne noch einmal lesen :-) Anders ausgedrückt: Wenn die 100% Leistung (natürlich relativ) erreicht werden, dann sollen DIESE 100% bitte bei MAXIMAL möglicher Effizienz erreicht werden. Und nicht einfach nur "Ja, wir haben die 100% Leistung (relativ!) erreicht, uns ist die Effizienz aber egal, daher optimieren wir da nicht weiter rum, sondern lassen einfach die Endkunden mit ihrer Stromrechnung alleine, uns doch egal".

Jetzt verständlicher? :-)
 
rongador schrieb:
@Cohen Dann verstehst Du offenbar meine Ausführung falsch: Natürlich gibt es maximal mögliche Performance bei maximal möglicher Effizienz. Damit meine ich es so wie ich es schreibe: Die maximale Performance BEI dabei maximal möglicher Effizienz.
Nein, dann ist eins von beiden eben nicht maximal!
 
@Cohen Noch immer nicht verstanden? Oh Mann. Die 100% Performance sollten bei 100% der BEI DIESER GESCHWINDIGKEIT möglichen Effizienz erreicht werden! Was ist daran so schwer zu verstehen? Ein einfacher Satz. Optimierung! Bei maximaler Geschwindigkeit soll darauf geachtet werden, dass die Effizienz BEI DIESER GESCHWINDIGKEIT so gut wie möglich sein soll - und eben NICHT drauf geschi... wird, wie viel Watt verbraucht werden. Was ist so schwer daran zu verstehen?

Man kann sich duschen und dabei "so gut wie möglich" sauber werden. Dabei kann man aber 100 Liter verwenden oder sogar 1000 Liter, nur dass 1000 Liter im Vergleich eben totale Verschwendung bei gleichem Ergebnis wäre (die Zahlen hier dienen NUR der Veranschaulichung, keine realen Bedingungen).
 
rongador schrieb:
@Cohen Noch immer nicht verstanden? Oh Mann. Die 100% Performance sollten bei 100% der BEI DIESER GESCHWINDIGKEIT möglichen Effizienz erreicht werden! Was ist daran so schwer zu verstehen?
Also ein fixes Performanceziel, nicht die maximal mögliche Performance. Also Minimalprinzip bei der Optimierung.

rongador schrieb:
Ein einfacher Satz. Optimierung! Bei maximaler Geschwindigkeit soll darauf geachtet werden, dass die Effizienz BEI DIESER GESCHWINDIGKEIT so gut wie möglich sein soll - und eben NICHT drauf geschi... wird, wie viel Watt verbraucht werden. Was ist so schwer daran zu verstehen?
Jetzt doch auf maximale Geschwindigkeit optimieren, Maximalprinzip? Was denn nun?

rongador schrieb:
Man kann sich duschen und dabei "so gut wie möglich" sauber werden.
Also doch wieder ein fixes Performanceziel, nicht die maximal mögliche Performance. Entscheide dich.

Auf welche Grafikperformance sollen denn AMD und Nvidia die Flaggschiffe ihrer nächsten Grafikkartengeneration optimieren? 3090-Performance + 25%? + 50%? + 75%? + 100%?

Oder auf welchen Verbrauch sollen denn AMD und Nvidia bei der nächsten Grafikkartengeneration optimieren? 200 Watt? 300 Watt? 400 Watt?
 
Es sollte keine "Schei... auf den Energieverbrauch"-Produktion geben! Sehr gerne von mir aus sogar gesetzlich eine maximale Leistungsaufnahme von XXX Watt festlegen. Dann sind die Hersteller gezwungen, die maximale Leistung bei einer "maximal festgelegten" Leistungsaufnahme von XXX Watt rauszukitzeln. Fertig.
 
Zurück
Oben