Bericht C:\B_retro\Ausgabe_54\: Intels erste und einzige GPU für dedizierte Grafikkarten

@Jesterfox
Das ist teilweise so wie du sagst, aber halt auch nicht immer. Schau dir z.B. Mal bei NVIDIA die folgenden Karten an:

GTX 970 145W
GTX 1070 150W
GTX 2070 215W
GTX 3070 220W

Das ist für mich doch eine eindeutige Entwicklung!

Die Mehrleistung kommt also nicht nur durch Optimierung und Effizienzsteigerung sondern auch dadurch, dass man stetig die TDP steigert.
 
Zuletzt bearbeitet:
Und jetzt rechne mal die Wattbereinigte Leistung je Version zusammen... und Du wirst sehen, dass sich das Watt/Leistungsverhältnis verbessert.

Wem vor 10 Jahren "75W Bildleistung" reichten, dem reichen heute die Grafik"chips" die in den APUs verbaut sind (und maximal 25W für CPU/GPU verbrauchen). Die Leistung der Radeon HD4850 - damals rund 120W Leistung - gibt es heute in 65W-APU-Form. Wie gesagt, wieder mit CPU-Teil.

Dass die Gesamtleistung ansteigt, liegt schlicht daran, dass man es kann. Niemand sagt, dass Du das kaufen musst.

Regards, Bigfoot29
 
Ralf74 schrieb:
Das ist für mich doch eine eindeutige Entwicklung!
Die aber nur an der Modellbezeichnung hängt... ne 1660 Super ist 64% schneller als die 970 und das bei nur 120W TDP. Und die kleinen 3000er Modelle werden sicher auch Anfang nächsten Jahres kommen.
 
Bigfoot29 schrieb:
Und jetzt rechne mal die Wattbereinigte Leistung je Version zusammen... und Du wirst sehen, dass sich das Watt/Leistungsverhältnis verbessert.

Natürlich hat sich das Watt/Leistungsverhältnis verbessert und das bestreite doch auch keiner. Ich glaube langsam ihr wollt mich nicht verstehen. ;)

Und keiner will heute ernsthaft die Leistung von vor 10 Jahren was schon alleine wegen den gestiegenen Auflösungen nicht mehr reicht. Und das es die gleiche Leistung heute günstiger und mit geringerem Vebrauch gibt ist nichts besonderes und in vielen Bereichen so > nennt sich Fortschritt.
Ich vergleiche die Karten innerhalb einer Kategorie, also in meinem Beispiel NVIDIA Mittelklasse ..70 und da steigt stetig die TDP.

Wenn ihr es jetzt immer noch nicht verstanden habt gebe ich es auf...
 
Ralf74 schrieb:
da steigt stetig die TDP

TDP ist aber nicht unbedingt ein Maßstab für den Verbrauch, den man unterm Strich im normalen Betrieb sieht.

Z.B. wurden dynamische Taktanpassungen und sonstige Stomsparmechnismen von Generation zu Generation besser, so dass die modernen Karten im Teillastbetrieb und Idle wesentlich weniger verbrauchen als die alten.
Bessere Hardwarebeschleunigung von modernen GPUs spart CPU-Last beim Abspielen von Videos usw.

Mal abgesehen von der neuen 30er-Generation konnte man in den letzten Jahren guten Gewissens immer kleinere Netzteile in seinen Gaming-PC bauen. Ich habe derzeit ein 650W (für eine 2080+9900K). Das ist mein kleinstes Netzteil seit über 14 Jahren.
(Was zugegebenermaßen aber auch am Aussterben von SLI und Crossfire liegt.)

Ich hoffe natürlich trotzdem, dass kommende Grafikkarten auch im Maximallastbereich wieder sparsamer werden und Nvidias 30er keine generelle Trendwende darstellen. (Da schaue ich auch auf dich, AMD.🤨)
 
  • Gefällt mir
Reaktionen: kryzs und Bigfoot29
@Ralf74 : Ich verstehe Dich durchaus.
Um aber mal in etwa Deinen eigenen Vergleich zu bringen: Meine 4850 war für anspruchsvolle Spiele gerademal im Bereich von 720p zu haben. Meine 7850 genügte sehr gut für FullHD. Die aktuellen Pendants aus der Mittelklasse sollen 2/3/4k können. Und das alles bei deutlich gestiegenen Details. Ein Fallout 4 läuft heute auf einigen APUs flüssig, was damals durchaus Power benötigt hat. Aber schon auf den kleinsten dedizierten Grafikkarten geht bei FO4 - ohne Mods - keine Steigerung der Grafikqualität mehr. Als Gegenbeispiel nehme ich mal Final Fantasy XV (weil ich die Demo zum Testen nutze). Das ist auf aktueller Hardware durchaus spielbar, geht aber absolut den Bach runter, wenn es auf alter HW läuft.

Die Grafikkartenhersteller müssen an mehreren Fronten mit gestiegenen Anforderungen umgehen:
  1. Auflösung (in den letzten 10 Jahren mindestens vervierfachung der Pixelzahlen)
  2. Wiederholrate (vor 10 Jahren endeten die letzten Röhren, die 70 Hz konnten)
  3. Bildqualität (Kantenglättung, ...)
  4. Bildinhalt
    1. Texturgrößen (sind wortwörtlich explodiert)
    2. Shader (gab es vor 10 Jahren kaum und wenn, dann mit einem relativen Verbrauch zu heute, der im Idle abgearbeitet werden könnte)
    3. Tesselation und Co
  5. Der Prozessor hat endlich genug Dampf (Kerne), um die Graka deutlich länger außerhalb seines Limits betanken zu können. Die Leistung der Graka MUSS also steigen, um nicht Flaschenhals zu sein.
  6. Bescheide Optimierung der Spiele (Seit 20 Jahren lässt die Optimierung der Spiele für die jeweiligen Plattformen extrem nach. - Ausnahme die Switch. Das letzte FPS wird halt nicht mehr gebraucht, um überhaupt spielbar zu sein. Und so schenken sich die Entwickler die nötige Energie. - Was wiederrum mehr Energie auf der Graka kostet, wenn sie Zeug berechnen muss, welches die Entwickler nicht wegoptimiert haben.)
Noch dazu kommt, dass die Grafikkarten vor 10 Jahren vergleichsweise stur ihre volle Leistung abgefragt haben. Die - afaik - 125W der 4850 lagen in so ziemlich jedem Spiel an. Heute geht das deutlich dynamischer.

Ich stimme Dir zwar zu, dass wir - wie vor gut 10 Jahren mit Thermi - gerade mal wieder den TDP-Berg rauflaufen, aber das geht auch wieder runter. Bin ich mir recht sicher. Die letzten Diskussionen um 1kW-Netzteile ist noch gar nicht so lange her. - Damals halt für Dual-Grakas. Heute packt man die gleiche Leistung auf einen Chip und denkt über Dual-Lösungen kaum noch nach. :)

Deine Mahnung sei also gehört. Aber ich bin zuversichtlich, dass die nächsten Verbrauchssprünge nach unten auch wieder folgen werden. nV hat ja heute schon (wieder) das Problem, dass sie - anders als vor etwas weniger als einer Dekade versprochen - in Notebooks mit gleicher GPU-Bezeichnung nichtmal ansatzweise die Leistung wie auf dem Desktop schafft. - Hatten wir alles schonmal. ^^

Regards, Bigfoot29
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ralf74
Bigfoot29 schrieb:
Deine Mahnung sei also gehört. Aber ich bin zuversichtlich, dass die nächsten Verbrauchssprünge nach unten auch wieder folgen werden. nV hat ja heute schon (wieder) das Problem, dass sie - anders als vor etwas weniger als einer Dekade versprochen - in Notebooks mit gleicher GPU-Bezeichnung nichtmal ansatzweise die Leistung wie auf dem Desktop schafft. - Hatten wir alles schonmal. ^^

Danke für deine ausführliche Antwort und die sachliche Diskussion. Ich denke so kann man es stehen lassen! Und ich hoffe auch, dass es mit dem Verbrauch wieder nach unten geht...
 
Ralf74 schrieb:
@Jesterfox
Die Mehrleistung kommt also nicht nur durch Optimierung und Effizienzsteigerung sondern auch dadurch, dass man stetig die TDP steigert.

Und nun guck Dir die Grafikkarten mit Voodoo Chipsatz an. 15W TDP.

Schlußfolgerung? Die Mehrleistung wird schon seit eh und jeh auch über die Steigerung der TDP erzielt.
 
das waere ja einfach rauszufinden:
ich begrenze eine RTX3090 auf 15W TDP und mache Benchmarks ob sie schneller
ist als eine Voodo

PS: @ SV3N war jetzt die 740i die erste Grafikkarte von Intel ?
 
Ja, wäre ein interessanter Teilaspekt eines Benchmarks, die Leistung fest auf einen Wert zu begrenzen und dann zu schauen bei welcher Karte die meisten fps herauskommen.
Im aktuellen Thread geht es aber nicht darum, sondern um den "Vorwurf" dass die Leistungssteigerung der neueren GPUn nicht nur durch Optimierung und Effizienzsteigerung sondern auch durch mehr TDP erreicht wird.
 
Hab auch noch Zwei i740 von Biostar :D

img_20171026_134956yyk14.jpg
 
  • Gefällt mir
Reaktionen: PietVanOwl und kryzs
Sehr cool wieviele Modelle in der Community sind, :love:
 
Zurück
Oben