News GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?

man bekommt auch ne Billige zotac 3090 mit einem schrott kühler für 1800€ (gebraucht vlt ab 1500-1600€) die super heiss wird und ein Powerlimit den grauens hat wo die karte konstant reinläuft und super laut ist aber es gibt ob AMD und Nvidia immer die "Billigen" und "Teueren" Modelle und wenn ich schon ne high end karte kaufe dann nicht billigste mit schrott kühler aber das ist meine persönliche Meinung

und ne vernünftige 3090 karte ala strix oder FTW3 Ultra kosten nunmal ihre 2000+ und sind es wert und die "Guten" AMD karten kosten ebn auch ihr geld und da lege ich gerne 200-300€ drauf und habe die "nr.1" inkl neuester Technologien

Und nebenbei ne Strix LC 6900xt kostet auch 1500€
 
Früher hat man sich über Neuankündigungen gefreut, heute sträuben sich mir manchmal die Haare !
 
  • Gefällt mir
Reaktionen: DagdaMor
Chismon schrieb:
600W werden wohl auch bei der kommenden Instinct MI300 Grafikkarte von AMD/RTG (natuerlich im Daten-Center Bereich) kommen, wenn man den Geruechten von Tom/Moore's Law is Dead glaubt:

Zur Gaming Karte hingegen werden derzeit 375 bis 450W gehandelt!


https://www.pcgameshardware.de/Rade...e-und-Stand-der-spekulierten-Technik-1394016/

Die 90 bis 130 Prozent mehr Rasterizer-Leistung im Vergleich zur Radeon RX 6900 XT sollen mit 375 bis 450 Watt TDP einhergehen.
 
Die Gerüchte habe ich auch schon gehört und prinzipiell ist Dank erstmaligem Einsatz vom MCM-Design auch durchaus viel zu erwarten von AMDs nächster Gen, doppelte 6900 XT-Performance, gleichzeitig deutlich bessere RT-Performance und das alles für max. 450 W halte ich aber für utopisch.

Wenn man mit den Erwartungen ran geht, wird man wahrscheinlich enttäuscht werden.
 
DagdaMor schrieb:
Kein Spielding/-zeug ist (abgesehen davon das Grafikkarten immo eh völlig überteuert sind)
über 2000 Euro wert :freak:

Ist doch eine Sache der zur Verfügung stehenden Mittel und Prioritäten. Immer diese Verallgemeinerung. Mir persönlich ist meine freie Zeit wichtig und ich gebe da gerne Geld für gute Dinge aus, die mir Freude bereiten. Bei meiner aktuellen Zockzeit (~3-5 Stunden die Woche) würde ich mir aktuell auch keine High end Karte kaufen, aber bei wem es einen größeren Stellenwert einnimmt, warum nicht. Dafür stehen in der Garage zwei und Vierrädrige Spielzeuge, die deutlich mehr gekostet haben und auch im Unterhalt deutlich mehr kosten, als ein paar Cent die Stunde. Und es ist mir jeden Cent wert. Denn damit bereite ich mir selbst eine riesige Freude.

Spielzeug verliert für die meisten Menschen nie die Faszination. Die Spielsachen werden nur teurer. Wenn es die finanziellen Mittel erlauben finde ich es durchaus angebracht, dass man sich selbst mit Dingen belohnt, die einem Freude machen. Bei dem einen ist es eine neue Grafikkarte, bei wem anderes ein paar guter Lautsprecher, wer anderes erfreut sich an einer tollen Uhr und wieder andere an einer Ducati oder einem Sportwagen.

Und wenn die finanziellen Möglichkeiten es zulassen und man besonderen wert darauf legt, ist auch eine 2000€ Grafikkarte ein Spielding, was sich so mancher gerne gönnt.

Ich habe fast den Eindruck, wir leben in einer immer mehr spaßbefreiten Gesellschaft.
 
  • Gefällt mir
Reaktionen: ThirdLife, loser und XPS
Mal ganz doof gefragt: gibts überhaupt eon Spiel, welches diese Power sinnvoll verwenden kann? Oder ist das für 4K/144?
 
Visualist schrieb:

Ich bezog mich damit im Vergleich zu den gerüchteweisen 600-900W (der kommenden AD102 Lovelace Grafikkarten) im Artikel und PCGHs übernommene Gerüchte zum Verbrauch der RDNA3 HighEnd-/Flaggschiff-GPUs sind wohl ebenso wenig als glaubwürdiger einzustufen als viele der anderen Gerüchte (inkl. der in diesem Artikel wieder gegebenen) ;).

Jedenfalls kann ich mir gut vorstellen, dass es vom RDNA3 Halo-/Topmodell auch Varianten geben wird, die mehr als 450W erlauben.
Auch wenn die Leistung wohl stark steigen soll, geht der Verbrauch insgesamt auch bei AMD-RTG in die falsche Richtung, nicht nur bei nVidia (wenn auch dort vermutlich deutlich auffälliger).
 
Beitrag schrieb:
Die Gerüchte habe ich auch schon gehört und prinzipiell ist Dank erstmaligem Einsatz vom MCM-Design auch durchaus viel zu erwarten von AMDs nächster Gen, doppelte 6900 XT-Performance, gleichzeitig deutlich bessere RT-Performance und das alles für max. 450 W halte ich aber für utopisch.

Wenn man mit den Erwartungen ran geht, wird man wahrscheinlich enttäuscht werden.

Chismon schrieb:
Ich bezog mich damit im Vergleich zu den gerüchteweisen 600-900W (der kommenden AD102 Lovelace Grafikkarten) im Artikel und PCGHs übernommene Gerüchte zum Verbrauch der RDNA3 HighEnd-/Flaggschiff-GPUs sind wohl ebenso wenig als glaubwürdiger einzustufen als viele der anderen Gerüchte (inkl. der in diesem Artikel wieder gegebenen) ;).

Jedenfalls kann ich mir gut vorstellen, dass es vom RDNA3 Halo-/Topmodell auch Varianten geben wird, die mehr als 450W erlauben.
Auch wenn die Leistung wohl stark steigen soll, geht der Verbrauch insgesamt auch bei AMD-RTG in die falsche Richtung, nicht nur bei nVidia (wenn auch dort vermutlich deutlich auffälliger).
Na ja was bleibt den AMD übrig als auch etwas am Strom zu drehen ?
Immer hin versucht man an NV bei der Leistung vorbei zu kommen und da wirft NV anscheinend 600 W für Gaming in den Ring später vielleicht noch eine Ti mit 700-800W würde mich dann auch nicht wunder so wie jetzt mit der 3090 und dann der Ti!
Mit offenenm Bios haben die Leute ja schon gezeigt das man unter Waser eine 3090 über 600 W bekommt bei ca 2170 MHz und Anspruchsvollen Spielen!

Immer hin sieht alles danach aus als wenn AMD das effizientere Produkt anbieten wird selbst wenn die 450W verbrauchen würden bei gleicher Leistung oder etwas flotter wären das kann dann als einen Erfolg auf ganzer Linie verbuchen wenn die 600W+ von NV zutreffen!
Diese Spekulationen gibt es schon langer Zeit selbst Igor der damals das PCB für die 3000 Serie lag ja auch richtig mit dem Verbrauch AD 102 hat er auch schon beschrieben!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shoryuken94
An die ganzen "Vor 15 jahren haben GPUs max 300€ gekostet und hatten nur 150W"
Erstens mal hat da eine Kugel Eis auch noch 50 Pfennig gekostet.
Zweitens gibt es immer noch günstige low Power GPUs zu kaufe.

Wen 600W zu viel sind der kann ja auch einfach so was kaufen:
https://www.computerbase.de/preisve...00-11315-01-20g-a2718893.html?hloc=at&hloc=de
Unter 200€ und 53W

Nur weil das "High End" jetzt eben auch noch weiter nach oben offen ist bekommt ihr ja nicht weniger.
Ich verstehe den Gier oder Neid nicht.

Angebot und nachfrage.
Wer so ein Kram kauft bestimmt doch den Markt.

Ihr bekommt immer mehr Leistung/€ und mehr Leistung/Watt.

Es gibt ja auch solche CPUs:
https://cerebras.net/system/
Kosten Millionen und brauchen 20KW. Aber ich bin halt einfach nicht die Zielgruppe für dieses Produkt also warum sollte mich das stören?!
 
Zuletzt bearbeitet:
lamda schrieb:
:confused_alt:

lamda schrieb:
Wen 600W zu viel sind der kann ja auch einfach so was kaufen:
https://www.computerbase.de/preisve...00-11315-01-20g-a2718893.html?hloc=at&hloc=de
Unter 200€ und 53W

Sofern mir der Sozialstaat das gute Stück sponsert, immer her damit.:D

Jetzt mal Scherz beiseite, was soll solch sinnbefreiter Hinweis auf eine Grafikkarte, die nach meinem Empfinden nicht wirklich die Bez. Pixelbeschleuniger verdient?

lamda schrieb:
Nur weil das "High End" jetzt eben auch noch weiter nach oben offen ist bekommt ihr ja nicht weniger.

Du wirst mir doch zustimmen, dass High End als solches selten mit sinnvoll gleichzusetzen ist, von daher zieht schon alleine der Verweis auf derartiges Geraffel Kritik nach sich. Erschreckend wäre doch eher, wenn dem nicht so wäre und solch ein Stromfresser ausschließlich bejubelt werden würde.

Mittlerweile müsste sich doch herumgesprochen haben, dass die Hersteller sich vor Lachen kaum noch einkommen, eben weil sich die holde Kundschaft derart melken lässt. So hat bspw. Nvidia stolz seinen Aktionären verkündet, dass der Kunde jetzt im Schnitt 300 Mücken mehr berappt. Leider wurde die Folie umgehend entfernt, nachdem dies publik wurde. U. a. hat das 3DCenter darüber berichtet.

mit frdl. Gruß
 
Zuletzt bearbeitet:
kawanet schrieb:
Jetzt mal Scherz beiseite, was soll solch sinnbefreiter Hinweis auf eine Grafikkarte, die nach meinem Empfinden nicht wirklich die Bez. Pixelbeschleuniger verdient?

Hier sehe ich eher ein Problem, warum sollte das kein "Pixelbeschleuniger sein"? Schau Dir das Steam Deck an, damit kann man (nach den Erfahrungsberichten) sehr gut spielen mit 15-40 Watt.

Wir sind doch seit Jahren auf einem grafischen Niveau, das man längst als "gut genug" bezeichnen kann. Man braucht doch nicht die absolute Oberklasse, um Spaß zu haben.
 
  • Gefällt mir
Reaktionen: Shoryuken94
4GB VRAM halte ich nicht wirklich für zukunftsfähig, erst Recht nicht zu solch einem Preis. Zudem kann die GPU weder h.264 noch h.265 decodieren.

Ich bin mal so frei und zitiere:

So oder so läßt sich jedoch eine grobe Performance-Festlegung aufmachen: Mimimal unterhalb der GeForce GTX 1650 (unklar, ob hier die GDDR5- oder die GDDR6-Ausführung gemessen wurde) – und damit auf einem Performance-Level, welches nVidia schon vor drei Jahren bot. Dies ist dann auch etwas langsamer als eine Radeon RX 570, aber logischerweise klar schneller als frühere Mainstream-Grafikkarten wie Radeon RX 460/560 und GeForce GTX 1050 /Ti. Für heutige Einsteiger-Bedürfnisse könnte es ausreichend sein, die Kartenausführung ohne extra PCIe-Stromanschluß eröffnet zudem einige zusätzliche Anwendungs-Möglichkeiten. Nur ist weiterhin der Preispunkt überhaupt nicht Einsteiger-freundlich, denn für 159 Dollar Listenpreis und derzeit 179-200 Euro Straßenpreis kann man nicht von einem Lowcost-Produkt reden.

Quelle: Umfangreicher Test zur Radeon RX 6400 zeigt Performance-Level der GeForce GTX 1650 an

Argumentiert wurde hingegen von lamda:

Ihr bekommt immer mehr Leistung/€ und mehr Leistung/Watt.

Magst du mir die Diskrepanz erklären?

calippo schrieb:
Schau Dir das Steam Deck an, damit kann man (nach den Erfahrungsberichten) sehr gut spielen mit 15-40 Watt.

Damit kann ich nix anfangen, ohne das jetzt abwerten zu wollen.

mit frdl. Gruß
 
Zuletzt bearbeitet:
kawanet schrieb:
4GB VRAM halte ich nicht wirklich für zukunftsfähig, erst Recht nicht zu solch einem Preis. Zudem kann die GPU weder h.264 noch h.265 decodieren.
Ja, aber warum reicht Dir das nicht, für was brauchst Du H.264?
Ich spiele seit den 80ern, bis ich mal eine Karte mit 4GB und diesen Leistungsdaten hatte, vergingen doch locker 20 Jahre, in denen ich auch Spaß hatte.

Für Deine persönliche Anforderung mag das nicht reichen, so wie einem potentiellen Käufer einer 48GB 900 Watt Karte die Leistung einer 3090 nicht reicht. Da gibt es keinen Idealzustand.

Wenn wir es aus Sicht der Ressourcenverschwendung und CO2 Abdruck betrachten, dann ist das gesamte Hobby PC/Gaming nicht tragbar, weil wir auch mit schwächerer Hardware viel mehr Ressourcen verbraten, als was nachhaltig bereit gestellt werden kann.
 
  • Gefällt mir
Reaktionen: Shoryuken94, ThirdLife und Benni1990
kawanet schrieb:
Jetzt mal Scherz beiseite, was soll solch sinnbefreiter Hinweis auf eine Grafikkarte, die nach meinem Empfinden nicht wirklich die Bez. Pixelbeschleuniger verdient?
Der hinweise bedeutet das einige einfach zu "gierig" sind und sich nicht mit dem zufrieden geben können das sie sich leisten können.
Sieht man ja bei Smartphones und co. als wäre was wir vor 5-6 Jahren hatten nicht "ausreichend" für 80% der Nutzer.
Trotzdem kaufen sich viele immer wieder nagelneue Modelle mit "mehr" von allem und geben >500€.
Die Hersteller lachen über Kunden die irgend wie glauben immer das neuste und beste haben zu müssen...
Natürlich Melken sie die so sehr wie es geht.
So lange es genug dumme gibt die es mit sich machen lassen.
calippo schrieb:
damit kann man (nach den Erfahrungsberichten) sehr gut spielen mit 15-40 Watt.

Wir sind doch seit Jahren auf einem grafischen Niveau, das man längst als "gut genug" bezeichnen kann. Man braucht doch nicht die absolute Oberklasse, um Spaß zu haben.
Eben genau das.

kawanet schrieb:
Magst du mir die Diskrepanz erklären?
Wieso priese sind doch sehr ähnlich.
Die Leistung auch, nur die Radeon braucht dabei ~50% weniger Energie.

kawanet schrieb:
Damit kann ich nix anfangen, ohne das jetzt abwerten zu wollen.
Das ist aber doch mehr ein wollen wie ein brauchen Problem?
Es gibt auch ein Markt für Leuten die mit so was arbeiten.
zb.Computertomographie
Da spielt der verbrauch als kosten Faktor aber quasi keine rollen.

calippo schrieb:
Wenn wir es aus Sicht der Ressourcenverschwendung und CO2 Abdruck betrachten, dann ist das gesamte Hobby PC/Gaming nicht tragbar, weil wir auch mit schwächerer Hardware viel mehr Ressourcen verbraten, als was nachhaltig bereit gestellt werden kann.
Naja... "PC/Gaming" ist ja ein sehr weites Spektrum.
Wie du selbst gesagt hast kann man auch mit ~25W viel spaße haben.
Selbst wen es 150-200W sind weil man ein paar Generationen ältere Hardware verwendet
Wie viele Stunden pro tag ist die an und wie viele davon auf vollst.
Für das Jahr 2020 gibt BP einen mittleren Primär-Energieverbrauch der Welt pro Kopf der Bevölkerung von 71,4 GJ an, was einem Wert von 54 kWh pro Person und Tag
Also fällt PC Gaming nicht groß ins Gewicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: calippo
ich bitte darum sich nicht zu weit vom Thema zu entfernen. Wenigstens bei GPUs sollten wir bleiben, für gesellschaftliche Diskussionen haben wir andere Bereiche :)
 
  • Gefällt mir
Reaktionen: Shoryuken94, b|ank0r, lamda und eine weitere Person
Beitrag schrieb:
Die Gerüchte habe ich auch schon gehört und prinzipiell ist Dank erstmaligem Einsatz vom MCM-Design auch durchaus viel zu erwarten von AMDs nächster Gen, doppelte 6900 XT-Performance, gleichzeitig deutlich bessere RT-Performance und das alles für max. 450 W halte ich aber für utopisch.

Wenn man mit den Erwartungen ran geht, wird man wahrscheinlich enttäuscht werden.
Irgendwie ist das der Fluch der AMD Launches. Häufig technische Innovationen dabei, aber unnötigerweise werden die Erwartungen mit wilden Spekulationen komplett überzogen. Am Ende sind die Fans wieder enttäuscht ob der fehlenden Eier legenden Willmilchsau.
 
Coenzym schrieb:
Niemals bringen die ein 900 Watt Monster raus. Kann ich mir beim besten Willen nicht vorstellen. Gibt ja kaum Netzteile dafür.
Wo ist das Problem?
Dann nimmt man einen „add2psu“-Adapter und verschaltet soviele PSUs (<1.000W) miteinander, wie man benötigt;)
 
Visualist schrieb:
... versucht man an NV bei der Leistung vorbei zu kommen und da wirft NV anscheinend 600 W für Gaming in den Ring später vielleicht noch eine Ti mit 700-800W würde mich dann auch nicht wunder so wie jetzt mit der 3090 und dann der Ti!
Mit offenenm Bios haben die Leute ja schon gezeigt das man unter Waser eine 3090 über 600 W bekommt bei ca 2170 MHz und Anspruchsvollen Spielen!

Dass es bei nVidia im Prinzip auch deutlich effizienter geht (wie in alten Zeiten) geht, zeigt ja die Reduktion der Leistungsaufnahme bei den Hopper Karten, Vergleich der SXM5 Variante zur PCIe Variante, von 700w auf 350W jeweils.

Nur dürften die kolportierten AD102 Einschätzungen/Leaks bei nVidia aus der Not geboren zu sein im Gegensatz zu Hopper eben bei Lovelace noch keine MCM-GPU Designs im semi-profesionnellen bis HardCore-Gaming-Enthusiastenmarkt absehbar am Start zu haben.

Daher rührt auch die teurere und potentiell effizientere Fertigung bei nVidia im N4/N5-Bereich von TSMC gegenüber der N5/N6-Fertigung bei AMD/RTG, aber damit kann nVidia natürlich nicht die energetisch deutlich ungünstigere monolithische Architektur kompensieren im HighEnd-Bereich.


Visualist schrieb:
... sieht alles danach aus als wenn AMD das effizientere Produkt anbieten wird selbst wenn die 450W verbrauchen würden bei gleicher Leistung oder etwas flotter wären das kann dann als einen Erfolg auf ganzer Linie verbuchen wenn die 600W+ von NV zutreffen!
Diese Spekulationen gibt es schon langer Zeit selbst Igor der damals das PCB für die 3000 Serie lag ja auch richtig mit dem Verbrauch AD 102 hat er auch schon beschrieben!

Im Endeffekt ist es schon ein wenig ein Apfel-mit-Birnen-Vergleich, denn monolitische und MCM-Architektur sind nicht direkt vergleichbar und repräsentativ (abseits der Enthusiasten-/Early-Adopter-Nische, in welcher die Leute meinen eine AD-102 GPU oder eine RDNA3 Navi 31 GPU sind das Geld wert), wer wirklich effizienter ist.

Der direkte Vergleich beider Architekturen (Lovelace vs. RDNA3) ist nur im monolitischen Bereich möglich falls beide bei 5nm TSMC landen sollten und ja, es ist möglich, dass dort unterschiedliche Strategien (nicht so extrem über den Sweet Spot hinaus die Karten zu takten) als im HighEnd-Bereich gefahren werden, weil man dort evt. eher einen Blumenstrauss mit Effizienz als dem etwas längeren Benchmarkbalken gewinnen kann ;).

Für mich sind 450W und 600W - wenn es denn so kommen sollte und die Gerrüchte sich gänzlich bewahrheiten sollten, auch wenn die 150W extra bei nVidia natürlich noch einmal deutlich problematischer hinsichtlich der Abwärme wären - gleichermassen ungeeignet und disqualifizierten sich für mich komplett, wenn ich denn in der o.g. Nische unterwegs wäre.

Igor's Technikabschätzungen in allen Ehren, aber es wird wohl von Lovelace aller Wahrscheinlichkeit auch noch EVGA Kingpin Halo-Produkte für HardCore-OCer geben, die deutlich über das gemunkelte obere 600W Ende der Fahnenstange hinausgehen dürften und ebenso wie das auch im AMD/RTG-Lager versucht werden dürfte über 450W hinaus zu frisieren, wenn das nicht künstlich von AMD/RTG untersagt werden sollte (wofür ich keinen vernünftigen Grund sähe).

Diese Halo- und Flaggschiffkartenmodelle für Möchtegern-8K-Gamer sind für mich nichts weiter als Machbarkeitsstudien, interessant für die breitere Kundschaft werden vielleicht noch die RTX 4080 und RX 7800(XT) Modelle (wenn diese preislich nicht ausarten, was ich aber bezweifle) und sonst eigentlich nur die monolithischen GPUs, die man darunter dann findet (also Performance-/untere bis mittlere Oberklasse-GPUs, etwa RTX 3070(Ti) und RX 7700(XT) bis hinunter zum unverkrüppelten Einsteigerklassesegment der dGPUs, also Nachfolger von RTX 3050 und RX 6600).
 
Zuletzt bearbeitet:
lamda schrieb:
Wieso priese sind doch sehr ähnlich.
Die Leistung auch, nur die Radeon braucht dabei ~50% weniger Energie.
Wurde bei den „~50% weniger Energie“ berücksichtigt, dass bei NV und AMD die FPS gleich sind?
 
kawanet schrieb:
Jetzt mal Scherz beiseite, was soll solch sinnbefreiter Hinweis auf eine Grafikkarte, die nach meinem Empfinden nicht wirklich die Bez. Pixelbeschleuniger verdient?
OK, also darfst du etwas für nicht gut genug befinden, aber ich (bei TVs zB) darf dies nicht ? Wie gut, dass bei dir keinerlei Doppelmoral herrscht. :daumen:

So wie das für dich nicht reicht, so reicht halt manch anderen eine 4070 nicht und da muss es dann halt eine 4090 werden, warum auch immer.

kawanet schrieb:
Du wirst mir doch zustimmen, dass High End als solches selten mit sinnvoll gleichzusetzen ist, von daher zieht schon alleine der Verweis auf derartiges Geraffel Kritik nach sich. Erschreckend wäre doch eher, wenn dem nicht so wäre und solch ein Stromfresser ausschließlich bejubelt werden würde.
Wenn jeder nur machen würde, was sinnvoll ist, dann hätten wir alle sehr wenig Spass im Leben. Angefangen beim vögeln, was ja nur zu reproduktivem Zwecke sinnvoll wäre. Klingt nicht nach einem sehr interessanten Leben.:D

kawanet schrieb:
Mittlerweile müsste sich doch herumgesprochen haben, dass die Hersteller sich vor Lachen kaum noch einkommen, eben weil sich die holde Kundschaft derart melken lässt. So hat bspw. Nvidia stolz seinen Aktionären verkündet, dass der Kunde jetzt im Schnitt 300 Mücken mehr berappt. Leider wurde die Folie umgehend entfernt, nachdem dies publik wurde. U. a. hat das 3DCenter darüber berichtet.

mit frdl. Gruß
Und jetzt eröffnest du einen Nebenkriegsschauplatz, von der anfänglichen Debatte über den Strom sind wir jetzt bei den Preisen der neuen GPUs. Liegt etwa da der Hase im Pfeffer und du hast Angst die werden dir zu teuer ?

Auch da würden wir wieder beim Anfang landen: brauchst du diese Leistung überhaupt ? Warum immer German Angst ?
 
  • Gefällt mir
Reaktionen: Shoryuken94
Zurück
Oben