News Sonntagsfrage: AMD Radeon oder Nvidia GeForce für die Next-Gen?

Schokolade schrieb:
Wäre das überhaupt noch sinnvoll kühlbar?

Ob wir das sinnvoll im Desktop kühlen können, bleibt dahin gestellt. Die "BIG-BOYS" GPUs werden aber mMn in absehbarer Zeit im Rechenzentrum landen und wir werden dann "High-End" via Streaming bekommen.

Durch den modernen Turbo kann man aber theoretisch alles bauen. Im Sommer taktet der Chip geringer, im Winter etwas höher. Wer bei 12 Grad Celsius und weniger vor seinem Rechner hockt, bekommt maximale Leistung und kalte Füße :D

Schokolade schrieb:
Mit MCM sollte AMD aber doch deutlich einfacher nach oben skalieren können als NV mit einem Monolithen? GA102-300-A1 ist doch schon ein riesen Teil.

Völlig richtig. Daher brachte ich den Gewinn pro GPU ins Spiel. Die Monster-Chips von Nvidia sind unwirtschaftlich, unvernünftig aber leider geil.

Da kommt richtig viel Leistung, leider kann man sie nicht "billig" herstellen.

500mm² sind aber noch nicht wirklich viel und evtl. sehen wir auch noch 1000mm² mit einem Monolithen. Das wäre aber ziemlich bescheuert.

Wenn es sich jedoch finanziell rechnet, warum nicht? Wenn Nvidia nicht Samsung genommen hätte, hätten sie zwar weniger Gewinn gemacht (TSMC ist deutlich teurer) dafür aber auch deutlich bessere Chips bekommen. Daher ist aktuell der Abstand so "gering". Nvidia hat sich aber für Samsung entschieden.

mfg
 
Gut, dann werfe ich mal ausnahmsweise und für CB und SV3N die Kristallkugel an. War eigentlich für die Lottozahlen vorgesehen, aber was soll´s.

Es wird weiterhin ein (im Wortsinn) heißes Kopf-an-Kopf-Rennen geben, mit nur noch leichten Vorteilen für Nvidia bei RT und Vorteilen für AMD beim reinen rasterizing. Das Multi-Chip-Design wird AMD wie schon im CPU-Bereich mehr Vor- als Nachteile bringen. Da AMD mit RDNA3 3-4 Monate eher auf dem Markt ist wird Nvidia zum kontern die Brechstange rausholen um die Performance-Krone zu behalten, zurückzubekommen - what ever. Das wird die Schere bei den fps/Watt im Bereich der high-end-GPU weiter zu Gunsten von AMD öffnen. Hier wird Nvidia erst in der Generation nach Lovelace mit dem eigenen Multi-Chip-Design wieder aufschließen können. Derweil steigt die Mining-Leistung weiter steil an, der Einsatz von high-end-GPU verschiebt sich weiter in Richtung Mining und die Karten sind nur noch für zwei statt wie bisher eine Niere zu bekommen. Die Vorgängergenerationen tauchen zu hunderttausenden mit ausgenuckelten Lüftern auf den einschlägig bekannten Portalen auf und die Industrie bekommt einen neu boomenden Geschäftszweig - Nachrüst-Lüfter für alte GPU.
 
  • Gefällt mir
Reaktionen: angband1, KurzGedacht und Wintermute
Launebub schrieb:
Was nützt einem ne super Grafikkarte, wenn die Treiber kacke sind
Naja, das schon sehr hart. Die UI ist zwar von 1980, aber soooo schlecht ist der Nvidia Treiber nun auch nicht.

Kein Vergleich zu amd, aber er steuert immerhin die Pixelschubser an.
 
  • Gefällt mir
Reaktionen: MadMaxx87
Diablokiller999 schrieb:
Fragt sich nur, was sie bei RT aus dem Hut zaubern. Einen Zusatz-DIE? Oder eigene Einheiten parallel zu den ALUs wie Nvidia?
Bei CDNA2 kannst ja schon mal kibitzen. ;)
https://www.computerbase.de/2021-11...r-details-zum-compute-monster-instinct-mi200/
Schokolade schrieb:
Naja, wenn ich mir RDNA2 gegen Ampere angucke, ist es ja schon sehr nah beieinander. Mit MCM sollte AMD aber doch deutlich einfacher nach oben skalieren können als NV mit einem Monolithen? GA102-300-A1 ist doch schon ein riesen Teil.
Ich hatte da mal eine Überschlagsrechnung zu Ada gemacht.
Summerbreeze schrieb:
Mal als Überschlagsrechnung
Aktuell 628mm² x 1,7 = 1068 / 3 = 356mm²
Das ist mir zu klein. Dann müssten sie die Einheiten min. verdoppeln oder Faktor 3?
628 x 2,5 / 3 = 523
628 x 3 / 3 = 628
Dann kommt auch wieder dieser kolportierte Riesenchip raus und Navi3 erscheint auch nicht mehr als absolut unangreifbare Über-Chipgruppe aus anderen Sphären.
Sofern die Skalierung von Samsung n8 zu TSMC N5 wirklich ~2,8 - 3 beträgt, (kann das evtl. mal jmd bestätigen oder entkräften?) sollte es spannend werden.
[ Edit: 2,79993 lt. Wikichip ]
Sehr viel werden die sich dann beide nicht geben.

Ich sehe bei AMD dann nur ein paar Kostenvorteile bei den GCD´s, welche aber möglicherweise wieder durch die aufwändigere Verarbeitung aufgefressen werden.
Sofern sie ihre 50% weniger Verbrauch bei gleicher Leistung Prognose halten können, sollte die 7900 xxx zwischen 375 - 450W herauskommen. Ada dürfte da aber etwas gieriger zulangen.
Sind aber nur die BIG Chips. Da sollte niemand in Panik verfallen.
Die normalen 7700 xxx bzw. 4070 xxx sollten sich da eher zurück halten und bei den bekannten 200 - 220W verweilen.
der Unzensierte schrieb:
Da AMD mit RDNA3 3-4 Monate eher auf dem Markt ist wird Nvidia zum kontern die Brechstange rausholen
Ich dachte N31 sollte 3 Monate später kommen? Angebl. wg dem Mehraufwand
der Unzensierte schrieb:
.und die Karten sind nur noch für zwei statt wie bisher eine Niere zu bekommen.
Hast nicht noch nen Lungenflügel abzugeben? :rolleyes:
 
Zuletzt bearbeitet: (Ergänzt)
Schokolade schrieb:
Naja, wenn ich mir RDNA2 gegen Ampere angucke, ist es ja schon sehr nah beieinander. Mit MCM sollte AMD aber doch deutlich einfacher nach oben skalieren können als NV mit einem Monolithen? GA102-300-A1 ist doch schon ein riesen Teil

Man muss hier ein paar Faktoren berücksichtigen. Mit MCM kann man die theoretische Leistung gut skalieren, aber bei der realen Performance in Anwendungen muss man das erst mal nutzen. Selbst das beste MCM Design bringt immer mehr Verwaltungsaufwand und Latenzen mit sich.

Zum anderen sollte man beachten, dass die nächste Generation in TSMC 5nm gebaut wird. Hier ist die Packdichte sehr entscheidend. Die letzten AMD GPUs haben eine relativ geringe Packdichte (bezogen auf das technisch mögliche). Alleine der Cache wird daran einen nicht unerheblichen Anteil haben. Der soll mit dem MCM Ansatz sogar noch deutlich wachsen (aktuell geht man von der 4 fachen Cachegröße aus). Nvidia hat aktuell bei gleicher Fertigung (A100GPU) eine höhere Packdichte bei gleicher Fertigung. Nvidia könnte hier bei gleicher Fertigung also durchaus effizienter mit dem Silizium umgehen, was die transistordichte angeht.

Nvidia schreckt vor großen Dies nicht zurück. Bei einer gereiften Fertigung scheint sich das noch gut zu lohnen. Da muss man sich nur mal die 2080Ti angucken. Der Chip war riesig. Eine Lovelace GPU Ende 2022 in TSMC 5nm mit ~750mm² halte ich für nicht unwahrscheinlich.

Bei den vermuteten Preisen für die großen next Gen GPUs ist das auch nicht unwahrscheinlich. Bei einer guten Ausbeute und einem stabilen Prozess wird AMDs MCM Ansatz auch nicht günstig. Die Waferfläche ist ein limitierender Faktot. Das gesamte Package wird kein Schnäppchen. Wenn TSMC 5nm richtig gut funktioniert, wird der MCM Einsatz von AMD evtl. gar nicht so viel Geld sparen. Man wird aber sehr skalierbar.


Schokolade schrieb:
Letzten Endes werden wir sehen und es ist mir sowieso egal. Das bessere Produkt gewinnt für mich unabhängig vom Hersteller

Ich denke beide werden gute Produkte abliefern. Was nun das absolut schnellste ist, ist mir relativ egal. Ich kauf mir am Ende das was die beste preis / leistung für mein Anwendungsgebiet hat. Ich würde mir auch nie eine 3090 oder 6900XT kaufen (bezogen auf die UVP), da die Mehrleistung gegenüber einer 6800Xt evtl. mit etwas OC ziemlich bescheiden für den Aufpreis ist.

Schokolade schrieb:
Das find ich sehr optimistisch und ich wäre durchaus beeindruckt wenn dem so ist. Hoffentlich behältst du recht :D

Ach ist gar nicht so unrealistisch. Alleine die nächste Generation dürfte die Leistung grob verdoppeln. Wenn Nvidia danach auch auf MCM setzt ist eine Vervierfachung bis 2025 im Rahmen des möglichen.

Schokolade schrieb:
Wäre das überhaupt noch sinnvoll kühlbar?

Da die Siliziumfläche auch sehr groß wird, dürfte die Energiedichte selbst bei 1000 Watt noch händelbar sein. Würde man schon mit großen Kühlern / Wakü kalt bekommen. Das problem ist dann eher, wie du 1KW Abwärme aus deinem Raum bekommst. Das wäre dann wirklich wie ein Heizlüfter.
der Unzensierte schrieb:
Da AMD mit RDNA3 3-4 Monate eher auf dem Markt ist wird Nvidia zum kontern die Brechstange rausholen um die Performance-Krone zu behalten, zurückzubekommen

Wie es aktuell aussieht, wird wohl Nvidia bei den High End Chips vorlegen. RDNA und Lovelace dürften etwa gleichzeitig auf den markt kommen, MCM RDNA 3 (die kleinen Modelle werden auf ein klassisches Design setzen) soll wohl erst 2023 kommen.

Nvidia wird trotzdem die Brechstange ansetzen, um es AMD nicht zu einfach zu machen. Aber wenn man sich den Erfolg von Ampere anguckt, scheint das auch kein großes Problem zu sein.
 
  • Gefällt mir
Reaktionen: angband1 und [wege]mini
Ich verwende seit Winter 2014 ausschließlich Linux für meine Desktop und Laptop PCs (und Tablet -> Surface Pro).

Seit 2017 außerdem nur noch AMD und Intel GPUs/iGPUs/APUs, da es mit dem OpenSource Treiber einfach weniger Probleme gibt und ich persönlich möglichst keinerlei geschlossene Software im Kernelspace haben möchte.

Da Nvidia auch weiterhin direkt die Entwicklung des offenen Treibers für Nvidia GPUs durch die signierte Firmware (ohne takten alle neueren GPUs nicht höher als der Basis Takt ...) und indirekt durch die Zurückhaltung bzw. nicht Veröffentlichung von Dokumentation für die Treiberentwicklung (im Gegensatz zu AMD) behindert, werde ich auch weiterhin keine Nvidia Grafikkarte mehr kaufen egal wie schnell diese auch sein mag.
 
  • Gefällt mir
Reaktionen: KurzGedacht
Shoryuken94 schrieb:
Eine Lovelace GPU Ende 2022 in TSMC 5nm mit ~750mm² halte ich für nicht unwahrscheinlich.

So schätze ich auch.

Shoryuken94 schrieb:
Mit MCM kann man die theoretische Leistung gut skalieren, aber bei der realen Performance in Anwendungen muss man das erst mal nutzen.

Komplett richtig.

Es werden wohl bei beiden 700-800 mm² an Chipfläche werden. Die einen Monolithisch, die anderen mit MCM.

Wer die Power auf die Straße bekommt, wird man abwarten müssen.

In Games performen jedoch die aktuellen Nvidia echt "unterirdisch", wenn man die theoretisch möglichen Rechenleistungen betrachtet. Manchmal ist Takt aber wichtiger, als parallelisierte Rohleistung.

Hier hat Nvidia aktuell das Nachsehen. Die (in nicht allzu ferner Zukunft) anvisierten 3Ghz, im Turbo, bei AMD sind ebenfalls eine echte Hausnummer.

Daher kommt jetzt wieder TSMC ins Spiel, auch für Nvidia. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: Shoryuken94
Balikon schrieb:
Die testen das auf Ihren Profikarten. Das lässt auf Selbstvertrauen schließen. Und Erfahrung haben sie ja auch schon von den CPUs her.
Die Profikarten funktionieren aber ganz anders. Da meldet sich jeder GCD als eigene GPU zurück. Genau das will man bei RDNA 3 vermeiden, siehe die Artikel zu den Patenten.
[wege]mini schrieb:
500mm² sind aber noch nicht wirklich viel und evtl. sehen wir auch noch 1000mm² mit einem Monolithen. Das wäre aber ziemlich bescheuert.
Die maximale Belichtungsfläche mit EUV ist 826mm² und wird mit High-NA weiter schrumpfen. Das wird also nichts mit großen Monolithen, außer man macht Stepping, was zu Defekten führen kann.
Shoryuken94 schrieb:
Nvidia hat aktuell bei gleicher Fertigung (A100GPU) eine höhere Packdichte bei gleicher Fertigung. Nvidia könnte hier bei gleicher Fertigung also durchaus effizienter mit dem Silizium umgehen, was die transistordichte angeht.
Dafür bekommt aber AMD deutlich höhere Taktraten hin. Und es ist immer leichter, eine hochtaktende GPU auszulasten, als eine mit vielen Shadern. Die hohe Packdichte ist also nicht unbedingt ein Vorteil.
 
  • Gefällt mir
Reaktionen: Balikon, [wege]mini und Shoryuken94
Eine Antwortmöglichkeit fehlte:
Wegen einem erneuten Mining-Boom werden keine Grafikkarten unterhalb 3x UVP verfügbar sein, weshalb deren Leistung für Spieler wiederum völlig irrelevant bleibt.
 
  • Gefällt mir
Reaktionen: Wintermute
Edelknödel schrieb:
Vermutlich werden auch bei der Next-Gen wieder die Scalper gewinnen
Auch nur Angebot und Nachfrage.
 
Rein technisch denke ich wird AMD vorne liegen. Sie werden was Raytracing angeht mit NV gleichziehen und durch bessere Rasterizing davon ziehen. Wo ich allerdings grün sehe ist an der Softwarefront. NV braucht gar nicht die schnellste Karte zu bauen, so lange sie DLSS weiter verbessern und geschlossen halten. In den meisten Spielen liefert DLSS nicht nur mehr Frames, sondern auch das bessere Bild.

An NV stelle würde ich genau das ausnutzen. Eine 80er Karte verbrauchsoptimieren und mit DLSS schneller als AMD. Dazu ein 90er Modell mit absurd hoher TDP und dem letzten Quäntchen Leistung, dass dann für den doppelten Preis AMD gerade so überholt So hat man am Ende alle Gemüter befriedigt.
 
  • Gefällt mir
Reaktionen: angband1
Mmn werden die von der Leistung eh ähnlich werden, mir kommt jedoch keine Nvidia mehr ins Haus. Die GTX 780 war nach 9 monaten defekt und ich habe kein Austausch erhalten. Meine 1050ti im Laptop ist nach 4 Jahren auch defekt. Kumpel seine neue 3060ti war nach 2 Wochen defekt.
Bei amd hatte ich bisher nie Probleme, bis auf einer ganz neuen msi 6800 Trio X, die war von Anfang an Defekt und ich warte auf den Austausch...
 
crxtuner schrieb:
Mmn werden die von der Leistung eh ähnlich werden, mir kommt jedoch keine Nvidia mehr ins Haus. Die GTX 780 war nach 9 monaten defekt und ich habe kein Austausch erhalten. Meine 1050ti im Laptop ist nach 4 Jahren auch defekt. Kumpel seine neue 3060ti war nach 2 Wochen defekt.

Wobei 99% aller defekte nicht an der GPU liegen, sondern an Komponenten auf dem PCB (meist in der Spannungsversorgung) und da hat der GPU Hersteller herzlich wenig Einfluss. Das liegt dann eher an dem Hersteller der Grafikkarte bzw. des Laptops.


Kann natürlich jeder für sich entscheiden, ob er deswegen von einem GPU Hersteller keine Karte mehr kauft, hat in meinen Augen damit aber wenig zu tun. Mit sind bisher drei karten kaputt gegangen. Eine GTX 570 von MSI (VRM nach ~ 1 Jahr defekt) und eine GTX 780Ti Matrix von Asus, bei der ist nach ~4 Jahren auch die Spannungsversorgung abgebrannt ist, wobei ich das auch nicht der Karte anlaste, lief halt 4 Jahre im Dauereinsatz mit modifiziertem Bios und sehr stark übertaktet. Und eine HD 5970. Auch bei der war die Spannungsversorgung irgendwann hin.
 
Colindo schrieb:
Die maximale Belichtungsfläche mit EUV ist 826mm² und wird mit High-NA weiter schrumpfen.

Ich hörte anderes, da das Ziel mir wahrscheinlich bekannter ist, als dir. (es hat nichts mit Daddelmaschinen zu tun)

Am heutigen Tage, hast du natürlich "recht" und deine Einschätzung für die Zukunft ist genau so, wie sie sein soll. :heilig:

Lass dich überraschen, schnell kann es geschehen, dass viele deiner Wünsche in Erfüllung gehen.

mfg
 
scuba2k3 schrieb:
Game changer? Ja changed das Game zum Augenkrebs Matsch inklusive smearing. Wer's mag

Ich bin eher für brachiale Rohleistung damit man entweder die Auflösung hochschrauben kann oder alternativ die renderscalierung. Ich möchte ein knackscharfes Bild ohne Tricksereien und deren Nachteile
Ich behaupt man sieht den Unterschied kaum. Vor allem sind in CoD 250FPS+ sinnvoller als Grafikeffekte, man kann das bei der Schnelligkeit eh nicht bewundert.
 
Natürlich wünsche ich AMD das beste, wie schon mit Ryzen.
Wäre echt lustig, wenn das Multi Chip Design, wie auch bei intel schon, auch zur vernichtung von nvidia führt :D

Core2Quad lässt grüßen^^
 
feris schrieb:
Der Preis wird weiterhin dermaßen enteilen, das der PC gegenüber den Konsolen in der Bedeutungslosigkeit verschwindet. Nicht mal Konsolenports werden sich für die Publisher rechnen, da es keinen stückzahlstarken Mainstream Markt bei PC's gibt.

Wer jetzt etwas Zeit investiert hat und irgendetwas zur UVP gekauft hat, kann sich zurücklehnen und dem PC als Gamingplattform beim Sterben zusehen.
Welche PC-Stückzahlen werden denn für einen "stückzahlstarken Mainstream Markt" benötigt?
Ampere liegt bei Steam bereits bei 10% der erfassten Systeme. Zusammen mit den RTX-Turings und RDNA2-GPUs machen solche Systeme fast ein Viertel der über 100 Mio. aktiven Steam-Systeme aus.

Es sind also bereits (weit) über 20 Mio. "Gaming-PCs" im Umlauf, die so ziemlich jedes Spiel stemmen müssten, das auch auf einer PS5 oder Xbox Series X läuft (bei den RTX2060-Systemen dann eben mit etwas geringeren Grafikeinstellungen... aber immer noch über den Series-S-Settings).

Und falls die RX7600/GTX4050Ti nächstes Jahr ungefähr RX6800/RTX3070Ti-Leistung erreichen, rutscht die Performanceklasse über PS5- und Series-X-Leistung so richtig in den Mainstream rein.
 
Zuletzt bearbeitet:
AMD
Ganz sicher.
MCM ist einfach Produktiver + Wirtschaftlicher + Innovativer + Leistungsfähiger.
 
Onkel Föhn schrieb:
Nächstes Jahr wird es "SICHER" (?!?) eine INTEL GraKa bei mir geben.
Eine "rote" oder "grüne" Karte mit 400+ Watt kommt mir NICHT in den Automat.

MfG Föhn.

Soweit bekannt soll Intel garkeine highend Karten 2022 anbieten. Sie wollen eine bringen die auf 3070 Niveau sein soll. Diese Leistungsklasse verbraucht nicht mal annähernd so viel . Und diese Leistung wird nächstes Jahr Mittelklasse sein. Von daher kannst du dies auch bei Rot oder Grün haben.
 
  • Gefällt mir
Reaktionen: jemandanders und Onkel Föhn
Steff456 schrieb:
Ich behaupt man sieht den Unterschied kaum. Vor allem sind in CoD 250FPS+ sinnvoller als Grafikeffekte, man kann das bei der Schnelligkeit eh nicht bewundert.
Wer hat was von Effekten gesagt? Es geht um ein kristallklares Bild ohne Matsch, smearing und ghosting. Und das geht nur mit Pixeln und noch mehr Pixeln. Und wenn du den Unterschied kaum siehst...dann...Augenarzt 😉
 
Zurück
Oben