News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

Wenn das so hinkommt geht Nvidia echt aufs ganze bzw traut AMD einiges zu. Es bleibt spannend
 
Pisaro schrieb:
@SKu kann ich mir fast nicht vorstellen, auch wenn die Quelle (Igor) sehr oft richtig liegt. Wir werden sehen. Wäre ein Traum, aber wohl ein Albtraum im Preis.

Die Quelle ist nicht Igor, sondern diese Daten wurden ihm zugespielt und er kann diese bestätigen. Bei der Konstellation gäbe es keinen Nachfolger der TITAN RTX (oder Nvidia bringt einen Nachfolger auf Basis des großen Amperes wie damals mit Volta und TITAN V bzw. mit HBM). Sollten diese Daten stimmen, wird eine potenzielle 3080ti evtl. teurer als die 2080ti oder die Speicherpreise sind derzeit günstiger und die Karten werden wirklich in dem 8nm Samsung Prozess gefertigt, der eine bessere Ausbeute als TSMCs 7nm Prozess erlaubt. Bei den Konstellationen für 3080 und 3070 hätte der Kunde zumindest die Wahl, ob er mehr Speicher haben möchte oder nicht. Das sieht irgendwie so aus, als hätte Nvidia den Kritikpunkt der mageren Speicherausstattung als Anlass dafür herangezogen die Preise leicht nach oben setzen zu können.
 
ragnaroek666 schrieb:
Meine 5700XT (2050/1.070mV) verbraucht bei 100% Last 160W. Das ist vollkommen in Ordnung.
Sprichst du da von der gesamten Grafikkarte oder nur von der GPU? Bei AMD und Nvidia wurde das zumindest lange unterschiedlich gehandhabt (den aktuellen Stand weiß ich nicht mit Sicherheit), was oft zu missverständlichen Vergleichen geführt hat. Den Wert den man bei AMD auslesen kann bezieht sich nur auf die GPU, der Wert bei Nvidia hingegen auf die gesamte Grafikkarte.
CrustiCroc schrieb:
Gut gesagt ! Manchen haben echt irgendeinen seltsamen "Tick".

Intel und Nvidia : BÖSE !

AMD : DIE GUTEN !

Wer clever ist, nutzt das beste aus beiden Welten.

MMn ist das viel, viel einfacher, als dein gut und böse: Intel und Nvidia sind in stark marktbeherrschenden Positionen, AMD in beiden Fällen deren einziger direkter Konkurrent. Somit kann man das mit reiner Logik ohne irgendwelche Emotionen erklären, weshalb man AMD bevorzugt. "Clever" kann man also durchaus differenziert betrachten.
Wie kaputt der Markt ist, sieht man sehr schön an der Entwicklung der Servermarktanteile für AMDs CPUs. Trotz mehr als nur konkurrenzfähigem Lineup tut sich fast gar nichts, gerade dort wo AMD liebend gerne die knappen Chips primär hin verfrachten würde.
 
KlaraElfer schrieb:
Das was du postest ist halt hauptsächlich AMD Marketing und lässt die unübersehbaren Vorteile weg. Dein O-Ton.
Und Sentinel (Zero_Zerp) diskutiert und analysiert bisher immer die Nachteile, also ich kann das von dir gesagte, einfach nicht zuordnen.

Und im Gegensatz zu dir geht er auf meine Kritikpunkte auch ein und diskutiert anstatt einfach jede Kritik damit abzutun, dass DLSS ueber allem erhaben ist. Was es uebrigens mit AMD Marketing zu tun hat scheint auch nur in deinem Kopf zu existieren. Vielleicht das Lagerdenken mal abgewoehnen?

KlaraElfer schrieb:
Ich spiele mit DLSS seit Final Fantasy, wo ich es für DLSS 1.0 noch für die beste Implementierung halte, die anderen waren Fehltritte. Die Qualität konnte man auch mit Sharpening Tools (RIS) und Upsampling erzielen.
Seit DLSS 2.0 hat sich das geändert, das ist offenbar nicht bei dir angekommen.

Ich gebe dir den ernstgemeinten Ratschlag meine Beitraege nochmal ohne Vorurteile zu lesen. Es geht um die rein technische Betrachtung des neuronalen Netzes und was dies zu leisten im Stande ist und was nicht. Wenn das bei dir nicht ankommt, dann koennte es moeglicherweise an dir liegen. Sentinel ist darauf eingegangen.

KlaraElfer schrieb:
Es wäre wirklich wünschenswert, wenn es gemeinsame Standards geben würde, aber ich denke nicht, dass dafür (heute) bereits die Hardwarebasis steht.

Es reicht wenn Microsoft das durchboxt. Was gar nicht mal so unwahrscheinlich ist, da sie wahrscheinlich schon was fuer die Xbox haben, dass sie nur noch als API bereitstellen muessen.

KlaraElfer schrieb:
Du wendest ja hier einen einfachen Trick an und definierst "Vorteile sehen" in "DLSS 2.0 feiern", so kann man sich natürlich auch aus das Affäre ziehen, wirft aber ein ziemlich schlechtes Licht auf einen selbst, denn insgesamt war das Presseecho sehr positiv zu DLSS 2.0, da kann man sich noch so sehr auf die negativen Punkte versteifen, die positiven sind deutlich in der Überzahl, aber dazu müsste man eben auch mal selbst mit DLSS 2.0 spielen und es nicht als "Beschiss" einordnen, das disqualifiziert dich für jede weitere Diskussion.

Du raffst es nicht, oder? Das was du und andere hier machen ist DLSS feiern, da du und andere schlichtweg nicht objektiv darueber reden koennt. Technische Kritik muss dann natuerlich sofort angegriffen werden, da sie nicht die eigene Sicht teilt. Das disqualifiziert dich in der Tat sofort fuer jede weitere Diskussion. Was interessiert mich auch das Medienecho wenn ich auf einen Beitrag von @.Sentinel. eingehe und ihn konkretisiere, bzw. kritisiere wo was fehlt und wo es schlicht zu schwammig ist? Wenn du von der technischen Seite die besprochen wirst keine Ahnung hast ist das ja ok, dann musst du aber nicht deinen Senf dazu geben, nur weil es erscheint, dass deine heilige Kuh in Gefahr ist. Das ist schlichtweg albern, aber leider auch nicht das erste mal bei dir.

@SKu Die Zahlen klingen etwas zu schoen um wahr zu sein. Bisher hat Nvidia immer sehr darauf geachtet, dass ihre Palette schoen differenziert ist und vor allem, der Gewinn optimiert. Zudem haben sie dafuer gesorgt, dass Kaeufer einen Grund hatten aufzuruesten, was gerade in der xx60er Reihe der RAM war. Mein Tipp waeren da eher die niedrigen Werte, da es besser in die bisherige Strategie passt. Ausser RAM ist wirklich spottbillig oder sie haben vor irgendwas richtig Schiss. Oder natuerlich sie heben die Preise wieder an.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
@duskkk

Das war früher aber auch nicht anders.
Es gibt einen recht einfachen Grund warum sie die Preise so hochgezogen haben, weil sie es können da sie dennoch genug davon absetzen.
Das Schlüsselprodukt für die Preistreiberei war dabei immer die Titan.
Man schoss sie als für diesen Marktbereich viel zu teures Produkt in den Markt und begründete den Preis mit Features aus dem professionellen Umfeld.
Naja stimmt weil sie es können, aber im Umkehrschluss könnten sie es nicht hätte es die Titan nie gegeben. Weil im Grunde sind das Abfallprodukte aus dem Servermarkt wo die Dinger 3-8000 euro kosten. Gemessen daran haben sie Dinger verscherbelt. Für den Geforce Markt wären die rießigen Chips nie rentabel gewesen. Man nehme an AMD wäre Konkurrenzfähig gewesen und der Serverabsatz nicht für 90 % von Nvidia's Aktienkurs verantwortlich.
Aus reinen kosten Gründen wäre die XX80 Serien kleiner ausgefallen. Und die Titan X Marketing Karte (Titan war immer nur ein Marketing Stunt) würde wohl so auf Niveau einer XX80 liegen. Das was aktuell als XX70 verkauft wird wäre die 80/90 Serie. 2060 wäre die 70 und darunter gäbs noch ein paar.

So wie die Titan war hätte es sie nie gegeben wenn sie nicht quasi als Abfallprodukt des Machine Learning Boom mit 6000 Euro GPUs noch als Marketing Stunt releast worden wäre. Ein Titan Marketing Karte hätten sie trotzdem aber auf kleinerem DIE. Das gesamte Portfolio würde tiefer liegen und ökonomischer augestellt sein. Die Titan war immer nur dazu da als Marketingwerkzeug Nvidia in Benchmarks und Tests die Top poisition zu sichern. Ein paar hat man verkauft um sagen zu können das man sie ja kaufen kann. In dem parallel Szenario wäre eine Titan vielleicht nur 800 Euro teuer aber sie wäre auch kleiner.
 
@duskkk

Dann hätte es die erste Titat eben nicht gegeben sondern "nur" eine normale 780 mit 6 GB ind eine 780Ti mit 6 GB, was von der Leistung her ca. auf das Gleiche hinaus gekommen wäre. In der ganzen Titan Reihe gib es am Ende nur 2 Modelle die alternativlos gewesen wären und das ist die Z und die V. Der Rest bewegt sich im Bereich von mehr Speicher und minimal mehr Recheneinheiten die die Custom Modelle der Ti schon über den Takt ausbügeln.
 
Zurück
Oben