Notiz Radeon RX 6000: AMD heizt die Stimmung in Richtung Nvidia an

Weiß man eig wann die Karten endlich kommen?Es hieß doch mal das Big Navi noch vor den Konsolen erscheint ?!

Die PS5 kommt doch am 19.11.Ich brauch ne neue Karte :)
 
IBISXI schrieb:
Aber es gibt noch 4k @ High Details und 4K @120Hz @ High Details.

Also 4K @Ultra-Settings bei 60Hz sollte die neue Gen schon schaffen!!
Ergänzung ()

IBISXI schrieb:
Schade das NV SLI abgewürgt hat, ...

Mal sehen ob sich bei AMD mit Crossfire was tut.

SLI und Crossfire R.I.P. ... diese beiden Techniken haben wohl kein Potential mehr.
 
IBISXI schrieb:
Da würde man auch locker die doppelte Leistung einer 3090 ausgelastet bekommen.

Schade das NV SLI abgewürgt hat, dafür wäre es geil gewesen.
Aber wer würde dann anstatt 2x 3080, einmal 3090 kaufen?

Ja, das kann man natürlich machen, aber mir reicht meine private Stromabschlagszahlung von 210 Euro im Monat eigentlich schon aus. Wenn ich da ein SLI System baue, kann ich gleich den Nachtspeicherofen von Oma wieder anwerfen.
 
noxon schrieb:
Intel hat ja schon ihre Alder-Lake CPU angekündigt, die komplett modular aufgebaut sein wird und auch KI-Cores enthalten wird.

Das ist eine Moeglichkeit das zu loesen, ich bezweifle, dass es langfristig dabei bleibt.

noxon schrieb:
Auch die Xe HP und HPC wird KI-Hardware enthalten.

Bei denen ist es eh klar. Und es ist wenig verwunderlich, dass Intel nicht alles auf einmal macht. Erstmal sollen die funktionierende GPUs haben.

noxon schrieb:
Ich denke nicht, dass das bei der HPG Version anders ausfallen wird. Ich würde es jedenfalls für einen großen Fehler halten, wenn sie die Funktionalität bei der Consumerversion entfernen würden.

Kommt halt drauf an wieviel sie auf einmal machen wollen.

noxon schrieb:
Entwickler machen vieles selbst nur um mehr Kontrolle über die Dinge zu bekommen.
Eine eigene DLSS Entwicklung ist also alles andere als abwegig.

Naja, das Problem bei DLSS besteht eher darin die Menge an Trainingsdaten zu haben die man braucht, abgesehen von der Hardware. Eine Implementierung eines Algorithmus ist eine Sache, den kann man auch optimieren. Schau dir an wie lange Nvidia gebraucht hat um DLSS auf einem Niveau zu haben, dass nutzbar ist. Das kostet eine Menge Kohle.

noxon schrieb:
Definitiv. Deswegen müssen die anderen Hersteller aber erstmal mit der entsprechenden Hardware her, damit MS auch weiß, wie DirectML vernünftig zu gestalten ist, damit man darüber alle Hersteller gleiechermaßen und ordnungsgemäß ansprechen kann.
Es nutzt ja nichts DirectML jetzt auf Nvidias Hardware zuzuschneiden und später passt die API dann nicht mit Intels oder AMDs Abläufen und Hardwarezugriffen zusammen.

Ich denke bei AMD weiss Microsoft um einiges mehr als wir. ;) Auch ist es relativ egal, da man eine Hersteller spezifische Implementation ja immer noch spaeter vornehmen kann. Wenn jetzt ein vierter mit irgendwas kommt packt man das einfach rein, viel aendern tut sich fuer Entwickler nicht dabei.

noxon schrieb:
Wieso glaubst du, dass die Trainingsdaten von Nvidia so toll sind? Es ist immerhin ein allgemeingültiges Modell.

Wenn Ubisoft ihr eigenes DLSS anhand ihrer eigenen Spiele trainieren ließe, dann käme da auch was vernünftiges bei heraus. So wäre der Algorithmus genau auf die kleinen feinen Rendereigenschaften ihrer Engine angepasst.
Wenn die Engine zum Beispiel in bestimmten Situationen flackert, dann erkennen und unterdrücken die Ubisoft-Trainingsdaten das viel besser als die von Nvidia.

Naja... wenn Ubisoft nur auf die eigenen Spiele trainiert kann sehr viel einfacher ein Overfitting auftreten und damit ist das Netz moeglicherweise beim naechsten Engine Update komplett fuer die Tonne. Ein allgemeingueltiges Netz, bzw. ein Netz, dass gut generalisieren kann ist immer schwerer zu trainieren. Allerdings ist Generalisierung allgemein dein Ziel, damit du eben nicht jedes mal dein Netz neu trainieren und tunen musst. Und mitunter die "einfachste" Moeglichkeit Generalisierung zu erreichen und Overfitting zu vermeiden ist ein grosses Datenset. Natuerlich muss das auch gut verteilt sein.

noxon schrieb:
Definitiv nicht, denn dann wird die Qualität wieder zu schlecht. Allein schon das pixelgenaue 2D UserInterface in den Spielen wirst du nicht einfach so verlustfrei vergrößern können. Dann wären wir wieder bei DLSS 1.0 Qualität.

Den Punkt kann ich ueberhaupt nicht nachvollziehen. Zum einen, in welchem Jahrhundert leben wir wenn UserInterfaces auf reiner Pixelebene definiert werden?! Zum anderen, das ist mitunter das einfachste zu skalieren da statisch und wenig komplex von den Bildinformationen her.

noxon schrieb:
Kann ich persönlich nichts zu sagen, aber allein von meinem Verständnis her klingt das schon sehr einleuchtend.
Die Aussage gilt ja nur für Neuronale Netze und da gibt es ja hunderte und tausende von Faktoren und wenn die sich alle gegenseitig beeinflussen, dann spielt die Genauigkeit irgendwan keine so große Rolle mehr.
Da geht es dann nur noch groß darum welche Faktoren hin eine Rolle spielen und welche nicht. Ob das nun 5 Stellen nach dem Komma eine 1 oder eine 2 steht, ist dann auch egal. Neuronale Netze sind ja keine exakte Wissenschaft, sondern Bewertungsnetze.

So vereinfacht kann man das nicht sagen. Im Endeffekt bilden neuronale Netze eine komplexe Funktion ab. Je nach Anwendungsgebiet kannst du mit FP16 arbeiten, oder eben nicht. Nvidias Behauptung ist ja aber, dass der Datentyp selber keinen Genauigkeitsverlust hat. Und das scheint ziemlich unlogisch wenn man die Moeglichkeit der Darstellung reduziert. Rundungsfehler kann man ziemlich schnell bekommen.

noxon schrieb:
Naja, man weiß es nicht, aber ich denke Nvidia, Intel und auch die Smartphone GPU Hersteller machen das nicht ohne Grund die KI-Funktionalität in dedizierter Hardware zu implementieren.

Ja, weil es derzeit einfacher ist. ;) Ob das in Zukunft so bleibt ist eine andere Frage. Hier spielen schlichtweg auch die Die Kosten mit rein. Hat schon seinen Grund warum Nvidia seine Geforce Produkte auf einem aelteren Node produziert. Sobald die Die Kosten zu hoch sind wird man etwas anderes machen. Und wie gesagt, manche Funktionen wird man durch Approximationen ersetzen koennen womit man dann wieder Die Flaeche gewinnt.
 
Y4uOvVM.jpg
 
LencoX2 schrieb:
Für den Massenmarkt muss AMDs neue GPU eigentlich "nur" 2080ti + Performance und 16 GB RAM bei grob 250 Watt mit leisem Luefter schaffen. Wenn sie die für 599 EUR bringen, wird sie ein Erfolg.
RTX, DLSS, Voice, Stream Blabla ist für die Masse uninteressant. Oder jedenfalls nicht interessant genug für 100 Eur Zuschlag.

Für den Massenmarkt muss AMD sicher KEINE Karte auf 2080Ti Performance bringen, da dieser Markt nämlich nicht im Bereich 599€ liegt, sondern eher bei 200-300€ maximal.
Die meisten Leute hier bilden nur einen kleinen Bruchteil.
 
Big Navi soll einfach zwischen 3070 und 3080 liegen,dazu 16GB für 599 Euro.

Dann freue ich mich das es wieder eine AMD Karte wird.
 
@mkossmann Schau dir mal die Zahlen auf Plattformen wie Steam an. Oder generell den Fertig-PC Markt.
Kann mir kaum vorstellen das der "Otto-Normal User" soviel Geld alleine für die Grafikkarte ausgibt.
 
Zuletzt bearbeitet:
@mkossmann
Das MF sehr viele hochpreisige Karten (400 bis 600€) verkauft, liegt halt daran, dass sie gerade DiY Bubbles, wie unsere aus dem CB Forum, "versorgen" (ebenso auch Alternate, Caseking, Arlt)
Wie aber @Windell unter verweis auf die Steam Statistik richtiger Weise andeutet, sind wir nur eine Randgruppe, da die meisten "Zocker Rechner" irgendwelche MediaMarkt / Saturn / PC Expert / Cyberport / ... OEM Kisten (oft genug für maximal 1000 bis 1200€) sind, die vom Hersteller mit einer "Low Cost" (nicht über 200 bis 250€) Grafikkarte versehen wird.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Windell
WebBeat84 schrieb:
Richtig, ja ne RDNA2 natürlich, wird ja die RX6000 sein. Nach den Benchmarks der 3080, wir in der PS5 und Xbox X wohl eine ähnliche verbraut sein. Und ob es das Ende der Fahnenstange ist, weiß man noch nicht. Denke schon, dass AMD sich noch ein bisschen mehr Power für seine PC Grafikkarten bereit hält.

Hoffen wirs. Bringt AMD ne unter 3080 Leistung als Flagschiff sehe ich schwarz für AMD im Grafikkarten markt, bzw dann darf sie nicht mehr wie 350€ kosten, wie aktuell ne RX5700.

Ich mag nVidia gar nicht, noch nie, aber AMD muss mal Liefern, und zwar so, dass nVidia untergeht, preis/leistung/verbrauch/features.

Bei CPUs machen sie es doch mit Intel vor. Intel hat NIX entgegenzusetzen, weder Preislich, noch Leistungstechnisch noch von den Features, nichtmal PCIe 4 schaffen die.

So muss es mit nVidia auch laufen. Naja, abwarten.

Meine Hoffnungen sind eingetreten, AMD hat abgeliefert. Geil!
 
Zurück
Oben