News FSR mit AI: AMDs CTO stellt KI-Algorithmus für 2024 in Aussicht

Rickmer schrieb:
Der Unterschied zwischen ML und AI ist im Marketing, mehr nicht.
Hieße aber im Umkehrschluss das Nvidia das schon vor Jahren gemacht hat und AMD mal wieder nur nachzieht?
Quidproquo77 schrieb:
wird vielleicht die 4080 wieder gegen eine AMD RX 8800 XT getauscht.
Downscaling, gefällt mir.
Vergiss nicht 6800XT zu 7800XT gab es kaum mehr Leistung. Erst die 7900XTX ist gleich auf zur 4080. Eine 8800XT wäre also nicht schneller als eine 4080. :D
 
  • Gefällt mir
Reaktionen: Convert
theGucky schrieb:
Vergiss nicht 6800XT zu 7800XT gab es kaum mehr Leistung. Erst die 7900XTX ist gleich auf zur 4080. Eine 8800XT wäre also nicht schneller als eine 4080. :D

Genau, wir können ja auch immer die Generationssprünge gleichsetzen.

Eine 4060 Ti ist auch nur ein Aufguss einer 3060 Ti.
 
  • Gefällt mir
Reaktionen: spw
theGucky schrieb:
Downscaling, gefällt mir.
Vergiss nicht 6800XT zu 7800XT gab es kaum mehr Leistung. Erst die 7900XTX ist gleich auf zur 4080. Eine 8800XT wäre also nicht schneller als eine 4080. :D
Bei den aktuellen Gerüchten kannst du eine 8800XT schön auf 4070Ti oder kleiner ansetzen, bei höherer TGP xD.
theGucky schrieb:
Hieße aber im Umkehrschluss das Nvidia das schon vor Jahren gemacht hat und AMD mal wieder nur nachzieht?
All diese "Buzzwords" ziehen doch schon seit 5-7 Jahren umher.
Jede Firma die im Marketing iwas auf sich hält redet doch Gebetsmühlenartig vor sich mit diesen Begrifflichkeiten vor sich her^^.
Ich finds lustig^^.
Aber ja, AMD zieht in diesem Bereich jetzt NV hinterher, was aber positiv ist, weil ohne dies gehts nicht.
Ergänzung ()

aldaric schrieb:
Eine 4060 Ti ist auch nur ein Aufguss einer 3060 Ti.
Aber Aber was mit mit DLSS3??????? :lol:
 
theGucky schrieb:
Vergiss nicht 6800XT zu 7800XT gab es kaum mehr Leistung.
Die 7800XT ist eigentlich nur eine 7700XT. Scheiß Nomenklatur in dieser Generation halt.
theGucky schrieb:
Eine 8800XT wäre also nicht schneller als eine 4080. :D
Interessant. Hat dir das deine Glaskugel verraten? :D Ich würde mich da nicht so weit aus dem Fenster lehnen. ^^
 

Wird "KI" als Sammelbegriff verwendet?​

  • „KI“ wird häufig als Sammelbegriff verwendet. Es umfasst verschiedene Techniken und Ansätze, die es Maschinen ermöglichen, Aufgaben zu erledigen, die traditionell als menschlich angesehen wurden, wie z. B.
  • Lernen und Problemlösung: KI-Systeme können aus Daten lernen und Muster erkennen, um Vorhersagen zu treffen und Probleme zu lösen.
  • Spracherkennung und -verarbeitung: KI-Systeme können Sprache verstehen und generieren, um mit Menschen zu kommunizieren und Informationen zu extrahieren.
  • Computer Vision: KI-Systeme können Bilder und Videos verstehen und interpretieren, um Objekte und Personen zu erkennen und ihre Umgebung wahrzunehmen.
  • Robotik: KI-Systeme können Roboter steuern, um Aufgaben in der realen Welt auszuführen.
Es gibt verschiedene Teilbereiche der KI, die sich auf bestimmte Techniken und Ansätze konzentrieren, z. B.:
  • Maschinelles Lernen (ML): ML-Algorithmen ermöglichen es Systemen, aus Daten zu lernen und ihre Leistung ohne explizite Programmierung zu verbessern.
  • Deep Learning: Deep Learning ist eine Teilmenge des maschinellen Lernens, die neuronale Netze verwendet, um komplexe Muster in Daten zu erkennen.
  • Natürliche Sprachverarbeitung (NLP): NLP befasst sich mit der Interaktion zwischen Computern und menschlicher Sprache.
  • Computer Vision: Computer Vision befasst sich mit der Analyse und Interpretation digitaler Bilder und Videos.
Der Begriff „KI“ kann also als Oberbegriff für all diese Techniken und Ansätze verwendet werden. Es ist jedoch wichtig zu beachten, dass es sich um ein sehr breites Feld handelt und dass die verschiedenen Teilbereiche der KI unterschiedliche Reifegrade und Fähigkeiten haben.
Weitere Informationen finden Sie unter:
  • Was ist künstliche Intelligenz (KI)? | Oracle Deutschland: https://www.oracle.com/de/artificial-intelligence/what-is-ai/
  • Künstliche Intelligenz (KI) - Lexikon der Psychologie: [ungültige URL entfernt]
  • KI - Künstliche Intelligenz - einfach erklärt - YouTube:

Da hier einige anscheinend Probleme damit haben, hab ich mal Google Bard gefragt. Ist eigentlich nicht so schwer zu verstehen, warum man der Einfachheit halber von "KI" spricht.
:rolleyes:
 
Rickmer schrieb:
Der Unterschied zwischen ML und AI ist im Marketing, mehr nicht.
Wenn wir heute von KI sprechen, dann meistens im Zusammenhang mit der Transformer-Architektur, die auch die Grundlage von LLMs wie ChatGPT bildet.
Passend zum Thema wäre hier dann OpenAI’s Sora.

Insofern ist es nicht nur Marketing, sondern eine Weiterentwicklung im ML, die aktuell unter KI zusammengefasst wird.

Die KI, die man eigentlich als solche bezeichnen würde, wird sich wohl AGI nennen, also Artificial General Intelligence.
 
  • Gefällt mir
Reaktionen: Raptor85 und Unti
theGucky schrieb:
Eine 8800XT wäre also nicht schneller als eine 4080. :D
Schneller nicht, aber die Leistung würde mir reichen.
 
Unti schrieb:
Bei den aktuellen Gerüchten kannst du eine 8800XT schön auf 4070Ti oder kleiner ansetzen
Welche Gerüchte? Finde nichts
 
Wäre super, wenn AMD dann hier mal nicht eine Gen zurückhängt (wie sie es beim RT tun).

Vielleicht ruht sich NV ja auf DLSS 3 ein wenig aus, weil es ja eh besser ist und dann kommt AMD an und zieht gleich, sodass es in puncto zukünftig kaum mehr einen Unterschied macht, welches SR oder FG man verwendet.

Jetzt müssen halt noch mehr Spiele auch FSR 3 unterstützen.
Aber wenn SR hoffentlich bald per Schnittstelle in DirectX wandert, ist es am Ende ja auch egal. Dann muss nur noch irgendeine Art von SR unterstützt werden.

Wenn es dann ggf. noch ne (AI-gestützte) Verbesserung beim FG gibt, dass man das auch bei 30-40 FPS in der Grundfrequenz gut anwenden kann, kann ich vermutlich auch bei RT noch ziemlich lange gut mit meiner 7900 XTX leben. :)
 
Wird auch Zeit. Bald steckt in jeder CPU eine NPU und das soll ja schließlich keine tote Einheit sein.
 
DrFreaK666 schrieb:
Welche Gerüchte? Finde nichts
Aktuell gibts nur gerüchteweise was zu Navi 44 und 48. Ob es noch größere Chips geben wird, ist dann noch die Frage.
Und Navi 48 soll wohl höchstens etwas schneller sein beim Rasterizing als eine 7900 XT, dafür beim RT aber gut zulegen.

Aber alles halt noch recht vage und wird auch fast wöchentlich noch revidiert.

Mich persönlich würde es etwas wundern, wenn RX 8000 in der Spitze nicht wenigstens die 7900 XTX einholt.
Zwar will AMD erst mit RX 9000 wieder die Spitze angreifen (so das denn auch so kommt, einer 6080 oder gar einer 6090 muss man dann auch erstmal Paroli bieten können), aber das untere Highend der Vorgänger-Gen - NV miteinberechnet - ist ja auch die gehobene Mittelklasse der nächsten.

Demnach wäre nach aktueller Mutmaßung eine 8800 XT wirklich nur solide Mittelklasse und nicht viel mehr.

Eine 7800 XT liegt ja auch ungefähr gleichauf mit einer 6900 XT (Rasterizing). Das erwarte ich eigentlich auch so im Vergleich zwischen 8800 XT und 7900 XTX (sofern die 7900 XTX dann nicht doch die 6950 XT der RX 7000er Gen ist).
Aber einen mal vermuteten Refresh der 7900 XT/XTX gibt es ja dann wohl auch nicht mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unti
DrFreaK666 schrieb:
Welche Gerüchte? Finde nichts
Das war auch eher darauf bezogen, dass eine aktuelle 7800XT langsamer als eine 4070Ti bzw. Super ist und eher gegen 7900XT geht.
Eine 8800XT wird vermutlich nachdem was man an Codenamen und und Leistung hört auf dem Niveau einer 7900XT / XTX sein.
Sollen ja nur Midrange - unterste Oberklasse GPUs werden.
Also nix 5080 oder 5090 Killer, so wie es aussieht fokussiert AMD das Portfolio direkt auf den wirklichen Standard-Massenmarkt an GPUs...
Sehr schade... es sei denn AMD zaubert und im High End Bereich kommt noch ein richtiger Konkurrent.
Vermutlich aber eher nicht... für eine 8900XTX mit 5090 Leistung wäre ich bereit mal wieder das Lager zu wechseln...

Damn, Kollege @Raptor85 war schneller, vielen Dank :)
 
Ich höre die Aussage immer wieder das der Abstand grösser geworden sei, kann ich nicht verstehen DLSS 3.5 ist außerhalb von RT wo AMD eh schlecht ist nutzlos weitgehend, während man zu non-RT Upscaling klar aufgeschlossen hat, zuvor DLSS 3.0 vs FSR 2.0 jetzt FSR 3.0 vs DLSS 3.0.

Der einzige Weg wie das stimmen könnte wäre wenn FSR 3.0 schlechter als FSR 2 ist... was es wohl nicht ist.

Von daher muss man irgendwie RT fetischieren um auf diesen Schluss zu kommen, aber wer primär RT will ist mit AMD in der Regel eh schlecht dran.

Ich denke es geht nicht darum was machbar FSR 3 die guten Games beweisen das man das selbe ohne A.I. machen kann ich denke es geht um den aufwand, ich weiss nicht ob es bei der API erstellen der Aufwand höher ist oder ob die Spieleschmieden mehr Hand anlegen müssen aber es scheint aufwändiger zu sein FSR ohne K.I. zu haben, es geht also um ne Effizenzsteigerung wenn nicht um etwas sei besser, das dies nicht stimmt hat AMD den Beweis erbracht.

Logisch wieso sollte man Upscaling nicht mit Code schreiben können der spezifisch für Abscaling alle Fälle so gut wie möglich bedient? Wieso muss man da eine generelle K.I. haben die sich selbst programmiert wieso sollten Menschen nicht das selbe Programmieren können.

Das einzige was sein könnte wäre das wenn spezielle K.I. Hardware vorhanden ist das diese dann schneller ausgeführt wird wie spezifischen GPU Code, da die Nvidia oder AMD karten bisher aber keine speziellen K.I. Recheneinheiten hat, macht das kein Sinn, das mag sich bei der nächsten Generation ändern.

Wie auch schon bei Gsync Nvidia brichts übers Bein eine Minderwertige teure Schrotttechnologie und AMD machts dann richtig, also wer nicht immer FOMO hat bekommt mit leichter Verzögerung dann eben das richtige von AMD und nicht irgendwelche extrem teuren effekthascherischen Frikellösungen.

Nvidia nutzten K.I. rein fürs Marketing obwohl es noch gar keine Beschleunigung und spezielle Recheneinheiten gab nur fürs Marketing und um ne Ausrede zu haben warum sie es künstlich nicht Rückwärtskompatibel zu ihren alten Grafikkarten zu machen, AMD nutzt es wenn es Vorteile bringt.

Kann mir keiner erzählen das man als K.I. etwas machen kann auf ner normalen GPU das mat mit normalem Code nicht machen kann, natürlich kann Code sehr dynamisch sein, aber das macht es nicht zur K.I. man kann das erlerte auch einfach einprogrammieren nichts macht das unmöglich.

Vielleicht geht das "mehr hinten dran das Spieleentwickler es nicht so häufig bisher benutzen" aber das sagt ja wenig über die Technik aus was die kann sondern nur über unabhängige Entscheidungen von diesen Firmen... das zu vermischen finde ich merkwürdig man sollte die Technik selbst vergleichen nicht sagen ne Technik ist schlecht wegen der Marktadaption.
 
  • Gefällt mir
Reaktionen: LencoX2 und Inxession
Raptor85 schrieb:
Zwar will AMD erst mit RX 9000 wieder die Spitze angreifen (so das denn auch so kommt, einer 6080 oder gar einer 6090 muss man dann auch erstmal Paroli bieten können), aber das untere Highend der Vorgänger-Gen - NV miteinberechnet - ist ja auch die gehobene Mittelklasse der nächsten.
Puh, wenn AMD kaum einen Uplift macht wird es gegen etwaige RTX6000er echt übel.
Irgendwann wird NV auch auf den Multi-Chiplet GPU Zug aufspringen und wenn NV sagt denen sei der Stromverbrauch vollkommen egal (im Top Tier High End 1000++++ Segment), dann hauen die da eine 6090 oder Titan raus mit 2 von den 600W GPUs ...).
Ich würds kaufen auch für >3K, kein Thema bei der Leistung dann aber man muss technlogisch mal realistisch bleiben, wenn AMD jetzt zu stark abgehängt wird, kann NV was das Produktdesign angeht wieder treiben was sie wollen und das ist eher Anticonsumer... von dem her hoffe ich doch sehr, dass AMD noch was in der hinterhand hat um zumindest das zweitschnellste RTX5000 Modell einzuholen.
 
Unti schrieb:
Also nix 5080 oder 5090 Killer, so wie es aussieht fokussiert AMD das Portfolio direkt auf den wirklichen Standard-Massenmarkt an GPUs...
Ja gut, das sind aber keine aktuellen Gerüchte. Dachte es gäbe was Neues
 
Nun ich hoffe für alle FSR Nutzer das die neuen Algorithmen FSR näher an DLSS heranbringen. :D

coxon schrieb:
Interessant. Hat dir das deine Glaskugel verraten? :D Ich würde mich da nicht so weit aus dem Fenster lehnen. ^^
Laut Gerüchten soll AMD maximal nur eine monolithische Karte zwischen der 7900XT und 7900XTX bringen.
Ergo eine 8800XT. Da die halt unterhalb einer 7900XTX angesetzt ist, wird sie nicht schneller als eine 4080 sein, aber dafür deutlich billiger.
Als Quellen zu den Gerüchten gibt es MLID und ein paar andere.
Die sind meist nahe dran, an dem was kommt. Schließlich gibt es viele Leute die eine Karte sehen, bevor die in den Handel kommt.
Bei Software aka DLSS4 sieht die Sache anders aus, da ist meist nur ein Team dran beschäftigt.
Und nein ich weiß nicht ob DLSS4 kommt und Gerüchte habe ich auch noch nicht gehört. Aber Nvidia bringt bestimmt irgendwas und sei es nur ein Update. :D

@Unti
Am Ende muss man gucken, für wieviel man die 4080 wieder los wird, am Ende könnte ein Plus rauskommen, wenn man auf eine 8800XT wechselt. Aber man verliert dann auch Leistung und DLSS. :D
Wie effizient die nun wird kann ich nicht sagen, aber eine stark undervoltete 4080 wird sicherlich nahe dran sein.
 
  • Gefällt mir
Reaktionen: Convert
theGucky schrieb:
Nun ich hoffe für alle FSR Nutzer das die neuen Algorithmen FSR näher an DLSS heranbringen. :D
Wieso auch nicht. Wer auf FSR3 FG angewiesen ist (z.B. RTX3080 Besitzer) will trotzdem eine gute Upscaling-Qualität haben. Was spricht dagegen?
 
Unti schrieb:
dann hauen die da eine 6090 oder Titan raus mit 2 von den 600W GPUs ...).
Ich würds kaufen auch für >3K, kein Thema bei der Leistung dann aber man muss technlogisch mal realistisch bleiben
Du würdest es kaufen (meine ich jetzt ganz neutral und nicht als persönliche Wertung deiner Person), aber ALLES kannst du dem Endkunden auch nicht antun.
Jeder muss seine Stromrechnung zahlen und die Wärme muss ja auch abgeführt werden. Auch im Sommer. Und das ohne Turbine.

Man kann dem durchschnittlichen Kunden, der ziemlich kopflos ziemlich viel kauft, ziemlich viel antun (was auch gerne mal über seinen eigentlichen finanziellen Möglichkeiten liegt).
Aber eine 2x600W GPU für 3000 Tacken+ bekommt man nicht breit verkauft. Keine Chance. Und irgendwann ist die Preisschraube auch zu Ende hoch gedreht. Die wenigsten können Geld schei... oder haben nen Geldspeicher. :lol:
Selbst wenn NV weiter das Enthusiasten-Highend weiter für sich behauptet. Man muss den Kram immer noch irgendwie loswerden können, nicht nur an 10-100 Hanseln.

Unti schrieb:
von dem her hoffe ich doch sehr, dass AMD noch was in der hinterhand hat um zumindest das zweitschnellste RTX5000 Modell einzuholen.
Glaube ich zwar für die nächste Gen nicht, aber man darf auch nicht vergessen, wie viel da schon hinter den Kulissen geht.
RX 9000 ist sicherlich schon in Entwicklung. Und AMD weiß wahrscheinlich auch schon mehr über RTX 5000 und ggf. sogar schon 6000 als wir Flöten hier im Forum. :p
Die planen ja auch mit langer Hand.

Langanhalter Erfolg macht auch träge und selbstzufrieden. Hat man auch lange bei Intel gesehen. Dann hat AMD Ryzen rausgehauen und Intel musste erstmal anfangen, sich den feisten A... abzutrainieren.

Könnte mir vorstellen, dass AMD mit RX 9000 dann auch wieder einen raushaut. So als "kleine Firma", sodass NV mindestens stark husten muss. :D Würde mich zumindest freuen.
Dann gibt man nicht so viel Men- und Women-Power in RX 8000, macht ein bisschen mehr in Richtung RT und gibt sich dann mit RX 9000 wieder richtig Mühe.
 
Zuletzt bearbeitet:
Der nächste logische Schritt. Wobei hier FSR+AI nur von RDNA3 oder Neuer genutzt wird wegen den AI Cores in der Architektur.
Ältere Gens werden vermutlich das normale FSR weiterhin nutzen. Oder man hat einen Weg gefunden AI Algorithmen/Berechnung auf nochmalen CU auszuführen und ausreichend zu beschleunigen. Kann man denke ich gespannt sein was da noch kommt.
 
Zurück
Oben