News AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6

BAR86 schrieb:
Ich weiß nicht genau, welche News du meinst, aber Kepler liegt oft richtig. Er deklariert seine Insider-Infos aber eben dann als solche
Ich hab mich auf das hier bezogen.
 
„Kurz ne Roboter Armee oder die Droiden in star wars wird es nicht geben.„

Das ist über kurz oder lang nicht zu verhindern! :stacheln:
 
syfsyn schrieb:
Heute arbeiten wir mit x88-48bit das sind exakt 88 befehlen mit co Prozessoren in fpu und Programm Bibliotheken in hardware beschleunigt Die 48bit ergeben sich aus dem register in der cpu.
64bit nennt man das nur weil es in Programmiersprache ausgeführt werden kann, echtes 64bit ist das nicht.
Also ist x86 also 86 Befehle und da ich ja 32 bit habe ,macht nur beim RAM einen Unterschied aus . Somit habe ich noch den Vorteil mit den 86 Befehlen. Und die Anwendung ist grundsätzlich sehr sparsam und mit 64 Bit steigt die Leistung nur minimal an.
Was sagst du dazu zu dem Problem . Oder was sagt das aus was ich so geschrieben habe oder muss man bei x86 noch mit verringerten Befehlen rechnen ?
 
Boimler schrieb:
Ich hab mich auf das hier bezogen.
Ah ok danke. Nun hier steht sofort Gerücht (entgegen "Handfester Information") in der Überschrift und Kepler hat hier auch nicht geschrieben "ich schätze".
 
  • Gefällt mir
Reaktionen: Alexander 65 und Boimler
X86 ist sehr breit geworden und ist nur noch für den basis code für dass OS die meisten Programme laufen auf der fpu und deren Befehlssätzen (fma sse udn co)
Das schreibt keiner mehr manuell also faktisch highlevel programmieren dazu Zählen basic visual basic vc++ c++ und net framework was von microsoft ist und die ganzen internet Programmiersprachen von java was Haufen misst ist mit php sowie python und html was ich ne Zeitlang gemacht habe.
Echte low level Programmieren kann heute kaum einer.

nebenbei ne Programmstruktur ist nicht das problem, sich an die codes zu erinnern sehr Wohl
Was Treiber angeht ist das klar in directx geregelt bzw ogl
Somit ist das auch kein low level

In linux ist man fexibler da man von design immer in high level denkt abseits dem kernel das gute der code ist gpl somit kann da jeder ein Os bauen. Nur blöd das kaum eine Treiber für neue hardware bereitstellt insbesondere nvidia ist hier sparsam.
Der Rest ist lediglich fehlende microsoft Programmierspracheübersetzung das wird aber immer besser dank wrapper dxvk
Da hat aber ab und an Schluckauf auch wegen den Treibern linux am besten amd systeme
 
@syfsyn das heißt bei externe also nicht ms eigene Programme auf x86 sagt nix aus sondern nur noch die Befehlssatz und je weniger das beherrscht desto eingeschränkter läuft das ganze ab . Dachte x86 würde auch eine Rolle spielen aber scheinbar liegt es nicht daran . Verstehe .
 
Kleine Anmerkung.
Die ISA beschreibt erstmal nur was in den Decoder reingeht (und teilweise auch die interne Registeraufteilung).
Hinter dem Decoder stecken mehrere RISC Pipelines, welche dann nicht mehr mit X86 Befehlen, sondern mit uOps laufen.

So ist die eigentliche CPU Architektur nach dem Frontend weitgehend von der ISA entkoppelt. Befehle werden zerissen und zusammengefügt, wie es dem CPU Hersteller beliebt.

X86 hat dabei durch variable Befehlsbreiten komplexere Decoder aufbauten. Wird der Decoder breiter, steigt die Komplexität massiv. Deswegen sind X86 CPUs in den letzten 10 Jahren auch tendenziell schmaler geblieben als ihre ARM Gegenstücke. Jetzt sieht man ja auch immer mehr geteilte Decoder, um die Problematik zu umschiffen.
 
verstehe,man hat mit tricks wie diesem die Geschwindigkeit dennoch beschleunigt.Das erklärt auch das ich trotz x86 32 Bit Anwendung immer mehr beschleunigung erfahren hatte.
 
@latiose88
CPU Kerne gehen auch innerhalb des Kernes immer mehr auf Parallelisierung (SIMD und oOo execution).
Aus dem L1 Cache zieht sich z.B. Lion Cove mal eben 128 Bytes, also 1024 bit pro Taktzyklus.

1753297226922.png

Falls du dich mal z.B. zu Lion Cove (mit Abstand breiteste X86 Architetkur) einlesen möchtest.
https://chipsandcheese.com/p/lion-cove-intels-p-core-roars
 
  • Gefällt mir
Reaktionen: latiose88 und ThirdLife
wow,krass.Das erklärt auch warum sogar ein 265k so gut abschneidet.Ich gehe mal davon aus das AMD da auch was in diese Richtung machen wird.Zen 6 wird das möglich machen.
Das wird auch spannend bei der PS6 sein,denn AMD wird da bestimmt auch Ordentlich zulegen,das ist sicher.
Nun ja das breite Design hilft wirklich für die meisten Anwendung.Interessant wäre es gewiss auch auszuprobieren,wie weit das ganze helfen wird.20 Kerne also 20 Threads sind ja schon mal gut ausgelastet.Jedoch was passiert wenn noch weniger Kerne es sind obwohl es schon ausgelastet sind,da könnte ein breite Design wirklich weiter helfen.Weil ne CPU wird niemals völlig überlastet sein,das geht ja nicht.
Da wird sich die CPU wie bei einer GPU verhalten.Wobei gibt es bei GPU sowas wie eine völlige Überlastung aller Einheiten,da bin ich mir nicht sicher.
 
Neue Gerüchte von MLID, video selbst kann man sich eh sparen, nur hat diese Kepler und andere Leaker die gezeigte Folie als mit "ziemlich sicher echt" kommentiert

UDNA soll 3 Chips bekommen, davon einer für Workstation mit 128GB vram und 184CU im Vollausbau (kleinste Variante mit 36GB soll über AIBs vertrieben werden, wäre dann wohl das 6090 Äquivalent)
Größter Gaming Chip soll 64CU und 18GB vram haben und 2027 erscheinen mit ~120% Leistung einer 4080.
 
Das wäre ja dann auf rtx 4090 Level kann man so sagen bei 120% . Immerhin also besser als nix und das wäre auf Level einer rtx 5080 kann man so sagen.
 
Wir reden hier von mehr als der doppelten Leistung. Seit wann hat die 5080 doppelt so viel Leistung wie die 4080?
 
Achso mein Ansatz war falsch gewesen und hatte die rtx 4080 als 100 % und die rtx 4090 als 120 % gesehen gehabt .
 
KodosDerHenker schrieb:
Größter Gaming Chip soll 64CU und 18GB vram haben und 2027 erscheinen mit ~120% Leistung einer 4080.
Klingt halt reichlich unspektakulär. Damit wäre man 2027 einfach mal ne halbe Dekade hinterher. Unter 96-128 CU brauchen sie eigentlich gar nicht antanzen wenn sie zahlungswillige Kundschaft wollen.
 
KodosDerHenker schrieb:
Größter Gaming Chip soll 64CU und 18GB vram haben und 2027 erscheinen mit ~120% Leistung einer 4080.

Wahrscheinlichkeit, dass dieser Chip bzw. ein näherungsweises Äquivalent in der PS6 steckt, gerade am aktuellen Chipmarkt: gering. Die Grafiklösung der PS5 basierte auf RDNA2 und ist in etwa vergleichbar mit der RX 6700 (non-XT). In etwa, weil das immer was schwierig ist mit dem Vergleich.

Das ist übrigens einer der Hauptfaktoren, warum eine 1080Ti noch immer nachgefragt, verkauft und auch für Blockbuster meist noch nutzbar ist. Denn in neue Leistungsdimensionen stieg die letzte Konsolengeneration nicht auf. Ist gleichzeitig aber noch immer die Mit-Basis, für die all die AAAA-Multiplattform-Blockbuster entwickelt werden -- selbst CD Projekt verkündeten neulich, die Basis für den nächsten Witcher wäre noch die Base-PS5. Und PC-Showcases wie Crysis sind ja schon lange verschwunden -- wie Raider-Riegel, Telefonzellen, Dinosaurier.
 
ThirdLife schrieb:
Unter 96-128 CU brauchen sie eigentlich gar nicht antanzen wenn sie zahlungswillige Kundschaft wollen.
Das müsstest du mal erklären. Schon bei GCN gab es 64CUs, eine 7900XTX hat 96CUs, die 9070XT 64CUs und wir sind uns wohl einig, dass das absolut keine vergleichbare Aussage über die Leistung macht. RDNA4 lastet 64CUs weit besser aus als RDNA3 seine 96 (im Vollausbau). Man kann annehmen, dass RDNA5 mehr Compute Units haben wird, weil RDNA4 relativ "klein" ausgefallen ist. Über die Leistung wird man damit aber kaum eine Aussage treffen können.
 
  • Gefällt mir
Reaktionen: Alexander 65
Boimler schrieb:
Das müsstest du mal erklären. Schon bei GCN gab es 64CUs, eine 7900XTX hat 96CUs, die 9070XT 64CUs und wir sind uns wohl einig, dass das absolut keine vergleichbare Aussage über die Leistung macht.
Ohne Bezug zu irgendeiner Fertigung und Arch / Generation ? Eher nicht. Bezogen auf den Beitrag mit der Aussage "64 CU und knapp 4090 Level" schon.

Mit "knapp 4090" holst du mich halt 2027 im Highend sicher nicht mehr ab wenn eine 6090 dann vermutlich schon wieder 60-80% schneller als eine 4090 ist. Ich hab seit 2022 4090-Leistung. Fünf Jahre später Geld fürs Selbe ausgeben fühl ich nicht so, sorry.

Wüsste nicht was daran unklar sein sollte ?
 
Zurück
Oben