Ich hab mich auf das hier bezogen.BAR86 schrieb:Ich weiß nicht genau, welche News du meinst, aber Kepler liegt oft richtig. Er deklariert seine Insider-Infos aber eben dann als solche
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6
- Ersteller MichaG
- Erstellt am
- Zur News: AMD-Gerüchte: Rückkehr zu High-End-GPUs und X3D-Cache für die PlayStation 6
Alexander 65
Lieutenant
- Registriert
- Apr. 2024
- Beiträge
- 648
„Kurz ne Roboter Armee oder die Droiden in star wars wird es nicht geben.„
Das ist über kurz oder lang nicht zu verhindern!
Das ist über kurz oder lang nicht zu verhindern!
MLID klaut ab und zu korrekte Infos.syfsyn schrieb:Was mlid angeht ja er lag oft falsch aber die Richtung stimmte immer.
Aber die sind in einem Berg von falschen Infos vergraben.
https://x.com/G_melo_ding/status/1947311887076786241?t=2W5ZBrWXd1R7KxXtWvUYvw&s=19
Also ist x86 also 86 Befehle und da ich ja 32 bit habe ,macht nur beim RAM einen Unterschied aus . Somit habe ich noch den Vorteil mit den 86 Befehlen. Und die Anwendung ist grundsätzlich sehr sparsam und mit 64 Bit steigt die Leistung nur minimal an.syfsyn schrieb:Heute arbeiten wir mit x88-48bit das sind exakt 88 befehlen mit co Prozessoren in fpu und Programm Bibliotheken in hardware beschleunigt Die 48bit ergeben sich aus dem register in der cpu.
64bit nennt man das nur weil es in Programmiersprache ausgeführt werden kann, echtes 64bit ist das nicht.
Was sagst du dazu zu dem Problem . Oder was sagt das aus was ich so geschrieben habe oder muss man bei x86 noch mit verringerten Befehlen rechnen ?
Ah ok danke. Nun hier steht sofort Gerücht (entgegen "Handfester Information") in der Überschrift und Kepler hat hier auch nicht geschrieben "ich schätze".Boimler schrieb:Ich hab mich auf das hier bezogen.
iWebi
Lt. Commander
- Registriert
- Nov. 2024
- Beiträge
- 1.342
Du meinst so gut wie nie ...Zuchtmaista schrieb:pcgh ist auch nicht immer vertrauenswürdig ...
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.838
X86 ist sehr breit geworden und ist nur noch für den basis code für dass OS die meisten Programme laufen auf der fpu und deren Befehlssätzen (fma sse udn co)
Das schreibt keiner mehr manuell also faktisch highlevel programmieren dazu Zählen basic visual basic vc++ c++ und net framework was von microsoft ist und die ganzen internet Programmiersprachen von java was Haufen misst ist mit php sowie python und html was ich ne Zeitlang gemacht habe.
Echte low level Programmieren kann heute kaum einer.
nebenbei ne Programmstruktur ist nicht das problem, sich an die codes zu erinnern sehr Wohl
Was Treiber angeht ist das klar in directx geregelt bzw ogl
Somit ist das auch kein low level
In linux ist man fexibler da man von design immer in high level denkt abseits dem kernel das gute der code ist gpl somit kann da jeder ein Os bauen. Nur blöd das kaum eine Treiber für neue hardware bereitstellt insbesondere nvidia ist hier sparsam.
Der Rest ist lediglich fehlende microsoft Programmierspracheübersetzung das wird aber immer besser dank wrapper dxvk
Da hat aber ab und an Schluckauf auch wegen den Treibern linux am besten amd systeme
Das schreibt keiner mehr manuell also faktisch highlevel programmieren dazu Zählen basic visual basic vc++ c++ und net framework was von microsoft ist und die ganzen internet Programmiersprachen von java was Haufen misst ist mit php sowie python und html was ich ne Zeitlang gemacht habe.
Echte low level Programmieren kann heute kaum einer.
nebenbei ne Programmstruktur ist nicht das problem, sich an die codes zu erinnern sehr Wohl
Was Treiber angeht ist das klar in directx geregelt bzw ogl
Somit ist das auch kein low level
In linux ist man fexibler da man von design immer in high level denkt abseits dem kernel das gute der code ist gpl somit kann da jeder ein Os bauen. Nur blöd das kaum eine Treiber für neue hardware bereitstellt insbesondere nvidia ist hier sparsam.
Der Rest ist lediglich fehlende microsoft Programmierspracheübersetzung das wird aber immer besser dank wrapper dxvk
Da hat aber ab und an Schluckauf auch wegen den Treibern linux am besten amd systeme
T
Temporä
Gast
Kleine Anmerkung.
Die ISA beschreibt erstmal nur was in den Decoder reingeht (und teilweise auch die interne Registeraufteilung).
Hinter dem Decoder stecken mehrere RISC Pipelines, welche dann nicht mehr mit X86 Befehlen, sondern mit uOps laufen.
So ist die eigentliche CPU Architektur nach dem Frontend weitgehend von der ISA entkoppelt. Befehle werden zerissen und zusammengefügt, wie es dem CPU Hersteller beliebt.
X86 hat dabei durch variable Befehlsbreiten komplexere Decoder aufbauten. Wird der Decoder breiter, steigt die Komplexität massiv. Deswegen sind X86 CPUs in den letzten 10 Jahren auch tendenziell schmaler geblieben als ihre ARM Gegenstücke. Jetzt sieht man ja auch immer mehr geteilte Decoder, um die Problematik zu umschiffen.
Die ISA beschreibt erstmal nur was in den Decoder reingeht (und teilweise auch die interne Registeraufteilung).
Hinter dem Decoder stecken mehrere RISC Pipelines, welche dann nicht mehr mit X86 Befehlen, sondern mit uOps laufen.
So ist die eigentliche CPU Architektur nach dem Frontend weitgehend von der ISA entkoppelt. Befehle werden zerissen und zusammengefügt, wie es dem CPU Hersteller beliebt.
X86 hat dabei durch variable Befehlsbreiten komplexere Decoder aufbauten. Wird der Decoder breiter, steigt die Komplexität massiv. Deswegen sind X86 CPUs in den letzten 10 Jahren auch tendenziell schmaler geblieben als ihre ARM Gegenstücke. Jetzt sieht man ja auch immer mehr geteilte Decoder, um die Problematik zu umschiffen.
T
Temporä
Gast
@latiose88
CPU Kerne gehen auch innerhalb des Kernes immer mehr auf Parallelisierung (SIMD und oOo execution).
Aus dem L1 Cache zieht sich z.B. Lion Cove mal eben 128 Bytes, also 1024 bit pro Taktzyklus.
Falls du dich mal z.B. zu Lion Cove (mit Abstand breiteste X86 Architetkur) einlesen möchtest.
https://chipsandcheese.com/p/lion-cove-intels-p-core-roars
CPU Kerne gehen auch innerhalb des Kernes immer mehr auf Parallelisierung (SIMD und oOo execution).
Aus dem L1 Cache zieht sich z.B. Lion Cove mal eben 128 Bytes, also 1024 bit pro Taktzyklus.
Falls du dich mal z.B. zu Lion Cove (mit Abstand breiteste X86 Architetkur) einlesen möchtest.
https://chipsandcheese.com/p/lion-cove-intels-p-core-roars
wow,krass.Das erklärt auch warum sogar ein 265k so gut abschneidet.Ich gehe mal davon aus das AMD da auch was in diese Richtung machen wird.Zen 6 wird das möglich machen.
Das wird auch spannend bei der PS6 sein,denn AMD wird da bestimmt auch Ordentlich zulegen,das ist sicher.
Nun ja das breite Design hilft wirklich für die meisten Anwendung.Interessant wäre es gewiss auch auszuprobieren,wie weit das ganze helfen wird.20 Kerne also 20 Threads sind ja schon mal gut ausgelastet.Jedoch was passiert wenn noch weniger Kerne es sind obwohl es schon ausgelastet sind,da könnte ein breite Design wirklich weiter helfen.Weil ne CPU wird niemals völlig überlastet sein,das geht ja nicht.
Da wird sich die CPU wie bei einer GPU verhalten.Wobei gibt es bei GPU sowas wie eine völlige Überlastung aller Einheiten,da bin ich mir nicht sicher.
Das wird auch spannend bei der PS6 sein,denn AMD wird da bestimmt auch Ordentlich zulegen,das ist sicher.
Nun ja das breite Design hilft wirklich für die meisten Anwendung.Interessant wäre es gewiss auch auszuprobieren,wie weit das ganze helfen wird.20 Kerne also 20 Threads sind ja schon mal gut ausgelastet.Jedoch was passiert wenn noch weniger Kerne es sind obwohl es schon ausgelastet sind,da könnte ein breite Design wirklich weiter helfen.Weil ne CPU wird niemals völlig überlastet sein,das geht ja nicht.
Da wird sich die CPU wie bei einer GPU verhalten.Wobei gibt es bei GPU sowas wie eine völlige Überlastung aller Einheiten,da bin ich mir nicht sicher.
KodosDerHenker
Ensign
- Registriert
- Jan. 2020
- Beiträge
- 250
Neue Gerüchte von MLID, video selbst kann man sich eh sparen, nur hat diese Kepler und andere Leaker die gezeigte Folie als mit "ziemlich sicher echt" kommentiert
UDNA soll 3 Chips bekommen, davon einer für Workstation mit 128GB vram und 184CU im Vollausbau (kleinste Variante mit 36GB soll über AIBs vertrieben werden, wäre dann wohl das 6090 Äquivalent)
Größter Gaming Chip soll 64CU und 18GB vram haben und 2027 erscheinen mit ~120% Leistung einer 4080.
UDNA soll 3 Chips bekommen, davon einer für Workstation mit 128GB vram und 184CU im Vollausbau (kleinste Variante mit 36GB soll über AIBs vertrieben werden, wäre dann wohl das 6090 Äquivalent)
Größter Gaming Chip soll 64CU und 18GB vram haben und 2027 erscheinen mit ~120% Leistung einer 4080.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.844
Klingt halt reichlich unspektakulär. Damit wäre man 2027 einfach mal ne halbe Dekade hinterher. Unter 96-128 CU brauchen sie eigentlich gar nicht antanzen wenn sie zahlungswillige Kundschaft wollen.KodosDerHenker schrieb:Größter Gaming Chip soll 64CU und 18GB vram haben und 2027 erscheinen mit ~120% Leistung einer 4080.
KodosDerHenker schrieb:Größter Gaming Chip soll 64CU und 18GB vram haben und 2027 erscheinen mit ~120% Leistung einer 4080.
Wahrscheinlichkeit, dass dieser Chip bzw. ein näherungsweises Äquivalent in der PS6 steckt, gerade am aktuellen Chipmarkt: gering. Die Grafiklösung der PS5 basierte auf RDNA2 und ist in etwa vergleichbar mit der RX 6700 (non-XT). In etwa, weil das immer was schwierig ist mit dem Vergleich.
Das ist übrigens einer der Hauptfaktoren, warum eine 1080Ti noch immer nachgefragt, verkauft und auch für Blockbuster meist noch nutzbar ist. Denn in neue Leistungsdimensionen stieg die letzte Konsolengeneration nicht auf. Ist gleichzeitig aber noch immer die Mit-Basis, für die all die AAAA-Multiplattform-Blockbuster entwickelt werden -- selbst CD Projekt verkündeten neulich, die Basis für den nächsten Witcher wäre noch die Base-PS5. Und PC-Showcases wie Crysis sind ja schon lange verschwunden -- wie Raider-Riegel, Telefonzellen, Dinosaurier.
Das müsstest du mal erklären. Schon bei GCN gab es 64CUs, eine 7900XTX hat 96CUs, die 9070XT 64CUs und wir sind uns wohl einig, dass das absolut keine vergleichbare Aussage über die Leistung macht. RDNA4 lastet 64CUs weit besser aus als RDNA3 seine 96 (im Vollausbau). Man kann annehmen, dass RDNA5 mehr Compute Units haben wird, weil RDNA4 relativ "klein" ausgefallen ist. Über die Leistung wird man damit aber kaum eine Aussage treffen können.ThirdLife schrieb:Unter 96-128 CU brauchen sie eigentlich gar nicht antanzen wenn sie zahlungswillige Kundschaft wollen.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.844
Ohne Bezug zu irgendeiner Fertigung und Arch / Generation ? Eher nicht. Bezogen auf den Beitrag mit der Aussage "64 CU und knapp 4090 Level" schon.Boimler schrieb:Das müsstest du mal erklären. Schon bei GCN gab es 64CUs, eine 7900XTX hat 96CUs, die 9070XT 64CUs und wir sind uns wohl einig, dass das absolut keine vergleichbare Aussage über die Leistung macht.
Mit "knapp 4090" holst du mich halt 2027 im Highend sicher nicht mehr ab wenn eine 6090 dann vermutlich schon wieder 60-80% schneller als eine 4090 ist. Ich hab seit 2022 4090-Leistung. Fünf Jahre später Geld fürs Selbe ausgeben fühl ich nicht so, sorry.
Wüsste nicht was daran unklar sein sollte ?
Ähnliche Themen
- Antworten
- 424
- Aufrufe
- 73.812
K