News AMD Radeon RX 7800 XT: PowerColor verrät Eckdaten der ersten Navi-32-Grafikkarte

Das stimmt nicht Wenn der vram nicht reicht war es immer so das es dann ruckelt bis abstürzt.
Aber Inhalt weglassen kann der Treiber gar nicht, das ist Aufgabe der game engine die heute dynamisch ihren Inhalt an den vram Anpassen.
Meine test von 2020 (rt3060 vs gtx1060 Ergebnis war +72% bis +84% cpu lmitiert 1080p) von spielen von 2004 bis 2020 waren die vram Belegung bei 6gb vram und 12gb vram beinahe gleich zugunsten mehr Belegung bei 12gb vram.
Das waren in der regele um die 50 oder 100mb mehr bei modernen spielen. Seltener deutlich mehr.
Das passiert aber nur da wo das Spiel schon daten heftigste in den ram auslagert das kann man daran erkenne wenn der ram größer belegt ist als der vram
Gutes bsp wär da doom eternal das gerne daten auslagert bei zu wenig vram da wird aber nicht einfach daten weggelassen. Diese verhalte hat man dynamischen qualitätseinstellungen einiger spiele die man zumindest abstellen kann.
 
Dai6oro schrieb:
Das sind 2 unterschiedlicher Herangehensweisen. AMD reduziert eben keine Details.
Du verstehst es leider nicht. Das reduzieren der Details geschieht erst unterhalb der 10GB, weswegen die Performance bei 8GB sogar wieder besser ist. Zwischen 10 und 12GB ist die Performance bei der Geforce immernoch gut, obwohl noch keine Details reduziert wurden, während die Radeon schon ab 12GB in die Knie geht. Die Radeon bleibt dann unter 12GB konstant schlecht. Wohlgemerkt in einer Szene die nur 10GB belegt. Die Geforce hat bei um die 10GB den absoluten Tiefpunkt, drunter trickst sie sich dann aber wieder hoch. Ändert aber nichts daran, dass die Geforce zwischen 10 und 12GB die Radeon übertrifft, auch ohne Tricksereien. Mit anderen Worten: Bei den Radeons darfst du 2 GB abziehen, wenn du den Speicher vergleichen willst.
 
Ich verstehe das schon. Mein Problem ist zu sagen die ein oder andere Herangehensweise wäre besser. Igor hat es auf den Punkt gebracht:

"Jetzt kann man natürlich spekulieren, was angenehmer ist, aber mit der NVIDIA-Karte konnte man wenigstens noch spielen. In etwas hässlicher, aber es ging zumindest."

Dabei sind beide Lösungen nicht gut wenn der Speicher ausgeht. Die Lösung wäre mehr Speicher zu verbauen, aber das macht in der Konsequenz ja nur AMD. Die stehen einfach besser da in den jeweiligen Preisregionen. Wenn Nvidia gleich viel Speicher verbauen würde, würde ich das ja nicht kritisieren. Dann kann sich jeder selbst überlegen was einem lieber ist. Nur ist das nicht der Fall. In Sachen Speicher ist AMD überlegen und nicht weil sie die besseren Tricks haben sondern schlicht weil mehr Speicher verbaut ist.

Dort wo Nvidia 12 GB bietet bietet AMD 16 (oder 20)
Dort wo Nvidia 8GB bietet bietet AMD 12 (oder wird bieten).
Das gibts nix zu diskutieren.
Speicher lässt sich Nvidia entweder fürstlich bezahlen (4060 Ti 16GB) oder man hat ne wesentlich langsamere Karte (3060 oder 2060 12GB)

PS: Den einzigen Lapsus den sich AMD bietet sind die Entry level Karten z.B. 7600. Die sind dann natürlich richtig schlecht. Aber bereits mit einer 6700XT ist man gut dabei. 12GB und auch genug Leistung. Das gibt es bei Nvidia gar nicht. Da nützt dann auch die vermeintlich "bessere" Speicherverwaltung nix.
 
Zuletzt bearbeitet:
Pauschal 2 GB sind es nicht, das hängt von der Grafikkarte und vom Spiel, dessen Engine und ggf. auch den Settings ab. Wirklich 2 GB sind da schon der best case bzw. der worst case für AMD.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Das anpassen der vram menge bei spielen kommt nicht vom Treiber: Eigentlich müsste man jeden benchmark in low und max settings testen bei gpu tests das wird aber immer aufwendiger aber nur so kann man sehen inwieweit eine game engine einfach die Qualität herabsetzt und ob man das verhindern kann.
Der Treiber macht da mal nix außer fpür eine gute gpu load zu sorgen um das cpu limit so klein wie möglich zu halten.
Nvidia hat wirklich die bessere lossless Kompression bei Texturen.
 
bondki schrieb:
Laut diversen Gerüchten hat AMD in der nächsten Gen sowieso (mal wieder) keine High End GPUs, da würde mich das weitere verarschen bei den 7000er GPUs nicht wundern.
Nicht die nächste sondern die wollen sich angeblich ganz aus dem highend bei GPUs ziehen.

Dann ist der Markt maximal kaputt und NV kann die Preise noch weiter anziehen.

Dann könne die Leute für 5090 dann 3500Euro zahlen.
 
@bondki @Blood011

Beides ist nicht offiziell in irgendeiner Form.

Bisher ein eher unzuverlässiger Leaker gepostet das AMD eventuell mit RDNA4 keine Highend Chipn anbieten möchte/kann.

Der erwähnte Twitter/X-Kanal verbreitete bereits vor der Veröffentlichung von RDNA3 mehrere Gerüchte, die sich am Ende als falsch herausstellten. Das prominenteste Beispiel hierfür ist die Geschichte, dass RDNA3 über keinen sogenannten „Shader Perfetch“ verfügt. AMD selbst hat ihn daraufhin korrigiert.

Hier ist ein weitere Insider-Leak.

"RDNA4 dont have a big Highend Chip, but Highend Graphics Cards"

Schon länger gibt es Hinweise darauf, dass AMD zwei kleinere Chips zu einer leistungsstarken GPU kombinieren könnte/möchte, anstatt einen großen, teuren und eventuell schwieriger zu produzierenden RDNA-4-Chip anzubieten. Das ist durch das Chiplet-Design möglich. Denn der Wechsel von monolithisch zu Chiplet erfolgte nicht nur aus Kostengründen.

Also erstmal abwarten und durchatmen was kommt. Vor Ende 2024 bis 2025 passiert
 
  • Gefällt mir
Reaktionen: DerToerke
Taurus104 schrieb:
Der erwähnte Twitter/X-Kanal verbreitete bereits vor der Veröffentlichung von RDNA3 mehrere Gerüchte, die sich am Ende als falsch herausstellten. Das prominenteste Beispiel hierfür ist die Geschichte, dass RDNA3 über keinen sogenannten „Shader Perfetch“ verfügt. AMD selbst hat ihn daraufhin korrigiert.
Das stimmt so nicht. Das hier von dir gebrachte Beispiel stimmt sowohl vom Zeitpunkt als auch vom Kontext nicht. Erstens mal war es nach Release der RDNA3 Karten. Zweitens hat er nicht geschrieben, dass RDNA3 über keinen Shader Prefetch verfügt, sondern einzig und allein das A0 Stepping von N31, das ist ein enormer Unterschied, zumal die Quelle der offizielle Treibercode von AMD auf GitHUB war. Die Verwirrung kam nur zustande, da das VBios von den ersten RDNA3 Karten ein A0 Stepping reported hat. Das war aber wohl im Nachhinein nicht der Fall. Es war auch nur als erste mögliche Erklärung für die enttäuschende Leistung von RDNA3 gedacht und nicht um AMD zu diskreditieren.
Taurus104 schrieb:
Hier ist ein weitere Insider-Leak.

"RDNA4 dont have a big Highend Chip, but Highend Graphics Cards"
Und von wem kommt der? Muss ja viel vertrauenswürdiger sein. Natürlich muss man abwarten was kommt, aber die Erklärung ist Murks. Selbst wenn RDNA4 wirklich schon mehrere GCDs nutzt, hat imernoch jede Ausbaustufe ihre eigene Bezeichnung (N4x in dem Fall). Auch wenn N41 eigentlich 2×N43 ist und N42 2×N44 ist. Wenn es also heißt, dass N41 und 42 gecancelt sind, muss man zuerst mal davon ausgehen, dass eben jene Versionen mit mehreren GCDs gestorben sind. Man sieht das immer als eine Einheit an. 2 GCDs in einer großen Karte sind immernoch ein Highend Chip, auch wenn es mehrere Dies sind. Man sagt ja auch nicht zu einem Genoa 96C dass es 12 CPUs sind.
 
Zuletzt bearbeitet:
bondki schrieb:
Unzuverlässig? Der gehört zu den zuverlässigsten überhaupt 😂
Deshalb hat er sich durch seinen "Leak" vor RDNA3 Release auch selbst blamiert in dem er behauptet hat RDNA3 hätte keinen Shader Perfetch. Als AMD selbst ihn dann noch korrigiert hat, hat er sich selbst zur Lachnummer gemacht.

Er war mal Nahe an guten Quellen, heutzutage ist er nur ein Typ der um jeden Preis Aufmerksamkeit möchte mehr nicht.

"Während @Kepler_L2, welcher in der Vergangenheit unter anderem bei RDNA 3 und deren Shader Perfetch nicht immer ganz so richtig lag,..."

https://www.pcgameshardware.de/Graf...Radeon-RX-8800-mit-RDNA-4-gestrichen-1426078/
Ergänzung ()

Philste schrieb:
Das stimmt so nicht.
Meine Aussage mag vielleicht vereinfacht dargestellt sein, trotzdem ist sie nicht falsch. Deine Aussage sagt die selbe Geschichte, nur mehr im Detail. Recht hast du zwar, man könnte es aber auch einfach "klugscheißen" nennen.

Sein Post kam am 13.12 10:55 pm also am 14.12 4:55 unserer Zeit online.
Die RX7900XTX/XT gingen um 14.12. 15 Uhr in den Verkauf. Dann war Markteinführung.
Die Präsentation war am 13.12. Also fanden seine Aussagen vor Release statt

Besserwisser spielen kann ich also auch, wie du siehst.

https://www.pcgameshardware.de/Rade...90/News/AMD-Probleme-Shader-Prefetch-1409744/

"Während @Kepler_L2, welcher in der Vergangenheit unter anderem bei RDNA 3 und deren Shader Perfetch nicht immer ganz so richtig lag" Zitat PCGH.
Ergänzung ()

Philste schrieb:
Und von wem kommt der? Muss ja viel vertrauenswürdiger sein.
Igorslab, Red Gaming Tech, MLID. Auch ich habe aus beruflichen Quellen der Branche bereits bereits solche Aussagen bekommen. Man wird am Ende sehen wer hier recht behält.
 
Zuletzt bearbeitet von einem Moderator:
Taurus104 schrieb:
Deshalb hat er sich durch seinen "Leak" vor RDNA3 Release auch selbst blamiert in dem er behauptet hat RDNA3 hätte keinen Shader Perfetch. Als AMD selbst ihn dann noch korrigiert hat, hat er sich selbst zur Lachnummer gemacht.

Er war mal Nahe an guten Quellen, heutzutage ist er nur ein Typ der um jeden Preis Aufmerksamkeit möchte mehr nicht.

"Während @Kepler_L2, welcher in der Vergangenheit unter anderem bei RDNA 3 und deren Shader Perfetch nicht immer ganz so richtig lag,..."
Interessiert mich recht wenig.
Kannst nicht immer recht haben und Kepler ist und bleibt einer der verlässligsten Leaker die es gibt. Ohne Wenn und Aber.
 
Taurus104 schrieb:
Sein Post kam am 14.12 12uhr.
Die RX7900XTX/XT gingen um 14.12. 15 Uhr in den Verkauf. Dann war Markteinführung.
Die Präsentation war am 13.12.
Die Präsentation war am 03.11. Am 13.12 um 15 Uhr kamen die Reviews. Aus manchen dieser Reviews ging eben hervor, dass die Karten sich im vBIOS als A0 reporten.
Taurus104 schrieb:
Igorslab, Red Gaming Tech, MLID.
Igor ist eine Quelle. Die anderen beiden sind im Vergleich zu Kepler als deutlich unzuverlässigen einzustufen. MLID behauptet auch immernoch, Arrow Lake würde Ende 2024 eine Celestial iGPU haben. Eine GPU Arch, die frühestens 2026 erscheint.

So, alles weitere jetzt bitte per PN, wir entfernen uns allmählich etwas vom Thema.
 
bondki schrieb:
Interessiert mich recht wenig.
Kannst nicht immer recht haben und Kepler ist und bleibt einer der verlässligsten Leaker die es gibt. Ohne Wenn und Aber.
Ohne wenn und aber weil du es sagst? xD

Wenn das deine subjektive Meinung ist ok, der Realität entspricht sie trotzdem nicht. Wäre er so zuverlässig hätte er nicht schon so häufig falsch gelegen. Zudem leben Leaker davon Gerüchte zu streuen, Aufmerksamkeit generien und von der Verbreitung ihrer Leaks.
Thema Fake News ist hier ebenso Gang Gebe ob man das wahr haben möchte oder nicht.
Ergänzung ()

Philste schrieb:
Die Präsentation war am 03.11. Am 13.12 um 15 Uhr kamen die Reviews
Okay. Präsentationstag und Review Day verhauen. Seine Aussage kam schlussendlich trotzdem vor der eigentlichen Markteinführung. Aber nun gut.
Philste schrieb:
So, alles weitere jetzt bitte per PN, wir entfernen uns allmählich etwas vom Thema.
Darauf verzichte ich gerne.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DerToerke
HaRdWar§FreSseR schrieb:
Genau so sehe ich das auch. Leute, die Nvidia hassen, sollten sich mal folgendes vorstellen die grünen denken sich komm, wir bieten die 4090 für 800 Euro an oder sagen wir mal 500 Euro, was würde dann passieren?

Die Aktie von den Roten würde so was was von droppen von heute auf morgen gäbe es die nicht mehr zumindest im GPU-Segment. Stell sich das mal einer vor, die könnten das echt abziehen.

Es hätte fatale Auswirkungen auf den GPU-Markt vor allen für AMD.

Jetzt ist noch alles rossig, vielleicht die Ruhe vor dem Sturm Nvidia könnte mit der next gen GPU alles verändern, in dem sie doch eine power GPU zum alten Preis raushauen, sagen wir mal 4090 Leistung für 500 Dollar und um ehrlich sein rechne ich damit in den nächsten Jahren.
Wenn Intel Battlemage vernüftigt läuft sind es drei Mitspieler. Ob dann AMD geht ist für den Markt egal, dann sind es wieder nur 2.

Die Frage ist halt ob sich unter 400€ was tut, weil bis zur GC dürfte die 6700XT praktisch ausverkauft sein. Nur ist die 7600XT keine Alternative
 
  • Gefällt mir
Reaktionen: HierGibtsNichts und HaRdWar§FreSseR
naja intel ist nicht bekannt dafür Pünktlich zu sein.
amd kann durchaus mit 60 96 120cu bringe die frage ist lohnt sich das
Derzeit will amd ins AI geschäft mit den mI300 und dem nachfolger MI400 punkten beide sku haben mutli gcd drin
Der Grund warum am desktop das nicht gibt liegt an der Latenz aktuell agieren beide gcd wie ein crossfire Gespann und haben derbe Probleme die Leistung auf die Straße zu bekommen.(in Echtzeit)

Das lässt sich nur mit tsv Verbindungen über chips stapeln lösen ideal bei hohen Takt leider ist das derzeit nicht umsetzbar da dafür die Voraussetzung 3d chip und beidseitiger Stromversorgung noch nicht gibt.
3d chips kommen mit n1,8 beidseitiger Stromversorgung ab n2p
Das eine könnte multi gcd ermöglichen das andere ein 25% anstieg des Taktes.

N3 sorgt nur für kleinere chips bei amd lässt sich der ganze gcd verkleinern da kein SI und kein L3 cache drin sind.
Wenn der L2 cache vergrößert wird um insgesamt 10% könnte man da Datenkonsistenz problem beheben und den Takt auf 4,0ghz hieven und somit wären 60cu so schnell wie 96cu aktuell und ne 96cu sku so schnell wie die rtx4090.
Darum macht ja das Gerücht Kein sinn. N3 soll etwa 18000$ kosten etwas mehr als der letzte verhandelte n5 Prozess bei 17000$ die chips werden um 30% kleiner.

Also 60 cu ab rdna5 bei 5,0ghz gpu ab q3 2026 in n2p. Das wäre das Niveau der rtx4090 bei 2,1ghz (250w tbp limit)
Mehrere gcd zu verbinden sehe ich nicht vor 2030 bzw 2032 je nachdem wann tsmc n1,8 bereit hat.
Bis dahin kann man den Takt ins nirvana schicken 5,0ghz sind schon 2026 drin 5,5ghz ab 2028

nun zum amd patent mit den mehreren gcd zu verbinden die idee ist das per fp32+ fp32 die crossfire Ineffizienz aufzulösen und die Bilder in sfr zu verbinden je mehr die simd32 Einheit in den gcd zeit bekommt kann diese genutzt werden um die chips nahe dem 2,1 Operationen per frame zu ermöglichen darum braucht der base gcd min eine 2,5 Operationen per cu um mit mehreren gcd zu funktionieren.
Und genau das scheint aktuell nicht zu gehen. Lösung wäre wirklich 3d chips um die Brücke crossfire zu Eliminieren das drei chips wie einer läuft.
Darum wird es keine multi mcm gpu geben bis tsmc n1,8 bereit hat und n3 soll von derzeit 2022 bis 2028 laufen. N2p fängt ab 2026 an in Serie zu gehen wird aber sehr knapp sein und teuer. Darum kann es sein das amd und nvidia erst 2027 bzw 2028 auf den Node gehen werden.

nvidia brauch den n2p node um noch konkurrenzfähig zu bleiben amd braucht nur Takt wenn man sich für den langsamen Weg entscheidet und auf die krone verzichtet
Wie sich entschieden wird liegt allein am markt derzeit ist alles geil auf compute power im datacenter Bereich aus, alles auf Ai was geht und da wäre cdna wichtiger für amd hier geht es sku verkauf ab 30k$ per chip
darauf folgt riscv chips die amd sogar selber entwickeln kann und kombinieren mit x86.

Im Grunde ist nvidla im Zugzwang was neues zu haben ab 2027 um überhaupt noch Umsatz zu machen abseits dem profi segment quadro wird ai komplett in Richtung riscv verschwinden.
ich sage nicht umsonst das ai boom bei gpu ne blase ist bis alternativen da sind die die aufgaben besser und billiger können.
Ai ist primär Software danach hardware. Neben der aussage von mir das Ai derzeit nur alles kombiniert aber nicht perse lernt, eher ist das eine Sammlung von Auswertungen.
Das geht noch gut bei generierte upscaling oder Textbausteine videos und Bilder kann man manipulieren aber da sind keine geschaffene Bilder sondern geklaute die annahmen darstellen und aktuell kann man ai generiertes sofort erkennen. Durch Ungereimtheiten sowie auch durch details.
Das wird immer besser da mehr daten ausgewertet werden. die wie ich beschrieb zu 99% geklaut sind.

Also ai sehe ich als Assistenten bei fragen und Wichtig beim upscaleing von Bildern und videos
Damit wird nix erschaffen oder erfunden. Zu glauben das ne ai zukünftige cpu und gpu arch entwickeln ist Träumerei von Bwler
Die ai Beschleunigung hat auch derzeit jeder rtx Besitzer drin die tensor cores Hauptaufgabe ist denoising
Was derzeit kaum bis gar nicht genutzt wird dlss ist ne farce und läuft primär auf den shadern.
Es gibt Daten bzw infos die zugefügt sind aus serverfarmen aber das ist eher klein und kann generiert werden.
Darum ist dlss nur ein upscaler der etwa besser agiert als die taa basierende upscaler wie fsr oder tsr von epic.
Die tensor kerne sind ai kerne das in cpu zu bringen hilft bei denoising aber da macht es wenig Sinn in gpu allerdings kann es Sinn machen
Auch ein Anwendungsfall wäre apu mit der igp um die Datenmengen zu reduzieren sprich datenbandbreite zu verkleinern.

Ai wird einiges verändern aber es wird ein Werkzeug und bald auch streng reguliert.
ich sehe die besten chancen bei denoising von dxr und upscaling von videos und Bildern Stark gefolgt von Assistenten.
Kreative Arbeit wird es nicht ersetzen können.

Derzeit warte ich auf die rtx5060 egal ob ada refresh in n4x 12gb oder blackwell in n3 mit 18g vram 20tf und 170w bei 3,1 oder 3,2ghz mit 384gb/s vram alle sku sind ab 379€ bis 439€ umsetzbar und das trotz gddr7 preise.
 
syfsyn schrieb:
N3 soll etwa 18000$ kosten etwas mehr als der letzte verhandelte n5 Prozess bei 17000$ die chips werden um 30% kleiner.
Wo hast du 18k für N3 her? Man rechnet eher so mit 23k aufwärts.
syfsyn schrieb:
Also 60 cu ab rdna5 bei 5,0ghz gpu ab q3 2026 in n2p.
N2P bedeutet 2 Nodeshrinks. 1 Nodeshrink sind 10-15% Performance. Wie kommt man da von 2.5GHz auf 5 GHz?!
syfsyn schrieb:
Bis dahin kann man den Takt ins nirvana schicken 5,0ghz sind schon 2026 drin 5,5ghz ab 2028
Siehe oben, wir haben momentan bei GPUs nichtmal 3 GHz in 5nm Nodes. (Zumindest ohne dass die Leistungsaufnahme durch die Decke geht). Die Eckdaten neuer Fertigungsprozesse werden zudem eher immer zahmer als aggressiver
syfsyn schrieb:
Derzeit warte ich auf die rtx5060 egal ob ada refresh in n4x 12gb oder blackwell in n3 mit 18g vram 20tf und 170w bei 3,1 oder 3,2ghz mit 384gb/s vram alle sku sind ab 379€ bis 439€ umsetzbar und das trotz gddr7 preise.
Du kennst also jetzt schon alle Specs einer Karte, die frühestens in 2 Jahren kommt? Mal ganz abgesehen davon, dass da einiges seltsam ist. Nvidia geht bei der 60er wieder auf nen 192Bit Bus und selbst in N3 braucht sie 170W? Dazu passen 384GB/S hinten und vorne nicht bei GDDR7 mit 192Bit Interface.

Zusammen mit dem katastrophalen Beitragsstil fange ich mich mittlerweile, ob das ein Trollaccount ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitche
Philste schrieb:
Das stimmt so nicht. Das hier von dir gebrachte Beispiel stimmt sowohl vom Zeitpunkt als auch vom Kontext nicht. Erstens mal war es nach Release der RDNA3 Karten. Zweitens hat er nicht geschrieben, dass RDNA3 über keinen Shader Prefetch verfügt, sondern einzig und allein das A0 Stepping von N31, das ist ein enormer Unterschied, zumal die Quelle der offizielle Treibercode von AMD auf GitHUB war. Die Verwirrung kam nur zustande, da das VBios von den ersten RDNA3 Karten ein A0 Stepping reported hat.
Hier muss ich rein kritischen: Hier hat Taurus absolut recht und der Leaker hat einfach nur etwas zum Besten gegeben ohne es zu prüfen.

Der besagte Code stammt aus dem OpenSource-Trieber. Dort gibt es eine Funktion, die in Anhängikeit der Hardware—Flags die Anzahl der Shader, die im prefetch landen bestimmt.

Die Funktion gibt 0 zurück, sofern A0 Stepping.

An den Stellen, in denen das Prefetching für Shader aber abgefragt wird, wird diese Funktion mit einem Oder Verknüpft, so dass das Shader-Prefetch auch beim A0 Stepping aktiviert ist, nur das es eben dann mit dem Standardwert gefüllt wird.

Hätte der Leaker sich die Mühe gemacht den Quelltext wirklich sich anzusehen, dann wäre es ihm aufgefallen und er hätte nicht diesen Fehler publiziert.

Das hätte jeder mit etwas Grundwissen der Programmierung geschafft.

Bedeutet also, entweder arbeitet er unsauber, was kein gutes Licht auf ihn wirft oder ihm fehlt notwendiges Wissen und auch das wirft kein gutes Licht auf ihn.

Hier zu auch mein Originslbeitrag dazu:https://www.computerbase.de/forum/t...ktraten-im-duell.2125909/page-9#post-27783381
 
  • Gefällt mir
Reaktionen: HierGibtsNichts und Philste
syfsyn schrieb:
Ok aber in der Quelle stehen auch keine 13k für N5 drin. Mag ja sein, dass es die Minimalpreise sind. Aber oben in deinem Kommi hast du ja Maximalpreis von N5 (17k) mit Minimalpreis von N3 (18k) verglichen. In der Tabelle hingegen ist N3 immer so 50% teurer als N5. Das passt auch zu den 25k für N3 die man sonst schon so gelesen hat. 17k N5 ---> 25k N3.

Die Tabelle kommt mir aber auch ein bisschen spanisch vor. Warum genau soll N3 als High End und bester verfügbarer Node jetzt in 2024 günstiger sein als 2023? Bei Legacy Nodes ist das ja noch teilweise verständlich. Wobei ja gerade TSMC dafür bekannt ist, die Preise ohne Rücksicht auf Kunden zu erhöhen. Siehe letztes Jahr, als es den Kunden schlecht ging.
DevPandi schrieb:
Hier muss ich rein kritischen: Hier hat Taurus absolut recht und der Leaker hat einfach nur etwas zum Besten gegeben ohne es zu prüfen.
Ok, zugegeben, das mit dem Code wusste ich in der Form noch nicht. Das Kepler da in irgendeiner Form verkackt hatte war auch klar. Es ging mir nur darum, dass es für mich ein großer Unterschied ist, ob jemand sich etwas vor Produkt Release aus den Fingern saugt (macht MLID zum Beispiel gerne) oder wie in dem Fall anhand öffentlich zugänglicher Informationen und vor allem nach Testrelease Schlüsse zieht. Das sie falsch waren ist klar. Aber es lässt keine Schlüsse auf die Zuverlässigkeit von Keplers anderen Posts zu.

Er lag bei RDNA3 leistungsmäßig daneben, aber das tat in dem Fall jeder. Wie gesagt, bei MLID lassen sich wesentlich mehr Angriffspunkte finden.
 
Zurück
Oben